Farsi
LIVE
Sunday, August 17, 2025
Deeyar TV
  • Home
  • Editorial
  • News
    • Afghanistan
    • World
  • Economy
  • Culture
  • Science
  • Opinion
  • Sports
  • Spotlights
    • Narrating the End: Letters from the Fall
    • Citizen Stories
    • Women
    • Human Rights
    • Refugees
  • Multimedia
    • Photo
    • Video
    • Podcast
No Result
View All Result
  • Home
  • Editorial
  • News
    • Afghanistan
    • World
  • Economy
  • Culture
  • Science
  • Opinion
  • Sports
  • Spotlights
    • Narrating the End: Letters from the Fall
    • Citizen Stories
    • Women
    • Human Rights
    • Refugees
  • Multimedia
    • Photo
    • Video
    • Podcast
No Result
View All Result
Deeyar TV
LIVE

جعل‌ عمیق وارد بخش‌های مالی می‌شود

سهرابی

April 4, 2024
Reading Time: 1 min read
0 0
جعل‌ عمیق وارد بخش‌های مالی می‌شود
Share via QR CodeShare on FacebookShare on X

روزنامه‌ی وال استریت ژورنال گزارش داده است که دیپ‌فِک یا جعل‌ عمیق مدت‌هاست که نگرانی‌هایی را در رسانه‌های اجتماعی، انتخابات و بخش عمومی ایجاد کرده است و اکنون با پیشرفت فن‌آوری و زنده‌‌تر شدن صدا و تصویرها توسط هوش مصنوعی، بازیگران بد با دیپ‌فِک مسلح شده‌اند و وارد بخش‌های مالی شرکت‌ها می‌شوند.

روزنامه‌ی وال استریت ژورنال دی‌روز ۱۶ حمل در گزارش آورده است که دیپ‌فک‌‌ یا جعل‌ عمیق‌ مدت‌هاست که نگرانی‌هایی را در رسانه‌های اجتماعی، انتخابات و بخش عمومی ایجاد کرده است؛ اما اکنون با پیشرفت‌های فن‌آوری که صدا و تصاویر مبتنی بر هوش مصنوعی را زنده‌تر از همیشه کرده است، بازیگران بد با دیپ‌فیک‌ها مسلح شده‌اند وارد بخش‌های مالی شرکت‌ها می‌شوند.

بیل کسیدی رئیس اطلاعات شرکت بیمه نیو یورک لایف گفت: همیشه تماس‌های کلاهبرداری وجود داشت. اما اکنون این مدل‌های هوش مصنوعی می‌توانند الگوهای صدای واقعی فردی را تقلید کنند که به شخصی با تلفن دستور می‌دهد تا کاری انجام دهد – این نوع خطرات کاملاً جدید هستند.

بانک‌ها و ارائه‌دهندگان خدمات مالی جز نخستین شرکت‌هایی هستند که هدف بازیگران جعل‌عمیق قرار گرفته اند و کایل کاپل رهبر ایالات متحده برای سایبر در سازمان کی‌‌پی‌ام‌جی در این رابطه گفت: این فضا بسیار سریع در حال حرکت است.

در همین حال بر اساس گزارش‌ها پلتفرم سام‌سپ می‌گوید که حوادث دیپ‌فک در بخش فین‌تک این پلتفرم در سال ۲۰۲۳ نسبت‌به سال گذشته ۷۰۰ درصد افزایش یافته‌است. هم‌چنین بانک چیس واقع در شیکاگوی امریکا، حساب‌های آن اخیراً فریب صدای تولید شده توسط هوش مصنوعی را خورد و این بانک اعلام کرد که برای تکمیل تراکنش‌ها و سایر درخواست‌های مالی، مشتریان باید اطلاعات تکمیلی را ارائه دهند.

این درحالی‌ست که پس‌از ظهور ابزار چت‌جی‌پی‌تی یا گفت‌وگو با هوش مصنوعی شرکت اوپن ای‌آی‌ در سال ۲۰۲۲ و رونق صنعت هوش مصنوعی پس‌از آن، بیشتر دانشمندان و دولت‌ها نگرانی‌های‌شان را در مورد جعل‌عمیق اعلام کرده بودند.

Related Stories

Microsoft to cut 9,000 jobs amid AI-driven restructuring
Science

Microsoft to cut 9,000 jobs amid AI-driven restructuring

July 3 - Updated on August 2
Study: Men die more often than women from hypertension, diabetes and HIV/AIDS
Science

Study: Men die more often than women from hypertension, diabetes and HIV/AIDS

May 16 - Updated on August 2
Chinese startup DeepSeek shocks AI industry with low-cost breakthrough model
Science

Chinese startup DeepSeek shocks AI industry with low-cost breakthrough model

January 28 - Updated on August 2
ایلان ماسک ممنوعیت تیک‌تاک در امریکا را «خلاف آزادی بیان» خواند
Science

ایلان ماسک ممنوعیت تیک‌تاک در امریکا را «خلاف آزادی بیان» خواند

January 19

Deeyar TV is a leading media outlet founded by Afghan journalists in exile, standing as a bold voice for freedom of speech and independent journalism. With a strong digital presence, it brings timely news and compelling stories from Afghanistan and beyond. Its live broadcast is accessible to audiences worldwide.


© 2025 Deeyar TV. All rights reserved.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Home
  • Editorial
  • News
    • Afghanistan
    • World
  • Economy
  • Culture
  • Science
  • Opinion
  • Sports
  • Spotlights
    • Narrating the End: Letters from the Fall
    • Citizen Stories
    • Women
    • Human Rights
    • Refugees
  • Multimedia
    • Photo
    • Video
    • Podcast

© 2025 Deeyar TV. All rights reserved.

Farsi