روزنامهی وال استریت ژورنال گزارش داده است که دیپفِک یا جعل عمیق مدتهاست که نگرانیهایی را در رسانههای اجتماعی، انتخابات و بخش عمومی ایجاد کرده است و اکنون با پیشرفت فنآوری و زندهتر شدن صدا و تصویرها توسط هوش مصنوعی، بازیگران بد با دیپفِک مسلح شدهاند و وارد بخشهای مالی شرکتها میشوند.
روزنامهی وال استریت ژورنال دیروز ۱۶ حمل در گزارش آورده است که دیپفک یا جعل عمیق مدتهاست که نگرانیهایی را در رسانههای اجتماعی، انتخابات و بخش عمومی ایجاد کرده است؛ اما اکنون با پیشرفتهای فنآوری که صدا و تصاویر مبتنی بر هوش مصنوعی را زندهتر از همیشه کرده است، بازیگران بد با دیپفیکها مسلح شدهاند وارد بخشهای مالی شرکتها میشوند.
بیل کسیدی رئیس اطلاعات شرکت بیمه نیو یورک لایف گفت: همیشه تماسهای کلاهبرداری وجود داشت. اما اکنون این مدلهای هوش مصنوعی میتوانند الگوهای صدای واقعی فردی را تقلید کنند که به شخصی با تلفن دستور میدهد تا کاری انجام دهد – این نوع خطرات کاملاً جدید هستند.
بانکها و ارائهدهندگان خدمات مالی جز نخستین شرکتهایی هستند که هدف بازیگران جعلعمیق قرار گرفته اند و کایل کاپل رهبر ایالات متحده برای سایبر در سازمان کیپیامجی در این رابطه گفت: این فضا بسیار سریع در حال حرکت است.
در همین حال بر اساس گزارشها پلتفرم سامسپ میگوید که حوادث دیپفک در بخش فینتک این پلتفرم در سال ۲۰۲۳ نسبتبه سال گذشته ۷۰۰ درصد افزایش یافتهاست. همچنین بانک چیس واقع در شیکاگوی امریکا، حسابهای آن اخیراً فریب صدای تولید شده توسط هوش مصنوعی را خورد و این بانک اعلام کرد که برای تکمیل تراکنشها و سایر درخواستهای مالی، مشتریان باید اطلاعات تکمیلی را ارائه دهند.
این درحالیست که پساز ظهور ابزار چتجیپیتی یا گفتوگو با هوش مصنوعی شرکت اوپن ایآی در سال ۲۰۲۲ و رونق صنعت هوش مصنوعی پساز آن، بیشتر دانشمندان و دولتها نگرانیهایشان را در مورد جعلعمیق اعلام کرده بودند.