English
  • درباره‌ی ما
  • سیاست حفظ حریم خصوصی
  • تماس با ما
شنبه 21 سرطان 1404
تلویزیون دیار
  • برگه نخست
  • تمهید
  • خبر
    • افغانستان
    • جهان
  • اقتصاد
  • فرهنگ
  • دانش
  • نگاه شما
  • ورزش
  • ویژه‌نامه‌ها
    • شهرخوانی
    • زنان
    • حقوق بشر
    • پناهندگان
  • چند رسانه‌ای
    • عکس
    • ویدئو
    • پادکست
بدون نتیجه
مشاهده تمام نتایج
  • برگه نخست
  • تمهید
  • خبر
    • افغانستان
    • جهان
  • اقتصاد
  • فرهنگ
  • دانش
  • نگاه شما
  • ورزش
  • ویژه‌نامه‌ها
    • شهرخوانی
    • زنان
    • حقوق بشر
    • پناهندگان
  • چند رسانه‌ای
    • عکس
    • ویدئو
    • پادکست
بدون نتیجه
مشاهده تمام نتایج
تلویزیون دیار
بدون نتیجه
مشاهده تمام نتایج

جعل‌ عمیق وارد بخش‌های مالی می‌شود

سهرابی

16 حمل 1403
مدت زمان مطالعه: 1 دقیقه
0 0
جعل‌ عمیق وارد بخش‌های مالی می‌شود
اشتراک‌گذاری با رمز کیوآراشتراک‌گذاری در فیس‌بوکاشتراک‌گذاری در توییتر

روزنامه‌ی وال استریت ژورنال گزارش داده است که دیپ‌فِک یا جعل‌ عمیق مدت‌هاست که نگرانی‌هایی را در رسانه‌های اجتماعی، انتخابات و بخش عمومی ایجاد کرده است و اکنون با پیشرفت فن‌آوری و زنده‌‌تر شدن صدا و تصویرها توسط هوش مصنوعی، بازیگران بد با دیپ‌فِک مسلح شده‌اند و وارد بخش‌های مالی شرکت‌ها می‌شوند.

روزنامه‌ی وال استریت ژورنال دی‌روز ۱۶ حمل در گزارش آورده است که دیپ‌فک‌‌ یا جعل‌ عمیق‌ مدت‌هاست که نگرانی‌هایی را در رسانه‌های اجتماعی، انتخابات و بخش عمومی ایجاد کرده است؛ اما اکنون با پیشرفت‌های فن‌آوری که صدا و تصاویر مبتنی بر هوش مصنوعی را زنده‌تر از همیشه کرده است، بازیگران بد با دیپ‌فیک‌ها مسلح شده‌اند وارد بخش‌های مالی شرکت‌ها می‌شوند.

بیل کسیدی رئیس اطلاعات شرکت بیمه نیو یورک لایف گفت: همیشه تماس‌های کلاهبرداری وجود داشت. اما اکنون این مدل‌های هوش مصنوعی می‌توانند الگوهای صدای واقعی فردی را تقلید کنند که به شخصی با تلفن دستور می‌دهد تا کاری انجام دهد – این نوع خطرات کاملاً جدید هستند.

بانک‌ها و ارائه‌دهندگان خدمات مالی جز نخستین شرکت‌هایی هستند که هدف بازیگران جعل‌عمیق قرار گرفته اند و کایل کاپل رهبر ایالات متحده برای سایبر در سازمان کی‌‌پی‌ام‌جی در این رابطه گفت: این فضا بسیار سریع در حال حرکت است.

در همین حال بر اساس گزارش‌ها پلتفرم سام‌سپ می‌گوید که حوادث دیپ‌فک در بخش فین‌تک این پلتفرم در سال ۲۰۲۳ نسبت‌به سال گذشته ۷۰۰ درصد افزایش یافته‌است. هم‌چنین بانک چیس واقع در شیکاگوی امریکا، حساب‌های آن اخیراً فریب صدای تولید شده توسط هوش مصنوعی را خورد و این بانک اعلام کرد که برای تکمیل تراکنش‌ها و سایر درخواست‌های مالی، مشتریان باید اطلاعات تکمیلی را ارائه دهند.

این درحالی‌ست که پس‌از ظهور ابزار چت‌جی‌پی‌تی یا گفت‌وگو با هوش مصنوعی شرکت اوپن ای‌آی‌ در سال ۲۰۲۲ و رونق صنعت هوش مصنوعی پس‌از آن، بیشتر دانشمندان و دولت‌ها نگرانی‌های‌شان را در مورد جعل‌عمیق اعلام کرده بودند.

خبرهای مرتبط

هوش‌ مصنوعی و بازار کار؛ مایکروسافت نُه هزار کارمند خود را اخراج می‌کند
جهان

هوش‌ مصنوعی و بازار کار؛ مایکروسافت نُه هزار کارمند خود را اخراج می‌کند

12 سرطان 1404
آسیب‌پذیر اما بی‌اعتنا؛ مردان در نتیجه‌ی چه بیماری‌هایی بیشتر از زنان می‌میرند؟
دانش

آسیب‌پذیر اما بی‌اعتنا؛ مردان در نتیجه‌ی چه بیماری‌هایی بیشتر از زنان می‌میرند؟

26 ثور 1404
تاثیر شگفت‌انگیز استارت‌آپ چینی بر هوش مصنوعی؛ با «دیپ‌سیک» آشنا شوید
دانش

تاثیر شگفت‌انگیز استارت‌آپ چینی بر هوش مصنوعی؛ با «دیپ‌سیک» آشنا شوید

9 دلو 1403
ایلان ماسک ممنوعیت تیک‌تاک در امریکا را «خلاف آزادی بیان» خواند
دانش

ایلان ماسک ممنوعیت تیک‌تاک در امریکا را «خلاف آزادی بیان» خواند

30 جدی 1403

تلویزیون دیار، رسانه‌ای مستقل است که از سوی شماری از «خبرنگاران در تبعید» افغانستان پایه‌گذاری شده‌است. این رسانه، با تمرکز بر بسترهای دیجیتال، رویدادهای افغانستان و جهان را به زبان‌های فارسی، پشتو و انگلیسی روایت می‌کند. پخش زنده‌ی اینترنتی تلویزیون دیار هم‌اکنون در سراسر جهان در دسترس است.


© 2025 تلویزیون دیار. تمامی حقوق محفوظ است.

خوش آمدید!

به حساب خود در زیر وارد شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم

افزودن لیست پخش جدید

بدون نتیجه
مشاهده تمام نتایج
  • برگه نخست
  • تمهید
  • خبر
    • افغانستان
    • جهان
  • اقتصاد
  • فرهنگ
  • دانش
  • نگاه شما
  • ورزش
  • ویژه‌نامه‌ها
    • شهرخوانی
    • زنان
    • حقوق بشر
    • پناهندگان
  • چند رسانه‌ای
    • عکس
    • ویدئو
    • پادکست

© 202۵ تلویزیون دیار. تمامی حقوق محفوظ است.

Hide picture