English
  • درباره‌ی ما
  • سیاست حفظ حریم خصوصی
  • تماس با ما
سه‌شنبه 30 ثور 1404
تلویزیون دیار
  • برگه نخست
  • تمهید
  • خبر
    • افغانستان
    • جهان
  • اقتصاد
  • فرهنگ
  • دانش
  • نگاه شما
  • ورزش
  • ویژه‌نامه‌ها
    • شهرخوانی
    • زنان
    • حقوق بشر
    • پناهندگان
  • چند رسانه‌ای
    • عکس
    • ویدئو
    • پادکست
بدون نتیجه
مشاهده تمام نتایج
  • برگه نخست
  • تمهید
  • خبر
    • افغانستان
    • جهان
  • اقتصاد
  • فرهنگ
  • دانش
  • نگاه شما
  • ورزش
  • ویژه‌نامه‌ها
    • شهرخوانی
    • زنان
    • حقوق بشر
    • پناهندگان
  • چند رسانه‌ای
    • عکس
    • ویدئو
    • پادکست
بدون نتیجه
مشاهده تمام نتایج
تلویزیون دیار
بدون نتیجه
مشاهده تمام نتایج

ابزارهوش مصنوعی مایکروسافت از چهره‌ها و صداها نسخه‌برداری واقعی می‌کند

سهرابی

27 عقرب 1402
مدت زمان مطالعه: 1 دقیقه
0 0
ابزارهوش مصنوعی مایکروسافت از چهره‌ها و صداها نسخه‌برداری واقعی می‌کند
اشتراک‌گذاری با رمز کیوآراشتراک‌گذاری در فیس‌بوکاشتراک‌گذاری در توییتر

به‌گزارش از روزنامه‌ی گاردین، شرکت مایکروسافت هفته‌ی گذشته در نشستی از ابزار جدید هوش مصنوعی خود رونمایی کرد که می‌تواند به‌صورت واقعی چهر‌ه‌ و صدای انسان‌ها را نسخه‌برداری کند.

به‌گزارش از روزنامه‌ی گاردین، شرکت مایکروسافت چهارشنبه‌ی هفته گذشته (۲۴ عقرب/آبان) در نشست توسعه‌دهندگان خویش از ابزار جدید هوش مصنوعی پرده‌برداشت که می‌تواند به‌صورت واقعی چهره و صدای انسان‌ها را نسخه‌برداری کند. این نرم‌افزار هوش مصنوعی طوری‌ست که می‌تواند آواتارها و صداهای جدید تولید کند یا ظاهر و گفتار موجود یک کاربر را تکرار کند. اسم این ابزار هوش مصنوعی مایکروسافت «Azure AI Speech» بوده و با تصویر‌های انسانی آموزش‌داده شده‌است و به کابران اجازه می‌دهد، متنی را وارد کنند و سپس توسط یک آواتار واقعی که با هوش مصنوعی ایجاد شده‌است، با صدای بلند بخواند. کاربران هم‌چنین می‌توانند آواتار مایکروسافتِ از قبل بارگذاری‌شده را انتخاب کنند یا فیلمِ‌ شخصی را که می‌خواهند صدا و شباهت او را تکرار کنند، آپلود/بارگذاری کنند.

شرکت مایکروسافت با پُستی در ویب‌لاگش گفت: این ابزار می‌تواند برای ساخت عامل‌های مکالمه، دستیاران مجازی، ربات‌های گفت‌وگو و موارد دگر استفاده شود.

این شرکت افزود که نرم‌افزار جدید تبدیل متن به گفتار با محدودیت‌ها و تدابیر حفاظتی مختلفی برای جلوگیری از سواستفاده منتشر می‌شود و به‌عنوان بخشی از تعهد مایکروسافت به هوش مصنوعی مسئولانه، آواتار نوشتار به گفتار با هدف حفاظت از حقوق افراد و جامعه، تقویت تعامل شفاف انسان و رایانه و مقابله با تکثیر دیپ‌فیک (DeepFake)های مضر و محتوای گمراه‌کننده طراحی شده‌است.

این درحالی‌ست که تعداد زیاد از دانش‌مندان پیش‌رفت هوش مصنوعی را نگران‌کننده می‌دانند و می‌گویند که این کار باعث افزایش نگرانی‌ها درمورد ایجاد دیپ‌فیک (DeepFake)های ساخته‌شده توسط هوش مصنوعی می‌شود. دیپ‌فیک یا جعل عمیق ترکیبی از کلمه‌های یادگیری عمیق و جعلی بوده که با تکنیکِ تصویر انسان‌ها را مبتنی بر هوش مصنوعی می‌سازد.

خبرهای مرتبط

آسیب‌پذیر اما بی‌اعتنا؛ مردان در نتیجه‌ی چه بیماری‌هایی بیشتر از زنان می‌میرند؟
دانش

آسیب‌پذیر اما بی‌اعتنا؛ مردان در نتیجه‌ی چه بیماری‌هایی بیشتر از زنان می‌میرند؟

26 ثور 1404
تاثیر شگفت‌انگیز استارت‌آپ چینی بر هوش مصنوعی؛ با «دیپ‌سیک» آشنا شوید
دانش

تاثیر شگفت‌انگیز استارت‌آپ چینی بر هوش مصنوعی؛ با «دیپ‌سیک» آشنا شوید

9 دلو 1403
ایلان ماسک ممنوعیت تیک‌تاک در امریکا را «خلاف آزادی بیان» خواند
دانش

ایلان ماسک ممنوعیت تیک‌تاک در امریکا را «خلاف آزادی بیان» خواند

30 جدی 1403
پژوهش‌های علمی و نتایج متضاد؛ به کدام پژوهش‌های علمی باور کنیم؟
دانش

پژوهش‌های علمی و نتایج متضاد؛ به کدام پژوهش‌های علمی باور کنیم؟

26 جدی 1403

تلویزیون دیار از سوی شماری‌از «خبرنگاران در تبعید» افغانستان پایه‌گذاری شده‌است. این‌رسانه هم‌اکنون روی پا‌ی‌گاه‌های دیجیتال، روی‌دادهای افغانستان و جهان را به زبان‌های فارسی، پشتو و انگلیسی روایت می‌کند و در نظر دارد تا به‌زودی پخش زنده‌ی اینترنتی و ماهواره‌ای اش را نیز آغاز کند.


© 2025 تلویزیون دیار. تمامی حقوق محفوظ است.

خوش آمدید!

به حساب خود در زیر وارد شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم

افزودن لیست پخش جدید

بدون نتیجه
مشاهده تمام نتایج
  • برگه نخست
  • تمهید
  • خبر
    • افغانستان
    • جهان
  • اقتصاد
  • فرهنگ
  • دانش
  • نگاه شما
  • ورزش
  • ویژه‌نامه‌ها
    • شهرخوانی
    • زنان
    • حقوق بشر
    • پناهندگان
  • چند رسانه‌ای
    • عکس
    • ویدئو
    • پادکست

© 2024 تلویزیون دیار. تمامی حقوق محفوظ است.