بودجه ده میلیون دلاری برای شناسایی ویدئوهای جعلی هوش مصنوعی


بودجه ده میلیون دلاری برای شناسایی ویدئوهای جعلی هوش مصنوعی

فیس بوک قصد دارد ده میلیون دلار بودجه تحقیقاتی برای ابداع فناوری تازه ای اختصاص دهد که می تواند برای تسهیل شناسایی ویدئوهای جعلی تولید شده با هوش مصنوعی به کار رود.

به گزارش خبرگزاری مهر به نقل از زددی نت، فیس بوک که نگران استفاده از این شبکه اجتماعی برای انتشار انبوه ویدئوهای تقلبی و جنجالی مبتنی بر هوش مصنوعی موسوم به دیپ فیک است، چالش فناورانه کشف ویدئوهای دیپ فیک را به راه انداخته است.

فیس بوک هدف از اختصاص بودجه ده میلیون دلاری به این طرح را آسان شدن شناسایی ویدئوهای دیپ فیک دانسته است. در حال حاضر شناسایی ویدئوهای دیپ فیک به علت شباهت زیاد آنها با ویدئوهای اصل و غیرتقلبی کار ساده ای نیست و فناوری های هوش مصنوعی مورد استفاده برای تولید این ویدئوها نیز روز به روز پیشرفته تر و پیچیده تر می شود.

بخش اول از این طرح مشتمل بر ایجاد یک پایگاه داده بزرگ از محتوای ویدئویی دیپ فیک است تا محققان از این طریق بتوانند اطلاعات بیشتری در مورد انواع این ویدئوها جمع آوری کنند. کارشناسان فیس بوک می گویند هنوز شاخص های عمومی ویدئوهای دیپ فیک که کشف و شناسایی آنها را تسهیل کند، شناسایی نشده اند.

ویدئوهای دیپ فیک با تقلید از صدا و چهره سیاستمداران مشهور، برای نسبت دادن اظهارات غیرواقعی به آنها قابل استفاده هستند و می توانند روابط بین المللی کشورها را دچار چالش کرده و پیامدهای سیاسی و اجتماعی و فرهنگی خطرناکی را به دنبال داشته باشند.

به تازگی تقلید صدای رئیس شرکتی در انگلیس برای فریب تلفنی کارمندان وی و وادار کردن مدیران مالی این شرکت برای پرداخت ۲۴۳ هزار دلار پول مورد سوء استفاده قرار گرفت.


به گزارش خبرگزاری مهر به نقل از زددی نت، فیس بوک که نگران استفاده از این شبکه اجتماعی برای انتشار انبوه ویدئوهای تقلبی و جنجالی مبتنی بر هوش مصنوعی موسوم به دیپ فیک است، چالش فناورانه کشف ویدئوهای دیپ فیک را به راه انداخته است.

فیس بوک هدف از اختصاص بودجه ده میلیون دلاری به این طرح را آسان شدن شناسایی ویدئوهای دیپ فیک دانسته است. در حال حاضر شناسایی ویدئوهای دیپ فیک به علت شباهت زیاد آنها با ویدئوهای اصل و غیرتقلبی کار ساده ای نیست و فناوری های هوش مصنوعی مورد استفاده برای تولید این ویدئوها نیز روز به روز پیشرفته تر و پیچیده تر می شود.

بخش اول از این طرح مشتمل بر ایجاد یک پایگاه داده بزرگ از محتوای ویدئویی دیپ فیک است تا محققان از این طریق بتوانند اطلاعات بیشتری در مورد انواع این ویدئوها جمع آوری کنند. کارشناسان فیس بوک می گویند هنوز شاخص های عمومی ویدئوهای دیپ فیک که کشف و شناسایی آنها را تسهیل کند، شناسایی نشده اند.

ویدئوهای دیپ فیک با تقلید از صدا و چهره سیاستمداران مشهور، برای نسبت دادن اظهارات غیرواقعی به آنها قابل استفاده هستند و می توانند روابط بین المللی کشورها را دچار چالش کرده و پیامدهای سیاسی و اجتماعی و فرهنگی خطرناکی را به دنبال داشته باشند.

به تازگی تقلید صدای رئیس شرکتی در انگلیس برای فریب تلفنی کارمندان وی و وادار کردن مدیران مالی این شرکت برای پرداخت ۲۴۳ هزار دلار پول مورد سوء استفاده قرار گرفت.

کد خبر 4717482

حتما بخوانید: سایر مطالب گروه علمی

برای مشاهده فوری اخبار و مطالب در کانال تلگرام ما عضو شوید!


روی کلید واژه مرتبط کلیک کنید

بیشترین بازدید یک ساعت گذشته


نسخه‌های مافیایی آیفون 15 توسط Caviar معرفی شد