فیلم بیشتر »»
کد خبر ۹۲۸۷۵۵
تاریخ انتشار: ۰۵:۰۰ - ۰۳-۱۰-۱۴۰۲
کد ۹۲۸۷۵۵
انتشار: ۰۵:۰۰ - ۰۳-۱۰-۱۴۰۲

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود
مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج با تاکید بر اینکه هوش مصنوعی می تواند موجب تولید اخبار جعلی شود، گفت:باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم.

سید سجاد شریعتی با اشاره به «نسبت هوش مصنوعی با فیک نیوز و تحولی که ایجاد می‌کند»، گفت: هر چیزی که به عنوان جنگ ترکیبی، فیک نیوز، هجوم رسانه‌ای و حتی رسانه و زیست بشری می‌شناسیم، با تحولاتی که در سال‌های آینده در هوش مصنوعی رخ می‌دهد، تغییر می‌کند و متحول می‌شود.

به گزارش مهر، میزان تولید و توزیع خبر دروغ با هوش مصنوعی رشد تصاعدی می‌یابد. بنابراین هرچه کنش ورزی می‌خواهیم، باید در حوزه هوش مصنوعی باشد تا تاثیرگذار شود.

شریعتی با تاکید بر اینکه ابتدا باید هوش مصنوعی را بشناسیم، گفت: هوش مصنوعی در سه نسل تعریف می‌شود. نسل اول هوش مصنوعی، هوش مصنوعی محاسباتی و منطقی است که از دهه ۶۰ آغاز شد. این روند تا ۲۰۱۰ در همین حیطه وجود داشت.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج افزود: شکل بعدی هوش مصنوعی از ۲۰۱۰ آغاز شد به خاطر تحول در داده‌ها و اینترنت رخ داد. وقتی کلان‌داده فراهم شد، به نسل جدید منتقل شدیم.

هر چند خیلی چیزها وجود دارد که هنوز لمس نکرده‌ایم. باید تعامل با ماشین را بشناسیم و زبان ماشین را درک کنیم و متوجه شویم چگونه حرف ما را می‌شنود و چگونه سوال کنیم که به ما پاسخ بدهند.

وی نسل سوم هوش مصنوعی را AGI یا هوش مصنوعی عام توصیف کرد و گفت: در سراج به این نوع هوش، هوش مدبر یا عقل فعال می‌گوییم که می‌تواند به صورت انفرادی چیزها را یاد بگیرد، رشد کند، توسعه یابد و در پایان خود هوش را تولید کند.

دکتر شریعتی گفت: شبکه عصبی مصنوعی ماشین‌هایی هستند که مانند مغز انسان یاد می‌گیرند.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج با اشاره به مدل زبان‌های بزرگ، گفت: این مدل پردازش زبان‌های طبیعی دارد که بررسی می‌کند چگونه انسان‌ها کلمات را کنار هم قرار می‌دهند.

دکتر شریعتی با اعلام اینکه وقتی هوش مصنوعی روی اکوسیستم می‌نشیند، اتفاق اصلی رخ داده است، گفت: هوش مصنوعی می‌تواند بالای اکوسیستم دیجیتال بنشیند و اپلیکیشن‌های مختلف را ارائه دهد.

وی به تشریح ۴ مسیر اصلی و کاربرد هوش مصنوعی در حوزه فیک‌نیوز پرداخت و گفت: دیپ فیک،اتاق پژواک، اتاق محتوا و دستکاری داده، پایه ۴ مسیر اصلی است. این چهار مسیر اصلی‌ترین مسیرهای مساهمت هوش در حوزه خبر جعلی و اطلاعات غلط است.

هر کدام از این ابزارها می‌توانند به تنهایی موج‌های سایبری و رسانه‌ای را در راستای تولید و انتشار اخبار دروغین ایجاد کنند.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج گفت: باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم و دروغ سراسر روابط انسانی را بگیرد.

وی گفت: برجسته‌ترین عملکرد دیپ فیک‌ها علیه سیاستمداران و فضای سیاسی صورت می‌گیرد. اما بیشتر زمانی خطرناک‌تر می‌شود که به تولید فضای جعل و دروغ در جامعه وارد شود. در این صورت باید بترسیم که کلاهبرداری‌ها اتفاق بیفتد، فیلم بسازند و روابط انسان‌ها را تخریب کنند.

وی با اعلام اینکه برای مقابله با این چالش‌ها، باید به راهکار اندیشید، گفت: ما برای شناسایی و جلوگیری از اخبار جعلی، از ابزارهای هوش مصنوعی استفاده می‌کنیم.

ما می‌توانیم با تحلیل داده‌ها، محتوا، منبع و مخاطب اخبار، میزان صحت و اعتبار آن‌ها را سنجیده و به مخاطبان اطلاع دهیم. ما همچنین می‌توانیم با آموزش و افزایش سواد فضای مجازی، مردم را قادر به تشخیص و انتقاد از اخبار جعلی کنیم.

پربیننده ترین پست همین یک ساعت اخیر
ارسال به دوستان
نوجوانان پرخاشگر زودتر پیر می شوند بالشی که به ناشنوایان هشدار سرقت و آتش سوزی می‌دهد(+عکس) متهم ردیف اول خالی شدن باتری موبایل را بشناسید + راه‌حل‌های ساده چرا برخی افراد در حل مسائل ریاضی بهتر از دیگران هستند؟ داستان تولد جام جهانی؛ از یک ایده ساده تا بزرگ‌ترین صحنه جهان عراقچی: آمریکا و امارات هوشیار باشند دوباره به یک باتلاق کشیده نشوند چگونه اقتصاد خانواده را از صفر بازسازی کنیم؟ / چند ایده برای افزایش درآمدهای خرد چرا چشمانمان به ما دروغ می‌گویند؟ / پشت پرده توهم ماه غول‌آسا تیراندازی در نزدیکی کاخ سفید ماکرون به ترامپ: در هیچ طرح نظامی آمریکا درباره هرمز مشارکت نمی‌کنیم عضو سابق کنگره آمریکا: ترامپ گفت «اگر پسرت کشته شود، حقّت است» حمله سایبری به امارات همزمان با هدف قرار گرفتن الفجیره وکیل سابق ترامپ در وضعیت وخیم قرار دارد فیلم‌ها تکراری ، سریال‌ها تکراری ، تلویزیون تکراری ، بازیگر تکراری ؛ چرا همه چیز اینقدر تکراریه؟ احمدیان: هزینه تصمیم برای دشمنان از آستانه تحمل فراتر خواهد رفت