هوش مصنوعی مردم سالاری را هدف گرفته است
هوش مصنوعی تهدیدی جدی برای دموکراسیها ایجاد کرده است، زیرا میتواند برای دستکاری اطلاعات استفاده شود، که نیازمند راهکارهایی برای مقابله است.
باشگاه خبرنگاران جوان؛ حسین مهدیتبار - فنآوریهای هوش مصنوعی تولیدی، مانند مدلهای زبان بزرگ (LLMs)، نگرانیهایی را در مورد تأثیر آنها بر دموکراسیها بهویژه در زمینه تواناییشان برای تأثیرگذاری بر ادراکات عمومی، اختلال در انتخابات و انتشار اطلاعات غلط ایجاد کرده است.
این ابزارهای هوش مصنوعی میتوانند به سرعت محتوایی مانند متن، تصاویر و ویدیوها تولید کنند که ممکن است توسط بازیگران مخرب، هم داخلی و هم خارجی، سوءاستفاده شوند.
ظهور محتوای تولید شده توسط هوش مصنوعی، بهویژه در قالب دیپ فیکها، چالشهای قابل توجهی را برای فرآیندهای دموکراتیک به وجود میآورد، زیرا تمایز بین محتوای اصیل و دستکاریشده روز به روز سختتر میشود.
محتوای تولید شده توسط هوش مصنوعی میتواند برای دستکاری در گفتمان سیاسی، گسترش اطلاعات غلط و حتی مداخله در انتخابات استفاده شود، همانطور که در رویدادهای مختلف جهانی شاهد بودیم.
در کشورهای مانند ایالات متحده، دیپ فیکها و تصاویر جعلی تولید شده توسط هوش مصنوعی در حال استفاده برای تأثیرگذاری بر افکار عمومی هستند و سیاستمداران و فعالان محتواهای گمراهکننده را برای تأثیرگذاری بر رأیدهندگان به اشتراک میگذارند.
علاوه بر این، ابزارهای هوش مصنوعی امکان گسترش سریع روایتهای مضر را فراهم میکنند و اطلاعات غلط را تشدید کرده و موجب سردرگمی رأیدهندگان میشوند.
اطلاعات غلط جنسی، بهویژه علیه سیاستمداران زن، نیز نگرانی مهمی است، زیرا محتوای تولید شده توسط هوش مصنوعی هدفگیری جنسی و تعصبآمیز را تقویت میکند.
برای مقابله با تهدیدات ناشی از هوش مصنوعی تولیدی، دولتها باید اقداماتی جامع برای تنظیم و حکمرانی اتخاذ کنند.
این اقدامات شامل توسعه تکنولوژیهایی برای شناسایی محتوای تولیدی توسط هوش مصنوعی، مانند واترمارکگذاری، و اطمینان از شفافیت در تولید محتوا میباشد.
همچنین، ابتکارات آگاهیبخشی عمومی مانند برنامههای سواد دیجیتال برای کمک به افراد در شناسایی و مقابله با اطلاعات غلط ضروری است.
همکاری بینالمللی برای مقابله با ماهیت جهانی اطلاعات غلط تولید شده توسط هوش مصنوعی ضروری است، زیرا کشورهای مختلف باید برای ایجاد استانداردها و استراتژیهای حفاظت از دموکراسی با یکدیگر همکاری کنند.
در بلندمدت، یک رویکرد چندجانبه که ترکیبی از مقررات قانونی، راهحلهای تکنولوژیکی و آموزش عمومی باشد برای کاهش خطرات ناشی از هوش مصنوعی تولیدی ضروری است.
تنها از طریق تلاشهای هماهنگشده است که دموکراسیها میتوانند از یکپارچگی انتخابات خود محافظت کرده، شهروندان را از اطلاعات غلط حفظ کنند و اعتماد به نهادهای دموکراتیک را حفظ نمایند.
منبع: اندیشکده کارنگی اروپا