امروز بیش از هر زمان دیگری به اطلاعات دسترسی داریم. اما در عین حال، به دست آوردن تصویری روشن از آنچه در جهان میگذرد، دشوارتر شده است. در شبکههای اجتماعی، اخبار از طریق الگوریتمهای غیرشفاف به ما میرسند و کاربران اغلب آنها را در قالب فیدهای پیوسته (تایملاین) دنبال میکنند، بدون آنکه فعالانه در جستوجویشان باشند. این وضعیت، شیوه آگاه ماندن ما را بهطور جدی تغییر داده و حتی اعتماد به خودِ واقعیتها را نیز تضعیف کرده است.
در همین حال، بحران اقتصادی روزنامهنگاری، کویرهای خبری گستردهای ایجاد کرده است؛ مناطقی که در آنها هیچ روزنامهنگار حرفهای برای روایت واقعیتهای محلی حضور ندارد. بر اساس مطالعهای از بنیاد گابو، نهاد غیرانتفاعی مستقر در کلمبیا که از روزنامهنگاری در آمریکای لاتین حمایت میکند، دستکم ۳۰ درصد از مناطق کشورهای آمریکای لاتین که بررسیشدهاند، «کویر خبری» محسوب میشوند. وقتی هوش مصنوعی را هم به این اکوسیستم اضافه کنیم، آگاه بودن بهعنوان یک شهروند، مثلا برای فهمیدن اینکه در ایران یا ونزوئلا چه میگذرد، به چالشی جدی تبدیل میشود.
هوش مصنوعی از سه مسیر مشخص، شیوه آگاه شدن ما را مختل میکند.
نخستین و آشکارترین مسیر، استفاده از هوش مصنوعی توسط بازیگرانی است که میخواهند به دلایل سیاسی یا برای کسب سود، اطلاعات نادرست منتشر کنند. در جریان پوشش خبری بازداشت نیکلاس مادورو در ونزوئلا، تصاویری از او در حالی که دستبند به دست داشت منتشر شد. این تصاویر که با هوش مصنوعی ساخته شده بودند بهسرعت در شبکهها پخش شد و موجی از سردرگمی ایجاد کرد.
نگرانکنندهتر اینکه شواهدی وجود دارد که نشان میدهد سازمانهای تبهکار نیز به این ابزارها روی آوردهاند. به گفته برخی کارشناسان، در عملیاتی که طی آن «ال مِنچو»، رهبر یک کارتل مواد مخدر در مکزیک کشته شد، این کارتل از تصاویر و ویدئوهای تولیدشده با هوش مصنوعی برای بزرگنمایی هرجومرج استفاده کرده است.
انگیزههای اقتصادی نیز محرک مهمی برای این سوءاستفادهها هستند. در دو سال گذشته، کلاهبرداریهایی که با استفاده از ویدئوهای جعلیِ چهرههای عمومی برای تبلیغ سرمایهگذاریهای فریبکارانه انجام میشوند، بهطور چشمگیری زیاد شدهاند.
دومین مسیری که هوش مصنوعی از طریق آن شیوه آگاه شدن ما را مختل میکند، استفاده از چتباتهای مولد بهعنوان منبع خبر است. از یک سو، این ابزارها میتوانند دسترسی به اطلاعاتی متناسب با علایق و نیازهای فردی را گسترش دهند. اما در عین حال، به شکلی گمراهکننده عمل میکنند یا به تعبیر رایج در حوزه هوش مصنوعی، «توهم» تولید میکنند. این خطاها هم غیرقابلپیشبینیاند و هم تشخیص آنها دشوار است.
سیستمی که حتی در پنج درصد موارد پاسخ نادرست میدهد، شاید در نگاه اول چندان مشکلساز به نظر نرسد؛ اما اگر کاربران نتوانند همین خطاهای محدود را تشخیص دهند، در عمل چندان قابل اعتماد نخواهد بود.
سومین و عمیقترین مسیر، فرسایش خودِ مفهوم «مدرک» است. تصاویر و ویدئوها همیشه قابلیت دستکاری داشتهاند، اما ابزارهای امروز این کار را بسیار آسانتر و نتیجه را بسیار قانعکنندهتر کردهاند. وقتی محتوای مصنوعی فیدهای ما را پر میکند، اعتماد به آنچه میبینیم روزبهروز دشوارتر میشود. و وقتی راستیآزمایی بیش از حد پیچیده شود، مخاطبان از خبر فاصله میگیرند.
این همان چیزی است که به آن «سود دروغگو» گفته میشود؛ وضعیتی که در آن، ایجاد تردید عمومی به نفع دروغگو تمام میشود. در چنین شرایطی، افراد میتوانند صرفاً با این ادعا که یک مدرک واقعی با هوش مصنوعی ساخته شده، آن را بیاعتبار کنند. سیاستمداران نیز همین حالا با همین استدلال، فایلهای صوتی درزکرده را انکار میکنند.
در برابر این وضعیت، هیچ راهحل سادهای وجود ندارد. بخشی از پیچیدگی ماجرا به شبکههای اجتماعی برمیگردد که به تکثر صداها دامن زدهاند؛ تحولی مثبت که گفتوگوی عمومی را گستردهتر و متنوعتر کرده، اما در عین حال نیازمند پاسخهای پیچیدهتر است.
شرکتهای فناوری و شبکههای اجتماعی باید در قبال پیامدهای منفی محصولاتشان پاسخگو باشند. در پانزده سال گذشته، تصمیمهای تعداد محدودی از پلتفرمها، جریان اطلاعات و حیات دموکراتیک را بهشدت دگرگون کردهاند، آن هم تا حد زیادی بدون بحث عمومی. اختلالی که هوش مصنوعی ایجاد میکند، ممکن است حتی از این هم بزرگتر باشد.
پرسشهای کلیدی بسیاری همچنان بیپاسخ ماندهاند: اینکه محتوای تولیدشده با هوش مصنوعی چگونه در پلتفرمهای مختلف قابل ردیابی خواهد بود؛ شرکتها هنگام آموزش مدلهای زبانی بزرگ چه سازوکارهای حفاظتیای به کار گرفتهاند؛ و چگونه میتوان از استفاده این ابزارها در کارزارهای هماهنگ نفوذ جلوگیری کرد.
با این حال، نمیتوان تنها به دولتها و شرکتها تکیه کرد. جوامع نیز باید برای این محیط جدید آماده شوند. سواد رسانهای، بهگونهای که افراد نهتنها بتوانند محتوای نادرست را تشخیص دهند، بلکه منابع قابل اعتماد را نیز پیدا کنند بیش از هر زمان دیگری اهمیت دارد.
در پلتفرم چکادو (Chequeado)، یک رسانه راستیآزمایی در آرژانتین (مانند فکتنامه)، این کار شامل همکاری با ناشران بزرگ برای گنجاندن موضوع اطلاعات نادرست در کتابهای درسی و تولید منابع آموزشی برای معلمان است. ما همچنین محتوا تولید میکنیم و در جشنوارههای موسیقی و دیگر فضاهای عمومی، کارزارهای آگاهیرسانی برگزار میکنیم.
راستیآزمایی همچنان در مرکز فعالیت ما قرار دارد. انسانهایی که کار راستیآزمایی انجام میدهند، بافت، ظرافت، طعنه، نسبت میان تصویر و متن، و نحوه شکلگیری یک پرسش را درک میکنند، امروز بیش از هر زمان دیگری اهمیت دارند.
شرکتها و پژوهشگران مرتباً به سراغ ما میآیند تا راهی برای خودکارسازی این کار پیدا کنند، اما تا امروز هیچ مدل موفقی برای جایگزینی کامل این فرآیند وجود نداشته است.

فناوری با شناسایی اطلاعات نادرست بالقوه، پیادهسازی و تحلیل حجمهای بزرگ محتوا، تشخیص تصاویر و ویدئوهای ساختهشده با هوش مصنوعی، و تسهیل نوشتن یا تبدیل قالبها از کار ما حمایت میکند. با این حال، راستیآزمایی در مجموع همچنان یک فرایند انسانی است. راستیآزمایان انسانی از نوعی قضاوت و درک برخوردارند که ماشینها قادر به بازتولید آن نیستند.
ما همه چیز را راستیآزمایی نمیکنیم و نمیتوانیم هم بکنیم. چنین هدفی نیز هرگز وجود نداشته است. تمرکز ما بر موارد مشخصی از اطلاعات نادرست است که یا به مخاطبان گستردهای رسیدهاند یا ظرفیت بالایی برای آسیبرسانی دارند.
هر مورد هدف مشخصی را دنبال میکند: توضیح اینکه اطلاعات نادرست چگونه عمل میکند، نشان دادن اهمیت دقت، و تقویت نگاه انتقادی نسبت به محتوا. در عین حال، تلاش میکنیم روشهای راستیآزمایی را برای هر کسی که میخواهد اطلاعاتی را که با آن روبهرو میشود بررسی کند، قابل فهم و قابل استفاده کنیم.
هدف نهایی، افزایش آگاهی عمومی و فراهم کردن ابزارهایی است تا افراد بتوانند بر پایه واقعیتها، خودشان به نتیجهگیری برسند.
این مقاله را اولیویا سور مدیر ابتکارات خبری چکادو و فرانکو پیکاتو مدیر اجرایی این سازمان که یک نهاد راستیآزمایی در آرژانتین است، به مناسبت روز جهانی راستیآزمایی نوشتهاند و وبسایت پوینتر آن را منتشر کرده است.


