هوش مصنوعی Grok در ماجرای ترور چارلی کرک گاف داد_رنگو

هوش مصنوعی Grok در ماجرای ترور چارلی کرک گاف داد

[ad_1]
نوشته و ویرایش شده توسط مجله ی رنگو

در روزهای تازه نام Grok ابزار هوش مصنوعی گسترش‌یافته توسط xAI، بار دیگر در مرکز دقت قرار گرفت. ماجرا از آنجا اغاز شد که این پلتفرم در روبه رو با ویدیوی ترور چارلی کرک واکنشی او گفت و گو‌برانگیز نشان داد.

به نقل از سرویس جامعه رسانه اخبار فناوری تکنا، در شرایطی که رسانه‌های جریان مهم تصاویر این حادثه را به‌طور گسترده انتشار کردند و منبع های رسمی صحت ماجرا را قبول نمودند، Grok این ویدیو را فقطً یک ویرایش طنزگونه یا به کلمه «meme edit» توصیف کرد. همین موضع علتشد تعداد بسیاری از کارشناسان، حرکت این ابزار را مثالای روشن از خطای جدی هوش مصنوعی در بازنمایی حقیقت بدانند. نوشته تنها به یک نادرست ساده محدود نمی‌بشود، بلکه نشانه‌ای است از خطرات گسترده‌تر در دنیایی که الگوریتم‌ها می‌توانند بین حقیقت و شایعه مرز مشخصی باقی نگذارند.

این ماجرا سوال‌های بنیادی درمورد قابلیت مطمعن به پلتفرم‌های هوش مصنوعی برانگیخته است. کاربران انتظار دارند این چنین ابزارهایی در تحلیل داده‌ها دقت داشته باشند، اما مدل‌های زبانی زیاد تر بر پایه الگوهای حاضر در داده‌ها جواب تشکیل می‌کنند نه بر پایه بازدید صحت اطلاعات. به همین علت اگر یک اتفاقات هم‌زمان با حجم بالای شایعه ها و محتوای طنز در فضای آنلاین نقل بشود، گمان دارد هوش مصنوعی آن روایت‌ها را بازتولید کرده و حتی اعتبار بیشتری به آنها ببخشد. این ضعف وقتی که با مشکلاتهای واقعی و فجایع انسانی هم‌زمان می‌بشود، نه تنها جهت گمراهی عمومی، بلکه علتتشدید آشفتگی و بی‌اعتمادی نیز خواهد شد.

در این بین نقش کاربران نیز قابل چشم‌پوشی نیست. تعداد بسیاری از افراد به جای منفعت گیری از چت‌بات‌ها برای پشتیبانی در کارهای روزمره یا بهبود منفعت‌وری، آنها را منبع خبری و مرجع تحلیل وقایع می‌دانند. این رویکرد، انتظاراتی فراتر از توانمندیهای واقعی این فناوری تشکیل می‌کند و در نتیجه هنگامی اشتباهی شبیه ماجرای Grok رخ می‌دهد، پیامدها زیاد بزرگ‌تر نمود می‌کنند. اگر کاربران بدانند که این چنین ابزارهایی جانشین خبرنگاران و منبع های خبری معتبر نیستند، مقدار بحران ناشی از این خطاها تا حدی افت خواهد یافت. با این حال نمی‌توان از کنار مطلب هشدارآمیزی که این رخداد به همراه دارد به سادگی گذشت.

حادثه تازه نشان داد که هوش مصنوعی می‌تواند در گسترش اطلاعات نادرست نقشی پررنگ ایفا کند. ماجرای Grok را نباید یک لغزش مقطعی قلمداد کرد، بلکه باید آن را یادآور جدی محدودیت‌ها و خطرات فناوری‌های نو دانست. در نبوده است سازوکارهای ایمنی و کنترل‌های دقیق، انتشار کردن اطلاعات نادرست به سرعتی حیرت‌انگیز صورت می‌گیرد و مطمعن عمومی نسبت به پلتفرم‌های دیجیتال بیشتر از پیش تضعیف می‌بشود. در دنیای امروز که ابزارهای هوش مصنوعی هر روز بیش‌تر در زندگی روزمره نفوذ می‌کنند، این رخداد زنگ خطری است برای الزام تشکیل چارچوب‌های شفاف و مسئولانه در گسترش و منفعت گیری از آنها.

دسته بندی مقالات

مقالات کسب وکار

مقالات تکنولوژی

مقالات آموزشی

سلامت و تندرستی

[ad_2]

پست های مرتبط