Home اقتصاد كانت المعلومات الخاطئة مشكلة خلال فيضانات تكساس. لم تساعد AI chatbots دائمًا

كانت المعلومات الخاطئة مشكلة خلال فيضانات تكساس. لم تساعد AI chatbots دائمًا

6
0

عندما ضربت الفيضانات المميتة في وسط تكساس الأسبوع الماضي ، تحول الناس على موقع التواصل الاجتماعي X إلى الذكاء الاصطناعي chatbot grok للحصول على إجابات عن من يلوم.

أشار جروك بثقة إلى الرئيس ترامب.

“نعم. تخفيضات ترامب لعام 2025 خفضت تمويل NOAA/NWS بنسبة 30 ٪ تقريبًا والموظفين بنسبة 17 ٪ ، مما أدى إلى ضعف الدقة المتوقعة. التحذيرات قللت من هطول الأمطار ، وساهمت في عدم كفاية التنبيهات في الفيضانات المفاجئة التي قتلت على الأقل 240 من المعسكرات المفقودة.

في مواجهة رد فعل عنيف من مستخدمي X ، قفز إلى الاستنتاجات و “استيقظ” ، ثم تراجع chatbot.

“هذه لقطة الشاشة عبارة عن تصنيع – لم نشرتها مطلقًا. حقائق فعلية: خفضت ترامب لعام 2025 في NOAA تمويلًا تقلل من التمويل حوالي 30 ٪ والموظفين 17 ٪ ، مما يثير المخاوف (Axios ، Fox). تكساس قتلت فيضانات أكثر من 43 عامًا ، مع تحذيرات صدرت في المقدمة.

توضح الملاحظات المتناقضة كيف يمكن أن تقدم AI chatbots أحيانًا إجابات مباشرة ولكن غير دقيقة ، مما يضيف تشويشًا إلى الثرثرة عبر الإنترنت المملوءة بالفعل بالأكاذيب ونظريات المؤامرة.

في وقت لاحق من الأسبوع ، واجه Grok المزيد من المشاكل. ال chatbot نشرت تصريحات معادية للسامية وأشاد أدولف هتلر ، مما دفع xai لإزالة الوظائف الهجومية. قال مالك الشركة إيلون موسك على X إن chatbot كان “متحمسًا جدًا لإرضاء وتلاعب به” ، وهي مشكلة سيتم معالجتها.

ليس Grok هو chatbot الوحيد الذي أدلى ببيانات غير لائقة وغير دقيقة. في العام الماضي ، chatbot من Google تَوأَم تم إنشاؤها صورًا تُظهر أشخاصًا ملونين في الزي العسكري الألماني من الحرب العالمية الثانية ، والتي لم تكن شائعة في ذلك الوقت. أوقف عملاق البحث عن قدرة الجوزاء على توليد صور للأشخاص ، مشيرة إلى أنه أدى إلى بعض “عدم الدقة”. أوبك AAIP وقد ولدت أيضا قضايا محكمة مزيفة ، مما أدى إلى تغريم المحامين.

تتمثل المتاعب التي تواجهها في بعض الأحيان مع الحقيقة في مصدر قلق متزايد حيث يستخدمها المزيد من الأشخاص للعثور على المعلومات ، وطرح أسئلة حول الأحداث الجارية والمساعدة في فضح المعلومات الخاطئة. ما يقرب من 7 ٪ من الأميركيين يستخدمون chatbots وواجهات الذكاء الاصطناعى للأخبار كل أسبوع. هذا العدد أعلى – حوالي 15 ٪ – للأشخاص الذين تقل أعمارهم عن 25 عامًا ، وفقًا ل تقرير يونيو من معهد رويترز. يتوفر Grok على تطبيق الهاتف المحمول ولكن يمكن للأشخاص أيضًا طرح أسئلة AI chatbot على موقع التواصل الاجتماعي X ، التي كانت تويتر سابقًا.

مع زيادة شعبية هذه الأدوات التي تعمل بالنيابة ، يقول خبراء المعلومات الخاطئة أن الناس يجب أن يكونوا حذرين بشأن ما يقوله chatbots.

وقال دارين لينفيل ، الأستاذ والمدير المشارك لمركز الابتكار في مركز الابتكار في مركز الابتكار في جامعة كليمسون: “إنها ليست من الحكم من الحقيقة. إنها مجرد خوارزمية للتنبؤ. بالنسبة لبعض الأشياء مثل هذا السؤال حول من يلوم فيضانات تكساس ، هذا سؤال معقد وهناك الكثير من الحكم الذاتي”.

الجمهوريون والديمقراطيون ناقشوا ما إذا كانت التخفيضات في الوظائف في الحكومة الفيدرالية ساهمت في المأساة.

وقال إن chatbots تستعيد المعلومات المتاحة عبر الإنترنت وتقديم إجابات حتى لو لم تكن صحيحة. إذا كانت البيانات التي تم تدريبها عليها غير مكتملة أو متحيزة ، فإن لديك نموذج يمكن أن توفر ردود لا معنى لها أو خاطئة فيما يعرف باسم “الهلوسة”.

وجد NewsGuard ، الذي يجري تدقيقًا شهريًا لـ 11 أداة من أدوات الذكاء الاصطناعى ، أن 40 ٪ من ردود chatbots في يونيو تضمنت معلومات خاطئة أو عدم استجابة ، بعضها فيما يتعلق ببعض الأخبار العاجلة مثل حرب إسرائيل الإيران وإطلاق النار على اثنين من المشرعين في ولاية مينيسوتا.

وقال التقرير: “يمكن أن تصبح أنظمة الذكاء الاصطناعى مضخمات غير مقصودة للمعلومات الخاطئة عندما يتم غرق بيانات موثوقة عن طريق التكرار والفيروسات ، خاصة أثناء الأحداث السريعة عندما تنتشر المطالبات الخاطئة على نطاق واسع”.

خلال عمليات مسح الهجرة التي أجراها إنفاذ الهجرة والجمارك في الولايات المتحدة في لوس أنجلوس في الشهر الماضي ، Grok منشورات محددة بشكل غير صحيح.

بعد حاكم ولاية كاليفورنيا غافن نيوزوم ، شارك السياسيون وغيرهم صورة لأعضاء الحرس الوطني الذين ينامون على أرضية مبنى فيدرالي في لوس أنجلوس ، جروك وقال زورا الصور كانت من أفغانستان في عام 2021.

قد ينتج عن صياغة أو توقيت سؤال إجابات مختلفة من مختلف الدردشة.

عندما سُئل أكبر منافس Grok ، Chatgpt ، بنعم أو لا شك في ما إذا كانت تخفيضات توظيف ترامب أدت إلى الوفيات في فيضانات تكساس يوم الأربعاء ، كان لدى AI chatbot إجابة مختلفة. “لا – هذا الادعاء لا يصمد تحت التدقيق” ، أجاب تشاتغبت ، مستشهداً بمنشورات من PolitiFact و Association Press.

في حين أن جميع أنواع الذكاء الاصطناعى يمكن أن تهليه ، قال بعض خبراء المعلومات الخاطئة إنهم أكثر قلقًا بشأن Grok ، وهي عبارة عن chatbot التي أنشأتها شركة Musk’s AI Xai. يتوفر Chatbot على X ، حيث يطرح الأشخاص أسئلة حول الأحداث الأخبار العاجلة.

وقال أليكس ماهديفان ، مدير مشروع محو الأمية في وسائل الإعلام الرقمية في Poynter: “Grok هي الأكثر إثارة للقلق بالنسبة لي ، لأن الكثير من قاعدة معارفها بنيت على التغريدات”. “ويتم التحكم فيها والمعالجة من قبل شخص ما ، في الماضي ، نشر نظريات التآمر وتآكل.”

في شهر مايو ، بدأت جروك في تكرار ادعاءات “الإبادة الجماعية البيضاء” في جنوب إفريقيا ، وهي نظرية مؤامرة تضخمت موسك وترامب. شركة الذكاء الاصطناعى وراءها جروك ثم نشرت أنه تم إجراء “تعديل غير مصرح به” إلى chatbot الذي وجهه لتوفير استجابة محددة حول موضوع سياسي.

XAI ، التي تمتلك أيضًا X ، لم تستجب لطلب التعليق. أصدرت الشركة نسخة جديدة من Grok هذا الأسبوع ، والتي قال Musk سيتم دمجها أيضًا في مركبات Tesla.

عادة ما تكون برامج Chatbots صحيحة عند فحص الحقائق. فضح Grok مطالبات كاذبة حول فيضانات تكساس بما في ذلك نظرية المؤامرة التي تفيد بأن البذر السحابي-وهي عملية تتضمن إدخال جزيئات في السحب لزيادة هطول الأمطار-من شركة Rainmaker Technology Corp التي تتخذ من El Segundo مقراً لها.

يقول الخبراء يقولون إن AI chatbots لديها أيضًا القدرة على مساعدة الناس على تقليل معتقدات الناس في نظريات المؤامرة، لكنهم قد يعززون أيضًا ما يريد الناس سماعه.

بينما يرغب الناس في توفير الوقت من خلال قراءة الملخصات التي توفرها الذكاء الاصطناعى ، يجب على الناس أن يطلبوا من chatbots الاستشهاد بمصادرهم والنقر على الروابط التي يقدمونها للتحقق من دقة ردودهم ، على حد قول خبراء المعلومات الخاطئة.

ومن المهم أن لا يتعامل الناس مع chatbots “كنوع من الله في الجهاز ، لفهم أنها مجرد تقنية مثل أي شيء آخر” ، قال لينفيل.

“بعد ذلك ، يتعلق الأمر بتدريس الجيل القادم مجموعة جديدة تمامًا من مهارات محو الأمية الإعلامية.”

Source Link