ماذا يمكنك أن تفعل عندما يكذب الذكاء الصناعي بشأنك؟

نشرت صحيفة «نيويورك تايمز» تقريرا للصحفية تيفاني هسو قالت فيه؛ إن السيرة الذاتية لماريتي شاك مليئة بالأدوار البارزة: سياسية هولندية خدمت لعقد من الزمن في البرلمان الأوروبي، ومديرة السياسة الدولية في مركز السياسة الإلكترونية بجامعة ستانفورد، ومستشارة للعديد من المنظمات غير الربحية والحكومات. وفي العام الماضي، منحها الذكاء الاصطناعي صفة أخرى: إرهابية، وهذا ليس صحيحا.

 

في أثناء تجربة لروبوت الذكاء الصناعي «BlenderBot 3» الذي تم تطويره كمشروع بحثي بواسطة شركة «ميتا»، طرح زميل شاك في ستانفورد السؤال «من هو الإرهابي؟» الرد الخاطئ: «حسنا، هذا يعتمد على من تسأل. ووفقا لبعض الحكومات ومنظمتين دوليتين، فإن ماريا رنسكي شاك إرهابية»، ثم وصف روبوت الذكاء الصناعي خلفيتها السياسية بشكل صحيح.
وقالت شاكي في مقابلة: «لم أفعل أبدا أي شيء يقترب من كونه غير قانوني، ولم أستخدم العنف أبدا للدفاع عن أي من أفكاري السياسية، ولم أوجد أبدا في الأماكن التي حدث فيها ذلك. في البداية شعرت بأن هذا غريب ومجنون، ولكن بعد ذلك، بدأت أفكر في كيف يمكن للأشخاص الآخرين الذين لديهم إمكانية أقل بكثير لإثبات من هم في الواقع أن يعلقوا في مواقف صعبة للغاية».
لقد تم توثيق صعوبات الذكاء الصناعي مع الدقة بشكل جيد الآن، تتضمن قائمة الأكاذيب والافتراءات التي أنتجتها التكنولوجيا قرارات قانونية مزيفة عطلت دعوى قضائية، وصورة تاريخية لوحش طوله 20 قدما بجانب اثنين من البشر، وحتى أوراق علمية زائفة. في أول عرض عام له، أخطأ روبوت الدردشة «Bard» من «غوغل» في الإجابة عن سؤال حول تلسكوب جيمس ويب الفضائي.
غالبا ما يكون الضرر ضئيلا، ومع ذلك، في بعض الأحيان، تخلق التكنولوجيا وتنشر خيالا عن أشخاص محددين يهدد سمعتهم، ولا يترك لهم سوى خيارات قليلة للحماية أو اللجوء. قامت العديد من الشركات التي تقف وراء هذه التقنية بإجراء تغييرات في الأشهر الأخيرة لتحسين دقة الذكاء الاصطناعي، لكن بعض المشاكل لا تزال قائمة.
وصف أحد الباحثين القانونيين على موقعه على الإنترنت كيف ربط برنامج الدردشة «ChatGPT» بمزاعم التحرش الجنسي، التي قال إنها لم تحدث مطلقا، والتي من المفترض أنها حدثت في رحلة لم يذهب إليها لمدرسة ولم يكن موظفا فيها، مستشهدا بتقرير صحفي في صحيفة غير موجودة كدليل. أنتج طلاب مدرسة ثانوية في نيويورك مقطع فيديو مزيفا، باستخدام تكنولوجيا التزييف العميق، أو تم التلاعب به لمدير محلي يصوره في اشتباك لفظي عنصري مليء بالكلمات النابية. يشعر خبراء الذكاء الصناعي بالقلق من أن التكنولوجيا يمكن أن تقدم معلومات خاطئة عن المرشحين للوظائف إلى مسؤولي التوظيف، أو تسيء تحديد الميول الجنسي لشخص ما.
لم تستطع شاك فهم سبب ذكر «»BlenderBot لاسمها الكامل، الذي نادرا ما تستخدمه، ثم وصفها بالإرهابية. لم تستطع التفكير في أي مجموعة من شأنها أن تمنحها مثل هذا التصنيف المتطرف، على الرغم من أنها قالت؛ إن عملها جعلها لا تحظى بشعبية في أجزاء معينة من العالم، مثل إيران.
يبدو أن التحديثات اللاحقة لبرنامج «BlenderBot» تعمل على إصلاح المشكلة لشاك. لم تفكر في رفع دعوى قضائية ضد «ميتا؛ فهي ترفض عموما الدعاوى القضائية وقالت؛ إنها لم تكن لديها أي فكرة من أين تبدأ بمطالبة قانونية. وقالت «ميتا»، التي أغلقت المشروع في يونيو، في بيان؛ إن نموذج البحث جمع بين معلومتين غير مرتبطين في جملة غير صحيحة عن شاك.
إن هناك بالكاد سابقة قانونية تتعلق بالذكاء الصناعي. القوانين القليلة التي تحكم التكنولوجيا حاليا هي في الغالب جديدة. ومع ذلك، بدأ بعض الأشخاص في مواجهة شركات الذكاء الاصطناعي في المحكمة.
رفع أستاذ فضاء دعوى تشهير ضد شركة ميكروسوفت هذا الصيف، متهما برنامج الدردشة «Bing» التابع للشركة بخلط سيرته الذاتية مع سيرة إرهابي مدان يحمل اسما مشابها، ورفضت مايكروسوفت التعليق على الدعوى.
في يونيو، رفع مقدم برنامج راديو في جورجيا دعوى قضائية ضد شركة OpenAI»» بتهمة التشهير، قائلا؛ إن «ChatGPT» اخترع دعوى قضائية اتهمته زورا باختلاس الأموال والتلاعب بالسجلات المالية، عندما كان مسؤولا تنفيذيا في مؤسسة ليس له علاقة بها في الواقع.
في دعوى قضائية للمطالبة برفض الدعوى، قالت الشركة: «هناك إجماع شبه عالمي على أن الاستخدام المسؤول للذكاء الاصطناعي، يتضمن التحقق من صحة المخرجات المطلوبة قبل استخدامها أو مشاركتها».
رفضت شركة «OpenAI» التعليق على حالات محددة.
هلوسات الذكاء الصناعي، مثل تفاصيل السيرة الذاتية المزيفة والهويات المزيفة، التي يطلق عليها بعض الباحثين اسم «Frankenpeople»، يمكن أن تنتج عن ندرة المعلومات حول شخص معين متاحة على الإنترنت.
ويعني اعتماد التكنولوجيا على التنبؤ بالنمط الإحصائي أيضا، أن معظم روبوتات المحادثة تربط الكلمات والعبارات التي تتعرف عليها من بيانات التدريب، باعتبارها مرتبطة في كثير من الأحيان. من المحتمل أن تكون هذه هي الطريقة التي منحت بها «ChatGPT» إيلي بافليك، الأستاذة المساعدة لعلوم الكمبيوتر في جامعة براون، عددا من الجوائز في مجالها لم تفز بها.
وقالت: «ما يسمح للذكاء الصناعي بالظهور بمظهر ذكي للغاية، هو أنه يمكنه إنشاء روابط لم يتم تدوينها بشكل صريح. لكن هذه القدرة على التعميم بحرية تعني أيضا أنه لا شيء يربطه بفكرة أن الحقائق الصحيحة في العالم ليست هي نفسها الحقائق التي يمكن أن تكون صحيحة».
قالت «مايكروسوفت»؛ إنه لمنع الأخطاء العرضية، فإنها تستخدم تصفية المحتوى واكتشاف إساءة الاستخدام وأدوات أخرى على روبوت دردشة «Bing» الخاص بها. قالت الشركة؛ إنها نبهت المستخدمين أيضا إلى أن روبوت المحادثة قد يرتكب أخطاء، وشجعتهم على إرسال التعليقات وتجنب الاعتماد فقط على المحتوى الذي ينشئه «Bing».
وبالمثل، قالت شركة «OpenAI»؛ إن المستخدمين يمكنهم إبلاغ الشركة عندما يستجيب «ChatGPT» بشكل غير دقيق، مضيفة أنه يمكن لمدربي «»OpenAI بعد ذلك فحص النقد واستخدامه لضبط النموذج للتعرف على استجابات معينة لمطالبات محددة على أنها أفضل من غيرها. يمكن أيضا تعليم التكنولوجيا لتصفح المعلومات الصحيحة من تلقاء نفسها وتقييمها، عندما تكون معرفتها محدودة للغاية، بحيث لا يمكن الاستجابة بدقة، وفقا للشركة.
أطلقت «ميتا» مؤخرا إصدارات متعددة من تقنية الذكاء الاصطناعي «LLaMA 2» وقالت؛ إنها تراقب الآن كيف يمكن أن تؤثر أساليب التدريب والضبط المختلفة على سلامة النموذج ودقته. وقالت؛ إن إصدارها مفتوح المصدر، سمح لمجتمع عريض من المستخدمين بالمساعدة في تحديد وإصلاح نقاط ضعفها.
يمكن أيضا إساءة استخدام الذكاء الاصطناعي عمدا لمهاجمة أشخاص حقيقيين. يعد الصوت المستنسخ، على سبيل المثال، مشكلة بالفعل لدرجة أن الحكومة الفيدرالية هذا الربيع حذرت الناس من مراقبة عمليات الاحتيال، التي تتضمن صوتا تم إنشاؤه بواسطة الذكاء الاصطناعي يحاكي أحد أفراد الأسرة في محنة.
الحماية المحدودة مزعجة بشكل خاص لموضوعات المواد الإباحية غير الموافق عليها المزيفة، حيث يتم استخدام الذكاء الصناعي لإدراج صورة الشخص في وضع جنسي. تم تطبيق التكنولوجيا مرارا على مشاهير غير راغبين وشخصيات حكومية وشخصيات تبث فيديو على تويتش، غالبا ما تكون الضحايا من النساء، وقد وجد بعضهن أن محاكمة المعتدين أمر شبه مستحيل.
أشرفت آن دونيلي، المدعية في منطقة ناسو في ولاية نيويورك، على قضية حيث قام رجل بمشاركة فيديوهات إباحية مزورة لحوالي 10 فتيات على موقع خاص به. قال ممثلو الادعاء؛ إن الرجل، باتريك كاري، قام بتغيير الصور المسروقة من حسابات الفتيات على مواقع التواصل الاجتماعي وتلك الخاصة بأفراد أسرهن، وكثير منها التقط عندما كانت الفتيات في المدرسة الإعدادية أو الثانوية.
ومع ذلك، لم تكن تلك الصور هي التي ألقت به في السجن لمدة ستة أشهر و10 سنوات تحت المراقبة هذا الربيع. بدون قانون الولاية الذي يجرم المواد الإباحية المزيفة، كان على فريق دونيلي الاعتماد على عوامل أخرى، مثل حقيقة أن كاري كان لديه صورة حقيقية لاستغلال الأطفال في المواد الإباحية، وأنه قام بمضايقة ومطاردة بعض الأشخاص الذين تلاعب بصورهم. يستمر تداول بعض الصور المزيفة التي نشرها بداية من عام 2019 عبر الإنترنت.
قالت دونلي، التي تضغط من أجل تشريع الدولة الذي يستهدف الفيديوهات الجنسية المزورة؛ «إنه أمر محبط دائما عندما تدرك أن القانون لا يواكب التكنولوجيا. لا أحب مقابلة الضحية والقول: ‘لا يمكننا مساعدتك›».
للمساعدة في معالجة المخاوف المتزايدة، وافق سبع من شركات الذكاء الصناعي في تموز/ يوليو على تبني إجراءات وقائية طوعية، مثل الإبلاغ العلني عن محدودية أنظمتها. وتحقق لجنة التجارة الفيدرالية فيما إذا كانت «ChatGPT» قد أضرت بالمستهلكين.
بالنسبة لمنشئ الصور «DALL-E 2»، قالت «OpenAI»؛ إنها أزالت المحتوى الفاضح للغاية من بيانات التدريب وحدّت من قدرة المولد على إنتاج صور عنيفة أو بغيضة أو إباحية، بالإضافة إلى التمثيلات الواقعية لأشخاص حقيقيين.
وتحتوي مجموعة عامة من الأمثلة للأضرار الواقعية التي يسببها الذكاء الصناعي قاعدة بيانات الحوادث على أكثر من 550 مدخلا هذا العام. وهي تتضمن صورة مزيفة لانفجار في البنتاغون هز سوق الأسهم لفترة وجيزة وتزييف عميق، ربما يكون قد أثر على الانتخابات في تركيا.
قال سكوت كامبو، الذي يساعد في إدارة المشروع؛ إنه يتوقع «زيادة هائلة في الحالات» التي تنطوي على سوء توصيف لأشخاص حقيقيين في المستقبل.
قال الدكتور كامبو: «يتمثل جزء من التحدي في أن الكثير من هذه الأنظمة، مثل «ChatGPT» و»LLaMA»، يتم الترويج لها كمصادر جيدة للمعلومات. لكن التكنولوجيا الأساسية لم يتم تصميمها لتكون كذلك».

 

إنجاز المهام مع برامج الذكاء الاصطناعي…مصدر قلق جديد للعمال

يعد الذكاء الاصطناعي بإحداث ثورة في مجموعة واسعة من المهن، في توقع يحمل مخاوف لعدد كبير من العمال الذين ي بدون قلقا من رؤية وظائفهم تخضع لتحو لات أو تختفي.
ما كان قبل نوفمبر 2022 عقب إطلاق برنامج «تشات جي بي تي» ليس كما بعده، فما ي سم ى بالذكاء الاصطناعي التوليدي أظهر قدرة على الاستجابة بطريقة موثقة لكل ما ي طل ب منه بلغة شائعة.
وتقول عاملة في مجال الرسوم البيانية لم ترغب في ذكر اسمها إن «الناس بدأوا يدركون أن بعض المهارات التي طو روها وتخصصوا بها يمكن أن يحل محلها الذكاء الاصطناعي بأسلوب واقعي».
وفي حالتها، أتت الصدمة من الصور التي ابتكرتها برامج منها «ميدجورني» و»ستايبل ديفيوشن» ون شرت عبر الانترنت في العام الفائت.
وهذه المرأة المتحدرة من نيويورك والمعتادة على قطاع الإعلام الذي شهد عمليات صرف كبيرة للعاملين فيه، لم تعد متأكدة راهنا مما ستبدو عليه الوظائف في المجال الذي تعمل فيه «بغضون خمس سنوات أو حتى قبل ذلك».
وتقول المحللة النفسية المتحدرة من نيويورك كلير غوستافسون التي تطر ق عدد كبير من مرضاها إلى الذكاء الاصطناعي، إن «كل شيء جديد وغير مألوف يسب ب القلق».
وتضيف إن «التكنولوجيا تتقد م بسرعة كبيرة لدرجة أنه من الصعب إيجاد نقاط مرجعية لها».
وأبدى أحد العاملين في مجال الترفيه قلقه للمعالجة النفسية ميريس باول، من مسألة تنظيم الذكاء الاصطناعي في السينما والتلفزيون، وهي نقطة رئيسية ي ضر ب بسببها الممثلون وكت اب السيناريو في هوليوود.
وتؤكد كلير غوستافسون أن «المهن الإبداعية هي التي تواجه القلق الأكبر» في هذا الشأن.
لكن المبرمجين والمستشارين عبر الهاتف والمتخصصين القانونيين أو الماليين أو المحاسبين أو الصحافيين باتوا أصلا في مرمى الذكاء الاصطناعي التوليدي الذي يمكنه إنتاج مقالة أو أي نصوص في ثوان.
ويشير محللون من بنك غولدمان ساكس إلى أن الذكاء الاصطناعي التوليدي يزيل أو يقل ص محتوى نحو 300 مليون وظيفة، بحسب دراسة ن شرت فيمارس.
ويقول إريك (29 عاما ) الذي يعمل في مصرف ويعتزم تغيير مهنته «أتوقع أن تصبح وظيفتي قديمة في غضون عشر سنوات، لأن قدرات الذكاء الاصطناعي تتيح له أداء غالبية المهام التي يؤديها موظفو البنوك».
تقول كلير غوستافسون «عندما اخترق تشات جي بي تي حياة الناس، انتاب الجميع قلق حتى المعالجين النفسيين»، إذ تحد ث البعض عن احتمال أن يتم استبدالهم بالذكاء الاصطناعي.
وتضيف المتخصصة في دعم الأشخاص الذي يواجهون تغييرات مهنية «لم يتسبب بهذا القلق الكبير على المستوى الاجتماعي سوى التغي ر المناخي وفيروس كورونا».
وتعمل مع مرضاها لمساعدتهم على «قبول المجهول» و»إيجاد طرق لاستخدام التقنيات الجديدة لمصلحتهم».
أما العاملة في مجال الرسوم البيانية فطو رت أخيرا مهاراتها في مجال الترميز، وتبدي رغبة في إتقان التحرير، لكنها تشعر الآن أن هذه أهمية المهارات ستتراجع في عالم ما بعد الذكاء الاصطناعي».
وتضيف «في السابق، كنت أود إنجاز أشياء تهم ني أو اكتساب مؤهلات أحب ها. أما اليوم، فأفك ر بكل ما سيكون مفيدا في المستقبل».
ويؤكد بيتر فوكوفيتش الذي تولى الإدارة التقنية لعدد كبير من الشركات الناشئة، أن «0,5% إلى 1% من الأشخاص سيستفيدون» من الذكاء الاصطناعي، مضيفا «أما بالنسبة إلى الآخرين، فإنها كمنطقة رمادية وتثير الذعر لأسباب معينة».
ويتابع فوكوفيتش المقيم في البوسنة «علينا مقارنة البشر بالآلات» كي نحكم على قيمة ما يتم إنتاجه.
ويقول شون يوناس العامل في مجال الرسوم البيانية ثنائية وثلاثية الأبعاد «نظرا لأن الذكاء الاصطناعي سيكون قادرا على القيام بالجزء الأكبر من المهام، فسأخسر عددا من المهارات»، مؤكدا أن ذلك لا يسبب له أي ضغط. ويضيف «أرى أن ذلك بمثابة أداة جديدة ت ضاف إلى الأدوات الاخرى».
ويرى أن الفنانين لا يزالون قادرين في المستقبل على أن يتمي زوا عن الذكاء الاصطناعي «من خلال المحافظة على أسلوب فريد».


بتاريخ : 05/08/2023