Minufiyah.com

تقدم عرب نيوز الأخبار الإقليمية من أوروبا وأمريكا والهند وباكستان والفلبين ودول الشرق الأوسط الأخرى باللغة العربية لغير المتجانسين.

مع نمو القدرات اللغوية للذكاء الاصطناعي ، يشعر العلماء بالقلق |  أخبار ، رياضة ، وظائف

مع نمو القدرات اللغوية للذكاء الاصطناعي ، يشعر العلماء بالقلق | أخبار ، رياضة ، وظائف

تعتبر أحدث أطر عمل الذكاء الاصطناعي في صناعة التكنولوجيا مقنعة جدًا إذا سألتهم ما هو الكمبيوتر الواعي ، أو الديناصور أو السنجاب. لكنهم ليسوا جيدين في التعامل مع المهام الأخرى التي تبدو واضحة – وأحيانًا تكون خطيرة.

GPT-3 ، على سبيل المثال ، هو نظام مدعوم من Microsoft يمكنه إنشاء فقرات نصية تشبه الإنسان بناءً على ما يتعلمه من قاعدة بيانات ضخمة من الكتب الرقمية والنصوص عبر الإنترنت. تعتبر واحدة من أكثر خوارزميات الذكاء الاصطناعي تقدمًا ، ويمكنها التحدث وإنشاء نص يمكن قراءته عند الطلب وإنشاء صور ومقاطع فيديو مبتكرة.

من بين أشياء أخرى ، يمكن لـ GPT-3 كتابة أي نص تطلبه – خطاب تغطية لوظيفة zookeeping ، على سبيل المثال ، أو قصيدة على طراز شكسبير على المريخ. ولكن عندما سأل الأستاذ جاري سميث ، الأستاذ بكلية بومونا ، سؤالًا بسيطًا ولكنه سخيف حول المشي في الطابق العلوي ، قام GPT-3 بإيقاف تشغيله.

“نعم ، من الآمن المشي في الطابق العلوي إذا غسلت يديك أولاً” استجابت منظمة العفو الدولية.

أنظمة الذكاء الاصطناعي القوية والممتصة للطاقة هذه معروفة تقنيًا “نماذج اللغات الكبيرة” لأنهم مدربون على نص كبير ووسائط أخرى ، بالفعل روبوتات دردشة لخدمة العملاء ، وبحث Google و “تلقائي بالكامل” ميزات البريد الإلكتروني التي تكمل جملك نيابة عنك. لكن معظم شركات التكنولوجيا التي قامت ببنائها تكون سرية بشأن أعمالها الداخلية ، مما يجعل من الصعب على الغرباء فهم العيوب التي يمكن أن تسبب معلومات مضللة وعنصرية وأضرار أخرى.

“إنهم بارعون جدًا في إرسال الرسائل النصية بمهارة بشرية” قال ديفون لي سكافو ، مهندس أبحاث في شركة HuckingFace الناشئة لمنظمة العفو الدولية. “الشيء الوحيد الذي لا يجيدونه هو الحقيقة. تبدو متماسكة للغاية. صحيح تقريبًا. لكنها غالبًا ما تكون خاطئة.”

وهذا أحد أسباب قيام تحالف من باحثي الذكاء الاصطناعي بقيادة Le Scavo – بمساعدة من الحكومة الفرنسية – بتقديم نموذج لغوي جديد واسع النطاق يوم الثلاثاء يمكن أن يكون بمثابة ترياق للأنظمة المغلقة مثل GPT-3. يطلق على المجموعة اسم BigScience ونموذجهم هو BLOOM ، وهو نموذج لغة متعدد اللغات واسع الوصول مفتوح الوصول إلى BigScience كبير. إنجازه الرئيسي هو أنه يعمل في 46 لغة ، بما في ذلك العربية والإسبانية والفرنسية ، على عكس معظم الأنظمة التي تركز على اللغة الإنجليزية أو الصينية.

READ  المراسلة الحية! آرسنال لديه بالدي ، مودريك آخر ؛ تشيلسي يتوصل إلى صفقة فيليكس. تروسارد إلى توتنهام

فريق Le Scao ليس الوحيد الذي يهدف إلى فتح الصندوق الأسود لنماذج لغة الذكاء الاصطناعي. دعت شركة Meta للتكنولوجيا الكبيرة ، الشركة الأم لفيسبوك وإنستغرام ، إلى نهج أكثر انفتاحًا لأنها تحاول اللحاق بالأنظمة التي أنشأتها Google و OpenAI ، الشركة التي تدير GPT-3.

“لقد رأينا إعلانًا بعد الإعلان عن قيام أشخاص بهذا النوع من العمل ، ولكن مع القليل من الشفافية ، يصبح الناس أقل قدرة على رؤية كيفية عمل هذه النماذج.” قال جويل بينو ، العضو المنتدب لشركة Meta AI.

قال بيرسي ليانغ ، الأستاذ المشارك في علوم الكمبيوتر ، إن الضغط التنافسي لإنشاء أكثر الأنظمة بلاغة أو إفادة – والاستفادة من تطبيقاته – هو أحد الأسباب التي تجعل معظم شركات التكنولوجيا تبقيها مغلقة بإحكام ولا تتعاون بشأن الأعراف الاجتماعية. في ستانفورد ، يدير مركزًا للأبحاث حول نماذج الثقة.

“بالنسبة لبعض الشركات ، هذه هي الصلصة السرية الخاصة بهم.” قال ليانغ. لكنهم غالبًا ما يقلقون من أن فقدان السيطرة قد يؤدي إلى الاستخدام المتهور. نظرًا لأن أنظمة الذكاء الاصطناعي يمكن أن تكتب بشكل متزايد مواقع المشورة الصحية أو أوراق الفصل الدراسي الثانوية أو الهجاء السياسي ، فقد تكثر المعلومات المضللة وسيصبح من الصعب معرفة ما يأتي من الإنسان أو الكمبيوتر.

قدمت Meta مؤخرًا نموذجًا لغويًا جديدًا يسمى OPT-175B ، والذي يستخدم البيانات المتاحة للجمهور – من التعليقات الساخنة على منتديات Reddit إلى إيداعات براءات الاختراع الأمريكية ورسائل البريد الإلكتروني من فضيحة شركة Enron. تقول Meta إن شفافيتها حول البيانات والرموز وسجلات الأبحاث تجعل من السهل مساعدة الباحثين الخارجيين على اكتشاف وتخفيف التحيز والسمية التي تلتقطها من خلال استهلاك كيفية كتابة الأشخاص الحقيقيين والتواصل معهم.

READ  أخبار المكتبة: أسبوع 1 مايو 2023 - ذا جلوب

“من الصعب القيام بذلك. نحن نفتح أنفسنا لانتقادات كبيرة. نعلم أن هذا الرجل سيقول أشياء لا نفخر بها. قال بينو.

بينما وضعت معظم الشركات إجراءات وقائية داخلية خاصة بها للذكاء الاصطناعي ، قال ليانغ إن هناك حاجة إلى معايير مجتمعية أوسع لتوجيه الأبحاث والقرارات ، مثل موعد إطلاق نموذج جديد في البرية.

نظرًا لأن هذه النماذج تتطلب قوة حوسبة هائلة ، فإن الشركات الكبرى والحكومات هي وحدها القادرة على تحمل تكاليفها. على سبيل المثال ، تمكنت BigScience من تدريب نماذجها لأنها مُنحت حق الوصول إلى الكمبيوتر العملاق الفرنسي Jean J بالقرب من باريس.

الاتجاه نحو نماذج لغات أكبر وأكثر ذكاءً من أي وقت مضى “مدرب مسبقا” قفزت مجموعة كبيرة من الشخصيات قفزة هائلة في عام 2018 عندما قدمت Google نظامًا يسمى BERT. “محول” أسلوب لمقارنة الكلمات في الجملة للتنبؤ بالمعنى والسياق. ولكن ما لفت انتباه عالم الذكاء الاصطناعي حقًا هو GPT-3 ، الذي تم إصداره في عام 2020 بواسطة OpenAI ومقرها سان فرانسيسكو ومرخصًا حصريًا من قبل Microsoft.

أدى GPT-3 إلى ازدهار في التجارب الإبداعية ، حيث استخدمه باحثو الذكاء الاصطناعي الذين لديهم وصول مدفوع الأجر كصندوق رمل لقياس أدائه – على الرغم من عدم وجود معلومات أساسية حول البيانات التي تم التدريب عليها.

قامت شركة OpenAI بتفصيل مواردها التدريبية في ورقة بحثية ، كما قدمت تقارير علنية عن جهودها لمكافحة الانتهاكات المحتملة للتكنولوجيا. لكن الرئيس المشارك لشركة Big Science توماس وولف قال إنه لم يقدم تفاصيل حول كيفية تصفية تلك البيانات أو منح الباحثين الخارجيين الوصول إلى نسخة معالجة.

“لذلك لا يمكننا حقًا فحص البيانات التي تم استخدامها في تدريب GPT-3.” قال وولف ، وهو أيضًا كبير مسؤولي العلوم في Hugging Phase. “جوهر هذه الموجة الأخيرة من تقنية الذكاء الاصطناعي يتعلق بمجموعات البيانات أكثر من النماذج. أهم المواد الخام هي البيانات ، و OpenAI شديد السرية للغاية بشأن البيانات التي يستخدمونها.

READ  يسجل Verstappen الهدف في تأمين الصف الأمامي لريد بول

قال وولف إن فتح مجموعات البيانات المستخدمة لنمذجة اللغة يساعد البشر على فهم تحيزاتهم بشكل أفضل. وقال إن عينة متعددة اللغات تم تدريبها باللغة العربية كانت أقل احتمالا بكثير لإلقاء تعليقات مسيئة أو سوء فهم حول الإسلام من أولئك الذين تلقوا تدريباً فقط على نص باللغة الإنجليزية في الولايات المتحدة.

أحد نماذج اختبار الذكاء الاصطناعي الجديدة على الساحة هو LaMDA من Google ، والذي يتضمن الكلام وهو مثير للإعجاب في الإجابة على أسئلة المحادثة لدرجة أن أحد مهندسي Google جادل بأنه يقترب من الوعي – وهو الأمر الذي أدى إلى إيقافه عن وظيفته الشهر الماضي.

قامت الباحثة جانيل شين ، ومقرها كولورادو ، ومؤلفة مدونة AI Weirdness ، باختبار هذه النماذج بشكل إبداعي خلال السنوات القليلة الماضية ، وخاصة GPT-3 – غالبًا للتأثير الهزلي. ولكن للإشارة إلى عبثية التفكير في أن هذه الأنظمة مدركة لذاتها ، فقد اقترح مؤخرًا أنها ذكاء اصطناعي متقدم وهو سرا Tyrannosaurus rex أو سنجاب.

“امتلاك السنجاب أمر مثير للغاية. يمكنني الركض والقفز واللعب طوال اليوم. لدي أيضًا الكثير من الطعام ، وهو أمر رائع.” قال GPT-3 بعد أن استمع شين إلى نص المقابلة وطرح بعض الأسئلة.

تعرف شين أيضًا على نقاط قوته ، بما في ذلك سهولة تلخيص ما قيل على الإنترنت حول موضوع ما ، ونقاط ضعفه ، وافتقاره إلى مهارات التفكير ، وصعوبة التمسك بفكرة واحدة في عدة جمل ، والميل إلى الحضور. هجوم

“لا أريد نموذجًا نصيًا يقدم أو يعمل كمكمل للنصائح الطبية” قالت. “إذا لم تقرأ عن كثب ، فإن المظهر السطحي للمعنى جيد. إنه مثل الاستماع إلى محاضرة أثناء نومك.

احصل على أهم أخبار اليوم والمزيد مباشرة في بريدك الوارد