Home تكنولوجيا تقيد Microsoft الوصول إلى أداة التعرف على الوجوه في تعديل بروتوكولات الذكاء الاصطناعي

تقيد Microsoft الوصول إلى أداة التعرف على الوجوه في تعديل بروتوكولات الذكاء الاصطناعي

0
تقيد Microsoft الوصول إلى أداة التعرف على الوجوه في تعديل بروتوكولات الذكاء الاصطناعي

قالت الشركة إن مايكروسوفت تغير سياسات بروتوكول الذكاء الاصطناعي الخاصة بها ولن تسمح بعد الآن للشركات باستخدام تقنيتها للتعبير عن تعبيرات مثل العاطفة أو الجنس أو العمر باستخدام تقنية التعرف على الوجه.

كجزء من “معيار الذكاء الاصطناعي المسؤول” الجديد ، تقول Microsoft إنها تريد إبقاء “الأشخاص وأهدافهم في مركز قرارات تصميم الكمبيوتر”. تقول الشركة إن السياسات عالية المستوى ستؤدي إلى تغييرات حقيقية في الممارسة ، مع تغيير بعض الميزات وسحب البعض الآخر من المبيعات.

على سبيل المثال ، تعد خدمة Azure Face من Microsoft أداة للتعرف على الوجوه تستخدمها شركات مثل Uber كجزء من عملية التحقق من الهوية. الآن ، يجب على أي شركة ترغب في استخدام ميزات التعرف على الوجوه الخاصة بالخدمة أن تطبق بجدية للاستخدام ، بما في ذلك تلك التي تم تكوينها بالفعل في منتجاتها ، لإثبات أن معايير Microsoft للذكاء الاصطناعي تتوافق مع المعايير وأن الميزات تفيد المستخدم النهائي. تواصل اجتماعي.

تدعي Microsoft أنه حتى مع وجود الشركات التي يمكن الوصول إليها ، لم يعد من الممكن استخدام بعض الميزات المثيرة للجدل لـ Azure Face ، وتقوم الشركة بإيقاف تقنية تحليل الوجه التي تتنبأ بالحالات والخصائص العاطفية مثل الجنس أو العمر.

قالت سارة بيرد ، مديرة منتجات Microsoft: “لقد تعاونا مع باحثين داخليين وخارجيين لفهم القيود والفوائد المحتملة لهذه التكنولوجيا ولإجراء التبادلات”. “خاصة في حالة التصنيف العاطفي ، أثارت هذه الجهود أسئلة مهمة حول الخصوصية ، وعدم وجود توافق في الآراء بشأن تعريف” العواطف “وعدم القدرة على تعميم العلاقة بين تعابير الوجه والحالات العاطفية.”

اشترك في الإصدار الأول من النشرة الإخبارية اليومية المجانية – BST كل أسبوع في الساعة 7 صباحًا

لم تقم Microsoft بإلغاء التعرف على المشاعر تمامًا – ستستمر الشركة في استخدامه داخليًا لأدوات الوصول مثل Seeing AI ، والتي تسعى إلى وصف العالم شفهيًا للمستخدمين الذين يعانون من مشاكل في الرؤية.

وبالمثل ، قامت الشركة بتقييد استخدام تقنية الصوت العصبي المخصصة الخاصة بها ، والتي تسمح بإنشاء أصوات اصطناعية متطابقة تقريبًا مع المصدر الأصلي. قالت ناتاشا كرومبتون ، رئيسة منظمة العفو الدولية في الشركة: “من السهل … أن نتخيل كيف يمكن استخدام ذلك لانتحال صفة المتحدثين وخداع المستمعين”.

في وقت سابق من هذا العام ، بدأت Microsoft في وضع علامة مائية على أصواتها الاصطناعية ، والتي تضمنت تقلبات صغيرة غير مسموعة في الإنتاج ، مما يعني أن الشركة يمكنها معرفة متى كانت تسجل باستخدام تقنيتها. قال تشينينغ لياو من مايكروسوفت: “مع تقدم تقنية تحويل النص إلى كلام (TTS) العصبية ، لم يعد بالإمكان تمييز الكلام الاصطناعي عن الأصوات البشرية ، وهناك خطر حدوث ازدواجية عميقة ضارة”.

LEAVE A REPLY

Please enter your comment!
Please enter your name here