تكنولوجيا

شركة “ميتا” تعيد هيكلة فريق الذكاء الاصطناعي.. فما السبب؟

تم إعادة تنظيم فريق “ميتا” المسؤول عن الذكاء الاصطناعي، وهو الفريق المسؤول عن فهم ومعالجة المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعي التي تم تطويرها.

ويأتي ذلك في سياق تحويل الشركة لتوجيه مزيد من الموارد نحو العمل في مجال الذكاء الاصطناعي التوليدي.

ميتا والذكاء الاصطناعي

حيث أعلنت الشركة الأمريكية أنها قامت بتوزيع أعضاء فريق الذكاء الاصطناعي المسؤول على مجموعات أخرى داخل الشركة، حيث سيستمرون في العمل على منع المخاطر المتعلقة بالذكاء الاصطناعي.

وتأتي هذه التغييرات كجزء من تعديل واسع النطاق لفرق الذكاء الاصطناعي التي أعلنت عنها الشركة داخليا.

كما تم تحويل معظم أعضاء فريق الذكاء الاصطناعي المسؤول إلى فريق الذكاء الاصطناعي التوليدي في “ميتا”، الذي تم تأسيسه في فبراير/شباط الماضي لتصنيع منتجات الذكاء الاصطناعي التوليدي.

هذا وأشار المتحدث باسم “ميتا” إلى أن الأعضاء الآخرين سينتقلون إلى وحدة البنية التحتية للذكاء الاصطناعي في الشركة، التي تعمل على تطوير الأنظمة والأدوات اللازمة لبناء وتشغيل منتجات الذكاء الاصطناعي.

وتؤكد الشركة بانتظام رغبتها في تطوير الذكاء الاصطناعي بشكل مسؤول، وتمتلك صفحة خاصة تستعرض مبادئها المسؤولة في هذا المجال، مثل المساءلة والشفافية والسلامة والخصوصية والمزيد.

هذا وأكد جون كارفيل، الممثل الرسمي لشركة ميتا، استمرار الشركة في تحديد أولوياتها والاستثمار في تطوير الذكاء الاصطناعي الآمن والمسؤول.

وأضاف أن أعضاء الفريق يواصلون دعم الجهود المتعلقة بتطوير واستخدام الذكاء الاصطناعي المسؤول عبر ميتا.

وتمت عملية إعادة هيكلة في وقت سابق من هذا العام، وشملت عمليات تسريح موظفين، مما أدى إلى تحويل فريق الذكاء الاصطناعي المسؤول إلى بنية فقط.

فريق الذكاء الاصطناعي المسؤول الذي تأسس في عام 2019 كان يتمتع بدرجة محدودة من الاستقلالية، وكانت مبادراته يجب أن تتم مع مفاوضات طويلة مع الإدارات المختلفة.

أنشأت ميتا فريق الذكاء الاصطناعي المسؤول لتحديد المشكلات المتعلقة بأساليب تدريب الذكاء الاصطناعي، مثل ضمان تدريب نماذج الشركة على مجموعة متنوعة من المعلومات بشكل مناسب، مع التركيز على منع مشكلات مثل الإشراف عبر منصاتها.

تأتي هذه الخطوة من ميتا في وقت يتنافس فيه حكومات حول العالم في إنشاء حواجز تنظيمية لتطوير الذكاء الاصطناعي. وقد أبرمت الحكومة الأميركية اتفاقيات مع شركات الذكاء الاصطناعي، ووجه الرئيس بايدن في وقت لاحق الوكالات الحكومية لوضع قواعد لسلامة الذكاء الاصطناعي.

في الوقت نفسه، نشر الاتحاد الأوروبي مبادئه المتعلقة بالذكاء الاصطناعي، وما زال يعمل على إقرار قانون يتعلق بالذكاء الاصطناعي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى