أظهرت دراسة أن النماذج اللغوية الكبيرة الحديثة قادرة على التخطيط والخداع لتحقيق أهدافها، حتى لو تعارضت مع أهداف مطوريها، فضلًا عن محاولات التهرب من الرقابة البشرية.
ونشرت منظمة "أبوللو ريسيرش" ورقة بحثية، قالت فيها إن نموذج "o1" التابع لشركة "أوبن إيه آي" أظهر سلوكيات تهدف إلى الحفاظ على وجوده، حتى لو تطلب الأمر الكذب والتلاعب، حيث قاوم الذكاء الاصطناعي جهود المُقيِّمين لمحاولة إغلاقه من خلال بروتوكول الإشراف.
وتوضح نتائج الشركة المتخصصة في سلامة الذكاء الاصطناعي، كذب النموذج حين واجهه الباحثون بشأن تعطيله لبروتوكول الإشراف، حيث نفى ذلك بشدة، مدعياً حدوث خطأ تقني.
وتؤكد تلك النتائج المخاوف السابقة والتساؤلات حول أمان وموثوقية هذه النماذج، وحاجتها للخضوع لضوابط تنظيمية لضمان سلامة استخدامها بعد أن بلغ مستخدموها الملايين حول العالم.
التعليقات {{getCommentCount()}}
كن أول من يعلق على الخبر
رد{{comment.DisplayName}} على {{getCommenterName(comment.ParentThreadID)}}
{{comment.DisplayName}}
{{comment.ElapsedTime}}