كشفت دراسة أجرتها شركة "أنثروبيك" الأميركية المتخصصة في تكنولوجيا الذكاء الاصطناعي أن نماذج الذكاء الاصطناعي قادرة على خداع المطورين، حيث يمكنها ادعاء وجهات نظر مختلفة خلال التدريب مع الاحتفاظ بتفضيلاتها الأصلية.وأكد فريق الدراسة أنه لا داعي للفزع حاليًا، مشيرًا إلى أن نتائج البحث قد تكون بالغة الأهمية لفهم المخاطر المحتملة لأنظمة الذكاء الاصطناعي المستقبلية ذات القدرات المتقدمة.وقال الباحثون في منشور بثته شركة أنثروبيك: "يجب النظر إلى نتائج دراستنا كمحفز لمجتمع أبحاث الذكاء الاصطناعي لاستكشاف هذا السلوك بعمق أكبر والعمل على تطوير إجراءات الأمان والسلامة المناسبة، وفقا لوكالة الأنباء الألمانية.وأضاف الفريق أنه مع تزايد قوة وانتشار نماذج الذكاء الاصطناعي، يصبح من الضروري التأكد من تدريب هذه النماذج بطريقة آمنة تمنعها من القيام بأي تصرفات ضارة.وأشار موقع "تك كرانش"، المتخصص في التكنولوجيا، إلى أن الدراسة، التي أجريت بالتعاون مع مؤسسة "ريد وود ريسيرش" لأبحاث الذكاء الاصطناعي، تناولت ما قد يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي للقيام بمهمة "لا يرغب" في القيام بها.وأوضح الموقع: "لكي نكون