تأثير ChatGPT على تطوير الأسلحة البيولوجية: خطرٌ محتمل

التأثير المحتمل لتكنولوجيا الذكاء الاصطناعي على الأمان البيولوجي

أصدرت دراسة حديثة أجرتها شركة OpenAI تحذيرا بشأن إمكانية استخدام تقنية ChatGPT في تطوير الأسلحة البيولوجية، ويأتي ذلك استنادا إلى قلق مشترك بين الحكومات والمجتمعات الدولية حيال تسرب الذكاء الاصطناعي في هذا المجال المحظور.

إعلانات

تصميم الدراسة وجمهورها

قامت شركة OpenAI بتنفيذ الدراسة التي شملت 100 مشارك، وقام الباحثون بتقسيمهم إلى مجموعتين ومنح كل مجموعة وصولًا مختلفًا إلى ChatGPT والإنترنت، وطُلب منهم تقييم خطط لإنشاء التهديدات البيولوجية.

نتائج الدراسة ومدى خطورتها

أظهرت الدراسة أن استخدام ChatGPT أدى إلى زيادة طفيفة في الدقة والابتكار في إنشاء التهديدات البيولوجية. وعلى الرغم من أن هذه الزيادة ليست كبيرة، إلا أنها تكفي لدفع OpenAI إلى إعادة النظر في سياساتها حيال استخدام التكنولوجيا في المجال العسكري.

حديثًا عن خطورة هذه النتائج، يجدر بنا أن نضع في اعتبارنا أن حتى الزيادة الطفيفة في مساعدة الأفراد على تطوير الأسلحة البيولوجية تمثل خطرًا كبيرًا، ويحثنا ذلك على تبني مواقف حازمة لمنع سوء الاستخدام.

على الرغم من ذلك، أكدت OpenAI أن معلومات الأسلحة البيولوجية متاحة بالفعل على الإنترنت، وأن استخدام تقنيتها لم يؤدي إلى زيادة كبيرة في المخاطر.

لمزيد من المعلومات يمكنك زيارة المصدر من هنا.

تشمل الدراسة التي أجرتها OpenAI على ChatGPT تقييم تأثير الذكاء الاصطناعي على دقة واكتمال خطط الأسلحة البيولوجية. وأظهرت النتائج أن ChatGPT كان له تأثير إيجابي طفيف على هذه الخطط. وعلى الرغم من ذلك، فإن الشركة تقوم بتعديل سياستها لمعالجة خطر استخدام الذكاء الاصطناعي في المجال العسكري.

إعلانات