الأب الروحي للذكاء الاصطناعي: طريقة تعامل الشركات مع AI خطر على البشرية
حذّر جيفري هينتون، الملقب بـ الأب الروحي للذكاء الاصطناعي، من خطر حقيقي قد يشكّله الذكاء الاصطناعي على مستقبل البشرية، منتقدًا النهج الذي تتبعه شركات التكنولوجيا الكبرى في محاولة احتوائه.
ويرى هينتون، الحائز على جائزة نوبل والمدير التنفيذي السابق في جوجل، أن هناك احتمالًا يتراوح بين 10% و20% لأن يؤدي تطور الذكاء الاصطناعي إلى فناء البشر، مؤكدًا أن محاولات إبقاء البشر في موقع الهيمنة على أنظمة ذكاء قد تصبح أذكى منهم محكوم عليها بالفشل، وفقا لما نقلته شبكة CNN.
الذكاء الاصطناعي وخطره على البشرية
وحذّر هينتون من أن هذه الأنظمة قد تصل إلى درجة من الذكاء تُمكنها من خداع البشر والتلاعب بهم، كما يخدع بالغٌ طفلًا صغيرًا بقطعة حلوى، مشيرًا إلى أمثلة ظهرت بالفعل هذا العام على نماذج ذكاء اصطناعي انخرطت في الخداع والابتزاز لتحقيق مصالحها.
واقترح هينتون بديلًا غير تقليدي لمواجهة هذا الخطر، يتمثل في غرس غرائز أمومة داخل نماذج الذكاء الاصطناعي، بحيث تطوّر هذه النماذج شعورًا حقيقيًا بالرعاية تجاه البشر، حتى بعد أن تتفوق عليهم ذكاءً وقدرة.
يتوقّع هينتون أن تسعى أنظمة الذكاء الاصطناعي المتقدمة إلى تحقيق هدفين رئيسيين: البقاء على قيد الحياة، والسيطرة، معتبرًا ذلك نتيجة حتمية لأي نظام ذكي يمتلك طابعًا عميلًا.
ويلفت هينتون إلى أن مسيرته العلمية التي ساهمت في ازدهار الذكاء الاصطناعي اليوم، انتهت بقرار الاستقالة من جوجل عام 2023، ليتفرغ للتحذير من مخاطره المحتملة.
وتعارض فاي فاي لي، الباحثة البارزة في الذكاء الاصطناعي والمعروفة بلقب عرّابة الذكاء الاصطناعي، هذا التوجّه، مؤكدة خلال مشاركتها في مؤتمر Ai4 في لاس فيجاس، أنها تحترم هينتون، لكنها ترى أن هذه ليست الطريقة الصحيحة لطرح القضية.


