العلوم والتكنولوجيا

“تشات جي بي تي” وأخواتها تثير رعباً متزايداً!

0 0
Read Time:3 Minute, 7 Second

لندن – وكالات: بعد أقل من أربعة أشهر على إطلاقه تبخرت النشوة التي أحدثها روبوت الدردشة “تشات جي.بي.تي”، وبدأت مرحلة التفكير بالمخاطر التي قد تنجم عن تطوير أنظمة ذكية قوية مماثلة، ما دفع بمجموعة من الأسماء العلمية والشخصيات النافذة لتوجيه رسالة تحذير تدعو إلى التوقف عن سباق التطوير، وأخذ استراحة لستة أشهر لالتقاط الأنفاس، والتفكير بالعواقب.
التحذير جاء بعد أيام قليلة من إصدار شركة “أوبن.أي.آي” لروبوت المحادثة “تشات جي.بي.تي 4″، وهو نسخة أكثر تطوراً من روبوت الدردشة “تشات جي.بي.تي”، التي رغم عمرها القصير نسبياً انتشر استخدامها على نطاق واسع، مشعلة سباقاً محموماً بين عملاقي التكنولوجيا غوغل ومايكروسوفت، لتطوير تطبيقات مماثلة، وهو ما حصل.
يقول الموقعون على رسالة التحذير: نحن بحاجة إلى الإبطاء حتى نفهم بشكل أفضل التداعيات، خاصة بعد أن أصبح اللاعبون الكبار أكثر سرية، ما يُصعّب على المجتمع مهمة الدفاع عن نفسه ضد أي أضرار قد تنجم عن ذلك.
ويؤكدون في تحذيرهم أن أنظمة الذكاء الاصطناعي التي تتمتع بذكاء تنافسي بشري، يمكن أن تشكل مخاطر وتترك ندوباً عميقة على المجتمع والإنسانية، من إغراق الإنترنت بالمعلومات المضللة، وأتمتة الوظائف، إلى مخاطر مستقبلية كارثية تبدو أمامها روايات وأفلام الخيال العلمي التي قرأناها وشاهدناها حتى الآن متواضعة.
وتمضي الرسالة لتقول: في الأشهر الأخيرة شهدت مختبرات الذكاء الاصطناعي سباقاً خارجاً عن السيطرة لتطوير ونشر عقول رقمية أكثر قوة من أي وقت مضى، لا يمكن لأحد، ولا حتى منشئيها، فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق.
وتضيف: ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فوراً لستة أشهر على الأقل عن تدريب أنظمة ذكاء اصطناعي أقوى من “جي.بي.تي 4” (…) يجب أن يكون هذا التوقف عاماً ويمكن التأكد منه، وأن يشمل جميع الجهات الفاعلة الرئيسة. وإذا لم يكن بالإمكان فرض مثل هذا التوقف بسرعة، فعلى الحكومات أن تتدخل (…) يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون قابلة للإدارة والسيطرة.
وفصلت الرسالة الصادرة عن معهد “فيوتشر أوف لايف”، ووقّعها أكثر من ألف شخص، المخاطر المحتملة على المجتمع من قبل أنظمة الذكاء الاصطناعي المنافسة للبشر، متحدثة عن اضطرابات اقتصادية وسياسية واجتماعية.
وتساءلت الرسالة: هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟ وهل ينبغي أن نطور عقولاً غير بشرية قد تفوقنا عدداً وذكاءً في النهاية، وتتفوق علينا، وتحل محلّنا؟
وأضافت: يجب عدم تفويض مثل هذه القرارات إلى قادة للتكنولوجيا غير منتخبين، داعية المطورين إلى العمل بالتنسيق مع صانعي سياسات الحوكمة ومع الجهات التنظيمية.
جدير بالذكر أن الممولين الرئيسيين لمعهد فيوتشر أوف لايف، وفقاً لسجلات الشفافية في الاتحاد الأوروبي، هم مؤسسة “ماسك”، ومجموعة “فاوندرز بليدج” ومقرها لندن، فضلاً عن مؤسسة “سيليكون فالي كوميونيتي”.
بوجود أسماء كبيرة شاركت في التوقيع على الرسالة، لا بدّ من التعامل مع ما جاء في مضمون الرسالة من تحذيرات بجديّة مطلقة، فهناك بين الأسماء رائد الذكاء الاصطناعي الحائز على جائزة تورينغ، يوشوا بينجيو، وأيضاً ستيوارت راسل، وغاري ماركوس، وهما اسمان لامعان في أبحاث الذكاء الاصطناعي، وهناك المرشح الرئاسي الأميركي السابق أندرو يانغ.
ومن الأسماء التي تضفي على التحذير قيمة، اسم راشيل برونسون رئيسة نشرة علماء الذرة، وهي مجموعة مناصرة ذات توجه علمي معروفة بتحذيراتها من حرب نووية تنهي البشرية.
وهناك أيضاً عماد موستاك الرئيس التنفيذي لشركة “ستابلتي” المطوّرة لمولد الصور ستيبل دفيوجن بالشراكة مع أمازون، وهو منافس لمولد الصور المعروف باسم (DALL-E) الذي طورته “أوبن.أي.آي”، وذلك بالطبع إضافة إلى أيلون ماسك وستيف ووزنيك.
عند الحديث عن مخاطر الذكاء الاصطناعي وتهديده المحتمل للبشر، يستحضر دائماً اسم أيلون ماسك، الذي يدير شركات ضخمة مثل تسلا، وتويتر، وسبيس إكس، وكان سباقاً للرهان والاستثمار بشركة “أوبن.أي.آي”، فلطالما أعرب عن مخاوفه وحذّر من مخاطر وجودية تهدد البشر يثيرها تطوير الذكاء الاصطناعي.
وإن كانت رسالة التحذير حظيت بتأييد جهات كثيرة، إلا أنها جوبهت أيضاً بردود كثيرة مشككة، فيما لم تصدر حتى هذه اللحظة أي تعليقات من قبل الشركات العملاقة الثلاث التي استهدفتها الرسالة: “أوبن.أي.آي”، و”مايكروسوفت”، و”غوغل”.
 

 

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *