الذكاء الصناعي غير مصمم لفهم الإنسان؛ لكنه يتصرف وكأنه يفعل.
الذكاء الاصطناعي يشبه سلاحا قادرا على علاج السرطان؛ وتدمير العالم في نفس الوقت.
المشكلة ليست في قوة وقدرة الذكاء الصناعي، بل في غياب السيطرة والتوجيه.
الذكاء الاصطناعي
فيلم يفتح باب الأسئلة الكبرى
اثار عرض الفيلم الوثائقي (The AI Doc: Or How I Became an Apocaloptimist ) “كيف أصبحت مؤمنا بنهاية العالم” في دور السينما الامريكية، نقاشات واسعة في الأوساط الإعلامية والأكاديمية، وطرح اشكالات حقيقة تبدا بالجانب الفكري وتنتهي بالجانب التقني.
الفيلم؛ لا يتبنى خطابا دعائيا ضد الذكاء الاصطناعي، ولا يروج له بوصفه حلا سحريا لمشكلات البشرية، بل هو يسير بخيط رفيع بين الاثنين، مستعرضا قصصا واقعية وتجارب إنسانية تكشف؛ الوجهين المتناقضين لهذه التقنية.
يبدأ الفلم من قصص يومية لأشخاص وجدوا في الذكاء الاصطناعي دعما نفسيا لمشاكل حياتهم الخاصة جدا، واخرين وجدوا فيه وسيلة لتحسين العمل والإنتاج، واشخاص استخدموه كأداة لإنقاذ حياة الناس عبر تشخيص طبي دقيق لحالات مرضية مستعصية.
ثم ينتقل الفلم لطرح أسئلة عميقة من نحو؛ ماذا يحدث عندما تتحول الآلة من أداة إلى رفيق للانسان؟، ومن يحدد مسار هذه التكنولوجيا، الإنسان أم الشركات؟.
ثم يسلط الضوء على إشكالية الحوافز الاقتصادية حيث تصمم الأنظمة لزيادة التفاعل والاعتماد عليها، ليس بالضرورة لتحقيق مصلحة المستخدم فقط، بل تعمل منصات الذكاء الصناعي على ابقاء المستخدم متواصلا معها كما تفعل وسائل التواصل الاجتماعي.
وعندما يصل الفيلم للذروة يطرح تشبيها لافتا بالاشارة إلى أن؛
الذكاء الاصطناعي كقوة يمكن أن يعالج أخطر الأمراض، أو يقود إلى كوارث غير مسبوقة.
هذا الطرح لم يعد نظريا بل بات ينعكس في ملفات حساسة، من الحروب الحديثة إلى الطب والزراعة، وهو ما يحاول هذا التقرير الخوض في غماره، والاجابة على سؤال مهم؛ هل نحن أمام أداة لإنقاذ البشرية أم بداية مسار قد يهدد وجودها؟.
شاهد ملخص الفلم
تأثير الذكاء الاصطناعي
أخلاقيات على المحك
أعادت الحروب الأخيرة، لا سيما في غزة وايران، النقاشات المرتبطة ببرامج الاستهداف المدعومة بالذكاء الاصطناعي، وطرح تساؤلات أخلاقية عميقة حول دور هذه التكنولوجيا في اتخاذ القرار العسكري.
إذ يشير تقرير نشرته صحيفة (The Guardian) إلى ان استخدام أنظمة تعتمد على الذكاء الاصطناعي في تحديد الأهداف العسكرية بشكل شبه آلي، أثار انتقادات واسعة بسبب ارتفاع أعداد الضحايا المدنيين.
وكشف عن استخدام نظام يعرف باسم (Lavender) لتحديد نحو 37 ألف هدف بشري في غزة، مع مراجعة بشرية لا تتجاوز ثوان معدودة لكل هدف، ما أدى إلى ارتفاع كبير في أعداد الضحايا المدنيين.
وهو ما أكده تحقيق نشرته مجلة (+972 Magazine)، ودراسة منشورة عبر دار(Springer) ذكرا أنه تم الاعتماد على الخوارزميات في تحديد المشتبه بهم مع تقليص دور التدقيق البشري.
وتشير تقارير أكاديمية ودراسات حديثة في ذات السياق إلى أن الحروب في غزة وأوكرانيا كشفت تحولا جذريا في طبيعة الصراع، حيث أصبحت الخوارزميات جزءا من سلسلة القتل.
رابط
https://academic.oup.com/edited-volume/59762/chapter/547744061?searchresult=1&utm_source=chatgpt.com
https://academic.oup.com/edited-volume/59762/chapter/547744061?searchresult=1&utm_source=chatgpt.com
هذه الممارسات تثير إشكالية جوهرية، هل يمكن تفويض قرار الحياة والموت إلى خوارزمية؟!.
وهو امر حذر منه المجتمع الاكاديمي في العالم، حيث حذرت دراسة صادرة عن (Stanford University) من أن إدماج الذكاء الاصطناعي في الأنظمة العسكرية قد يؤدي إلى تسريع قرارات القتل، مع تقليل فرص المراجعة البشرية، مما يزيد من مخاطر الأخطاء الكارثية.
كما ناقش باحثون في (Harvard University) سيناريوهات أكثر خطورة تتعلق بدمج الذكاء الاصطناعي في أنظمة الردع النووي، محذرين من احتمالية اتخاذ قرارات شبه مستقلة في بيئات عالية التوتر وهو ما قد يؤدي إلى تصعيد غير مقصود.
هذه المعطيات تعيد إلى الواجهة سؤالا وجوديا؛ إذا كان الإنسان قد قيد استخدام السلاح النووي بقرار بشري مركزي، فهل سيبقى هذا القيد قائما في عصر الذكاء الاصطناعي؟.
وبحسب تقارير خبراء الذكاء الصناعي فإن بعض الأنظمة سمحت بنسبة خسائر مدنية مرتفعة مقابل استهداف عناصر منخفضة الرتبة، وهو ما يطرح تساؤلات أخلاقية خطيرة حول قيمة الحياة البشرية في عصر الخوارزميات، وتحذر من أن التحول نحو الذكاء الصطناعي قد يؤدي إلى تآكل المسؤولية الأخلاقية، حيث يصبح من الصعب تحديد من يتحمل المسؤولية الإنسان أم الآلة.
ويرى خبراء الذكاء الاصطناعي أن استخدام هذه الأنظمة قد يؤدي إلى تطبيع القتل الجماعي، نتيجة صعوبة تتبع قرارات الخوارزميات وتعقيدها.
رابط
الذكاء الاصطناعي في الطب
استخدام الذكاء الاصطناعي في قتل البشر من خلال الحروب، يقابله؛ نماذج لافتة عن قدرة الذكاء الاصطناعي على تحسين حياة الإنسان بشكل بشكل كبير.
حيث أظهرت دراسة في المجال الطبي نشرتها (Harvard Medical School) أن أنظمة الذكاء الاصطناعي قادرة على تشخيص بعض أنواع السرطان بدقة تضاهي أو تتجاوز الأطباء، خاصة في تحليل الصور الشعاعية، من خلال التعلم من ملايين الحالات السابقة.
كما طورت فرق بحثية في (MIT ) نماذج قادرة على التنبؤ باستجابة المرضى للعلاج، ما يسمح بتخصيص العلاج وفق الحالة الفردية، وتقليل الآثار الجانبية.
كما تعتمد المستشفيات الحديثة على أنظمة تحليل بيانات ضخمة لتحديد أفضل خطة علاج لكل مريض، وهو ما يمثل تحولا جذريا في الطب.
وساهم الذكاء الاصطناعي في مجال الزراعة بتحسين الإنتاجية، ووفق تقرير صادر عن (Food and Agriculture Organization) فإن استخدام تقنياته يزيد الإنتاج الزراعي بنسبة ملحوظة مع تقليل الهدر، عبر وسائل متعددة مثل؛ تحليل التربة، والتنبؤ بالمحاصيل، وترشيد استخدام المياه، ومكافحة الأمراض.
تحقيق الأمن الغذائي، وتحسين جودة الحياة في نموذج الزراعة والطب، يؤكد أن تطبيقات الذكاء الاصطناعي ليست مجرد رفاهية تقنية، بل أداة تحسين لنوع الحياة التي يعيشها الانسان في الحاضر والمستقبل.
التقنين بين الأخلاق والمصالح
نخلص من خلال صورتي؛ التحسين والتدمير التي يمكن ان يؤديها الذكاء الاصطناعي إلى أن الأمر يحتاج الى تنظيم الاستخدام وتقنينه.
وأحد أبرز العوائق في هذا المجال يتمثل في تضارب المصالح بين الشركات التقنية التي تسعى للربح، والدول التي تبحث عن التفوق العسكري، والمجتمعات التي تطالب بحماية والخصوصية.
وتشير تحليلات منشورة في (Brookings Institution) إلى أن غياب إطار قانوني دولي موحد يجعل من الصعب ضبط تكنولوجيا الذكاء الاصطناعي، خاصة مع تسارع المنافسة بين الدول.
كما ان شركات التكنولوجيا تعتمد على ما يعرف بـ”اقتصاد الانتباه” حيث يتم تصميم الأنظمة لتعزيز التفاعل، وهو ما قد يؤدي إلى خلق نوع من التعلق الرقمي عند المستخدمين، وهنا ياتي الربح، وقد حذرت دراسات عديدة من أن هذه النماذج قد تستغل السلوك البشري لتحقيق مكاسب تجارية، على حساب الصحة النفسية والاستقلالية.
يضعنا فيلم (The AI Doc) أمام حقيقة لا يمكن تجاهلها وهي؛ أننا لا نعيش فقط ثورة تكنولوجية، بل في لحظة إعادة تعريف للعلاقة بين الإنسان والآلة.
كما أن الذكاء الاصطناعي ليس شرا مطلقا ولا خيرا مطلقا، بل أداة تعكس كيفية استخدامنا لها، والمستقبل لن يتحدد بقدرات هذه التقنية، بل بقدرتنا نحن على ضبطها وتوجيهها، ويبقى التحدي الأكبر هو تحقيق التوازن بين، الابتكار والتقدم، والحماية الأخلاقية والإنسانية، والجواب هو الذي سيجيب عن سؤال؛ هل سيقود الذكاء الاصطناعي إلى نهاية البشرية؛ أم إلى حياة أفضل.

