الثقة في الذكاء الاصطناعي .. عرض وتحليل: د. عبدالباقي أبوزيد
أصبح الذكاء الاصطناعي Artificial intelligence (AI) جزءًا لا يتجزأ من الحياة اليومية والعمل، وتوسعت أنظمته وتطبيقاته في جميع مجالات الحياة، حيث تستخدم الآن في مجالات الأمن والصناعة والزراعة والتجارة والتعليم والنقل والخدمات وتشخيص الأمراض وعلاجها….إلخ، لما تتمتع به هذه التطبيقات من فوائد عديدة، حيث يعمل الذكاء الاصطناعي على تمكين الابتكار السريع الذي يغير طريقة إنجاز العمل وكيفية تقديم الخدمات كما في أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT، ونظرًا للفوائد العديدة المحتملة والمحققة للأفراد والمؤسسات والمجتمع، يستمر الاستثمار في الذكاء الاصطناعي في النمو في جميع القطاعات، حيث تستفيد المؤسسات من قدرات الذكاء الاصطناعي لتحسين التنبؤات، وتحسين المنتجات والخدمات، وزيادة الابتكار، وتعزيز الإنتاجية والكفاءة، وخفض التكاليف…إلخ.
مخاطر وتحديات
ومع ذلك فإن استخدام الذكاء الاصطناعي يشكل أيضًا مخاطر وتحديات كانتهاك الخصوصية، ونشر محتوى مزيف عبر الإنترنت، والبطالة، والمخاطر الناجمة عن خطر إمكانية استخدامها بشكل ضار كالهجمات السيبرانية…إلخ، مما يثير مخاوف بشأن ما إذا كانت أنظمة وتطبيقات الذكاء الاصطناعي تستحق الثقة، حيث إن تحقيق الفوائد التي يقدمها الذكاء الاصطناعي والعائد على الاستثمار في هذه التقنيات يتطلب الحفاظ على ثقة الناس، فيجب أن يكون الناس واثقين من أن الذكاء الاصطناعي يتم تطويره واستخدامه بطريقة مسؤولة وجديرة بالثقة، فقبول المجتمع لتطبيقات الذكاء الاصطناعي واستدامته يعتمد على هذه الثقة.
ولأهمية التعرف على ثقة الناس في الذكاء الاصطناعي، قامت خامس أقدم جامعة في أستراليا، والتي تأسست عام 1909، وهي جامعة كوينزلاند (University of Queensland) بدراسة علمية فريدة وجديرة بالاهتمام في هذا الموضوع، حيث هدفت هذه الدراسة إلى فهم وقياس ثقة الناس ومواقفهم تجاه الذكاء الاصطناعي واستخدامه في خمسة مجالات هي: الرعاية الصحية، الأمن، الموارد البشرية ، المستهلكين، والذكاء الاصطناعي بشكل عام، وقياس هذه المواقف مع مرور الوقت، واستكشاف أوجه التشابه والاختلاف بين البلدان.
ثمانية أسئلة أساسية
ولتحقيق أهداف الدراسة تم وضع ثمانية أسئلة أساسية هي: إلى أي مدى يثق الناس في أنظمة الذكاء الاصطناعي؟ كيف ينظر الناس إلى فوائد ومخاطر الذكاء الاصطناعي؟ من هو الشخص الموثوق به لتطوير واستخدام وإدارة الذكاء الاصطناعي؟ ما توقعات الناس من إدارة وحوكمة وتنظيم الذكاء الاصطناعي؟ كيف يشعر الناس تجاه الذكاء الاصطناعي في العمل؟ ما مدى فهم الناس للذكاء الاصطناعي؟ ما الدوافع الرئيسية للثقة في الذكاء الاصطناعي وقبوله؟ كيف تغيرت الثقة والمواقف تجاه الذكاء الاصطناعي مع مرور الوقت؟
وتم توجيه هذه الأسئلة إلى 17193 مشاركًا منهم 50% نساء، و49% رجال، و1% ثنائيي الهوية الجنسية، وتراوحت أعمارهم بين 18، 91 سنة بمتوسط عمر 44 سنة. وكان تسعون بالمائة من المشاركين إما موظفين حاليًا (67%) أو لديهم خبرة عمل سابقة (23%)، واختير المشاركون من 17 دولة تغطي جميع مناطق العالم وهي: أستراليا والبرازيل وكندا والصين وإستونيا وفنلندا وفرنسا وألمانيا والهند وإسرائيل واليابان وهولندا وسنغافورة وجنوب أفريقيا وكوريا الجنوبية والمملكة المتحدة، والولايات المتحدة الأمريكية، واختيرت هذه البلدان بناءً على ثلاثة معاييرهي: التمثيل في جميع المناطق العالمية التسع؛ الريادة في نشاط الذكاء الاصطناعي، والتنوع في مؤشر الذكاء الاصطناعي.
وتوصلت هذه الدراسة إلى الى مجموعة من النتائج الهامة منها:
-شعور معظم الناس بالقلق بشأن الثقة في أنظمة الذكاء الاصطناعي، ولديهم قبول منخفض أو متوسط للذكاء الاصطناعي، والثقة منخفضة بشكل خاص في فنلندا واليابان، حيث أبلغ أقل من ربع الأشخاص عن ثقتهم في الذكاء الاصطناعي، وفي المقابل، يتمتع الناس في الاقتصادات الناشئة في البرازيل والهند والصين وجنوب أفريقيا (BICS) بأعلى مستويات الثقة، حيث يثق غالبية الناس في أنظمة الذكاء الاصطناعي.
-لدى الناس ثقة أكبر في أنظمة الذكاء الاصطناعي لإنتاج مخرجات دقيقة وموثوقة وتقديم خدمات مفيدة، وهم أكثر تشككًا بشأن سلامة وأمن وعدالة أنظمة الذكاء الاصطناعي ومدى دعمها لحقوق الخصوصية.
-الثقة في أنظمة الذكاء الاصطناعي أمر سياقي ويعتمد على التطبيق المحدد أو حالة الاستخدام، حيث كان الأشخاص عمومًا أقل ثقة وقبولأ لاستخدام الذكاء الاصطناعي في الموارد البشرية (أي للمساعدة في قرارات التوظيف والترقية)، وأكثر ثقة في استخدام الذكاء الاصطناعي في الرعاية الصحية (أي للمساعدة في التشخيص والعلاج الطبي) حيثما توجد فائدة مباشرة لهم. يكون الأشخاص عمومًا أكثر استعدادًا للاعتماد على المعلومات بدلاًً من مشاركتها مع أنظمة الذكاء الاصطناعي.
-يشعر العديد من الأشخاص بالتناقض بشأن استخدام الذكاء الاصطناعي، حيث يعبرون عن التفاؤل أو الإثارة من ناحية، بينما يعبرون في الوقت نفسه عن القلق أو الخوف. بشكل عام، يشعر ثلثا الأشخاص بالتفاؤل بشأن استخدام الذكاء الاصطناعي، بينما يشعر نصفهم تقريبًا بالقلق. في حين أن التفاؤل والإثارة هما من المشاعر السائدة في العديد من البلدان، وخاصة دول مجموعة BICS، فإن الخوف والقلق من المشاعر السائدة لدى الناس في أستراليا وكندا وفرنسا واليابان، وكان الناس في فرنسا هم الأكثر خوفاًً وقلقاًً وغضباًً بشأن الذكاء الاصطناعي.
-يدرك الناس الفوائد العديدة للذكاء الاصطناعي، لكن نصفهم فقط يعتقدون أن الفوائد تفوق المخاطر، حيث يعتقد معظم الأشخاص (85%) أن الذكاء الاصطناعي يؤدي إلى مجموعة من الفوائد، ويعتقدون أن فوائد “العملية” مثل تحسين الكفاءة والابتكار والفعالية واستخدام الموارد وخفض التكاليف، أكبر من فوائد “الأشخاص” المتمثلة في تعزيز عملية صنع القرار. ومع ذلك، في المتوسط، يعتقد شخص واحد فقط من بين كل شخصين أن فوائد الذكاء الاصطناعي تفوق مخاطره. والناس في الدول الغربية واليابان بشكل خاص غير مقتنعين بأن الفوائد تفوق المخاطر. وفي المقابل، يعتقد غالبية الناس في دول مجموعة BICS وسنغافورة أن الفوائد تفوق المخاطر.
-ينظر الناس إلى مخاطر الذكاء الاصطناعي بطريقة مماثلة عبر البلدان، حيث تم تصنيف الأمن السيبراني على أنه الخطر الأعلى على مستوى العالم. وبينما توجد اختلافات في كيفية النظر إلى نسبة فوائد الذكاء الاصطناعي إلى المخاطر، هناك اتساق كبير عبر البلدان في الطريقة التي يتم بها التعامل مع مخاطر الذكاء الاصطناعي
-أكد ما يقل قليلاً عن ثلاثة أرباع (73٪) الأشخاص في جميع أنحاء العالم عن شعورهم بالقلق بشأن المخاطر المحتملة للذكاء الاصطناعي، وتشمل هذه المخاطر الأمن السيبراني وانتهاكات الخصوصية، والتلاعب والاستخدام الضار، وفقدان الوظائف وفقدان المهارات، وفشل النظام، وتآكل حقوق الإنسان، والنتائج غير الدقيقة أو المتحيزة.
-في جميع البلدان، صنف الناس مخاطر الأمن السيبراني على أنها مصدر القلق الأساسي، كما يشكل فقدان الوظائف بسبب الأتمتة مصدر قلق كبير في الهند وجنوب أفريقيا، ويُصنف فشل النظام على أنه مصدر قلق كبير في اليابان، مما قد يعكس اعتمادها الكبير نسبياًً على التكنولوجيا الذكية، وتعزز هذه النتائج الأهمية الحاسمة لحماية بيانات الأشخاص وخصوصيتهم لتأمين الثقة والحفاظ عليها، ودعم النهج العالمية والمعايير الدولية لإدارة مخاطر الذكاء الاصطناعي والتخفيف من حدتها عبر البلدان.
-هناك تأييد عالمي قوي لمبادئ الذكاء الاصطناعي الجديرة بالثقة التي اقترحتها المفوضية الأوروبية، وهي مهمة للغاية لتعزيز الثقة في جميع البلدان السبعة عشر.
-سيكون ثلاثة من كل أربعة أشخاص أكثر استعدادًا للثقة في نظام الذكاء الاصطناعي عندما تكون هناك آليات ضمان تشير إلى الاستخدام الأخلاقي والمسؤول، مثل مراقبة دقة النظام وموثوقيته، والمراجعات المستقلة لأخلاقيات الذكاء الاصطناعي، وشهادات أخلاقيات الذكاء الاصطناعي، والالتزام بالمعايير، والذكاء الاصطناعي.
-الناس أكثر ثقة في الجامعات والمؤسسات الدفاعية لتطوير الذكاء الاصطناعي واستخدامه وإدارته وأقل ثقة في المؤسسات الحكومية والتجارية.
-الناس لديهم ثقة أكبر في جامعاتهم الوطنية ومؤسساتهم البحثية، فضلاًً عن منظماتهم الدفاعية، في التطوير والاستخدام والإدارة.
-يثق 76-82% من الناس في أن الذكاء الاصطناعي سيكون في مصلحتهم.
-يفتقر ثلث الناس إلى الثقة في المنظمات الحكومية والتجارية لتطوير الذكاء الاصطناعي واستخدامه وتنظيمه.
-هناك اختلافات كبيرة بين البلدان في ثقة الناس بحكوماتهم في استخدام وإدارة الذكاء الاصطناعي، حيث يفتقر حوالي نصف الناس إلى الثقة في حكوماتهم في جنوب أفريقيا واليابان والمملكة المتحدة والولايات المتحدة الأمريكية، في حين أن الأغلبية في الصين والهند وسنغافورة لا يثقون في حكوماتهم.
-تتوقع الغالبية العظمى من الأشخاص (71%) أن يتم تنظيم الذكاء الاصطناعي. وباستثناء الهند، ترى الأغلبية في جميع البلدان الأخرى أن التنظيم ضروري.
-هناك اختلافات كبيرة بين البلدان في الضمانات الخاصة بالذكاء الاصطناعي، حيث من المرجح أن يعتقد الناس في الهند والصين بوجود ضمانات مناسبة (74-80٪ يوافقون)، تليها البرازيل وسنغافورة (52-53٪). في المقابل، كان الناس في اليابان وكوريا الجنوبية هم الأقل اقتناعًا (13-17٪ يوافقون على ذلك) وكذلك غالبية الناس في الدول الغربية.
-يشعر معظم الأشخاص بالارتياح تجاه استخدام الذكاء الاصطناعي لتعزيز العمل وإرشاد عملية اتخاذ القرارات الإدارية، لكنهم يريدون أن يحتفظ البشر بالسيطرة.
-يشعر معظم الأشخاص بالارتياح تجاه استخدام الذكاء الاصطناعي في العمل لزيادة المهام وأتمتتها، لكنهم يشعرون براحة أقل عندما يركز الذكاء الاصطناعي عليها كموظفين، على سبيل المثال في الموارد البشرية وإدارة الأفراد (على سبيل المثال لمراقبة وتقييم الموظفين ودعم التوظيف). في المتوسط، يرغب نصف الأشخاص في الثقة بالذكاء الاصطناعي في العمل، على سبيل المثال من خلال الاعتماد على المخرجات التي يقدمها. يعتبر الأشخاص في أستراليا وكندا وفرنسا وألمانيا هم الأقل ارتياحًا لاستخدام الذكاء الاصطناعي في العمل، في حين أن الأشخاص في دول BICS وسنغافورة هم الأكثر راحة.
-ينظر معظم الناس إلى استخدام الذكاء الاصطناعي في اتخاذ القرارات الإدارية على أنه أمر مقبول، ويفضلون في الواقع مشاركة الذكاء الاصطناعي على اتخاذ القرار البشري وحده. ومع ذلك، فإن الخيار المفضل هو إما التعاون بين الإنسان والذكاء الاصطناعي بنسبة 25% – 75% أو 50% – 50%، مع احتفاظ البشر بقدر أكبر أو متساوٍ من السيطرة. يشير هذا إلى تفضيل واضح لاستخدام الذكاء الاصطناعي كوسيلة مساعدة في اتخاذ القرار، ونقص الدعم لعملية اتخاذ القرار المؤتمتة بالكامل باستخدام الذكاء الاصطناعي في العمل. في حين يعتقد حوالي النصف أن الذكاء الاصطناعي سيعزز كفاءتهم واستقلاليتهم في العمل،
-يعتقد أقل من واحد من كل ثلاثة أشخاص أن الذكاء الاصطناعي سيخلق وظائف أكثر مما سيقضي عليه. ومع ذلك، يعتقد معظم المديرين العكس، وهو أن الذكاء الاصطناعي سيخلق فرص العمل. ويعكس هذا اتجاهًا أوسع يتمثل في كون المديرين أكثر راحة وثقة ودعمًا لاستخدام الذكاء الاصطناعي في العمل مقارنة بالموظفين الآخرين، حيث يكون العمال اليدويون هم الأقل راحة وثقة في استخدام الذكاء الاصطناعي في العمل. ونظرًا لأن المديرين هم عادة المحركون لاعتماد الذكاء الاصطناعي في المؤسسات، فإن وجهات النظر المختلفة هذه قد تسبب توترات في تنفيذ الذكاء الاصطناعي في العمل.
-أفادت أقلية من الأشخاص في الدول الغربية واليابان وكوريا الجنوبية أن المنظمات التي يعملون بها تستثمر في تبني الذكاء الاصطناعي، أو تعترف بالجهود المبذولة لدمج الذكاء الاصطناعي، أو تدعم الاستخدام المسؤول للذكاء الاصطناعي. وهذا يتناقض مع غالبية الناس في دول BICS وسنغافورة.
-يرغب الناس في معرفة المزيد عن الذكاء الاصطناعي ولكن فهمهم منخفض حاليًا. في حين أن 82% من الأشخاص على دراية بالذكاء الاصطناعي، أفاد واحد من كل شخصين أنه يشعر بأنه لا يفهم الذكاء الاصطناعي أو متى وكيف يتم استخدامه.
-إن فهم الذكاء الاصطناعي هو الأعلى في الصين والهند وكوريا الجنوبية وسنغافورة.
-اثنان من كل خمسة أشخاص لا يدركون أن الذكاء الاصطناعي يتيح التطبيقات الشائعة التي يستخدمونها.
-على الرغم من أن 87% من الأشخاص يستخدمون وسائل التواصل الاجتماعي، فإن 45% منهم لا يعرفون أن الذكاء الاصطناعي يُستخدم في وسائل التواصل الاجتماعي.
-من المرجح أن يثق الأشخاص الذين يفهمون الذكاء الاصطناعي بشكل أفضل ويقبلونه، ويدركون فوائد أكبر لاستخدام الذكاء الاصطناعي. وهذا يشير إلى أن فهم الذكاء الاصطناعي يضع أساسًا للثقة.
-يرغب معظم الأشخاص في جميع البلدان (82%) في معرفة المزيد عن الذكاء الاصطناعي، وهذه النتائج تشير إلى وجود حاجة قوية ورغبة قوية في التثقيف العام حول الذكاء الاصطناعي.
-الأجيال الشابة والمتعلمون في الجامعة والمديرون أكثر ثقة وقبولاًً ولديهم مواقف أكثر إيجابية بشكل عام تجاه الذكاء الاصطناعي.
-توجد اختلافات واضحة في الثقة والمواقف واستخدام الذكاء الاصطناعي بين الناس في الاقتصادات الناشئة في البرازيل والهند والصين وجنوب أفريقيا وتلك الموجودة في البلدان الأخرى.
-الناس في الاقتصادات الناشئة أكثر ثقة وقبولاًً للذكاء الاصطناعي ولديهم مشاعر ومواقف إيجابية تجاه الذكاء الاصطناعي أكثر من الناس في البلدان الأخرى.
-لم يكن الناس في دول مجموعة دول BICS وسنغافورة يدركون أن مخاطر الذكاء الاصطناعي، أو التأثير غير المؤكد للذكاء الاصطناعي على المجتمع، أقل من الناس في البلدان الأخرى. كما أنها لم تختلف عن الدول الأخرى بشأن أهمية المبادئ والممارسات المطلوبة لضمان موثوقية الذكاء الاصطناعي، والفارق الرئيسي هو أن معظم الناس في دول مجموعة BICS وسنغافورة يعتقدون أن فوائد الذكاء الاصطناعي تفوق مخاطره، في حين أن أقلية من الناس في الدول الغربية، مثل أستراليا وكندا وفرنسا وهولندا والمملكة المتحدة والولايات المتحدة الأمريكية يعتقدون ذلك.
-تعد الثقة عنصرًا أساسيًا في قبول الذكاء الاصطناعي وتتأثر بأربعة محركات أو مسارات رئيسية هي: مسار مؤسسي يعكس المعتقدات حول مدى كفاية الضمانات واللوائح والقوانين الحالية لجعل استخدام الذكاء الاصطناعي آمنًا، والثقة في المنظمات الحكومية والتجارية لتطوير الذكاء الاصطناعي واستخدامه وحوكمته، مسار تحفيزي يعكس الفوائد المتصورة لاستخدام الذكاء الاصطناعي، مسار للحد من عدم اليقين يعكس الحاجة إلى معالجة المخاوف بشأن المخاطر المرتبطة بالذكاء الاصطناعي ومسار معرفي يعكس فهم الناس لاستخدام الذكاء الاصطناعي وفعالية استخدام التكنولوجيا، وكان للمسار المؤسسي التأثير الأقوى على الثقة، يليه المسار التحفيزي.
-تسلط هذه النتائج الضوء على أهمية تطوير آليات حوكمة وتنظيمية مناسبة تحمي الأشخاص من المخاطر المرتبطة باستخدام الذكاء الاصطناعي وثقة الجمهور في الكيانات لسن هذه الضمانات، بالإضافة إلى ضمان تصميم الذكاء الاصطناعي واستخدامه بطريقة تتمحور حول الإنسان لإفادة الناس ودعم فهمهم.
وختاماًً: يتضح من نتائج هذه الدراسة أننا في الوطن العربي بحاجة ماسة إلى أن نولي موضوع الذكاء الاصطناعي الأهمية المناسبة له على كل المستويات، بدءًا من إعداد وتأهيل البنية التحتية والتشريعية والكوادر البشرية والموسسات التعليمية والتدريبية ببرامجها ومختبراتها والقائمين عليها، والبرامج التوعوية بكل الوسائل للاستفادة من إمكانيات الذكاء الاصطناعي الهائلة، وإلا سنظل مستهلكين خاضعين لكل شروط الطرف الأقوى في عقد الإذعان، وهي الدول المتقدمة في مجال الذكاء الاصطناعي، وآمل أن تكون هذه الدراسة محل اهتمام من جانب كل من له علاقة بهذا المجال.
د. عبدالباقي أبوزيد
عضو مجلس أمناء مركز الوعي العربي للدراسات الاستراتيجية
وأستاذ المناهج وطرق التدريس المساعد بجامعتي سوهاج والبحرين