بدأ الذكاء الاصطناعي تدريجيًا في تأدية العديد من المهام في مجالات مختلفة، إما من خلال العمل جنبًا إلى جنب مع أحد الأشخاص المختصين أو الاعتماد التام عليه دون تدخل أي شخص. وعندما يتعلق الأمر بالإنتاجية والدقة، غالبًا ما تتفوق الخوارزميات على البشر. وعلى الرغم من ذلك، فهي لا تمتلك أي قيم أو أخلاق. وهذا هو أحد أسباب بطء اعتماد استخدام هذه التقنيات. وبما أن العالم يتجه إلى استخدام مختلف الآلات “الذكية” على نطاق أوسع، فسنحتاج إلى تعليم تلك الآلات الأخلاق.
كيفية “تربية” الآلة
إن الرقابة الحكومية الصارمة والتكلفة الهائلة من الأسباب الرئيسية لتأخر اعتماد الابتكارات في مجال الذكاء الاصطناعي. ولكن يوجد أيضًا عائق آخر وهو الاحتجاج العام. فعلى الرغم من موافقة الكثيرين على دور التكنولوجيا في جعل الحياة أفضل، بل وحفاظها عليها [1] من خلال الطب والأمن، لا يزال المجتمع مهتمًا بالقضايا الأخلاقية ويُنظر إلى العديد من الابتكارات على أنها أدوات للمراقبة والتحكم، وبالتالي لا يرغب بعض الأشخاص في وجودها حولهم.
ولقد صرح ما يقرب من 40% من الأشخاص بأن الذكاء الاصطناعي يزعجهم. ووفقًا لجريدة هارفارد غازيت [2]، كلما تغلغل الذكاء الاصطناعي بشكل أعمق في الصناعات المختلفة مع التأثير على صنع القرار، تصبح القضايا الأخلاقية أكثر حدة بسبب انتهاك مبادئ الخصوصية، مع زيادة خطر السيطرة المفرطة والتحيز والتمييز في قرارات الذكاء الاصطناعي.
وفي أحد الدراسات التي أجريت على [3] الخدمات الصوتية لدى أمازون وأبل وجوجل وآي بي إم ومايكروسوفت، وُجد أن الذكاء الاصطناعي كان أقل كفاءة في التعرف على أصوات الأمريكيين ذوي البشرة السوداء مقارنة بالأعراق الأخرى. وتتعرف أنظمة مايكروسوفت وآي بي إم لتحليلات الفيديو على [4] صور الرجال ذوي البشرة البيضاء بشكل أفضل من النساء. وبلغ معدل الخطأ في الصور التي تحتوي على نساء 35%. ويُعد كلا المثالين تحيز وتمييز من قبل الشبكات العصبية، حتى لو لم يكن ذلك متعمدًا.
وعندما تهيمن أجندة المساواة على العالم، تصبح مثل هذه المواقف نقاط سوداء تؤثر على سمعة الشركة وتؤدي أحيانًا إلى فضائح., في عام 2015، اضطرت شركة جوجل للاعتذار علنًا بعد أن وصفت شبكتها العصبية للتعرف على الصور الشخص أسود البشرة [5] بأنه “غوريلا”.
إذًا، ما الوصف الدقيق للذكاء الاصطناعي الأخلاقي؟
يعتقد محللون من شركة ديلويت [6] أن الذكاء الاصطناعي يجب أن يتسم بالشفافية والمسؤولية. ويؤكد خبراء من مركز بيو للأبحاث [7] على مبادئ المساءلة والعدالة. وهذا يعني، إذا كنا نتحدث عن أنظمة التعرف على الوجوه، أن عليها التعرف على الأشخاص من مختلف الأعراق والأجناس بنفس الدقة.
ويجب على الشركات التي تطور أي تقنية تعتمد على الذكاء الاصطناعي توثيق قدرات وقيود تقنيتها. وعلاوة على ذلك، يجب عدم استخدام أي ابتكار إلا تحت السيطرة البشرية، وألا تتخذ الآلة قرارات بمفردها. وأيضًا، يجب ألا تنتهك الآلة قانون أسيموف الأول [8] للروبوتات: “لا يُمكن للروبوت أن يؤذي إنسانًا أو، من خلال التقاعس عن العمل، يسمح للإنسان بالتعرض للأذى”.
وتوجد معايير أخرى للذكاء الاصطناعي الأخلاقي. على سبيل المثال، يجب أن تكون جميع قراراته مفهومة للبشر وأن تكون محدودة في نطاق عملها. على سبيل المثال، في القطاع الحكومي، يأتي إتباع القانون في المقام الأول. وفي قطاع الأعمال، تكمن الأولوية في تحقيق أعلى كفاءة من جميع العمليات.
من المسؤول عن فعل هذا؟
في استطلاع للرأي أجرته شركة كابجيميني، جاءت إجابة أكثر من 70% من المستجيبين [9] أن الدولة هي من عليها تحمل مسؤولية تطوير أخلاقيات الذكاء الاصطناعي. واقترحوا عمل السلطات الرئيسية مع الصناعات المستقلة، مثل IEEE (معهد مهندسي الكهرباء والإلكترونيات) لوضع مبادئ توجيهية للاستخدام السليم للذكاء الاصطناعي. وفي أوروبا، لفتت السلطات الانتباه بالفعل إلى هذه القضية. ولقد طور الاتحاد الأوروبي برنامجًا [10] حول الجوانب الأخلاقية للذكاء الاصطناعي والروبوتات.
والحل الأمثل هو عمل جميع الأطراف التي تتواصل مع هذه التقنيات معًا، الحكومات والمطورين والأعمال التي تستخدمها. ولقد طبق البعض بالفعل هذه الممارسات، على سبيل المثال لدى مايكروسوفت إدارة خاصة للعدالة والمساءلة والشفافية والأخلاق في أمور الذكاء الاصطناعي [11]، حيث يتحقق الموظفون من قائمة مرجعية لمتطلبات تطوير المنتجات والخدمات التي تعتمد على الذكاء الاصطناعي. وبذلك، يمكن للعملاء التيقن من أن الشركة تسعى جاهدة للحفاظ على عمل شبكاتها العصبية دون أي نوع من التحيز.
وللتحكم في أخلاقيات الذكاء الاصطناعي، قد تكون هناك حاجة إلى وجود مسؤول للنظر في شكاوى التكنولوجيا. وهو طرف مستقل (شخص واحد أو مجموعة) سيراقب أيضًا التطورات ويقدم اقتراحات.
يشكك 70% تقريبًا من المستجيبين لاستطلاع الرأي الذي أجراه مركز بيو للأبحاث - من المطورين ورجال الأعمال والسياسيين - في [12] فكرة تقبل جميع الأشخاص للذكاء الاصطناعي الأخلاقي خلال العشر سنوات القادمة. وعلى الرغم من ذلك، يتحرك العالم تدريجيًا في ذلك الاتجاه. وكلما سارع جميع المشاركين في عالم التكنولوجيا في اتخاذ قرار بالمساهمة في تطوير الذكاء الاصطناعي الأخلاقي، يزداد قبول الابتكار وتنخفض معدلات الاعتراض عليه بشكل عام.
المصادر:
- https://www.forbes.com/sites/forbestechcouncil/2021/05/13/saving-millions-of-lives-per-year-with-intelligent-automation/?sh=344057fe1349
- https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/
- https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7149386/
- https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
- https://www.bbc.com/news/technology-33347866
- https://www2.deloitte.com/nl/nl/pages/innovatie/artikelen/bringing-transparency-and-ethics-into-ai.html
- https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/
- https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
- https://www.capgemini.com/wp-content/uploads/2019/07/CRI-AI-in-Ethics_web-1.pdf
- https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_EN.pdf
- https://www.microsoft.com/en-us/research/theme/fate/
- https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/