ai ethics

ปัญญาประดิษฐ์ค่อย ๆ เริ่มแก้ปัญหาในด้านต่าง ๆ ไม่ว่าจะเป็นการทำงานร่วมกับผู้เชี่ยวชาญที่มีชีวิต หรือทำงานแทนที่พวกเขาทุกอย่าง เมื่อพูดถึงประสิทธิภาพ และความแม่นยำ อัลกอริทึมมักมีประสิทธิภาพเหนือกว่ามนุษย์ อย่างไรก็ตามเครื่องจักรไม่มีคุณสมบัติทางด้านศีลธรรม และจริยธรรมเป็นพิเศษ นี่จึงเป็นสาเหตุหนึ่งที่ทำให้มีการยอมรับเทคโนโลยีดังกล่าวค่อนข้างช้า เนื่องจากโลกกำลังก้าวไปสู่การใช้เครื่องจักร “อัจฉริยะ” ต่าง ๆ อย่างแพร่หลาย เราจำเป็นต้องทำการสอนเรื่องจริยธรรมแก่เครื่องจักรเหล่านี้

วิธีการ “บำรุงรักษา” เครื่องจักร

นวัตกรรมด้านปัญญาประดิษฐ์ส่วนใหญ่ถูกขัดขวางโดยสิ่งต่าง ๆ เช่น การกำกับดูแลที่เข้มงวดของรัฐบาล หรือค่าใช้จ่ายที่แท้จริงของโครงการนั้น ๆ นอกจากนี้ ยังมีอุปสรรคอีกอย่างหนึ่ง คือ เสียงโวยวายของสาธารณชน แม้ว่าหลายคนจะยอมรับว่าเทคโนโลยีทำให้ชีวิตดีขึ้น และบ่อยครั้งจนมากพอที่จะสามารถเก็บรักษามันไว้ [1] ในด้านการแพทย์ หรือความปลอดภัย แต่สังคมยังคงมีความกังวลเกี่ยวกับประเด็นด้านจริยธรรมของเทคโนโลยี นวัตกรรมหลายอย่างถูกมองว่าเป็นเครื่องมือในการเฝ้าระวัง และควบคุม ดังนั้นบางคนจึงไม่ต้องการใช้เทคโนโลยี

ผู้คนเกือบ 40% ยอมรับว่าปัญญาประดิษฐ์ช่วยแจ้งเตือนพวกเขา จากการอ้างอิงใน [2] ฮาร์วาร์ดราชกิจจานุเบกษาระบุไว้ว่า เมื่อปัญญาประดิษฐ์เจาะลึกเข้าไปในอุตสาหกรรมต่าง ๆ และมีอิทธิพลต่อการตัดสินใจ ปัญหาด้านจริยธรรมจะทวีความรุนแรงมากขึ้นเรื่อย ๆ แนวทางปฏิบัติด้านความเป็นส่วนตัวกำลังถูกละเมิด และมีความเสี่ยงมากขึ้นจากการควบคุมที่มากเกินไป ความลำเอียง และการเลือกปฏิบัติในการตัดสินใจของปัญญาประดิษฐ์

การศึกษาเกี่ยวกับบริการเสียง [3] ใน Amazon, Apple, Google, IBM และ Microsoft พบว่าปัญญาประดิษฐ์มีประสิทธิภาพในการจดจำเสียงของคนอเมริกันผิวสีน้อยกว่าเชื้อชาติอื่น ๆ และระบบวิเคราะห์วิดีโอสำหรับภาพถ่ายจาก Microsoft และ IBM สามารถจดจำผู้ชายผิวขาว [4] ได้ดีกว่าผู้หญิง อัตราข้อผิดพลาดสำหรับภาพถ่ายที่มีผู้หญิงอยู่ในภาพถ่ายมีสูงถึง 35% ทั้งสองตัวอย่างนี้สามารถรับรู้ได้ว่าเป็นความลำเอียง และการเลือกปฏิบัติโดยโครงข่ายประสาทเทียมแม้ว่าจะไม่ได้ตั้งใจก็ตาม

เมื่อมีเรื่องความเท่าเทียมครอบงำโลก สถานการณ์ดังกล่าวได้ทำลายชื่อเสียงของธุรกิจ และบางครั้งก็นำไปสู่เรื่องอื้อฉาว ในปี พ.ศ. 2558 Google ต้องขอโทษต่อสาธารณชนหลังจากโครงข่ายประสาทเทียมด้านการจดจำภาพถ่ายระบุว่าคนผิวดำ [5] เป็นลิง “กอริลลา”

แล้ว ปัญญาประดิษฐ์เชิงจริยธรรมคืออะไรกันแน่

นักวิเคราะห์จากบริษัทตรวจสอบบัญชีดีลอยต์ (Deloitte) เชื่อว่า [6] ปัญญาประดิษฐ์จะต้องมีความโปร่งใส และมีความรับผิดชอบ ผู้เชี่ยวชาญจาก PewResearch มุ่งเน้นไปที่ [7] หลักความรับผิดชอบ และความเป็นธรรม
นั่นหมายความว่า หากเรากำลังพูดถึง ระบบจดจำใบหน้า ระบบควรจะระบุผู้คนจากเชื้อชาติ และเพศที่แตกต่างกันโดยมีความแม่นยำที่เท่ากัน

บริษัทที่พัฒนาเทคโนโลยีต่าง ๆ บนพื้นฐานของปัญญาประดิษฐ์ควรบันทึกความสามารถ และข้อจำกัดในเทคโนโลยีของตนเอง นอกจากนี้ นวัตกรรมต่าง ๆ จะต้องทำงานภายใต้การควบคุมของมนุษย์เท่านั้น เครื่องจักรจะต้องไม่ตัดสินใจด้วยตัวเอง เครื่องจักรต้องไม่ละเมิดกฎข้อที่หนึ่งของหุ่นยนต์ [8] ของอาซิมอฟ: “หุ่นยนต์ไม่อาจทำร้ายมนุษย์ หรือปล่อยให้มนุษย์เข้ามาทำอันตรายได้”

นอกจากนี้ ยังมีหลักเกณฑ์อื่น ๆ สำหรับปัญญาประดิษฐ์ที่มีจริยธรรม ตัวอย่างเช่น การตัดสินใจทั้งหมดควรเป็นที่เข้าใจของมนุษย์ และถูกจำกัดให้อยู่ในขอบเขตของงาน ในภาครัฐ จะมีการยึดถือตามสิ่งที่เขียนอยู่ในกฎหมายเป็นสำคัญ ในทางธุรกิจ การจัดลำดับความสำคัญอยู่ที่การบรรลุประสิทธิภาพสูงสุดจากทุกกระบวนการ

แล้วใครจะเป็นผู้ลงมือทำ

จากการสำรวจโดยบริษัทให้คำปรึกษาแคปเจมินิ (Capgemini) ระบุว่า ผู้ตอบแบบสอบถามมากกว่า 70% เชื่อว่า [9] มันควรขึ้นอยู่กับรัฐในการพัฒนาจริยธรรมของ ปัญญาประดิษฐ์ เช่น: หน่วยงานหลัก และอุตสาหกรรมอิสระ เช่น IEEE สถาบันวิศวกรไฟฟ้า และอิเล็กทรอนิกส์ พวกเขาควรทำงานร่วมกันเพื่อสร้างแนวทางปฏิบัติที่จะแนะนำการใช้ปัญญาประดิษฐ์ได้อย่างเหมาะสม ในยุโรป ทางการได้นำประเด็นนี้มาพิจารณาแล้ว: สหภาพยุโรปได้พัฒนาโปรแกรม [10] เกี่ยวกับแง่มุมทางจริยธรรมของปัญญาประดิษฐ์ และวิทยาการหุ่นยนต์

ตามหลักการแล้วทุกฝ่ายที่สัมผัสกับเทคโนโลยีดังกล่าวควรทำงานร่วมกัน รัฐบาล นักพัฒนา ผู้บริโภคทางธุรกิจ บางหน่วยงานได้ใช้แนวทางปฏิบัติเหล่านี้ไปแล้ว เช่น Microsoft มีแผนกพิเศษสำหรับความยุติธรรม ความรับผิดชอบ ความโปร่งใส และจริยธรรมในเรื่องปัญญาประดิษฐ์ [11] พนักงานรวบรวมรายการตรวจสอบข้อกำหนดสำหรับการพัฒนาผลิตภัณฑ์ และบริการโดยใช้ปัญญาประดิษฐ์ ด้วยเหตุนี้ ลูกค้าจึงสามารถเห็นได้ว่าบริษัทกำลังพยายามทำให้โครงข่ายประสาทเทียมทำงานได้โดยไม่มีอคติต่าง ๆ

ในการควบคุมจริยธรรมของปัญญาประดิษฐ์นั้นอาจจำเป็นต้องมีผู้ตรวจการด้านเทคโนโลยี เช่น: บุคคลอิสระ (หนึ่งคน หรือเป็นกลุ่ม) ทำการติดตามการพัฒนา และมอบคำแนะนำ

เกือบ 70% ของผู้ตอบแบบสำรวจจากการสำรวจของ Pew Research Center ไม่ว่าจะเป็นนักพัฒนา นักธุรกิจ นักการเมือง สงสัย [12] ว่าแนวคิดเรื่องปัญญาประดิษฐ์ที่มีจริยธรรมจะกลายเป็นธรรมชาติสำหรับทุกคนภายใน 10 ปีข้างหน้า อย่างไรก็ตาม โลกกำลังค่อย ๆ เคลื่อนย้ายไปในทิศทางนั้น และยิ่งผู้เข้าร่วมแต่ละคนในโลกเทคโนโลยีตัดสินใจที่จะมีส่วนร่วมในการพัฒนาปัญญาประดิษฐ์ให้มีจริยธรรมได้รวดเร็วขึ้นซึ่งจะทำให้มีปัญหาด้านการยอมรับนวัตกรรมโดยทั่วไปน้อยลง

ข้อมูล:

  1. https://www.forbes.com/sites/forbestechcouncil/2021/05/13/saving-millions-of-lives-per-year-with-intelligent-automation/?sh=344057fe1349
  2. https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/
  3. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7149386/
  4. https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
  5. https://www.bbc.com/news/technology-33347866
  6. https://www2.deloitte.com/nl/nl/pages/innovatie/artikelen/bringing-transparency-and-ethics-into-ai.html
  7. https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/
  8. https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
  9. https://www.capgemini.com/wp-content/uploads/2019/07/CRI-AI-in-Ethics_web-1.pdf
  10. https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_EN.pdf
  11. https://www.microsoft.com/en-us/research/theme/fate/
  12. https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/