ai ethics

Trí tuệ nhân tạo đã dần bắt đầu giải quyết các nhiệm vụ trong nhiều lĩnh vực khác nhau, làm việc cùng với một chuyên gia là con người hoặc thay thế chúng ta hoàn toàn. Khi nói đến năng suất và độ chính xác, các thuật toán thường vượt trội hơn con người. Mặc dù vậy, chúng không có bất kỳ đặc tính cảm xúc nào, đặc biệt là đạo đức. Đây là một trong những lý do tại sao lại chậm áp dụng các công nghệ như vậy. Vì thế giới đang hướng tới việc sử dụng rộng rãi các loại máy móc “thông minh” khác nhau, chúng ta sẽ cần dạy chúng về đạo đức.

Cách “nuôi dạy” máy móc

Những đổi mới trong trí tuệ nhân tạo đã bị kìm hãm chủ yếu bởi những thứ như sự giám sát chặt chẽ của chính phủ hoặc chi phí tuyệt đối của các dự án như vậy. Vẫn còn một rào cản khác: sự phản đối của công chúng. Mặc dù nhiều người đồng ý rằng công nghệ làm cho cuộc sống tốt đẹp hơn và thường bảo tồn nó [1] thông qua y học hoặc sự an toàn, nhưng xã hội vẫn quan tâm đến các vấn đề đạo đức. Nhiều đổi mới được coi là công cụ giám sát và kiểm soát, do đó một số người không muốn chúng xuất hiện.

Gần 40% số người thừa nhận rằng trí tuệ nhân tạo khiến họ cảm thấy lo lắng. Theo [2] The Harvard Gazette, khi AI thâm nhập sâu hơn vào các ngành công nghiệp khác nhau và ảnh hưởng đến quá trình ra quyết định, các vấn đề về đạo đức sẽ ngày càng trở nên gay gắt hơn. Các nguyên tắc về quyền riêng tư đang bị vi phạm và ngày càng có nguy cơ kiểm soát quá mức, thiên vị và phân biệt đối xử trong các quyết định về trí tuệ nhân tạo.

Một nghiên cứu về [3] dịch vụ giọng nói ở Amazon, Apple, Google, IBM và Microsoft đã phát hiện ra rằng, trí tuệ nhân tạo kém hiệu quả hơn trong việc nhận dạng giọng nói của người Mỹ da đen so với các chủng tộc khác. Và các hệ thống phân tích video cho ảnh của Microsoft và IBM nhận diện đàn ông da trắng [4] tốt hơn phụ nữ. Tỷ lệ lỗi đối với ảnh có phụ nữ đạt mức 35%. Cả hai ví dụ này đều có thể được coi là thiên vị và phân biệt đối xử bởi các mạng lưới thần kinh, ngay cả khi nó không cố ý.

Khi đề tài thảo luận bình đẳng thống trị thế giới, những tình huống như vậy trở thành vết đen đối với danh tiếng của doanh nghiệp và đôi khi dẫn đến các vụ bê bối. Vào năm 2015, Google đã phải công khai xin lỗi sau khi mạng thần kinh nhận dạng hình ảnh của họ gắn nhãn [5] người da đen là “khỉ đột”.

Vậy chính xác trí tuệ nhân tạo có đạo đức là gì?

Các nhà phân tích từ Deloitte tin rằng [6] trí tuệ nhân tạo phải minh bạch và có trách nhiệm. Các chuyên gia từ PewResearch nhấn mạnh [7] các nguyên tắc về trách nhiệm giải trình và sự công bằng.
Điều đó có nghĩa là, nếu chúng ta đang nói về hệ thống nhận dạng khuôn mặt, chúng sẽ xác định những người thuộc các chủng tộc và giới tính khác nhau với độ chính xác như nhau.

Các công ty phát triển bất kỳ công nghệ nào dựa trên trí tuệ nhân tạo cần ghi lại các khả năng và hạn chế trong công nghệ của họ. Hơn nữa, bất kỳ sự đổi mới nào chỉ có thể được thực hiện dưới sự kiểm soát của con người, máy móc không được tự đưa ra quyết định. Nó không được vi phạm định luật đầu tiên của Asimov [8] về người máy: “Rô-bốt không được làm hại con người hoặc do không hành động mà cho phép con người gây hại”.

Có những tiêu chí khác về đạo đức trí tuệ nhân tạo. Ví dụ, tất cả các quyết định của nó phải dễ hiểu đối với con người và được giới hạn trong phạm vi công việc của nó. Trong khu vực chính phủ, việc tuân theo văn bản của pháp luật là quan trọng nhất. Trong kinh doanh, ưu tiên nằm ở việc đạt được hiệu quả cao nhất từ tất cả các quy trình.

Ai sẽ làm điều này?

Trong một cuộc khảo sát từ Capgemini, hơn 70% số người được hỏi tin rằng [9] việc phát triển đạo đức AI phải tùy thuộc vào nhà nước: các cơ quan chính quyền và các lĩnh vực độc lập, chẳng hạn như IEEE, Viện Kỹ sư Điện và Điện tử. Họ cần phải làm việc cùng nhau để thiết lập các nguyên tắc hướng dẫn việc sử dụng trí tuệ nhân tạo một cách hợp lý. Ở châu Âu, các nhà chức trách đã chú ý đến vấn đề này: EU đã phát triển [10] chương trình về các khía cạnh đạo đức của AI và người máy.

Lý tưởng nhất là tất cả các bên tiếp xúc với các công nghệ như vậy nên ngồi và làm việc cùng nhau. Chính phủ, nhà phát triển, người tiêu dùng doanh nghiệp. Một số đơn vị đã áp dụng những thực tiễn này: ví dụ: Microsoft có một bộ phận đặc biệt về công lý, trách nhiệm giải trình, tính minh bạch và đạo đức trong các vấn đề về AI [11]. Nhân viên biên soạn một danh sách kiểm tra các yêu cầu để phát triển sản phẩm và dịch vụ dựa trên trí tuệ nhân tạo. Do đó, khách hàng có thể thấy rằng công ty đang cố gắng giữ cho mạng thần kinh của mình hoạt động mà không có bất kỳ sự thiên vị nào.

Để kiểm soát đạo đức của trí tuệ nhân tạo, có thể cần đến một thanh tra viên công nghệ: một bên độc lập (một người hoặc một nhóm) cũng sẽ theo dõi sự phát triển và đưa ra những đề xuất.

Gần 70% số người được hỏi từ cuộc khảo sát của Trung tâm nghiên cứu Pew gồm những nhà phát triển, các doanh nhân và các chính trị gia, họ nghi ngờ [12] rằng ý tưởng về trí tuệ nhân tạo có đạo đức sẽ trở thành điều đương nhiên đối với mọi người trong vòng 10 năm tới. Tuy nhiên, thế giới thực sự đang dần dịch chuyển theo hướng đó. Và mỗi người tham gia trong thế giới công nghệ quyết định đóng góp vào sự phát triển của trí tuệ nhân tạo có đạo đức càng nhanh, thì việc chấp nhận đổi mới nói chung ngày càng trở thành một vấn đề.

Nguồn:

  1. https://www.forbes.com/sites/forbestechcouncil/2021/05/13/saving-millions-of-lives-per-year-with-intelligent-automation/?sh=344057fe1349
  2. https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/
  3. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7149386/
  4. https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
  5. https://www.bbc.com/news/technology-33347866
  6. https://www2.deloitte.com/nl/nl/pages/innovatie/artikelen/bringing-transparency-and-ethics-into-ai.html
  7. https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/
  8. https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
  9. https://www.capgemini.com/wp-content/uploads/2019/07/CRI-AI-in-Ethics_web-1.pdf
  10. https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_EN.pdf
  11. https://www.microsoft.com/en-us/research/theme/fate/
  12. https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/