La inteligencia artificial ha comenzado gradualmente a resolver tareas en varias esferas, ya sea trabajando junto a un especialista vivo o reemplazándolos por completo. Cuando se trata de productividad y precisión, los algoritmos a menudo superan a los humanos. A pesar de ello, no poseen ninguna cualidad moral, en particular ética. Esta es una de las razones por las que la adopción de tales tecnologías ha sido lenta. Dado que el mundo se está moviendo hacia el uso generalizado de varias máquinas “inteligentes”, tendremos que enseñarles ética.
Cómo “nutrir” una máquina
Las innovaciones en inteligencia artificial se han visto frenada principalmente por cosas como la estricta supervisión del gobierno o el costo total de tales proyectos. Hay otra barrera más: la protesta pública. Aunque muchas personas están de acuerdo en que la tecnología mejora la vida y, a menudo, la preserva [1] a través de la medicina o la seguridad, la sociedad todavía está preocupada por las cuestiones éticas. Muchas innovaciones se perciben como herramientas de vigilancia y control y, por lo tanto, algunas personas no las quieren cerca.
Casi el 40% de las personas admiten que la inteligencia artificial les causa alarma. Según [2] The Harvard Gazette, a medida que la IA penetre más profundamente en diferentes industrias e influya en la toma de decisiones, los problemas éticos se volverán cada vez más agudos. Se están violando los principios de privacidad y existe un riesgo creciente de control excesivo, sesgo y discriminación en las decisiones de inteligencia artificial.
Un estudio de [3] servicios de voz en Amazon, Apple, Google, IBM y Microsoft encontró que la inteligencia artificial era menos eficiente en el reconocimiento de voz de los estadounidenses afroamericanos que de otras razas. Y los sistemas de análisis de video para fotos de Microsoft e IBM reconocen mejor [4] a los hombres blancos que a las mujeres. La tasa de error de las fotos que contienen mujeres alcanzó el 35%. Ambos ejemplos pueden percibirse como sesgo y discriminación por parte de las redes neuronales, incluso si no es intencional.
Cuando la agenda de la igualdad domina el mundo, estas situaciones se convierten en una mancha oscura en la reputación de la empresa y, en ocasiones, conducen a escándalos. En 2015, Google tuvo que disculparse públicamente después de que su red neuronal de reconocimiento de imágenes etiquetara a una [5] persona de raza negra como “gorila”.
Entonces, ¿qué es exactamente la inteligencia artificial ética?
Los analistas de Deloitte creen [6] que la inteligencia artificial debe ser transparente y responsable. Los expertos de PewResearch enfatizan [7] los principios de responsabilidad y equidad.
Eso significa que, si hablamos de sistemas de reconocimiento facial, deberían identificar a personas de diferentes razas y géneros con la misma precisión.
Las empresas que desarrollen cualquier tecnología basada en inteligencia artificial deben documentar las capacidades y limitaciones de su tecnología. Además, cualquier innovación solo puede realizarse bajo el control humano, la máquina no debe tomar decisiones por sí misma. No debe violar la primera ley de robótica de Asimov [8]: “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño”.
Hay otros criterios para la inteligencia artificial ética. Por ejemplo, todas sus decisiones deben ser comprensibles para los humanos y estar limitadas dentro de su ámbito de trabajo. En el sector gubernamental, lo más importante es seguir al pie de la letra la ley. En los negocios, la prioridad radica en lograr la máxima eficiencia en todos los procesos.
¿Quién va a hacer esto?
En una encuesta de Capgemini, más del 70% de los encuestados cree [9] que debería corresponder al estado desarrollar la ética de la IA: las principales autoridades e industrias independientes, como el IEEE, el Instituto de Ingenieros Eléctricos y Electrónicos. Deben trabajar juntos para establecer principios que guiarán el uso adecuado de la inteligencia artificial. En Europa, las autoridades ya han llamado la atención sobre este tema: la UE ha desarrollado un [10] programa sobre los aspectos éticos de la IA y la robótica.
Idealmente, todas las partes que entren en contacto con tales tecnologías deberían trabajar juntas. Gobiernos, desarrolladores, consumidores empresariales. Algunos ya han aplicado estas prácticas: por ejemplo, Microsoft tiene un departamento especial de justicia, responsabilidad, transparencia y ética en asuntos de IA [11]. Los empleados compilan una lista de verificación de requisitos para el desarrollo de productos y servicios basados en inteligencia artificial. Como tal, los clientes pueden ver que la empresa se esfuerza por mantener sus redes neuronales funcionando sin ningún tipo de sesgo.
Para controlar la ética de la inteligencia artificial, es posible que se necesite un ombudsman de tecnología: una parte independiente (una persona o un grupo) que también monitoreará los desarrollos y hará sugerencias.
Casi el 70% de los encuestados del Pew Research Center (desarrolladores, empresarios, políticos) dudan [12] de que la idea de una inteligencia artificial ética se vuelva natural para todos en los próximos 10 años. Sin embargo, el mundo se está moviendo gradualmente en esa dirección. Y cuanto más rápido cada participante en el mundo tecnológico decide contribuir al desarrollo de la inteligencia artificial ética, la aceptación de la innovación en general se vuelve cada vez menos un problema.
Fuentes:
- https://www.forbes.com/sites/forbestechcouncil/2021/05/13/saving-millions-of-lives-per-year-with-intelligent-automation/?sh=344057fe1349
- https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/
- https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7149386/
- https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
- https://www.bbc.com/news/technology-33347866
- https://www2.deloitte.com/nl/nl/pages/innovatie/artikelen/bringing-transparency-and-ethics-into-ai.html
- https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/
- https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
- https://www.capgemini.com/wp-content/uploads/2019/07/CRI-AI-in-Ethics_web-1.pdf
- https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_EN.pdf
- https://www.microsoft.com/en-us/research/theme/fate/
- https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/