A inteligência artificial começou gradualmente a resolver tarefas em várias esferas, trabalhando ao lado de um especialista vivo ou substituindo-as completamente. Quando se trata de produtividade e precisão, os algoritmos geralmente superam os humanos. Apesar disso, eles não possuem qualidades morais, ética em particular. Esta é uma das razões pelas quais a adoção de tais tecnologias tem sido lenta. Como o mundo está caminhando para o uso generalizado de várias máquinas “inteligentes”, devemos ensiná-las ética.
Como “educar” uma máquina
As inovações na inteligência artificial têm sido travadas principalmente por coisas como a supervisão estrita do governo ou o custo absoluto de tais projetos. Há ainda outra barreira: o protesto público. Embora muitas pessoas concordem que a tecnologia torna a vida melhor, e muitas vezes a preserva suficientemente [1] através da medicina ou segurança, a sociedade ainda está preocupada com questões éticas. Muitas inovações são percebidas como ferramentas de vigilância e controle e, portanto, algumas pessoas não as querem por perto.
Quase 40% das pessoas admitem que a inteligência artificial as alarmam. De acordo com [2] The Harvard Gazette, à medida que a IA penetra mais profundamente em diferentes indústrias e influencia a tomada de decisões, as questões éticas se tornarão cada vez mais agudas. Os princípios de privacidade estão sendo violados e há um risco crescente de controle excessivo, preconceito e discriminação nas decisões de inteligência artificial.
Um estudo sobre [3] serviços de voz na Amazon, Apple, Google, IBM e Microsoft descobriu que a inteligência artificial era menos eficiente no reconhecimento de voz de negros americanos do que de outras raças. E os sistemas de análise de vídeo para fotos da Microsoft e da IBM reconhecem melhor [4] os homens brancos do que as mulheres. A taxa de erro para fotos contendo mulheres atingiu 35%. Ambos os exemplos podem ser percebidos como viés e discriminação pelas redes neurais, mesmo que não seja intencional.
Quando a agenda da igualdade domina o mundo, tais situações tornam-se um ponto negro na reputação do negócio e às vezes levam a escândalos. Em 2015, o Google teve que se desculpar publicamente depois que sua rede de neurônios de reconhecimento de imagem rotulou uma [5] pessoa negra como um “gorila”.
Então o que exatamente é inteligência artificial ética?
Os analistas da Deloitte acreditam [6] que a inteligência artificial deve ser transparente e responsável. Especialistas da Pew Research enfatizam [7] os princípios de responsabilidade e justiça.
Isso significa que, se estamos falando de sistemas de reconhecimento facial, eles devem identificar pessoas de diferentes raças e gêneros com a mesma precisão.
As empresas que desenvolvem qualquer tecnologia baseada em inteligência artificial devem documentar as capacidades e limitações de sua tecnologia. Além disso, qualquer inovação só pode ser realizada sob o controle humano, a máquina não deve tomar decisões por conta própria. Não deve violar a primeira lei [8] de robótica de Asimov: “Um robô não pode ferir um ser humano ou, através da inação, permitir que um ser humano sofra danos.”
Existem outros critérios para a inteligência artificial ética. Por exemplo, todas as suas decisões devem ser compreensíveis para os seres humanos e limitadas ao seu escopo de trabalho. No setor governamental, seguir a letra da lei é o principal. Nos negócios, a prioridade está em alcançar a mais alta eficiência de todos os processos.
Quem é que vai fazer isto?
Em uma pesquisa da Capgemini, mais de 70% dos entrevistados acreditam [9] que deve caber ao estado desenvolver a ética em IA: as principais autoridades e indústrias independentes, como o IEEE, o Instituto de Engenheiros Elétricos e Eletrônicos. Eles devem trabalhar juntos para estabelecer princípios que orientarão o uso adequado da inteligência artificial. Na Europa, as autoridades já chamaram a atenção para esta questão: a UE desenvolveu um [10] programa sobre os aspectos éticos da IA e robótica.
Idealmente, todas as partes que entram em contato com essas tecnologias devem trabalhar em conjunto. Governos, desenvolvedores, consumidores empresariais. Alguns já aplicaram essas práticas: por exemplo, a Microsoft tem um departamento especial para justiça, responsabilidade, transparência e ética em questões de IA [11]. Os funcionários compilam uma lista de verificação de requisitos para o desenvolvimento de produtos e serviços com base em inteligência artificial. Como tal, os clientes são capazes de ver que a empresa está se esforçando para manter suas redes neurais funcionando sem qualquer tipo de preconceito.
Para controlar a ética da inteligência artificial, pode ser necessário um provedor de tecnologia: uma parte independente (uma pessoa ou um grupo) que também acompanhará os desenvolvimentos e fará sugestões.
Quase 70% dos entrevistados de uma pesquisa do Pew Research Center — desenvolvedores, empresários, políticos — duvidam [12] que a ideia de inteligência artificial ética se torne natural para todos nos próximos 10 anos. No entanto, de facto, o mundo está se movendo gradualmente nessa direção. E quanto mais rápido cada participante no mundo tecnológico decide contribuir para o desenvolvimento da inteligência artificial ética, a aceitação da inovação em geral torna-se cada vez menos uma questão.
Fontes:
- https://www.forbes.com/sites/forbestechcouncil/2021/05/13/saving-millions-of-lives-per-year-with-intelligent-automation/?sh=344057fe1349
- https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/
- https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7149386/
- https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html
- https://www.bbc.com/news/technology-33347866
- https://www2.deloitte.com/nl/nl/pages/innovatie/artikelen/bringing-transparency-and-ethics-into-ai.html
- https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/
- https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
- https://www.capgemini.com/wp-content/uploads/2019/07/CRI-AI-in-Ethics_web-1.pdf
- https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654179/EPRS_STU(2020)654179_EN.pdf
- https://www.microsoft.com/en-us/research/theme/fate/
- https://www.pewresearch.org/internet/2021/06/16/experts-doubt-ethical-ai-design-will-be-broadly-adopted-as-the-norm-within-the-next-decade/