Com os avanços rápidos em áreas como a inteligência artificial (IA), os modelos de linguagem (Large Language Models – LLM) e as redes neuronais, as aplicações começam a surgir por todos o lado. Desde a automação nas habitações, nos carros, na sua televisão, a IA tem já uma utilização generalizada e potencial para aumentar muito mais o grau de penetração nas nossas vidas.
Os sistemas de IA podem contribuir, em particular, para facilitar a realização dos Objetivos de Desenvolvimento Sustentável da ONU, designadamente na promoção da igualdade de género e no combate às alterações climáticas, na racionalização da utilização dos recursos naturais, na melhoria da saúde, da mobilidade e dos processos de produção, bem como para apoiar a monitorização dos progressos alcançados com base em indicadores de sustentabilidade e coesão social.
Preocupada com a ubiquidade da IA e com possíveis consequências do mau uso desta ferramenta, não muito nova, mas que agora ganha um impulso que parece imparável, nas comunicações de 25 de abril e 7 de dezembro de 2018, a Comissão Europeia apresentou a sua visão para a inteligência artificial, que apoia uma «IA ética, segura e inovadora desenvolvida na Europa».
A visão da Comissão está assente em três pilares: aumentar os investimentos públicos e privados na IA para reforçar a sua adoção, preparar as mudanças socioeconómicas e garantir um quadro ético e jurídico apropriado para reforçar os valores europeus. Para apoiar a concretização desta visão, a Comissão criou um grupo independente “Grupo de peritos de alto nível sobre a inteligência artificial”, com 52 membros de todos os países da EU. Este grupo produziu um documento intitulado “Orientações éticas para uma IA de confiança” publicado pela primeira vez em abril de 2019 e ainda muito atual.
Segundo este relatório, uma IA de confiança tem três componentes, que devem ser observadas ao longo de todo o ciclo de vida do sistema: deve ser legal, cumprindo toda a legislação e regulamentação aplicáveis; deve ser ética, garantindo a observância de princípios e valores éticos; e deve ser sólida, tanto do ponto de vista técnico como do ponto de vista social.
Cada uma destas componentes é necessária, mas não suficiente, para alcançar uma IA de confiança. Idealmente, as três componentes funcionariam em harmonia, sobrepondo-se na sua ação. Se, na prática, surgirem conflitos entre elas, a sociedade deve procurar harmonizá-las.
Identificam-se igualmente os princípios éticos e respetivos valores que têm de ser respeitados durante o desenvolvimento, a implantação e a utilização dos sistemas de IA, tais como: o respeito pela autonomia humana, prevenção de danos, equidade e explicabilidade. Recomenda ainda prestar especial atenção a situações que envolvam grupos mais vulneráveis, tais como crianças, pessoas com deficiência e outros grupos historicamente desfavorecidos ou em risco de exclusão, e a situações caracterizadas por assimetrias de poder ou de informação, como, por exemplo, entre empregadores e trabalhadores ou entre empresas e consumidores.
Deve-se ainda reconhecer e ter presente que, embora tragam importantes benefícios para os indivíduos e a sociedade, os sistemas de IA apresentam também alguns riscos e são suscetíveis de ter um impacto negativo, incluindo impactos que podem ser difíceis de prever, identificar ou medir (p. ex., na democracia, no Estado de direito e na justiça distributiva, ou na própria mente humana). Pelo que é recomendado adotar medidas adequadas para atenuar estes riscos quando necessário e proporcionalmente à dimensão do risco.
No referido relatório são ainda enumerados os requisitos para uma IA de confiança: ação e supervisão humanas; solidez técnica e segurança; privacidade e governação dos dados; transparência; diversidade, não discriminação e equidade; bem-estar ambiental e social e, finalmente, responsabilização.
É igualmente importante promover a investigação e a inovação para ajudar a avaliar os sistemas de IA e a melhorar o cumprimento dos requisitos; divulgar os resultados e as questões em aberto junto do público em geral e formar sistematicamente uma nova geração de peritos em ética associada à IA.
Para minimizar consequências negativas é importante comunicar, de forma clara e proativa, informações às partes interessadas sobre as capacidades e as limitações dos sistemas de IA, permitindo-lhes criar expectativas realistas, e explicar a forma como os requisitos são aplicados. Em suma, ser transparente sobre o facto de estarem a lidar com um sistema de IA.
Para que seja possível responsabilizar os intervenientes é fundamental facilitar a rastreabilidade e a auditabilidade dos sistemas de IA, sobretudo em contextos ou situações críticas. Para o mesmo objetivo é essencial envolver as partes interessadas e promover a formação e a educação para que todos tenham conhecimento e recebam formação em matéria de IA de confiança.
Pretende-se garantir que se pode confiar nos ambientes sociotécnicos em que estão incorporados e que os produtores dos sistemas de IA obtêm uma vantagem competitiva ao incorporarem uma IA de confiança nos seus produtos e serviços. Para que tal aconteça, há que procurar maximizar os benefícios dos sistemas de IA, prevenindo e minimizando simultaneamente os seus riscos.
Na introdução do referido relatório escreve-se « É através de uma IA de confiança que nós, cidadãos europeus, procuraremos colher os benefícios dessa tecnologia de forma consentânea com os nossos valores fundamentais de respeito dos direitos humanos, da democracia e do Estado de direito… A nossa estratégia para ajudar a Europa a materializar esses benefícios consiste em utilizar a ética como um pilar fundamental para garantir e desenvolver uma IA de confiança ».
São certamente objetivos significativos que cumpre a todos: comunidade científica, legisladores\as e toda a sociedade em geral. O ambiente concorrencial pode levar a situações menos éticas, pelo que é fundamental que exista uma abordagem assente na confiança para permitir uma «competitividade responsável», estabelecendo a base para que todos os afetados pelos sistemas de IA possam confiar que a conceção, o desenvolvimento e a utilização desses sistemas são legais, éticos e sólidos.
Um dos principais obstáculos identificados é o facto de se reconhecer que nem a utilização dos sistemas de IA nem o seu impacto conhecem fronteiras nacionais. Por conseguinte, são necessárias soluções a nível mundial, pelos que os autores incentivam todas as entidades nacionais ou internacionais a trabalhar em prol da criação de um quadro mundial para uma IA de confiança, estabelecendo um consenso internacional.
Todos reconhecemos a necessidade de reformular a ONU, talvez a criação de um fórum mundial para discussão de ética em aplicações de IA, no âmbito da ONU, seja um avanço na direção certa. Fica a sugestão.
Armando B. Mendes