ai ethics portugal

Ai ethics Portugal – Ética em Inteligência Artificial

A inteligência artificial (IA) tem desempenhado um papel fundamental nas operações das empresas e organizações, tornando-se numa parte integrante. Com o avanço da Inteligência Artificial, surge a necessidade da ética em IA, um sistema de princípios morais e técnicas destinadas a orientar o desenvolvimento e uso responsável da tecnologia de IA. Exploraremos o que é a ética em IA, a sua importância e os desafios éticos que as empresas enfrentam na utilização dessa tecnologia. Desta evolução nasce a plataforma Ai ethics Portugal e os selos de reconhecimento de boas praticas éticas IA.

Plataforma Ai Ethics Portugal e o Processo de Reconhecimento

O Ai ethics Portugal e o seu site oficial ai ethics.pt é uma iniciativa importante para promover a ética na Inteligencia Artificial em Portugal. A plataforma reúne organizações de diferentes setores da sociedade para compartilhar informações e conhecimento. Trabalhando em conjunto para garantir que os sistemas de IA sejam desenvolvidos e utilizados de forma ética e responsável.

Os princípios éticos da IA adotados pelo projeto ai ethics Portugal são baseados na Recomendação sobre Ética na Inteligência Artificial da UNESCO, que foi publicada em 2021. A recomendação enfatiza a importância de que os sistemas de IA sejam desenvolvidos e utilizados de forma ética e responsável, com o objetivo de promover os direitos humanos e a sustentabilidade ambiental.

O projeto possui um programa de reconhecimento, chamado Selo ai ethics, que certifica organizações que cumprem com os princípios éticos da IA. O selo é concedido em diferentes categorias, dependendo da área de atuação da organização.

O que é a Ética Inteligencia Artificial?

A ética em Inteligencia Artificial refere-se a um conjunto de princípios morais e diretrizes destinados a informar o desenvolvimento e o uso responsável da tecnologia de inteligência artificial. À medida que a IA se tornou uma parte fundamental de produtos e serviços, as organizações começaram a desenvolver códigos de ética em IA. Esses códigos são declarações de política que definem formalmente o papel da inteligência artificial em relação ao desenvolvimento e bem-estar da raça humana. O objetivo principal da ética em IA é fornecer orientações aos stakeholders quando confrontados com decisões éticas relacionadas ao uso da inteligência artificial.

Um exemplo notável de código de ética em IA em Portugal é a plataforma Ai ethics Portugal que visa o apoio as organizações que produzem ou utilizam sistemas de IA. Sensibilizando a sociedade e organizações para a importância da Ética na IA. Uma iniciativa da APEE e da UNA Portugal orientado pela Recomendação da Unesco sobre Ética na Inteligência Artificial.

A Importância da Ética em IA

A IA é uma tecnologia criada por seres humanos para replicar, aprimorar ou substituir a inteligência humana. Essas ferramentas geralmente dependem de grandes volumes de dados de vários tipos para desenvolver insights. Projetos mal projetados, baseados em dados defeituosos, inadequados ou tendenciosos podem ter consequências não intencionais e potencialmente prejudiciais. Além disso, o rápido avanço em sistemas algorítmicos significa que, em alguns casos, não é claro como a IA chegou a suas conclusões, tornando-nos essencialmente dependentes de sistemas que não podemos explicar para tomar decisões que afetam a sociedade.

Um quadro de ética em IA é essencial, pois destaca os riscos e benefícios das ferramentas de IA e estabelece diretrizes para seu uso responsável. Desenvolver um sistema de princípios morais e técnicas para o uso responsável da IA requer que a indústria e as partes interessadas examinem questões sociais importantes e, em última análise, a questão do que nos torna humanos.

Desafios Éticos da IA

As empresas enfrentam vários desafios éticos em sua utilização de tecnologias de IA. Alguns desses desafios incluem:

Explicabilidade

Quando os sistemas de IA apresentam problemas, as equipes precisam ser capazes de rastrear uma cadeia complexa de sistemas algorítmicos e processos de dados para descobrir por que ocorreu o problema. As organizações que usam IA devem ser capazes de explicar a origem dos dados, os resultados obtidos, o que seus algoritmos fazem e por que fazem isso.

Responsabilidade

A sociedade ainda está definindo a responsabilidade quando as decisões tomadas por sistemas de IA têm consequências catastróficas, como a perda de capital, saúde ou vida. A abordagem para tratar da responsabilidade pelas consequências das decisões baseadas em IA deve envolver várias partes interessadas, incluindo advogados, reguladores, desenvolvedores de IA, órgãos de ética e cidadãos. Encontrar o equilíbrio adequado em casos em que um sistema de IA pode ser mais seguro do que a atividade humana que está duplicando, mas ainda causa problemas, é um desafio complexo.

Justiça

Em conjuntos de dados que envolvem informações pessoalmente identificáveis, é extremamente importante garantir que não haja viés em termos de raça, genero ou etnia. A injustiça nos dados pode levar a resultados discriminatórios sendo vital garantir a recolha, gestão e uso de dados sejam feitos de forma responsável e sem viés.

Uso Indevido

Os algoritmos de IA podem ser usados para fins diferentes daqueles para os quais foram criados. É fundamental analisar esses cenários na fase de design para minimizar os riscos e introduzir medidas de segurança para reduzir os efeitos adversos.

Lançamento Público de IA Generativa

A rápida adoção de aplicativos de IA generativa, como ChatGPT e Dall-E, amplifica as questões éticas relacionadas à IA, introduzindo riscos relacionados a desinformação, plágio, violação de direitos autorais e conteúdo prejudicial.

Ai Ethics Portugal – Benefícios da IA Ética

O rápido crescimento da adoção da IA nas empresas coincidiu com duas tendências importantes: o aumento da centralização no cliente e o aumento do ativismo social. Empresas que fornecem produtos e serviços personalizados e também respeitam os valores dos clientes e contribuem positivamente para a sociedade recebem recompensas. A IA desempenha um papel fundamental na forma como os consumidores interagem e percebem uma marca. Portanto, o uso responsável da IA é essencial para garantir um impacto positivo a criação do projeto Ai Ethics Portugal reflete esta realidade

Além dos consumidores, os funcionários também desejam sentir-se bem em relação às empresas para as quais trabalham. A IA responsável pode ajudar a reter talentos e garantir a execução tranquila das operações de uma empresa.

O que é um Código de Ética em IA?

Uma abordagem proativa para garantir a ética em IA envolve três áreas-chave: política, educação e tecnologia. A política inclui o desenvolvimento do framework apropriado para impulsionar a padronização e estabelecer regulamentos. A educação é essencial para garantir que executivos, cientistas de dados, funcionários de linha de frente e consumidores compreendam as políticas, considerações-chave e possíveis impactos negativos da IA não ética e de dados falsos. Por fim, a tecnologia envolve a arquitetura de sistemas de IA para detectar automaticamente dados falsos e comportamento antiético.

Empresas e organizações podem se beneficiar ao incorporar políticas éticas nas suas condutas, abordando questões legais que surgem quando algo dá errado. Além disso, é importante que os funcionários sigam as regras, embora isso nem sempre seja realista quando questões financeiras ou de prestígio estão em jogo.

Exemplos de Códigos de Ética Inteligência Artificial

Um código de ética em IA pode esclarecer os princípios e fornecer a motivação que impulsiona o comportamento apropriado. Por exemplo, a empresa Mastercard está trabalhando com os seguintes princípios para desenvolver seu código de ética em IA:

Propósito

Inteligencia Artificial ética deve ser inclusivo, explicável, ter um propósito positivo e usar dados de forma responsável.

Imparcial

Um sistema de IA inclusivo é imparcial e funciona igualmente bem em todas as camadas da sociedade. Isso requer um conhecimento completo de cada fonte de dados usada para treinar os modelos de IA, a fim de garantir que não haja preconceito inerente no conjunto de dados. Também requer uma auditoria cuidadosa do modelo treinado para filtrar quaisquer atributos problemáticos aprendidos no processo.

Explicável

Um sistema de IA explicável apoia as empresas para garantir o uso ético da IA. É difícil ter confiança nas ações de um sistema que não pode ser explicado. Obter confiança pode envolver um compromisso em que um pequeno compromisso no desempenho do modelo seja feito para selecionar um algoritmo que possa ser explicado.

Protecção

Com um propósito positivo visa, por exemplo, reduzir fraudes, eliminar desperdícios, recompensar pessoas, retardar as mudanças climáticas, entre outros. Qualquer tecnologia pode ser usada para prejudicar, mas é imperativo que pensemos em maneiras de proteger a IA de ser explorada para fins ruins.

Privacidade

O uso de dados de forma responsável respeita os direitos de privacidade dos dados. Os dados são essenciais para um sistema de IA, e muitas vezes mais dados resultam em modelos melhores. No entanto, é fundamental que na recolha de mais dados, os direitos de privacidade e transparência das pessoas não sejam afetados. A recolha, gestão e uso responsável de dados são essenciais para criar um sistema de IA confiável. Em um mundo ideal, os dados só devem ser coletados quando necessário, não de forma contínua, e a granularidade dos dados deve ser a mais estreita possível.

O Futuro da IA Ética – Ai Ethics Portugal

Alguns argumentam que um código de ética em IA pode se tornar rapidamente obsoleto e que é necessária uma abordagem mais proativa para se adaptar a um campo em constante evolução. A IA ética precisa falar sobre definir a justiça e as normas sociais. A ênfase deve ser em um princípio orientador em vez de algo a ser evitado. O foco deve ser na promoção de uma IA responsável que proteja os interesses humanos e não seja tendenciosa em relação a certos grupos.

No momento, precisamos de seres humanos para desenvolver regras e tecnologias que promovam a IA responsável e ética como está presente na plataforma Ai Ethics Portugal. Isso inclui programar produtos e ofertas que protejam os interesses humanos e não sejam tendenciosos contra grupos específicos, como minorias, pessoas com necessidades especiais e pessoas mais pobres. A sociedade também precisa planejar o uso antiético de IA por parte de atores mal-intencionados. Embora seja possível que IA mais conscientes possam surgir nas próximas décadas, a rápida evolução da IA exige a implementação de valores e principios para evitar cenários adversos.

Em resumo, a ética em IA é uma parte crucial do desenvolvimento e uso responsável dessa tecnologia. Oferecer diretrizes que abordam questões éticas complexas, como explicabilidade, responsabilidade, justiça e uso indevido, garantir que a IA seja usada para o bem da humanidade e da sociedade como um todo. À medida que a IA continua a evoluir, é fundamental que as organizações em Portugal e a sociedade em geral considerem seriamente essas questões éticas e incorporem princípios éticos em todas as etapas do desenvolvimento no uso da IA e das diretrizes da Ai Ethics Portugal.

Scroll to Top