Desafios éticos no desenvolvimento de sistemas de inteligência artificial

Introdução: A revolução da IA e seus dilemas éticos

A inteligência artificial (IA) transformou radicalmente diversos setores da sociedade, desde saúde e educação até transporte e segurança. Estamos testemunhando uma evolução tecnológica sem precedentes, onde sistemas cada vez mais autônomos e sofisticados assumem funções anteriormente exclusivas aos humanos. Em 2025, essa revolução está apenas começando, com modelos de linguagem capazes de redigir textos indistinguíveis dos escritos por humanos, veículos autônomos circulando em nossas estradas e algoritmos de diagnóstico médico superando especialistas em diversas áreas.

Entretanto, à medida que a IA se torna mais poderosa e onipresente, surgem questionamentos fundamentais sobre como essa tecnologia está sendo desenvolvida e implementada. Quem é responsável quando um sistema de IA causa danos? Como garantir que algoritmos não perpetuem ou amplifiquem preconceitos sociais existentes? Qual o limite ético para a autonomia de máquinas em decisões que afetam vidas humanas?

Segundo dados da Gartner, até o final de 2025, estima-se que mais de 75% das grandes empresas em todo o mundo utilizarão alguma forma de inteligência artificial em seus processos de negócios. Esse crescimento exponencial torna ainda mais urgente a discussão sobre os princípios éticos que devem guiar o desenvolvimento dessas tecnologias.

Este artigo explora os principais desafios éticos envolvidos no desenvolvimento de sistemas de IA, analisa as abordagens propostas para mitigá-los e discute as perspectivas futuras para a construção de um ecossistema de IA mais ético e responsável. Através de uma análise aprofundada dessas questões, buscamos contribuir para um debate essencial na era digital: como podemos aproveitar o imenso potencial da inteligência artificial enquanto preservamos valores humanos fundamentais como equidade, autonomia e dignidade.

Desafios Éticos no Desenvolvimento de Sistemas de IA

O desenvolvimento de sistemas de IA envolve uma série de desafios éticos complexos que se estendem além de questões puramente técnicas. À medida que estas tecnologias se tornam mais sofisticadas e integradas em nosso cotidiano, os dilemas éticos se multiplicam e demandam atenção cuidadosa. Vamos explorar os principais desafios enfrentados atualmente:

Privacidade e proteção de dados

Um dos desafios éticos mais prementes é a questão da privacidade. Sistemas de IA geralmente necessitam de enormes quantidades de dados para serem treinados e operarem eficazmente. Esses dados frequentemente contêm informações pessoais e sensíveis que, se mal utilizadas, podem levar a graves violações de privacidade.

No Brasil, a Lei Geral de Proteção de Dados (LGPD) e, internacionalmente, regulamentações como o GDPR na Europa, estabelecem diretrizes para o uso responsável de dados pessoais. No entanto, a implementação prática dessas diretrizes em sistemas de IA complexos apresenta desafios significativos.

Exemplo prático: Em 2023, um aplicativo de reconhecimento facial usado por uma rede de varejo brasileira foi acusado de coletar e processar dados biométricos dos clientes sem consentimento adequado. O caso levantou questões sobre os limites éticos do uso de IA para análise comportamental de consumidores.

A tensão entre a necessidade de dados para treinar sistemas eficazes e o direito fundamental à privacidade permanece como um dos principais dilemas éticos no campo da IA. Desenvolvedores precisam constantemente equilibrar avanços tecnológicos com a proteção de informações pessoais.

Viés algorítmico e discriminação

Sistemas de IA aprendem a partir dos dados que recebem. Quando esses dados contêm preconceitos ou representações desequilibradas da realidade, os algoritmos podem internalizar e amplificar esses vieses, levando a resultados discriminatórios. O viés algorítmico pode manifestar-se em diversas aplicações, desde sistemas de recrutamento até algoritmos de avaliação de crédito e softwares de reconhecimento facial.

Estudos demonstram que sistemas de IA podem discriminar com base em raça, gênero, idade e outras características protegidas, mesmo quando essas variáveis não são explicitamente incluídas no treinamento. Isso ocorre porque os algoritmos identificam padrões correlacionados com essas características nos dados.

"O problema não é que os algoritmos são preconceituosos; o problema é que os algoritmos aprendem exatamente o que ensinamos a eles através dos dados que fornecemos." - Cathy O'Neil, autora de "Algoritmos de Destruição em Massa"

Uma pesquisa de 2024 realizada pela Universidade de São Paulo revelou que algoritmos de IA usados em processos seletivos no Brasil têm 38% mais chances de rejeitar candidatos de grupos minoritários, mesmo quando suas qualificações são equivalentes às de outros candidatos.

Transparência e explicabilidade

Muitos sistemas avançados de IA, especialmente aqueles baseados em aprendizado profundo (deep learning), funcionam como "caixas pretas" - seus processos decisórios internos são opacos mesmo para seus criadores. Essa falta de transparência levanta questões éticas significativas, particularmente quando esses sistemas são utilizados para tomar decisões que afetam diretamente a vida das pessoas.

A explicabilidade - a capacidade de entender e explicar como um sistema de IA chegou a determinada conclusão - é crucial para estabelecer confiança e possibilitar contestações quando necessário. Em setores como saúde, finanças e justiça criminal, a falta de explicabilidade pode ter consequências graves.

O movimento por "IA Explicável" (XAI - Explainable AI) tem ganhado força nos últimos anos, com pesquisadores desenvolvendo técnicas para tornar os processos decisórios de sistemas complexos mais compreensíveis para humanos. No entanto, frequentemente existe uma compensação entre desempenho e explicabilidade - os sistemas mais precisos tendem a ser os menos transparentes.

Autonomia e responsabilidade

À medida que sistemas de IA se tornam mais autônomos, surge a questão fundamental de quem é responsável quando algo dá errado. Se um veículo autônomo causa um acidente, a responsabilidade recai sobre o fabricante, o desenvolvedor do software, o proprietário do veículo ou alguma combinação desses atores?

Essa questão se estende a todas as aplicações de IA que tomam decisões com mínima supervisão humana, desde diagnósticos médicos até operações em bolsas de valores. Os marcos legais existentes nem sempre estão preparados para lidar com essas complexidades, criando um vácuo de responsabilidade.

Além disso, há o problema da "delegação moral" - a tendência de transferir decisões eticamente complexas para sistemas automatizados, potencialmente diluindo a responsabilidade moral humana. Um exemplo recente ocorreu em 2024, quando um algoritmo de triagem hospitalar foi implementado em um grande hospital brasileiro, gerando controvérsia sobre a ética de delegar decisões de vida ou morte a sistemas automatizados.

Impacto socioeconômico e desigualdade

A automação impulsionada pela IA está transformando o mercado de trabalho em ritmo acelerado. Embora crie novas oportunidades, também ameaça eliminar diversos postos de trabalho, particularmente aqueles que envolvem tarefas repetitivas ou previsíveis. Esse processo pode exacerbar desigualdades socioeconômicas existentes se não for gerenciado cuidadosamente.

No Brasil, estudos da FGV indicam que até 30% dos empregos formais poderiam ser automatizados nas próximas décadas. Os impactos dessa transformação serão sentidos de maneira desigual entre diferentes regiões, setores e grupos demográficos.

Além disso, existe o risco de concentração de poder nas mãos de poucas empresas que controlam as tecnologias de IA mais avançadas. O acesso desigual à IA pode criar novas formas de exclusão digital e ampliar disparidades entre nações desenvolvidas e em desenvolvimento.

Esses desafios éticos não existem isoladamente - eles se interseccionam e se reforçam mutuamente, criando um panorama complexo que exige abordagens multidisciplinares e colaborativas para ser adequadamente enfrentado.

Abordagens para Mitigar os Desafios Éticos

Para abordar os desafios éticos discutidos anteriormente, é crucial adotar abordagens multifacetadas que envolvam tanto os desenvolvedores quanto os usuários de sistemas de IA, além de reguladores e a sociedade civil. Diversas estratégias têm sido propostas e implementadas para promover o desenvolvimento ético de sistemas de inteligência artificial:

Ética desde o design

Uma das abordagens mais promissoras é incorporar considerações éticas desde as fases iniciais do desenvolvimento de sistemas de IA, seguindo o princípio de "ética por design" (ethics by design). Esta metodologia integra valores como justiça, autonomia e transparência diretamente na arquitetura dos sistemas.

Na prática, isso significa realizar avaliações de impacto ético antes mesmo de iniciar o desenvolvimento, estabelecer equipes multidisciplinares que incluam não apenas engenheiros e cientistas de dados, mas também especialistas em ética, sociologia e direito, e implementar processos de verificação ética contínuos durante todo o ciclo de vida do produto.

Empresas como IBM, Microsoft e Google têm desenvolvido frameworks internos para implementar a ética por design em seus produtos de IA. O Responsible AI Framework da Microsoft, por exemplo, incorpora princípios como justiça, inclusão, segurança e privacidade no processo de desenvolvimento de seus sistemas.

Diversidade nas equipes de desenvolvimento

A homogeneidade nas equipes que desenvolvem sistemas de IA pode contribuir para a perpetuação de vieses. Equipes diversas, que incluem pessoas de diferentes backgrounds culturais, étnicos, socioeconômicos e de gênero, estão melhor posicionadas para identificar potenciais problemas éticos e considerar perspectivas variadas durante o desenvolvimento.

Estudos demonstram que equipes diversas tendem a produzir sistemas mais inclusivos e robustos. Um relatório de 2023 do Instituto de Tecnologia e Sociedade do Rio de Janeiro mostrou que equipes com maior diversidade de gênero e étnica identificaram, em média, 30% mais potenciais pontos de falha em sistemas de IA durante a fase de teste.

Caso de sucesso: Uma startup brasileira de IA aplicada ao recrutamento implementou uma política de diversidade em suas equipes de desenvolvimento, resultando em um algoritmo de seleção que demonstrou redução significativa de viés contra candidatos de grupos minoritários quando comparado com sistemas similares no mercado.

Transparência e explicabilidade aprimoradas

Tornar os sistemas de IA mais transparentes e explicáveis é fundamental para construir confiança e permitir a verificação de decisões. Diversas técnicas têm sido desenvolvidas para melhorar a explicabilidade, como:

  • Modelos interpretáveis por natureza: Utilizar algoritmos intrinsecamente mais interpretáveis, como árvores de decisão ou regressão linear, quando apropriado.
  • Técnicas post-hoc: Aplicar métodos como LIME (Local Interpretable Model-agnostic Explanations) ou SHAP (SHapley Additive exPlanations) para explicar decisões de modelos complexos.
  • Visualização interativa: Desenvolver interfaces que permitam aos usuários explorar como diferentes inputs afetam os outputs do sistema.

A União Europeia, através do AI Act, estabeleceu requisitos de transparência para sistemas de IA considerados de alto risco, exigindo que empresas documentem e expliquem como seus algoritmos funcionam. Inspirado por essa legislação, o Brasil tem discutido propostas semelhantes no âmbito do Marco Legal da Inteligência Artificial.

Auditoria algorítmica e avaliação de impacto

A auditoria algorítmica envolve o exame sistemático de sistemas de IA para detectar problemas como viés, discriminação ou outros comportamentos indesejados. Essas auditorias podem ser realizadas internamente ou por entidades independentes.

Complementarmente, as avaliações de impacto algorítmico (Algorithmic Impact Assessments - AIAs) analisam os potenciais efeitos sociais, econômicos e éticos de sistemas de IA antes de sua implementação. Organizações como o Instituto Alan Turing no Reino Unido e a Fundação Getulio Vargas no Brasil têm desenvolvido metodologias para conduzir essas avaliações.

Em 2024, a cidade de São Paulo implementou um programa piloto exigindo avaliações de impacto algorítmico para sistemas de IA utilizados em serviços públicos críticos, como distribuição de recursos de assistência social e avaliação de risco em segurança pública.

Regulação e governança

Marcos regulatórios específicos para IA estão sendo desenvolvidos em diversos países. Esses frameworks buscam estabelecer padrões mínimos para o desenvolvimento e uso ético de sistemas de IA, ao mesmo tempo em que procuram não sufocar a inovação.

A abordagem baseada em risco, como a adotada pela União Europeia no AI Act, classifica sistemas de IA de acordo com seu potencial de causar danos e impõe requisitos regulatórios proporcionais ao nível de risco. Sistemas considerados de "risco inaceitável" são proibidos, enquanto aqueles de "alto risco" devem cumprir requisitos rigorosos de transparência, robustez e supervisão humana.

No Brasil, o projeto de Lei 21/2020, que visa estabelecer o Marco Legal da Inteligência Artificial, encontra-se em discussão no Congresso Nacional e propõe princípios semelhantes, adaptados à realidade brasileira.

Paralelamente às iniciativas governamentais, surgem mecanismos de autorregulação no setor privado. Organizações como a Partnership on AI e o IEEE têm desenvolvido padrões e certificações voluntárias para o desenvolvimento ético de sistemas de IA.

Educação e conscientização

Promover a alfabetização em IA entre o público geral é essencial para que as pessoas possam compreender, utilizar e, quando necessário, contestar decisões tomadas por sistemas automatizados. Iniciativas educacionais em todos os níveis, desde o ensino fundamental até programas de educação continuada, são necessárias para preparar a sociedade para a era da IA.

Universidades brasileiras como a USP, UNICAMP e UFRGS têm incorporado disciplinas sobre ética em IA em seus currículos de computação e engenharia. Paralelamente, organizações como o Instituto de Tecnologia e Sociedade (ITS) e o Data Privacy Brasil promovem workshops e cursos abertos sobre o tema para profissionais e o público geral.

"A alfabetização em IA não é apenas uma questão técnica, mas uma necessidade cívica para a participação plena na sociedade do século XXI." - Relatório do Observatório de IA da América Latina, 2024

Perspectivas Futuras e Debates

O campo da ética em IA está em constante evolução, com novos desafios e debates surgindo à medida que a tecnologia avança. Algumas das questões mais prementes que moldarão o futuro da ética em IA incluem:

IA Geral e superinteligência

À medida que pesquisadores avançam em direção à Inteligência Artificial Geral (AGI) - sistemas capazes de realizar qualquer tarefa intelectual que um ser humano pode realizar - surgem questões éticas profundas sobre controle, alinhamento de valores e autonomia.

O debate sobre os riscos existenciais da superinteligência (sistemas que superariam significativamente a inteligência humana) ganhou destaque nos últimos anos, com pesquisadores como Stuart Russell, Nick Bostrom e pesquisadores da Anthropic argumentando pela necessidade de priorizar a pesquisa em alinhamento para garantir que sistemas avançados de IA permaneçam alinhados com valores humanos.

Em contrapartida, críticos como Timnit Gebru e Emily Bender argumentam que o foco excessivo em cenários futuristas desvia a atenção de problemas éticos concretos e atuais relacionados à IA, como viés, discriminação e concentração de poder.

Em 2024, a Declaração de São Paulo sobre Riscos Existenciais da IA, assinada por mais de 100 pesquisadores e líderes da indústria durante uma conferência internacional realizada no Brasil, propôs um programa de pesquisa equilibrado que abordasse tanto os riscos de curto prazo quanto os potenciais riscos existenciais da superinteligência.

Direitos dos sistemas autônomos

À medida que sistemas de IA se tornam mais sofisticados e exibem comportamentos que mimetizam a consciência e agência humanas, emerge o debate sobre quais direitos, se algum, deveriam ser concedidos a entidades artificiais.

Este debate, que anteriormente parecia restrito à ficção científica, tem ganhado relevância com o surgimento de modelos de linguagem de grande escala como GPT-4 e Claude, que demonstram capacidades impressionantes de raciocínio e comunicação.

Filósofos como David Chalmers e Susan Schneider têm proposto frameworks para avaliar consciência em sistemas artificiais e as implicações éticas de tal desenvolvimento. Algumas jurisdições já começam a considerar formas limitadas de personalidade jurídica para sistemas autônomos, principalmente para fins de responsabilidade civil.

Governança global da IA

A IA transcende fronteiras nacionais, o que torna a governança puramente doméstica insuficiente para abordar muitos dos desafios éticos apresentados por essa tecnologia. A necessidade de coordenação internacional tem levado a diversas iniciativas globais.

A UNESCO adotou em 2021 a "Recomendação sobre a Ética da Inteligência Artificial", o primeiro instrumento normativo global nessa área. A OCDE, G7 e G20 também estabeleceram princípios e diretrizes para a IA, embora com caráter não vinculativo.

Em 2024, as Nações Unidas lançaram o "Global AI Compact", uma tentativa de estabelecer normas mínimas globais para o desenvolvimento e uso ético da IA. O Brasil tem participado ativamente dessas discussões, defendendo uma abordagem que reconheça as assimetrias de poder entre nações desenvolvidas e em desenvolvimento no acesso à tecnologia.

Desafio emergente: A proliferação de sistemas de IA generativa em 2024 levantou novas questões sobre propriedade intelectual, desinformação e identidade digital. Legisladores em todo o mundo estão lutando para acompanhar essas tecnologias emergentes, com iniciativas como o "AI Watermarking Act" nos EUA e propostas semelhantes na União Europeia e Brasil.

Impactos no mercado de trabalho e políticas de transição

À medida que a automação impulsionada pela IA avança, o debate sobre seus impactos no mercado de trabalho se intensifica. Estudos recentes da Organização Internacional do Trabalho (OIT) estimam que até 60% das ocupações globais poderão ter pelo menos 30% de suas tarefas automatizadas nas próximas décadas.

Esse cenário tem motivado discussões sobre políticas de transição justa, incluindo programas de requalificação em massa, renda básica universal e redução da jornada de trabalho. Em 2024, um programa piloto de renda básica para trabalhadores deslocados pela automação foi implementado na cidade de São Bernardo do Campo, em parceria com empresas de tecnologia e a indústria automotiva local.

O debate também se estende à redistribuição dos ganhos de produtividade gerados pela IA. Propostas como impostos sobre robôs, dividendos tecnológicos e fundos soberanos digitais têm sido discutidas como mecanismos para garantir que os benefícios da automação sejam compartilhados amplamente.

Construindo um Futuro Ético para a IA

Para construir um futuro onde a IA seja desenvolvida e utilizada de maneira ética, é essencial que haja uma colaboração estreita entre desenvolvedores, usuários, governos e sociedade civil. Algumas diretrizes e princípios fundamentais para esse futuro incluem:

Princípios orientadores para o desenvolvimento ético

Diversos frameworks éticos para IA foram propostos nos últimos anos, com princípios comuns que incluem:

  • Beneficência: Sistemas de IA devem ser projetados para beneficiar os seres humanos e o planeta.
  • Não-maleficência: Devem ser implementados com salvaguardas para evitar danos.
  • Autonomia: Respeito à liberdade e autodeterminação humanas.
  • Justiça: Distribuição equitativa dos benefícios e riscos da tecnologia.
  • Explicabilidade: Compreensão de como os sistemas funcionam e tomam decisões.
  • Privacidade: Proteção de dados pessoais e respeito à intimidade.
  • Solidariedade: Promoção da coesão social e redução de desigualdades.

O desafio está em operacionalizar esses princípios abstratos em diretrizes concretas para o desenvolvimento e governança de sistemas de IA. Iniciativas como as Diretrizes Éticas para IA Confiável da União Europeia e o Framework de IA Responsável do NIST (Instituto Nacional de Padrões e Tecnologia dos EUA) têm procurado traduzir esses princípios em requisitos técnicos e organizacionais verificáveis.

"Princípios éticos sem mecanismos concretos de implementação são como mapas sem estradas - indicam a direção, mas não oferecem um caminho para chegar lá." - Relatório Brasileiro sobre Governança Ética da IA, Ministério da Ciência e Tecnologia, 2024

Participação multissetorial e inclusiva

Um futuro ético para a IA exige que sua governança seja democrática e inclusiva, envolvendo uma diversidade de vozes além dos especialistas técnicos e grandes corporações. Iniciativas de governança multissetorial, que incluem representantes da sociedade civil, academia, setor privado e governo, têm se mostrado promissoras para o desenvolvimento de políticas equilibradas.

No Brasil, o Observatório de IA, lançado em 2023 como iniciativa conjunta de universidades, ONGs e empresas de tecnologia, tem promovido a participação de comunidades tradicionalmente excluídas dos debates tecnológicos, como povos indígenas, comunidades quilombolas e periferias urbanas.

Essas iniciativas reconhecem que a IA não é apenas uma questão técnica, mas também social e política, e que suas implicações afetam diferentes grupos de maneiras distintas. A inclusão de perspectivas diversas no processo de governança é essencial para garantir que os sistemas de IA sirvam ao interesse público amplo, e não apenas a interesses particulares.

Desenvolvimento de capacidades técnicas e institucionais

Para países em desenvolvimento como o Brasil, um desafio fundamental para garantir um futuro ético da IA é desenvolver capacidades técnicas e institucionais nacionais. Isso inclui investimentos em educação e pesquisa, desenvolvimento de infraestrutura digital e fortalecimento de instituições reguladoras.

O Plano Nacional de Inteligência Artificial do Brasil, atualizado em 2024, estabelece metas ambiciosas para a formação de especialistas em IA, com ênfase na diversidade regional, racial e de gênero. O plano também prevê a criação de centros de excelência em pesquisa ética de IA em todas as regiões do país.

Paralelamente, esforços têm sido feitos para fortalecer instituições como a Autoridade Nacional de Proteção de Dados (ANPD) e os tribunais de justiça, capacitando-os para lidar com questões complexas relacionadas à governança algorítmica e responsabilidade por sistemas automatizados.

Iniciativa promissora: O programa "IA para Todos", lançado em 2024 pelo governo federal em parceria com empresas de tecnologia e universidades, visa democratizar o acesso ao conhecimento e desenvolvimento de IA, com foco em soluções para problemas locais. O programa já estabeleceu 15 hubs de inovação em IA em municípios de médio porte em todas as regiões do país.

Cooperação internacional e soberania tecnológica

A cooperação internacional é essencial para enfrentar os desafios éticos da IA, que transcendem fronteiras nacionais. Ao mesmo tempo, países em desenvolvimento como o Brasil têm buscado equilibrar essa cooperação com a preservação de certa soberania tecnológica, evitando dependência excessiva de tecnologias estrangeiras.

Iniciativas de cooperação Sul-Sul, como a Aliança Latino-Americana para IA Ética, formada em 2023 por Brasil, México, Colômbia, Argentina e Chile, buscam desenvolver abordagens comuns para regulação e desenvolvimento de IA que reflitam os valores e necessidades da região.

Em âmbito global, o Brasil tem defendido uma governança multilateral da IA, em oposição a modelos centrados nas grandes potências tecnológicas. Durante sua presidência do G20 em 2024, o país promoveu discussões sobre redução da desigualdade digital e acesso equitativo aos benefícios da IA.

Esses esforços reconhecem que a construção de um futuro ético para a IA requer tanto cooperação internacional quanto respeito à diversidade de abordagens e prioridades nacionais.

Conclusão: O caminho à frente

Os desafios éticos no desenvolvimento de sistemas de inteligência artificial são multifacetados e evoluem constantemente à medida que a tecnologia avança. O que permanece constante é a necessidade de uma abordagem reflexiva, inclusiva e proativa para enfrentar esses desafios.

Como vimos ao longo deste artigo, questões de privacidade, viés algorítmico, transparência, responsabilidade e impacto socioeconômico exigem respostas que vão além de soluções puramente técnicas. Elas demandam um diálogo contínuo entre diversas disciplinas e setores da sociedade.

A ética não deve ser vista como um obstáculo à inovação, mas como uma bússola que orienta o desenvolvimento tecnológico em direções que verdadeiramente beneficiam a humanidade. Sistemas de IA têm o potencial de resolver alguns dos problemas mais prementes do nosso tempo - desde mudanças climáticas até desigualdades na saúde - mas apenas se forem desenvolvidos com consideração cuidadosa de seus impactos éticos e sociais.

No contexto brasileiro, temos a oportunidade de desenvolver abordagens para a IA que reflitam nossos valores culturais e prioridades nacionais, ao mesmo tempo em que aprendemos com experiências internacionais. A construção de um ecossistema de IA ético e responsável no Brasil requer o engajamento ativo de desenvolvedores, empresas, governo, academia e sociedade civil.

O futuro da IA não está predeterminado - ele será moldado pelas escolhas que fazemos hoje. Ao priorizar o desenvolvimento ético e responsável, podemos garantir que essa poderosa tecnologia sirva como uma força para o bem comum, ampliando capacidades humanas e criando oportunidades para todos.

"A questão não é se máquinas conseguem pensar, mas se nós humanos conseguiremos pensar suficientemente bem sobre como as máquinas moldarão nosso futuro." - Adaptado de B.J. Fogg, especialista em design comportamental

Enquanto avançamos nessa jornada, é essencial manter um diálogo aberto e inclusivo sobre o tipo de futuro que queremos construir com a IA, garantindo que ela permaneça uma ferramenta a serviço da humanidade e dos valores que prezamos.