PATROCINADORES

Ícone do topo

login / cadastro

  • Sobre
    • Quem Somos
    • Equipe
    • Nossas Associadas
    • Nossa História
    • International Aberje Award
    • Estatuto
    • Relatórios
  • Conteúdos
    • Notícias
    • Artigos e colunas
    • Blogs
    • Editora Aberje
    • Pesquisas
    • CEAEC Centro de Estudos Aplicados
    • Revista CE
    • Revista Valor Setorial
    • Podcasts
    • Vídeos
    • Newsletter BRpr
  • Eventos
    • Aberje Trends
    • Labs de Comunicação
  • Conecta CI
  • Escola
  • Prêmio
  • Benefícios
    • Comitês Aberje
    • Centro de Memória e Referência
    • Guia de fornecedores
  • Fale Conosco
  • Associe-se
Ícone do topo

login / cadastro

  • Sobre
    • Quem Somos
    • Nossa história
    • Estatuto
    • Relatórios
    • Equipe
    • Nossas Associadas
  • Associe-se
  • Notícias
  • Opinião
    • Artigos e colunas
    • Blogs
  • Vagas e Carreira
  • Associadas
    • Nossas Associadas
    • Comitês Aberje
    • Benchmarking
    • Centro de Memória e Referência
  • Eventos
    • Aberje Trends
  • Escola Aberje
  • Prêmios
    • Prêmio Aberje
    • Prêmio Universitário Aberje
    • International Aberje Award
  • Labs de Comunicação
  • Conteúdos
    • Editora
    • Revista CE
    • Revista Valor Setorial
    • Pesquisas
    • Materiais de consulta
    • Podcasts
    • Vídeos
  • Aliança Aberje de Combate às Fake News
  • Newsletter BRpr
  • Fale Conosco
  • Relatórios
22 de junho de 2023

As fronteiras éticas da inteligência artificial

Marcos Santos
 
  • COMPARTILHAR:

A euforia e o entusiasmo em torno das possibilidades atuais e futuras da inteligência artificial generativa são inegáveis e justas. No entanto, junto com seu imenso potencial, a IA generativa apresenta novos riscos e desafios. Com a crescente incorporação de modelos generativos em nossas rotinas diárias pessoais e profissionais, torna-se fundamental abordar essas preocupações com cautela, porém com medidas eficazes.

A IA generativa refere-se à capacidade da tecnologia de produzir conteúdo diverso e aberto. Isso a diferencia das abordagens tradicionais de aprendizado de máquina que se concentram na solução de problemas preditivos específicos.

As limitações dos modelos tradicionais de aprendizado de máquina, projetados para tarefas específicas, como prever o pagamento de empréstimos, facilitam a gestão de alguns aspectos da IA responsável. Por exemplo, garantir igualdade de oportunidades em pedidos de empréstimo envolve minimizar os vieses inconscientes (como idade, gênero, raça, etnia, orientação sexual) nas previsões, definindo um critério justo durante o processo. Assim, auditar a adesão do modelo aos critérios de imparcialidade torna-se mais simples nessas tarefas, pois os dados de treinamento podem ser controlados.

No entanto, a IA generativa apresenta novos desafios em termos de definição, medição e aplicação da neutralidade. A natureza aberta do conteúdo produzido dificulta o estabelecimento de critérios claros de imparcialidade. A compensação pelo conteúdo rico e criativo gerado pela IA generativa é o aumento da dificuldade em abordar a equidade, bem como as preocupações éticas em comparação com os modelos preditivos tradicionais.

Embora muitas lideranças no setor tenham pedido uma pausa no treinamento de sistemas de IA mais poderosos, eles negligenciam um ponto crucial – os sistemas para criar padrões éticos estão sob nosso controle. Ou seja, não devemos interromper a evolução da tecnologia, mas sim nos concentrar em priorizar a ética e o desenvolvimento responsável da IA.

Minha colega Dana Daher, em recente artigo sobre o tema (AI Escapes Pandora’s Box: The Imperative for Ethical Control and Responsibility), listou algumas ações para mitigar esses riscos inerentes ao avassalador desenvolvimento da IA:

  1. Estabeleça diretrizes e padrões éticos claros: desenvolva e promova diretrizes e padrões éticos claros para o desenvolvimento e implantação da IA. Essas diretrizes devem abranger princípios como justiça, transparência, responsabilidade, privacidade e proteção dos direitos humanos.
  2. Promova práticas de dados responsáveis: garanta que os dados usados para treinar modelos de IA sejam representativos, imparciais e respeitem a privacidade e o consentimento. A seleção e o pré-processamento dos dados devem ter como objetivo minimizar os vieses e evitar a perpetuação da discriminação.
  3. Promova a colaboração e abordagens multidisciplinares: Incentive a colaboração entre os stakeholders de diversas origens, incluindo tecnólogos, especialistas em ética, legisladores e comunidades impactadas.
  4. Aumente a transparência e a explicabilidade: promova a transparência nos sistemas de IA, promovendo técnicas de IA explicável (XAI). Os usuários e indivíduos afetados devem ser capazes de entender como os sistemas de IA tomam decisões e por quê.

Como bem colocou Dana em seu artigo, “em vez de temer a IA, devemos enfatizar a necessidade de supervisão, responsabilidade e diretrizes humanas. O futuro da IA está em nossas mãos e é nossa responsabilidade coletiva guiá-la rumo a um caminho que beneficie a humanidade”.

Os artigos aqui apresentados não necessariamente refletem a opinião da Aberje e seu conteúdo é de exclusiva responsabilidade do autor.

Marcos Santos

Marcos Santos é Diretor de Marketing e Demand-Generation da Unisys para América Latina, responsável pelo planejamento e execução das iniciativas de brand awareness e geração de demanda na região. Antes de ingressar na Unisys em 2012, Marcos desempenhou funções seniores em agências de Relações Públicas, como Sing Comunicação, Fundamento Grupo de Comunicação e Andreoli MSL. Graduado em Jornalismo pela Universidade Metodista de São Paulo, Marcos possui MBA em Gestão da Comunicação Corporativa pela Aberje, curso de extensão (pós-graduação) em Análise de ROI em Programas de Marketing e Comunicação pela USP e completou o Programa MicroMaster em Digital Leadership pela Universidade de Boston.

  • COMPARTILHAR:

ARTIGOS E COLUNAS

  • Edward Pimenta10 sessões do SXSW 2026 que comunicadores corporativos não podem perder
  • Carlos ParenteUma pitada de boa comunicação contra o etarismo
  • Maria Claudia BacciQuando tudo é prioridade, não há reputação

Destaques

  • Tendências da Comunicação Interna 2026 destaca o papel da IA, influenciadores e liderança
  • Professor da Universidad de los Andes vence International Aberje Award na IPRRC 2026
  • Aberje participa de reunião da PACE em agenda na Itaipu Binacional

Notícias do Mercado

  • Ranking Merco Líderes 2025 reúne lideranças de associadas à Aberje
  • Unico leva debate sobre autenticidade digital e deepfakes ao SXSW 2026
  • Ranking Merco Líderes Empresariais 2025 será divulgado em 11 de março

BLOGS

A Aberje é uma organização profissional e científica sem fins lucrativos e apartidária. Tem como principal objetivo fortalecer o papel da comunicação nas empresas e instituições, oferecer formação e desenvolvimento de carreira aos profissionais da área, além de produzir e disseminar conhecimentos em comunicação.

ENDEREÇO
Rua Amália De Noronha, 151, 6º Andar – Pinheiros, São Paulo/SP
CEP 05410-010

CONTATO
(11) 5627-9090
(11) 95166-0658
fale@aberje.com.br