Alguns dos principais desafios que as inteligências artificiais (IAs) generativas impõem ao mercado de comunicação estão relacionados aos riscos legais de seu uso. Seja em questões de propriedade intelectual, proteção de dados, desinformação, reprodução de preconceitos, marcas precisam estar vigilantes em relação à segurança das plataformas usadas e quanto aos conteúdos produzidos. Essa é a recomendação de Rony Vainzof, sócio-fundador do escritório de advocacia VLK.
“Governança de IA é super importante. Isso tem de estar nos valores corporativos. Proteção de dados é um direito fundamental. E se a ferramenta usar um dado pessoal, isso é um problema de competitividade e imagem. Se algo der errado, como um viés discriminatório numa empresa, é terrível sob todas as perspectivas de ESG, reputação, além do risco de sanções. Então deve haver governança”, afirma.
O advogado foi um dos palestrantes do webinar “1º Updating ABA: Nova regulamentação europeia de IA e impactos no Brasil”, realizado pela Associação Brasileira de Anunciantes (ABA). O evento discutiu desafios e oportunidades relacionados à adoção de uma regulamentação específica para IAs, questionando possíveis formatos de projetos de lei a serem aplicados no país.
O entendimento é que o tema precisa ser regulamentado, porém, sem engessar a inovação. “Quando a gente regula a tecnologia, precisa ter muita cautela de maneira a não travar seu desenvolvimento. Ela tem que ser regulada de acordo com o uso e não com a própria ferramenta em si”, defende Rony.
Segundo ele, a legislação brasileira já cobre uma série de questões relacionadas ao tema, como o uso de dados, por exemplo, mas existem pontos cegos que precisam de regulação específica para IAs. “Um dos grandes desafios é, sem dúvida, o de propriedade intelectual, a questão do treinamento de IAs por conteúdos não autorizados”, afirma, citando como exemplo o caso do processo do “The New York Times” contra OpenAI e Microsoft pelo uso não autorizado de seu acervo no treinamento do ChatGPT.
“A busca é como a gente não impede o treinamento de IA e, mesmo assim, privilegia quem faz um conteúdo curado de qualidade. Porque quanto mais lixo entra na IA, mais lixo sai dela. E quanto melhor o conteúdo curado, mais precisa e relevante será a plataforma.”
Rony ressalta que esse é um mercado com potencial para movimentar, na previsão de estudos globais, de US$ 2,6 trilhões a US$ 4,4 trilhões ao ano. Por isso, é necessário que as próprias organizações tomem a iniciativa de criar processos de governança, para aproveitar as oportunidades mitigando riscos às marcas e aos negócios.
O advogado apresentou um mapeamento dos principais pontos críticos. Entre eles, está a potencialização de vieses discriminatórios. “Se você pede no prompt imagens de CEO, só saem imagens de homens brancos engravatados. Esse é um exemplo clássico da falta de parâmetros de dados no treinamento, que não atingem uma equidade das características humanas.”
Outro risco importante é a “alucinação da IA”, que pode com frequência produzir conteúdos com informações descoladas da realidade. Segurança cibernética, aumento na escala e sofisticação da desinformação com deepfakes, falta de transparência e mudanças radicais no mercado de trabalho também estão em jogo.
“Hoje, a maioria das empresas está sendo engolida pela necessidade de usar alguma IA generativa de terceiros. E por isso é muito importante saber quais plataformas trazem mais segurança sobre vazamento de dados, violação de direitos de terceiros, direito de exploração do conteúdo gerado, qualidade e precisão, transparência e aplicabilidade. É uma obrigação de quem está implementando a IA na relação com seus clientes.”