A OpenAI divulgou dados do uso do ChatGPT durante as eleições presidenciais dos Estados Unidos. De acordo com a desenvolvedora, o chatbot rejeitou mais de 250 mil pedidos para criar deepfakes com os candidatos envolvidos no pleito no último mês.
Além disso, a ferramenta respondeu a mais de 2 milhões de prompts sobre o resultado da votação com links para agências de notícias entre 5 e 6 de novembro (dia seguinte às eleições).
Antes das eleições, a OpenAI já havia confirmado o uso de alguns mecanismos de segurança para evitar deepfakes e outras imagens geradas por IA dos envolvidos na corrida presidencial como forma de evitar desinformação.
No mês que antecedeu as eleições, o ChatGPT bloqueou mais de 250 mil pedidos para gerar imagens com o modelo DALL-E dos dois candidatos principais, Donald Trump (eleito) e Kamala Harris, seus respectivos candidatos a vice-presidentes, J.D. Vance e Tim Walz, e o atual presidente dos EUA, Joe Biden.
Para evitar fatos inventados sobre o tema, o chatbot também destacou sites e agências de notícias com informações confiáveis sobre o período eleitoral. No último mês antes da votação, cerca de um milhão de prompts com dúvidas sobre onde e quando votar foram respondidos com links para a plataforma CanIVote.org, que esclarece as principais dúvidas do assunto.
Nos dias 5 e 6 de novembro, entre os votos e a apuração, as pessoas recorreram à IA para saber o resultado. A OpenAI informa que cerca de 2 milhões de perguntas sobre o assunto foram respondidas com links para agências de notícias consideradas confiáveis, como Associated Press e Reuters.
Resumindo: os dados publicados pela OpenAI revelam que o ChatGPT:
Bloqueou mais de 250 mil pedidos de geração de imagens dos candidatos à presidência dos EUA no mês que antecedeu à eleição;
Respondeu a cerca de um milhão de prompts sobre dúvidas de locais de voto com links para o site CanIVote.org;
Respondeu a cerca de dois milhões de prompts sobre os resultados das eleições com links para agências de notícias.
コメント