No "Deu Tilt" desta semana, os colunistas do UOL Helton Simões Gomes e Diogo Cortiz listam os 5 piores erros humanos com inteligência artificial. Tem o Google inventando fato histórico, companhia aérea usando chatbot mentiroso e professor sendo enganado pelo ChatGPT.
#DeuTilt #T01E06C
---------
Nesta entrevista, os colunistas Helton Simões Gomes e Diogo Cortiz discutem os 5 piores erros cometidos com o uso da Inteligência Artificial, desde funcionários que compartilharam código-fonte confidencial até chatbots que forneceram informações erradas a clientes. Eles também destacam os usos mais geniais da IA e as tendências envolvendo influenciadores digitais.
Quando funcionários da Samsung compartilham código-fonte confidencial no ChatGPT, isso é uma violação grave da segurança da informação. O ChatGPT é um sistema de Large Language Model que aprende e consome informações. Ao expor o código-fonte confidencial, há um risco significativo de vazamento de propriedade intelectual e segredos comerciais. Isso pode resultar em danos financeiros e prejudicar a reputação da empresa.
Além disso, ao compartilhar informações confidenciais em plataformas não autorizadas, os funcionários podem estar violando políticas internas de segurança cibernética, colocando em risco a confiança dos clientes e parceiros comerciais da Samsung. A falta de controle sobre o compartilhamento de dados confidenciais pode ter ramificações legais e regulatórias, sujeitando a empresa a multas e processos judiciais.
Esse foi um caso bastante polêmico que levou o Google a suspender o serviço de criação de imagens no gemini, sua inteligência artificial. As imagens geradas incluíam figuras históricas equivocadas, como negros no exército nazista, mulheres retratadas como os pais fundadores da América e outras representações incorretas.
Por que isso é um problema? Primeiramente, trata-se de informações históricas incorretas. A inteligência artificial não deveria criar tais representações, a menos que fosse explicitamente solicitado no comando dado à máquina. A falta de precisão nas representações históricas pode distorcer a compreensão da história e perpetuar estereótipos prejudiciais.
Além disso, esse incidente destaca a questão da representatividade nas imagens geradas por inteligência artificial. As IA muitas vezes reproduzem vieses e estereótipos existentes na sociedade, o que pode aprofundar desigualdades e falta de diversidade. Portanto, é crucial que as imagens geradas sejam precisas e livres de preconceitos.
O uso de inteligência artificial na ciência tem levado a uma situação preocupante, com mais de 10.000 artigos sendo retirados. Muitos pesquisadores estão recorrendo à IA para auxiliar na redação de artigos, realizar pesquisas e gerar representações gráficas. Embora inicialmente pareça uma prática benéfica, temos presenciado casos em que a utilização da IA resultou em graves erros e representações distorcidas, colocando em xeque a integridade e confiabilidade da pesquisa científica.
Um exemplo emblemático é a situação envolvendo a representação gráfica de um rato em um artigo científico. A imagem gerada pela IA para ilustrar o tema do estudo acabou apresentando características completamente distorcidas e irreais, levando a uma situação constrangedora e questionável. Além disso, a influência da IA na redação dos artigos também levanta preocupações, como a detecção de padrões de linguagem e tom de voz específicos, que podem comprometer a originalidade e a ética na produção científica.
Esses incidentes colocam em evidência a necessidade urgente de estabelecer diretrizes claras e éticas para o uso da inteligência artificial na ciência. É essencial garantir que a IA seja empregada de forma responsável e que os pesquisadores estejam cientes dos possíveis impactos negativos que a sua utilização indiscriminada pode acarretar na produção científica.
Os professores estão enfrentando um dilema sobre como verificar se os alunos realmente escreveram seus trabalhos. Isso levou a situações como a do professor do Texas, que decidiu perguntar ao ChatGPT se ele foi o autor dos trabalhos dos alunos. No entanto, essa abordagem não é eficaz, pois o ChatGPT não mantém um histórico do que ele escreve, sendo uma ferramenta totalmente estatística.
Além disso, o ChatGPT tem uma alta probabilidade de fornecer falsos positivos ao ser questionado sobre a autoria de um conteúdo. Realizei testes com meus próprios textos e descobri que o ChatGPT afirmou ter escrito alguns deles, incluindo textos publicados em veículos renomados. Portanto, pedir ao ChatGPT para verificar a autoria de um trabalho de aluno é uma abordagem falha e não deve ser adotada pelos professores.
Essa prática revela a falta de compreensão sobre o funcionamento do ChatGPT e a questão da autoria. Atualmente, não existe uma ferramenta automatizada que possa determinar com precisão se um texto foi gerado por Inteligência Artificial. Portanto, é mais confiável e eficaz que os professores avaliem o trabalho dos alunos com base em critérios humanos, em vez de tentar automatizar um processo que ainda é desafiador para a tecnologia.
Um chatbot de uma empresa aérea forneceu uma informação errada a um cliente, resultando em uma situação desastrosa para a companhia. O cliente, um cidadão canadense, foi informado pelo chatbot que poderia obter um desconto em sua passagem aérea devido a uma situação pessoal delicada, mas ao retornar para solicitar o reembolso, descobriu que a informação fornecida era incorreta.
Ele entrou com um processo judicial, alegando ter sido enganado pelo robô, e a companhia aérea foi obrigada não apenas a reembolsá-lo, mas também a pagar uma indenização por danos morais. Esse incidente ilustra como a implementação inadequada de um chatbot pode resultar em prejuízos financeiros e danos à reputação da empresa.
É essencial que as empresas ajam com responsabilidade ao implementar tecnologias de IA, como os chatbots, e garantam que eles sejam programados e treinados corretamente para fornecer informações precisas e confiáveis aos clientes.
Discutiremos as cinco coisas mais geniais que a humanidade já presenciou e experimentou da Inteligência Artificial. Vamos nos aprofundar no entendimento do desenvolvimento tecnológico e dos usos da tecnologia, além de explorar outras questões relevantes para o avanço da IA.
Os influenciadores digitais estão aproveitando as capacidades da inteligência artificial para aprimorar suas estratégias de marketing e engajamento com o público. Eles utilizam algoritmos de IA para analisar dados de seguidores, identificar tendências e criar conteúdo personalizado, aumentando assim sua presença e impacto nas mídias sociais.
A implementação de chatbots requer cuidados específicos para garantir que eles forneçam respostas precisas e confiáveis. Um dos aspectos essenciais é a técnica de "hagrag", que aumenta a parte geracional das respostas com base em conjuntos de dados. É crucial que as empresas realizem uma implementação cuidadosa, evitando abordagens amadoras e impulsivas, para garantir a eficácia e a confiabilidade do chatbot. Além disso, a compreensão dos limites e capacidades da inteligência artificial é fundamental para evitar retornos equivocados e prejuízos financeiros. Implementar chatbots sem considerar esses cuidados pode resultar em respostas imprecisas e danos à reputação da empresa.
É muito difícil detectar automaticamente se um texto foi escrito por Inteligência Artificial devido à falta de informações sobre como a ferramenta funciona, como ela cria os textos e como lida com a autoria. Atualmente, não existe nenhuma ferramenta automatizada que possa determinar com precisão se um texto foi gerado por IA. É mais fácil para os humanos avaliar a autoria de um texto do que automatizar esse processo.
O ChatGPT tem preferência por algumas palavras, como "delve", que significa aprofundar. Por exemplo, no Google Scholar, há uma quantidade significativa de artigos publicados que contêm a palavra "delve", cerca de 2000 até o momento.
A utilização de inteligência artificial para gerar representações históricas levanta preocupações significativas sobre a precisão e a autenticidade das informações. Imagine um cenário em que um estudante, como o Zezinho, recorre à IA para criar uma imagem histórica para um trabalho escolar e acaba apresentando uma representação distorcida e inadequada, como um Viking sendo retratado como um nativo americano ou uma pessoa negra como nazista. Isso poderia impactar drasticamente a forma como a história é compreendida e discutida, influenciando a percepção das gerações futuras sobre eventos e figuras históricas.
A IA pode gerar representações equivocadas sobre a cultura brasileira, distorcendo significados e signos semióticos. Em um estudo realizado, tentamos criar imagens representando manifestações e eventos culturais do Brasil. Enquanto em algumas situações a IA conseguiu se aproximar, em outras falhou ao incorporar signos semióticos de outras culturas, deturpando o significado original. Por exemplo, ao representar o carnaval, a IA chegou próximo, mas em outros casos inseriu signos semióticos de outras culturas, criando uma representação distorcida e inadequada da cultura brasileira.
Eu sinto até receio quando vou falar daquele rato. Era uma pesquisa que tinha que mostrar a imagem de um ratinho e tinha que mostrar o saco escrotal dele, só que o saco escrotal do rato era do tamanho do rato. Tinha coisa que não existia ali, nome de célula inventada, e o mais louco é que assim, eu escrevi um artigo sobre IA na ciência e o editor usou uma imagem para ilustrar, claro, porque acho que ela ilustra toda essa essência do absurdo que até a área científica.
O ChatGPT mantém um histórico do que ele escreve?
Não, o ChatGPT não mantém um histórico do que ele escreve, sendo uma ferramenta totalmente estatística.
Por que é difícil detectar automaticamente se um texto foi escrito por IA?
É muito difícil detectar automaticamente se um texto foi escrito por Inteligência Artificial devido à falta de informações sobre como a ferramenta funciona, como ela cria os textos e como lida com a autoria.
Quais palavras o ChatGPT tem preferência de usar?
O ChatGPT tem preferência por algumas palavras, como "delve", que significa aprofundar.
Como a IA pode afetar a forma como discutimos a história no futuro?
A utilização de inteligência artificial para gerar representações históricas levanta preocupações significativas sobre a precisão e a autenticidade das informações.
Que tipos de representações equivocadas a IA pode gerar sobre a cultura brasileira?
A IA pode gerar representações equivocadas sobre a cultura brasileira, distorcendo significados e signos semióticos.
Que tipo de experimento absurdo com IA foi realizado na ciência?
Houve um experimento que mostrou uma representação distorcida e inadequada de um rato, com características irreais e um saco escrotal do tamanho do rato, além de uma célula inventada, ilustrando a essência do absurdo na área científica.
