Anúncio

Entrevista com Helton Simões Gomes e Diogo Cortiz, especialistas em erros com Inteligência Artificial

 Tecnologia

No "Deu Tilt" desta semana, os colunistas do UOL Helton Simões Gomes e Diogo Cortiz listam os 5 piores erros humanos com inteligência artificial. Tem o Google inventando fato histórico, companhia aérea usando chatbot mentiroso e professor sendo enganado pelo ChatGPT.

#DeuTilt #T01E06C

---------

Entrevista com Helton Simões Gomes e Diogo Cortiz, especialistas em erros com Inteligência Artificial

Nesta entrevista, os colunistas Helton Simões Gomes e Diogo Cortiz discutem os 5 piores erros cometidos com o uso da Inteligência Artificial, desde funcionários que compartilharam código-fonte confidencial até chatbots que forneceram informações erradas a clientes. Eles também destacam os usos mais geniais da IA e as tendências envolvendo influenciadores digitais.

Índice

Funcionários da Samsung postam código-fonte confidencial no ChatGPT. Por que isso é um problema?

Quando funcionários da Samsung compartilham código-fonte confidencial no ChatGPT, isso é uma violação grave da segurança da informação. O ChatGPT é um sistema de Large Language Model que aprende e consome informações. Ao expor o código-fonte confidencial, há um risco significativo de vazamento de propriedade intelectual e segredos comerciais. Isso pode resultar em danos financeiros e prejudicar a reputação da empresa.

Além disso, ao compartilhar informações confidenciais em plataformas não autorizadas, os funcionários podem estar violando políticas internas de segurança cibernética, colocando em risco a confiança dos clientes e parceiros comerciais da Samsung. A falta de controle sobre o compartilhamento de dados confidenciais pode ter ramificações legais e regulatórias, sujeitando a empresa a multas e processos judiciais.

O Google gera imagens históricas incorretas. Por que isso é um problema?

Esse foi um caso bastante polêmico que levou o Google a suspender o serviço de criação de imagens no gemini, sua inteligência artificial. As imagens geradas incluíam figuras históricas equivocadas, como negros no exército nazista, mulheres retratadas como os pais fundadores da América e outras representações incorretas.

Por que isso é um problema? Primeiramente, trata-se de informações históricas incorretas. A inteligência artificial não deveria criar tais representações, a menos que fosse explicitamente solicitado no comando dado à máquina. A falta de precisão nas representações históricas pode distorcer a compreensão da história e perpetuar estereótipos prejudiciais.

Além disso, esse incidente destaca a questão da representatividade nas imagens geradas por inteligência artificial. As IA muitas vezes reproduzem vieses e estereótipos existentes na sociedade, o que pode aprofundar desigualdades e falta de diversidade. Portanto, é crucial que as imagens geradas sejam precisas e livres de preconceitos.

Uso de IA na ciência causa mais de 10.000 artigos retirados. O que aconteceu?

O uso de inteligência artificial na ciência tem levado a uma situação preocupante, com mais de 10.000 artigos sendo retirados. Muitos pesquisadores estão recorrendo à IA para auxiliar na redação de artigos, realizar pesquisas e gerar representações gráficas. Embora inicialmente pareça uma prática benéfica, temos presenciado casos em que a utilização da IA resultou em graves erros e representações distorcidas, colocando em xeque a integridade e confiabilidade da pesquisa científica.

Um exemplo emblemático é a situação envolvendo a representação gráfica de um rato em um artigo científico. A imagem gerada pela IA para ilustrar o tema do estudo acabou apresentando características completamente distorcidas e irreais, levando a uma situação constrangedora e questionável. Além disso, a influência da IA na redação dos artigos também levanta preocupações, como a detecção de padrões de linguagem e tom de voz específicos, que podem comprometer a originalidade e a ética na produção científica.

Esses incidentes colocam em evidência a necessidade urgente de estabelecer diretrizes claras e éticas para o uso da inteligência artificial na ciência. É essencial garantir que a IA seja empregada de forma responsável e que os pesquisadores estejam cientes dos possíveis impactos negativos que a sua utilização indiscriminada pode acarretar na produção científica.

Professores reprovam alunos por perguntar ao ChatGPT se ele escreveu o trabalho. Por que isso não funciona?

Os professores estão enfrentando um dilema sobre como verificar se os alunos realmente escreveram seus trabalhos. Isso levou a situações como a do professor do Texas, que decidiu perguntar ao ChatGPT se ele foi o autor dos trabalhos dos alunos. No entanto, essa abordagem não é eficaz, pois o ChatGPT não mantém um histórico do que ele escreve, sendo uma ferramenta totalmente estatística.

Além disso, o ChatGPT tem uma alta probabilidade de fornecer falsos positivos ao ser questionado sobre a autoria de um conteúdo. Realizei testes com meus próprios textos e descobri que o ChatGPT afirmou ter escrito alguns deles, incluindo textos publicados em veículos renomados. Portanto, pedir ao ChatGPT para verificar a autoria de um trabalho de aluno é uma abordagem falha e não deve ser adotada pelos professores.

Essa prática revela a falta de compreensão sobre o funcionamento do ChatGPT e a questão da autoria. Atualmente, não existe uma ferramenta automatizada que possa determinar com precisão se um texto foi gerado por Inteligência Artificial. Portanto, é mais confiável e eficaz que os professores avaliem o trabalho dos alunos com base em critérios humanos, em vez de tentar automatizar um processo que ainda é desafiador para a tecnologia.

Chatbot de companhia aérea fornece informação errada e empresa é obrigada a indenizar. Como isso aconteceu?

Um chatbot de uma empresa aérea forneceu uma informação errada a um cliente, resultando em uma situação desastrosa para a companhia. O cliente, um cidadão canadense, foi informado pelo chatbot que poderia obter um desconto em sua passagem aérea devido a uma situação pessoal delicada, mas ao retornar para solicitar o reembolso, descobriu que a informação fornecida era incorreta.

Ele entrou com um processo judicial, alegando ter sido enganado pelo robô, e a companhia aérea foi obrigada não apenas a reembolsá-lo, mas também a pagar uma indenização por danos morais. Esse incidente ilustra como a implementação inadequada de um chatbot pode resultar em prejuízos financeiros e danos à reputação da empresa.

É essencial que as empresas ajam com responsabilidade ao implementar tecnologias de IA, como os chatbots, e garantam que eles sejam programados e treinados corretamente para fornecer informações precisas e confiáveis aos clientes.

Quais foram os usos mais geniais da Inteligência Artificial?

Discutiremos as cinco coisas mais geniais que a humanidade já presenciou e experimentou da Inteligência Artificial. Vamos nos aprofundar no entendimento do desenvolvimento tecnológico e dos usos da tecnologia, além de explorar outras questões relevantes para o avanço da IA.

Como a IA está sendo usada por influenciadores digitais?

Os influenciadores digitais estão aproveitando as capacidades da inteligência artificial para aprimorar suas estratégias de marketing e engajamento com o público. Eles utilizam algoritmos de IA para analisar dados de seguidores, identificar tendências e criar conteúdo personalizado, aumentando assim sua presença e impacto nas mídias sociais.

Quais cuidados as empresas devem ter ao implementar chatbots?

A implementação de chatbots requer cuidados específicos para garantir que eles forneçam respostas precisas e confiáveis. Um dos aspectos essenciais é a técnica de "hagrag", que aumenta a parte geracional das respostas com base em conjuntos de dados. É crucial que as empresas realizem uma implementação cuidadosa, evitando abordagens amadoras e impulsivas, para garantir a eficácia e a confiabilidade do chatbot. Além disso, a compreensão dos limites e capacidades da inteligência artificial é fundamental para evitar retornos equivocados e prejuízos financeiros. Implementar chatbots sem considerar esses cuidados pode resultar em respostas imprecisas e danos à reputação da empresa.

Por que é difícil detectar automaticamente se um texto foi escrito por IA?

É muito difícil detectar automaticamente se um texto foi escrito por Inteligência Artificial devido à falta de informações sobre como a ferramenta funciona, como ela cria os textos e como lida com a autoria. Atualmente, não existe nenhuma ferramenta automatizada que possa determinar com precisão se um texto foi gerado por IA. É mais fácil para os humanos avaliar a autoria de um texto do que automatizar esse processo.

Quais palavras o ChatGPT tem preferência de usar?

O ChatGPT tem preferência por algumas palavras, como "delve", que significa aprofundar. Por exemplo, no Google Scholar, há uma quantidade significativa de artigos publicados que contêm a palavra "delve", cerca de 2000 até o momento.

Como a IA pode afetar a forma como discutimos a história no futuro?

A utilização de inteligência artificial para gerar representações históricas levanta preocupações significativas sobre a precisão e a autenticidade das informações. Imagine um cenário em que um estudante, como o Zezinho, recorre à IA para criar uma imagem histórica para um trabalho escolar e acaba apresentando uma representação distorcida e inadequada, como um Viking sendo retratado como um nativo americano ou uma pessoa negra como nazista. Isso poderia impactar drasticamente a forma como a história é compreendida e discutida, influenciando a percepção das gerações futuras sobre eventos e figuras históricas.

Que tipos de representações equivocadas a IA pode gerar sobre a cultura brasileira?

A IA pode gerar representações equivocadas sobre a cultura brasileira, distorcendo significados e signos semióticos. Em um estudo realizado, tentamos criar imagens representando manifestações e eventos culturais do Brasil. Enquanto em algumas situações a IA conseguiu se aproximar, em outras falhou ao incorporar signos semióticos de outras culturas, deturpando o significado original. Por exemplo, ao representar o carnaval, a IA chegou próximo, mas em outros casos inseriu signos semióticos de outras culturas, criando uma representação distorcida e inadequada da cultura brasileira.

Que tipo de experimento absurdo com IA foi realizado na ciência?

Eu sinto até receio quando vou falar daquele rato. Era uma pesquisa que tinha que mostrar a imagem de um ratinho e tinha que mostrar o saco escrotal dele, só que o saco escrotal do rato era do tamanho do rato. Tinha coisa que não existia ali, nome de célula inventada, e o mais louco é que assim, eu escrevi um artigo sobre IA na ciência e o editor usou uma imagem para ilustrar, claro, porque acho que ela ilustra toda essa essência do absurdo que até a área científica.

Perguntas Frequentes

O ChatGPT mantém um histórico do que ele escreve?

Não, o ChatGPT não mantém um histórico do que ele escreve, sendo uma ferramenta totalmente estatística.

Por que é difícil detectar automaticamente se um texto foi escrito por IA?

É muito difícil detectar automaticamente se um texto foi escrito por Inteligência Artificial devido à falta de informações sobre como a ferramenta funciona, como ela cria os textos e como lida com a autoria.

Quais palavras o ChatGPT tem preferência de usar?

O ChatGPT tem preferência por algumas palavras, como "delve", que significa aprofundar.

Como a IA pode afetar a forma como discutimos a história no futuro?

A utilização de inteligência artificial para gerar representações históricas levanta preocupações significativas sobre a precisão e a autenticidade das informações.

Que tipos de representações equivocadas a IA pode gerar sobre a cultura brasileira?

A IA pode gerar representações equivocadas sobre a cultura brasileira, distorcendo significados e signos semióticos.

Que tipo de experimento absurdo com IA foi realizado na ciência?

Houve um experimento que mostrou uma representação distorcida e inadequada de um rato, com características irreais e um saco escrotal do tamanho do rato, além de uma célula inventada, ilustrando a essência do absurdo na área científica.


Adicionado em: 29-07-2024
Categoria: Tecnologia

Já foi visto 191 vezes
Tags: Nenhum