O grupo de pesquisa OpenAI gerou alvoroço na comunidade de inteligência artificial ao lançar um novo artigo sobre a versão mais recente de seu sistema de geração de linguagem de ponta, o GPT-3 (que também gera Textos IA). O modelo foi treinado em um conjunto de dados mais de 100 vezes maior do que a quantidade de texto já recorde que informava a versão anterior, GPT-2.

Um gerador de textos ia extremamente poderoso definiu uma nova barreira para a capacidade da IA ​​de escrever textos

A OpenAI, organização sem fins lucrativos que conduz pesquisas em inteligência artificial, anunciou o desenvolvimento do GPT-3, nova versão do seu sistema de geração de textos baseado em IA.

Segundo a organização, o novo modelo de linguagem foi treinado em um total de quase um trilhão de palavras coletadas na internet, com um total de 175 bilhões de parâmetros, contra 1,5 bilhões do GPT-2.

Com isso, o GPT-3 consegue gerar textos muito mais realistas sobre qualquer tema. Em testes com um grupo de 80 pessoas seus textos foram capazes de enganar os leitores, fazendo-os pensar que foram escritos por um humano, em metade dos casos.

Assim como seu antecessor, o GPT-3 pode ser “treinado” para escrever textos em deteriminado estilo analisando algumas amostras, porém em quantidade radicalmente menor do que o necessário por seu antecessor.

Em janeiro de 2020, a GPT-2 precisou ser treinada com cerca de 5.000 exemplos para gerar scripts para curtos comerciais exibidos nos intervalos do Superbowl, a final de campeonato da liga de futebol americano nos EUA. Mas o GPT-3 precisou de apenas “alguns parágrafos” de amostras para gerar textos no estilo do poeta modernista norte-americano Wallace Stevens.

Base de Modelo, exemplo, para textos IA
Modelos de textos IA

Os pesquisadores também notaram que o sistema absorveu certas tendências e preconceitos no material usado no treinamento. Referências a negros, por exemplo, eram geralmente mais negativas, e há uma tendência a usar identificadores masculinos ao se referir a profissões.

Mas por melhor que seja, o GPT-3 ainda exibe uma tendência de se desviar do tema do texto e vagar por tópicos não relacionados, ou se repetir. Ainda assim, seus autores alertam para os perigos que sistemas similares podem apresentar quanto à desinformação, spam, phishing, abuso de processos legais e governamentais, autoria fraudulenta de artigos acadêmicos e engenharia social”.

Textos IA

Inicialmente considerado como “perigoso demais para ser colocado ao alcance do público”, o GPT-2 foi liberado aos poucos, dando aos pesquisadores em inteligência artificial tempo suficiente para entender seu comportamento, fraquezas e formas de detectar seu uso. O código-fonte do GPT-3 ainda não está disponível, mas os pesquisadores provavelmente seguirão o mesmo caminho.

Fonte: Adweek

Se você encontrou um erro de ortografia, notifique-nos por favor, selecionando o texto e pressionar Ctrl + Enter.

Deixe um comentário