Minha Visão

OpenAI Novo Gerador de Texto, Escreve Ainda Mais Como um ser Humano

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br


No início de 2019 OpenAI, uma startup co-fundada por Elon Musk dedicado para garantir artificial inteligência geral, é seguro para a humanidade, anunciou que havia criado uma rede neural para processamento de linguagem natural chamado GPT-2. Em que alguns viram como um golpe de publicidade e outros como um sinal de um iminente apocalipse robot, OpenAI, inicialmente, optou por não lançamento público gerador de texto. Uma vez que a ferramenta poderia produzir texto realista o suficiente para que ele foi, em alguns casos, é difícil distinguir humanos de escrita, seus criadores preocupados GPT-2 poderia ser aproveitado como uma maneira fácil para maus atores, para conseguir realizar muitas notícias falsas ou propaganda.

Notícias falsas, certamente, tornar-se um generalizado e insidiosa problema, e em um ano quando estamos a lidar com uma pandemia global e a possível reeleição de Donald Trump como o presidente dos EUA, parece que um mais potente e realista de texto-geração AI é uma das últimas coisas que precisamos agora.

Apesar dos potenciais riscos, porém, OpenAI anunciou no final do mês passado que GPT-2, o sucessor é completa. É chamado de—você adivinhou—GPT-3.

Um estudo publicado pelo OpenAI pesquisadores sobre o pré-servidor de impressão arXiv descreve GPT-3 como um autoregressive modelo de idioma com 175 mil milhões de parâmetros. 175 mil milhões de euros um monte; para efeito de comparação, a versão final do GPT-2, lançado em novembro de 2019, havia 1,5 bilhão de parâmetros. Microsoft Turing Linguagem Natural Geração do modelo, lançada para um privado de demonstração, em fevereiro, tinha 17 bilhões de parâmetros.

“Parâmetro” refere-se a um atributo de uma máquina, de um modelo de aprendizagem define com base em seus dados de treinamento. Então como é que OpenAI ir de 1,5 mil milhões para 175 milhões? Ao contrário do que você pode imaginar com base em GPT-3 do enorme tamanho, a tecnologia por trás dele não é mais avançado do que o de ferramentas semelhantes, e não contém novos métodos de treino ou arquiteturas; seus criadores simplesmente dimensionada a quantidade de dados de entrada de uma ordem de magnitude.

READ  the Hype vs. the Science

Os dados são provenientes de Rastreamento Comum, sem fins lucrativos, que varre a web aberta a cada mês e downloads de conteúdos a partir de bilhões de páginas em HTML, em seguida, torna-o disponível em um formato especial para grande escala de mineração de dados. Em 2017, a média mensal de “rastrear” rendeu mais de três bilhões de páginas da web. Rastreamento comum tem feito isso desde 2011, e tem petabytes de dados em mais de 40 idiomas diferentes. O OpenAI equipe aplicadas algumas técnicas de filtragem para melhorar a qualidade geral dos dados, incluindo a adição de curadoria conjuntos de dados, como a Wikipedia.

GPT significa Generativo Pretrained Transformador. O “transformador” parte refere-se a uma rede neural de arquitectura apresentado pela Google em 2017. Ao invés de olhar para as palavras em ordem seqüencial e tomar decisões com base em uma palavra do posicionamento dentro de uma frase, texto ou discurso geradores com esse modelo de design as relações entre todas as palavras em uma frase de uma só vez. Cada palavra obtém uma atenção “pontuação”, que é usado como o seu peso e alimentada à rede maior. Essencialmente, esta é uma forma complexa de dizer o que a modelo está pesando é a probabilidade de que uma determinada palavra será precedida ou seguida por outra palavra, e o quanto que a probabilidade de alterações com base em outras palavras na frase.

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

Através da procura de relações e padrões entre as palavras em um gigantesco conjunto de dados, o algoritmo, em última análise, acaba de aprendizagem a partir de suas próprias inferências, no que é chamado de não-supervisionada de aprendizagem de máquina. E não termina com as palavras—GPT-3 também pode descobrir como os conceitos se relacionam uns com os outros, e discernir o contexto.

READ  Cientistas Toque a Mais Poderosa do Mundo dos Computadores na Corrida para Entender e Parar o Coronavírus

No papel, o OpenAI equipe de notas que GPT-3 executada quando, com a tarefa de tradução, respondendo a perguntas e fazer a leitura de compreensão do tipo de exercícios que necessário preencher os espaços em branco onde as palavras tinham sido removidos. Eles também dizem que o modelo foi capaz de fazer “on-the-fly “raciocínio”, e que gerou uma amostra de notícias, artigos 200 a 500 palavras que eram difíceis de distinguir de outras, escritas por pessoas.

Os autores reconhecem que GPT-3 poderia ser utilizado de diversas formas, inclusive para gerar a desinformação e spam, phishing, abuso de direito e processos governamentais, e até mesmo falso acadêmico ensaios. Mais do que alguns alunos do ensino médio certamente salto a chance de ter um AI de escrever suas admissões da faculdade de ensaio (mas, entre os desvios potenciais desta ferramenta, que é a menor de nossas preocupações).

No início deste ano, um editor de uma O Economista deu GPT-2 uma lista de perguntas sobre o que 2020 tinha na loja. O algoritmo previsto turbulência econômica, “as principais alterações na China”, e não a re-eleição para Donald Trump, entre outras coisas. É um pouco assustador imaginar que GPT-3 pode prever para 2021 uma vez que a entrada de todos os artigos a partir de 2020, que está se transformando para ser um ano histórico, em uma bonita maneira terrível.

Por agora, no entanto, ninguém de fora OpenAI tem acesso para GPT-3; a empresa não colocar para fora todos os detalhes de quando, como, ou se o algoritmo vai ser lançado para o público. Isso poderia acontecer em fases, similar ao GPT-2. Mas o tamanho da nova versão apresenta complicações adicionais; de acordo com Joe Davison, um engenheiro de pesquisa em uma partida que também está trabalhando em processamento de linguagem natural, “Os recursos computacionais necessários para realmente usar o GPT-3 no mundo real tornam extremamente difíceis de concretizar.”

READ  Coisas de alcaparras activa a chave de proteínas no cérebro e no coração

Entretanto, apesar de, OpenAI tem um recém-cunhadas supercomputador feitos pela Microsoft para a máquina de investigação sobre a aprendizagem. Isto irá tornar mais fácil para melhorar rapidamente a GPT-3 habilidades, e talvez até mesmo começar a trabalhar sobre o modelo da próxima iteração no não muito distante futuro.

Quão poderosos esses processamento de linguagem natural algoritmos de obter? Talvez, é, simultaneamente, um conforto e uma queda para pensar que, mesmo tendo sido alimentados com anos de internet, todo o acervo de conhecimentos, de qualquer modelo poderia ter previsto o que a 2020 seria uma forma de trazer—mas, novamente, nenhum ser humano poderia ter, qualquer um.

Crédito da imagem: Willi Heidelbach de Pixabay

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *