Minha Visão

A Microsoft Acabou de construir um Mundo de Classe Supercomputador Exclusivamente para OpenAI

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br


No ano passado, a Microsoft anunciou um bilhão de dólares de investimento em OpenAI, uma organização cuja missão é criar artificial a inteligência geral e torná-lo seguro para a humanidade. Nenhum Terminador-como dystopias aqui. Nenhum demente máquinas de fazer os seres humanos em clipes de papel. Apenas computadores com inteligência geral, ajudando-nos a resolver nossos maiores problemas.

Em um ano, temos os primeiros resultados da parceria. Neste ano, a Microsoft Construir 2020, uma conferência de desenvolvedores, mostrando mais recente da Microsoft, e o melhor, a empresa disse que tinha terminado um supercomputador exclusivamente para OpenAI de que a máquina de investigação sobre a aprendizagem. Mas este não é um run-of-the-moinho de supercomputador. É uma besta de uma máquina. A empresa disse que tem 285,000 núcleos de CPU, de 10.000 GPUs, e 400 gigabits por segundo de conectividade de rede para cada GPU servidor.

Empilhadas contra os supercomputadores mais rápidos do planeta, a Microsoft diz que ele tinha ocuparam o quinto lugar.

A empresa não divulgou dados de desempenho, e o computador não tiver sido publicamente aferido e incluído no amplamente seguido lista Top500 de supercomputadores. Mas mesmo na ausência de classificações oficiais, é provavelmente seguro dizer que o seu um mundo de classe da máquina.

“Como nós aprendemos mais e mais sobre o que precisamos e os diferentes limites de todos os componentes que compõem um supercomputador, nós estávamos realmente capaz de dizer, ‘Se nós poderíamos projetar o nosso sonho do sistema, o que seria parecido?'” disse OpenAI CEO Sam Altman. “E, em seguida, a Microsoft foi capaz de construir.”

O que vai OpenAI fazer com que esse sonho-máquina? A empresa está construindo cada vez maiores estreitas AI algoritmos—estamos nem perto de AGI, no entanto—e eles precisam de muito poder de processamento para fazê-lo.

A Busca de Muito Grande AI Modelos

O tamanho de mais avançado AI modelos, isto é, as redes neurais em algoritmos de aprendizado foi rápido crescimento. Ao mesmo tempo, de acordo com OpenAI, o poder de computação necessário para treinar estes modelos tem sido dobrando a cada 3.4 meses.

Quanto maior o modelo, maior será o computador que você precisa treiná-lo.

Este crescimento é em parte devido ao número de parâmetros usados em cada modelo. De modo simplista, estes são os valores de “neurônios” operando em dados em uma rede neural de assumir através de treinamento. OpenAI do GPT-2 algoritmo, o que gerou convincente de texto de instruções, consistia de cerca de 1,5 bilhão de parâmetros. Microsoft linguagem natural, gerando AI modelo, Turing NLG, foi mais de 10 vezes maior, pesando de 17 mil milhões de parâmetros. Agora, OpenAI do GPT-3, acaba de anunciar a quinta-feira, supostamente está composta de um escalonamento de 175 bilhões de parâmetros.

Há uma outra tendência em jogo também.

Considerando que muitos algoritmos de aprendizado são treinados humanos-chamados de conjuntos de dados, Microsoft, OpenAI, e outros também estão perseguindo a “vigilância” de aprendizagem de máquina. Isso significa que, com suficiente matérias, sem etiqueta de dados os algoritmos de ensinar – se através da identificação de padrões nos dados.

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

Alguns dos mais recentes sistemas também pode executar mais de uma tarefa em um determinado domínio. Um algoritmo treinado no texto bruto, bilhões de páginas da internet—a partir de Taxas de entradas de auto-publicação de livros—pode-se inferir relações entre palavras, conceitos e contexto. Em vez de ser capaz de fazer apenas uma coisa, como gerar um texto, ele pode transferir a sua aprendizagem, para várias tarefas relacionadas no mesmo domínio, como também a leitura de documentos e respondendo a perguntas.

READ  Para regular o ganho de peso, controle da inflamação?

Turing NLG e GPT-3 algoritmos enquadram nesta categoria.

“A coisa emocionante sobre estes modelos, é a amplitude de coisas que eles estão indo para habilitar”, disse o Microsoft Diretor Técnico Kevin Scott. “Trata-se de ser capaz de fazer uma centena de coisas interessantes em processamento de linguagem natural de uma vez e uma centena de coisas interessantes na visão de computador, e quando você começar a ver as combinações destes domínios perceptivos, você vai ter novos aplicativos que são difíceis de imaginar até agora.”

Se tivéssemos um Maior Computador…

Para ser claro, isto não é de AGI, e não há caminho certo para AGI ainda. Mas algoritmos de início para modestamente generalizar dentro de domínios é um progresso.

Uma pergunta que paira é se a abordagem vai continuar progredindo tempo em que os pesquisadores podem jogar mais poder de computação para ele, ou se hoje de aprendizagem de máquina precisa ser complementado com outras técnicas. Além disso, se a mais avançada de pesquisa de IA, como exige prodigiosos recursos e, em seguida, cada vez mais, só os mais abastados, bem ligado organizações privadas será capaz de reproduzir.

Uma boa notícia é que, mesmo como o AI do tamanho do modelo é de crescimento, a eficiência desses modelos está melhorando muito. Cada nova descoberta requer um grande salto no poder de computação, mas, mais tarde, os modelos são ajustados e ajustados, de tal forma que o sucessor algoritmos podem fazer tão bem ou melhor com menos poder de computação.

A Microsoft também anunciou uma atualização para abrir a sua fonte de aprendizado profundo conjunto de ferramentas, DeepSpeed, lançado em fevereiro. A empresa diz que DeepSpeed pode ajudar os desenvolvedores de modelos de comboios de 15 vezes maior, e 10 vezes mais rápido usando os mesmos recursos de computação. E eles também planejam abrir origem de seus Turing modelos, para toda a comunidade pode construir sobre eles.

READ  Novo Algoritmo Abre o Caminho Para a Livre de erros Computação Quântica

A idéia geral é que uma vez que um desses muito grande AI modelos tem sido treinado, ele realmente pode ser personalizado e utilizadas por outros pesquisadores ou empresas com muito menos recursos.

Em qualquer caso, a Microsoft e OpenAI estão empenhados muito grande AI, e sua nova máquina pode ser seguido por ainda maiores nos próximos anos.

“Estamos testando uma hipótese que tem sido, desde o início do campo: a de que uma rede neural perto do tamanho do cérebro humano pode ser treinado para ser um AGI,” Greg Brockman, OpenAI co-fundador, presidente e CTO, disse o Financial Times quando o investimento da Microsoft foi feita pela primeira vez em público. “Se a hipótese é verdadeira, a de cabeça para a humanidade será notável.”

Crédito de imagem: Miguel Á. Padriñán / Pexels

cupom com desconto - o melhor site de cupom de desconto cupomcomdesconto.com.br

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *