(
DINO - 29 dez, 2015) - A NVIDIA anuncia que o Facebook utilizará a Plataforma de computação acelerada NVIDIA Tesla para alimentar seu sistema de computação de última geração, permitindo-o executar uma vasta gama de aplicativos de aprendizado de máquina.
Enquanto treinar complexas redes neurais profundas para conduzir aprendizado de máquina pode levar dias ou semanas mesmo nos computadores mais rápidos, a plataforma Tesla é capaz de reduzir isso em até 20 vezes. Dessa forma, os desenvolvedores podem inovar mais rapidamente e treinar redes mais sofisticadas, oferecendo recursos aprimorados aos consumidores.
O Facebook é a primeira empresa a adotar os aceleradores de GPU NVIDIA Tesla M40, lançados no último mês, para treinar redes neurais profundas. Eles desempenham um papel importante na nova plataforma de computação "Big Sur", o sistema de Pesquisa de IA do (Facebook AI Research, FAIR) desenvolvido especialmente para treinamento de redes neurais.
"O aprendizado profundo inicia uma nova era na computação", diz Ian Buck, vice-presidente de computação acelerada da NVIDIA. "Possíveis por meio de big data e potentes GPUs, os algoritmos de aprendizado profundo podem solucionar problemas nunca antes possíveis. Grandes indústrias, de serviços da Web e varejo a assistência médica e veículos, serão revolucionadas. Estamos muitos satisfeitos em saber que as GPUs NVIDIA são adotadas como o mecanismo de aprendizado profundo. Nossa meta é oferecer, aos pesquisadores e às empresas, a plataforma mais produtiva para desenvolver esse excelente trabalho."
Além de reduzir o tempo de treinamento de redes neurais, as GPUs oferecem inúmeras outras vantagens. Sua compatibilidade arquitetônica de geração para geração permite incrementos suaves de velocidade para futuras atualizações de GPU. E a adoção global crescente da plataforma Tesla facilita a colaboração aberta com pesquisadores do mundo inteiro, alimentando novas ondas de descoberta e inovação no campo de aprendizado de máquina.
Big Sur otimizado para aprendizado de máquina
A NVIDIA trabalha com engenheiros do Facebook no projeto do Big Sur, otimizando-o para oferecer o máximo de performance para cargas de trabalho de aprendizado de máquina, incluindo o treinamento de grandes redes neurais em várias GPUs Tesla. Duas vezes mais rápido que o sistema existente do Facebook, o Big Sur permite que a empresa treine o dobro de redes neurais, e crie redes neurais duas vezes maiores, que ajudarão a desenvolver modelos mais precisos e novas classes de aplicativos avançados.
"O segredo para acessar o conhecimento necessário para desenvolver máquinas mais inteligentes está na capacidade dos nossos sistemas de computação", comenta Serkan Piantino, diretor de engenharia do FAIR. "A maioria dos principais avanços no aprendizado de máquina e Inteligência Artificial nos últimos anos dependeu da utilização de GPUs potentes e conjuntos gigantes de dados para desenvolver e treinar modelos avançados."
A introdução das GPUs Tesla M40 ajuda o Facebook a alcançar novos avanços na pesquisa de aprendizado de máquina e permite que as equipes em toda a sua organização utilizem redes neurais profundas em uma variedade de produtos e serviços.
A primeira arquitetura de computação de Inteligência Artificial de código-fonte aberto
O Big Sur representa a primeira vez que um sistema de computação projetado especificamente para pesquisa de aprendizado de máquina e inteligência artificial (IA) seja lançado como uma solução de código-fonte aberto.
Comprometido em fazer seu trabalho de Inteligência Artificial abertamente e compartilhar suas descobertas com a comunidade, o Facebook pretende trabalhar com seus parceiros para abrir os códigos-fonte das especificações do Big Sur por meio do Projeto de Computação Aberta. Essa abordagem exclusiva permitirá que pesquisadores de Inteligência Artificial do mundo todo compartilhem e aprimorem facilmente as técnicas, permitindo inovações futuras no aprendizado de máquina, captando a potência da computação acelerada por GPU.