Google anuncia a nova geração de sua TPU para inteligência artificial

Durante a conferência Google I/O, realizada nesta quarta-feira (27), o CEO Sundar Pichai, reafirmou a importância da inteligência artificial para o futuro de sua companhia. Uma das provas disso é o anúncio da segunda geração da TPU (Tensor Processor Unit) fabricada pela empresa, cuja especialidade é lidar com soluções baseadas na computação pela nuvem.

Parte importante da estratégia da empresa, a tecnologia passa a ser disponibilizada para qualquer empresa que deseje usar as soluções de ponta oferecidas pelo Google como parte de seu grupo Google Compute Engine. A novidade também vai ter papel importante nas operações da própria organização, que aplica cada vez mais a inteligência artificial no melhoramento de seus produtos.

“Estamos partindo de um ponto que prioriza o mobile para priorizar a inteligência artificial”, afirmou Pichai. Segundo ele, a tecnologia se faz presente tanto na forma como o Street View lê placas de trânsito até no mecanismo de pesquisas, que aprende hábitos do usuário e se torna capaz de providenciar sugestões e resultados mais personalizados.

TPU Pods

cada unidade sozinha é capaz de oferecer 180 teraflops

A segunda geração de TPUs da empresa foi agrupada naquilo que foi batizado como “TPU Pods”, um agrupamento de máquinas que, na prática, atua como um “superservidor” com capacidade total de 11,5 petaflops. Segundo a companhia, cada unidade sozinha é capaz de oferecer 180 teraflops, agindo de maneira especializada em calcular os tipos de números essenciais para o campo do aprendizado por máquina.

“Nosso modelo de tradução em larga escala leva um dia inteiro para ser treinado sobre as 32 melhores GPUs do mercado disponíveis atualmente”, afirmou Jeff Dean, membro sênior do time Google Brain. “Enquanto oito pods da nova TPU podem fazer o trabalho em uma única tarde”, explicou.

Uma das vantagens do novo sistema é sua capacidade de aprender e inferir resultados de forma simultânea. Na prática, isso significa a possibilidade de oferecer resultados a um usuário ao mesmo tempo em que novas informações relevantes a um assunto ou tarefa estão sendo computados.

Em outras palavras, é possível fazer com que uma inteligência artificial aprenda novas tarefas sem que ela tenha que deixar de executar aquilo para o qual já foi configurada. “Caso você reduza o tempo de experimentos de semanas para dias ou horas, isso melhora a habilidade de todos que trabalham com o aprendizado por máquinas de iterar mais rapidamente e fazer mais experimentos”, afirmou Dean ao The Verge.

os resultados devem ser publicados de maneira acessível e, preferencialmente, oferecidos em código aberto

Durante o anúncio, o Google reiterou seu compromisso de trabalhar com um modelo opensouce ao oferecer os recursos dos TPUs Pods e de sua biblioteca de aprendizado TensorFlow a qualquer pesquisador. A única condição imposta é que os resultados devem ser publicados de maneira acessível e, preferencialmente, oferecidos em código aberto. As intenções da empresa vão ser manifestadas em um programa conhecido como TensorFlow Research Cloud, que promete oferecer acesso a 1 mil TPUs de maneira totalmente gratuita. 

via Novidades do TecMundo

Deixe uma resposta

%d blogueiros gostam disto: