Como o Google pretende levar inteligência artificial ao Android

Companhia anunciou uma versão ‘light’ para o TensorFlow que conseguirá rodar em smartphones e outros dispositivos móveis


O futuro do Android será muito mais inteligente graças a novas ferramentas de programação que o Google revelou nesta quarta-feira (17). Durante a conferência para desenvolvedores Google I/O, a companhia anunciou o TensorFlowLite, uma versão de seu framework de machine learning desenhado para rodar em smartphones e outros dispositivos móveis.

“O TensorFlow Lite irá alavancar uma nova API de rede neural para aceleradores específicos de silício, e com o tempo nós esperamos ver [chips de processamento de sinal digital] desenhados especificamente para treinamento e inferência de rede neural”, disse Dave Burke, vice-presidente do Google para engenharia do Android. “Nós pensamos que essas novas capacidades ajudarão a alimentar a próxima geração de smartphones alimentados com capacidades para processamento de discurso, busca visual, realidade aumentada e mais.” 

O framework Lite fará parte, em breve, de um projeto open source do TensorFlow, e a API de rede neural chegará no próximo grande lançamento do Android no final deste ano. Vale ressaltar aqui que o framework possui sérias implicações para o que o Google vê como o futuro do hardware móvel. Isso porque chips com foco em inteligência artificial poderiam habilitar smartphones para lidar com operações mais avançadas em machine learning sem consumir muito de suas baterias. Com mais aplicações usando aprendizado de máquina para oferecer experiências inteligentes, facilitar esse trabalho no próprio aparelho é fundamental.

Por enquanto, construir um avançado aprendizado de máquina dentro de aplicações – especialmente quando diz respeito a modelos de treinamento – exige um poder de processamento muito alto que tipicamente exige um hardware mais robusto, além de muito tempo e muita energia. Isso não é muito prático para aplicativos em smartphones, o que significa que eles descarregam com frequência esse processamento em um data center ao enviar imagens, textos e outros dados que necessitam de processamento através da internet. 

Entretanto, processar esses dados na nuvem traz uma série de efeitos colaterais, de acordo com Patrick Moorhead, analista na Moor Insights and Strategy. Usuários devem estar aptos a transferir seus dados para os servidores de uma companhia e eles precisam estar um ambiente com conectividade rápida o suficiente para ter certeza de que a operação é de baixa latência. 

Já há um processador móvel alimentado com machine learning no mercado atualmente. O Snapdragon 835 da Qualcomm sustenta o Hexagon DSP que suporta o TensorFlow. DSPs (sigla para Digital Signal Processor) também são usados para habilitar funções como reconhecer a frase “Ok, Google”, que ativa o Google Assistant, de acordo com Moorhead. 

Para o analista, usuários devem esperar ver mais chips alimentados com machine learning no futuro. “Desde que a Lei de Moore desacelerou, temos assistido um modelo de computação heterogêneo. Nós estamos usando diferentes tipos de processadores para efetuar coisas diferentes, seja um DSP seja um  FPGA (Field Programmable Gate Array), ou uma CPU. É quase como se estivéssemos usando o clube de golfe certo para o buraco certo.” 

O Google já está investindo em um hardware específico para machine learning com sua linha de chips da Tensor Processing Unit, que são desenhados para acelerar tanto o treinamento de novos algoritmos de machine learning assim como processamento de dados usando modelos existentes. Nessa quarta-feira, a companhia anunciou sua segunda versão para o hardware, que é desenhado para acelerar treinamento de aprendizado de máquina e inferência. 

A gigante de tecnologia também não é a única com um framework focado em machine learning para smartphones. Recentemente, o Facebook revelou um framework orientado para a tecnologia, chamado de Caffe2Go no ano passado.

 

via IDG Now!

Deixe uma resposta