August 17, 2018 / 5:52 PM / a month ago

Nvidia avança em inteligência artificial e Intel defende seu território

(Reuters) - A Nvidia domina o mercado de chips para treinar computadores a pensar como seres humanos, mas enfrenta um competidor ferrenho em um importante caminho de expansão no mercado de chips de inteligência artificial: a Intel.

12/06/2018. REUTERS/Mike Blake

Os chips da Nvidia dominam o mercado de treinamento de inteligência artificial, onde enormes quantidades de dados ajudam algoritmos a “aprenderem” uma tarefa, como reconhecimento de voz. Mas uma das maiores áreas de crescimento será a entrega de computadores que podem executar as tarefas “aprendidas”. A Intel domina o mercado de centrais de processamento de dados onde tais tarefas provavelmente serão executadas.

“Nos próximos 18 a 24 meses, é muito difícil vislumbrar qualquer um que possa desafiar a Nvidia em treinamento”, disse Jon Bathgate, analistas da Janus Henderson Investors.

Mas os processadores da Intel já são usados amplamente para pegar um algoritmo de inteligência artificial treinado e colocá-lo em uso, por exemplo, varrendo o áudio de entrada e traduzindo-o em solicitações baseadas em texto, o que é chamado de “inferência”.

Os chips da Intel funcionam bem nesta área, especialmente quando são acompanhados por grandes quantidades de memória, disse Bruno Fernandez-Ruiz, vice-presidente de Tecnologia da Nexar, uma startup israelense que usa câmeras de smartphones para tentar prevenir colisões de automóveis.

Este mercado pode ser maior que o de treinamento, disse Abhinav Davuluri, um analista da Morningstar, que vê o mercado de inferência como valendo 11,8 bilhões de dólares até 2021, ante 8,2 bilhões de dólares da área de treinamento. A Intel estima que o atual mercado para chips de inteligência artificial é de cerca de 2,5 bilhões de dólares, dividido em partes iguais entre inferência e treinamento.

A Nvidia, que divulgou na quinta-feira alta de 89 por cento no lucro trimestral, não deu estimativas específicas para o mercado de chips de inferência, mas o presidente-executivo, Jensen Huang, afirmou a analistas que acredita que “será um mercado muito grande para nós”.

As vendas de chips Nvidia para inferência estão subindo. Em maio, a companhia informou que tinha dobrado as vendas do produto na comparação anual para grandes centrais de processamento de dados, mas não deu detalhes. No início deste mês, a empresa de computação em nuvem do Google afirmou que adotou os chips da Nvidia para tarefas de inferência e que vai alugar os equipamentos para clientes.

Mas a Nvidia enfrenta obstáculos para seus produtos de inferência porque o mercado de processamento de dados está coberto de chips da Intel vendidos nos últimos 20 anos.

A Take Taboola, uma companhia baseada em Nova York que ajuda editoras a recomendarem conteúdo relacionado a leitores, é um exemplo sobre como os chips da Intel se mantêm competitivos.

A empresa de Nova York usa chips de treinamento da Nvidia para ajudar seu algoritmo a aprender o que recomendar e considerou os processadores de inferência da Nvidia para a tarefa. Mas a Taboola acabou optando em continuar com os chips da Intel por questões de velocidade de resposta e custo, disse Ariel Pisetzky, vice-presidente de tecnologia da informação da empresa.

Os chips da Nvidia foram muito mais rápidos, mas o tempo necessário para trabalhar os dados acabou minimizando os possíveis ganhos, disse Pisetzky. A Intel despachou engenheiros para ajudar a Taboola a ajustar seu código de programação para que os mesmos servidores já usados pela empresa pudessem trabalhar com duas vezes mais solicitações.

“Trabalhando com a Intel, eu posso reduzir minhas compras de novos servidores em um fator de dois porque eu posso usar meus atuais servidores duas vezes melhor.”

A Nvidia tem trabalhado para resolver tais desafios. A companhia lançou software este ano para tornar seus chips de inferência mais rápidos na entrega dos dados. A empresa também anunciou nesta semana uma nova família de processadores baseados em uma tecnologia chamada Turing que afirma ser 10 vezes mais rápida.

“Estamos ativamente trabalhando com praticamente todos provedores de Internet do mundo para incorporarem aceleração de inferência em seus equipamentos”, disse Huang. Ele deu como exemplo o reconhecimento de voz, que somente é útil se responder em um período de tempo relativamente curto. “E nossa plataforma é realmente excelente para isso.”

0 : 0
  • narrow-browser-and-phone
  • medium-browser-and-portrait-tablet
  • landscape-tablet
  • medium-wide-browser
  • wide-browser-and-larger
  • medium-browser-and-landscape-tablet
  • medium-wide-browser-and-larger
  • above-phone
  • portrait-tablet-and-above
  • above-portrait-tablet
  • landscape-tablet-and-above
  • landscape-tablet-and-medium-wide-browser
  • portrait-tablet-and-below
  • landscape-tablet-and-below