Robert Triggs / Autoridade Android
Quem não gosta de um bom boato, especialmente quando ele combina telefones de alto nível como o Samsung Galaxy S25 com temas quentes como IA? De acordo com últimos sussurros, o próximo telefone carro-chefe da Samsung será equipado com um novo processador Exynos 2500 (além de um Qualcomm Snapdragon 8 Gen 4 ainda não anunciado). O relatório exige uma boa dose de sal, mas a especulação interessante é que o chip contará com um acelerador de IA dedicado construído pelo Google, não muito diferente do Google TPU encontrado no processador Tensor G3 do Pixel 8.
Nas últimas duas gerações, a Samsung desenvolveu seu próprio acelerador de IA para Exynos, consistindo em grandes e pequenos núcleos focados em IA (NPUs) e um processador de sinal digital (DSP) de processamento de números mais tradicional. A introdução de uma peça de processador desenvolvida pelo Google seria uma admissão tácita de que o silício de IA da Samsung está atrás da concorrência, seja em desempenho ou em ferramentas de desenvolvimento.
Normalmente, diríamos de jeito nenhum, mas este não é um desenvolvimento improvável. Google e Samsung trabalharam em estreita colaboração na série de chips Tensor e em software de IA como o Galaxy AI. O licenciamento de tecnologia adicional entre os dois seria um negócio normal. A ASUS já usa Google TPUs para sua plataforma Coral IoT, então por que não a Samsung?
![Rumor sobre IA do Exynos 2500 TPU Rumor sobre IA do Exynos 2500 TPU](https://www.androidauthority.com/wp-content/uploads/2024/04/Exynos-2500-TPU-AI-rumor.jpeg)
Os benefícios seriam, presumivelmente, recursos mais potentes de processamento de números de IA para a série Galaxy S25. Quer o boato seja verdadeiro ou não (ainda estamos longe de estar convencidos), ele chamou minha atenção para um ponto de inflexão importante na atual corrida armamentista de IA móvel, no qual vale a pena mergulhar.
Alguém vencerá a corrida da IA, em algum momento
O cenário da IA mudou muito no ano passado, assim como os requisitos de hardware para executar os modelos e ferramentas mais recentes. As inferências iniciais “básicas” e as ferramentas baseadas na nuvem deram lugar rapidamente a modelos generativos que podem produzir trechos de texto, imagens e até mesmo vídeo no dispositivo, mas exigem muito mais poder de computação especializado para fazer isso. Os projetistas de processadores móveis têm investido cada vez mais transistores em peças de processamento NPU para acompanhar, com Google, Samsung, Qualcomm, MediaTek e Apple buscando abordagens ligeiramente diferentes.
Se os rumores forem verdadeiros, Exynos e Tensor podem estar mais próximos do que nunca.
Sempre há vencedores e perdedores em um campo inovador, e há um elemento de sorte em prever as direções do desenvolvimento do silício com tantos anos de antecedência. Parte do problema é que as cargas de trabalho de IA variam muito, e é difícil descobrir quais instruções e profundidades de bits suportar no hardware enquanto o estado dos aplicativos permanece em constante mudança. O cenário em mudança pode tornar os custos de desenvolvimento proibitivos, especialmente se você não estiver vendendo seus empreendimentos em todo o mundo.
A vantagem do Google é participar do desenvolvimento de software e hardware de IA, talvez mantendo o desenvolvimento de TPU um pouco mais sintonizado com as mudanças nos desenvolvimentos do que alguns outros. Afinal, certamente haverá benefícios em usar hardware de IA da mesma empresa que traz modelos Gemini Nano para vários smartphones.
![Processamento de transcrição Samsung Galaxy S24 GalaxyAI Processamento de transcrição Samsung Galaxy S24 GalaxyAI](https://www.androidauthority.com/wp-content/uploads/2024/01/Samsung-Galaxy-S24-GalaxyAI-Transcription-Processing.jpg)
Robert Triggs / Autoridade Android
Olhando um pouco mais adiante, o futuro dos aplicativos de IA não se limitará a alguns aplicativos OEM proprietários fornecidos com o seu telefone (desculpe, Galaxy AI). Os consumidores vão querer levar seus aplicativos de IA para vários dispositivos e plataformas como outros aplicativos, necessitando de acesso de desenvolvedores terceirizados ao hardware acelerador de IA.
No entanto, testei os números de desempenho de IA da série Exynos e Snapdragon Samsung Galaxy S24 usando GeekBench ML (reconhecidamente ainda em desenvolvimento) e descobri que o aplicativo não conseguia acessar desempenho adicional de NPU por meio da API Android NN. Rodar diretamente na CPU e GPU foi mais rápido, o que não deveria ser o caso. Talvez este seja um problema de driver, ou alguns dos melhores telefones de IA do mercado não parecem oferecer aos desenvolvedores terceirizados acesso fácil para aproveitar sua inteligência de IA por meio de uma API central do Android.
![Galaxy S24 vs Pixel 8 Android NN vs CPU GPU AI Perf Galaxy S24 vs Pixel 8 Android NN vs CPU GPU AI Perf](https://www.androidauthority.com/wp-content/uploads/2024/04/Galaxy-S24-vs-Pixel-8-Android-NN-vs-CPU_GPU-AI-Perf.jpg)
Executei o mesmo teste no Pixel 8 Pro do Google e encontrei um aumento notável em algumas cargas de trabalho ao usar o Android NN (exceto em testes de ponto flutuante de 32 bits, que não apresentam nenhum benefício). Em outras palavras, os desenvolvedores podem executar cargas de trabalho do TensorFlow AI na TPU do Pixel para obter ganhos significativos de des
Gostaríamos de lhe enviar notificações com novidades, você pode cancelar a qualquer momento.