- Google e DeepMind anunciaram o lançamento de novos modelos avançados de inteligência artificial
- Eles se concentram no uso médico e resolvem o problema de informações ambíguas dos pacientes
- A novidade se chama Med-Gemini e é considerada melhor que o GPT-4 da OpenAI. A corrida começa
A corrida por modelos médicos personalizados de IA começou. O Google e a DeepMind divulgaram um artigo na segunda-feira descrevendo o Med-Gemini, um grupo de modelos avançados de inteligência artificial voltados para aplicações de saúde. Os modelos ainda estão em fase de pesquisa, mas os autores afirmam que o Med-Gemini supera modelos concorrentes como o GPT-4 da OpenAI. No entanto, não fica para trás e ampliou recentemente a cooperação com a grande empresa farmacêutica Moderna.
Com Gêmeos
Um salto notável para Med-Gemini, se confirmado num cenário do mundo real, é a sua capacidade de capturar o contexto e a temporalidade, tais como a compreensão potencial do contexto e da configuração dos sintomas, bem como o momento e a sequência do seu início. Esta é uma armadilha conhecida dos modelos existentes de IA relacionados à saúde.
Um exemplo simples é bem conhecido de todos os pais de crianças pequenas: a necessidade de visitar o pediatra por causa da febre e da erupção cutânea do seu filho. O médico sempre pergunta o que veio primeiro, a febre ou a erupção cutânea? Espalhou-se da cabeça para baixo ou dos pés para cima? Essas características simples podem diferenciar uma doença leve e autolimitada, como a roséola, de uma doença potencialmente fatal, como a meningite meningocócica.
Googles NOVAS SURPRESAS “Med-Gemini” Médicos! (Nova IA Médica do Google)
Essas questões aparentemente simples, com sua multidimensionalidade e características de séries temporais, podem modelar a inteligência artificial à menor imprecisão, jogue-o fora completamente. É esta contextualidade que a Med-Gemini parece ter abordado ao romper com a tentativa de construir um modelo abrangente de medicina geral. Em vez disso, os desenvolvedores do Google adotaram uma abordagem vertical para modelos relacionados, chamados de “família” de modelos, dos quais cada um otimiza um domínio médico específico ou cenário, como análise de imagens em radiologia e patologia, interpretação de sinais, como avaliação de um eletrocardiograma, ou compreensão em um contexto longo, como leitura de longos registros médicos. Isto levou a melhorias, refinamentos e raciocínios mais transparentes, como por exemplo por que um diagnóstico proposto é o mais provável, dizem os pesquisadores.
O novo modelo também inclui uma significativa camada adicional – pesquisa na web para informações atuais, o que possibilita a extensão dos dados com conhecimento externo e a integração dos resultados online ao modelo. Embora o Med-Gemini tenha usado diversas fontes de dados, como extratos de prontuários médicos, radiografias, fotos de lesões de pele, perguntas de preparação para exames médicos e muito mais, ainda é importante lembrar que ainda precisamos validar os dados no mundo real em um ambiente clínico diário ou pelo menos um ensaio clínico prospectivo duplo-cego randomizado.
Você já imaginou ser investigado pela inteligência artificial?
Fonte: Forbes