Podczas konferencji Google I/O 2025 technologiczny gigant zaprezentował dwa nowe narzędzia AI. MedGemma to otwarta rodzina modeli sztucznej inteligencji zaprojektowanych z myślą o analizie danych medycznych. Drugim zaprezentowanym rozwiązaniem jest nowa wersja agenta AMIE.
MedGemma – otwarte modele AI dla medycyny
Konferencja I/O 2025 była dla Google okazją do wielu ogłoszeń. Wcześniej pisaliśmy o Google Beam, czyli technologii, która ma uczynić komunikację online bardziej realistyczną i przestrzenną. Głośno było także o rozwiązaniu dla e-commerce pozwalającym „przymierzyć” ubrania jeszcze przed zakupem w sklepie online.
Kolejnym dużym ogłoszeniem było narzędzie MedGemma. Jest to zestaw dwóch zaawansowanych modeli AI opartych na architekturze Gemma 3, stworzonych specjalnie z myślą o zastosowaniach zdrowotnych:
- MedGemma 4B – model o 4 miliardach parametrów, który potrafi analizować obrazy medyczne (zdjęcia RTG, dermatologiczne czy preparaty histopatologiczne). Generuje opisy, klasyfikuje obrazy i może odpowiadać na pytania diagnostyczne.
- MedGemma 27B – tekstowy model o 27 miliardach parametrów, zoptymalizowany do rozumienia i przetwarzania złożonych danych tekstowych. Może być wykorzystywany przy analizie dokumentacji klinicznej, notatkach lekarzy, historiach chorób czy zaleceniach.
Modele są dostępne za pośrednictwem Google Cloud, Hugging Face i Model Garden. Można je uruchamiać lokalnie lub jako skalowalne punkty końcowe przez Vertex AI. Deweloperzy otrzymują również zestaw narzędzi do specjalizacji modeli w takich zadaniach jak triage pacjentów, raportowanie radiologiczne czy tworzenie planów leczenia.
AMIE – inteligentny asystent lekarski nowej generacji
Google przedstawiło również nową wersję AMIE – agenta AI, który łączy analizę tekstu, obrazów oraz danych liczbowych. Narzędzie zostało opracowane przez zespół DeepMind. Nowa wersja potrafi prowadzić rozmowy diagnostyczne, interpretować wyniki badań (w tym EKG i dane laboratoryjne), a także generować spersonalizowane plany leczenia.
AMIE działa dwupoziomowo. Na pierwszym poziomie działa agent dialogowy, który prowadzi rozmowę z pacjentem, zbiera dane i zadaje pytania. Drugim poziomem jest agent zarządzający, który przetwarza zebrane informacje i tworzy plan leczenia zgodny z wytycznymi klinicznymi.
Co ważne, badaniach symulacyjnych AMIE często dorównywał lekarzom rodzinnym pod względem trafności diagnoz, a w niektórych przypadkach nawet ich przewyższał. System okazał się również bardziej empatyczny w kontaktach z pacjentami. To może mieć niebagatelne znaczenie dla poprawy doświadczeń w opiece zdrowotnej.
Nowy ekosystem AI dla zdrowia?
Google udostępnia modele MedGemma jako narzędzia open source. Jednak z wyraźnym zastrzeżeniem – powinny być odpowiednio dostrojone i przetestowane przed zastosowaniem w środowisku klinicznym. Firma podkreśla, że celem nie jest zastąpienie lekarzy, lecz wsparcie ich pracy. Szczególnie tam, gdzie liczba danych przekracza możliwości szybkiej interpretacji przez człowieka.
Wprowadzenie MedGemma i rozwój AMIE wpisują się w szerszą strategię Google, polegającą na tworzeniu otwartego ekosystemu AI dla służby zdrowia. Narzędzia te mogą stać się fundamentem nowych rozwiązań klinicznych. Zarówno dla startupów, jak i dużych instytucji medycznych.
MedGemma i AMIE mogą przyspieszyć transformację cyfrową służby zdrowia, jednocześnie dbając o prywatność i bezpieczeństwo pacjentów. Duże znaczenie ma w tym kontekście połączenie skalowalności, możliwości lokalnego uruchamiania i wsparcia dla różnych formatów danych.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?