29 stycznia 2026 roku Google udostępnił subskrybentom Google AI Ultra eksperymentalny Project Genie. Pozwala on tworzyć i eksplorować interaktywne środowiska 3D na podstawie tekstu lub obrazu. Nowe narzędzie od razu wywołało kontrowersje.
To pierwsza publiczna odsłona technologii opartej na Genie 3, zaprezentowanej przez Google DeepMind w sierpniu 2025 roku. Jednocześnie jest o kolejny temat do trudnych rozmów o granice trenowania modeli, prawa autorskie czy przyszłość branż kreatywnych.
W artykule
Świat generowany w czasie rzeczywistym
Project Genie działa inaczej niż klasyczne generatory grafiki 3D. Użytkownik zaczyna od promptu opisującego środowisko oraz główną postać. System, korzystając z generatora obrazów Nano Banana Pro, tworzy wizualny punkt wyjścia. Ten obraz staje się fundamentem świata, który następnie jest „rozgrywany” w czasie rzeczywistym przez model Genie 3.
To istotna różnica. Świat nie jest gotowy od początku. Powstaje dynamicznie, krok po kroku, w miarę poruszania się użytkownika. Model przewiduje, co powinno znaleźć się za kolejnym zakrętem, jak zmienia się otoczenie i jak reaguje ono na interakcje.
Każda sesja trwa maksymalnie 60 sekund. Obraz renderowany jest w rozdzielczości około 720p przy 24 klatkach na sekundę. Ograniczenie czasu nie wynika z decyzji produktowej, lecz z kosztów obliczeniowych. Jak tłumaczą badacze Google DeepMind, każda sesja wymaga dedykowanego chipa obliczeniowego przypisanego wyłącznie do jednego użytkownika.
Przeczytaj także: AI projektuje inhibitory CRISPR. Przełom w kontroli edycji genów
Co potrafi stworzyć Project Genie?
Narzędzie na ten moment obejmuje 3 podstawowe funkcje:
- Szkicowanie Światów (World Sketching) – pozwalające użytkownikom tworzyć środowiska za pomocą tekstu i obrazów,
- Eksploracja Światów (World Exploration) – generuje ścieżki podczas nawigacji użytkownika,
- Remiksowanie Światów (World Remixing) – służy do przekształcania światów już istniejących w nowe realizacje.
W pierwszych testach Project Genie najlepiej radzi sobie z fantazyjnymi, stylizowanymi światami. Bajkowe zamki, plastyczne tekstury, estetyka przypominająca animację poklatkową czy gry indie wypadają zaskakująco dobrze. Gorzej jest z tworzeniem fotorealistycznych światów.
Światy inspirowane filmową estetyką lub próbujące odwzorować rzeczywistość często wyglądają bardziej jak uproszczone poziomy z gier wideo. Pojawiają się też problemy z płynnością sterowania i spójnością wizualną. Postacie potrafią przenikać przez ściany, a reakcje środowiska bywają opóźnione.
Google otwarcie przyznaje, że Project Genie to prototyp badawczy, a nie gotowy produkt. Ma pokazywać kierunek. Nie zastąpi silników gier czy narzędzi deweloperskich (a przynajmniej tak wynika z obecnych deklaracji).

Modele świata jako nowa arena rywalizacji
Debiut Project Genie wpisuje się w coraz ostrzejszą rywalizację o tzw. world models – systemy AI zdolne do symulowania środowisk i przewidywania skutków działań. Dla wielu badaczy to jeden z fundamentów przyszłej sztucznej inteligencji ogólnej.
W ostatnich miesiącach swoje rozwiązania zaprezentowały m.in. startup World Labs założony przez Fei-Fei Li, Runway z modelem GWM-1 czy AMI Labs, firma rozwijana przez byłego głównego naukowca Meta. Google, wchodząc do tego wyścigu, jasno komunikuje, że traktuje modele świata jako strategiczny obszar rozwoju.
Kontrowersje wokół praw autorskich
Project Genie niemal natychmiast wzbudził jednak kontrowersje. Użytkownicy zauważyli, że narzędzie potrafi generować światy wyraźnie przypominające znane gry, w tym produkcje Nintendo. Pojawiły się środowiska łudząco podobne do Super Mario 64 czy The Legend of Zelda: Breath of the Wild.
Google początkowo tłumaczył, że system realizuje polecenia użytkownika i jest oparty głównie na ogólnodostępnych danych z internetu. Krótko po nagłośnieniu sprawy wprowadzono jednak dodatkowe blokady, powołując się na ochronę interesów zewnętrznych właścicieli treści.
Sytuacja przypomina wcześniejsze problemy branży generatywnej AI z trenowaniem modeli na materiałach chronionych prawem autorskim. I pokazuje, że modele świata mogą jeszcze mocniej zaostrzyć te spory, bo nie generują pojedynczych obrazów, lecz całe, grywalne doświadczenia.

Reakcja rynku i obawy branży gier
Zapowiedź Project Genie odbiła się także na rynkach finansowych. akcje firm związanych z technologiami gamingowymi, takich jak Unity Software, Roblox czy Take-Two Interactive, zanotowały wyraźne spadki już 30 stycznia.
Inwestorzy obawiają się, że generatywne narzędzia do tworzenia światów mogą w dłuższej perspektywie podważyć dotychczasowe modele produkcji gier. Google stara się studzić emocje, podkreślając, że Project Genie nie jest silnikiem gier i nie pozwala tworzyć pełnych, wielogodzinnych doświadczeń.
Przeczytaj także: Agenci AI działają szybciej niż zabezpieczenia. Firmy tracą kontrolę nad dostępem do systemów
Dalsze plany wobec Project Genie
Google zapowiada stopniowe rozszerzanie dostępu do narzędzia poza USA oraz dalsze prace nad funkcjami, które nie znalazły się w obecnej wersji. W planach są m.in. zdarzenia wywoływane komendami czy większa kontrola nad zachowaniem świata w trakcie eksploracji.
Na tym etapie Project Genie jest raczej demonstracją możliwości niż produktem. Jednak to demonstracja, która jasno pokazuje, w jakim kierunku zmierza rozwój generatywnej AI. Od pojedynczych treści do całych, dynamicznych rzeczywistości.
– Nie postrzegamy tego jako gotowego produktu, do którego ludzie mogliby wracać codziennie, ale uważamy, że już teraz widać zarys czegoś interesującego i wyjątkowego – stwierdził w rozmowie z TechCrunch Shlomi Fruchter, dyrektor ds. badań w DeepMind.
Porozmawiaj z nami o sztucznej inteligencji
Dołącz do grupy "AI Business" na Facebooku
Polecamy e-book o AI
AI w marketingu – jak zwiększyć sprzedaż i zaangażowanie klientów?
Test Turinga: Czy AI jest już inteligentniejsze od człowieka?