Google zaczęło uruchamiać nowe funkcje sztucznej inteligencji Gemini oparte na jej dostępie do aparatu w smartfonie.
Gemini może teraz widzieć to, co mamy na ekranie smartfona lub też to, co teraz rejestruje kamera w naszym telefonie. To potężna zmiana.
Funkcje korzystania na żywo z dostępu do pulpitu lub aparatu w smartfonach są częścią Projektu Astra, nad którym Google intensywnie pracuje od co najmniej roku. Teraz właśnie stopniowo uruchamiane są jego rozwiązania.
Dzięki nim sztuczna inteligencja może np. doradzać nam na żywo, które z płytek w sklepie, które jej pokażemy przez aparat w komórce, najlepiej pasują do stylu, który sobie wymyśleliśmy. Albo czy jakaś tam część będzie odpowiednia do naszego modelu roweru lub samochodu.
Z łatwością też możemy sobie wyobrazić użyteczność tego porad na żywo przez AI w wypadku zakupów żywności na orientalnym targu lub roślin w sklepie ogrodniczym. To jak to działa, Google pokazało na poniższym filmie.
Ale uwaga! To nie jest bezpłatne narzędzie. Z nowego rozwiązania „AI na żywo” mogą korzystać wyłącznie użytkownicy płatnej wersji sztucznej inteligencji Gemini Advanced. A to kosztuje niecałe 100 zł miesięcznie.
Wiadomo, że podobne funkcje „AI na żywo” pojawią się w konkurencyjnych rozwiązaniach asystentów AI. Dostanie je Siri, dostanie jest asystent Amazonu. Ale musimy na nie jeszcze poczekać. I niewykluczone, że nawet kilka miesięcy. Google jest tym razem pierwsze.