Google przedstawił ekscytujące remonty AI na konferencji programistów I/O 2025 i zademonstrował swoją wizję AI na przyszłość. Koncentruje się na wcześniej zaprezentowanym wielomodalnym modelu AI, GEMINI 2.5 Pro, który ma służyć jako podstawa uniwersalnego asystenta cyfrowego. Google Jeśli chodzi o „model światowy”, możesz zrozumieć świat wokół ciebie i odpowiednio zareagować. W tym celu firma opracowała aplikację Gemini i przekazała funkcje, takie jak przetwarzanie języka, zrozumienie wideo i pamięć długoterminowa. Google DeepMind-Depmmind-Depmmind-Ceo Demis Hassabis wyjaśnił: „Naszą ostateczną wizją jest przekształcenie aplikacji Gemini w uniwersalnego asystenta AI, który wykonuje nasze codzienne zadania, zajmuje się naszymi zadaniami administracyjnymi i zapewnia nam atrakcyjne nowe porady-co czyni nas bardziej wydajnymi i wzbogacającymi nasze życie”. Posty na blogu. Teraz zaczyna się od nowych umiejętności, takich jak rozumienie wideo, wydanie ekranu i możliwości pamięci. Hassabis mówi również o przeniesieniu tych opcji do nowych form, takich jak inteligentne okulary (możesz dowiedzieć się więcej o tym poniżej).
Project Sailor: Więcej interakcji międzyludzkich
Żeglarze planują swoją pracę pod nazwą Google Jednocześnie użytkownicy powinni być obsługiwani w wielozadaniowości, szczególnie w przeglądarkach. Obecnie systemy z Ki-Agent mogą wykonywać dziesięć zadań jednocześnie, takich jak zbieranie informacji, przejęcie rezerwacji lub zakupy dla użytkowników. Jednak dostęp był początkowo ograniczony do Stanów Zjednoczonych i Anglików.
W procesie ogłoszeń AI Hassabis jest pełen „nowego złotego wieku odkrywania i cudów”. Wśród nich Google pokazuje głównie ciągłą integrację asystentów maszyn w życiu codziennym.
Moda sztucznej inteligencji: AI Funkcje wyszukiwania
Ale są klasyczne wyszukiwania Google Wyposażony w nowe funkcje AI, niezbyt krótkie. Mówi się, że nazywa się Tryb AI, aby zapewnić głębsze wyniki wyszukiwania i dane wejściowe wielu trybu, a także możliwe jest dalsze siniak podmiot z następującymi pytaniami. Według Google dogłębne wyszukiwanie może również udzielić dokładniejszych odpowiedzi w ramach modelu AI i podsumować je w odpowiednich raportach, które są również oparte na przesłanych obrazach i dokumentach. Ale kamera jest uwzględniona: jako quasi-sucesja dla obiektywu Google wprowadził możliwości korzystania z AI na żywo do analizy i rozmowy o nagraniu w czasie rzeczywistym. „Na przykład, jeśli nie robisz postępów i potrzebujesz pomocy, po prostu kliknij symbol na żywo w trybie AI lub w obiektyw, wyrównaj kamerę i zadaj pytania. Tak więc funkcja wyszukiwania stała się partnerem edukacyjnym, który może zobaczyć, co widzisz. Może wyjaśnić trudne koncepcje i podać sugestie i linki do różnych zasobów, które możesz eksplorować”, instrukcje dla aplikacji Google Google. ”
Ponadto firma ma kilka innych nowych rzeczywistości AI na spotkaniach programistów podłogowych na spotkaniach deweloperów, w tym modę agencyjną dla złożonych zadań, integrację Gemini w Chrome i tworzenie menu na płótnie do podsumowania audio w interaktywnych harmonogramach, zagadkach lub podcastach. Model pozycji obrazu Rysunek 4 powinien być również dziesięć razy szybszy niż poprzednia wersja. Veo 3 po raz pierwszy ma również filmy wyposażone w dźwięk. Ostatni, ale nie mniej więcej przy użyciu przepływu do dostarczania narzędzi opartych na sztucznej inteligencji, szczególnie dla twórców filmowych.
A jeśli naprawdę chcesz uzyskać wszystko od sztucznej inteligencji, możesz zainwestować około 250 USD w subskrypcję premium, Gemini Ultra (początkowo tylko w Stanach Zjednoczonych). Powinno to następnie iść w parze z „maksymalnym dostępem” modeli i funkcji Google AI. A jeśli jesteś bardziej spersonalizowany, grupa otworzy możliwość uzyskania dostępu do informacji Google w celu wyrównania sztucznej inteligencji.
Google okulary 2.0
Największą niespodzianką I/O 2025 jest oczywiście bardziej szczegółowy pomysł na Android XR Google z dala od modelu AI. Po sukcesie Google Szklanki świętują Google za pośrednictwem platformy oprogramowania, aby ponownie wejść na rynek inteligentnych galsów. Jednak grupa zapewnia tylko oprogramowanie, a sprzęt pochodzi od partnerów takich jak Xreal i Samsung. Szklanki powinny być wyposażone w aparat, mikrofon i głośniki, a także warianty z wyświetlaczem i bez. Wyświetlając informacje lub wiadomości nawigacyjne lub wiadomości, a okulary mogą również uzyskać dostęp do aplikacji poprzez interakcję ze smartfonem. Oczywiście Gemini również bezpośrednio go przeanalizował na statku, a użytkownicy również to widzieli.
Chiński producent Xreal zaproponował odpowiedni model z Android XR Glass równolegle z prezentacją Android XR, zwaną Project Aura. Nie jest jednak jasne, kiedy inteligentne okulary wejdą na rynek i ile powinno to kosztować. (STA)
(TagStotranslate) Internet
Source link