technologia
Wszystko ogłoszone na Google I/O 2024, w tym Gemini AI, Project Astra, Android 15 i nie tylko
Pod koniec I/O, corocznej konferencji programistów Google w Shoreline Amphitheatre w Mountain View, dyrektor generalny Google Sundar Pichai ujawnił, że firma powiedziała „AI” 121 razy. To było w zasadzie sednem dwugodzinnego przemówienia Google: wepchnij sztuczną inteligencję do każdej aplikacji i usługi Google, z której korzystają ponad dwa miliardy ludzi na całym świecie. Oto wszystkie najważniejsze aktualizacje, które Google ogłosił podczas wydarzenia.
Gemini 1.5 Flash i aktualizacje do Gemini 1.5 Pro
Google ogłosiło zupełnie nowy model sztucznej inteligencji o nazwie Gemini 1.5 Flash, który ma być zoptymalizowany pod kątem szybkości i wydajności. Flash plasuje się pomiędzy Gemini 1.5 Pro i Gemini 1.5 Nano, najmniejszym modelem firmy działającym lokalnie na urządzeniu. Google twierdzi, że opracowało Flasha, ponieważ programiści chcieli lżejszego i tańszego modelu niż Gemini Pro do tworzenia aplikacji i usług opartych na sztucznej inteligencji, zachowując jednocześnie takie elementy, jak długie okno kontekstowe zawierające milion tokenów. Gemini Pro od konkurencyjnych modeli różni się od tego rozwiązania. Jeszcze w tym roku Google podwoi okno kontekstowe Gemini do dwóch milionów tokenów, co oznacza, że będzie w stanie przesyłać strumieniowo dwie godziny wideo, 22 godziny audio, ponad 60 000 linii kodu lub ponad 1,4 miliona słów w tym samym czasie. .
Projekt Astra
Google zaprezentowało Project Astra, wczesną wersję uniwersalnego asystenta opartego na sztucznej inteligencji, który według Demisa Hassabisa, dyrektora generalnego Google DeepMind, to opracowana przez Google wersja agenta AI, „która może być pomocna w życiu codziennym”.
W filmie, który według Google został nakręcony w jednym ujęciu, użytkownik Astry porusza się po londyńskim biurze Google, trzymając telefon i kierując aparat na różne rzeczy – głośnik, kod na tablicy i na jedno okno – i ma naturalna rozmowa z aplikacją na temat tego, jak się wydaje. W jednym z najbardziej imponujących momentów filmu poprawnie informuje użytkownika, gdzie wcześniej zostawiła okulary, a użytkownik nawet nie podnosił ich.
Film kończy się nieoczekiwanym zwrotem akcji: gdy użytkownik znajduje i zakłada brakujące okulary, dowiadujemy się, że ma wbudowany system kamer i może używać Project Astra do płynnego kontynuowania rozmowy z użytkownikiem, być może sugerując, że Google może działać za pośrednictwem konkurent inteligentnych okularów Ray-Ban firmy Meta.
Zapytaj Zdjęcia Google
Zdjęcia Google były już inteligentne, jeśli chodzi o wyszukiwanie określonych zdjęć lub filmów, ale dzięki sztucznej inteligencji Google idzie o krok dalej. Jeśli jesteś subskrybentem Google One w USA, możesz zadać Zdjęciom Google złożone pytanie, na przykład: B. „Pokaż mi najlepsze zdjęcie z każdego parku narodowego, który odwiedziłem”, gdy funkcja zostanie wprowadzona w ciągu najbliższych kilku miesięcy. Zdjęcia Google wykorzystują informacje GPS oraz własną ocenę tego, co jest „najlepsze”, aby przedstawić Ci opcje. Możesz także poprosić Zdjęcia Google o utworzenie podpisów do publikowania zdjęć w mediach społecznościowych.
Veo i obraz 3
Nowe silniki Google do tworzenia multimediów oparte na sztucznej inteligencji nazywają się Veo i Imagen 3. Veo to odpowiedź Google na Sora OpenAI. Może generować „wysokiej jakości” filmy w rozdzielczości 1080p, które mogą trwać „ponad minutę” – twierdzi Google i potrafi rozumieć koncepcje kinowe, takie jak poklatkowe.
Z drugiej strony Imagen 3 to generator zamiany tekstu na obraz, który według Google radzi sobie z tekstem lepiej niż jego poprzednia wersja, Imagen 2. Rezultatem jest najwyższej jakości model firmy zajmujący się zamianą tekstu na obraz z „niesamowitym poziomem szczegółowości „dla „fotorealistycznych, realistycznych obrazów” i mniejszej liczby artefaktów – zasadniczo w porównaniu z DALLE-3 OpenAI.
Duże aktualizacje wyszukiwarki Google
Google wprowadza duże zmiany w sposobie działania wyszukiwania. Większość ogłoszonych dzisiaj aktualizacji obejmuje możliwość zadawania naprawdę skomplikowanych pytań („Znajdź najlepsze studia jogi lub pilates w Bostonie i przeglądaj szczegółowe informacje na temat ich ofert wprowadzających oraz czasu spaceru do Beacon Hill”) oraz korzystanie z wyszukiwarki do planowania posiłków i posiłków. wakacje Jest dostępna tylko po zarejestrowaniu się w Search Labs, platformie firmy, na której użytkownicy mogą wypróbowywać funkcje eksperymentalne.
Jednak nowa, duża funkcja, którą Google nazywa Przeglądami AI, którą firma testuje od roku, w końcu zostaje udostępniona milionom ludzi w USA. Wyszukiwarka Google oprócz wyników domyślnie wyświetla teraz odpowiedzi wygenerowane przez sztuczną inteligencję, a firma twierdzi, że do końca roku udostępni tę funkcję ponad miliardowi użytkowników na całym świecie.
Bliźnięta na Androidzie
Google integruje Gemini bezpośrednio z Androidem. Kiedy Android 15 zostanie wydany jeszcze w tym roku, Gemini rozpozna uruchomioną aplikację, obraz lub film i będzie można wyświetlić je jako nakładkę i zadać pytania kontekstowe. Gdzie to pozostawia Asystenta Google, który już to robi? Kto wie! Google w ogóle nie wspomniał o tym w dzisiejszym przemówieniu.
Wprowadzono także szereg innych aktualizacji. Google twierdzi, że doda cyfrowe znaki wodne do filmów i tekstów generowanych przez sztuczną inteligencję, udostępni Gemini na panelu bocznym w Gmailu i Dokumentach, będzie wspierać wirtualnego członka zespołu AI w Workspace, będzie słuchać rozmów telefonicznych i wykrywać w czasie rzeczywistym, czy ktoś Cię oszukał , i więcej .
Poznaj najświeższe informacje z Google I/O 2024 Tutaj!