Znam Siri, asystenta głosowego Apple, od prawie kilkunastu lat, a mimo to nie pamiętam ani jednej sensownej rozmowy, którą odbyliśmy. I odwrotnie, ChatGPT i ja znamy się od sześciu miesięcy i wciąż rozmawiamy o wszystkim, od sensu życia po planowanie romantycznej kolacji we dwoje, a nawet współpracowaliśmy przy projektach programistycznych i filmowych. Mam na myśli, że mamy związek.
Ograniczenia Siri oznaczają, że nadal nie może prowadzić rozmowy ani angażować się w długie, zorientowane na projekt projekty tam iz powrotem. Na dobre i na złe, Siri, którego używamy dzisiaj na naszych iPhone’ach, iPadach, MacBookach, zegarkach Apple i Apple TV, nie różni się zbytnio od tego, z którym po raz pierwszy spotkaliśmy się na iPhonie 4s w 2011 roku.
Pisałem o tym sześć lat temu Pierwszy przeszczep mózgu Siri (otwiera się w nowej karcie), w momencie, gdy Apple zaczęło używać uczenia maszynowego do szkolenia Siri i poprawy jego zdolności do odpowiadania na pytania konwersacji. Wprowadzenie uczenia maszynowego, a wkrótce potem zintegrowana sieć neuronowa w postaci chipa Apple A11 Bionic, w iPhonie 8 oznaczało coś, co uważałem za punkt zwrotny dla prawdopodobnie pierwszego konsumenckiego asystenta cyfrowego.
To programowanie i krzem pomogły Siri zrozumieć pytanie i jego kontekst, umożliwiając jej udzielanie inteligentnych odpowiedzi na pytania w języku naturalnym wykraczające poza rutynowe odpowiedzi.
Wczesna Siri nie była nią
Brak możliwości przeprowadzenia pełnej rozmowy z Siri nie wydawał się wielkim problemem, mimo że widzieliśmy już film Jej i zrozumieliśmy, czego ostatecznie możemy oczekiwać od naszych chatbotów.
Ale dopiero gdy ta niegdyś odległa przyszłość została przeniesiona do teraźniejszości przez GPT-3 i ChatGPT OpenAI, niedociągnięcia Siri zostały przedstawione z perspektywy.
Pomimo najlepszych starań firmy Apple, Siri jest w trybie uczenia się. Być może dzieje się tak dlatego, że Siri nadal opiera się głównie na uczeniu maszynowym, a nie na generatywnej sztucznej inteligencji. To jest różnica między uczeniem się a tworzeniem.
Wszystkie generatywne chatboty AI i narzędzia graficzne, których używamy dzisiaj, tworzą coś zupełnie nowego z monitów, a wkrótce sztuki i obrazów. To nie są boty odpowiedzi, to roboty budujące.
Wątpię, aby cokolwiek z tego zostało utracone w Apple. Pytanie brzmi, co zrobi i może Apple z tym zrobić? Myślę, że nie musimy szukać dalej niż nadchodząca World Wide Developers Conference (WWDC 2023). Wszyscy jesteśmy skupieni na możliwym zestawie słuchawkowym rzeczywistości mieszanej o wartości 3000 USD, który Apple może zaprezentować w czerwcu, ale najważniejsze ogłoszenia firmy z pewnością będą dotyczyć sztucznej inteligencji.
„Apple musi być pod niesamowitą presją teraz, gdy Google i Microsoft wdrożyły swoje rozwiązania w zakresie języka naturalnego” – powiedział dyrektor generalny i główny analityk Moor Insights Patricka Moorkopfa (otwiera się w nowej karcie) powiedział mi przez twitter DM.
Bardziej rozmowna Siri
Jak zgłoszone w 9to5MacApple może już pracować – wreszcie – nad własną aktualizacją do generowania głosu dla Siri (Bobcat). Zauważ, że to nie to samo, co „generatywna sztuczna inteligencja”. Myślę, że oznacza to, że Siri staje się trochę lepsza w okazjonalnych przekomarzaniach. Więcej też nie oczekuję.
Niestety własny etos Apple może uniemożliwić mu dogonienie GPT-4, nie mówiąc już o GPT-3. Obserwatorzy branży raczej nie spodziewają się przełomu.
„Myślę, że to, co robią w AI, niekoniecznie będzie skokiem, będzie to wykalkulowane i bardziej etyczne podejście do AI w Siri. Apple kocha, żyje i umiera za swoje zobowiązania dotyczące prywatności i nie oczekuję niczego innego od ich wydajności w przypadku Siri opartej na sztucznej inteligencji” – powiedział Tim Bajarin, dyrektor generalny i główny analityk w Creative Strategies (otwiera się w nowej karcie) napisał do mnie w e-mailu.
Prywatność przede wszystkim
Niezłomne przestrzeganie przez Apple prywatności użytkowników może ją sparaliżować, jeśli chodzi o prawdziwą generatywną sztuczną inteligencję. W przeciwieństwie do Google i Microsoft Bing, nie ma ogromnego repozytorium opartego na wyszukiwarkach, z którego można by skorzystać. Nie trenuje też swojej sztucznej inteligencji na ogromnym oceanie danych internetowych. Apple uruchamia swoje uczenie maszynowe na urządzeniu. iPhone i Siri wiedzą to, co wiedzą o tobie na podstawie zawartości twojego telefonu, a nie tego, czego Apple może dowiedzieć się o tobie i 1,5 miliarda użytkowników iPhone’a na całym świecie. Jasne, programiści mogą używać narzędzi ML firmy Apple do tworzenia nowych modeli sztucznej inteligencji i integrowania ich ze swoimi aplikacjami, ale nie mogą po prostu zbierać danych, aby dowiedzieć się więcej o tobie i pomóc Apple ulepszyć Siri — Zapewnij sztuczną inteligencję.
Jak napisałem w 2016 r.: „Interesujące jest również rozważenie celowego utrudniania przez Apple własnych wysiłków w zakresie sztucznej inteligencji. Na przykład Twoje dane dotyczące nawyków zakupowych w iTunes nie są udostępniane innym systemom i usługom Apple”.
Lokalne podejście Apple może utrudnić jego potencjalne wysiłki w zakresie generatywnej sztucznej inteligencji. Jak powiedział mi Moorhead: „Widzę większość działań na urządzeniu i w chmurze. Apple jest silny na urządzeniach, ale słaby w chmurze i myślę, że tutaj firma będzie walczyć”.
Moim zdaniem Apple ma wybór. Zrezygnuj z prywatności użytkowników, aby w końcu zmienić Siri w asystenta głosowego, którego zawsze chcieliśmy, lub pozostań na kursie dzięki przyrostowym aktualizacjom AI, które ulepszają Siri, ale nigdy nie pozwalają jej konkurować z ChatGPT.