Prezes Applea’a zdradził, która funkcja Apple Intelligence cieszy się największym zainteresowaniem i jak nadchodzące aktualizacje iOS 26.4 zmienią sposób, w jaki korzystamy z iPhone’a.

Po ogłoszeniu rekordowych wyników finansowych za pierwszy kwartał 2026 roku, prezes Apple’a Tim Cook, podzielił się ciekawym spostrzeżeniem. Choć pakiet AI od giganta z Cupertino jest rozbudowany, jedna funkcja wyraźnie zdominowała wybory użytkowników.
Podczas telekonferencji z inwestorami Cook przyznał, że to Visual Intelligence jest obecnie najczęściej używanym narzędziem w ramach ekosystemu Apple Intelligence. Rozwiązanie to, będące odpowiedzią Apple na Google Lens, pozwala użytkownikom na interakcję z otaczającym światem za pomocą aparatu w sposób, który do tej pory nie był tak głęboko zintegrowany z systemem iOS.
Czym jest Visual Intelligence i jak działa?
Visual Intelligence to „inteligentne oko” iPhone’a. Funkcja ta pozwala na błyskawiczne pozyskiwanie informacji o obiektach znajdujących się w kadrze. Użytkownicy najczęściej wykorzystują ją do:
- Sprawdzania restauracji: Wystarczy skierować aparat na lokal, by zobaczyć godziny otwarcia, oceny oraz menu.
- Tłumaczeń i pracy z tekstem: System potrafi w czasie rzeczywistym tłumaczyć napisy, streszczać długie dokumenty czy odczytywać tekst na głos.
- Rozpoznawania obiektów: Od identyfikacji rzadkich gatunków roślin i zwierząt, po wskazywanie punktów orientacyjnych w obcych miastach.
Które modele obsługują nową funkcję?
Dostęp do Visual Intelligence zależy od posiadanego modelu oraz fizycznych przycisków urządzenia:
- Linie iPhone 16 i iPhone 17 (w tym iPhone Air): Funkcja jest zintegrowana z dedykowanym przyciskiem Sterowania Aparatem (Camera Control).
- iPhone 15 Pro, 15 Pro Max oraz iPhone 16e: Użytkownicy tych modeli mogą przypisać Visual Intelligence do Przycisku Akcji lub wywołać ją bezpośrednio z Centrum Sterowania.
Apple Intelligence to nie tylko aparat
Choć Visual Intelligence wiedzie prym, Tim Cook podkreślił, że tempo wdrażania całej inicjatywy AI (rozpoczętej w 2024 roku) jest bardzo wysokie. Obecnie użytkownicy chętnie korzystają również z:
- Streszczania wiadomości e-mail oraz całych witryn internetowych.
- Narzędzi do pisania, które pozwalają zmieniać ton wypowiedzi.
- Image Playground: Tworzenia grafik w stylu anime, obrazów olejnych czy akwareli.
- Tworzenia spersonalizowanych Genmoji.
Czy Siri to porażka? Nadchodzi wielka zmiana
W kuluarach branżowych mówi się, że powolne wdrażanie zaawansowanych funkcji Siri sprawiło, iż Apple Intelligence przez wielu zostało uznane za „falstart”. Brakuje przede wszystkim pełnej funkcjonalności chatbota, która ma pojawić się dopiero w iOS 27.
Nadzieję niesie jednak nadchodząca aktualizacja iOS 26.4, która ma odmienić oblicze asystenta. Siri stanie się modelem LLM (Large Language Model), co pozwoli na:
- Naturalne rozmowy: Koniec ze sztywnymi komendami – asystent zrozumie złożone konteksty.
- Personal Siri: Możliwość zadawania pytań o prywatne dane, np. „O której godzinie brat pisał, że przyjedzie?”. Siri przeszuka wiadomości, e-maile i kalendarz, by podać odpowiedź.
- Akcje między aplikacjami: Będzie można wydać polecenie typu „Edytuj to zdjęcie i wyślij je do mamy”, a system sam wykona ciąg operacji.
Dla tych, którzy nie chcą czekać na pełną rewolucję w iOS 27, alternatywą pozostaje Google Gemini w telefonach Pixel, jednak Apple wierzy, że głęboka integracja z prywatnymi danymi użytkownika (Personal Context) w wersji 26.4 przekona nieufnych do ich wizji sztucznej inteligencji.
➔ Obserwuj nas w Google News, aby być na bieżąco!
źródło: Apple | Phone Arena