Apple pracuje nad „realistyczną” lampą-robotem, i jest ona niemal tak słodka, jak lampka z dobrze znanej animacji Pixara.

Apple Machine Learning Research opublikowało krótki film i dwunastostronicowy dokument, w którym pokazano znaczenie ruchu przypominającego ruch człowieka w prototypie robota. To nie pierwszy raz, kiedy słyszymy, że Apple może szykować się do wydania swojego robota. W kwietniu 2024 roku pojawiły się plotki o tajnej pracy Apple nad robotyką, w ramach której firma rzekomo projektuje dwa różne roboty.
➔ PRZECZYTAJ TAKŻE: Serial „Sunny” zadebiutuje 10 lipca na Apple TV+
Teraz wygląda na to, że dział inżynierii sprzętu firmy Apple i grupa AI stworzyły coś, co warto pokazać. I szczerze mówiąc, projekt jest aż za bardzo znajomy. Nowy robot stołowy, po raz pierwszy zauważony przez MacRumors, nie jest coś podobnego do lampy — to jest lampa. Łatwo jest znaleźć bezpośrednie porównania do Luxo Jr, maskotki Pixara. Film zaczyna się od pokazania realistycznego ruchu robota.
Ruch ten nazywa się ELEGNT (z ang. expressive and functional movement design for non-anthropomorphic robot), co oznacza ekspresyjny i funkcjonalny projekt ruchu dla robota nieantropomorficznego. Wydaje się to trochę naciągane, jeśli chodzi o akronimy, jednak porusza się w dość elegancki sposób. Od razu widać, że widz ma być zauroczony robotem. Płynne i ekspresyjne ruchy przekazują ciekawe, łagodne zachowanie.
Film pokazuje, jak realistyczny, nieantropomorficzny robot mógłby wchodzić w interakcję z człowiekiem. Osoba używa gestów do sterowania robotem, pokazując, jak machanie, wskazywanie i pchanie może być używane do przybliżania światła, zmiany jego skupienia lub oddalania. Kiedy porusza książką, robot podąża za nią.

Innym przypadkiem użycia może być zmiana z lampki biurkowej na projektor. Osoba pracująca przy drukarce 3D demonstruje to, gdy robot podjeżdża i wyświetla odpowiedni samouczek, aby jej pomóc. Jednak ogólnie rzecz biorąc, podkreśla, w jaki sposób ekspresyjny robot może zwiększyć zaangażowanie użytkownika. Jest to szczególnie zauważalne, gdy osoba prosi robota o sprawdzenie pogody, a on najpierw odwraca się, by spojrzeć przez okno.
„W badaniu użytkowników porównującym ruchy napędzane ekspresją i ruchy napędzane funkcją w sześciu scenariuszach zadań, nasze ustalenia wskazują, że ruchy napędzane ekspresją znacząco zwiększają zaangażowanie użytkownika i postrzegane cechy robota” — czytamy w streszczeniu.
„Ten efekt jest szczególnie wyraźny w zadaniach zorientowanych społecznie”. Prawdopodobnie jest to ten sam robot, o którym słyszeliśmy w sierpniu. Zasugerowano, że robot może zostać wydany już w 2026 lub 2027 roku i ma mieć cenę około 1000 dolarów.
➔ Obserwuj nas w Google News, aby być na bieżąco!
źródło: Apple Insider via | Apple Machine Learning Research