Segmentacja mobilnego wideo w czasie rzeczywistym jest obecnie dostępna w wersji beta z ograniczoną liczbą wersji tylko dla niektórych użytkowników mobilnych.
Google wprowadza na urządzenia mobilne zaawansowane techniki edycji filmów wideo. Wyszukiwarka używa techniki sztucznej inteligencji i uczenia maszynowego (naturalnego), aby zastąpić tło wideo tak samo łatwo, jak dodanie do zdjęcia filtra na Instagramie.
Na blogu Google Research możecie przeczytać sporo technicznych szczegółów na temat nowego rozwiązania, które wyjaśniają jak to wszystko działa, ale na podstawie osiągniętych efektów można śmiało powiedzieć, że wygląda to całkiem obiecująco. Wszystko bez potrzeby tworzenia rozbudowanego green screenu (zielonego tła).
Obecnie technologia jest dostępna w wersji beta dla ograniczonej liczby użytkowników – niektórych twórców YouTube. Funkcja służy tylko do tworzenia tzw. „historii” przy użyciu nowego formatu wideo.
Przepuszczone przez narzędzie AI Google’a filmy wyglądają jak nagrania wideo ze Snapchata lub Instagrama. Masz wątpliwości, czy efekty są zadowalające? Wystarczy spojrzeć na poniższą próbkę moźliwości:
Rezultaty nie są oczywiście doskonałe – na przykład na niektórych ciemnych elementach występują artefakty przypominające efekt halo – ale jest to dopiero testowa wersja, która zasilana jest interfejsem AI, który cały czas się uczy!
Oto, jak w skrócie działa nowe inteligentne narzędzie do obróbki wideo:
źródło: Engadget via Google Research Blog – Mobile Real-time Video Segmentation