Firma Google ogłosiła również skupiające się na ułatwieniach dostępu aktualizacje funkcji napisów na żywo i Map Google.
Przeglądarka Google Chrome będzie teraz sprawdzać literówki popełniane przez użytkowników we wpisywanych adresach URL i wyświetlać sugerowane strony internetowe na podstawie tego, co myśli, że chcieli wpisać. Firma ogłosiła zmianę w ramach większej aktualizacji ułatwień dostępu i twierdzi, że funkcja pojawi się najpierw w przeglądarce Chrome w wersji na komputery, zanim pojawi się na urządzeniach mobilnych w „nadchodzących miesiącach”.
Zobacz też: iPhone przemówi Twoim głosem po 15 min uczenia
Wydaje się, że poprawianie literówek to przydatne narzędzie, które pozwala upewnić się, że trafiasz na właściwe strony internetowe (a nie te wątpliwe, na które często trafiasz, gdy błędnie wpiszesz nazwę popularnej strony).
Ponadto Google ujawniło kilka aktualizacji funkcji napisów na żywo, która transkrybuje to, co ktoś mówi w czasie rzeczywistym. Teraz będziesz mógł wpisać odpowiedź podczas rozmowy telefonicznej i przeczytać ją na głos dzwoniącemu. Chociaż ta funkcja pojawi się najpierw na „najnowszych” urządzeniach Pixel, później pojawi się na starszych telefonach Pixel i innych urządzeniach z Androidem.
Google wprowadza również zoptymalizowane pole napisów na tabletach z Androidem i doda obsługę napisów na żywo dla języka francuskiego, włoskiego i niemieckiego na Pixel 4 i 5, a także na innych urządzeniach z Androidem.
W Mapach Google pojawia się kolejna przydatna aktualizacja, która sprawia, że ikona dostępna dla wózków inwalidzkich jest widoczna dla wszystkich. Wcześniej tak nie było, ponieważ trzeba było włączyć funkcję Miejsc z ułatwieniami dostępu w Mapach, aby sprawdzić, czy miejsce ma wejście bez schodów.
Na koniec Google ogłosiło zamkniętą wersję beta kilku nowych funkcji w aplikacji Lookout dla użytkowników niewidomych lub niedowidzących. Aplikacja oparta na sztucznej inteligencji może teraz przetwarzać i generować opisy obrazów niezależnie od tego, czy zawierają tekst alternatywny lub podpisy. Użytkownicy mogą następnie zadawać dalsze pytania dotyczące tych obrazów, na które aplikacja spróbuje odpowiedzieć, korzystając z zaawansowanego modelu języka wizualnego z Google DeepMind.
➔ Obserwuj nas w Google News, aby być na bieżąco!
źródło: Google | The Verge