10 momentów AI z okazji 25 lat Google’a

Z okazji 25-lecia Google przyjrzało się 10 najważniejszym do tej pory wydarzeniom związanym ze sztuczną inteligencją w Google.

Google 25 lat - logo z Google Doodle

Bez wątpienia sztuczna inteligencja to ostatnio głośny temat. Jednak w Google, już od samego początku poświęcano jej dużo uwagi. AI może ułatwiać wykonywanie rutynowych zadań i pomagać w rozwiązywaniu największych problemów społeczeństwa.

2001: Korzystanie z systemów uczących się do sprawdzania pisowni w wyszukiwarce 

Współzałożyciel Google, Larry Page, powiedział kiedyś: „Idealna wyszukiwarka powinna dokładnie zrozumieć, co masz na myśli, i dać Ci dokładnie to, czego potrzebujesz”. W 2001 roku zrobiono duży krok w kierunku realizacji tej wizji, kiedy po raz pierwszy zaczęto używać prostej wersji systemów uczących się, aby sugerować poprawki pisowni podczas wpisywania zapytań do wyszukiwarki. Dzięki temu każdy mógł znaleźć potrzebne informacje w internecie, nawet jeśli nie był mistrzem ortografii.

2006: Przełamywanie barier językowych dzięki Tłumaczowi Google 

Pięć lat później, w 2006 roku, wprowadzono na rynek Tłumacza Google, który wykorzystuje systemy uczące się do automatycznego tłumaczenia treści w innych językach. Zaczęto od tłumaczeń z języka arabskiego na język angielski i odwrotnie, ale dziś Tłumacz Google obsługuje 133 języki, którymi posługują się 3 miliardy osób na całym świecie. Dzięki temu możecie tłumaczyć tekst, obrazy, a nawet rozmowę w czasie rzeczywistym, co znacznie ułatwia komunikację i zwiększa dostęp do informacji bardziej niż kiedykolwiek wcześniej. 

2015: TensorFlow demokratyzuje sztuczną inteligencję

Wprowadzenie TensorFlow, nowej platformy uczenia maszynowego typu open source, sprawiło, że sztuczna inteligencja stała się bardziej dostępna, skalowalna i wydajna. Pomogło to również przyspieszyć tempo badań i rozwoju sztucznej inteligencji na całym świecie. TensorFlow jest obecnie jednym z najpopularniejszych frameworków uczenia maszynowego i został wykorzystany do opracowania szerokiej gamy aplikacji bazujących na sztucznej inteligencji, od rozpoznawania obrazów po przetwarzanie języka naturalnego i tłumaczenie maszynowe. 

2016: AlphaGo pokonuje mistrza świata w Go 

W ramach Google DeepMind Challenge Match, ponad 200 milionów ludzi oglądało online, jak AlphaGo stał się pierwszym programem AI, który pokonał mistrza świata w Go – złożonej grze planszowej, wcześniej uważanej za niedostępną dla maszyn.

To przełomowe zwycięstwo pokazało potencjał głębokiego uczenia się do rozwiązywania złożonych problemów, które kiedyś uważano za niemożliwe do rozwiązania przez komputery. Zwycięstwo AlphaGo nad Lee Sedolem, jednym z najlepszych graczy Go na świecie, wywołało globalną dyskusję na temat przyszłości sztucznej inteligencji i pokazało, że systemy AI mogą teraz nauczyć się opanowywać złożone gry wymagające strategicznego myślenia i kreatywności. 

2016: Jednostki TPU umożliwiają szybsze i bardziej wydajne wdrażanie sztucznej inteligencji

Jednostki przetwarzania tensorowego (TPU) to specjalnie zaprojektowane układy krzemowe, które opracowaliśmy z myślą o uczeniu maszynowym i zoptymalizowaliśmy pod kątem TensorFlow. Mogą one trenować i uruchamiać modele AI znacznie szybciej niż tradycyjne chipy, co czyni je idealnymi do zastosowań AI na dużą skalę. Wersja v5e, ogłoszona w sierpniu, jest jak dotąd najbardziej opłacalną, wszechstronną i skalowalną jednostką Cloud TPU.

2017: Opracowanie Transformera 

W artykule badawczym z 2017 roku pt.: Attention Is All You Need („Potrzebujemy jedynie uwagi”) Google przedstawiło nową architekturę sieci neuronowej Transformer, która pomaga w zrozumieniu języka. Wcześniej maszyny nie do końca radziły sobie z rozumieniem znaczenia długich zdań, ponieważ nie widziały powiązań między słowami, które były od siebie oddalone w danym zdaniu. Transformer rozwiązał ten problem i od tego czasu jest używany do poprawy wydajności tłumaczeń maszynowych, podsumowań tekstu i systemów odpowiadania na pytania. Stanowi nawet podstawę współczesnych systemów generatywnej AI, np. Barda. 

2019: BERT – rozumienia zapytań łatwiejsze dla wyszukiwarki 

Badania Google’a nad transformatami doprowadziły do wprowadzenia BERT (czyli Bidirectional Encoder Representations from Transformer), które pomogły wyszukiwarce zrozumieć zapytania użytkowników lepiej niż kiedykolwiek wcześniej.

Zamiast starać się zrozumieć pojedyncze słowa, algorytmy BERT pomogły Google zrozumieć cały kontekst. Doprowadziło to do znaczącej poprawy jakości w całej wyszukiwarce i ułatwiło ludziom zadawanie pytań w naturalny sposób, a nie poprzez łączenie słów kluczowych.

2020: Rozwiązanie problemu zwijania białek dzięki modelowi AlphaFold 

W 2020 r, laboratorium DeepMind dokonało kolejnego skoku w dziedzinie AI, wprowadzając model systemów uczących się zwany AlphaFold. W 2020 roku ten model został uznany za rozwiązanie „problemu zwijania się białek”. Białka są elementami składowymi organizmów żywych, a sposób, w jaki się zwijają, determinuje ich funkcję. Nieprawidłowo zwinięte białko może powodować choroby. Przez 50 lat naukowcy próbowali przewidzieć sposób zwinięcia białka, aby pomóc w zrozumieniu i leczeniu chorób. Model AlphaFold właśnie to umożliwił.

W 2022 roku Google udostępniło naukowcom 200 milionów struktur białkowych AlphaFold – obejmujących prawie każdy organizm na planecie, który miał sekwencjonowany genom – za pośrednictwem Bazy Danych Struktur Białkowych AlphaFold. Ponad milion badaczy wykorzystało już tę bazę do pracy. Dzięki temu m.in. przyspieszone zostały prace nad nową szczepionką na malarię, dokonany został postęp w odkrywaniu leków przeciwnowotworowych, opracowany został enzym zjadający plastik. 

2023: Pomoc we współpracy z generatywną AI dzięki Bardowi 

LaMDA, konwersacyjny duży model językowy stworzony przez Google Research w 2021 roku, utorował drogę wielu systemom generatywnej sztucznej inteligencji, które zawładnęły wyobraźnią świata, w tym Barda. Uruchomiony w marcu tego roku Bard jest teraz dostępny w większości krajów świata i w ponad 40 językach, dzięki czemu można go używać do zwiększania produktywności, przyspieszania pomysłów i podsycania ciekawości.

Najmądrzejszy i najbardziej wydajny model Barda połączono z usługami Google’a, z których korzystacie na co dzień, takimi jak Gmail, Dokumenty, Dysk, Loty, Mapy i YouTube. To wszystko po to, by jeszcze bardziej pomóc w zadaniach, takich jak planowanie podróży, sprawdzanie i podsumowywanie wiadomości e-mail lub dokumentów.

2023: Postępy w kwestii przyszłości AI dzięki modelowi PaLM 2 

W maju wprowadzono PaLM 2 – duży model językowy nowej generacji Google’a, który zwiększył możliwości wielojęzyczności, rozumowania i kodowania. Jest szybszy i wydajniejszy niż jego poprzednicy i obsługuje już ponad 25 usług i funkcji Google, w tym Barda i funkcje generatywnej AI w Gmailu i Workspace. Model PaLM 2 używany jest przez giganta również do wewnętrznego wspierania badań we wszystkich dziedzinach, od zdrowia po cyberbezpieczeństwo. 

To tylko niektóre z innowacji Google w zakresie AI, które mają zastosowanie w wielu usługach używanych codziennie przez miliardy ludzi. Przestrzegając Zasad dotyczących AI, Google stosuje odważne i odpowiedzialne podejście do sztucznej inteligencji. Pracuje już nad Gemini, czyli kolejnym modelem stworzonym z myślą o przyszłych innowacjach, które wprowadzi w ciągu następnych 25 lat.

➔ Obserwuj nas w Google News, aby być na bieżąco!

źródło: Google