Apple ograniczyło pracownikom możliwość korzystania z ChatGPT

Apple zakazuje wewnętrznego używania technologii podobnej do ChatGPT w obawie przed wyciekami poufnych dokumentów i informacji.

ChatGPT zablokowany dla pracowników firmy Apple
ChatGPT zablokowany dla pracowników firmy Apple

Wewnętrzne dokumenty i anonimowe źródła ujawniają szczegóły wewnętrznego zakazu Apple dotyczącego technologii podobnej do ChatGPT oraz planów dotyczących własnego modelu dużego języka. Popularność dużych modeli językowych (LLM) wzrosła w ostatnich miesiącach, więc nie jest niespodzianką, że Apple może pracować nad własną wersją. Jednak te narzędzia są nieprzewidywalne i mają tendencję do wycieku danych użytkowników, więc pracownicy mają włączoną blokadę na korzystanie z konkurencyjnych narzędzi.

Raport z The Wall Street Journal ujawnia wewnętrzny dokument Apple’a, w którym czytamy, że firma ogranicza pracownikom Apple możliwość korzystania z ChatGPT, Bard lub podobnych modeli dużych języków (LLM). Anonimowe źródła podały również, że Apple pracuje nad własną wersją technologii, chociaż nie ujawniono żadnych innych szczegółów.

Inne firmy, takie jak Amazon i Verizon, również ograniczyły wewnętrzne korzystanie z narzędzi LLM. Narzędzia te opierają się na dostępie do ogromnych magazynów danych i stale szkolą się na podstawie zachowań użytkowników.

Chociaż użytkownicy mogą wyłączyć rejestrowanie czatu dla produktów takich jak ChatGPT, oprogramowanie może napotkać na błąd i spowodować wyciek danych. Wiodące firmy, takie jak Apple, nie ufają technologii z obawy przed wyciekiem zastrzeżonych danych.

Jeśli nie jesteś pracownikiem Apple korzystającym ze służbowego iPhone’a, aplikacja OpenAI ChatGPT właśnie została uruchomiona w App Storze. Uważaj jednak, istnieje wiele imitacji aplikacji, które próbują oszukać użytkowników.

Apple pracowało i pracuje nad wieloma tajnymi projektami, które nigdy nie ujrzały lub nie ujrzą światła dziennego. Istnienie wewnętrznego rozwoju technologii LLM w Apple nie jest zaskakujące, ponieważ jest to naturalny kolejny krok w stosunku do istniejących systemów uczenia maszynowego.

Modne słowo „sztuczna inteligencja” jest raczej luźno omawiane podczas omawiania LLM, GPT i generatywnej sztucznej inteligencji. Mówiono o tym tak wiele razy, na przykład podczas Google I/O, tak że w większości przypadków straciło to już na znaczeniu.

Sieci neuronowe i uczenie maszynowe nie są niczym nowym dla Apple’a, pomimo relacji ekspertów sugerujących, że Apple jest w jakiś sposób opóźniony w wyścigu AI. Premiera Siri w 2011 roku, po której nastąpił postęp w fotografii obliczeniowej na iPhonie, pokazuje, że Apple zawsze był zaangażowany w inteligentne przetwarzanie poprzez uczenie maszynowe. LLM to ewolucja tego samego zestawu technologii, tylko na znacznie większą skalę.

Niektórzy spodziewają się, że Apple ujawni jakąś formę LLM podczas WWDC 2023 w czerwcu, ale może to być za wcześnie. Technologia dopiero zaczęła przyspieszać, a Apple ma tendencję do czekania, aż jego wewnętrzna wersja dojrzeje, zanim wypuści takie rzeczy.

Obawa Apple przed wyciekiem danych przez LLM nie jest nieuzasadniona. Jednak, jak wynika z czwartkowych raportów, problem wycieku danych nadal jest spowodowany przez czynnik ludzki.

➔ Obserwuj nas w Google News, aby być na bieżąco!

źródło: