Firma Apple dołącza do Meta, Google i Facebooka w ramach nowej inicjatywy rządu USA na rzecz bezpieczeństwa sztucznej inteligencji.
Na polecenie administracji Bidena Apple stanie się częścią nowego konsorcjum utworzonego przez rząd USA w celu wspierania bezpiecznego rozwoju sztucznej inteligencji. W czwartek sekretarz handlu USA Gina Raimondo uruchomiła nową inicjatywę o nazwie Konsorcjum Amerykańskiego Instytutu Bezpieczeństwa AI (AISIC, z ang. AI Safety Institute Consortium). Powstała ona po wydaniu dekretu wykonawczego z października, nakładającego na Stany Zjednoczone obowiązek przewodzenia w bezpiecznym rozwoju sztucznej inteligencji.
„Rząd USA ma do odegrania znaczącą rolę w ustalaniu standardów i opracowywaniu narzędzi, których potrzebujemy, aby ograniczyć ryzyko i wykorzystać ogromny potencjał sztucznej inteligencji” – stwierdził Raimondo w komunikacie. „Prezydent Biden polecił nam, abyśmy pociągnęli za wszelkie sznurki, aby osiągnąć dwa kluczowe cele: ustanowić standardy bezpieczeństwa i chronić nasz ekosystem innowacji. Właśnie w tym celu utworzono konsorcjum Amerykańskiego Instytutu Bezpieczeństwa AI, aby nam w tym pomóc”.
„Dzięki przełomowemu zarządzeniu wykonawczemu prezydenta Bidena zapewnimy, że Ameryka znajdzie się na czele stawki, a współpracując z tą grupą liderów z przemysłu, społeczeństwa obywatelskiego i środowiska akademickiego, wspólnie możemy stawić czoła tym wyzwaniom, aby opracować pomiary i standardy, których potrzebujemy musimy utrzymać przewagę konkurencyjną Ameryki i odpowiedzialnie rozwijać sztuczną inteligencję” – dodał Raimondo.
Firma Apple zgodziła się na udział, unikając zaangażowania w działania innych osób. Dołącza do grona 200 innych firm działających w tej dziedzinie. Lista obejmuje duże firmy technologiczne, wykonawców z branży obronnej, instytucje edukacyjne i firmy energetyczne.
Poniżej znajdują się niektóre kluczowe firmy:
- Amazon
- AMD
- Cisco Systems
- Hewlett Packard
- IBM
- Intel
- Microsoft
- Meta
- Northrop Grumman
- Nvidia
- Palantir
- Qualcomm
Zarządzenie wykonawcze, które było krokiem inicjującym utworzenie AISIC, zawiera sześć kluczowych zasad.
- Wymagaj, aby twórcy najpotężniejszych systemów sztucznej inteligencji udostępniali rządowi USA wyniki testów bezpieczeństwa i inne istotne informacje.
- Opracuj standardy, narzędzia i testy, które pomogą zapewnić bezpieczeństwo i wiarygodność systemów AI.
- Chroń się przed ryzykiem związanym z wykorzystaniem sztucznej inteligencji do projektowania niebezpiecznych materiałów biologicznych.
- Chroń Amerykanów przed oszustwami opartymi na sztucznej inteligencji, ustanawiając standardy i najlepsze praktyki w zakresie wykrywania treści generowanych przez sztuczną inteligencję i uwierzytelniania oficjalnych treści.
- Utworzenie zaawansowanego programu cyberbezpieczeństwa w celu opracowania narzędzi sztucznej inteligencji do wyszukiwania i naprawiania luk w zabezpieczeniach krytycznego oprogramowania.
- Zarządzenie opracowania Memorandum dotyczącego bezpieczeństwa narodowego, które będzie wyznaczać dalsze działania w zakresie sztucznej inteligencji i bezpieczeństwa.
AISIC wydaje się być pierwszym krokiem w kierunku spełnienia większości wymagań. Nie jest jeszcze jasne, czy istnieją różne poziomy członkostwa, a wymagania dotyczące zaangażowania uczestników nie zostały jeszcze ujawnione.
Rozporządzenie wykonawcze wydane w październiku poprzedziło podjęte w listopadzie międzynarodowe wysiłki mające na celu określenie bezpiecznych ram rozwoju sztucznej inteligencji. Nie jest jeszcze jasne, w jaki sposób te wysiłki się pokrywają i czy w ogóle tak się dzieje.
Dyrektor generalny Apple’a Tim Cook potwierdził, że jego firma wprowadzi generatywną sztuczną inteligencję jeszcze w 2024 roku. Krążą pogłoski, że firma udoskonala Siri dzięki technologii w iOS 18, napędzaną zakupami firm zajmujących się sztuczną inteligencją na przestrzeni lat.
➔ Obserwuj nas w Google News, aby być na bieżąco!
źródło: Apple Insider