AI wykorzystała fale mózgowe ludzi do stworzenia utworu Pink Floydów

Naukowcy odtworzyli utwór „Another Brick in the Wall” zespołu Pink Floyd, używając fal mózgowych pacjentów i sztucznej inteligencji.

Fale mózgowe pacjentów, sztuczna inteligencja (AI) i utwór zespołu Pink Floyd
fot. Depositphotos

Ta technologia może otworzyć drzwi do bardziej efektywnych interfejsów mózg-maszyna. Niedawno opublikowany raport ujawnił wyniki badań i eksperymentów mających na celu rekonstrukcję wzorców muzycznych z fal mózgowych pacjentów i sygnałów elektrycznych przy użyciu sztucznej inteligencji. Celem naukowców jest ulepszenie komunikacji i interfejsów maszyna-mózg dla pacjentów z zaburzeniami neurologicznymi lub innymi schorzeniami uniemożliwiającymi mówienie. Sądząc po wynikach, są na dobrej drodze.

Badanie, pierwotnie opublikowane w PLOS Biology, dotyczyło 29 pacjentów poddawanych operacji mózgu w Albany Medical Center w Nowym Jorku. Podczas operacji, której celem było potencjalne wyleczenie trudnych do opanowania napadów, pacjenci zgłosili się na ochotnika do podłączenia elektrod do ich mózgów, podczas gdy w tle leciała piosenka pt. Another Brick in the Wall zespołu Pink Floyd.

Naukowcy wykorzystali elektrody do zarejestrowania aktywności elektrycznej generowanej przez fale mózgowe każdego pacjenta, a następnie wykorzystali sztuczną inteligencję do analizy i połączenia danych. Rezultatem jest zniekształcone, ale bez wątpienia rozpoznawalne odtworzenie utworu.

Oryginalne nagranie jest dobrze znane ze swojego rytmu i harmonii:

Nagranie oparte na falach mózgowych (poniżej) jest zniekształconym, ale niewątpliwie możliwym do zidentyfikowania odtworzeniem oryginalnego, powyższego 15-sekundowego fragmentu utworu:

Zespół przeszkolił model uczenia maszynowego, wykorzystując dane zebrane od 29 pacjentów-ochotników, aby stworzyć nagrywanie. Według badania naukowcy odtwarzali 90% utworu pacjentom podczas ich zabiegów, pomijając 15-sekundową część. Zespół wykorzystał algorytm sztucznej inteligencji, aby wypełnić lukę, odtwarzając brakujące 15 sekund muzyki, korzystając z zebranych danych dotyczących aktywności mózgu.

Odczytywanie i rekonstrukcja aktywności mózgu nie jest nową dziedziną dla neuronaukowców. Naukowcy wykorzystali już technologie sztucznej inteligencji do dekodowania sygnałów mózgowych na obrazy wizualne i wykorzystali modele oparte na GPT do generowania opisów myśli badanych. Laboratoria przeprowadziły również eksperymenty w innym kierunku – dostarczając obrazy i informacje bezpośrednio do mózgu, omijając receptory, takie jak nerw wzrokowy.

Badanie i jego wyniki mogą stanowić podstawę do stworzenia przyszłych technologii przywracających zdolność mowy pacjentom, którzy utracili tę zdolność z powodu udaru, choroby lub innego urazu. Chociaż nagranie jest dalekie od idealnego odtworzenia, stanowi ogromny krok naprzód w naszej zdolności przywracania mowy i zdolności komunikacyjnych pacjentom niezdolnym do werbalnej interakcji z otaczającym ich światem.

➔ Obserwuj nas w Google News, aby być na bieżąco!

źródło: TechSpot
zdjęcia wykorzystane we wpisie pochodzą z Depositphotos