Apple har publicerat en ny forskningsstudie som antyder något som för bara några år sedan hade låtit som ren science fiction: hörlurar som kan tolka hjärnvågor. I studien presenterar Apple en metod kallad PARS (PAirwise Relative Shift), en AI-modell som kan lära sig av hjärnans elektriska signaler — helt utan att forskare först behöver märka upp datapunkter för hand.
Traditionellt har EEG-forskning krävt att experter manuellt talar om för modellen vad den ska leta efter: var en sömnfas börjar, när ett epileptiskt anfall inträffar eller när en viss hjärnaktivitet uppstår. Apples metod fungerar tvärtom. Genom att mata modellen med helt rå EEG-data och låta den analysera tidsavstånd och mönster mellan slumpmässiga segment, börjar AI:n själv upptäcka strukturer i hjärnsignalerna. Utan vägledning — och utan etiketter.
Det är inte svårt att se vad Apple kan ha i sikte. I studien nämns inga produkter, men bolaget har under flera år arbetat med biometriska funktioner i AirPods. Kombinationen av in-ear-sensorer och extremt avancerade AI-modeller öppnar för en rad nya användningsområden. Tänk AirPods som håller koll på dina sömncykler med medicinsk precision, som varnar för neurologiska avvikelser långt innan du själv märker dem — eller som låter dig styra funktioner med subtila tanke-relaterade mönster istället för rösten.
Att tekniken skulle dyka upp i nästa AirPods-generation är osannolikt, men mycket talar dock för att Apple redan nu lägger grunden för funktioner som kan bli en del av AirPods Pro 5 eller 6.


