Fremtidens AI vil kende dine følelser
Kunstig intelligens arbejder under motorhjelmen på mange af de teknologier, vi bruger til hverdag. F.eks. gør AI-algoritmer det muligt for Siri og andre digitale assistenter at forstå, hvad vi siger til dem.
Men hvad nu hvis kunstig intelligens også kunne mærke, hvad vi føler?
Det er kernen i forskningsfeltet emotion AI, som bl.a. spås en fremtid inden for reklame, underholdning og flere andre brancher.
”Man kan forestille sig en hotline-service, der fortæller supportmedarbejderen, at han får en sur kunde i røret om lidt. Eller firmaer, der kan evaluere folks reaktioner på et produkt, før det rent faktisk er udviklet eller lanceret,” siger Jens Madsen, der er post.doc. ved Department of Biomedical Engineering, City College of New York.
Komplekse følelser
I de nævnte eksempler kan AI-algoritmen analysere kropslige kendetegn som mimik, kropssprog og stemmeføring opfanget via webcam og mikrofon og finde mønstre i data, der f.eks afslører tegn på vrede eller begejstring.
Emotion AI er stadig i sin spæde begyndelse, og en af udfordringerne ved feltet er, at menneskelige følelser kan være komplicerede:
”Nogle gange prøver man at virke glad, mens man egentlig kan være trist inden i. Spørgsmålet bliver så om, algoritmerne kan se forskellen. Vi skal huske på at algoritmerne lærer fra data, og de kan kun blive så gode, som data nu engang er,” forklarer Jens Madsen.
En måde at komme tættere på følelserne er ved at opfange mere direkte tegn som puls fra wearables som f.eks. fitnessure med en teknik kaldet fotopletysmografi (PPG). Hvis ellers vi ønsker det:
”I sidste ende skal den enkeltes privatliv vejes op mod den øgede funktionalitet, som den pågældende tjeneste tilbyder,” siger Jens Madsen.