KI og DNN i høreapparat
Alt du trenger å vite
Verden synes å ha eksplodert med uttrykk som kunstig intelligens, språklæringsmodeller, dype nevrale nettverk, maskinlæring og lignende. Mye av denne teknologien har eksistert i årevis, men de nylige lanseringene av KI-verktøy som kan gjøre alt fra å skrive et essay til å finne kreft i MR-skanning har fått mye oppmerksomhet i media, hos styresmaktene, bedrifter og generelt i menneskers hverdag. Mange er også bekymret for hvor raskt ting endrer seg.
Denne typen teknologi kan fremstå veldig komplisert, men når du først har lært deg litt mer om de grunnleggende definisjonene og begrepene vil det være enklere å diskutere emnet.


Hva er DNN?
Grunnleggende om dype, nevrale nettverk - DNN
Et dypt, nevralt nettverk (DNN) er en type kunstig nodenettverk - Artificial Node Network, ANN. På samme måte som individuelle nevroner i den menneskelige hjernen, samarbeider noder i et kunstig, nevralt nettverk (ANN) for å lære og løse problemer basert på informasjon som mates inn.
Et DNN har ett eller flere skjulte nodelag mellom lagene med inndata og utdata, noe som betyr at med riktig trening kan det lettere gjenkjenne mønstre og løse komplekse problemer - tilsvarende slik vi hver dag gjør med hjernen vår.
Måten et DNN lærer på, er gjennom opplæring i informasjon som mates inn og maskinlæring, som er prosessen et nevralt nettverk bruker for å programmere (eller lære) seg selv. DNN-er kan trenes på alle forskjellige typer data og informasjon, inkludert bilder, tekst, videoer, lyd og mer.
For å trene et dypt nevralt nettverk (DNN), blir algoritmen vist mange par av inndata og merkede utdata. Deretter må algoritmen selv ‘lære’ hvilke regler som kan brukes for å komme fram til riktig utdata for gitte inndata, gjennom gjentatte forsøk og kontinuerlig tilbakemelding på disse forsøkene.
Ved å bruke et stort datasett med mye variasjon, vil det dype nevrale nettverket (DNN) etter hvert kunne generalisere – med andre ord, håndtere data det aldri har sett før på en nøyaktig måte.
For eksempel, hvis datasettet inneholder 10 bilder av hester, kan DNN klare å gjenkjenne et nytt bilde av en hest i bare 5 % av tilfellene. De resterende 95 % av gangene kan det tro at det ser på en hund eller et bord. Men hvis treningsdatasettet inneholder 10 000 bilder av hester, vil DNN sannsynligvis klare å identifisere et nytt bilde av en hest nesten 100 % av gangene.
Akkurat som med en menneskelig hjerne blir et DNN bedre på å kjenne igjen mønstre og ta beslutninger jo mer informasjon det har blitt trent på.
Hvorfor størrelsen på DNN har noe å si
Vi har gått gjennom hvordan et dypt nevralt nettverk (DNN) har tre typer nodelag – inndata-laget, utdata-laget og de skjulte lagene imellom. Det er i de skjulte lagene magien skjer. Generelt gjelder det at jo flere lag og noder per lag, desto flere beregninger – eller "tenking" – kan DNN utføre mellom inn- og utdata. Dette betyr at DNN kan håndtere stadig mer komplekse oppgaver.
Måten de skjulte lagene er strukturert og koblet sammen på, spiller også en avgjørende rolle for hvordan nettverket fungerer. På bakgrunn av dette kan DNN-oppbyggingen optimaliseres for å utføre visse oppgaver bedre enn andre.
Du kan tenke på det som hjernen til ulike dyr: jo større hjerne og jo tettere pakket med nevroner, desto "smartere" er skapningen. Et lite DNN med bare ett enkelt skjult lag kan sammenlignes med hjernen til en liten frosk, mens et stort DNN med mange lag er mer som en menneskehjerne.
Avansert tenking og problemløsning i et DNN er i bunn og grunn et matematisk resultat av at flere noder gjør flere beregninger for å gi bedre resultater.
I tillegg kan vi trene større DNN-er på større datasett; de kan dermed få tilgang til mye mer informasjon for å ta bedre beslutninger. Frosken fra tidligere vil ikke klare seg særlig godt med å lære alfabetet sammenlignet med en av oss med menneskehjerne.
Et stort DNN med en optimal arkitektur vil kunne utnytte langt mer data i beregningene sine enn et lite DNN med begrenset kapasitet.
Dype nevrale nettverk (DNN) i høreapparater
Det finnes for øyeblikket tre måter høreapparater bruker DNN-er på.
Den første – og mest vanlige – måten et høreapparat bruker et DNN på, er til å klassifisere lydmiljøet. Produsenten trener opp en klassifisering av lydmiljø ved hjelp av ulike lyder for å lære høreapparatet når det skal aktivere eller deaktivere visse funksjoner.
For å bruke eksempelet fra tidligere: dette tilsvarer å lære høreapparatet at en hest er en hest og ikke et bord – eller mer relevant for høreapparater, å lære det å skille mellom tale i støy og bare støy.
Høreapparat kan også bruke DNN for enkel støydemping. Dette ligner på tradisjonell støydempingsteknologi, hvor høreapparatet lærer hvilke lyder som er uønsket støy og forsøker å redusere dem ved selektivt å dempe forsterkningen.
Den tredje – og mest unike – måten høreapparater bruker DNN på, er til å umiddelbart skille tale fra støy. Denne type DNN gjør at høreapparatet ikke har behov for smal retningsstyring, og lar brukeren høre flere talere fra ulike retninger. Dette oppnås ved å identifisere og isolere tale, slik at den kan beholdes og forsterkes.
Ikke alle DNN-er er like
Små DNN-er som primært brukes til å klassifisere lydmiljøer, må være aktivert hele tiden. Dette fordi det er slik de avgjør hvilke programmer og funksjoner som skal brukes når lydmiljøet endrer seg.
Det store, unikt strukturerte DNN-et i Infinio Sphere aktiveres ved behov for "lydrensing" i sanntid, som når brukeren går inn i et støyende miljø, for eksempel en restaurant med mye folk.
Andre merker bruker også små DNN-er for å hjelpe med støykontroll, men med ganske begrenset effekt for brukeren, siden det er et begrenset antall noder som står for "tenkingen".


KI i høreapparater
KI i høreapparater er ikke en funksjon du kan måle direkte, men KI-drevne funksjoner kan tilby fordeler for brukeren. Alle kan si at de bruker KI, men hvilke fordeler har bruk av dette for helsepersonell og brukere?
Svaret kan variere fra leverandør til leverandør.
Ulik bruk av kunstig intelligens (KI/AI)
Klassifisering av lydmiljø og styring av funksjoner
Noen produsenter bruker små DNN-er for å klassifisere lytteomgivelser eller for å oppdage når tale er til stede. DNN-er er ett verktøy for å utføre denne oppgaven, men de er ikke nødvendigvis bedre enn andre tilnærminger.Tradisjonell støydemping
En annen måte noen bruker DNN-er i høreapparater på, er for å styre digital støydemping. Her hjelper DNN-et høreapparatet med å redusere forsterkningen i spesifikke kanaler for å gjøre lytting mer behagelig. Men denne tilnærmingen klarer ikke å effektivt skille tale fra støy.
Hvordan Phonak bruker KI
Klassifisering av lydmiljø og styring av funksjoner
AutoSense OS bruker kunstig intelligens og maskinlæring for å nøyaktig oppfatte og analysere lydmiljøet, og deretter sømløst kombinere funksjonselementer fra ulike lytteprogrammer i sanntid for å gi en optimal og tilpasset lytteopplevelse.
Phonaks høreapparater begynte å bruke AutoSense OS i 2016, og teknologien har blitt kontinuerlig forbedret siden. AutoSense 6.0 ble lansert sammen med Infinio-plattformen i august 2024, og drar nytte av den ekstremt kraftige ERA-brikken til å skanne brukerens omgivelser hele 700 ganger i sekundet – for lynraske og presise justeringer i sanntid.Umiddelbar separasjon av tale og støy i alle retninger
Den KI-baserte databrikken DEEPSONIC™ bruker et stort og godt trent DNN for å skille bakgrunnsstøy fra tale for en lytteopplevelse som kan imponere brukeren. Det er slik Infinio Sphere behandler støy på en unik og banebrytende måte
For å få et innblikk i hvor raskt DEEPSONIC faktisk behandler data: Den utfører 7.7 milliarder beregninger per sekund.
Denne kraftige teknologien representerer et stort fremskritt når det gjelder hørselsteknologi, og plasserer Infinio Sphere med Spheric Speech Clarity i en helt ny kategori hørselsløsninger, langt utover det som er tilgjengelig ellers på markedet i dag.
Vanlige myter
Har du hørt noen av disse?
Det er ikke alltid enkelt å vite helt hva man skal tro på, her oppklarer vi noen av de vanligste mytene om KI og hørselsteknologi. Men på samme måte som Infinio vil vi gjøre vårt beste for å skille ut støyen fra det du ønsker å høre.
Feil. Phonak har brukt KI I mer enn 25 år, og lanserte den første KI-baserte løsningen allerede i 1999! AutoSense OS ble lansert i 2016. Det som er nytt, er hvordan Infinio Sphere bruker en databrikke basert på DNN som er dedikert til lydbehandling for å kunne gi tilgang til ren og klar tale på et nivå langt utenfor eksisterende hørselsteknologi.
Ikke egentlig. Bransjen har brukt hybridbrikker i årevis. Men DEEPSONIC™--brikken i Audéo Infinio Sphere er med en helt annen oppbygging enn tidligere. Utviklet av Sonova for bedre taleoppfattelse i støy, med en dedikert DNN-basert databrikke. Det finnes per nå ingen lignende databrikker tilgjengelig i bransjen.
Nei. Infinio Sphere er det eneste høreapparatet i bransjen som bruker en dedikert KI-basert databrikke for å skille tale fra støy. DNN-et i DEEPSONIC™ -brikken har optimal oppbygging for bedre taleoppfattelse, og har brukt 22 millioner lydeksempler i opplæringen for å kunne identifisere og redusere bakgrunnsstøy.
Feil. Selv om en dedikert DNN-brikke krever mer strøm enn de som har et lite DNN integrert i prosesseringsbrikken, varer disse enhetene hele dagen for brukeren. Faktisk viser våre data at Sphere-brukere i gjennomsnitt bruker høreapparatene sine enda lengre hver dag enn personer som bruker vår tidligere plattform. Fordelene med kraftig KI-drevet teknologi, muliggjort av en dedikert DNN-brikke, er rett og slett ikke mulig med noen annen eksisterende høreapparat-teknologi.
Nei. Først, hva er On-demand DNN? Det er en type nevralt nettverk (DNN) som aktiveres bare når det er nødvendig (på forespørsel – on demand), i stedet for å være kontinuerlig aktivt.
Høreapparater bruker DNN-er av ulike grunner. Når de brukes til å identifisere lytteomgivelsene, må DNN-en være alltid på. Phonak-enheter bruker AutoSenseOS™, som er drevet av maskinlæring, for å identifisere og automatisk tilpasse seg lydmiljøet. Med Sphere bruker den dedikerte KI-baserte databrikken et stort DNN for å umiddelbart skille tale fra støy. Denne funksjonen er kun aktiv når det er bakgrunnsstøy. På samme måte som du ikke skrur ned alle lysene i hele huset om du bare har ett rom som trenger sterkt lys.
Feil. Det ville ikke vært en god opplevelse for bruker. Man kan selv bestemme hvor lenge Spheric Speech Clarity kan være aktiv på én lading. Med standardinnstillinger er det nok batteri til en hel dag med variert bruk for bruker.