Skip to main content
Vælg et andet land eller en anden region for at se indhold, der er specifikt for din placering.
Green Abstract Square Design

AI & DNN i Høreapparater

Alt, hvad du behøver at vide 


Verden er eksploderet med nye udtryk som kunstig intelligens (AI), sprogindlæringsmodeller, dybe neurale netværk (DNN), maskinlæring og lignende.

Selvom meget af denne teknologi har eksisteret i årevis, har de nylige lanceringer af AI-værktøjer, der kan gøre alt fra at skrive et essay til at finde kræft i MR-scanninger, fået meget opmærksomhed i både nyhederne, regeringer, virksomheder og mange menneskers hverdag.

Denne type teknologi kan lyde ekstremt avanceret, men når du først har styr på de grundlæggende definitioner og begreber, vil du være i stand til at drøfte disse emner med selvtillid og forklare dem for dine klienter i dagligdags termer.

A woman's face overlayed with miscellaneous data and images
A trio working together on something

Hvad er et DNN?

Et Dybt Neuralt Netværk, eller DNN, er en type Kunstigt Neuralt Netværk (ANN). Ligesom individuelle neuroner i den menneskelige hjerne samarbejder noderne i et ANN for at lære og løse problemer baseret på data inputs. 

Et DNN har en eller flere skjulte nodelag mellem input- og outputlagene, hvilket betyder, at det med den rette træning har større evne til at lære at genkende mønstre og løse komplekse problemer, ligesom vi gør hver dag med vores hjerner. 

Den måde, et DNN lærer på, er gennem træning på data inputs og maskinlæring, som er den proces, et neuralt netværk bruger til at programmere (eller lære) sig selv. DNN'er kan trænes på alle forskellige typer data, herunder billeder, tekst, videoer, lyd og mere.

For at træne et DNN vises algoritmen mange par af inputs og mærkede output. Algoritmen skal derefter 'lære' for sig selv, hvilke regler, der kan bruges til at nå frem til det korrekte output for et givent input gennem gentagne forsøg og kontinuerlig feedback på disse forsøg.

Ved at have et stort datasæt med masser af variation vil DNN'en til sidst være i stand til at generalisere, eller med andre ord, at håndtere data, den aldrig har set under træning, præcist.

For eksempel, hvis datasættet inkluderer 10 billeder af heste, kan DNN'en korrekt identificere et nyt billede af en hest 5% af tiden. De øvrige 95% af tiden kan den tro, den ser på en hund eller et bord. Hvis træningsdatasættet indeholder 10.000 billeder af heste, er DNN'en sandsynligvis i stand til at identificere et nyt billede af en hest næsten 100% af tiden. 

Så ligesom en menneskelig hjerne; jo mere information DNN'en er blevet trænet på, jo bedre er den i stand til at genkende mønstre og træffe beslutninger.

Det var det grundlæggende. Nu til det sjove.

 

Hvorfor DNN-størrelse betyder noget

Vi lærte ovenfor, at et DNN har tre typer nodelag: inputlag, outputlag og de skjulte lag imellem. De skjulte lag er, hvor magien sker. Generelt gælder det, at jo flere lag og noder pr. lag, jo flere beregninger eller "tanker" kan DNN'en udføre mellem input- og outputlagene. Dette betyder, at DNN'en kan håndtere mere og mere komplekse opgaver.

Den specifikke måde, de skjulte lag i et DNN er struktureret og forbundet med hinanden, spiller også en afgørende rolle i, hvordan det fungerer. På grund af dette kan DNN-strukturer optimeres til at udføre visse opgaver bedre end andre.

Du kan tænke på det som dyrs hjerner; jo større hjernen er, og jo tættere neuronerne er pakket, jo "smartere" er skabningen. Et lille DNN med kun et enkelt lag kan svare til hjernen hos en lille frø, mens et stort DNN med mange lag ville være mere som et menneskes hjerne. 

Hvilken er bedst til at finde ud af en lytters hensigt - frøen eller mennesket? Højere niveau af tænkning og problemløsning i et DNN er stort set et matematisk resultat af flere noder, der udfører flere beregninger for bedre resultater. 

Derudover kan vi træne større DNN'er på større datasæt; de kan få adgang til større mængder information for at træffe bedre beslutninger. Frøen fra før vil ikke klare sig nær så godt med at lære alfabetet som os med menneskehjerne. 

Et stort DNN med en optimal arkitektur vil have evnen til at udnytte langt mere data til sine beregninger end et lille DNN med begrænset kapacitet. 

DNN i høreapparater

Der er i øjeblikket tre måder, høreapparater bruger DNN'er på. 

Den første, og mest almindelige måde, et høreapparat kan bruge et DNN på, er at klassificere lydscenen. Producenten træner lydsceneklassifikatoren ved at bruge forskellige lyde til at lære høreapparatet, hvornår det skal aktivere eller deaktivere funktioner. 

For at bruge eksemplet ovenfor, er dette at lære høreapparatet at vide, at en hest er en hest og ikke et bord; eller i et mere passende høreapparat eksempel, at lære høreapparatet at vide, hvad der er tale i støj versus bare støj. 

En anden måde, høreapparater kan bruge DNN'er på, er til let støjreduktion. Dette adskiller sig ikke meget fra traditionel støjreduktionsteknologi. De lærer høreapparatet, hvilke lyde der er uønsket støj, og forsøger at reducere det ved selektivt at mindske forstærkningen.

Den tredje, og mest unikke måde, høreapparater bruger et DNN på, er at adskille tale fra støj øjeblikkeligt. Denne type DNN frigør høreapparatet fra at bruge smal retningsbestemthed og giver lytteren mulighed for at høre flere talere fra enhver retning. Dette opnås ved at identificere og isolere talen, så den kan bevares og forstærkes. 

Ikke alle DNN’er er ens

Små DNN'er, der primært bruges til at klassificere lydscener, skal altid være tændt, fordi det er sådan, de bestemmer, hvilke programmer og funktioner der skal skiftes til, når brugerens omgivende miljø ændrer sig.

Det store, unikt strukturerede DNN i Infinio Sphere aktiveres efter behov for at udføre realtidslydrensning, som når brugeren træder ind i et støjende miljø (som at f.eks. en travl restaurant).

Andre mærker bruger også deres små DNN'er til at hjælpe med støjstyring, men med ret begrænsede klientfordele på grund af et begrænset antal noder, der udfører "tænkningen." 

A trio surrounding by the Infinio swoosh
Green neurons

AI i Høreapparater

AI i høreapparater er ikke en funktion, du kan måle direkte, men du kan se på, hvordan AI-drevne funktioner tilbyder klientfordele. Enhver kan sige, at de har AI og bruger det i deres høreapparater, men det virkelige spørgsmål at stille er: Hvilke fordele giver det udbyderen og klienten?

Svaret kan være meget forskelligt blandt forskellige mærker.

Hvordan nogle mærker bruger AI

  • Lydscene klassifikation/funktionstyring

Nogle producenter bruger små DNN'er til at klassificere lytteomgivelser eller opdage, hvornår tale er til stede. DNN'er er et værktøj til at udføre denne opgave, men de er ikke nødvendigvis bedre end andre tilgange.

  • Traditionel støjreduktion

En anden måde, nogle mærker bruger DNN'er i høreapparater, er til at drive digital støjreduktion. I denne anvendelse hjælper DNN'en høreapparatet med at anvende kanal-specifik reduktion af forstærkning for at gøre lytning mere behagelig, men denne tilgang kan ikke effektivt isolere tale fra støj.

Hvordan Phonak bruger AI

  • Lydscene klassifikation/funktionstyring

AutoSense OS bruger AI og maskinlæring til præcist at fange og analysere lydmiljøet, og blander derefter præcist funktionselementer fra flere programmer i realtid for at give en smidig lytteoplevelse.

Phonak høreapparater begyndte at bruge AutoSense OS i 2016, og med hvert år, der går, er denne teknologi blevet yderligere udviklet og forfinet. AutoSense 6.0 kom på markedet med Infinio-platformen i august 2024 og udnytter den utrolig kraftfulde ERA-chip til at scanne brugerens miljø 700 gange per sekund for realtidsjusteringer.

  • Øjeblikkelig adskillelse af tale og støj i alle retninger

DEEPSONIC AI-chippen bruger et stort og højt trænet DNN til at adskille og fjerne baggrundsstøj fra tale for en lytteoplevelse, der kan imponere brugerne. Dette er, hvordan Infinio Sphere håndterer støj på en unik og banebrydende måde.

For at forstå, hvor hurtigt DEEPSONIC udfører beregninger og behandler data, kan den udføre 7,7 milliarder operationer hvert eneste sekund.

Denne kraftfulde teknologi repræsenterer et fremskridt inden for høreløsninger, der placerer Infinio Sphere med Spheric Speech Clarity i en helt ny kategori af høreløsninger, der overgår alt andet, der er tilgængeligt på markedet i dag.

 

Almindelige Myter

Forkert. Phonak har været innovativ inden for AI i over 25 år og udgav den første AI-baserede Phonak-løsning i 1999! Autosense OS blev udgivet i 2016. Det, der er nyt, er, hvordan Infinio Sphere bruger en dedikeret DNN-lydbehandlingschip til at levere et niveau af ren og klar tale langt ud over enhver eksisterende høreteknologi.

Ikke rigtig. Branchen har brugt hybride chips i årevis. Men DEEPSONIC-chippen i Audéo Infinio Sphere har en helt anden arkitektur end tidligere høreapparatchips. Udviklet eksklusivt af Sonova til at forbedre tale i støj ud over enhver anden tilgængelig teknologi, huser denne dedikerede AI-chip et DNN, der giver næste niveau af støjreduktion. Der findes ikke en sammenlignelig chip i nogen branche.

Nej. Infinio Sphere er det eneste høreapparat i branchen, der bruger en dedikeret AI-chip til at adskille tale fra støj. DNN'en i DEEPSONIC-chippen har en optimal arkitektur til taleforbedring og er blevet trænet på over 22 millioner lydprøver, hvilket gør det muligt for AI at korrekt identificere og reducere baggrundsstøj.

Forkert. Selvom en dedikeret DNN-chip kræver mere strøm at køre end dem med en lille DNN integreret i deres behandlingschip, holder disse enheder faktisk en hel dag for klienten. Faktisk viser vores data, at Sphere-brugere gennemsnitligt anvender deres høreapparater endnu længere hver dag end brugere, der anvender vores tidligere platform. Og lad os være klare: fordelene ved kraftfuld AI-drevet teknologi, der er muliggjort af en dedikeret DNN-chip, er simpelthen ikke mulige med nogen anden eksisterende høreapparatsteknologi.  

Nej. Høreapparater bruger DNN'er af forskellige årsager. Når de bruges til at identificere lytte-situationen, skal DNN'en altid være tændt. Phonak høreapparater bruger AutoSenseOS, som drives af maskinlæring, til at identificere og automatisk justere sig til lydmiljøet. Med Sphere bruger den dedikerede AI-chip et stort DNN til øjeblikkeligt at adskille tale fra støj. Dette er kun aktivt, når der er baggrundsstøj. Ligesom du ikke ville have alle lamper i dit hjem permanent indstillet til dæmpet, hvis du brugte et rum, hvor der var behov for klart lys.

Forkert. Det ville ikke være en god oplevelse for patienten, ville det? Du og din patient kan kontrollere grænserne for, hvor længe Spheric Speech Clarity kan være aktiv fra en enkelt opladning. Ved standardindstillinger er der batteritid til en hel dags varieret lytning for din klient.