Skip to main content
Välj ett annat land eller en annan region för att se innehåll som är specifikt för din plats.
Green Abstract Square Design

AI & DNN i hörapparater

Allt du behöver veta

Världen har exploderat med nya termer som artificiell intelligens, språkinlärningsmodeller, djupa neurala nätverk, maskininlärning och liknande.

Även om mycket av denna teknik har funnits i flera år, har de senaste lanseringarna av AI-verktyg som kan göra allt från att skriva en uppsats till att hitta cancer i MRI-skanningar fått mycket uppmärksamhet i nyheterna, hos regeringar, företag och i många människors vardag.

Denna typ av teknik kan låta extremt avancerad, men när du väl har ett grepp om de grundläggande definitionerna och begreppen kommer du att kunna diskutera dessa ämnen med tillförsikt och förklara dem för dina kunder i vardagliga termer.

A woman's face overlayed with miscellaneous data and images
A trio working together on something

Vad är DNN?

Spelar storleken någon roll?

Deep Neural Networks 101

Deep Neural Network, eller DNN, är en typ av artificiellt neuralt nätverk (ANN). Liksom enskilda neuroner i den mänskliga hjärnan samarbetar noderna i ett ANN för att lära sig och lösa problem baserat på datainmatning.

Ett DNN har ett eller flera dolda nodlager mellan input- och output-lagren, vilket gör att den med rätt träning har en större förmåga att lära sig känna igen mönster och lösa komplexa problem, precis som vi gör varje dag med våra hjärnor.

Sättet som ett DNN lär sig är genom träning i datainmatning och maskininlärning, vilket är den process som ett neuralt nätverk använder för att programmera (eller lära) sig själv. DNN:er kan tränas på alla olika typer av data, inklusive bilder, text, videor, ljud och mer.

För att träna ett DNN visas algoritmen många par av ingångar och märkta utgångar. Algoritmen måste sedan "lära" sig själv vilka regler som kan användas för att komma fram till rätt utdata för en given ingång genom upprepade försök och kontinuerlig feedback om dessa försök.

Genom att ha en stor datamängd med mycket variation kommer DNN så småningom att kunna generalisera, eller med andra ord, hantera data som den aldrig har sett under träningen, exakt.

Till exempel, om datauppsättningen innehåller 10 bilder av hästar, kan DNN korrekt identifiera en ny bild av en häst 5 % av gångerna. De andra 95% av gångerna kan den tro att den tittar på en hund eller ett bord. Om träningsdatauppsättningen innehåller 10 000 bilder av hästar, kommer DNN sannolikt att kunna identifiera en ny bild av en häst nästan 100 % av gångerna.

Så, precis som en mänsklig hjärna, ju mer information som DNN har tränats på, desto bättre kan den känna igen mönster och fatta beslut.

Det var grunderna. Nu till det roliga.

 

Varför DNN-storlek spelar roll

Vi lärde oss ovan att en DNN har tre typer av nodlager: indatalager, utdatalager och de dolda lagren däremellan. De dolda lagren är där magin händer. I allmänhet gäller att ju fler lager och noder per lager, desto fler beräkningar eller "tankar" kan DNN utföra mellan in- och utdatalagren. Detta gör att DNN kan hantera allt mer komplexa uppgifter.

Det specifika sättet på vilket de dolda lagren i en DNN är strukturerade och kopplade till varandra spelar också en avgörande roll för hur det fungerar. På grund av detta kan DNN-strukturer optimeras för att utföra vissa uppgifter bättre än andra.

Du kan tänka på det som djurens hjärnor; ju större hjärnan är, och ju tätare nervcellerna är, desto "smartare" är varelsen. Ett litet DNN med bara ett enda lager kan likna hjärnan hos en liten groda, medan ett stort DNN med många lager skulle vara mer lik en människas hjärna.

Vem är bättre på att ta reda på en lyssnares avsikt – grodan eller människan? Tänkande och problemlösning på högre nivå i ett DNN är till stor del ett matematiskt resultat av att flera noder utför fler beräkningar för bättre resultat.

Dessutom kan vi träna större DNN på större datamängder; de kan få tillgång till större mängder information för att fatta bättre beslut. Grodan från förr kommer inte att klara sig alls lika bra på att lära sig alfabetet som vi med mänskliga hjärnor.

Ett stort DNN med optimal arkitektur kommer att ha förmågan att använda mycket mer data för sina beräkningar än ett litet DNN med begränsad kapacitet.

DNN i hörapparater

Det finns för närvarande tre sätt som hörapparater använder DNN på.

Det första och vanligaste sättet som en hörapparat kan använda ett DNN på är att klassificera ljudbilden. Tillverkaren tränar ljudbildsklassificeraren med hjälp av olika ljud för att lära hörapparaten när den ska aktivera eller inaktivera funktioner.

För att använda exemplet ovan är detta att lära hörapparaten att veta att en häst är en häst och inte ett bord; eller i ett mer lämpligt hörapparatexempel, lära hörapparaten att veta vad som är tal i buller kontra bara buller.

Ett annat sätt som hörapparater kan använda DNN är för brusreducering. Detta skiljer sig inte mycket från traditionell brusreduceringsteknik. Det lär hörapparaten vilka ljud som är oönskat brus och försöker minska det genom att selektivt minska förstärkningen.

Det tredje och mest unika sättet att hörapparater använder DNN är att omedelbart separera tal från brus. Denna typ av DNN frigör hörapparaten från att använda smal riktverkan och låter lyssnaren höra flera talare från alla håll. Detta uppnås genom att identifiera och isolera tal så att det kan bevaras och förstärkas.

Alla DNN: er är inte likadana

Små DNN , som främst används för att klassificera ljudbilder, måste alltid vara på eftersom det är så de avgör vilka program och funktioner som ska bytas till när användarens ljudmiljö förändras.

Det stora, unikt strukturerade DNN i Infinio Sphere aktiveras på begäran för att utföra ljudrengöring i realtid , till exempel när användaren vistas i bullrig miljö (som att gå in på en välbesökt restaurang).

Andra tillverkare använder också sina små DNN:er för att hjälpa till med brushantering, men med ganska begränsad användarnytta på grund av ett begränsat antal noder som gör "tänket".

A trio surrounding by the Infinio swoosh
Green neurons

AI i hörapparater

AI i hörapparater är inte en funktion du kan mäta direkt, men du kan titta på hur AI-drivna funktioner erbjuder användarfördelar. Vem som helst kan säga att de har AI och använda den i sina hörapparater, men den verkliga frågan att ställa är: Vilka fördelar ger det användaren?

Svaret kan vara väldigt olika mellan olika märken.

Hur vissa tillverkare använder AI

  • Ljudbildsklassificering/funktionskontroll

    Vissa tillverkare använder små DNN för att klassificera lyssningsmiljöer eller upptäcka när tal förekommer. DNN är ett verktyg för att utföra denna uppgift, men de är inte nödvändigtvis bättre än andra tillvägagångssätt.

  • Traditionell brusreducering

    Ett annat sätt som vissa tillverkare använder DNN i hörapparater är att driva digital brusreducering. I den här applikationen hjälper DNN hörapparaten att tillämpa kanalspecifik förstärkningsreduktion för att göra lyssnandet bekvämare, men detta tillvägagångssätt kan inte effektivt isolera tal från brus.

 

Hur Phonak använder AI

  • Ljudbildsklassificering/funktionskontroll

    AutoSense OS använder AI och maskininlärning för att exakt fånga och analysera ljudmiljön, och sedan blanda funktionselement från flera program exakt i realtid för att ge en sömlös lyssningsupplevelse.

    Phonak hörapparater började använda AutoSense OS 2016, och för varje år som går har denna teknik vidareutvecklats och förfinats. AutoSense 6.0 lanserades med Infinio -plattformen i augusti 2024 och utnyttjar det otroligt kraftfulla ERA-chippet för att skanna användarens miljö 700 gånger per sekund för realtidsjusteringar.

  • Omedelbar separation av tal och brus i alla riktningar

    DEEPSONIC AI-chipet använder ett stort och välutbildat DNN för att separera och ta bort bakgrundsljud från tal för en lyssningsupplevelse som kan ge användaren en verklig WOW-upplevelse. Det är så Infinio Sphere hanterar buller på ett unikt och banbrytande sätt.

    För att förstå hur snabbt DEEPSONIC utför beräkningar och bearbetar data – den kan utföra 7,7 miljarder operationer varje sekund.

    Denna kraftfulla teknologi representerar ett framsteg inom hörsellösningar som placerar Infinio Sphere med Spheric Speech Clarity i en helt ny kategori av hörapparater som går utöver allt annat som finns på marknaden idag.

Vanliga myter

Fel. Phonak har förnyat sig inom AI i över 25 år och släppte den första AI-baserade Phonak-apparaten 1999! Autosense OS släpptes 2016. Vad som är nytt är hur Infinio Sphere använder ett dedikerat DNN-processorchip för att leverera en nivå av rent och tydligt tal långt bortom någon befintlig hörselteknik.

Inte riktigt. Industrin har använt hybridchip i flera år. Men DEEPSONIC-chipet i Audéo Infinio Sphere har en helt annan arkitektur än tidigare hörapparatchip. Detta dedikerade AI-chip har utvecklats exklusivt av Sonova för att förbättra tal i brus utöver någon annan tillgänglig teknik. Det här dedikerade AI-chipet har ett DNN som ger nästa nivås brusreducering. Det finns inget jämförbart chip i någon bransch.

Nej. Infinio Sphere är den enda hörapparaten i branschen som använder ett dedikerat AI-chip för att skilja tal från brus. DNN i DEEPSONIC-chippet har en optimal arkitektur för talförbättring och har tränats på över 22 miljoner ljudprover, vilket gör det möjligt för AI att korrekt identifiera och minska bakgrundsbrus.

Fel. Även om ett dedikerat DNN-chip kräver mer ström än de med ett litet DNN integrerat i sitt bearbetningschip, håller dessa apparater faktiskt en hel dag för användaren. Faktum är att våra data visar att Sphere-användare i genomsnitt använder sina hörapparater ännu längre varje dag än de som använder vår tidigare plattform. Och låt oss vara tydliga: fördelarna med kraftfull AI-driven teknik som möjliggörs av ett dedikerat DNN-chip är helt enkelt inte möjliga med någon annan befintlig hörapparatteknik.

Nej. Hörapparater använder DNN av olika anledningar. När den används för att identifiera lyssningssituationen ska DNN alltid vara på. Phonak hörapparater använder AutoSenseOS , som drivs av maskininlärning, för att identifiera och automatiskt anpassa sig till ljudmiljön. Med Sphere använder det dedikerade AI-chipet ett stort DNN för att omedelbart separera tal från brus. Detta är endast aktivt när det finns bakgrundsljud. Precis som att du inte skulle ha alla lampor i ditt hem permanent inställda på att dämpas om du använde ett rum där starkt ljus behövdes.

Fel. Det skulle inte vara en bra upplevelse för användaren, eller hur? Man kan styra gränserna för hur länge Spheric Speech Clarity kan vara aktivt på en enda laddning. I standardinställningarna finns det tillräckligt med batteri för en hel dag av varierad lyssning.