Computationele audiologie
Computationele audiologie (Engels: computational audiology) is een tak van audiologie die technieken uit de wiskunde en informatica gebruikt om klinische behandelingen en wetenschappelijk begrip van het auditieve systeem te verbeteren.
Computationele audiologie is nauw verwant aan computationele geneeskunde, dat kwantitatieve modellen gebruikt om methoden te ontwikkelen voor diagnose en behandeling van ziekten.[1]
Overzicht
bewerkenIn tegenstelling tot traditionele methoden in audiologie en gehooronderzoek legt computationele audiologie de nadruk op modellering op basis van grootschalige analyse ("big data") in plaats van hypothesetesten in kleine cohorten. Een van de doelen van computationele audiologie is om de vooruitgang in gehooronderzoek, data-science, informatietechnologie en machine learning te vertalen naar klinisch toepasbare audiologische zorg. Er zijn twee stromen te onderscheiden: onderzoek om de gehoorfunctie en auditieve verwerking bij mensen en relevante diersoorten te begrijpen, en onderzoek en ontwikkeling om effectievere diagnostiek en behandelingen te implementeren.
Voor mensen met gehoorproblemen, tinnitus, hyperacusis of evenwichtsproblemen kan deze vooruitgang leiden tot nauwkeurigere diagnoses, nieuwe therapieën en geavanceerde revalidatieopties, waaronder slimme hoortoestellen en e-Health/mHealth-apps. Voor zorgverleners kan computational audiology bruikbare kennis en hulpmiddelen bieden voor het automatiseren en doelmatiger maken van (een deel) van de klinische zorg.[2]
Het onderzoeks- en zorgveld "gehoor" is interdisciplinair en is gestut op fundamenten in de audiologie, auditieve neurowetenschappen, informatica, datawetenschap, machine learning, psychologie, signaalverwerking, taalverwerving en verwerking en vestibulologie.
Toepassingen
bewerkenIn computationele audiologie worden modellen en algoritmen gebruikt om de het auditieve systeem beter te beschrijven, om te screenen op gehoorverlies, om gehoorstoornissen te diagnosticeren, maar ook om gehoorrevalidatie te bieden en om simulaties te genereren voor onder meer uitleg aan patiënten.
Computationele modellen van gehoor, spraak en auditieve waarneming
bewerkenAl decennialang zijn er fenomenologische & biofysische (computationele) modellen ontwikkeld om kenmerken van het menselijk gehoorsysteem te simuleren. Voorbeelden zijn modellen van de mechanische eigenschappen van het basilair membraan, het elektrisch gestimuleerde slakkenhuis,[3][4] middenoormechanica,[5] beengeleiding,[6] en het centrale auditieve systeem.[7]
Recent[(sinds) wanneer?] e zijn convolutionele neurale netwerken (CNN's) geconstrueerd en getraind die het menselijk gehoor repliceren[8] of die complexe cochleaire mechanica met hoge nauwkeurigheid beschrijven.
e-Health / mHealth (digitale hoorzorg)
bewerkenOnline audiometrie (of screening) tests, elektrofysiologische metingen, zoals DPOAE's of spraak-in-ruis screeningtests komen steeds meer beschikbaar om nauwkeurige vroege detectie van gehoorverlies mogelijk te maken, de effecten van ototoxiciteit en/of lawaaiblootstelling in de gaten te houden, of om uitingen over oor- en gehoorzorg van clinici te ondersteunen.[9][10]
Big data en AI in audiologie en hoorzorg
bewerkenHet verzamelen van grote aantallen audiogrammen (hoortesten) biedt onderzoekers de mogelijkheid om patronen van gehoorverlies in de bevolking te herkennen[11][12]of om AI-systemen te ontwikkelen die audiogrammen automatisch kunnen classificeren.[13] Machine learning kan worden gebruikt om de relatie tussen verschillende factoren te voorspellen, b.v. depressie voorspellen op basis van zelf-gerapporteerd gehoorverlies[14] of de relatie tussen genetisch profiel en zelf-gerapporteerd gehoorverlies.[15]
Innovatieve hoortoestellen en wearables bieden de mogelijkheid om de akoestische omgeving van gebruikers te monitoren of de gebruikspatronen te loggen die kunnen worden gebruikt om automatisch instellingen te suggereren die de gebruiker ten goede kunnen komen.[16]
Data-gedreven onderzoek naar gehoorverlies en tinnitus
bewerkenOnline-enquêtes verwerkt met op ML gebaseerde classificatie zijn gebruikt om somatosensorische tinnitus te diagnosticeren.[17] Geautomatiseerde NLP-technieken, zonder toezicht en onder toezicht Machine Learning zijn gebruikt om sociale berichten over tinnitus te analyseren en de heterogeniteit van symptomen te analyseren.[18][19]
Gerelateerde velden
bewerkenComputationele biologie, computationele geneeskunde en computationele pathologie zijn allemaal interdisciplinaire benaderingen van de biowetenschappen die gebruik maken van kwantitatieve disciplines zoals wiskunde en informatiewetenschap .
Zie ook
bewerkenExterne links
bewerken- ↑ (en) Winslow, Raimond L. (31 October 2012). Computational Medicine: Translating Models to Clinical Care. Science Translational Medicine 4 (158): 158rv11. PMID 23115356. PMC 3618897. DOI: 10.1126/scitranslmed.3003528.
- ↑ (en) Wasmann, Jan-Willem A. (November–December 2021). Computational Audiology: New Approaches to Advance Hearing Health Care in the Digital Age. Ear and Hearing 42 (6): 1499–1507. PMID 33675587. PMC 8417156. DOI: 10.1097/AUD.0000000000001041.
- ↑ (en) Frijns, J. H. M., de Snoo, S. L., Schoonhoven, R. (1 juli 1995). Potential distributions and neural excitation patterns in a rotationally symmetric model of the electrically stimulated cochlea. Hearing Research 87 (1): 170–186. ISSN: 0378-5955. PMID 8567435. DOI: 10.1016/0378-5955(95)00090-Q.
- ↑ (en) (September 2003). Signal Coding in Cochlear Implants: Exploiting Stochastic Effects of Electrical Stimulation. Annals of Otology, Rhinology & Laryngology 112 (9_suppl): 14–19. ISSN: 0003-4894. PMID 14533839. DOI: 10.1177/00034894031120s904.
- ↑ (en) Sun, Q., Gan, R. Z., Chang, K.-H., Dormer, K. J. (1 oktober 2002). Computer-integrated finite element modeling of human middle ear. Biomechanics and Modeling in Mechanobiology 1 (2): 109–122. ISSN: 1617-7959. PMID 14595544. DOI: 10.1007/s10237-002-0014-z.
- ↑ (en) Stenfelt, Stefan (1 oktober 2016). Model predictions for bone conduction perception in the human. Hearing Research MEMRO 2015 – Basic Science meets Clinical Otology 340: 135–143. ISSN: 0378-5955. PMID 26657096. DOI: 10.1016/j.heares.2015.10.014.
- ↑ (en) (2010). Meddis, Ray (red.). Computational Models of the Auditory System. Springer Handbook of Auditory Research 35. ISSN: 0947-2657. DOI: 10.1007/978-1-4419-5934-8. Gearchiveerd van origineel op 23 oktober 2022.
- ↑ (en) (2 mei 2018). A Task-Optimized Neural Network Replicates Human Auditory Behavior, Predicts Brain Responses, and Reveals a Cortical Processing Hierarchy. Neuron 98 (3): 630–644.e16. ISSN: 0896-6273. PMID 29681533. DOI: 10.1016/j.neuron.2018.03.044.
- ↑ (en) (31 juli 2018). eHealth and the hearing aid adult patient journey: a state-of-the-art review. BioMedical Engineering OnLine 17 (1): 101. ISSN: 1475-925X. PMID 30064497. PMC 6069792. DOI: 10.1186/s12938-018-0531-3.
- ↑ (en) (30 december 2021). MHealth Applications for Hearing Loss: A Scoping Review. Telemedicine and e-Health. ISSN: 1530-5627. PMID 34967683. DOI: 10.1089/tmj.2021.0460.
- ↑ (en) Charih, François, Bromwich, Matthew, Mark, Amy E., Lefrançois, Renée, Green, James R. (December 2020). Data-Driven Audiogram Classification for Mobile Audiometry. Scientific Reports 10 (1): 3962. ISSN: 2045-2322. PMID 32127604. PMC 7054524. DOI: 10.1038/s41598-020-60898-3.
- ↑ (en) Cox, Marco, de Vries, Bert (2021). Bayesian Pure-Tone Audiometry Through Active Learning Under Informed Priors. Frontiers in Digital Health 3: 723348. ISSN: 2673-253X. PMID 34713188. PMC 8521968. DOI: 10.3389/fdgth.2021.723348.
- ↑ (en) Crowson, Matthew G., Lee, Jong Wook, Hamour, Amr, Mahmood, Rafid, Babier, Aaron (7 augustus 2020). AutoAudio: Deep Learning for Automatic Audiogram Interpretation. Journal of Medical Systems 44 (9): 163. ISSN: 1573-689X. PMID 32770269. DOI: 10.1007/s10916-020-01627-1.
- ↑ (en) Crowson, Matthew G., Franck, Kevin H., Rosella, Laura C., Chan, Timothy C. Y. (July–August 2021). Predicting Depression From Hearing Loss Using Machine Learning. Ear and Hearing 42 (4): 982–989. ISSN: 1538-4667. PMID 33577219. DOI: 10.1097/AUD.0000000000000993.
- ↑ (en) Wells, Helena RR., Freidin, Maxim B., Zainul Abidin, Fatin N., Payton, Antony, Dawes, Piers (14 februari 2019). Genome-wide association study identifies 44 independent genomic loci for self-reported adult hearing difficulty in the UK Biobank cohort. DOI: 10.1101/549071.
- ↑ (en) Christensen, Jeppe H., Saunders, Gabrielle H., Porsbo, Michael, Pontoppidan, Niels H. (2021). The everyday acoustic environment and its association with human heart rate: evidence from real-world data logging with hearing aids and wearables. Royal Society Open Science 8 (2): 201345. PMID 33972852. PMC 8074664. DOI: 10.1098/rsos.201345.
- ↑ (en) Michiels, Sarah (14 juli 2021). Somatosensory Tinnitus Diagnosis: Diagnostic Value of Existing Criteria. Ear & Hearing 43 (1): 143–149. ISSN: 1538-4667. PMID 34261856. DOI: 10.1097/aud.0000000000001105.
- ↑ (en) Palacios, Guillaume (2020). Assessing the Heterogeneity of Complaints Related to Tinnitus and Hyperacusis from an Unsupervised Machine Learning Approach: An Exploratory Study. Audiology and Neurotology 25 (4): 174–189. ISSN: 1420-3030. PMID 32062654. DOI: 10.1159/000504741.
- ↑ (en) What can we learn about tinnitus from social media posts?. Computational Audiology (7 juni 2021). Geraadpleegd op 20 januari 2022.