Invoering
Het menselijk brein is het ‘meest complexe object in ons waarneembare universum’, zoals Christoff Koch, bekend om zijn studies van de neurale basis van bewustzijn, het formuleerde. Dit orgaan bestaat uit miljarden neuronen, synapsen en circuits die onze gedachten, emoties en gedrag sturen. Neurowetenschappers bestuderen de hersenen al eeuwen, proberen de mysteries ervan te ontrafelen en te begrijpen hoe het werkt. Deze onderzoeken leidden tot de ontwikkeling van kunstmatige intelligentie en het idee om modellen te maken die ons zouden kunnen helpen bij onze taken. Tegenwoordig ligt kunstmatige intelligentie op ieders lippen: nieuws, familiegesprekken, werk en natuurlijk in onderzoek. Met de komst van Deep Learning, een deelgebied van kunstmatige intelligentie, onderzoekers kunnen nu verder gaan en nieuwe antwoorden krijgen over de werking en het gedrag van onze hersenen. Op deze pagina’s zullen we onderzoeken hoe diep leren een revolutie teweegbrengt in de neurowetenschap en ons begrip van dit zeer complexe object transformeert.
Sectie 1: Wat is ‘diep leren’?
Deep Learning (DL) is een gespecialiseerd gebied binnen automatisch leren (of, om verder te gaan met de termen, machine learning), dat tegelijkertijd deel uitmaakt van het uitgestrekte gebied van kunstmatige intelligentie. Het is geïnspireerd op hoe ons eigen brein werkt en heeft tot doel die functionaliteit na te bootsen in kunstmatige systemen. Het centrale idee van DL is om zogenaamde kunstmatige neurale netwerken te trainen om te “leren” van grote hoeveelheden gegevens en op basis daarvan voorspellingen of classificaties te maken. Deze netwerken, ontworpen om de structuur en functie van het menselijk brein na te bootsen, bestaan uit onderling verbonden knooppunten (neuronen genoemd) die communiceren en informatie verwerken.
Tijdens het trainingsproces van een DL-model wordt de beschikbare data verdeeld in twee subsets: de trainingsset en de validatieset. Zoals de naam al doet vermoeden, traint de trainingsset het model en presenteert het gelabelde gegevens, waardoor het neurale netwerk zijn parameters kan aanpassen en de patronen kan leren. De validatieset wordt op zijn beurt gebruikt om de prestaties van het model tijdens het trainingsproces te evalueren; dat wil zeggen, zijn generalisatievermogen.
Wat DL onderscheidt van traditionele machine learning-benaderingen, is de mogelijkheid om automatisch relevante functies en patronen uit onbewerkte gegevens te extraheren. Bij traditionele machine learning is een persoon verantwoordelijk voor het handmatig selecteren van de functies. In plaats daarvan kunnen DL-algoritmen autonoom nuttige functies ontdekken en extraheren als onderdeel van het leerproces. Deze mogelijkheid maakt DL bijzonder effectief voor het analyseren van complexe, ongestructureerde datasets zoals afbeeldingen, audio en tekst. Het is met succes toegepast op verschillende taken, zoals beeld- en spraakherkenning, natuurlijke taalverwerking, biologische signaalanalyse en zelfs autonoom rijden.
Sectie 2: Waar kunnen we Deep Learning toepassen in de neurowetenschappen?
Tegenwoordig worden DL-modellen gebruikt (en kunnen ze worden gebruikt) op veel gebieden van de neurowetenschappen: van neuroimaging of systeemneurowetenschappen tot ganganalyse. De toepassingen, zoals soorten DL-modellen, zijn eindeloos. In dit deel bekijken we enkele typische voorbeelden die u kunt toepassen in uw dagelijkse onderzoek en enkele veelbelovende nieuwe benaderingen die van invloed zullen zijn op de manier waarop we de hersenen begrijpen.
Op het gebied van neuroimaging, waar bestaande technieken een aanzienlijke hoeveelheid data produceren, heeft kunstmatige intelligentie zijn rol bewezen in het beheer en de interpretatie van hersenbeelden en -signalen. Een afbeelding is een systeem van hoge orde dat het resultaat is van de combinatie van steeds complexere kenmerken, waardoor uiteindelijk een weergave van iets ontstaat. Neurale netwerken werken op dezelfde manier en herkennen deze hiërarchische elementen: eerst een pixel, dan lijnen, geometrische vormen… en slaan deze elementen op in hun “geheugen” om te leren. Een van de meest voorkomende use-cases van DL is diagnostische voorspelling; onderscheid te maken tussen gezonde controles en zieke individuen. Gebruikmakend van verschillende magnetische resonantie beeldvormingsgegevens,(Hu et al. 2022)autisme spectrum stoornissen(Zhang et al. 2022)en zelfs de ziekte van Alzheimer en/of milde cognitieve stoornissen diagnosticeren(Wang et al. 2017), Ziekte van Parkinson(Vyas et al. 2022)of cerebrovasculaire aandoeningen(Liu et al. 2019).
Het leven van een onderzoeker is er echter een waarin wenselijkheid en realiteit meestal niet samenvallen; veelvoorkomende problemen zijn onder meer het niet hebben van een voldoende grote steekproefomvang om krachtige statistieken uit te voeren of een slechte gegevenskwaliteit die de extractie van relevante functies beïnvloedt. Maar als onderzoekers proberen we te improviseren, en als we dit vermogen combineren met de prestaties van DL-modellen, ontstaan er oplossingen om het meeste uit beperkte gegevens te halen.
Voor het geval van kleine datasets gaan we twee methoden uitleggen die vaak worden gebruikt. De eerste is de toename van gegevens door generatieve modellen (wat de basis zou zijn van de “ChatGPT’s” die we nu zien). Deze techniek bestaat uit het kunstmatig creëren van nieuwe gegevens door de afbeeldingen te roteren, scrollen, zoomen of de algemene stijl van de afbeeldingen te wijzigen. Met deze techniek wordt getracht de steekproefomvang te vergroten door nieuwe kopieën van de originele dataset te maken. De toevoeging die DL-modellen bieden in vergelijking met traditionele technieken voor gegevensvergroting, die over een zeer beperkt spectrum worden herhaald, is het creëren van synthetische afbeeldingen die verschillen van de originele, waarbij de essentiële kenmerken van de echte afbeeldingen behouden blijven.(Perez en Wang 2017). De tweede methode wordt “uitval” genoemd. Het idee erachter is om willekeurige ruis in specifieke lagen van een neuraal netwerk te introduceren, op zo’n manier dat de neuronen in die lagen worden “gemaskeerd” of geëlimineerd. Met deze methode kan het model sneller een resultaat verkrijgen door de meest robuuste of generaliseerbare kenmerken te verkrijgen.(Audhkhasi, Osoba en Kosko 2016;Srivastava et al. 2014)dat kan worden gedeeld door de resterende neuronen, een bijzonder belangrijk kenmerk als we het hebben over kleine datasets.
De kwaliteit van neuroimaging-gegevens is een van de belangrijkste aspecten voor een kritische interpretatie van beelden. Sommige technieken, zoals diffusiegewogen magnetische resonantie (DW-MR), zijn gebaseerd op gecompliceerde schattingsmethoden die al vele jaren onveranderd zijn gebleven. De nieuwe benaderingen suggereren dat geavanceerdere DL-modellen beter zouden kunnen presteren bij het schatten van klinische beelden, waardoor de fouten van eerdere standaardmethoden worden verminderd.(Karimi en Gholipour 2022).
Laten we tot slot eens kijken naar enkele voorbeelden op het gebied van systeemneurowetenschappen. Deze term omvat een reeks studiegebieden die verband houden met de functie van neurale circuits en systemen, zoals geheugen of taal. Deze (niet-kunstmatige) neurale netwerken zijn complexe systemen waarin er interacties zijn tussen lagen en met andere structuren, en waarvan sommige mechanismen onbekend blijven. Tijdens de afgelopen jaren van indrukwekkende ontwikkeling van kunstmatige neurale netwerken, hebben wetenschappers geprobeerd structuren in de hersenen te repliceren, modellen te bouwen die neurale opnames verklaren en zeer nauwkeurige ruimtelijke representaties bieden.
Als we nadenken over taal in de hersenen, bestaat er al lang een hypothese die voorspellende codering wordt genoemd, volgens welke het taalsysteem van de hersenen wordt geoptimaliseerd voor toekomstige verwerking. Op deze manier zouden de hersenen constant een “mentaal model” van de omgeving genereren en bijwerken en deze voorspellingen die door het model zijn gemaakt, zouden worden vergeleken met de daadwerkelijke invoersignalen van de zintuigen, om ze aan te passen. In overeenstemming met deze hypothese ontwikkelden de onderzoekers een model dat de neurale reacties van de menselijke taalverwerking bijna 100% kon voorspellen!(Schrimpf et al. 2021).
Nauw verwant aan taal, is het geheugen ook een studiegebied geweest voor kunstmatige intelligentie. Sommige onderzoekers, die zagen dat veel DL-neurale netwerken gebaseerd zijn op hersennetwerken, besloten geheugenvorming nader te bekijken. Het is bekend dat de hippocampus een vitale rol speelt in onze geheugenprocessen. Het wordt vaak beschreven als een belangrijke speler bij het vormen van nieuwe herinneringen en het consolideren ervan voor langdurige opslag, maar niet voor onbepaalde tijd. Wanneer we iets nieuws ervaren, helpt de hippocampus deze herinneringen te coderen en te verwerken.
Wittington en zijn collega’s voerden een merkwaardig experiment uit met het geheugen. Eerst trainden ze een DL-model om ruimtelijke representaties te leren, wat aantoonde dat het model repliceerde wat hippocampale cellen deden. Hierdoor konden ze verder en besloten ze de wiskundige grondslagen van een bekend neurowetenschappelijk model te herschrijven: “The Tolman-Eichenbaum Machine” (TEM), dat het fenomeen van de hippocampus repliceerde. De TEM is een hypothetisch model dat het werk van Edward Tolman en Gary Eichenbaum combineert. De eerste voorgestelde cognitieve kaarttheorie, die suggereert dat dieren, inclusief mensen, mentale representaties van hun omgeving vormen. Eichenbaum van zijn kant bestudeerde uitgebreid de hippocampus en zijn betrokkenheid bij geheugenprocessen. Volgens TEM functioneert de hippocampus als een ” waarin individuele cellen of groepen cellen verschillende aspecten van de omgeving en bijbehorende herinneringen vertegenwoordigen. Zoiets als de hippocampus die in zijn cellen een kaart van de omgeving maakt. Wittington en zijn team combineerden vervolgens de werelden van AI en neurowetenschappen en creëerden de TEM-t (die uit de naam klinkt als een geavanceerde versie van een Terminator), een veel efficiënter en capabeler model. waarin individuele cellen of groepen cellen verschillende aspecten van de omgeving en bijbehorende herinneringen vertegenwoordigen. Zoiets als de hippocampus die in zijn cellen een kaart van de omgeving maakt. Wittington en zijn team combineerden vervolgens de werelden van AI en neurowetenschappen en creëerden de TEM-t (die uit de naam klinkt als een geavanceerde versie van een Terminator), een veel efficiënter en capabeler model.(Whittington, Warren en Behrens 2021).
Dus wat zijn de neurowetenschappelijke implicaties? Het is een redelijk geaccepteerde hypothese dat de TEM het fenomeen van de hippocampus reproduceert. Als t-TEM het nog beter kan, betekent dit dat het model van DL enkele verklaringen zou kunnen verbergen voor hoe neuronen werken op het niveau van de hippocampus.
Het observeren van de kunstmatige neuronen zou ons dus kunnen helpen de echte te begrijpen. Einde van het formulier
Kun je ons helpen om meer te worden? Word lid en doe mee. Zeg het voort op de netwerken. Neem contact met ons op en vertel ons over uzelf en uw project.
Alfonso de Gorostegui
PhD Candidate in Neuroscience