Vertel uw kitten wat u van binnen denkt - het black box-effect
Technologie

Vertel uw kitten wat u van binnen denkt - het black box-effect

Het feit dat geavanceerde AI-algoritmen als een zwarte doos (1) zijn die een resultaat weggooit zonder te onthullen hoe het tot stand is gekomen, baart sommigen zorgen en anderen van streek.

In 2015 werd een onderzoeksteam van het Mount Sinai Hospital in New York gevraagd deze methode te gebruiken om een ​​uitgebreide database van lokale patiënten te analyseren (2). Deze enorme collectie bevat een oceaan aan patiëntinformatie, testresultaten, doktersrecepten en meer.

Wetenschappers noemden het analytische programma dat in de loop van het werk was ontwikkeld. Het trainde op basis van gegevens van ongeveer 700 mensen. menselijk, en wanneer het in nieuwe registers wordt getest, is het uiterst effectief gebleken bij het voorspellen van ziekten. Zonder de hulp van menselijke experts ontdekte hij patronen in ziekenhuisdossiers die aangeven welke patiënt op weg is naar een ziekte, zoals leverkanker. Volgens deskundigen was de prognostische en diagnostische efficiëntie van het systeem veel hoger dan die van andere bekende methoden.

2. Medisch artificieel intelligentiesysteem gebaseerd op patiëntendatabases

Tegelijkertijd merkten de onderzoekers dat het op een mysterieuze manier werkt. Het bleek bijvoorbeeld dat het er ideaal voor is herkenning van psychische stoornissenzoals schizofrenie, wat voor artsen uiterst moeilijk is. Dit was verrassend, vooral omdat niemand enig idee had hoe het AI-systeem psychische aandoeningen zo goed kon zien, alleen op basis van de medische dossiers van de patiënt. Ja, de specialisten waren erg blij met de hulp van zo’n efficiënte machinediagnosticus, maar ze zouden veel tevredener zijn als ze begrepen hoe de AI tot haar conclusies komt.

Lagen van kunstmatige neuronen

Vanaf het allereerste begin, dat wil zeggen vanaf het moment dat het concept van kunstmatige intelligentie bekend werd, waren er twee standpunten over AI. De eerste suggereerde dat het zeer redelijk zou zijn om machines te bouwen die redeneren in overeenstemming met bekende principes en menselijke logica, waardoor hun innerlijke werking voor iedereen transparant wordt. Anderen geloofden dat intelligentie gemakkelijker zou ontstaan ​​als machines zouden leren door observatie en herhaalde experimenten.

Dit laatste betekent het omkeren van typische computerprogrammering. In plaats dat de programmeur opdrachten schrijft om een ​​probleem op te lossen, genereert het programma eigen algoritme op basis van voorbeeldgegevens en het gewenste resultaat. Methoden voor machinaal leren die later uitgroeiden tot de krachtigste AI-systemen die we vandaag de dag kennen, zijn feitelijk het pad ingeslagen van: de machine zelf programmeert.

Deze aanpak bleef in de jaren zestig en zeventig in de marge van het onderzoek naar AI-systemen. Pas aan het begin van het vorige decennium, na enkele baanbrekende veranderingen en verbeteringen, "Diepe" neurale netwerken begon een radicale verbetering aan te tonen in de mogelijkheden van geautomatiseerde perceptie. 

Dankzij diepgaand machinaal leren hebben computers buitengewone capaciteiten gekregen, zoals het vermogen om gesproken woorden bijna net zo nauwkeurig te herkennen als die van mensen. Dit is een te complexe vaardigheid om van tevoren te programmeren. De machine moet zijn eigen "programma" kunnen maken training op grote datasets.

Deep learning heeft ook de beeldherkenning van computers veranderd en de kwaliteit van automatische vertalingen aanzienlijk verbeterd. Tegenwoordig wordt het gebruikt om allerlei belangrijke beslissingen te nemen op het gebied van de geneeskunde, financiën, productie en meer.

Echter, met dit alles je kunt niet zomaar in een diep neuraal netwerk kijken om te zien hoe 'binnen' werkt. Netwerkredeneringsprocessen zijn ingebed in het gedrag van duizenden gesimuleerde neuronen, georganiseerd in tientallen of zelfs honderden ingewikkeld onderling verbonden lagen..

Elk van de neuronen in de eerste laag ontvangt invoer, zoals de intensiteit van een pixel in een afbeelding, en voert vervolgens berekeningen uit voordat de uitvoer wordt uitgevoerd. Ze worden in een complex netwerk verzonden naar de neuronen van de volgende laag - enzovoort, tot het uiteindelijke uitgangssignaal. Bovendien is er een proces dat bekend staat als het aanpassen van de berekeningen die door individuele neuronen worden uitgevoerd, zodat het trainingsnetwerk het gewenste resultaat oplevert.

In een vaak aangehaald voorbeeld met betrekking tot beeldherkenning van honden analyseren de lagere niveaus van AI eenvoudige kenmerken zoals vorm of kleur. De hogere behandelen complexere zaken zoals vacht of ogen. Alleen de bovenste laag brengt het allemaal samen en identificeert de volledige set informatie als een hond.

Dezelfde aanpak kan worden toegepast op andere soorten invoer die de machine ertoe aanzetten zichzelf te leren: geluiden waaruit woorden bestaan ​​in spraak, letters en woorden die zinnen vormen in geschreven tekst, of bijvoorbeeld een stuur. bewegingen die nodig zijn om een ​​voertuig te besturen.

De auto slaat niets over.

Er wordt geprobeerd uit te leggen wat er precies gebeurt in dergelijke systemen. In 2015 hebben onderzoekers van Google een deep learning-algoritme voor beeldherkenning aangepast, zodat het in plaats van objecten in foto's te zien, deze genereert of wijzigt. Door het algoritme achterstevoren uit te voeren, wilden ze ontdekken welke kenmerken het programma gebruikt om bijvoorbeeld een vogel of een gebouw te herkennen.

Deze experimenten, publiekelijk bekend als de titel, leverden verbazingwekkende afbeeldingen op van (3) groteske, bizarre dieren, landschappen en karakters. Door enkele geheimen van machinale perceptie te onthullen, zoals het feit dat bepaalde patronen herhaaldelijk terugkeren en herhaald worden, lieten ze ook zien hoe diep machinaal leren verschilt van menselijke perceptie – bijvoorbeeld in de zin dat het artefacten uitbreidt en dupliceert die we negeren. in ons proces van waarnemen zonder nadenken. .

3. Afbeelding gemaakt in het project

Overigens aan de andere kant hebben deze experimenten het mysterie van onze eigen cognitieve mechanismen ontrafeld. Misschien is het in onze perceptie dat er verschillende onbegrijpelijke componenten zijn die ervoor zorgen dat we iets onmiddellijk begrijpen en negeren, terwijl de machine geduldig zijn iteraties herhaalt op ‘onbelangrijke’ objecten.

Andere tests en onderzoeken werden uitgevoerd in een poging de machine te ‘begrijpen’. Jason Yosinski hij creëerde een hulpmiddel dat werkt als een sonde die in de hersenen zit en zich richt op elk kunstneuron en op zoek gaat naar het beeld dat dit het sterkst activeert. In het laatste experiment verschenen abstracte beelden als gevolg van het op heterdaad “gluren” van het netwerk, waardoor de processen die in het systeem plaatsvonden nog mysterieuzer werden.

Voor veel wetenschappers is een dergelijke studie echter een misverstand, omdat, naar hun mening, om het systeem te begrijpen en de patronen en mechanismen van een hogere orde van het nemen van complexe beslissingen te herkennen, alle computationele interacties in een diep neuraal netwerk. Het is een gigantisch doolhof van wiskundige functies en variabelen. Op dit moment is het voor ons onbegrijpelijk.

Computer start niet op? Waarom?

Waarom is het belangrijk om de besluitvormingsmechanismen van geavanceerde kunstmatige intelligentiesystemen te begrijpen? Er worden al wiskundige modellen gebruikt om te bepalen welke gevangenen voorwaardelijk kunnen worden vrijgelaten, wie een lening kan krijgen en wie een baan kan krijgen. Geïnteresseerden zouden graag willen weten waarom dit besluit is genomen en niet een ander besluit, wat de gronden en het mechanisme ervan zijn.

gaf hij toe in april 2017 in de MIT Technology Review. Tommy Yaakkola, een MIT-professor die werkt aan toepassingen voor machine learning. -.

Er bestaat zelfs een juridisch en politiek standpunt dat het vermogen om het besluitvormingsmechanisme van AI-systemen onder de loep te nemen en te begrijpen een fundamenteel mensenrecht is.

Sinds 2018 werkt de EU eraan om van bedrijven te eisen dat ze hun klanten uitleg geven over beslissingen die door geautomatiseerde systemen worden genomen. Het blijkt dat dit soms niet mogelijk is, zelfs niet met systemen die relatief eenvoudig lijken, zoals apps en websites die deep science gebruiken om advertenties te tonen of liedjes aan te bevelen.

De computers waarop deze services draaien, programmeren zichzelf, en ze doen het op manieren die wij niet kunnen begrijpen... Zelfs de ingenieurs die deze applicaties maken, kunnen niet volledig uitleggen hoe het werkt.

Voeg een reactie