Disputation: Alejandro Kuratomi Hernández

Disputation

Datum: torsdag 14 november 2024

Tid: 09.00 – 12.00

Plats: L30, DSV, Borgarfjordsgatan 12, Kista

Välkommen till en disputation på DSV! Alejandro Kuratomi Hernández doktorsavhandling handlar om maskininlärning och tolkningsbarhet.

Porträttbild på doktoranden Alejandro Kuratomi Hernández, DSV vid Stockholms universitet.
Alejandro Kuratomi Hernández. Foto: Åse Karlén.

14 november 2024 presenterar Alejandro Kuratomi Hernández sin doktorsavhandling på Institutionen för data- och systemvetenskap (DSV) vid Stockholms universitet. Titeln är ”Orange Juice: Enhancing Machine Learning Interpretability”.

Doktorand: Alejandro Kuratomi Hernández, DSV
Opponent: Toon Calders, Department of Computer Science, University of Antwerp
Huvudhandledare: Tony Lindgren, DSV
Handledare: Panagiotis Papapetrou, DSV

Kontaktuppgifter till Alejandro Kuratomi Hernández

Ladda ner avhandlingen från Diva

Disputationen genomförs i DSVs lokaler i Kista, med start klockan 9.00.
Hitta till DSV

 

Sammanfattning

I det nuvarande tillståndet av AIs utveckling är det rimligt att tro att AI
kommer att fortsätta att expandera och användas alltmer inom olika områden,
vilket i hög grad påverkar varje aspekt av mänsklighetens välfärd och försörjning. Olika AI-forskare och institutioner är dock överens om att AI har potential
att både vara extremt fördelaktigt och utgöra existentiella hot mot världen. Det
är nödvändigt att utveckla verktyg för att öppna AI-algoritmernas så kallade
svartalådor, för att öka förståelsen och pålitligheten av dem för att undvika
tänkbara skadliga framtidsscenarier.

Bristen på tolkningsbarhet av AI är en utmaning för dess egen utveckling,
eftersom det är ett hinder motsvarande de som utlöste tidigare AI-vintrar, såsom hårdvara, tekniska begränsningar eller allmänhetens överförväntningar.
Med andra ord, forskning inom tolkningsbarhet och modellförståelse kan att
hjälpa till att undvika en tredje AI-vinter, som, om den utlöses, kan vara förödande för den nuvarande världsekonomin.

Ur ett teoretiskt perspektiv kan delområdena lokal förklarbarhet och algoritmisk rättvisa behöva förbättras för att öka antalet förklaringar. Lokal förklarbarhet avser de algoritmer som försöker extrahera användbara förklaringar
till maskininlärningsmodellernas resultat för enskilda instanser, medan algoritmisk rättvisa avser studier av fördomar eller rättvisefrågor bland olika grupper av människor, när de dataset som används har människor som instanser.

Genom att ge en högre nivå av förklaringsnoggrannhet, förklaringstrohet och
förklaringsstöd för observationerna i varje dataset skulle det vara möjligt att
förbättra den övergripande nivån av förklaringarnas trovärdighet och begriplighet. Metoderna för förklarbarhet bör också tillämpas på praktiska scenarier.

När det gäller autonom körning är det viktigt för driften av dessa maskiner att
inte bara uppskatta positioneringsfelen i navigationssystemen utan också att
tillhandahålla konfidensintervall för dessa uppskattningar, och ML-modeller i
kombination med konform förutsägbarhet kan ge en lösning som fokuserar på
tillförlitligheten i dessa uppskattningar och prioriterar säkerheten.

Denna avhandling bidrar till forskningen inom området AI-tolkningsbarhet,
och fokuserar främst på algoritmer relaterade till lokal förklaringsbarhet, som
är de algoritmer som försöker extrahera användbara förklaringar av maskininlärningsmodeller på enskilda instanser. Specifikt syftar avhandlingen till att
förbättra kontrafaktiska och lokala surrogatförklaringsalgoritmer. Dessa förklaringsverktyg kan också avslöja förekomsten av fördomar eller rättviseproblem bland olika grupper av människor, närhelst datauppsättningarna har människor som instanser, därför är studiet av algoritmisk rättvisa en relevant del av
tolkningsbarhet. Denna avhandling presenterar lösningar för rättvis maskininlärning genom användning av lokala förklaringsmetoder, och föreslår två nya
metoder: en noggrannhetsbaserad kontrafaktisk baserad fördomsdetektering
och en kontrafaktisk metod för grupper avsedd för fördomsdetektering med åt-
gärder för att säkerställa rättvisa.

Slutligen är tanken bakom tolkningsbarhet att så småningom kunna implementera sådana metoder i verkliga tillämpningar. Denna avhandling presenterar en tillämpning av konformellprediktion på ett regressionsproblem relaterat till autonomafordonslokalisering som både genererar det förutsagda positioneringsfelet för ett fordon och dess konfidensintervall med en viss grad av signifikans.