Gezichtsherkenning is een van de gebieden waarop machinaal leren wordt toegepast en wordt op vele gebieden toegepast, van het taggen van foto’s op sociale media en het matchen van mensen met dezelfde gelaatstrekken op datingsites, tot het opsporen van criminelen en het beveiligen van grenzen, tot het op afstand houden van high rollers in casino’s.
Ik vind het fascinerend dat we het proces van gezichtsherkenning met een aanzienlijke mate van precisie kunnen simuleren, terwijl er tegelijkertijd mensen zijn die lijden aan prosopagnosie, of “gezichtsblindheid”, die niet zo gelukkig zijn. Een auteur van een Cracked artikel waar ik een tijdje geleden op stuitte beschrijft deze ervaring als het zien van een stapel LEGO’s waarbij je, zodra je wegkijkt, niet langer in detail kunt beschrijven welke kleur en vorm elk stukje had of hoe ze waren gepositioneerd. Ik heb me afgevraagd of deze cognitieve stoornis iets te maken heeft met geheugentoewijzing. Gelukkig hebben computers geheugen in overvloed, en we zijn nog niet eens begonnen aan het oppervlak van alle mogelijkheden die quantumcomputing zal bieden.
Maar terug naar eigenfaces.
De visuele gegevens in een afbeelding kunnen in kaart worden gebracht in een vector waarbij elk gegeven de helderheid van de corresponderende pixel weergeeft. Door een reeks beelden te nemen, kan dan een matrix worden geconstrueerd met elke rij die met een specifieke beeldvector overeenkomt. Idealiter worden de beelden eerst genormaliseerd om basiskenmerken zoals ogen, neus en mond op één lijn te brengen om de nauwkeurigheid te verhogen en ruis te verminderen. Eigenfaces zijn dan de eigenvectoren die worden afgeleid uit de covariantiematrix van deze matrix van geparseerde gezichtsgegevens.
De dataset van gezichten die we gebruikten werd vriendelijk ter beschikking gesteld door AT&T Laboratories in Cambridge en bestond uit 40 individuele gezichten, 10 beelden van elk met variërende gezichtsuitdrukkingen en hoofdposities.