Stačí krátké video, ve kterém je dobře vidět obličej člověka a krátká řeč, například představení se, a nová technologie z laboratoře výzkumníků FAV ZČU vytvoří takzvaný hash, tedy sekvenci binárně kódovaných čísel, která jsou pro tuto osobu unikátní. Nikde už pak není potřeba ukládat původní obrazový nebo zvukový záznam dané osoby, ani její jméno, a přesto existuje unikátní klíč k identifikaci. Aplikace využívá prostředků umělé inteligence, konkrétně počítačového vidění a rozpoznávání řeči.
„Cílem výzkumu bylo připravit aplikaci, která by dovolovala jednoduše ověřovat identitu osoby, například místo podpisu při převzetí zásilky od kurýra tak, aby to jednak pro tuto osobu bylo co nejméně obtěžující a jednak aby nemusela být během kterékoliv fáze procesu ověřování ukládána jakákoliv data, která mohou být považována za osobní či citlivá ve smyslu ustanovení evropské směrnice GDPR,” vysvětlil Kamil Ekštein z FAV.
Do případné databáze ověřovaných osob se tedy uloží pouze číslo (technicky přesně je to vektor 238 reálných čísel). „Je-li třeba ověřit totožnost takové osoby, opět se provede pomocí aplikace pro chytrý telefon její audiovizuální záznam s tím, že pronese buď stejnou, nebo i jinou promluvu jako při podpisu, a software vyhodnotí, zda se hash získaný z ověřovacího záznamu shoduje s uloženým hashem pořízeným při podpisu,“ dodal Kamil Ekštein. Jsou-li pak v rámci technologií definované metriky shodné, je osoba prohlášena za ověřenou.
Podstatnou výhodou technologie Saynature je kromě zmíněné kompatibility se směrnicí GDPR také fakt, že hash je poměrně krátký a lze jej snadno zakódovat například do QR kódu, který může být vytištěn a nalepen na zásilce. Název technologie Saynature je slovní hříčka. Jde o deformaci slova „signature" (podpis) tak, aby bylo patrné, že při použití této technologie stačí podpis jen vyslovit („say").
Technologie Saynature je nyní v procesu získání patentové ochrany podanou přihláškou U. S. Provisional Patent Application No. 63/601,118.
Fakulta aplikovaných věd |
Martina Batková |
05. 03. 2025 |