Dane biometryczne, takie jak wizerunek twarzy czy odciski palców, są jednym z najbardziej wrażliwych rodzajów informacji przetwarzanych przez organizacje. RODO klasyfikuje je jako szczególną kategorię danych osobowych, jeśli są wykorzystywane do jednoznacznej identyfikacji osoby. Z tego powodu każda operacja na materiałach wideo i zdjęciach zawierających twarze lub obrazy odcisków palców wymaga szczególnego podejścia do anonimizacji.
W praktyce wiele systemów rozpoznawania twarzy i odcisków palców działa w oparciu o dwa poziomy informacji. Pierwszy to surowy obraz: nagranie z kamery, fotografia, skan linii papilarnych. Drugi to wygenerowane na tej podstawie cechy biometryczne, wykorzystywane później do dopasowania osób. Blurowanie zdjęć i rozmywanie fragmentów obrazu dotyka przede wszystkim pierwszego poziomu, ale ma kluczowe znaczenie dla ograniczania ryzyka ponownej identyfikacji.
Dane biometryczne w obrazie – gdzie pojawia się ryzyko?
Ryzyko naruszenia ochrony danych biometrycznych nie dotyczy wyłącznie systemów stricte „biometrycznych”, takich jak czytniki linii papilarnych przy wejściu czy bramki z rozpoznawaniem twarzy. Dane biometryczne znajdują się także na:
- nagraniach z monitoringu wizyjnego,
- materiałach z rejestratorów osobistych służb,
- zdjęciach dokumentujących zdarzenia operacyjne,
- fotografiach i nagraniach wykorzystywanych w szkoleniach i raportach.
W takich materiałach twarz oraz szczegółowe ujęcia dłoni i palców mogą zostać przetworzone przez zewnętrzne systemy rozpoznawania. Nawet jeśli administrator nie wykorzystuje takich systemów, powinien brać pod uwagę, że po udostępnieniu materiału strona trzecia może podjąć próbę identyfikacji osoby na podstawie dostępnego obrazu.
Blurowanie twarzy jako element anonimizacji danych biometrycznych
Blurowanie zdjęć oraz rozmywanie twarzy na nagraniach wideo to jedna z podstawowych metod zmniejszania ryzyka związanego z danymi biometrycznymi. Celem jest takie przetworzenie obrazu, aby:
- nie było możliwe rozpoznanie osoby na podstawie samego nagrania,
- ograniczyć możliwość wygenerowania wiarygodnych cech biometrycznych do celów rozpoznawania,
- jednocześnie zachować użyteczność materiału w kontekście dowodowym, operacyjnym lub szkoleniowym.
W wielu studiach przypadków dotyczących monitoringu miejskiego, transportu publicznego czy systemów bezpieczeństwa, zamazywanie twarzy stało się standardem przy udostępnianiu materiałów mediom albo publikacji fragmentów nagrań na policyjnych kanałach YouTube. W bardziej wymagających scenariuszach stosowane są dodatkowe maski obejmujące fragmenty szyi, włosów lub charakterystyczne znamiona, aby utrudnić ponowną identyfikację.
Odciski palców w materiałach wizualnych
Odciski palców kojarzą się przede wszystkim z bazami daktyloskopijnymi i systemami do automatycznego rozpoznawania linii papilarnych. Jednak obrazy odcisków palców mogą pojawiać się także w materiałach wizualnych:
- fotografiach kart daktyloskopijnych,
- materiałach szkoleniowych,
- dokumentacji technik kryminalistycznych,
- nagraniach z miejsc zdarzeń, gdzie utrwalono np. proces zabezpieczania śladów.
Jeśli takie materiały są przekazywane na zewnątrz, niezasłonięty obraz odcisku palca może stanowić dane biometryczne w rozumieniu RODO. W zależności od kontekstu organizacje stosują różne metody maskowania, od prostego zakrycia fragmentu obrazu po kontrolowane rozmywanie obszaru dłoni czy samych linii papilarnych. Technicznie jest to ten sam proces, co blurowanie twarzy, ale wymaga precyzyjnego zaznaczenia obszaru i wysokiej jakości detekcji, ponieważ ujawnienie niewielkiego fragmentu może mieć znaczenie identyfikacyjne.

AI w ochronie danych biometrycznych na zdjęciach i nagraniach
Wysoka jakość anonimizacji danych biometrycznych wymaga stabilnej i powtarzalnej detekcji obszarów, które muszą zostać zamazane. Sztuczna inteligencja jest wykorzystywana zarówno do wykrywania twarzy, jak i dłoni, a także do automatycznego odnajdywania tablic rejestracyjnych. Kluczowe parametry takich systemów to:
- skuteczność detekcji w różnych warunkach oświetleniowych,
- odporność na ruch, zasłonięcia, częściowy profil twarzy,
- niewielki odsetek błędów w postaci niewykrytych obiektów.
Automatyzacja procesu z użyciem AI jest szczególnie ważna w środowiskach, gdzie przetwarzane są tysiące godzin nagrań miesięcznie. Ręczne zasłanianie twarzy i innych wrażliwych obszarów jest w takich warunkach niewykonalne operacyjnie. Zastosowanie silników AI zwiększa także spójność i powtarzalność anonimizacji, co ma znaczenie w przypadku analiz wykonywanych na potrzeby kontroli lub audytów ochrony danych osobowych.
RODO, minimalizacja danych i architektura on-premise
Z punktu widzenia RODO, blurowanie zdjęć i nagrań wideo wpisuje się w zasadę minimalizacji danych oraz w podejście privacy by design. System ochrony danych biometrycznych powinien być zaprojektowany tak, aby:
- ograniczać zakres widocznych danych do niezbędnego minimum,
- umożliwiać kontrolę nad tym, które obszary obrazu są anonimizowane,
- zapewniać audytowalność procesu (logi, raporty z przetwarzania, wersjonowanie plików).
Jednocześnie istnieją trzy wyjątki, w których anonimizacja lub zgoda osoby utrwalonej na nagraniu nie jest wymagana:
- Gdy osoba jest powszechnie znana (osoba publiczna), a jej wizerunek został utrwalony w związku z pełnieniem funkcji publicznych.
- Gdy osoba stanowi jedynie szczegół całości, takiej jak zgromadzenie, krajobraz czy publiczna impreza.
- Gdy osoba otrzymała zapłatę za pozowanie, o ile nie zastrzegła braku zgody na rozpowszechnianie jej wizerunku.
W wielu organizacjach szczególnie istotne jest, aby materiały z rozpoznawania twarzy, odcisków palców lub monitoringu nie opuszczały infrastruktury wewnętrznej. Dlatego przewagę często mają rozwiązania on-premise, w których silnik anonimizacji działa we własnym centrum danych. Rozwiązania, takie jak Gallio PRO, pozwalają prowadzić cały proces blurowania twarzy, zamazywania tablic rejestracyjnych oraz ochrony danych biometrycznych bez wysyłania materiałów do chmury zewnętrznego dostawcy, co ułatwia spełnienie wymogów inspektora ochrony danych oraz wewnętrznych polityk bezpieczeństwa.
Praktyczne testy systemu i kolejne kroki
Wdrożenie systemu do anonimizacji danych biometrycznych zwykle poprzedzają testy na rzeczywistych materiałach organizacji. Pozwalają one sprawdzić skuteczność blurowania twarzy i maskowania obszarów zawierających odciski palców, ocenić wydajność przetwarzania oraz zweryfikować zgodność z przyjętymi standardami RODO.
Na stronie Gallio PRO (https://gallio.pro/) dostępne są ścieżki dalszego działania, takie jak możliwość pobrania wersji demonstracyjnej, nawiązania kontaktu z zespołem wdrożeniowym oraz szczegółowego zapoznania się z funkcjami systemu. Opcje te tworzą naturalny ciąg kolejnych kroków: od analizy wymogów, przez praktyczne testy blurowania zdjęć i nagrań wideo, aż po decyzję o wdrożeniu rozwiązania w modelu produkcyjnym w organizacji.
