Prywatność w uczeniu maszynowym
Szereg zastosowań uczenia maszynowego obejmuje zagadnienia, w których prywatność ma szczególne znaczenie. Dotyczy to zarówno przypadków, w których tajemnica dotyczy danych treningowych, na których uczony jest algorytm (np. gdy dane te zawierają informacje medyczne), jak i takich, w których sam algorytm podlega ochronie, gdyż np. jego znajomość ujawnia pewne informacje na temat danych treningowych. Rozwój metod ochrony prywatności jest punktem centralnym prowadzonych badań.
Badamy rozwiązania oparte o technologię obliczeń wielopodmiotowych (multiparty computation protocols). Technologia ta pozwala na wykonywanie obliczeń na rozproszonych danych w taki sposób, żeby dane te nie zostały ujawnione osobom postronnym. Pokrewną metodą, którą również badamy w tym kontekście, jest tzw. szyfrowanie homomorficzne (homomorphic encryption), które dodatkowo minimalizuje konieczność interakcji między stronami wykonującymi algorytm. Ponadto, badania prowadzone w IDEAS NCBR dotyczą możliwych zastosowań tzw. zaufanych środowisk wykonawczych (trusted execution environment) do zwiększenia prywatności wykonywanych obliczeń.
Osobnym zagadnieniem jest zapewnienie, że wynik obliczeń nie zdradza prywatnych informacji na temat danych wejściowych. Technologią wykorzystywaną przez nas w tym kontekście jest tzw. prywatność różnicowa (differential privacy). Metoda oparta jest na odpowiednim dodawaniu losowego szumu do wyniku obliczeń, tak żeby nie można było zeń wydedukować informacji na temat poszczególnych elementów danych wejściowych.
Wymienione wyżej technologie rozwijane są w informatyce teoretycznej od wielu lat. Wartość dodana naszych badań wynika ze współpracy z innymi zespołami naukowymi IDEAS NCBR, które zajmują się uczeniem maszynowym. Interakcje te pozwalają na dostosowanie rozwiązań do konkretnych problemów występujących w tej dziedzinie badań.
Uczenie maszynowe w analizie bezpieczeństwa
Jednym z głównych problemów związanych z wielopodmiotowymi protokołami kryptograficznymi jest to, że zdecentralizowane rozwiązania są zazwyczaj bardziej złożone i podatne na błędy niż rozwiązania scentralizowane, a błędy w takich protokołach mogą prowadzić do znacznych strat finansowych. W IDEAS NCBR zajmujemy się rozwiązywaniem tych problemów za pomocą narzędzi pochodzących z metod formalnych. W szczególności, pracujemy nad użyciem metod uczenia maszynowego do dowodzenia poprawności protokołów kryptograficznych. Jest to obiecujące podejście, ponieważ w wielu przypadkach analiza ta zawiera powtarzalne elementy, które potencjalnie dają się zautomatyzować. Wyzwaniem natomiast jest znalezienie odpowiednich danych treningowych.
Bezpieczniejszy blockchain
Technologia blockchain została wprowadzona w 2008 r. Pod tą nazwą rozumie się zwykle protokoły kryptograficzne służące do osiągania konsensusu na dużą skalę w sieciach rozproszonych. Protokoły te mogą pracować w tak zwanym wariancie permissionless, w którym zbiór uczestników nie jest określony a priori, lub w wariancie permissioned, w którym konsensus jest utrzymywany przez wstępnie zdefiniowane grupy serwerów.
Początkowe zastosowania tej technologii dotyczyły sektora finansowego, służyły głównie do tworzenia nowych wirtualnych kryptowalut (takich jak bitcoin). Jednak obecnie uważa się, że technologia ta ma o wiele więcej zastosowań, w szczególności w systemach zarządzania tożsamością cyfrową, w zarządzaniu kredytami hipotecznymi, systemach rejestracji własności gruntów, monitorowaniu łańcuchów dostaw, ubezpieczeniach, badaniach klinicznych, w zarządzaniu prawami autorskimi, prowadzeniu zdecentralizowanych organizacji, w zarządzaniu obrotem energii czy w Internecie rzeczy (IoT). W IDEAS NCBR zajmujemy się badaniem praktycznych aspektów tej technologii, takich jak bezpieczeństwo tzw. portfeli kryptowalutowych, protokoły konsensusu czy inteligentne kontrakty.