Announcement of the defence of the dissertation of Oleksandr Lytvyn
Dovoľujeme si oznámiť, že dňa 26. augusta 2025 o 11.45 hod.
sa uskutoční na Fakulte informatiky a informačných technológií STU v Bratislave, Ilkovičova 2, 842 16 Bratislava, v miestnosti č. 3.08, obhajoba dizertačnej práce/
We would like to announce that on 26 August 2025 at 11:45 a.m. will be held at the Faculty of Informatics and Information Technology STU in Bratislava, Ilkovičova 2, 842 16 Bratislava, in room No. 3.08, the defence of the doctoral thesis of a PhD student
Ing. Oleksandra Lytvyna/
Ing. Oleksandr Lytvyn
Názov dizertačnej práce/Thesis title:
Machine Learning and Sensitive Data Protection
Machine Learning and Sensitive Data Protection
Odbor/Study field: Informatika/Computer Science
Študijný program/Study program: Aplikovaná informatika/Applied informatics
Školiteľ/Supervisor: doc. Ing. Giang Nguyen Thu, PhD. – FIIT STU v Bratislave
Abstrakt/Annotation:
Citlivé informácie sú kľúčové pre mnohé kritické odvetvia, pretože umožňujú strojovému učenie odvodiť cenné poznatky. Avšak ich distribuovaný a dôverný charakter obmedzuje ich plné využitie. Organizačné bariéry, právne predpisy a nedôvera medzi subjektami si vyžadujú súkromie chrániace alternatívy priameho zdieľania údajov. Tieto výzvy sú obzvlášť výrazné v kybernetickej bezpečnosti, kde neoprávnený prístup k údajom môže odhaliť kritické zraniteľnosti a zhoršiť hrozby pre systémy. Preto táto práca skúma aplikáciu technológií na zlepšenie ochrany súkromia na zabezpečenú spoluprácu s citlivými údajmi. Navrhuje sa hybridný prístup k ochrane súkromia pri distribuovanom monitorovaní sietí. Tento prístup využíva federatívne učenie na kolaboratívne učenie výmenou váh modelov namiesto surových údajov. Na zvýšenie bezpečnosti počas agregácie sa používa zabezpečený výpočet viacerých strán čo zaisťuje ochranu zdieľaných artefaktov. Experimentálne výsledky dokazujú realizovateľnosť tohto prístupu v rôznych distribučných nastaveniach, pričom výsledné modely prekonávajú modely trénované jednotlivými klientmi, čo potvrdzuje efektivitu kolaboratívneho učenia s ochranou súkromia. Navrhované riešenie zaplňuje medzeru v spolupráci s ochranou súkromia v kybernetickej bezpečnosti, umožňujúc viacerým subjektom bezpečnú spoluprácu v strojovom učení bez ohrozenia dátového súkromia alebo potreby vzájomnej dôvery.
Sensitive information is central to many critical sectors, enabling machine learning approaches to derive valuable insights, yet the distributed and private nature limits its full utilization. Organizational silos, legal regulations, and the absence of trust between entities, require privacy-preserving alternatives to direct data sharing. These challenges are especially pronounced in cybersecurity, where unauthorized data access could expose critical vulnerabilities and amplify system threats. Therefore, this thesis explores the application of Privacy Enhancing Technologies to secure collaboration on sensitive data. The hybrid privacy-preserving learning approach is proposed for distributed network monitoring. The approach uses Federated Learning for collaborative learning through the exchange of model weights instead of raw data. To enhance security during aggregation, Secure Multi-Party Computation is employed, ensuring that shared artifacts remain protected. The experimental results demonstrate the approach’s feasibility in multiple data distribution settings, with the resulting models outperforming their single-client counterparts, validating the effectiveness of collaborative privacy-preserving training. The proposed solution fills the gap in privacy-preserving collaboration in the cybersecurity space, allowing multiple entities secure machine learning collaboration without compromising data privacy or requiring mutual trust.