ПІДХОДИ ДО ЗАБЕЗПЕЧЕННЯ КОНФІДЕНЦІЙНОСТІ ДАНИХ У МОДЕЛЯХ МАШИННОГО НАВЧАННЯ
DOI:
https://doi.org/10.31319/2519-8106.1(54)2026.352417Ключові слова:
диференційна приватність, рекомендаційні системи, ε -приватність, механізм Лапласа, колаборативна фільтрація, матрична факторизаціяАнотація
Зростання ризиків компрометації персональних даних у цифрових мережах зумовлює актуальність впровадження формальних гарантій конфіденційності у рекомендаційні сервіси. У роботі проведено комплексне дослідження впливу механізмів диференційної приватності на ефективність алгоритмів колаборативної фільтрації та матричної факторизації, зокрема з використанням методу сингулярного розкладу як базового інструменту побудови латентних представлень. Для оцінки стійкості моделей до атак на інверсію та несанкціоноване відновлення даних реалізовано модифікації методів із використанням адитивних шумів Лапласа та Ґауса, інтегрованих у процес навчання.
Експериментальна база дослідження базується на метаданих платформи RAWG.io, що дозволило створити реалістичне середовище моделювання поведінки користувачів. Проведено серію експериментів для аналізу нелінійної залежності між параметром бюджету приватності ε та точністю прогнозів за метриками Precision@10 та середньоквадратичної похибки RMSE. Емпірично встановлено наявність суттєвого компромісу між корисністю системи та приватністю: при слабкому рівні захисту (ε = 5.0) модель зберігає високу релевантність (Precision = 0.81), тоді як оптимальний баланс досягається в діапазоні ε = 1.0–2.0, де точність становить 55—65 %. Граничне посилення конфіденційності (ε = 0.1) призводить до деградації показників до 0.39—0.46 через домінування стохастичного шуму.
Доведено вищу стійкість SVD-фільтрації до шумового впливу порівняно з контентно-орієнтованими підходами завдяки здатності алгоритму зберігати структурні закономірності у латентному просторі. Висновки підтверджують можливість інтеграції механізмів диференційної приватності у комерційні рекомендаційні системи за умови коректного калібрування рівня шуму. Перспективи подальших досліджень пов’язані з розробкою адаптивних механізмів додавання шуму з урахуванням щільності та розрідженості даних.
Посилання
Shokri R., Stronati M., Song C., Shmatikov V. (2017). Membership inference attacks against machine learning models. In: Proc. 2017 IEEE Symposium on Security and Privacy (SP). San Jose, CA, USA. P. 3–18 [in English]. DOI: https://doi.org/10.1109/SP.2017.41
He X., Liao L., Zhang H., Nie L., Hu X., Chua T.-S. (2017). Neural collaborative filtering. In: Proceedings of the 26th International Conference on World Wide Web (WWW ’17). Perth, Aus-tralia. P. 173–182 [in English]. DOI: https://doi.org/10.1145/3038912.3052569
Dwork C., Roth A. (2014). The algorithmic foundations of differential privacy. Foundations and Trends in Theoretical Computer Science. Vol. 9, No. 3–4. P. 211–407 [in English]. DOI: https://doi.org/10.1561/0400000042
Abadi M., Chu A., Goodfellow I. et al. (2016). Deep learning with differential privacy. In: Proc. 2016 ACM SIGSAC Conference on Computer and Communications Security (CCS ’16). New York, NY, USA. P. 308–318 [in English]. DOI: https://doi.org/10.1145/2976749.2978318
Wang T., Fan L., Jin H., Wang P., Yang Q. (2020). A comprehensive survey on local differen-tial privacy: Theory, methods, and applications. Sensors. Vol. 20, No. 12. Art. 3436 [in Eng-lish]. DOI: https://doi.org/10.3390/s20123436
Wu C., Wu F., Lyu L. et al. (2022). A federated graph neural network framework for privacy-preserving personalization. Nat Commun. Vol. 13. Article 3091. DOI: https://doi.org/10.1038/s41467-022-30714-9
Wang J., Guo S., Xie X., Qi H. (2022). Protect privacy from gradient leakage attack in federated learning. In: Proceedings of the 41st IEEE International Conference on Computer Communica-tions (INFOCOM ’22). P. 580–589 [in English]. DOI: https://doi.org/10.1109/INFOCOM48880.2022.9796841
Müllner P. (2023). Differential privacy in collaborative filtering recommender systems. Frontiers in Big Data. Vol. 6. Art. 1151053 [in English]. DOI: https://doi.org/10.3389/fdata.2023.1249997
Milano S., Taddeo M., Floridi L. (2020). Recommender systems and their ethical challenges. AI & Society. Vol. 35. P. 957–967 [in English]. DOI: https://doi.org/10.1007/s00146-020-00950-y
Yang Z., Zhang X., He X. et al. (2021). Membership inference attacks against recommender systems. In: Proc. 2021 ACM Conference on Computer and Communications Security (CCS). Seoul, South Korea. P. 864–879 [in English]. DOI: https://doi.org/10.1145/3460120.3485365
Zhu L., Liu Z., Han S. (2019). Deep leakage from gradients. In: Advances in Neural Information Processing Systems (NeurIPS ’19). P. 1–11 [in English]. DOI: https://doi.org/10.48550/arXiv.1906.08935
Fredrikson M., Jha S., Ristenpart T. (2015). Model inversion attacks that exploit confidence in-formation and basic countermeasures. In: Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (CCS ’15). Denver, CO, USA. P. 1322–1333 [in English]. DOI: https://doi.org/10.1145/2810103.2813677
Hitaj B., Ateniese G., Perez‑Cruz F. (2017). Deep models under the GAN: Information leakage from collaborative deep learning. Proc. 2017 ACM SIGSAC CCS. Dallas, TX, USA. P. 603–618. DOI: https://doi.org/10.1145/3133956.3134012
Gomez-Uribe C.A., Hunt N. (2016). The Netflix recommender system: algorithms, business value, and innovation. ACM Transactions on Management Information Systems. Vol. 6, No. 4. Art. 13 [in English]. DOI: https://doi.org/10.1145/2843948
Zhang S., Yao L., Sun A., Tay Y. (2019). Deep learning based recommender system: a survey and new perspectives. ACM Computing Surveys. Vol. 52, No. 1. Art. 5 [in English]. DOI: https://doi.org/10.1145/3285029
Zhulkovskii O., Panteikov S., Zhulkovskaya I. (2022). Information-modeling forecasting system for thermal mode of top converter lance. Steel in Translation. Vol. 52, No. 5, P. 495–502. [in English]. DOI: https://doi.org/10.3103/S0967091222050138
Shokri R., Stronati M., Song C., Shmatikov V. Membership inference attacks against machine learning models. Proc. 2017 IEEE Symposium on Security and Privacy (SP). San Jose, CA, USA. 2017. P. 3–18. DOI: https://doi.org/10.1109/SP.2017.41
He X., Liao L., Zhang H., Nie L., Hu X., Chua T.-S. Neural collaborative filtering. Proceedings of the 26th International Conference on World Wide Web (WWW ’17). Perth, Australia. 2017. P. 173–182. DOI: https://doi.org/10.1145/3038912.3052569
Dwork C., Roth A. The algorithmic foundations of differential privacy. Foundations and Trends in Theoretical Computer Science. 2014. Vol. 9, № 3–4. P. 211–407. DOI: https://doi.org/10.1561/0400000042
Abadi M., Chu A., Goodfellow I. et al. Deep learning with differential privacy. Proc. 2016 ACM SIGSAC Conference on Computer and Communications Security (CCS ’16). New York, NY, USA. 2016. P. 308–318. DOI: https://doi.org/10.1145/2976749.2978318
Wang T., Fan L., Jin H., Wang P., Yang Q. A comprehensive survey on local differential privacy: Theory, methods, and applications. Sensors. 2020. Vol. 20, № 12. Article 3436. DOI: https://doi.org/10.3390/s20123436
Wu C., Wu F., Lyu L. et al. A federated graph neural network framework for privacy-preserving personalization. Nat Commun. 2022. Vol. 13. Article 3091. DOI: https://doi.org/10.1038/s41467-022-30714-9
Wang J., Guo S., Xie X., Qi H. Protect privacy from gradient leakage attack in federated learning. Proceedings of the 41st IEEE International Conference on Computer Communications (INFOCOM ’22). 2022. P. 580–589. DOI: https://doi.org/10.1109/INFOCOM48880.2022.9796841
Müllner P. Differential privacy in collaborative filtering recommender systems. Frontiers in Big Data. 2023. Vol. 6. Article 1151053. DOI: https://doi.org/10.3389/fdata.2023.1249997
Milano S., Taddeo M., Floridi L. Recommender systems and their ethical challenges. AI & Society. 2020. Vol. 35. P. 957–967. DOI: https://doi.org/10.1007/s00146-020-00950-y
Yang Z., Zhang X., He X. et al. Membership inference attacks against recommender systems. Proc. 2021 ACM Conference on Computer and Communications Security (CCS). Seoul, South Korea. 2021. P. 864–879. DOI: https://doi.org/10.1145/3460120.3485365
Zhu L., Liu Z., Han S. Deep leakage from gradients. Advances in Neural Information Processing Systems (NeurIPS ’19). 2019. P. 1–11. DOI: https://doi.org/10.48550/arXiv.1906.08935
Fredrikson M., Jha S., Ristenpart T. Model inversion attacks that exploit confidence information and basic countermeasures. Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (CCS ’15). Denver, CO, USA. 2015. P. 1322–1333. DOI: https://doi.org/10.1145/2810103.2813677
Hitaj B., Ateniese G., Perez-Cruz F. Deep models under the GAN: Information leakage from collaborative deep learning. Proc. 2017 ACM SIGSAC CCS. Dallas, TX, USA. 2017. P. 603–618. DOI: https://doi.org/10.1145/3133956.3134012
Gomez-Uribe C. A., Hunt N. The Netflix recommender system: algorithms, business value, and innovation. ACM Transactions on Management Information Systems. 2016. Vol. 6, № 4. Article 13. DOI: https://doi.org/10.1145/2843948
Zhang S., Yao L., Sun A., Tay Y. Deep learning based recommender system: a survey and new perspectives. ACM Computing Surveys. 2019. Vol. 52, № 1. Article 5. DOI: https://doi.org/10.1145/3285029
Zhulkovskii O., Panteikov S., Zhulkovskaya I. Information-modeling forecasting system for thermal mode of top converter lance. Steel in Translation. 2022. Vol. 52, No. 5, P. 495–502. DOI: https://doi.org/10.3103/S0967091222050138
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:
a. Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
b. Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
c. Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).