ПІДХОДИ ДО ЗАБЕЗПЕЧЕННЯ КОНФІДЕНЦІЙНОСТІ ДАНИХ У МОДЕЛЯХ МАШИННОГО НАВЧАННЯ

Автор(и)

  • І.І. Жульковська Університет митної справи та фінансів, м. Дніпро, Україна https://orcid.org/0000-0002-6462-4299
  • О.О. Жульковський Дніпровський державний технічний університет, м. Кам’янське, Україна https://orcid.org/0000-0003-0910-1150
  • В.О. Яковенко Університет митної справи та фінансів, м. Дніпро, Україна https://orcid.org/0000-0002-9582-5990
  • Т.М. Рудянова Університет митної справи та фінансів, м. Дніпро, Україна https://orcid.org/0000-0002-8685-4132
  • Ю.А. Мала Університет митної справи та фінансів, м. Дніпро, Україна https://orcid.org/0000-0002-2539-4793
  • Д.О. Лебьодкін Дніпровський державний технічний університет, м. Кам’янське, Україна

DOI:

https://doi.org/10.31319/2519-8106.1(54)2026.352417

Ключові слова:

диференційна приватність, рекомендаційні системи, ε -приватність, механізм Лапласа, колаборативна фільтрація, матрична факторизація

Анотація

Зростання ризиків компрометації персональних даних у цифрових мережах зумовлює актуальність впровадження формальних гарантій конфіденційності у рекомендаційні сервіси. У роботі проведено комплексне дослідження впливу механізмів диференційної приватності на ефективність алгоритмів колаборативної фільтрації та матричної факторизації, зокрема з використанням методу сингулярного розкладу як базового інструменту побудови латентних представлень. Для оцінки стійкості моделей до атак на інверсію та несанкціоноване відновлення даних реалізовано модифікації методів із використанням адитивних шумів Лапласа та Ґауса, інтегрованих у процес навчання.

Експериментальна база дослідження базується на метаданих платформи RAWG.io, що дозволило створити реалістичне середовище моделювання поведінки користувачів. Проведено серію експериментів для аналізу нелінійної залежності між параметром бюджету приватності ε та точністю прогнозів за метриками Precision@10 та середньоквадратичної похибки RMSE. Емпірично встановлено наявність суттєвого компромісу між корисністю системи та приватністю: при слабкому рівні захисту (ε = 5.0) модель зберігає високу релевантність (Precision = 0.81), тоді як оптимальний баланс досягається в діапазоні ε = 1.0–2.0, де точність становить 55—65 %. Граничне посилення конфіденційності (ε = 0.1) призводить до деградації показників до 0.39—0.46 через домінування стохастичного шуму.

Доведено вищу стійкість SVD-фільтрації до шумового впливу порівняно з контентно-орієнтованими підходами завдяки здатності алгоритму зберігати структурні закономірності у латентному просторі. Висновки підтверджують можливість інтеграції механізмів диференційної приватності у комерційні рекомендаційні системи за умови коректного калібрування рівня шуму. Перспективи подальших досліджень пов’язані з розробкою адаптивних механізмів додавання шуму з урахуванням щільності та розрідженості даних.

Посилання

Shokri R., Stronati M., Song C., Shmatikov V. (2017). Membership inference attacks against machine learning models. In: Proc. 2017 IEEE Symposium on Security and Privacy (SP). San Jose, CA, USA. P. 3–18 [in English]. DOI: https://doi.org/10.1109/SP.2017.41

He X., Liao L., Zhang H., Nie L., Hu X., Chua T.-S. (2017). Neural collaborative filtering. In: Proceedings of the 26th International Conference on World Wide Web (WWW ’17). Perth, Aus-tralia. P. 173–182 [in English]. DOI: https://doi.org/10.1145/3038912.3052569

Dwork C., Roth A. (2014). The algorithmic foundations of differential privacy. Foundations and Trends in Theoretical Computer Science. Vol. 9, No. 3–4. P. 211–407 [in English]. DOI: https://doi.org/10.1561/0400000042

Abadi M., Chu A., Goodfellow I. et al. (2016). Deep learning with differential privacy. In: Proc. 2016 ACM SIGSAC Conference on Computer and Communications Security (CCS ’16). New York, NY, USA. P. 308–318 [in English]. DOI: https://doi.org/10.1145/2976749.2978318

Wang T., Fan L., Jin H., Wang P., Yang Q. (2020). A comprehensive survey on local differen-tial privacy: Theory, methods, and applications. Sensors. Vol. 20, No. 12. Art. 3436 [in Eng-lish]. DOI: https://doi.org/10.3390/s20123436

Wu C., Wu F., Lyu L. et al. (2022). A federated graph neural network framework for privacy-preserving personalization. Nat Commun. Vol. 13. Article 3091. DOI: https://doi.org/10.1038/s41467-022-30714-9

Wang J., Guo S., Xie X., Qi H. (2022). Protect privacy from gradient leakage attack in federated learning. In: Proceedings of the 41st IEEE International Conference on Computer Communica-tions (INFOCOM ’22). P. 580–589 [in English]. DOI: https://doi.org/10.1109/INFOCOM48880.2022.9796841

Müllner P. (2023). Differential privacy in collaborative filtering recommender systems. Frontiers in Big Data. Vol. 6. Art. 1151053 [in English]. DOI: https://doi.org/10.3389/fdata.2023.1249997

Milano S., Taddeo M., Floridi L. (2020). Recommender systems and their ethical challenges. AI & Society. Vol. 35. P. 957–967 [in English]. DOI: https://doi.org/10.1007/s00146-020-00950-y

Yang Z., Zhang X., He X. et al. (2021). Membership inference attacks against recommender systems. In: Proc. 2021 ACM Conference on Computer and Communications Security (CCS). Seoul, South Korea. P. 864–879 [in English]. DOI: https://doi.org/10.1145/3460120.3485365

Zhu L., Liu Z., Han S. (2019). Deep leakage from gradients. In: Advances in Neural Information Processing Systems (NeurIPS ’19). P. 1–11 [in English]. DOI: https://doi.org/10.48550/arXiv.1906.08935

Fredrikson M., Jha S., Ristenpart T. (2015). Model inversion attacks that exploit confidence in-formation and basic countermeasures. In: Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (CCS ’15). Denver, CO, USA. P. 1322–1333 [in English]. DOI: https://doi.org/10.1145/2810103.2813677

Hitaj B., Ateniese G., Perez‑Cruz F. (2017). Deep models under the GAN: Information leakage from collaborative deep learning. Proc. 2017 ACM SIGSAC CCS. Dallas, TX, USA. P. 603–618. DOI: https://doi.org/10.1145/3133956.3134012

Gomez-Uribe C.A., Hunt N. (2016). The Netflix recommender system: algorithms, business value, and innovation. ACM Transactions on Management Information Systems. Vol. 6, No. 4. Art. 13 [in English]. DOI: https://doi.org/10.1145/2843948

Zhang S., Yao L., Sun A., Tay Y. (2019). Deep learning based recommender system: a survey and new perspectives. ACM Computing Surveys. Vol. 52, No. 1. Art. 5 [in English]. DOI: https://doi.org/10.1145/3285029

Zhulkovskii O., Panteikov S., Zhulkovskaya I. (2022). Information-modeling forecasting system for thermal mode of top converter lance. Steel in Translation. Vol. 52, No. 5, P. 495–502. [in English]. DOI: https://doi.org/10.3103/S0967091222050138

Shokri R., Stronati M., Song C., Shmatikov V. Membership inference attacks against machine learning models. Proc. 2017 IEEE Symposium on Security and Privacy (SP). San Jose, CA, USA. 2017. P. 3–18. DOI: https://doi.org/10.1109/SP.2017.41

He X., Liao L., Zhang H., Nie L., Hu X., Chua T.-S. Neural collaborative filtering. Proceedings of the 26th International Conference on World Wide Web (WWW ’17). Perth, Australia. 2017. P. 173–182. DOI: https://doi.org/10.1145/3038912.3052569

Dwork C., Roth A. The algorithmic foundations of differential privacy. Foundations and Trends in Theoretical Computer Science. 2014. Vol. 9, № 3–4. P. 211–407. DOI: https://doi.org/10.1561/0400000042

Abadi M., Chu A., Goodfellow I. et al. Deep learning with differential privacy. Proc. 2016 ACM SIGSAC Conference on Computer and Communications Security (CCS ’16). New York, NY, USA. 2016. P. 308–318. DOI: https://doi.org/10.1145/2976749.2978318

Wang T., Fan L., Jin H., Wang P., Yang Q. A comprehensive survey on local differential privacy: Theory, methods, and applications. Sensors. 2020. Vol. 20, № 12. Article 3436. DOI: https://doi.org/10.3390/s20123436

Wu C., Wu F., Lyu L. et al. A federated graph neural network framework for privacy-preserving personalization. Nat Commun. 2022. Vol. 13. Article 3091. DOI: https://doi.org/10.1038/s41467-022-30714-9

Wang J., Guo S., Xie X., Qi H. Protect privacy from gradient leakage attack in federated learning. Proceedings of the 41st IEEE International Conference on Computer Communications (INFOCOM ’22). 2022. P. 580–589. DOI: https://doi.org/10.1109/INFOCOM48880.2022.9796841

Müllner P. Differential privacy in collaborative filtering recommender systems. Frontiers in Big Data. 2023. Vol. 6. Article 1151053. DOI: https://doi.org/10.3389/fdata.2023.1249997

Milano S., Taddeo M., Floridi L. Recommender systems and their ethical challenges. AI & Society. 2020. Vol. 35. P. 957–967. DOI: https://doi.org/10.1007/s00146-020-00950-y

Yang Z., Zhang X., He X. et al. Membership inference attacks against recommender systems. Proc. 2021 ACM Conference on Computer and Communications Security (CCS). Seoul, South Korea. 2021. P. 864–879. DOI: https://doi.org/10.1145/3460120.3485365

Zhu L., Liu Z., Han S. Deep leakage from gradients. Advances in Neural Information Processing Systems (NeurIPS ’19). 2019. P. 1–11. DOI: https://doi.org/10.48550/arXiv.1906.08935

Fredrikson M., Jha S., Ristenpart T. Model inversion attacks that exploit confidence information and basic countermeasures. Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (CCS ’15). Denver, CO, USA. 2015. P. 1322–1333. DOI: https://doi.org/10.1145/2810103.2813677

Hitaj B., Ateniese G., Perez-Cruz F. Deep models under the GAN: Information leakage from collaborative deep learning. Proc. 2017 ACM SIGSAC CCS. Dallas, TX, USA. 2017. P. 603–618. DOI: https://doi.org/10.1145/3133956.3134012

Gomez-Uribe C. A., Hunt N. The Netflix recommender system: algorithms, business value, and innovation. ACM Transactions on Management Information Systems. 2016. Vol. 6, № 4. Article 13. DOI: https://doi.org/10.1145/2843948

Zhang S., Yao L., Sun A., Tay Y. Deep learning based recommender system: a survey and new perspectives. ACM Computing Surveys. 2019. Vol. 52, № 1. Article 5. DOI: https://doi.org/10.1145/3285029

Zhulkovskii O., Panteikov S., Zhulkovskaya I. Information-modeling forecasting system for thermal mode of top converter lance. Steel in Translation. 2022. Vol. 52, No. 5, P. 495–502. DOI: https://doi.org/10.3103/S0967091222050138

##submission.downloads##

Опубліковано

2026-05-05

Номер

Розділ

Статті