Passer au contenu de cette vue

Ouvrages

  • [Dwork 2014]  Dwork, C., & Roth, A. (2014). The algorithmic foundations of differential privacy. Foundations and Trends® in Theoretical Computer Science, 9(3–4), 211-407.

  • [Elsayed 2018]  Elsayed, G. F., Shankar, S., Cheung, B., Papernot, N., Kurakin, A., Goodfellow, I., & Sohl-Dickstein, J. (2018). Adversarial examples that fool both human and computer vision. arXiv preprint arXiv:1802.08195.

  • [Establier 2017] Establier A. (2017), Cybermonde et nouvelles menaces : la cyber sécurité par ses principaux experts, Paris : MA Editions.

  • [Fontaine 2018] Fontaine G. (2018), "Dans le Cyberespace, personne ne vous entend crier : la guerre digitale est déclarée", Edition JCLattès.

  • [Gergorin 2018] Gergorin J-L. (2018), Cyber : la guerre permanente, Paris : Éditions du Cerf.

  • [Ghernaouti-Hélie 2016] Ghernaouti-Hélie S. (2016), Cybersécurité : sécurité informatique et réseaux, Malakoff : Dunod. Perez C. et K. Sokolova (2018), la cybersécurité, Editeur : Studyrama.

  • [Goodfellow 2014] Goodfellow, I. J., Shlens, J., & Szegedy, C. Explaining and harnessing adversarial examples (2014). arXiv preprint arXiv:1412.6572.

  • [Koh 2017] Koh, P. W., & Liang, P. (2017). Understanding black-box predictions via influence functions. arXiv preprint arXiv:1703.04730.

  • [Kurakin 2016] Kurakin, A., Goodfellow, I., & Bengio, S. (2016). Adversarial examples in the physical world. arXiv preprint arXiv:1607.02533.

  • [Papernot 2016] Papernot, N., Abadi, M., Erlingsson, U., Goodfellow, I., & Talwar, K. (2016). Semi-supervised knowledge transfer for deep learning from private training data. arXiv preprint arXiv:1610.05755.

  • [Tramèr 2016] Tramèr, F., Zhang, F., Juels, A., Reiter, M. K., & Ristenpart, T. (2016, August). Stealing Machine Learning Models via Prediction APIs. In USENIX Security Symposium (pp. 601-618).

  • [Trouchaud 2018] Trouchaud P. (2018), La cybersécurité face au défi de la confiance, Paris : Odile Jacob

  • [Zhao 2017] Zhao, Z., Dua, D., & Singh, S. (2017). Generating natural adversarial examples. arXiv preprint arXiv:1710.11342.


Articles

  • Tang-Taye J-P., Di Benedetto E., et S. Bourliataux-Lajoinie (2016), Mesure du paradox privacy/personnalisation dans l'usage des smartphones, Congrès International de l'Association Française du Marketing, Proceedings.

  • Smith H. J., T. Dinev et H. Xu (2011), Information Privacy Research: an Interdisciplinary Review, MIS Quarterly, 35(4), 980-1027.

  • Smith H. J., T. Dinev et H. Xu, Information Privacy Research: an Interdisciplinary Review, MIS Quarterly, 35(4), 980-1027. Smith H.J., Milberg S.J. et Burke S. (1996), Information Privacy: Measuring Individuals' Concerns About Organizational Practices, MIS Quarterly, 20(2), 167-196.

  • Malhotra N. K., Kim S. S. et Agarwal, J. (2004), Internet Users’ Information Privacy Concerns (IUIPC): The Construct, the Scale, and a Causal Model, Information Systems Research (15:4), 336-355.

  • Lancelot Miltgen et Smith H. J (2015), Exploring information privacy regulation, risks, trust & behaviour, Information and Management, 52, 741–759.


Vidéographie

  • François (P-O), Cyberguerre : l'arme fatale ?, Paris : Artline films. (1h)