Baniecki, Hubert, und Przemyslaw Biecek. 2024.
„Adversarial attacks and defenses in explainable artificial intelligence: A survey“.
Information Fusion 107: 102303.
https://www.sciencedirect.com/science/article/pii/S1566253524000812.
Biecek, Przemyslaw, und Tomasz Burzykowski. 2021.
Explanatory Model Analysis. Chapman; Hall/CRC, New York.
https://pbiecek.github.io/ema/.
Biecek, Przemyslaw, und Wojciech Samek. 2024.
„Explain to Question not to Justify“.
https://arxiv.org/abs/2402.13914.
Bücker, Michael, Gero Szepannek, Alicja Gosiewska, und Przemyslaw Biecek. 2021.
„Transparency, Auditability, and Explainability of Machine Learning Models in Credit Scoring“.
Journal of the Operational Research Society 73 (1): 70–90.
http://dx.doi.org/10.1080/01605682.2021.1922098.
Dahm, Markus H., und Niklas Twesten. 2023.
„Was Sie über KI und den KI-Act wissen müssen“. In
Der Artificial Intelligence Act als neuer Maßstab für künstliche Intelligenz: Das Spannungsfeld zwischen Regulatorik und Unternehmen, 5–27. Wiesbaden: Springer Fachmedien Wiesbaden.
https://doi.org/10.1007/978-3-658-42132-8_2.
Europäische Kommission. 2022.
„AI Act“.
Shaping Europe’s digital future.
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.
Hui, Aaron, Shawn Ahn, Carolyn Lye, und Jun Deng. 2022. „Ethical Challenges of Artificial Intelligence in Health Care: A Narrative Review“. Ethics in Biology, Engineering and Medicine: An International Journal 12 (Januar).
Ribeiro, Marco Tulio, Sameer Singh, und Carlos Guestrin. 2016.
„"Why Should I Trust You?": Explaining the Predictions of Any Classifier“.
https://arxiv.org/abs/1602.04938.
Saeed, Waddah, und Christian Omlin. 2023.
„Explainable AI (XAI): A systematic meta-survey of current challenges and future opportunities“.
Knowledge-Based Systems 263: 110273.
https://www.sciencedirect.com/science/article/pii/S0950705123000230.