Yapay Zeka Sistemlerine Etik Değerlerin Entegrasyonu-Kavramsal Çerçevede Bir Tartışma
Keywords:
Yapay Zeka, Etik, Etkileşim, İletişimAbstract
Yapay zekâ (YZ), hem tarihsel hem de çağdaş unsurları bir araya getiren bir alan olarak dikkat çekmektedir. Tarihsel açıdan, YZ ile ilgili bilimsel tartışmaların kökenleri 1950'lere kadar uzanmakta olup, felsefi tartışmalar ise antik Yunan dönemine kadar geriye gitmektedir. Çağdaş açıdan ise, YZ alanında, veri işleme teknolojilerindeki büyük ilerlemeler sayesinde, "YZ kışı" olarak adlandırılan duraklama dönemlerinden sonra yeniden önemli bir ivme kazanılmıştır. Bu bağlamda, YZ yalnızca bilimsel bir disiplin olmanın ötesine geçmiş, aynı zamanda siyaset ve iş dünyasında da önemli bir konu haline gelmiştir. YZ'nin kendisi, doğası gereği etik ya da etik dışı bir varlık değildir; ancak, uygulama biçimleri etik sorunlar doğurabilir. Bu nedenle, YZ teknolojilerine duyulan güvenin artırılması, bu teknolojilerin geniş çapta kabul görmesi açısından temel bir gereklilik olarak ortaya çıkmaktadır. YZ'nin etik ilkelerle uyumlu bir şekilde tasarlanması ve uygulanması konusunda, ulusal ve uluslararası düzeyde yoğun tartışmalar sürdürülmektedir. Normlar ve standartlar, uzman gruplarının, fikir birliği ile geliştirdiği için, bir dereceye kadar ahlaki değerlere de dayandırılabilir. Ancak, teknik standardizasyonun amacı, özellikle "etik YZ" bağlamında, kültürel olarak sabitlenmiş belirli değerleri ya da ahlak kurallarını desteklemek değildir. Bu çalışmada öncelikle yapay zekâ ve etik ayrı başlıklarda kavramsal olarak tanımlanmış ve yapay zekâ sistemlerinin kullanımına ilişkin etik boyutlar sunulmuştur. Ardından etik bir yapay zekânın inşa edilmesinin ne kadar mümkün olduğu literatür araştırması yöntemi kapsamı ve Milgram Deneyi örneğiyle incelenmiş olup, bunu mümkün kılmak için gereken etik yönler ele alınmıştır. Çalışmanın amacı ise YZ sistemlerine etik değerlerin entegrasyonunun mümkün olup olmadığını sorgulamaktır. Bu her ne kadar zor gözükse de, sistemlerin şeffaflığı ve kullanıcıların eleştirel yaklaşımı, etik olmayan kararların önlenmesinde kilit rol oynayacağı ve yapay zekâ uygulamalarının, açık kriterlere göre değerlendirilmesi gerektiği bulgusu çalışma kapsamında elde edilmiştir.
References
Baron, R. A., Byrne, D., & Branscombe, N. R. (2006). Social Psychology (11. Baskı). Pearson Education, Inc.
Binns, R. (2018). Social Impacts of Artificial Intelligence: A Perspective on Ethics, Justice, and Human Rights. Springer.
Bundesregierung. Strategie Künstliche Intelligenz der Bundesregierung. (2018).
Council, National Science and Technology. Preparing for the Future of Artificial Intelligence. Washington : U.S Government, (2016).
D. Poole, A. K. Mackworth, R. Goebel (1998). Computational intelligence: A logic approach. Oxford, University Press.
Fogg, B. J. (2003). Persuasive technology: Using computers to change what we think and do. Morgan Kaufmann.
Google. Google AI Blog. An AI System for Accomplishing Real-World Tasks Over the Phone. https://ai.googleblog.com/2018/05/duplex-ai-system-for-natural-conversation.html.
Haarich, Max, (2019). Ethik im Zeitalter der Künstlichen Intelligenz.
Haugeland, J. (1985). Artificial Intelligence: The Very Idea. s.l. : MIT Press
Harper, Douglas. (2018). Online Etymology Dictionary. MaoningTech, https://www.etymonline.com/word/auto-?ref=etymonline_crossreference.
Heine, M., (2023). Künstliche Intelligenz in öffentlichen Verwaltungen, Edition eGov-Campus, https://doi.org/10.1007/978-3-658-40101-6_11, Edition, Edt. Jörn von Lucke, Jürgen Stember, Maria A. Wimmer, Springer Verlag. Osnabrück.
Hursthouse, R. (1999). On Virtue Ethics. Oxford: Oxford University Press.
Kaelbling, Leslie P.; Littman, Michael L.; Moore, Andrew W. (1996). "Reinforcement Learning: A Survey". Journal of Artificial Intelligence Research. 4: 237–285. arXiv:cs/9605103. doi:10.1613/jair.301. S2CID 1708582.
Kant, I. (1785). Groundwork of the Metaphysics of Morals (M. Gregor, Trans.). Cambridge: Cambridge University Press.
Lenk, Hans. (1993). Technik und Ethik. Stuttgart : Reclam Verlag.
Liu, Xiao; Zhang, Fanjin; Hou, Zhenyu; Mian, Li; Wang, Zhaoyu; Zhang, Jing; Tang, Jie (2021). "Self-supervised Learning: Generative or Contrastive". IEEE Transactions on Knowledge and Data Engineering: 1–1. arXiv:2006.08218. doi:10.1109/TKDE.2021.3090866. ISSN 1041-4347.
MacIntyre, A. (1981). After Virtue: A Study in Moral Theory. London: Duckworth.
Marr, B., (2022). https://bernardmarr.com/what-is-ai-imitation-learning-a-super-simple-guide-anyone-can-understand/
Markkula Center for Applied Ethics, via IBM, 2022.
Mohri, M., Rostamizadeh, A., Talwalkar, A., (2012) Foundations of Machine Learning, The MIT Press ISBN 9780262018258.
Michael Quante: Einführung in die Allgemeine Ethik. (2011). 4. Baskı. Wissenschaftliche Buchgesellschaft, Darmstadt. ISBN 978-3-534-24595-6.
Milgram, S. (1963). Behavioral Study of Obedience. Journal of Abnormal and Social Psychology, 67(4), 371–378.
Nilson, N. J. (2010). The Quest for Artificial Intelligence. Cambridge, University Press.
O'Neill, O. (1989). Constructions of Reason: Explorations of Kant's Practical Philosophy. Cambridge. Cambridge University Press.
O'Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.
Poretschkin, M., Schmitz, A., Akila, M., Adilova, L., Becker, D., Cremers, A., Hecker, D., Houben, S., Mock, M., Rosenzweig, J., Sicking, J.,
Schulz, E., Voss, A., & Wrobel, S. (2021). Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz – KIPrüfkatalog. Fraunhofer IAIS. www.iais.fraunhofer.de/ki-pruefkatalog.
Rawls, J. (1971). A Theory of Justice. Cambridge, MA: Harvard University Press.
Russell, S.J., Norvig, P., (2010). Artificial Intelligence. s.l. : Pearson Education Inc.
Schmitd, T. (2011). Deontologische Ethik. In: Ralf Stoecker/Christian Neuhäuser/Marie-Luise Raters (Edt.): Handbuch Angewandte Ethik. Verlag J.B. Metzler, Stuttgart, ISBN 978-3-476-02303-2.
Shane, J., (2019). The danger of AI is weirder than you think. s.l. : TED2019.
Singer, P. (1993). Practical Ethics. Cambridge: Cambridge University Press.
Smart, J. J. C., Williams, B., (1973). Utilitarianism: For and Against. Cambridge: Cambridge University Press.
Srinivasan, R., & Chander, A. (2021). Biases in AI systems. Communications of the ACM, 64(8), 44–49. https://doi.org/10.1145/3464903.
Stephen Darwall (Edt.) (2007): Consequentialism. Nachdr. Malden, Mass.: Blackwell. (= Blackwell readings in philosophy 7). ISBN 978-0-631-23108-0.
Turing, A.M., (1950). Computing Machinery and Intelligence. Mind 49: 433-460.
Whitaker, W., (2010). William Whitaker’s Words. University of Notre Dame, South Bend, IN, http://archives.nd.edu/cgi-bin/wordz.pl?keyword=automatus.
Wing, 2021, Wing, J. M. (2021). Trustworthy AI. Communications of the ACM, 64(10), 64–71. https:// doi.org/10.1145/3448248.
Verma, S., Rubin, J. (2018). Fairness definitions explained. Proceedings of the International Workshop on Software Fairness, 1–7. https://doi.org/10.1145/3194770.3194776.
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.