Eğitimde Yapay Zeka ve Beş Temel Etik Kaygı
Konu: Yapay zeka uygulamalarının eğitim sektöründe büyük değişim ve değer yaratması bekleniyor. Ancak, bu potansiyelin yanında, göz önünde bulundurulması gereken etik kaygılar var. Bu yazıda temel etik kaygıları beş kategoride inceledik.
Eğitimde yapay zekayla ilgili etik kaygılar neler: Daha önceki yazımda ve Mert Özgür’ün de yazısında yapay zekanın eğitim sektöründe kullanılmasının getirdiği potansiyelin yanında etik kaygılara değinmiştik. Bu yazıda ise temel etik kaygıları şu şekilde sıralamak mümkün:
- Özel sektörün kaygılarıyla öğrencilerin öncelikleri paralel olmayabilir: Yapay zeka altyapısı kullanan eğitim uygulamalarının yaratıcıları dünyanın pek çok yerinde özel sektör firmaları. Bunlara örnek olarak Zzish, Maths-Whizz, ve Çin’den Squirrel AI gösterilebilir. Bazı kaygılar, özel sektörün gelir ve karlılık odağının öğrencilerin önceliklerini göz ardı edebileceği yönünde. Örneğin, bir uygulama öğrencinin ihtiyaç duymayacağı içerikleri dahi platformunu kullandırmak için öne sürer mi; öğrencilerden topladığı devasa seviyede bilgiyi, öğrencinin ve ailesinin rızası olmadan reklam yaratmak veya optimize etmek için kullanır mı gibi sorular bu alanda akla gelen ilk sorulardan.
- Kullanılan algoritmalar çoğunlukla sadece tek taraflı biliniyor: Teknoloji sektöründe Google’ın başını çektiği pratiklerden biri, kullanılan algoritmaların ‘ticari sır’ tanımı altında kullanıcıyla paylaşılmaması. Her ne kadar bu pratik serbest piyasa kapitalizminde bir yere kadar anlaşılır olsa da, yapay zekanın kullandığı algoritmalar, kullanıcılardan toplanan kişisel bilgilerle besleniyor. Yapay zekayı kullanan eğitim uygulamalarında ise öğrencilerden ne tür bilgiler toplandığı çoğu zaman öğrenci ve ebeveyni tarafından bilinmiyor. Eskiden ebeveynlerden alınan ‘rıza formları’, bu yeni dönemde artık geçerliliğini yitirmiş durumda. Çocuğunun hangi hareketlerinin takip edildiğini bilmeyen aileler, ne tür kişisel bilgilerden feragat ettikleri konusunda bilgisiz ve endişeli olabiliyor.
- Uzun zaman tutulan veriler öğrencilerin gelecek performansını haksız yönde etkileyebilir: Teknolojik uygulamalar eğitime entegre oldukça, öğrenci hakkında toplanan veriler belki yıllar boyunca sistemlerde tutulacak. Bu verilerden bazılarının artık geçerliliğini yitirmiş veriler olması ve buna rağmen öğrenciye sunulan içerikleri etkilemesi muhtemel. Yapay zeka uygulamaları, eğitim içeriklerini verilere dayalı olarak kişiselleştirdiği için, geçmişten gelen ama geçersiz bazı veriler öğrencinin gelecekte karşısına çıkabilecek içeriklerin kalitesini, öğrencinin gelişim yollarını ve hatta istihdam fırsatlarını haksız şekilde engelleyebilir.
- Eğer veride tarafsızlık ve önyargı varsa, bazı toplumsal gruplara sunulan içerik de önyargı içerebilir: Yapay zeka uygulamalarını eğitirken kullanılan veri setlerinde belli gruplara karşı önyargı bulunuyorsa, bu uygulamaları kullanan öğrenciler de bu önyargılardan etkilenen içerikleri kullanmak durumunda kalacaktır. Örneğin, yapay zekanın sunacağı içerikler, belli bir cinsiyet, etnik grup, veya ailenin eğitim / gelir seviyesi gibi değişkenlerden etkilenirse, öğrenciler haksız yere önyargılı içeriklerle karşılaşabilirler.
- Yapılan ‘deneyleri’ denetleyen bir mekanizma henüz yok: 1970’lerde, insanlar üzerinde yapılan araştırmaların olası negatif yansımalarını engellemek için uluslararası ‘İnsan Denekleriyle Araştırma’ (Human Subjects Research) kuralları ve yaptırımları belirlendi. Ancak, bugün yapay zeka uygulamalarının öğrenciler üzerinde uyguladığı deneyler üzerinde herhangi bir standart bulunmuyor. Teknolojik bir deneyin / testin etik olup olmadığına nasıl karar vereceğiz ve bunu nasıl denetleyeceğiz sorularını yanıtlamak için yılların geçmesini beklemek gerekebilir. Ama bu geçen yıllarda, yapılan deneylerden özellikle çocukların nasıl etkileneceğini bilemeyeceğiz.