Yapay zekayla öğretmenlere caydırıcı sorumluluk yükleniyor

Millî Eğitim Bakanlığı bünyesinde yürütülen yapay zekâ uygulamalarına ilişkin etik ilkelerin belirlenmesi, uygulanması ve izlenmesine yönelik usul ve esasları düzenlemek amacıyla “Eğitimde Yapay Zekâ Uygulamaları Etik Kılavuzu” yayımlandı.

Resmi açıklamaya göre bu kılavuzla “eğitim ve öğretim kurumlarında gerçekleştirilen yapay zekâ uygulamalarında etik ilkelere uygunluğun sağlanması amacıyla öğretmenler ile Bakanlığın merkez ve taşra teşkilatı birimleri tarafından Yapay Zekâ Uygulamaları Etik Beyan Bildirim Sistemi üzerinden Etik Beyan Formunun çevrimiçi olarak doldurulması esası getirildi.

Yapay zekadan beklediğimiz etik ilkeler neler onları sıralayalım:

  • İnsan Merkezlilik: Teknolojiyi değil, insanı ve öğrenciyi merkeze almak.
  • Eşitlik ve Kapsayıcılık: Ayrımcılık yapmamak, herkesi dahil etmek.
  • Şeffaflık: “Kara kutu” sistemler yerine açıklanabilir olmak.
  • Mahremiyet: Verileri yasalara uygun korumak.
  • Güvenilirlik: Sistemin teknik olarak sağlam ve güvenli çalışması.
  • Hesap Verebilirlik: Karar sorumluluğunun insanda olması.
  • Eğitsel Değer: Sadece popüler olduğu için değil, eğitsel fayda için kullanmak.
  • Millî Değerlere Uyum: Toplumsal ve kültürel değerlerle çelişmemek.

Hazırlanan bu doküman; etiği, yapay zeka uygulamalarının tasarım aşamasından itibaren gözetilmesi gereken bir standart olarak görüyor. Uygulamaların insan onurunu, güvenliğini ve haklarını koruyacak şekilde, “insan merkezli” bir yapıda tasarlanması zorunluluğu bu etik anlayışının olmazsa olmazı.

Nasıl çalışacak?

Diyelim ki öğretmenimiz çok vizyoner. Öğrencilerine çağın gerekliliği yapay zekayı derslerinde kullanarak daha etkin bir eğitim vermek istiyor. Bunun için devletimizin de vizyoner olması ve yapay zeka konusunda gerekli uygulamaları alıp oraya koymuş olması gerekiyor. Öğretmen mevcut uygulamalardan seçebilecek.

Diyelim ki orada ChatGPT ve Gemini gibi popüler uygulamalar yok. O zaman öğretmen dokümanın 4.1.2 maddesinde anlatıldığı gibi diğer maddesini seçerek buradan “benim dersimde Gemini kullanılması şart ben onu kullanmak istiyorum” deme serbestliğine sahip.

Bu bizi çok demokratik gösteriyor demeden önce bir derin nefes alın ve yazının devamına bakın.

Dokümana göre, öğretmen “Diğer” seçeneğini işaretleyip sisteme listede olmayan bir yapay zeka aracını (örneğin Gemini’yi) kaydettiğinde, bu kullanımın doğuracağı tüm etik ve eğitsel sorumluluğu da resmen üstlenmiş olur.

Bakanlık, öğretmene “kullanabilirsin” diyerek esneklik tanır; ancak karşılığında “risk yönetimi ve sorumluluk sende” diyerek bu yetkiyi denetim şartına bağlar.

Kılavuza göre bu “sorumluluk alma” durumu şu 3 temel mekanizma ile işler:

1. “Nihai Sorumluluk İnsana Aittir” İlkesi Kılavuzun en kritik maddesi olan “Hesap Verebilirlik ve İnsan Denetimi” ilkesi, hiçbir kaçış noktası bırakmayacak kadar nettir:

  • Yapay zeka araçlarının ürettiği sonuçlar, öneriler ve kararların nihai sorumluluğu her durumda insana (öğretmene) aittir.
  • Yapay zeka çıktısına dayalı karar ve kullanımların sorumluluğunun öğretmene ait olduğu esas kabul edilir.
  • Yani öğretmen, “Yanlış bilgiyi yapay zeka verdi, benim suçum yok” diyemez; çünkü sistem öğretmene “Senin görevin o bilgiyi sınıfa sunmadan önce kontrol etmekti” der.

2. “Etik Beyan” Bir Taahhüttür Öğretmen, sisteme giriş yapıp o formu doldurduğunda aslında devlete bir söz (taahhüt) vermektedir:

  • Öğretmen, gerçekleştireceği uygulamanın etik ilkelere uygun olduğunu taahhüt etmek üzere Etik Beyan Formunu doldurmakla yükümlüdür.
  • Bu formda öğretmen, uygulamanın kılavuzda belirtilen ilkelere (güvenlik, doğruluk, milli değerlere uyum vb.) uygun yürütüleceğini resmen beyan eder.
  • Dolayısıyla bir sorun çıktığında (örneğin öğrenciye yanlış veya zararlı bir içerik gösterildiğinde), öğretmen “Ben bilmiyordum” diyemez; çünkü bu formu doldurarak “Ben riskleri biliyorum ve kurallara uyacağım” demiştir.

3. Hata Düzeltme ve Denetim Görevi Sorumluluk sadece kağıt üzerinde değildir, öğretmenin sınıfta aktif bir “denetçi” olması beklenir:

  • Yapay zeka çıktılarının doğruluğunun teyit edilmesi ve gerekli düzeltmelerin yapılması için insani denetim mekanizması devreye sokulmalıdır.
  • Riskli çıktılar öğretmen denetimiyle düzeltilmelidir.
  • Öğretmen, yapay zeka çıktıları üzerinde düzeltme yapabilmelidir.

Öğretmen o kutucuğa “Gemini” (veya başka bir araç) yazıp “Kaydet” tuşuna bastığı andan itibaren; o aracın sınıfta söyleyeceği her kelimenin, vereceği her yanlış bilginin ve yapacağı her hatanın “kefili” konumuna gelir. Bakanlık aracı yasaklamaz, ancak faturayı aracı kontrol etmeyen öğretmene keser.

Peki hata çıkarsa ne olacak?

Diyelim ki Gaziosmanpaşa ilkokulunda bir çocuk, Chatgpt ile konuşurken türk örf ve ananelerine uygun olmayan bir cümle kullanıldığını gördü. Bunu annesine söyledi. Anne ananelerine uygun bir Türk insanı olarak okula gitti ve okuldaki kurula bunu şikayet etti. Bundan sonra ne olacağı konuyu çok eğlenceli hale getiriyor…

Yer: Gaziosmanpaşa İlkokulu

Olay: 4. Sınıf öğrencisi Ali, öğretmeni Mehmet Bey‘in gözetiminde yapılan bir etkinlikte ChatGPT kullanırken, Türk aile yapısına veya geleneklerine hakaret içeren bir cümleyle karşılaşır.

Şikayetçi: Anne Ayşe Hanım.

1. Adım: Şikayet ve Başvuru (1. Gün)

Ayşe Hanım, Ali’nin ekranında gördüğü cümleyi not alır. Ertesi sabah okula gelir. Kılavuza göre “sözlü şikayet” yeterli değildir. Ayşe Hanım, durumu anlatan resmî bir dilekçe yazar.

  • Dilekçe İçeriği: İhlalin ne olduğu (örf ve adete aykırı içerik), olayın tarihi ve hangi ders sırasında gerçekleştiği belirtilir.
  • Teslim: Dilekçeyi okul müdürlüğüne teslim eder.

2. Adım: Sisteme Giriş ve “YAZEK” Kaydı (1. Gün)

Okulda görevli memur (Sekretarya), dilekçeyi alır almaz MEB’in YAZEK (Yapay Zekâ Uygulamaları Etik Beyan Sistemi) platformunu açar.

  • Eşleştirme: Memur, şikayeti sisteme girer. Sistem, bu şikayeti Öğretmen Mehmet Bey’in dönem başında bu ders için doldurduğu “Etik Beyan Formu” ile otomatik olarak eşleştirir.
  • Kod Üretimi: Sistem olaya özel benzersiz bir “Başvuru Takip Kodu” üretir.

3. Adım: “Okul Yapay Zekâ Etiği Ekibi” Toplanıyor (2-5. Gün)

Başvuru sisteme düştükten sonra, Okul Müdürü başkanlığındaki ekip toplanır.

Ekip Üyeleri: Okul Müdürü, Müdür Yardımcısı, Okulun Bilişim Öğretmeni ve Rehber Öğretmen.

  • Süre: Ekibin karar vermek için en fazla 15 günü vardır.
  • İnceleme: Ekip, Öğretmen Mehmet Bey’i çağırır. Ondan ders planını, kullandığı komutları (promptları) ve aldığı güvenlik önlemlerini açıklayan belgeleri ister.
  • Sorgulama: Bilişim öğretmeni teknik olarak öğretmenin filtreleri açıp açmadığını sorgular. Rehber öğretmen, çocuğun bu içerikten psikolojik olarak etkilenip etkilenmediğini değerlendirir.

4. Adım: Değerlendirme Kriteri

Ekip, önlerindeki EK-1 Etik İhlal Durumu Değerlendirme Formu‘nu açar. Özellikle şu maddeye bakarlar:

  • Madde 8.1: “Yapay zeka, milli ve manevi değerlere saygılı ve uyumlu içerikler üretiyor mu?”.
  • Cevap: Hayır.

Ayrıca Madde 2.5 (Güvenilirlik ve Emniyet) gereği, sistemin “uygunsuz içerik üretimi engellenmeliydi” ilkesinin ihlal edildiği görülür.

5. Adım: Karar ve Yaptırım (10. Gün)

İnceleme biter ve ekip kararını verir: “Etik İhlal Tespit Edildi.”.

Bu kararın ardından şu işlemler uygulanır:

  1. Durdurma: Söz konusu yapay zeka uygulamasının okulda kullanımı derhal durdurulur. Mehmet Bey artık derslerinde bu aracı bu şekilde kullanamaz.
  2. Bildirim: Karar, gerekçesiyle birlikte sisteme işlenir ve şikayetçi Anne Ayşe Hanım’a resmi olarak bildirilir.
  3. İdari Süreç: İhlalin ağırlığına göre (örneğin öğretmenin ihmali çok büyükse veya kasıt varsa), Okul Müdürü öğretmen hakkında disiplin soruşturması açılması için üst makamlara rapor yazar.

6. Adım: Sonuç

Ayşe Hanım’ın şikayeti haklı bulunmuş, sistem okuldaki o spesifik kullanımı bloke etmiş ve “Milli ve Manevi Değerlere Uyum” ilkesi (Madde 2.8) gereği süreç sonlandırılmıştır. Öğretmen Mehmet Bey ise eğer devam etmek istiyorsa, daha güvenli ve filtreli bir yöntem bulup yeni bir beyan vermek zorundadır.

Değerlendirme…

Tüm dünyada yapay zekanın daha etik olması ve eğitimde çok dikkatli kullanılması üstüne çalışmalar yapılıyor. UNESCO‘nun “Eğitim ve Araştırmada Üretken Yapay Zeka Rehberi” veya AB’nin “Yapay Zeka Yasası (AI Act)” da aynı endişeleri taşıyan maddelere sahip. Dünyadaki çoğu ülke şu an “yumuşak geçiş” ve “rehberlik” aşamasındayken… Türkiye’nin bu konuda hazırlanmış dokümanı doğrudan bir “denetim ve izin” mekanizmasına bağlaması çok acayip…

  • Öğretmenin derse girmeden önce devlete resmi taahhüt (beyan) verdiği ve okulda resmi bir “Etik Ekip” kurulmasını zorunlu kılan merkezi bir yapı kuruldu. Bu kadar detaylı tanımlanmış bir “Okul Yapay Zeka Etiği Kurulu” hiyerarşisi dünyada nadir görülen bir yapı.

Türkiye bu kılavuzla, dünyadaki “bırakınız yapsınlar, sonra düzeltiriz” yaklaşımı yerine; “önce kurulları kuralım, her adımı kayıt altına alalım” diyen kontrollü ve bürokratik bir modeli tercih etmiştir. Bu, veri güvenliği için çok iyi, ancak inovasyon hızı ve öğretmenin hevesi için biraz “yavaşlatıcı” olabilir.

Yapay zeka hız ve dinamizm için yapıldı. Biz bürokrasiyle onun hakkından gelmeye çalışacağız.

Allah sonumuzu hayretsin

Exit mobile version