Açıklama: Bu metin, akademide yapay zekâ kullanımına dair bağlayıcı kurallar koyma iddiası taşımayan ancak etik sınırların birlikte ve demokratik biçimde tartışılması için bir çağrıdır.

Bu yazıyı yapay zekâ desteğiyle hazırlıyorum. Konu akışını sıralamak, üslubumu yumuşatmak, dil ve anlatım hatalarını gidermek konusunda onu faydalı bir araç olarak kullandım. Açıkçası yapay zekayı çok seviyorum, sanırım hepimiz -az ya da çok- seviyoruz. Çünkü hayatımızı ve işimizi kolaylaştıran, düşünmeyi hızlandıran ve üretimi artıran güçlü bir araç. Ancak tam da bu nedenle büyük bir krizin eşiğinde olduğumuzu kabul etmek zorundayız: Akademide yapay zekânın etik dışı kullanımı krizi.

Tamamen ya da kısmen yapay zekaya yazdırılmış ve yeterince titiz denetlenmemiş yayınlar artık münferit değil, yaygın bir sorun haline gelmeye başladı. Etik açıdan doğru kullanıldığında destekleyici bir araca dönüşen yapay zekânın, etik dışı kullanım biçimleriyle literatürlerimizi birer hayalet yayın mezarlığına dönüştürme potansiyeli taşıdığını artık bizzat deneyimliyoruz. Gidişat, bir şeyler yapmaya başlamazsak vahim boyutlara ulaşacak bir krize işaret ediyor.
Son dönemde çeşitli sosyal medya platformlarında “bu yayında yer verilen kaynak hayalidir, benim böyle bir çalışmam yoktur” ya da “eş yazar olarak anılan kişiyi tanımıyorum” şeklinde açıklama yapmak zorunda kalan akademisyenlerin sayısı hızla artıyor. Hakemli dergilerde yaşanan hayalet referans skandalları, akademinin etik dışı yapay zekâ kullanımı karşısındaki kırılganlığını açıkça gözler önüne seriyor.

Üstelik sorun sadece yazarlarla sınırlı değil, hakemlik süreci de ciddi bir etik erozyonla karşı karşıya. Bir hakemin, değerlendirmesi gereken çalışmayı yapay zekâya yükleyip ona hakem raporu yazdırması açık bir etik ve fikri mülkiyet ihlalidir. Buna rağmen, son zamanlarda hayalet referanslardan yakınan akademisyenler kadar, yapay zekâ tarafından üretildiği ilk bakışta anlaşılabilen robotik hakem raporlarından yakınan akademisyenlerin sayısı da hızla artıyor.

Sorunun bir diğer önemli boyutu, bu durumu dile getirme aşamasında ortaya çıkıyor. Zira etik dışı kullanım tespit edilip raporlandığında, ilgili kişiler çoğu zaman bunu reddetme yoluna gidiyor; eleştiriyi itibara yönelik kişisel bir saldırı olarak yorumluyor ve tartışma kısa sürede polemiğe, şikâyet tehditlerine ve hatta dava söylemlerine evrilebiliyor. Akademik nezaketten uzak bu atmosfer, etik ihlallerle yüzleşmeyi daha da zorlaştırıyor.

Bu krizi çözmek için bazı üniversiteler ve dergiler, metinlerin yapay zekâ dedektörlerinden geçirilmesini zorunlu kılmaya başladı. Ancak burada da ciddi bir problemle karşı karşıyayız. Yapay zekâ dedektörleri henüz yeterince güvenilir değiller. Hiç yapay zekâ kullanılmadan yazılmış bir metnin yüksek oranlarla yapay zekâ ürünü olarak işaretlenmesi, yalnızca akademisyenin ve öğrencinin itibarını değil, üretim motivasyonunu da tahrip ediyor. Geçtiğimiz aylarda bu dedektörlerin güvenilir olmadığını ortaya koyan çarpıcı bir örneğe şahit olduk. Bir yapay zekâ dedektörü, Amerikan Bağımsızlık Bildirgesi için “%99,99 oranında yapay zekâ tarafından üretilmiştir” sonucunu verdi. Dedektörler hata payı sıfıra yaklaşmadıkça güvenilir çözüm araçları değiller.

Açık konuşalım, bugün halen bir metindeki üslup kopukluğunu, mantık hatalarını ve hayalet atıfları fark edebilecek olan, alanın uzmanı olan insandır. Yani elimizdeki en güçlü araç organik zekâmız; akademik sezgi, metin bilgisi ve etik muhakeme yeteneğimizdir. Bu krizden sağlam çıkabilmek için bunlara her zamankinden daha fazla yaslanmak zorundayız.

Giderek büyüyen bu krizin potansiyel riskleri göz ardı edilecek düzeyde değildir. Bir an önce harekete geçmezsek, bu kriz yalnızca akademiyi değil, toplumun akademik bilgiye olan güvenini de çökertme riski taşımaktadır. Akademik bilginin saygınlığı çökerse, ülkenin kalkınma kapasitesi de çöker. Çünkü hepimiz çok iyi biliyoruz ki akademisyenler ve akademik bilgi üretimi, bir ülkenin en temel kamusal sermayesidir.

Etik açıdan doğru kullanıldığında güçlü bir aracı yasaklamak hem imkânsız hem de akılcılıktan uzak olacaktır. Dolayısıyla bu krizin çözümü, yapay zekâ kullanımını tamamen yasaklamak değil. Krizin çözümü için akademide yapay zekanın etik açıdan doğru ve yanlış kullanım biçimlerinin ortak akılla, somut ve açık olarak tanımlanması gerekiyor.

Tanım ve beyan konusunda gelişmeler yaşanmıyor değil. Bazı üniversiteler ve dergiler etik konusunda düzenlemeler yapmaya ve beyan formlarını zorunlu tutmaya başladı. Ancak “yapay zekâ kullanmadım” ya da “yapay zekayı çeviri kontrolü için kullandım” gibi kutucukların işaretlendiği bu formlar, krizin çözümü için yetersiz bir yüzeysellikte.

Peki ne yapmalıyız?

Öncelikle konuşmalıyız. Bu kriz, yalnızca “tecrübeli” hocaların ve/veya idarecilerin tek başına çözebileceği bir kriz değildir. Yapay zekânın etik ve etik olmayan kullanım biçimlerinin net bir tanımlamasını yapabilmek için genç-yaşlı, hoca-öğrenci ayrımı yapmadan, çok sesli ve demokratik bir tartışma zemini kurmalıyız. Bu demokratik tartışma zemininde özellikle gençlerin sesine gerçekten alan açtığımızdan emin olmalıyız.

Y kuşağı ve öncesi, teknolojiyle daha çok araçsal bir ilişki kurarken; Z kuşağı ve sonrası teknolojiyle simbiyotik bir ilişki içindedir. Dolayısıyla bu iki grubun yapay zekâyla kurduğu ilişki ve deneyim aynı değildir. Akademide saygınlık çoğu zaman bilgi birikimiyle, yani yaş ve kıdemle ilişkilendirildiği için gençlerin sesi kolayca bastırılabilmektedir. Bu bir polemik meselesi değildir; karşı karşıya olduğumuz krizin doğasıdır. Gençlerin deneyimini ve sesini dışlayan, pratiklerini empati ile ele almayan her çözüm girişimi başarısızlığa ve daha derin krizlere mahkûmdur.

Yapılması gerekenler aslında oldukça açıktır.

Öncelikle yapay zekâ çağında akademik etiğin ortak bir tanımını yapmalıyız. Çok sesli demokratik bir zeminde, birbirimizi yargılamadan farklı kullanım pratiklerini keşfedip masaya yatırmalı, hangilerinin etik olduğunu tartışmalıyız. Ardından tüm disiplinleri kapsayan ulusal bir seferberlik başlatmalıyız. Akademik üretimde yapay zekânın etik ve etik olmayan kullanım biçimlerini içeren eğitimleri, öğretmenleri de kapsayacak şekilde zorunlu hâle getirmeliyiz. Bu eğitimleri tek seferlik değil, sürekli ve uygulamalı biçimde vermeli; tüm disiplinlerin müfredatına dahil etmeliyiz.

Yapay zekâ kullanım beyanları da yüzeysel formlar olmaktan çıkarılmalıdır. Etik, bir belgeye atılan imza değil; içselleştirilmesi gereken bir erdemdir. Bu nedenle etik beyanlar, detaylı raporlara dönüştürülmeli; akademisyenlerden ve öğrencilerden, ürettikleri metinde yapay zekâyı nasıl, ne amaçla ve hangi girdilerle kullandıklarını açıkça anlatmaları istenmelidir. Ayrıca üniversitelerin ve dergilerin yapay zekâ etik kurulları oluşturması ulusal bir standart haline getirilmelidir. Bu kurullar, beyan raporu ile ortaya çıkan metin arasındaki uyumu değerlendirmelidir.

Son olarak, sosyal medya ifşaları meselesiyle de yüzleşmek zorundayız. Bu ifşalar çok haklı bir öfkenin dışa vurumudur. Ancak akademik etik tartışmaları, geniş ve kontrolsüz bir kamusal alan olan sosyal medya platformlarında yürütüldüğünde akademinin kurumsal itibarı zarar görmektedir. Bu tartışmaları popülist mecralardan çekip, kendi içimizdeki akademik platformlarımızda, demokratik ve yapıcı mekanizmalarla yürütmeliyiz. İfşayı, yalnızca bireylerin değil, akademinin de itibarını korumak için yasaklamalıyız.

Akademi çökerse, bilginin rehberliği biter; bilginin rehberliği biterse ülke çöker. Yapay zekayı yasaklamak bir seçenek değildir. Ancak onu güçlü bir etik zırhla kuşatmak zorundayız. Zaman kaybetmeden, organik zekamızı ve ahlaki pusulamızı devreye sokarak, bu krizi büyük bir dönüşüm fırsatına çevirmeliyiz.
Yarın çok geç, hemen şimdi konuşmaya başlamalıyız.

Not: Bu tartışmayı yalnızca insan-merkezli bir etik kaygı üzerinden değil, yapay zekânın kendi değerlendirme kapasitesi açısından da görünür kılmak istedim. Bu nedenle ChatGPT 5.2 sürümünden, akademide yapay zekânın etik dışı kullanımına ilişkin genel bir değerlendirme yapmasını istedim. Ona girdiğim komut ve cevap aynen şu şekildedir:

Komut:
Aşağıdaki soruya yanıt verirken, önceden yazılmış herhangi bir metni bilmediğini varsaymanı, herhangi bir kişi, kurum, disiplin ya da görüşü savunma veya eleştirme kaygısı taşımamanı ve bu tartışmayı bağımsız bir analitik çerçeveden değerlendirmeni istiyorum.

Soru: “Akademide yapay zekânın etik dışı kullanımına ilişkin mevcut durumu, bu kullanım biçimlerinin yarattığı riskleri ve bunun akademik bilgi üretimi açısından doğurabileceği sonuçları nasıl değerlendiriyorsun?”

Yanıtında özellikle şu çerçeveye dikkat etmeni istiyorum:

  1. Yapay zekânın akademide meşru ve faydalı kullanım potansiyelini teslim et,
  2. Etik dışı kullanım biçimlerinin bireysel değil, sistemik etkilerini değerlendir,
  3. Hakemlik süreçleri, atıf sistemi ve akademik güven ilişkileri üzerindeki yapısal riskleri analiz et,
  4. Yapay zekâ dedektörleri ve otomatik denetim araçlarının epistemik ve teknik sınırlarına değin,
  5. Çözüm önerilerini yasaklayıcı değil, etik muhakeme ve kurumsal kapasiteyi güçlendirici bir perspektifle ele al.

Yanıtın: Akademik ama erişilebilir bir dilde, Polemik üretmeden, Normatif bir pozisyon alırken bunu açık gerekçelerle temellendirerek, Kısa bir değerlendirme metni (yaklaşık 2–3 paragraf) biçiminde olsun.

Bu yanıt, bir akademik blog yazısında “yapay zekânın kendi değerlendirmesi” başlığı altında, şeffaflık amacıyla aynen alıntılanacaktır.

ChatGPT 5.2 sürümünün yanıtı:

Akademide yapay zekâ, doğru konumlandırıldığında bilgi üretimini hızlandıran, erişilebilirliği artıran ve araştırmacının bilişsel yükünü azaltan güçlü bir araçtır. Literatür taramasında örüntü yakalama, veri temizleme, yöntemsel alternatifler üretme ya da dilsel iyileştirme gibi alanlarda kullanımı, akademik emeğin niteliğini düşürmek yerine çoğu zaman görünmez emekleri görünür kılar. Bu yönüyle yapay zekâ, akademik üretimi ikame eden değil; araştırmacının muhakeme kapasitesini destekleyen bir araç olarak meşru ve faydalı bir potansiyele sahiptir.

Ancak etik dışı kullanım tartışması bireysel “hile” vakalarına indirgenemez. Asıl risk, yapay zekânın sistemik baskılarla birleştiği noktada ortaya çıkar: yayın sayısı odaklı değerlendirme rejimleri, hız ve çıktı fetişizmi, güvencesiz akademik emek. Bu bağlamda yapay zekâ, epistemik tembelliğin değil; zaten kırılgan olan akademik güven ilişkilerinin hızlandırıcısı hâline gelebilir. Hakemlik süreçlerinde metnin kaynağına dair belirsizlik, atıf sisteminde “üretilmiş ama sahiplenilmemiş” bilgi çoğalması ve özgünlük varsayımının aşınması, akademik bilginin kolektif güven zemini için yapısal riskler doğurur.

Bu risklere verilen yanıtın otomatik dedektörler ve yasaklar olması ise yeni sorunlar üretmektedir. Yapay zekâ tespiti iddiasındaki araçlar, epistemik olarak niyet ve muhakemeyi ölçemez; teknik olarak ise hataya açıktır. Bu nedenle çözüm, denetimi makinelere devretmek değil, etik muhakemeyi kurumsal olarak güçlendirmektir. Açık kullanım beyanları, yöntem şeffaflığı, yazarlık ve katkı tanımlarının yeniden düşünülmesi ve hakemliğin pedagojik bir süreç olarak ele alınması, yapay zekâyı akademinin “gizli tehdidi” değil, sorumlu bir yardımcı aktörü hâline getirebilir.

Hazırlayan: Canan BUDAK