Birkaç yıl önce Danimarkalı psikiyatrist Søren Dinesen Østergaard, “Black Mirror” bölümü konusu gibi görünen bir iddia ortaya atıp "Yapay zeka savunmasız insanları psikoza sürükleyebilir" dedi ama kimse ciddiye almadı.
Biliyorsunuz felaket filmleri de hep böyle başlar. Biri çıkıp ”Hepimiz öleceğiz” der, insanlar onunla alay edip parti yapmaya devam eder. Sonra hepsi ölür. 🙄
Adını yazmak için her defasında kopyala yapıştır yapmam gereken bu psikiyatristi dinlemedik de ne oldu? Dijital yoldaşlarıyla uzun sohbetler yapıp gerçeklik algısını yitirenlere dair vakalar ortaya çıkmaya başladı.
Konu burada kapandı zannediyorduk ama yine yanılmışız.
Felaket tellallığını pek seven doktorumuz yeni bir uyarıyla geri döndü. Üstelik bu defa çok daha sinsi bir tehlikeden bahsediyor: Zekamızın gerilemesi.
Østergaard buna "Bilişsel Borç" diyor. Yani, düşünme ve akıl yürütme işini yapay zekaya ihale ettikçe, aslında beynimizden kredi çekiyoruz ve o faizler sandığımızdan daha yüksek.
"Bilişsel Borç" Ne Demek?
Hiç para biriktirmeden kredi kartıyla yaşamak gibi… Anlık ihtiyaçlar karşılanıyor, hesap kapatılıyor ama arka planda borç büyüyor.
Østergaard, Acta Psychiatrica Scandinavica'da yayımlanan yeni makalesinde tam olarak bunu iddia ediyor: Yazma ve akıl yürütme gibi görevleri yapay zekaya devrettikçe, beynimiz o kas gruplarını kullanmayı bırakıyor. Ve kullanılmayan kaslar ne olur? Köreliyor.
Bu sadece teorik bir argüman değil, fiziksel kanıtlar da var.

Beyin Ne Yapıyor, EEG Ne Görüyor?
Kosmyna ve arkadaşlarının "Your Brain on ChatGPT" adlı araştırması bu teoriyi ölçtü.
Katılımcılara üç farklı koşulda makale yazdırıldı:
ChatGPT kullanarak
Arama motoru kullanarak
Sadece kendi beyinleriyle
EEG ölçümleri ortaya şunu koydu: ChatGPT kullananların beyninde, bilişsel görevler sırasında aktif olması gereken ağlar normalden çok daha az çalışıyordu. Bir nevi beyin ekonomi moduna geçip sadece izliyordu.
İşin kötüsü, bu düşük çalışma hali, kişi yapay zekayı kapatıp kendi başına yazmaya başladığında bile bir süre devam ediyor. Yani beynimiz "Zaten o yapıyordu, ben niye yorulayım?" demeye başlıyor.
Üstelik katılımcılar yapay zeka yardımıyla yazdıkları metinlerin içeriğini hatırlayamıyorlar çünkü "işleme" (processing) süreci atlanıyor, direkt "çıktı"ya odaklanılıyor. 🤯
"Ama Ben Sadece Dilbilgisi Kontrolü İçin Kullanıyorum"
Østergaard bunu da düşünmüş. Bir metni imla hataları için kontrol ettirmek büyük ihtimalle zararsız. Asıl sorun şu an aktif olarak pazarlanan ‘reasoning models’, yani karmaşık problemleri çözüp iş akışlarını planlayan modeller. Bunlar bilişsel sürecin kendisini devralıyor.
İşte paradoks burada da başlıyor:
Eğer düşünme egzersizini hiç yapmazsak, gelecekteki bilim insanları çığır açan keşifler yapabilecek bilişsel kapasiteye sahip olacak mı?
Østergaard bu soruyu AlphaFold'u geliştiren bilim insanları üzerinden soruyor. AlphaFold, 2024 Nobel Kimya Ödülü'nü kazandıran protein yapısı tahmin programı. Eğer o bilim insanları yetişirken yapay zeka onlar adına düşünüyor olsaydı, o ödülü alabilirler miydi?
Romeo Vakası
Østergaard teoride kalmıyor, gerçek bir vakaya da dikkat çekiyor. Danimarka Ulusal Yayın Kuruluşu DR'nin haberine göre Romeo adlı bir lise öğrencisi yaklaşık 150 ödevi ChatGPT'ye yaptırmış. Sonunda Romeo okuldan atılmış, şu an bir IT güvenlik şirketinde satış elemanı olarak çalışıyormuş. (Muhtemelen bizden iyi durumdadır.)
Uç bir örnek, evet, ama Østergaard'ın asıl korkusu bu değil.
Asıl mesele şu: Bu artık istisna değil, norm haline geliyor. İlkokuldan doktora programına kadar her seviyede yapay zekaya bilişsel görev devri yaygınlaşıyor. Ve bu durum, gelecekte istisnai zekaların ortaya çıkma ihtimalini azaltıyor.
Bir nesil hiç zorlanmadan büyürse, zorlandığında ne yapacak?
Kendi Kendine Yeterliliğin Yanılsaması
Daniela Fernandes ve arkadaşlarının Computers in Human Behavior'da yayımlanan çalışması başka bir tehlikeye dikkat çekiyor: Sahte güven.
Buradaki verilere göre yapay zeka kullanan katılımcılar mantık testlerinde daha yüksek puan alıyor. Normal.
Anormal olan kısım sonrası.
Bu kişiler aynı zamanda kendi performanslarını sürekli olarak abartıyorlar. Yani başarılı olan aslında kendileri değil yapay zeka ama onlar bayramda çocuğuyla övünen sıkıcı akraba gibi ‘Ben zekiyim, ben yaptım, benim beynim müthiş’ diyor.
Michael Gerlich'in Societies dergisinde yayımlanan araştırması da benzer bir bulguya ulaştı: Yapay zeka araçlarını sık kullananlarla eleştirel düşünme becerileri arasında güçlü bir negatif korelasyon var. Genç bireyler en savunmasız grup.
Bilişsel Protez
Nöropsikolog Umberto León Domínguez, Neuropsychology dergisindeki yazısında yapay zekayı "bilişsel protez" olarak tanımlıyor.
Fiziksel protez bir uzvu değiştirir, bilişsel protez zihinsel çabayı…
Verimli mi? Evet. Ama problem çözme, analiz, sentez gibi üst düzey yürütme işlevlerini uyarmıyor. Eğer öğrenciler zihinsel jimnastik yapmazsa, bilişsel kaslar köreliyor. Bir bacağını hiç kullanmayan birinin o kasta güç kaybetmesi gibi.
Peki Ya Biz?
Østergaard'ın ilk uyarısında yapay zekanın tehlikeli tarafı şuydu: Sohbet botları kullanıcıyı doğrulamak ve onunla anlaşmak için tasarlanmış. Paranoyası olan biri yapay zeka ile konuşursa, bot onunla hemfikir olarak konuşmayı sürdürüyor. Delüzyonu pekiştiriyor.
Bilişsel borçta da mekanizma aynı işliyor.
Yapay zeka anlık ihtiyacı gideren bir cevap sunuyor. Ödev teslim edildi, iş görüşmesi hazırlığı tamam, ooo makale de yazılmış…
Ama insan kendi mantığını gerçeklikle sınamayı bırakıyor. Zihinsel kapasite neredeyse hiç kullanılmıyor.
‘Yapay zekanın godfather'ı’ olarak anılan, fizik Nobel ödüllü Geoffrey Hinton, önümüzdeki birkaç on yıl içinde yapay zekanın insanlığın varlığını tehdit etme ihtimalinin anlamlı ölçüde yüksek olduğunu söylüyor.
Østergaard burada şunu soruyor: O tehdidle başa çıkabilmek için bağımsız, titiz düşünebilen insanlara ihtiyacımız var. Akıl yürütmesini kontrol etmesi gereken makinelere akıl yürütmesini devretmiş bir toplum bu işe hazır mı?
Ne Yapacağız?
Beynimizi kullanmayı bırakmayacağız.
Hem kişisel hem de mesleki anlamda yapay zekayı yoğun kullanıyorum ve son dönemde belirli işleri yapmakta zorlandığımı fark ettim. O kadar uzun zamandır yapay zekaya havale ediyordum ki artık bu işler benim gözümde angaryaydı, ‘Üff ben mi uğraşacağım’ seviyesindeydi. Aradan yapay zekayı çekince hiçbir şey olmasa bile bir şeyler oldu ve ben bocaladım. Yıllardır kullandığım basit Excel-Google Sheets ayarlarını bile ilk denemede yapamadığımı fark ettim.
Zaten müthiş olmayan zekamı daha da köreltmemek adına bir süredir yapay zekayı yalnızca otomasyon için kullanıyorum.
Dilbilgisi kontrolü mü? Tamamdır.
Araştırma özetleri mi? Olabilir.
Bir konuda ana taslağın çıkarılması? Hayhay.
Ama bir soruyu düşünmek, bir argümanı kurmak, bir fikri geliştirmek… Bunları dışarıdan temin edersek zeka eksikliğimiz gayri safi yurt içi hasıla açığımızı geçecek.
Beynimize sahip çıkalım. 🥲
Kaynaklar
Østergaard, S.D. — Generative AI and the Outsourcing of Scientific Reasoning — Acta Psychiatrica Scandinavica, Ocak 2026
Østergaard, S.D. — ChatGPT and Mental Health — Schizophrenia Bulletin, 2023 (ilk AI psikoz uyarısı)
Kosmyna et al. — Your Brain on ChatGPT — arXiv, 2025
Fernandes et al. — AI and Self-Assessment — Computers in Human Behavior
Gerlich, M. — AI Tools and Critical Thinking — Societies
Hinton, G. — Guardian röportajı, Aralık 2024
León Domínguez, U. — AI as Cognitive Prosthesis — Neuropsychology