Bizi Öldürmeyen Şey Güçlendirir mi?
Yapay zekâ (AI) anksiyetesiyle yaşam rehberi: Dijital Liderlik Akademisi (DLA) 2026 perspektifiyle korku envanteri, risk tasarımı ve operasyonel liderlik ilkeleri
Popüler kültürde neredeyse herkesin en az bir kez alıntıladığı bir cümle var:
“Seni öldürmeyen şey güçlendirir.”Bu söz çoğu zaman Nietzsche’ye atfedilir; aslında Nietzsche’nin
Götzen-Dämmerung (Putların Alacakaranlığı)kitabında, kısa aforizmalar bölümünde (“Sprüche und Pfeile / Maxims and Arrows”) yer alan bir cümledir:
“Was mich nicht umbringt, macht mich stärker.”Bu cümle, zaman içinde felsefeden pop müziğe, kişisel gelişimden kurumsal stratejiye kadar her yere taşındı.
Kelly Clarkson’un bir dönem marş gibi söylenen
Stronger (What Doesn’t Kill You)şarkısı da bu cümlenin popüler kültürdeki en görünür yankılarından biri oldu.
Dijital dönüşüm literatüründe de “kendi kendini tüketme” (
self-cannibalization) ve “kendi kendini yok etme” (
self-destruction) gibi ölüm ve yok oluş çağrışımı yapan “korkutucu” kavramlar var. Öte yandan AI’dan başka sebeplerle de korkuyoruz:
- “AI dünyayı ele geçirecek.”
- “İşimizi elimizden alacak.”
- “Toplumu manipüle edecek.”
- “Bir savaş başlatacak…”
Bu cümlelerin ortak noktası şu: AI’a ilişkin hayranlık ve merak kadar, geniş ve derin bir endişe kümesi de söz konusu. Araştırmalar, insanların AI’ı yalnız “teknoloji” olarak değil; hayatlarının en kırılgan yerlerine temas eden bir risk çarpanı olarak da algıladığını gösteriyor. Bu algıyı altı başlıkta toplayabiliriz:
- İş–ücret–statü kaybı endişeleri
- Kontrol kaybı ve hesap sorabilme imkânının zayıflaması
- Mahremiyet, gözetim ve güvenlik kaygıları
- Manipülasyon ve dezenformasyon korkuları
- İnsani temas, bağlam ve anlam kaybı endişeleri
- Varoluşsal felaket anlatılarının ürettiği korku
Bunların hepsi, nihayetinde tek bir büyük duyguya akıyor: yerinden edilme (replacement). İşimiz, statümüz, karar hakkımız, gerçeklik zeminimiz, hatta “insan olmanın anlamı” … hepsi AI tarafından yerinden edilebilir!
Ve korku büyüdükçe, bu duygu bazen tek cümleye dönüşüyor:
“AI’ın bizi (bazen işimizi; bazen itibarımızı, bazen de gerçeklik duygumuzu) öldürmesinden korkuyoruz.”Peki ya “ölmemenin” bir yolu varsa?
Ya gerçekten, şarkının ima ettiği gibi, bizi öldür(e)meyen şey güçlendirirse? Ya daha güçlü olursak?
AI döneminde korkuya yenilmeden güçlenmek için, öncelikle korku cümlelerinden arınıp tasarım cümlelerine odaklanmak gerekir. Bunun için de bir kurumun (ya da bireyin) dışarıdan darbeyle değil; kendi yanlış tasarımıyla çökebileceğini idrak etmemiz gerekiyor.
İşte tam burada Kelly Clarkson’un güçlü sesiyle söylediği nakarat, iş dünyasında beklenmedik bir teknik anlama bürünüyor.
Bir kurum için “stronger” olmak, duygusal bir slogan değil; operasyonel bir tasarım meselesi.
Bu noktada bir başka kritik soru da şu: Neyin bizi öldürebileceğini gerçekten biliyor muyuz? Bilmiyorsak, nasıl güçleneceğiz? Tam bu noktada, DLA 2026 bize güçlü bir çerçeve veriyor.
DLA 2026: Korkunun esiri olmadan korkuyu tasarıma çevirmek
DLA 2026 AI’ı anlatırken korkuyu es geçmedi; korkuyu küçümsemedi. “Aman canım ne korkuyorsunuz ne olacak?” da demedi. Hatta korkuyu yadsımadı; “korkun” dedi. Ama korkunun esiri de olmadı.
Tam olarak neyin korkutucu olabileceğini ortaya koydu ve korkuyu bir tasarım yol haritasına dönüştürdü.
DLA 2026’nın makro tezi yalın ama son derece zorlayıcı: AI bir teknoloji yükseltmesi değil; ürünleri, pazarları, kurumları ve insanın karar alma biçimini eşzamanlı yeniden yazan bir paradigma geçişidir.
Bu yeni paradigmada rekabet avantajı, “en parlak model”i kullanarak/geliştirerek değil; veri rejimi–yönetişim–dağıtım–“agent” hazırlığı bileşiminde sağlanır. Tam da bu yüzden program boyunca yankılanan şu cümle, bir strateji özeti değil; bir hayatta kalma kuralıdır:
“Asıl mesele AI’ı kullanmak değil; AI ile çalışacak dünyayı tasarlamak.”
Şimdi bunu, DLA 2026’nın 14 ders boyunca doğrudan/dolaylı işaret ettiği beş “ölüm provası” üzerinden açalım. Çünkü yeni çağın riski tek bir büyük felaket gibi gelmiyor; çoğu zaman parça parça, “normal görünen bir günün içinde” ilerliyor.
1. prova: Görünmezlik
Agent’lar karar verirken siz hâlâ yalnız arayüz “parlatıyorsanız”…
Yeni dönemde “raf” ekranda değil; agent’ın karar ağacında kuruluyor. UX (user experience) hâlâ önemli; ama tek başına yeterli değil. DX (developer experience) ve giderek daha kritik hâle gelen AX (agent experience) görünürlük zemininin parçası oluyor.
Bir ürün insan için ne kadar iyi olursa olsun, agent’ın karar mantığı için okunabilir değilse, görünürlüğünü kaybedebilir. Ve görünürlüğünü kaybetmek, çoğu zaman en sessiz ama en ölümcül kayıptır.
Dolayısıyla ürünü baştan agent-ready tasarlamak—yapılandırılmış veri, güçlü dokümantasyon, API/MCP mantığı, agent’ın anlayacağı ürün dili… ve dağıtımı, sonradan eklenen bir pazarlama faaliyeti değil; ürün stratejisinin içine gömülü bir mimari olarak ele almak yaşamsal önemdedir.
2. prova: Kültür freni
“Dijital oyuncak” satın alıp dönüşüm bekleyen kurumların yavaş yavaş çözülecek olması…
AI adaptasyonunda kilit, araç değil; kültürdür. Muğlak talimatlar (“AI kullanın ama veri vermeyin” gibi) belirsizlik üretir; belirsizlik ise dönüşümün düşmanıdır.
Üstelik rol dağılımları değişiyor: İşlerin otomasyona kaydığı yerde rol sınırları bulanıklaşırken, problem tanımı, ürün mimarisi ve dağıtım odağı büyüyor.
Dolayısıyla prototipsiz konuşmayı azaltan, yaparak öğrenmeyi kurumsal ritme dönüştüren, herkesi dahil eden net bir işleyiş gerekir.
Yeni GTM gerçekliğini kabullenmek: ürün yapmanın nispeten ucuzladığını, dağıtımın ise zorlaştığını görmek; topluluk, içerik ve influencer dinamiklerinin “konuşulma”yı KPI seviyesine taşıdığını idrak etmek… Özetle, AI-first davranış standardı yaşamsal önemdedir.
3. prova: Hakikatin erimesi
Veri yakıttır; ama aynı zamanda en zayıf halkadır.
Deepfake, post-truth iklimi ve sentetik içerik bolluğu, kanıt/doğrulama düzenini zayıflatır. Doğrulama yoksa hız sizi büyütmez; aksine darmadağın eder. Bu çağda güven, üretimden önce doğrulama rejimiyle korunur.
Dolayısıyla sağlam veri yönetişimi ve doğrulama rejimi hayati önemdedir: veri sınıfları, izin verilen araçlar, onay mekanizmaları, log kayıtları, gizlilik ve eğitim planı… Net değilse “kullanın” demek, yükü insanların omzuna bırakmaktır.
Veri okuryazarlığı da bu yüzden liderlik ön koşuluna dönüşür: dağılım, örnekleme, yanlılık, hipotez testi… Bunlar süs değil; savunma hattıdır.
4. prova: “Agency”nin el değiştirmesi
Kolaylık, fark ettirmeden yetki devrine dönüşürken sen neredesin?
AI ajanları geliştikçe “kolaylık” artar; ama kolaylık bazen, fark ettirmeden yetki devrine dönüşür. Hangi kararların otomasyona devredileceği ve hangi kararların insanda kalacağı, teknoloji değil; sosyo-teknik tasarım meselesidir.
Dolayısıyla karar mimarisini netleştirmek; yani “kim, neyi, hangi koşulla onaylar?” sorusuna net cevaplar vermek yaşamsal önemdedir.
Hangi kararlar otomasyona devredilir, hangileri bilinçli biçimde insanda tutulur? Bazı bilişsel işleri (bağ kurma, derin yorumlama, özgün yazma) “manuel” bırakmak nostalji değil; insan ajansını (“agency”) koruyan stratejik bir disiplindir.
5. prova: Bağlam kaybı
Küresel modeller yerel semantiği tanımadığında belki “mükemmel” ama etkisiz ürünler çıkarır.
Kültürel sözlükler ve yerel semantik katmanlar yetersizse üretim kırılganlaşır; yanlış üretimden çıkan “doğru” ürün, dünyaya karşı savunmasız kalır. AI stratejisi bu nedenle yalnız verimlilik değil; anlam üretimi ve meşruiyet altyapısı meselesidir.
Dolayısıyla “yerel korpus” ve dijital beşerî bilimler yaklaşımı hâlâ yaşamsal önemdedir. Mimari, edebiyat, müzik, retorik, kültürel kodlar… Bunlar “soft” değil; AI’ın anlamlı üretim yapması için bağlam altyapısıdır.
AI anksiyetesi ile nasıl yaşarız?
Hal böyleyken AI anksiyetesi ile nasıl yaşamamız, bunu nasıl yönetmemiz gerekir? DLA 2026’nın AI anksiyetesine karşı güçlendiren sekiz operasyonel ilkesi bize güzel bir “reçete” sunuyor:
- İstatistik ve veri okuryazarlığını temel yetkinlik olarak benimseyin.
- Kurumsal AI kullanım protokolünü netleştirin (veri sınıfları, onay, log, gizlilik, eğitim).
- Ürünleri baştan agent-ready tasarlayın (yapılandırılmış veri, dokümantasyon, AX).
- Dağıtımı ürün stratejisinin içine gömün (topluluk, içerik, GEO/AI search yüzeyleri).
- Takım tasarımını güncelleyin (problem tanımı, mimari düşünme, review kapasitesi).
- Doğrulama rejimi kurun (kaynak izlenebilirliği, kalite kapıları, provenance).
- İnsan ajansını koruyan kullanım disiplini geliştirin (bazı bilişsel işleri bilinçli biçimde “manuel” tutun).
- … ve yukarıdaki yedi ilkeyi romantik cesarete değil; operasyonel protokollere dayandırın.
Yukarıdaki ilkelere uymak bizi sadece güçlendirmekle kalmayacak, aynı zamanda üzerimizdeki psikolojik yükü de azaltacak. Çünkü korku yalnız rasyonel değil; davranışsal bir reflekstir. Şöyle ki:
- Algoritma kaçınması literatürü, insanlar algoritmanın hata yaptığını gördüğünde güveni hızlıca geri çekebildiğini gösterir (Dietvorst et al., 2015). Aynı araştırma hattı, insanlara küçük bir “müdahale hakkı” verildiğinde bu kaçınmanın azalabildiğini bulur; yani mesele salt performans değil, ajanstır (“agency”) (Dietvorst et al., 2018).
- Otomasyon literatürünün klasik çerçevesi disuse (iyi otomasyona gereksiz yere az güven) ve misuse (zayıf otomasyona aşırı güven) ikilemini vurgular: sorun “maksimum güven” değil, “doğru ayarlı güven”dir (Parasuraman & Riley, 1997).
- Korkunun bir kısmı sezgisel rahatsızlıktan beslenir: tekinsiz vadi, insana çok benzeyen ama tam da insan olmayan varlıkların tedirginlik yaratabileceğini anlatır (Mori et al., 2012).
- Üstelik korku, kültürel anlatılarla çoğalır; “korkutucu robot” hikâyeleri risk algısını yalnız bilgiyle değil, hikâye paketleriyle de şekillendirir (Cave et al., 2019).
Bu yüzden “korkuyu yenmek”, korkuyu bastırmak değil; korkuyu tasarıma çevirmektir. Korku bir sis değil, bir sinyaldir. Sinyal doğru okunursa protokole, protokol doğru kurulursa güvene dönüşür.
Ipsos’un bulgularında görülen güçlü “açıklama/şeffaflık” beklentisi de bununla uyumludur: İnsanlar çoğu kez AI “güçlü” olduğu için değil; AI’nın nasıl kullanılacağı belirsiz olduğu için endişelenir (Ipsos, 2025).
Ve evet… Nietzsche’nin cümlesi hâlâ doğru. Ama artık yalnız bir aforizma olarak değil, bir yönetim problemi olarak doğru:
Beni öldürmeyen şey güçlendirir — çünkü güç, “daha hızlı olmak”la gelmiyor. Güç, yeni çağın korkularını tanıyıp onları soğukkanlı bir tasarıma çevirebilen kişi ve kurumlarda birikiyor.
Bir edebî selamla kapatalım: AI çağında dayanıklı olmak ya da olmamak… İşte bütün mesele bu.
Kaynakça (seçme)
- Cave, S., Coughlan, K., & Dihal, K. (2019). Scary Robots: Examining public responses to AI.
- Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err.
- Dietvorst, B. J., Simmons, J. P., & Massey, C. (2018). Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them.
- Ipsos. (2025). Ipsos AI Monitor 2025.
- Mori, M., MacDorman, K. F., & Kageki, N. (2012). The uncanny valley [From the field].
- Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse.