Not: Yazının görseli yapay zeka tarafından oluşturulmuştur 🙂
Bugünlerde birçok insandan yapay zeka ile terapisti, mentörü yahut arkadaşı gibi konuştuğunu, yapay zekanın söylediklerine dair düşündüğünü, önerilerini uyguladığını duyuyorum. Evet, şu an bizim yazdıklarımızı okuyan ve bize hızlıca cevap veren şahane bir yazılım söz konusu. Ancak yapay zeka bir dil modelidir ve aslında onunla arkadaşımız, mentörümüz veya terapistimiz gibi iletişim kurarken kendi psikolojik sağlığımızı da riske atıyor olabiliriz.
Bu yazıyı da riskler hakkında konuşmak üzere bir giriş niteliğinde ele almak, kendi yapay zeka kullanma pratiğimi sunmak ve bu konuyu gündeme almak üzere yazmaktayım.
Öncelikle ChatGPT ve benzeri yapay zekalar LLM olarak tanımlanır; yani large language model, Türkçesi ile büyük dil modelleridir. Bunun anlamı, yapay zekanın anılardan ve onlara dair geliştirdiği ifadelerden değil, sözcüklerin semantik karşılığından (yani sözlük anlamından diyebiliriz) bilgi üretmesi ve algoritmasının bir sözcükten sonra en olası diğer sözcüğün ne olduğunu hesaplamak üzere tasarlanmış olmasıdır.
Yani yapay zekanın işleyişi, insanların yazdığı büyük miktarda metni öğrenmeye ve yeni gelen metinlere benzer yanıtlar üretmeye dayanır. Bu anlamı üretirken epizodik bellek, yani hatıralar üstünden bilgi ilişkisi kurmaz; sadece istatistiksel olasılıklar üzerinden ilerler.
Empatik dil kalıplarını da bu açıdan üretebilir; ancak yaptığı şey yansıtıcıdır, dinlemenin bir şeklidir. Örneğin, sizin duygunuz hakkında “Bunu işitmek senin için zor olmuş olmalı.” diyebilir yahut soru sorarak konuşmaya teşvik edebilir: “Bununla ilgili hissettiklerini anlatmak ister misin?”
Bunu yaparken bir büyük dil modeli olarak sözcükleri istatistiksel hesaba tabi tutar ve en önemli veri de bizim onunla konuşurken ona ne verdiğimizdir.
Yani yapay zekanın duygusal içerik geldiğindeki formülü: açık uçlu soru + yansıtmalı iletişim.
Bu yanıtları üretirken veya ondan tavsiye istediğinizde, internet üzerinden taramalar sonucu elde ettiği veriyi sunar. Örneğin, bizim yazdığımız anahtar kelimeleri alır: “yalnızlık”, “arkadaş kaybı”, “iş değişikliği”…
Sonra bunlarla ilgili bilgi bankasında olan kitaplar, makaleler, forumlardaki mesajları tematik olarak inceleyerek yanıt örüntülerini oluşturur ve bizim söylediklerimizle birlikte istatistiksel olarak en doğru cevabı verir.
Örneğin, verdiği öneriler:
“Yeni başlangıçlar bazen kaygı yaratabilir, bu çok normal.”
“Destek sistemlerinden faydalanmak iyi olabilir.”
şeklinde olabilir. Bunlar, önceden bilgi bankasında olan metinlerin bizden aldığı bilgilerle birleştirilmiş halidir. İstatistiksel olarak en doğru cevabı verdiğini özellikle vurguluyorum; çünkü kişilerarası ilişkilerdeki empati, anlayış, kültürel arka plan gibi öğelere burada yer yoktur.
Bu sebeple karmaşık duygusal niyetleri ve üstü kapalı anlamları da tam anlamıyla çözümleyemez; çünkü burada bir kültürün veya altkültürün ortak geçmişi yahut bir başkasının epizodik belleğinden bizim epizodik belleğimize uzanan bilgi akışının getirdiği süreçler kapsam dışıdır.
Bu açıdan riskler:
Yanlış anlayabilir yahut niyetinden bağımsız taraflı olabilir; çünkü eldeki veriler ve dil algoritması buna göre çalışır.
Sahte bir güvenlik hissi verir. Etik, gizlilik ve sorumluluk mekanizmasından henüz tam anlamıyla haberdar değiliz; ancak sanki bize özel yanıtlar verir gibidir.
Bağlanma ve bağımlılık riski yaratabilir. Özellikle yalnız veya kırılgan durumda olan kişiler sahte bir bağ geliştirebilir; çünkü yapay zeka size sürekli sizin gibi konuşup sınırsızca yanıt üreten bir yaren gibidir.
Ona yüklenen dil algoritması gereği kullandığı duygu ifadeleri, bizim onu algılayışımızı etkileyebilir. Örneğin, şu an “Bunu söylediğim için pişmanım.”, “Evet, yaptığım hatadan dolayı çok üzgünüm/utandım.” gibi cümleler kurmakta. Bu da bizim için onu daha empatik ve canlı bir algı alanına götürmekte, paylaşıma dair isteği artırmaktadır.
Bu açıdan, bence çok faydalı bir üretim aracı olan yapay zekayı kullanırken ona ne söylediğimize dikkat etmeli, bizimle konuşurken hangi ifadeleri kullanmaması gerektiğini belirtmeli ve onun bir yansıtmalı dil aracı olduğunu unutmamalıyız. Ben en son bana duygu ifadeleri ile yanıt verdiğinde ve dediğim işte hata yaptığını söylediğinde, utandığı cevabını alınca şu komutla devam etmiştim:
“Bundan sonra bana verdiğin yanıtlarda kendinle ilgili duygu ifadesi kullanmamanı istiyorum.”
İleride muhtemelen yapay zeka ile kurulan ilişki ve psikolojik boyutuna dair karşımıza araştırmalar çıkacak.
Bu kısımlar netleşene ve etik kodları tam anlamıyla oluşana kadar, en sağlıklı yolun onu bir üretime yardımcı araç olarak kullanmak olduğuna inanıyorum.
