Finans dünyası sessiz sedasız bir devrim yaşıyor. Artık yatırım kararlarımıza yön verenler sadece takım elbiseli danışmanlar değil; Python'la kodlanmış, devasa veri setleriyle eğitilmiş "robo-danışmanlar". Düşük maliyetleri ve kolay erişilebilirliğiyle yatırım yapmayı herkes için erişilebilir kılma iddiasındaki bu yapay zekâ platformları, bir tuşla kişiye özel portföyler oluşturuyor. Peki, teknolojinin sunduğu bu kolaylık, algoritmaların yanıldığı ve yatırımcıların ciddi zarara uğradığı bir senaryoda içinden çıkılmaz bir hukuki soruna dönüşürse ne olacak? Paranızı emanet ettiğiniz o "akıllı" algoritma hata yaptığında kapısını çalacağınız bir sorumlu var mı?
Mevcut Hukuk Neden Çaresiz Kalıyor? "Kara Kutu" Problemi
Bir yatırımcının, robo-danışman
tavsiyesiyle yaptığı yatırımın hüsranla sonuçlandığını düşünelim. Doğal olarak
aklına, hizmeti aldığı yatırım kuruluşuna dava açmak gelecektir. İlk bakışta,
Türk Borçlar Kanunu'ndaki "ifa yardımcısının fiillerinden sorumluluk"
hükmü, yatırım kuruluşunu, kullandığı yapay zekâdan sorumlu tutmak için en net
yol gibi görünüyor. Ne de olsa algoritma, borcun ifasında kullanılan bir
"yardımcıdır".
Ancak sorun burada başlıyor.
Yatırım kuruluşu, "Hata bende değil, algoritmayı geliştiren teknoloji
şirketinde" veya "Verileri hatalı sağlayan veri sağlayıcısında"
diyerek kendini savunabilir. Bu durumda yatırımcı, kendisini karmaşık bir
sorumluluk zincirinin içinde bulur.
Dahası, modern yapay zekâ
sistemlerinin "kara kutu" olarak adlandırılan doğası, en temel hukuki
soruları bile yanıtsız bırakıyor. Milyonlarca veriyi analiz ederek karar veren
bir derin öğrenme modelinin, belirli bir tavsiyeyi neden verdiğini çoğu
zaman onu tasarlayan mühendisler bile tam olarak açıklayamaz. Bu durumda davacı
yatırımcı, zarara neden olan hatanın ne olduğunu, bu hatada kimin
"kusurlu" olduğunu (programcı mı, veri bilimci mi, yoksa yönetici
mi?) ve zarar ile hata arasındaki "nedensellik bağını" nasıl
ispatlayacak? Bu durum, yatırımcının omuzlarına neredeyse kaldırılması imkânsız
bir ispat yükü bindiriyor.
İki Kıta, İki Farklı Yaklaşım:
AB Kural Koyuyor, ABD Yaptırım Uyguluyor
Dünya bu sorunla yüzleşirken iki
temel yaklaşım öne çıkıyor:
- Avrupa Birliği'nin Kural Bazlı Yaklaşımı:
AB, oyunun kurallarını baştan yazıyor. Çığır açan Yapay Zekâ Tüzüğü (AI
Act) ile yatırım tavsiyesi veren sistemleri "yüksek riskli"
olarak sınıflandırarak bu sistemleri geliştirenlere ve kullananlara katı
şeffaflık, denetim ve insan gözetimi yükümlülükleri getiriyor. Daha da
önemlisi, yeni Ürün Sorumluluğu Direktifi (PLD) ile
"yazılımı" ve "yapay zekâ sistemlerini" açıkça
"ürün" olarak tanımlıyor. Bu devrimci adım, bir algoritma
hatasını "üretim hatası" sayarak, yazılım geliştiricisi için bir
"kusursuz sorumluluk" rejimi yaratıyor ve mağdurun tazminata
ulaşmasını kolaylaştırıyor.
- ABD'nin Yaptırım Odaklı Yaklaşımı: ABD Menkul Kıymetler ve Borsa Komisyonu (SEC), yeni kurallar koymak yerine mevcut dolandırıcılıkla mücadele yasalarını teknolojiye acımasızca uyguluyor. Charles Schwab davasında verilen 187 milyon dolarlık ceza bunun en çarpıcı örneği. Sorun, algoritmanın teknik bir hata yapması değil, "sıfır komisyon" vaadine rağmen müşterinin parasını gizli bir gelir modeli oluşturacak şekilde yüksek oranlı nakit pozisyonunda tutmasıydı. SEC, burada teknolojiye değil, iş modelinin altında yatan ve dürüstçe açıklanmayan "çıkar çatışmasına" odaklandı. Bu, sorunun her zaman kodda değil, bazen de "niyette" olduğunu gösteriyor.
Türkiye'de de robo-danışmanlık
uygulamaları hızla yayılıyor ve Sermaye Piyasası Kurulu'nun (SPK) bu konunun
farkında olduğunu stratejik planlarından anlıyoruz. Ancak farkındalığın ötesine
geçip somut adımlar atma zamanı geldi de geçiyor. Küresel gelişmeler ışığında,
Türk hukuku için yol haritası oldukça net:
- Net Bir Düzenleme Şart: SPK, bu hizmetlerin
hukuki niteliğini (danışmanlık mı, portföy yönetimi mi?), aktörlerin
sorumluluk sınırlarını ve asgari standartları belirleyen özel bir tebliğ
yayınlamalıdır.
- Şeffaflık ve Açıklanabilirlik Esas Olmalı:
Algoritmanın temel mantığı, sınırlılıkları ve tüm dolaylı maliyetler
yatırımcının anlayacağı dilde açıklanmalıdır. Bir kararın neden
verildiğini makul düzeyde açıklayabilen "Açıklanabilir Yapay
Zekâ" (XAI) sistemleri teşvik edilmeli, hatta zorunlu kılınmalıdır.
- İspat Yükü Dengelenmeli: "Kara
kutu" sorunu karşısında yatırımcının çaresiz kalmaması için, AB'de
olduğu gibi belirli şartlar altında ispat yükünü hizmet sağlayıcıya
kaydıran "nedensellik karinesi" gibi modern mekanizmalar hukuk
sistemimize kazandırılmalıdır.
Teknoloji, hukukun her zaman
birkaç adım önünde ilerliyor. Ancak bu durum, hukukun çaresiz olduğu anlamına
gelmez. Yatırımcının korunması ve piyasa güveninin tesisi için inovasyonu
boğmadan denetleyen, şeffaflığı zorunlu kılan ve en önemlisi sorumluluğun
buharlaşmasına izin vermeyen akılcı bir hukuki çerçeve oluşturmak zorundayız.
Unutmayalım ki, teknoloji ne
kadar "akıllı" olursa olsun, hukuki sorumluluk eninde sonunda bir
insana veya kuruma aittir. Algoritmanın arkasında duranlar, onun yarattığı
sonuçların da sorumluluğunu üstlenmek zorundadır.
Kaynak:
Demir, Şamil. “Yapay zekâ
destekli yatırım tavsiyelerinin hukuki niteliği: sermaye piyasasında
sorumluluğun sınırları”, 09 Temmuz 2025. https://doi.org/10.5281/zenodo.15849149.

Yorumlar