Yapay zeka devi OpenAI, popüler sohbet robotu ChatGPT'nin kullanım politikalarını kökten değiştirdiğini duyurdu. Şirket, 29 EKİM 2025'ten itibaren geçerli olmak üzere, ChatGPT'nin TIBBİ, HUKUKİ ve FİNANSAL konularda "KİŞİSELLEŞTİRİLMİŞ" tavsiyeler sunmasını yasakladı. Bu radikal karar, potansiyel YASAL SORUMLULUKTAN kaçınma ve kullanıcıları yanlış yönlendirme riskini en aza indirme amacı taşıyor.
OpenAI'nin yeni güvenlik protokolleri ve kullanım şartları, ChatGPT'nin bu kritik alanlardaki rolünü yeniden tanımlıyor. YAPAY ZEKA artık kullanıcılarına PROFESYONEL BİR DANIŞMAN GİBİ DAVRANMAYACAK. Bunun yerine, temel olarak bir "EĞİTİM ARACI" olarak konumlandırılacak.
Yeni kurallar uyarınca, ChatGPT, karmaşık mekanizmaları ve genel prensipleri açıklamaya devam edebilecek. Ancak, kullanıcıları SPESİFİK DURUMLAR için her zaman BİR DOKTORA, AVUKATA VEYA FİNANS UZMANINA DANIŞMAYA yönlendirecek.
Yeni kısıtlamalar, özellikle yanlış veya eksik bilginin BÜYÜK ZARARLARA yol açabileceği spesifik konulara odaklanıyor. Buna göre, ChatGPT'nin artık yapmayacağı şeyler şöyle sıralanıyor:
Bu politika değişikliğinin ardındaki ana motivasyon, yapay zeka modellerinin "HALÜSİNASYON" (yanlış/uydurma bilgi üretme) eğilimi ile ilgili HUKUKİ YÜKÜMLÜLÜKTEN kaçınma isteğidir. Tıbbi teşhisten finansal planlamaya kadar hayati konularda hatalı tavsiyelerin, CİDDİ SONUÇLAR doğurabileceği ve şirkete karşı DAVA RİSKİNİ artırabileceği vurgulanıyor.
OpenAI, bu adımla birlikte, yapay zeka teknolojisinin hızla geliştiği bir dönemde etik ve yasal sınırları yeniden belirlemiş oluyor. Artık yapay zeka, kişisel ve özel durumlarda insan uzmanlığının yerini alamayacağını RESMEN KABUL ETMİŞ durumdadır.
KAYNAK: HABER MERKEZİ