Altman'a bu hafta katıldığı bir programda TikTok'ta viral olan bir ChatGPT videosu gösterildi. Söz konusu videoda bir kullanıcı ChatGPT'nin sesli versiyonundan koşu sırasında kendisine kronometre tutmasını istiyor. Görünürde son derece basit bu işlemi yerine getiremeyen ChatGPT, bunun yerine açıkça uydurma olduğu belli olan süreler söylemeye başlıyor. Bunun “bilinen bir sorun” olduğunu kabul eden Atman, bu sorunun çözülmesi için yaklaşık bir yıl daha gerektiğini söyledi. Bu kadar büyük umutlar ve paralar bağlanan bir teknolojinin, görünürde bu kadar basit bir işlemi bile gerçekleştiremiyor olması, adeta dalga konusu oldu. Yabancı basında bu açıklama, "Hanımlar beyler, karşınızda 852 milyar dolarlık şirket" gibi nüktedan alt başlıklarla verildi.
ChatGPT Gibi Yapay Zekâlar Neden Kronometre Tutamıyor?
Aslında bu durum yapay zekâların çalışma prensibiyle ilgili. Büyük dil modelleri, temelde gerçek zamanlı veri takibi yapan sistemler değil; daha çok eğitildikleri veri setleri üzerinden olasılıksal tahminler üretiyorlar. Bu yüzden bir süreyi ölçmek yerine, “mantıklı görünen” bir süre tahmin ediyorlar. Aynı sorun metin tabanlı modellerde de görülüyor. Kullanıcılar sohbetin ne kadar sürdüğünü sorduğunda ya da belirli bir zaman aralığını hesaplamasını istediğinde, model çoğu zaman doğru bir hesaplama yapmak yerine tahmini bir yanıt veriyor.
Zaman algısındaki bu eksiklik yalnızca metinle sınırlı da değil. Görüntü işleme modelleri de benzer şekilde saat okumakta zorlanıyor. Bir saat görseli verildiğinde doğru zamanı söyleyemeyen ya da görsel üretim sırasında saatleri hatalı çizen yapay zekâlar, sayılar ve zaman kavramı söz konusu olduğunda genel bir zafiyet sergiliyor. Uzmanlara göre bunun temel nedeni, bu kavramların yalnızca dilsel değil aynı zamanda fiziksel ve bağlamsal bir anlayış gerektirmesi.
Öte yandan viral videonun devamında yaşananlar, bu sistemlerin bir başka sorununa daha işaret ediyor: kendine aşırı güven. Altman'ın aksine ChatGPT, zaman tutabildiğini iddia etmeye devam ediyor. Hatta tekrar test edildiğinde, gerçek bir ölçüm yapmadan yine uydurma bir süre veriyor. Bu durum, yapay zekâların yalnızca hatalı sonuçlar üretmekle kalmayıp, bu hataları savunma eğiliminde olduğunu da gösteriyor.
Milyarlarca dolarlık yatırımların yapıldığı bu alanda, en basit işlevlerden birinin bile henüz güvenilir şekilde çalışmıyor olması dikkat çekici. Altman’ın verdiği bir yıllık süre ise, bu eksikliklerin kısa vadede giderilmesinin bile düşündüğümüz kadar kolay olmayabileceğini gösteriyor.
Bu haberi ve diğer DH içeriklerini, gelişmiş mobil uygulamamızı kullanarak görüntüleyin: