1966 yılında İngiliz matematikçi I. J. Good’un ortaya attığı “ultra zeki makinelerin kendilerinden daha iyi makineler tasarlayabileceği” fikri, yapay zeka araştırmalarının temel düşünce deneylerinden biri olmuştu. Good’a göre böyle bir süreç sonunda insan zekasını geride bırakabilecek bir “zeka patlaması” meydana gelebilirdi. Bugün ise ChatGPT, Gemini, Claude ve Grok gibi büyük dil modellerinin yazılım üretiminde kullanılması, bu teorinin pratikte ilk işaretlerini ortaya koyuyor.
Kendi kendini geliştirmeye giden adımlar
Araştırmacılar, günümüzdeki sistemlerin tam anlamıyla bağımsız olmadığını vurguluyor. Mevcut modelle insanların belirlediği hedefler doğrultusunda çalışıyor, başarı kriterleri yine insanlar tarafından tanımlanıyor ve hangi değişikliklerin uygulanacağına yine insanlar karar veriyor. Buna rağmen yapay zeka sistemlerinin artık gelecekteki yapay zeka modellerinin geliştirilmesinde aktif rol aldığı belirtiliyor.
Özellikle “AutoML” gibi teknolojiler uzun süredir makine öğrenmesi modellerinin eğitim ve optimizasyon süreçlerini otomatikleştiriyordu. Ancak büyük dil modellerinin kod yazabilme kapasitesi bu süreci farklı bir seviyeye taşıdı. OpenAI, Şubat ayında GPT-5.3-Codex modelinin kendi geliştirme süreçlerinde kullanıldığını açıkladı. Şirket, modelin eğitim hatalarının ayıklanması, dağıtım süreçlerinin yönetimi ve değerlendirme sonuçlarının analiz edilmesinde görev aldığını belirtti. Anthropic ise şirket içindeki kodların büyük bölümünün artık Claude Code tarafından yazıldığını ifade ediyor.
AlphaEvolve, büyük dil modellerini kullanarak yeni çözüm yöntemleri geliştiriyor, sinir ağı mimarilerini optimize ediyor, veri merkezi planlamalarını iyileştiriyor ve çip tasarım süreçlerinde yeni yaklaşımlar üretiyor. Ancak sistem tam anlamıyla bağımsız değil. Hangi problemlerin çözüleceği ve performansın nasıl ölçüleceği insanlar tarafından belirleniyor. Ancak araştırmacılar, sistemin zaman zaman insan sezgisinin ötesinde sonuçlar üretebildiğini söylüyor.
Google DeepMind araştırmacılarından Matej Balog, insanlarla makineler arasında yoğun bir iş birliği oluştuğunu belirterek sistemin ortaya çıkardığı bazı keşiflerin araştırmacılara yeni bakış açıları kazandırdığını ifade ediyor. Balog’a göre amaç, insan sezgisinin ulaşamadığı algoritmaları keşfetmek ve görünüşe göre şimdiden ilk somut örnekler ortaya çıkmaya başlamış durumda.
Yapay zeka çiplerini tasarlayan yapay zeka
Projede ilk aşamada insan tasarımcılara yardımcı olunması planlanıyor. İkinci aşamada ise kendi çip tasarım ekibine sahip olmayan şirketler için sürecin otomatikleştirilmesi hedefleniyor. Üçüncü aşama ise yapay zekanın daha güçlü yapay zekaları eğitmek için daha iyi çipler tasarlaması. Buna rağmen şirket yetkilileri, insan denetiminin süreçten tamamen çıkarılmasının planlanmadığını vurguluyor.
Kendi kodlarını değiştiren sistemler
Kendi davranışını değiştirebilen yapay zeka sistemleri üzerine çalışan projeler de dikkat çekiyor. British Columbia Üniversitesi ve Sakana AI tarafından geliştirilen Darwin Gödel Machines (DGM) sistemi, evrimsel algoritmalar kullanarak büyük dil modeli tabanlı kodlama ajanlarını geliştirebiliyor. Bu sistemlerin en dikkat çekici özelliği ise kendi kodlarını değiştirebilmeleri.
Araştırma ekibi ayrıca “AI Scientist” adlı başka bir proje de geliştirdi. Mart ayında Nature’da yayımlanan çalışma, araştırma süreçlerinin otomatikleştirilmesini amaçlıyor. Sistem araştırma fikirleri üretebiliyor, yazılım ortamında deneyler yapabiliyor, sonuçları bilimsel makale formatında yazabiliyor ve ardından bu makaleleri değerlendirebiliyor. Böylece yalnızca kodlama değil, deney ve değerlendirme süreçleri de otomatik döngüye dahil edilmeye başlanıyor.
Endişeler yeniden gündemde
Gelişmelere rağmen araştırmacılar, sistemlerin henüz insan seviyesinde olmadığını vurguluyor. Uzmanlar, mevcut modellerin fikir üretme, uygulama ve değerlendirme konusunda “idare eder” düzeyde olduğunu söylüyor. Araştırmacılar ayrıca gerçek dünyadaki fiziksel süreçlerin de büyük engel oluşturduğunu düşünüyor. Bu nedenle birçok uzman, insanların sistemin merkezinde kalmaya devam edeceğini savunuyor.
Bazı uzmanlar ise kontrolsüz bir yapay zeka gelişim sürecinin halen mümkün olduğunu ve “zeka patlaması” ihtimalinin masada bulunduğunu düşünüyor. Özellikle şirketlerin kendi kendini geliştiren modelleri kamuya açmadan şirket içinde tutmasının risk oluşturabileceği belirtiliyor. Araştırmacılar, ileri düzey yapay zeka laboratuvarlarının sıkı şekilde denetlenmesi gerektiğini savunuyor. özellikle siber saldırılar veya biyolojik silah geliştirme süreçlerinde kötü niyetli aktörlerin bu sistemleri kullanma ihtimali dikkatle izlenmeli.
Uzmanlara göre geleceğin yapay zeka ekosistemi tek bir “süper zekadan” oluşmayabilir. Bunun yerine birbirleriyle etkileşim kuran çok sayıda yapay zeka ajanının bulunduğu bir yapı ortaya çıkabilir.
Bu haberi ve diğer DH içeriklerini, gelişmiş mobil uygulamamızı kullanarak görüntüleyin: