Yapılan araştırmaya ALS ve beyin sapı felci nedeniyle ağır felç yaşayan dört kişi katıldı. Katılımcılardan biri, yalnızca gözlerini yukarı kaldırarak “evet”, yana çevirerek ise “hayır” cevabı verebiliyordu. Deneklerin motor korteksine, yani konuşmayla ilişkili hareketleri kontrol eden beyin bölgesine, mikroskobik elektrot dizileri yerleştirildi. Bu teknoloji, uzun yıllardır beyin-bilgisayar arayüzleri üzerine çalışan BrainGate BCI konsorsiyumu tarafından geliştirildi.
Büyük başarı kaydedildi
Sonuçlara göre, katılımcıların yalnızca kafalarından düşündükleri kelimeler, gerçek konuşmaya göre daha zayıf sinyaller üretiyordu. Buna rağmen sistem, yüzde 74’e varan doğruluk oranıyla sessiz konuşmayı çözümlemeyi başardı.
Çalışmanın başyazarı, Stanford Üniversitesi’nden nörobilimci Erin Kunz, “İlk kez, sadece bir konuşmayı düşünürken beyin aktivitesinin nasıl olduğunu anlayabildik. Ciddi konuşma ve motor bozuklukları olan insanlar için, iç konuşmayı tanıyan nörobilgisayar arayüzleri iletişimi daha kolay ve daha doğal hale getirebilir” ifadelerini kullandı.
Araştırmada öne çıkan bir diğer bulgu ise gizlilik konusu oldu. Sistem bazen katılımcıların talep edilmeyen düşüncelerini de algıladı; örneğin, görsel bir görev sırasında sayı saymaları kayda geçti. Bunun önüne geçmek için ekip, yalnızca belirli bir “hayali parola” ile aktif olan bir güvenlik kilidi geliştirdi. Testlerde, “chitty chitty bang bang” ifadesi, istenmeyen çözümleri %98 oranında engelledi.
Henüz deneysel aşamada olsa da Stanford ekibi, bu çalışmanın gelecekte yalnızca düşüncelerle iletişim kurmanın mümkün olabileceğine inanıyor. Araştırmacılara göre, dil temelli beyin-bilgisayar arayüzleri bir gün insanların konuşur gibi doğal, hızlı ve özgürce iletişim kurmasını sağlayacak.
Öte yandan beyin bilgisayar arayüzlerine olan ilgi sadece bilim dünyasında değil, teknoloji dünyasında da artıyor. OpenAI CEO’su Sam Altman’ın desteklediği Merge adlı yeni girişim, Elon Musk’ın Neuralink projesine rakip olmayı hedefliyor.
Kaynakça https://itc.ua/en/news/stanford-s-brain-computer-interface-understands-words-in-the-head-directly-other-devices-only-read-activity/ https://med.stanford.edu/news/all-news/2025/08/brain-computer-interface.html https://www.cell.com/cell/fulltext/S0092-8674(25)00681-6 Bu haberi ve diğer DH içeriklerini, gelişmiş mobil uygulamamızı kullanarak görüntüleyin:
[resim]
ahaha buddadroid
Niye herşeyi yapay zekaya soruyorsun o zaman.
dinimizi robotlardan öğrenecek değiliz
tüm sistemini hırsızlık üzerine kurmuş bir ülkeden bahsediyoruz, şaşırmadım