Bakışınız değişecek: Yapay zekalar nasıl çalışıyor? Verilerimizi silebilir miyiz?
  1. Anasayfa
  2. Haberler

Bakışınız değişecek: Yapay zekalar nasıl çalışıyor? Verilerimizi silebilir miyiz?

0
Türkiye’deki klasik medya ve aslında tüm dünya genelindeki yorumcuların günümüz yapay zekası hakkında spekülasyon yaptıklarında kenara 1 dolar atsaydım muhtemelen milyoner olurdum. Beşerler “yapay zeka” dediğimiz şeyin programcılar tarafından klavyelerinde yazılan bir küme bilgisayar kodu olduğunu unutuyorlar. Bu spekülasyonlar birçok vakit GPT-4, GPT-4o yahut Google Gemini 1.5 üzere Büyük Lisan Modellerinin (LLM) yeteneklerinde yaşanan süratli yükselişten kaynaklanıyor ve bunun bir kısmı anlaşılabilir. Lakin ortada bir sihir olmadığının farkında olmak kıymetli.

Aslında bu mevzu bir okuyucumuz (@E_Y_B_H_P_T) tarafından birkaç ay evvel önerildi. Okuyucumuz yapay zekaların ve firmaların hakkımızda tuttukları bilgileri ne kadar sakladıklarını ve onlarla ne yaptıklarını merak ediyordu. Mevzu hoştu lakin bunu hakikat bir formda cevaplamak için öncelikle “yapay zeka” dediğimiz bu araçların çalışma halini irdelemek gerekiyor. Bu irdeleyiş çok kısa olmayacak.

Yapay zekalar nasıl çalışıyor ve LLM’ler nedir?

GPT-4 ve yeni çıkan GPT-4o’nun yeteneklerinden herkes üzere ben de etkilendim ve büyük bir heyecan içerisindeyim gelecek hakkında. Lakin bir LLM’nin ne olup ne olmadığını kendimize hatırlatmamız gerekiyor. Bilim kurgu müellifi Ted Chiang, (Arrival, Exhalation, Stories of Your Life) LLM’leri “web’in bulanık bir JPEG’i” olarak tanımlıyor. Bu epey kolaylaştırılmış bir tanımlama lakin çok da isabetsiz değil.

Günümüzün tüm büyük lisan modelleri (yazı boyunca artık LLM kısaltması kullanılacak) gerçek bir anlayıştan çok olasılıklar ve istatistiksel ilişkiler temelinde çalışırlar. Bu ayrım, hem yeteneklerini hem de sınırlamalarını anlamak açısından çok kıymetli. Bu anlayışın birinci noktası şu; LLM’ler, çok gelişmiş bir örüntü tanıma biçimi olan bir dizideki sonraki jetonu (kelimeyi) istatistiksel olarak varsayım etmek için geniş bilgi setleri (metin) üzerinde eğitiliyor ve daha sonra istenen sonuçlara ulaşmak için insan mühendisler tarafından manuel olarak ince ayarlamalarla şekillendiriliyorlar.

Sesinizi tanımak, insan üzere konuşmak ya da kedi fotoğrafları oluşturmak için tasarlanan yapay zeka sistemleri bu LLM’leri barındırıyor. LLM’ler dediğimiz üzere çok büyük bilgi kümeleriyle eğitiliyor ve şirketler ekseriyetle bu kümeleri açıklamamaya ihtimam gösteriyor. Nereden gelirse gelsin tüm bu datalar birden fazla düğüm ve katmandan oluşan bir hudut ağı aracılığıyla işleniyor.

Yani, LLM’lerin inanılmaz gücü, rastgele bir kavram yahut fikir anlayışından fazla büsbütün bu kalıpların ve olasılıkların tanınmasına ve tekrar oluşturulmasına dayanıyor. Dikkat edilmesi gereken birinci konu budur. Aslında bunu metinsel yapay zeka araçlarında görmüş olabilirsiniz. Bir LLM’ye bir şeyleri daha derin ve daha ayrıntılı açıklaması için baskı yaptığınızda onun bir noktada yararlı bilgi vermeyi bıraktığını ve güya daireler çizmeye başladığını fark etmişsinizdir.

Biz beşerler şuur, biliş ve yeni bilgileri yapısal sınırlamalar olmaksızın mevcut bilgi ve tecrübelerimizle ilişkilendirebiliyoruz. LLM’lerin tecrübeleri ya da görüşleri olmadığından ve olamayacağından, işleyişleri büsbütün hesaplamaya dayalıdır ve ferdî bağlamdan ya da deneyimsel öğrenmeden mahrumdur.

LLM’ler bağlamla ilgili ve biçimsel olarak gerçek olan etkileyici karşılıklar üretebilseler de bunu, gerçek bir anlayışa yahut metnin ardındaki daha derin manalara değil, sayısal dizilerin istatistiksel muhtemelliğine dayanarak yapıyorlar. Münasebetiyle GPT-4 üzere gelişmiş bir modelle etkileşime girdiğinizde onun bir şeyleri hakikaten bildiği hissine kapılmanız bir yanılsamadır: Yaptığı şey şaşırtan olsa da gerçekte yaptığı şey aslında “anlamak” değildir.

Beşerler zihinlerindeki kavramları dünyadaki tecrübeleriyle ilişkilendirerek bir şeyleri anlar yahut anlamlandırır. Öte yandan LLM’ler sözlerin gerçekte ne manaya geldiğini yahut farklı durumlarda neye işaret edebileceklerini anlamaksızın makul düzenler ve kalıplar sunan birbiriyle alakalı sayı kümeleri olarak görürler.

Aslında LLM’ler sözler de kullanmazlar. İnsan lisanlarındaki tüm sözler tokenizasyon adı verilen çok erken bir basamakta sayılara dönüştürülür ve öbür sayı kümeleriyle ilişkilendirilip bu ilgiye bakılır. Bu da sözlere atfettiğimiz her türlü mananın kaybolduğunu gösteriyor. Haliyle LLM’lerin ilgilendiği şey sözler yahut lisanlar değil, bunların matematiksel temsilleridir. Her ne kadar bunlara “Büyük Lisan Modelleri” desek de bu telaffuz eksiktir.

Matematikte daha doğrusu istatistikte katılığa ulaşmak için bilgi kümesinin büyük olmasını isteriz. Münasebetiyle LLM’lerin performansı da büyük ölçüde eğitim datalarına bağlıdır. Ya datalar çok fazla olacak (trilyonlarca parametre) ya da datalar o kadar kaliteli olacak ki bunlardan çıkarım yapmak daha kesin sonuçlar ortaya koyacak. Esasen aslında bu durum ChatGPT’nin isminde da bizlere gösteriliyor: (Chat’ten sonra gelen GPT, Generative Pretrained Transformer – Önceden eğitilmiş üretken dönüştürücü– manasına geliyor)

Verilerin ölçüsü ve kalitesi arttıkça LLM’lerin sözlerin ve cümlelerin birbirleriyle nasıl bağlı olduğuna dair kalıpları tespit etmesi ve akabinde hangi sözlerin gelmesi gerektiğine dair iddialarındaki performans artacaktır. GPT-4o an itibariyle bunu en güzel yapan yapay zeka. Buradaki gelişmeler ilerledikçe ortaya konan şeyler niyet ve yaratıcılık üzere görünmeye başlıyor.

Biraz daha derine indiğimizde LLM’lerin içindeki dönüştürücülerin bir öz dikkat içerdiğini görüyoruz. En kolay haliyle bu, bir cümledeki sözlerin tek başına değil, birebir vakitte çeşitli sofistike yollarla birbirleriyle olan ilgilerinin kıymetlendirilmesi manasına geliyor. Bu dönüştürücülerde bir ölçü doğaçlama da bulunuyor. Bu yüzden ChatGPT yahut Gemini’ye birebir soruyu sorduğunuzda tıpkı yanıtı almıyorsunuz. Bu durum tıpkı vakitte kusurların ortaya çıkışını da açıklıyor. ChatGPT örneğinden devam edecek olursa bot, her vakit bir sonraki en mümkün kelimeyi değil, ikinci yahut üçüncü en mümkün kelimeyi de seçebiliyor; Hasebiyle yapay zekalar “Türkiye Cumhuriyeti’nin birinci Cumhurbaşkanı …’dır” cümlesinde gelecek söze her vakit Mustafa Kemal Atatürk demeyebilir, kendilerinde diğer bir ismin oraya gelme mümkünlüğü daha yüksek olabilir.

Bu süreçte LLM’ler daima bir öz tahlil ve öz düzeltme yaparlar. Bu durum da verilen cevapların vakit zaman çok kolay olmasına yahut aslında hiçbir bilgi içermemesine sebep olabilir. Bu, biraz da verdiğiniz girdiyle de alakalı. Yani araç, verdiği cevaplarda daima orta yollu olmayı seçiyor. Bir şeyi taklit etmesini istediğiniz onu aklınıza gelen en bariz halde yapıyor. Tüm bunlar olurken insan mühendisler de “insan geri bildirimi üzerine destekli öğrenme” (RLHF) yoluyla yapay zekaların eğitiminde çıktıları üzerinde ince ayarlar yapıyorlar.

Yapay zeka sizi unutabilir mi? Bilgileri silmek mümkün mü?

GPT-4o yahut Gemini üzere yapay zekalara güç veren LLM’lerin büyük bilgiler üzerinde eğitildiği söyledik. Bu datalar kitaplar, akademik araştırmalar, açık kütüphaneler, lisanslanmış içerikleri, kamuya açık bilgiler ve internetin erişilebilir her yerini içerebiliyor. Bu büyük dataların giderek büyüyor olması data kapalılığı ve şahsî bilgilerin etik kullanımı hakkında telaşlar de doğuruyor. Zira bu datalar içerisinde isimler, e-postalar yahut hassas bilgiler olabilir. Firmalar her ne kadar bilgi filtreleme ve anonimleştirme tekniklerini kullandıklarını söylese de hiçbir şahsî bilginin dahil edilmediğini garanti etmiyorlar.

Bununla birlikte yapılan araştırmalar gösteriyor ki LLM’den hassas verilerin kalıcı olarak silinmesi ve bilgilerin sahiden silinip silinmediğinin doğrulanması hayli zor. Üstte modellerin beşerler tarafından RLHF sistemiyle ince ayarlarla şekillendirildiğini söylemiştik. Araştırmacılar, birden fazla LLM’nin RLHF’den, yani pratikte modelin korkuluklarla çevrilmesinden sonra bile “düşmanca yönlendirmelere” karşı hala savunmasız olduğunu söylüyor. Bu yönlendirmeler modellerden spesifik dataların çıkartılmasını içeriyor. Sonuç olarak, hassas bilgilerin modelin parametreleri içine gömülmesi ve üretilen çıktıları potansiyel olarak etkilemesi mümkündür.

Gizlilik telaşlarını gidermek emeliyle, büyük lisan modellerini işleten kuruluşlar, bireylerin ferdî datalarının kaldırılmasını talep etmelerine imkan tanıyan düzenekler oluşturmuş durumda. Yani isterseniz bu araçlarla olan konuşmalarınızı ve hesabınızı kalıcı olarak silebilirsiniz. Söylemeye gerek var mı bilmiyorum fakat evet, bu araçlarla yaptığınız konuşmalar eğitim verisi olarak kullanılıyor. Firmalara ferdî bilgilerinizin silinmesi talebinde bulunduğunuzda bunları eğitim setinden çıkaracaklardır.

OpenAI, sizden topladığı bilgileri ne kadar mühletle sakladığı ve kullandığını tam olarak açıklamıyor. Google ise en az üç yıl bunları saklıyor. Elbette firmalar bunları direkt sizi tespit edecek detayları (isim, adres vb.) çıkararak saklıyor. Lakin daha evvelki haberlerimizde aktardığımız üzere, dolaylı datalarla sizin kim olduğunuzu bulmak sıkıntı değil.

Fakat  burada üstünde durulmayan bir sorun var. Siz, bugün datalarınızın kaldırılmasını isteseniz ve bugün bu bilgileriniz eğitim bilgilerinden kaldırılsa bile yapay zekanın sizi unutması garanti edilemez, şayet bu datalarınız bir sefer model eğitiminde kullanıldıysa. Bunun nedeni, modelin aslında eğitilmiş ve birinci datalara dayalı kalıpları öğrenmiş olmasıdır. Bir insan benzetmesi yapmak gerekirse, yapay zeka bir şeyi “gördükten” sonra, modele gördüklerini “unutmasını” söylemenin kolay bir yolu yoktur. Sonuç olarak, kaldırılan dataların tesirini büsbütün ortadan kaldırmanın tek yolu tüm modeli yine eğitmektir ki bu da maliyetli ve vakit alıcı bir süreç olabilir.

Bu modellerden bir datanın silinmesinin sıkıntı olma nedeni bizi en başta LLM’lerin ne olduğunu açıkladığımız kısma yönlendiriyor. Zira bir yapay zeka modeli yalnızca kodlama satırlarından ibaret değil, belli bir bilgi kümesindeki noktalar ortasında öğrenilmiş bir dizi istatistiksel bağlantıdan oluşuyor. Model bu bağlantıyı öğrendikten sonra, modelin öğrendiklerinin bir kısmını göz arkası etmesini sağlamanın kolay bir yolu yok. Dahası kimi çalışmalar modellerin bu bağlantıları tam olarak nasıl kurduğunu bilmediğimizi gösteriyor. Bunu OpenAI’ın CEO’su Sam Altman söylüyor.

Aslında pek araştırılmayan bir bahis da var. Yalnızca şahsî datalar değil, bu modellerden bir datayı silmek, modelin performansını ne derecede etkiliyor. Bilirsiniz, “Kelebek Etkisi” diye bir şey var. Hakikaten de istatistiksel olarak burada kanat çırpan bir kelebek dünyanın bir ucunda bir fırtınaya sebep olabilir. Pekala, bu modellerden bir datayı silmek de benzeri bir tesir yaratabilir mi? Yapılan az sayıdaki araştırma bunun mümkün olabileceğini söylüyor.

Daha Fazla Görüntü

donanimhabercom Instagram Takip Et

Xiaomi’den fütüristik su tabancası

Exadious 2 ay önce

Efsane Türkiye’ye gelse alırım..

E

E_Y_B_H_P_T 2 ay önce

2

O ışık efektleri yalnızca yanlarda değil üstte de olmalıydı. Böylelikle tabancayı kullanan, başını yana eğmek zorunda kalıp, fıtık olmaz. Birebirini küçükken ışıklı ayakkabımda yaşamıştım oradan biliyorum. Ayakkabıma yan bakmaktan düz yürüyemiyordum. Hava atmaktan çok o havayı yaşamayı tercih ederim. 7 de olsam 70 de olsam kararım değişmeyecek.

emrahmt 4 ay önce

Mukemmel bir silah sanki ne kadar süratli atıyor. [resim] [resim]

garez41 4 ay önce

Fiyat makul olsa efsane olur sahiden ya.

Rindaman 5 ay önce

Vay bee, bu aygıt xiaomi çıktı ben de diyordum kim üretmiş..

D

DH Konuğu 6 ay önce

hocam 4x daha düzgün direk hs attirir

Mstt.2010 7 ay önce

Über

SUPERSONICQ 7 ay önce

Evet fakat 6x scop daha âlâ masraf buna daha uzaktaki maksatlar için. Gerektiğinde 3x’e de çekebilirsin falan :D

SupremeMasterr 7 ay önce

Muskun alev tabancası vs bu

ccguven 9 ay önce

2

İstilacı güvercinlere karşı düzgün olur. 5 10 dk da bir sopayı alıp kovalamak yordu artık.

rszx247 9 ay önce

Yakında su atan F18 falanda yaparlar :)

X

xsw 9 ay önce

1

Hazneye kezzaplı su doldurup nişan almak yapmayın bu türlü şeyler yahu…

alex59 9 ay önce

2

Xiaomi kendini çok geliştirdi artık her alanda kaliteli işler yapıyorlar.

Rhodope Thrax 9 ay önce

fışkırttığı su mermi üzere isabetli gitmeyeceği için gereksiz diye düşünmüş olabilirler.

RaptorFX 9 ay önce

Lazer nişangah da eklenseymiş tadından yenmezmiş.

Reaksiyon Göster
  • 0
    alk_
    Alkış
  • 0
    be_enmedim
    Beğenmedim
  • 0
    sevdim
    Sevdim
  • 0
    _z_c_
    Üzücü
  • 0
    _a_rd_m
    Şaşırdım
  • 0
    k_zd_m
    Kızdım

info@teknovivo.com

Yazarın Profili
Paylaş

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir