Yapay zeka teknolojisi de yanıldı!

Yapay zeka teknolojisi insanlar tarafından yanıltıldı.

Yapay zeka teknolojisi de yanıldı!

Yapay zekaya dayanan görüntü tanımlama sisteminde bazen kaplumbağalar, tüfek olarak algılanabiliyor.

Bilim insanlarının yaptığı araştırmalar, yapay zekanın bir okul otobüsünü devekuşu, kaplumbağayı tüfek, kediyi köpek olarak algılayabileceğini ortaya koydu.

Deneyler, Japon bilim insanlarının yapay zekaya dayanan görüntü tanımlama sistemini yanıltması ile başladı.

Kyushu Üniversitesi'nden Su Jiawei ve meslektaşları, birçok fotoğrafta ufak değişiklikler yaptılar. Bu fotoğraflar daha sonra görüntü tanımamlama sistemi tarafından analiz edildi.

Test edilen bütün sistemler derin sinir ağları denilen bir yapay zeka çeşidi etrafında kuruluydu.

Sinir ağları temelli öğrenme sistemi, tipik olarak çok sayıda devre arasında bağ kurulmasını içeriyor - beyindeki sinir hücreleri gibi.

Bu sistemler, objelerin tipik olarak birbirinden nasıl farklılaştığını, pek çok farklı örneği karşılaştırarak öğreniyorlar.

Araştırmacılar, bir fotoğrafın yüzde 74'ünde bir pikseli değiştirmenin, yapay zekanın gördüğünü yanlış algılamasına neden olduğunu buldular.

Sinir ağları temelli öğrenme sistemi, tipik olarak çok sayıda devre arasında bağ kurulmasını içeriyor

Bazı hatalar çok da büyük değildi. Örneğin kedi, köpekle karıştırıldı. Ancak bazıları oldukça şaşırtıcıydı. Örneğin hayalet uçak, köpek sanıldı.

Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar deneyleri bir adım ileriye götürerek üç boyutlu baskılar kullandı.

Bu ekipte yer alan Massachusetts Teknoloji Enstitüsü'nden (MIT) Anish Athalye, dünya çapında araştırmacıların yapay zeka temelli görüntü tanımlama sisteminin zayıflığını ortaya koymak için deneyler yaptıklarını söylüyor.

Athalye ve iş arkadaşlarının yaptığı deneylerde üç boyutlu bir kamlumbağa, tüfek olarak algıladı.

Athalye BBC'ye yaptığı açıklamada "Giderek artan sayıda gerçek dünyada kullanılan sistemler sinir ağlarını kullanmaya başlıyorlar ve bu sistemlere yanıltıcı örneklerle saldırı düzenlemek mümkün" diyor.

Şimdiye kadar böyle bir olay gerçekleşmese de, Athalye bu akıllı sistemlerin çok kolay bir şekilde kandırılabilmelerinin endişe verici olduğunu söylüyor.

BBC TÜRKÇE



Bu yazıya 0 yorum yapıldı.

Cevap yazdığın kullanıcı: