ABD merkezli teknoloji şirketi Appele’ın kurucu ortaklarından Steve Wozniak, Yapay zeka teknolojisinin dolandırıcılığı tespit etmeyi ve dezenformasyonun önüne geçmeyi daha da zorlaştırdığını söyledi.
AA’nın aktardığına nazaran, Wozniak, Yapay zekanın yararlı tarafları olduğu üzere ziyanlı istikametlerinin de bulunduğunu söyleyerek teknolojinin ‘art niyetli’ şahıslar tarafından kullanıldığında tehlikeli bir Vaziyet alabileceğini belirtti.
‘DUYGU SAHİBİ OLMADIĞI İÇİN İNSANLARIN YERİNİ ALAMAZ’
Konuyla ilgili BBC’ye yaptığı açıklamada, art niyetli şahısların Yapay zeka yardımıyla yaptıkları dolandırıcılıklarda insanları daha kolay kandırabilecekleri konusunda ikazda bulunan Wozniak, Yapay zeka ile yapılan dolandırıcılıkların tespiti ve dezenformasyonun önüne geçilmesinin Fazla daha güç olabileceğini kaydetti.
Wozniak, Yapay zekanın, his sahibi olmadığı için insanların yerini alamayacağını fakat ChatGPT üzere programlar sayesinde nihayet derece akıllı ve ikna edici olduğunu söyledi.
‘ORTAYA ÇIKACAK ZİYANLARDAN ÜRETENLER DE Mesul OLMALI’
Yapay zeka teknolojilerine sonlandırma ve düzenleme getirme tartışmalarına da değinen Wozniak, insanların kullanımına sunulan rastgele bir şeyin yol açtığı ziyanlardan, onu üretenlerin de Mesul olması gerektiğini belirtti.
Wozniak, ‘her şeyin yanlarına kâr kalacağını düşünen’ Aka teknoloji şirketlerinden Laf konusu düzenlenmelerle hesap sormanın Mümkün olamayacağını kaydetti.
‘TEKNOLOJİK GELİŞİM DURDURULAMAZ, DAHA ÂLÂ EĞİTİM GEREK’
Teknolojideki gelişimin durdurulmasının Muhtemel olmadığını da kelamlarına ekleyen Steve Wozniak, Laf konusu Olumsuz durumların ortaya çıkmaması için insanların daha âlâ bir teknoloji eğitimine muhtaçlık duyduğunu söyledi.
Avrupa Birliği (AB), Yapay zeka teknolojilerine kurallar getiren düzenleme üzerinde çalışırken G7 ülkeleri teknoloji ve iktisat bakanlarının katıldığı ve 29-30 Nisan’da Japonya’nın Takasaki kentinde düzenlenen toplantıda Yapay zeka konusunda risk değerlendirmesine dayalı denetleyici bir düzenlemenin oluşturulması için görüş birliğine varmıştı. (DIŞ HABERLER)
Yorum Yok