- "Ses"li tehlike
- Yazılım mühendisi Doç. Dr. Mehmet Zeki Konyar:
- "Bazen biz bile şaşırıyoruz. O kadar güncel teknolojiler kullanıyorlar ki"
- "Kazandıkları devasa paralar var ve bu devasa paranın bir kısmını kendilerini, dolandırıcılık yöntemini geliştirmek için harcıyorlar"
- "Sizin ses kaydınızı da alabiliyor. Bu ses kaydınızı yapay zeka yöntemiyle kullanarak akrabalarınızı dolandırabilirler. Nasıl Selçuk Bayraktar'ın, Aydın Doğan'ın sesini kullanabiliyorsa sizin sesinizi de üretebilirler"
Yapay zekanın korkutan yanlarından biri olan "deepfake" (derin sahte) teknolojisi, dolandırıcıların elinde hem vatandaşı mağdur ediyor hem de dezenformasyona sebep oluyor. Ünlü isimlerin seslerini taklit ederek yatırım vaadi yalanıyla hazırladıkları videoları internet ortamına yayan dolandırıcılar, vatandaşların gerçeklik algısını hedef alıyor. Yapay zekanın ateş ve bıçak gibi olduğunu, birçok faydası bulunduğunu fakat kötü ellerde zarara sebebiyet verdiğini söyleyen KOÜ Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, bu teknolojinin tüm detaylarını anlatarak, önemli uyarılarda bulundu.
Hızla büyüyen yapay zeka, bir yandan hayatı kolaylaştırırken, diğer yanda kötü amaçlar için kullandığında çeşitli endişelere sebep olabiliyor. Özellikle yapay zekanın hem hayran bırakan hem de korkutan örneklerinden biri olan deepfake videoları, sorumsuzca kullanıldığında dezenformasyonun hızla yayılmasına yol açıyor. Son olarak internet ortamında sponsorlu olarak paylaşılan ve yayılan videolarda kullanılan yöntem, yazılım mühendislerini bile şaşkına çevirdi. Ünlü kişilerin seslerini yapay zeka ile taklit eden dolandırıcılar, Türkiye'nin önemli şirketlerinin isimlerini de kullanarak, "Yatırım yapın, para kazanmaya başlayın" vaadinde bulunuyor. Yapay zeka ile elde edilen sahte ünlü görüntüleri ve sesleri, vatandaşları mağdur ediyor.
"Bilgisayarlara birtakım şeyler öğreterek, karar vermesini sağlıyoruz"
Kocaeli Üniversitesi (KOÜ) Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, hem hayat kurtaran hem de korkutan yapay zekanın tehlikeli yönüne ilişkin bilgilendirmelerde bulunarak, vatandaşları uyardı. Yapay zekanın, bilgisayarın neredeyse bir insanmış gibi düşünmesine, eyleme geçmesine ve yanıt vermesine imkan sağladığını ifade eden Doç. Dr. Mehmet Zeki Konyar, "Bilgisayarların düşünme kabiliyetleri yok. Aslında biz bu bilgisayarlara birtakım şeyler öğreterek, karar vermesini sağlıyoruz. Mesela elma ve armutun fotoğrafını gösteriyoruz. Yüzlerce, binlerce veri kümeleri içerisinden 'Bu elmadır' 'Bu armuttur' diyoruz ve birtakım matematiksel formüller ile bunlara ait özellikleri çıkarıyor. Bu özelliklerden sonra karar oluşturuyor. Örneğin elmaya ve armuta dair özelliklerin neler olduğuyla ilgili bir karar çıkarıyor. Bundan sonra gösterdiğimiz elma ve armuta bakıp, 'Bu elmadır' 'Bu armuttur' diyerek karar veriyor" dedi.
"Tüm varyasyonları biliyor"
Günümüzde yapay zekanın çok ilginç bir hal almaya başladığını söyleyen Konyar, pandemiden sonra yeni yazılımlar çıktığını belirtti. Sohbet robotlarından, deepfake teknolojisine kadar birçok yazılımın popüler olduğunu anlatan Konyar, "Her gün yenisi çıkıyor. Artık çok basit bir ses kaydınızla sizin için bir video oluşturabiliyorlar. Veya yazdığınız metin ile sizin için yeni bir fotoğraf üretebiliyorlar. Bunun içinde yapay zekanın güncel teknolojileri kullanılıyor. Binlerce, milyonlarca görüntü kullanılarak bu iş yapılıyor. Örneğin, 'Ben kuş görmek istiyorum. Gagası, kanatları şu şekilde olsun' dediğinizde, böyle bir kuş gerçekte olmayabiliyor ama milyonlarca kuş görüntüsüyle eğitildiği için bunlara ait özellikleri öğrenmeye başlıyor. Mesela artık gagaların nasıl olabileceğini biliyor. Tüm varyasyonları biliyor. Dolayısıyla sizin istediğiniz enteresan özellikteki kuşu üretip, karşınıza çıkarıyor" diye konuştu.
"Biraz bilinçli değilsek kanabiliyoruz"
Son zamanlarda yapay zeka teknolojisi kullanılarak yapılan dolandırıcılık olaylarında artış yaşandığına dikkat çeken Doç. Dr. Mehmet Zeki Konyar, sözlerine şöyle devam etti:
"Bu sahte videolarda birtakım ünlü kişiler kullanılıyor. Örneğin aralarında Selçuk Bayraktar'ın, Aydın Doğan'ın olduğu videolar yapılmaya başlandı. 'Şuraya yatırım yapın', 'Ben şuraya katıldım çok para kazandım' 'Şuraya para gönderin' gibi videolar çıkmaya başladı. Maalesef birçoğumuz buna inanmak durumunda kalabiliyoruz. Eğer ki biraz bilinçli değilsek kanabiliyoruz. Selçuk Bey'in böyle bir işe girmeyeceğini biliyoruz. Biz biliyoruz fakat bazen bazı vatandaşlarımız bu durumun farkında olmayabiliyor. Ya da Aydın Doğan'ın ismi, cismi bilinmeyen bir yere yatırım çağrısı yapmayacağını biliyoruz. Halkımızın bunu biliyor olması gerekiyor. Ünlülerin adı sanı bilinmeyen bir yerden reklam yapmayacağını herkes bilir. Çünkü bir ünlü reklam alıyorsa bunu sosyal medya hesaplarında paylaşabiliyor"
"Kazandıkları paraları dolandırıcılık yöntemini geliştirmek için harcıyorlar"
İnternet ortamına yayılan sahte videoların profesyonel yazılımcılar tarafından hazırlandığını kaydeden Doç. Dr. Konyar, "Yurt içinden veya yurt dışından birtakım siparişlerle yazılım yaptırabiliyorlar. Mesela bugün Hindistan'a istediğiniz yazılımı yaptırabilirsiniz. Orada Hindistanlı yazılımcılar ucuza çalıştığı için sizin tarif ettiğiniz özelliklerle size yazılım yapıp, gönderebiliyorlar. Dolandırıcılar da maalesef çok popüler işler yapıyorlar. Yazılımı son teknolojisine kadar kullanabiliyorlar. Yurt dışından birisi yaptığı için Türkiye'de kimse de töhmet altında kalmamış oluyor. Zaten dolandırıcılar bu işi çok iyi biliyorlar. Nasıl dolandırılacağını, hangi yazılımla, hangi teknolojiyle bunları biliyorlar. Bazen biz bile şaşırıyoruz. O kadar güncel teknolojiler kullanıyorlar ki... Çünkü kazandıkları devasa paralar var ve bu devasa paranın bir kısmını kendilerini, dolandırıcılık yöntemini geliştirmek için harcıyorlar" şeklinde konuştu.
"Bedava peynir sadece fare kapanında olur"
Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, sahte videoların internet ortamında reklam olarak vatandaşların karşısına çıktığını, bunun ise "phishing (oltalama)" olarak adlandırılan bir yöntem olduğu bilgisini verdi. Bazı vatandaşların kişisel bilgilerine zaman zaman ilgisiz davranabildiğini vurgulayan Konyar, şu ifadeleri kullandı:
"Bir kısım vatandaşımız, 'Deneyelim. Bir şey çıkmazsa en fazla telefon numaram gider' diye düşünüyor. Onun için bu değerli bilgi olamayabiliyor ama sadece telefon bilgimizi almıyor. Sizin ses kaydınızı da alabiliyor. Bu ses kaydınızı yapay zeka yöntemi ile kullanarak akrabalarınızı dolandırabilir. Nasıl Selçuk Bayraktar'ın, Aydın Doğan'ın sesini kullanabiliyorsa sizin sesinizi de üretebilirler. Karşımıza bir video, reklam çıktığı zaman kesinlikle şüphelenmemiz gerekiyor. Çokça söylüyoruz, bedava peynir sadece fare kapanında olur. Kimse bize düşük bir yatırımla yüksek paralar vermez"
"Yapay zeka aynı bıçak ve ateş gibidir"
Yapay zekanın ürettiği sahte videolar da ipuçları da bulunduğunu dile getiren Konyar, "En bilenini ses ve dudak senkron şekilde hareket etmez. Dudak hareketlerimizi tam olarak taklit edemiyor. Her insanın farklı harf ve ses hareketleri var. Bizim çıkardığımız harfleri ve kelimeleri taklit edemiyor. Deepfake dediğimiz derin sahtelik videolarında gözlerin hareketlerini de takip etmek gerekiyor. İnsanların gözlerini doğal davranışı bellidir. Gözlerdeki davranış doğal mı, kirpik kaşlar doğal oynuyor mu? Sahte videolar yavaşlayınca saçmalamaya başlıyor. Görüntüler tuhaflaşıyor. Dudak hareketleri yüz, el, kol değişmeye başlıyor. Yazılım, yapay zeka aynı bıçak ve ateş gibidir. Binlerce faydası var ama bıçağı başka amaçla kullanmaya başladığınızda zararları var. Ateşin birçok faydası var ama bir yerleri de yakmamak lazım. Yapay zeka harikadır, yazılım çok güzeldir birçok kişinin, birçok firmanın hayatını kolaylaştırıyor ama bir de zarar tarafı var. Uyanık olmak lazım" diye konuştu.
Doç. Dr. Mehmet Zeki Konyar, sahte videoların ilgili mercilere bildirilmesi gerektiğine de dikkat çekerek, "Karşımıza çıkan böyle videolar olduğunda kesinlikle yetkililere bildirelim. Bilişim Teknolojileri ve İletişim Kurumu'nun ihbar hattı var. Vatandaşlarımızın o ihbar hattı ile iletişime geçerek, bu güvenli olmayan ya da şüpheli olan videoları, işlemleri bildirmeleri gerekiyor" dedi.
İHA