Rapor, Deepfake'lerin 2024 gibi erken bir tarihte gerçeklikten ayırt edilemeyeceği konusunda uyarıyor
Yapay zeka, teknolojinin derin sahte yapay zeka görüntülerini tespit etmeyi neredeyse imkansız hale getireceğini gösteren yeni raporlarla hızlı gelişimini sürdürüyor.

Yapay zeka platformlarının geliştiricileri, kullanıcıların gerçeklikten neredeyse ayırt edilemeyecek görseller ve videolar oluşturmasına olanak tanıyan teknolojiyi yakında piyasaya sürebilir.
Popüler ChatGPT platformunun arkasındaki geliştirici OpenAI ve diğerleri gibi şirketler Axios'un bir raporuna göre yapay zeka şirketleri, gelecek yılın başlarında yaygın ve gerçekçi sahte videoların oluşturulmasına olanak sağlayacak araçları piyasaya sürmeye yaklaşıyor.
Rapora göre, bir yapay zeka mimarı, çıkışa şunları söyledi: Yakında sıradan kullanıcıların eline geçebilecek bazı araçlar üzerinde yapılan özel testlerin, geliştiricilerin bile artık sahte görüntüleri gerçeklikten ayırt edemediğini ortaya çıkardığını ve bunun bu kadar kısa sürede mümkün olacağına inanmadıklarını belirtti.
YENİ TEKNOLOJİNİN GELECEKTEKİ KALP KRİZİNİ TESPİT ETME KONUSUNDA ÜRKÜTÜCÜ BİR YETENEĞİ VAR: ÇALIŞMA
Teknolojinin hızlı gelişimi, özellikle aynı yıl piyasaya sürülen yeni yeteneklerle birlikte, bu tür araçların nasıl kötüye kullanılabileceği konusunda pek çok kişiyi endişelendiriyor başkanlık seçimi olarak.
"Yapay zeka teknolojisinin ilerlemesiyle ilgili en büyük endişelerden biri, ünlülerin, politikacıların ve diğer nüfuz sahibi kişilerin oluşturacağı sürekli deepfake video akışıdır. Bull Moose Projesi'nin politika direktörü Ziven Havens, Fox News Digital'e yaptığı açıklamada, kötü aktörlerin elinde bu teknolojinin seçimler, ticaret ve ulusal güvenlik üzerinde büyük etkileri olabileceğini söyledi.
Havens şuna dikkat çekti: Yaygın "yanlış kampanya reklamları" ve hatta "dünya liderleri tarafından yapılan sahte açıklamalar" potansiyeli, bu tür sorunların "bu teknolojinin tehlikeleri konusunda buzdağının yalnızca görünen kısmı" olacağını savunuyor.
Bu tehdit, bazı liderlerin, yapay zeka tarafından oluşturulan içeriklere zorunlu filigranlar dahil olmak üzere, neyin gerçek, neyin sahte olduğunu netleştirmek için çözümler düşünmesi gerekiyor.
YAPAY ZEKA (AI) NEDİR?
Gelişmiş Hazırlık ve Tehdit Müdahale Simülasyonu Merkezi'nin kurucusu Phil Siegel, Fox News Digital'e yapay zekayı düzenlemek isteyenlerin Birinci Değişiklik'in potansiyel sonuçlarını dikkate alması gerektiğini söyledi. teknolojinin yanlış bilgi yaratma yeteneği var, yapay zeka tarafından oluşturulan içeriğin bir kısmı tamamen "açıklayıcı" bir amaçla yapılabilir.
"'İyi oyunculardan' filigran gibi şeyleri kullanmalarını istesek bile, İlk Değişiklik muhtemelen çoğu hiciv ve açıklayıcı içeriğin kullanılmasına izin veriyor." dedi Siegel. "Örneğin, Joe Biden'ın gözlerinizin önünde çok ikna edici bir şekilde yaşlandığı bir hikayeyi göstermek artık daha ucuz; her ne kadar doğru olmasa da, bir noktaya kadar açıklayıcı ve filigranlanmış veya tanımlanmış. Bu durumda, konunun anlaşılması ya da kavranmaması kullanıcıya kalmıştır."
"Yapay zeka kullanarak içerik oluşturmanın ucuz ve kolay yollarının artması, yanlış bilgilerin yanı sıra hiciv ve açıklayıcı içerikleri de artıracaktır." Siegel devam etti. "Tüketiciler ve seçmenlerin tüm bunlara karşı tetikte olması gerekecek. Kanıtlar sunulduğunda mahkeme salonlarının tüm bunlara karşı tetikte olması gerekecek. Medya ve içeriğin yeni normali bu."
Fakat Samuel The Federalist'te personel editörü olan Mangold-Lenett, derin sahtekarlıkların "yapay zeka söz konusu olduğunda en büyük endişe" olmayabileceğini öne sürerek, yapay zeka tarafından oluşturulan sahte görüntülerle ilgili "riskleri azaltmanın" yolları olacağını belirtti.
p>Mangold-Lenett, "Kamu güvenliği açısından önemli riskler oluşturuyor ve insanların itibarına büyük zararlar verebilir, ancak riskleri azaltmanın yolları var. Kanunlar yazılı olduğu şekliyle uygulanabilir ve yenileri oluşturulabilir" dedi. .
ABD'DEN DAHA FAZLA HABER İÇİN BURAYA TIKLAYIN
Mangold-Lenett daha büyük tehdidin yapay zekanın "insanlığın kaybına neden olması" olduğunu ekledi gerçeklikle temas."
Mangold-Lenett "Bu, mevcut en büyük sorunlardan biri" dedi. "Arama motorlarının insanların araştırma becerilerini zayıflatmasına benzer şekilde, gelişmiş yapay zeka teknolojileri de eleştirel düşünme becerilerini zayıflatma potansiyeline sahiptir."
Pioneer Development Group'un baş analitik sorumlusu Christopher Alexander da benzer bir düşünceyi paylaşarak şunu söyledi: Fox News Digital, derin sahtekarlıkların "sorunlu" olduğunu söyledi ancak aynı zamanda bunların "1 numaralı endişeden uzak" olacağını da savundu.
"Seçim endişesi özellikle gülünç çünkü bu endişe, Alexander, "insan politikacıların doğruyu söylediği fikri" dedi. "Eğer bu bir yalansa, bunu bir makinenin mi yoksa başkanın mı yaptığı kimin umrunda?"
Alexander bunun yerine en büyük tehdidin yapay zeka içeriğinin paylaşılacağı platformlar olduğunu savundu ve sosyal medyanın medya "karmaşık sorunları gerçekliğin çizgi film karikatürlerine dönüştürüyor ve insanları ölçülü olmak yerine çirkin oldukları için ödüllendiriyor."
Başkan Biden kısa süre önce yapay zekayla ilgili gelişen bazı sorunların üstesinden gelmeyi amaçlayan bir yönetim emri imzaladı; bu, pek çok kişinin övdüğü bir hareketti olumlu bir ilk adım olarak Buna rağmen Havens, Kongre'nin daha iyi korkuluklar oluşturmasının gerekeceğine inanıyor.
"Büyük bir çözüm Kongre'nin talimatı olacaktır…
Bu makale gönderisinde, Kaybolmuşlar yazarı PrincepsTenebris ; yapay zeka, zeka tarafından oluşturulan, teknolojinin, endişe, baş, rapor, mangold-lenett ve açıklayıcı kavramlarını ele aldı, a.b.d. odaklı daha fazla gündem makale içeriği için aşağıda önerilen diğer alakalı gönderilere de göz atın.