ChatGPT Filigranı Nasıl Çalışır ve Neden Yenilebilir?

 Bir filigran, ChatGPT tarafından oluşturulan içeriğin algılanmasını kolaylaştıracaktır. Olan budur ve bu yüzden yenmesi kolay olabilir.

  • ChatGPT tarafından oluşturulan içeriğin yakalanmasını kolaylaştıracak bir kriptografik filigranın geleceği söyleniyor
  • OpenAI bilim adamı, ChatGPT filigranının nasıl yenilebileceğini ortaya koyuyor
  • Bilgisayar bilimcisi Scott Aaron, OpenAI'de AI Güvenliği ve Hizalama çalışmalarını tartışıyor

SEO-ChatGPT


OpenAI'nin ChatGPT'si, otomatik olarak içerik oluşturmanın bir yolunu tanıttı, ancak bunun algılanmasını kolaylaştırmak için bir filigran özelliği getirme planları bazı insanları tedirgin ediyor. ChatGPT filigranı bu şekilde çalışır ve onu yenmenin bir yolu olmasının nedeni budur.

ChatGPT, çevrimiçi yayıncıların, bağlı kuruluşların ve SEO'ların aynı anda hem sevdiği hem de korktuğu inanılmaz bir araçtır.

Bazı pazarlamacılar, onu içerik özetleri, ana hatlar ve karmaşık makaleler oluşturmak için kullanmanın yeni yollarını keşfettikleri için seviyor.

Çevrimiçi yayıncılar, yapay zeka içeriğinin insanlar tarafından yazılan uzman makalelerinin yerini alarak arama sonuçlarını doldurma olasılığından korkuyor.

Sonuç olarak, ChatGPT tarafından yazılan içeriğin tespit edilmesini sağlayan filigran özelliğiyle ilgili haberler de aynı şekilde endişe ve umutla bekleniyor.

Kriptografik Filigran

Filigran, bir görüntünün üzerine yerleştirilmiş yarı saydam bir işarettir (logo veya metin). Filigran, eserin orijinal yazarının kim olduğunu gösterir.

Büyük ölçüde fotoğraflarda ve giderek artan bir şekilde videolarda görülüyor.

ChatGPT'de filigran metni, gizli bir kod biçiminde bir sözcük, harf ve noktalama deseni gömme biçimindeki kriptografiyi içerir.

Scott Aaronson ve ChatGPT Filigranı

Scott Aaronson adlı etkili bir bilgisayar bilimcisi, Haziran 2022'de AI Safety and Alignment üzerinde çalışmak üzere OpenAI tarafından işe alındı.

AI Güvenliği, AI'nın insanlara zarar verebileceği yolları incelemek ve bu tür olumsuz bozulmaları önlemenin yollarını bulmakla ilgilenen bir araştırma alanıdır.

OpenAI'ye bağlı yazarların yer aldığı Distill bilimsel dergisi, AI Güvenliğini şu şekilde tanımlıyor:

"Uzun vadeli yapay zeka (AI) güvenliğinin amacı, gelişmiş AI sistemlerinin insani değerlerle güvenilir bir şekilde hizalanmasını - insanların yapmalarını istedikleri şeyleri güvenilir bir şekilde yapmalarını sağlamaktır."

AI Hizalama, AI'nın amaçlanan hedeflerle uyumlu olmasını sağlamakla ilgilenen yapay zeka alanıdır.

ChatGPT gibi büyük bir dil modeli (LLM), AI Alignment'ın OpenAI tarafından tanımlanan insanlığa fayda sağlayan AI oluşturmak olan hedeflerine aykırı olabilecek şekilde kullanılabilir .

Buna göre damgalamanın nedeni yapay zekanın insanlığa zarar verecek şekilde suiistimal edilmesini önlemektir.

Aaronson, ChatGPT çıktısına filigran eklenmesinin nedenini açıkladı:

"Bu elbette akademik intihalin önlenmesine yardımcı olabilir, ama aynı zamanda örneğin kitlesel propaganda üretimine de yardımcı olabilir..."

ChatGPT Filigranı Nasıl Çalışır?

ChatGPT filigranı, sözcük seçimlerine ve hatta noktalama işaretlerine istatistiksel bir model, bir kod yerleştiren bir sistemdir.

Yapay zeka tarafından oluşturulan içerik, oldukça tahmin edilebilir bir kelime seçimi modeliyle üretilir.

İnsanlar ve yapay zeka tarafından yazılan kelimeler istatistiksel bir model izler.

Oluşturulan içerikte kullanılan kelimelerin kalıbını değiştirmek, bir sistemin bir yapay zeka metin oluşturucunun ürünü olup olmadığını algılamasını kolaylaştırmak için metni "filigranlamanın" bir yoludur.

AI içerik filigranını tespit edilemez kılan hile, kelimelerin dağılımının hala AI tarafından üretilen normal metne benzer rastgele bir görünüme sahip olmasıdır.

Buna kelimelerin sözde rasgele dağılımı denir.

Sözde rasgelelik, aslında rasgele olmayan, istatistiksel olarak rasgele bir kelime veya sayı dizisidir.

ChatGPT filigranı şu anda kullanımda değil. Ancak OpenAI'deki Scott Aaronson, planlandığını belirten kayıtlara geçti.

Şu anda ChatGPT, OpenAI'nin gerçek dünya kullanımı yoluyla "yanlış hizalamayı" keşfetmesine olanak tanıyan önizleme aşamasındadır.

Muhtemelen filigran, ChatGPT'nin son sürümünde veya bundan daha erken bir tarihte kullanıma sunulabilir.

Scott Aaronson , damgalamanın nasıl çalıştığı hakkında şunları yazdı :

"Şimdiye kadarki ana projem, GPT gibi bir metin modelinin çıktılarını istatistiksel olarak filigranlamak için bir araç oldu.

Temel olarak, GPT ne zaman uzun bir metin oluştursa, kelime seçimlerinde başka türlü fark edilemeyecek gizli bir sinyal olmasını istiyoruz ve bunu daha sonra evet, bunun GPT'den geldiğini kanıtlamak için kullanabilirsiniz.

Aaronson, ChatGPT filigranının nasıl çalıştığını daha ayrıntılı olarak açıkladı. Ama önce, tokenizasyon kavramını anlamak önemlidir.

Belirteçleştirme, makinenin bir belgedeki sözcükleri aldığı ve bunları sözcükler ve cümleler gibi anlamsal birimlere ayırdığı doğal dil işlemede gerçekleşen bir adımdır.

Simgeleştirme, metni makine öğreniminde kullanılabilecek yapılandırılmış bir forma dönüştürür.

Metin oluşturma işlemi, makinenin bir önceki simgeye göre hangi simgenin geleceğini tahmin etmesidir.

Bu, bir sonraki belirtecin ne olacağını belirleyen, olasılık dağılımı adı verilen matematiksel bir fonksiyonla yapılır.

Sıradaki kelime tahmin edilir ancak rastgeledir.

Filigranın kendisi, Aaron'un sözde rasgele olarak tanımladığı şeydir, çünkü belirli bir kelimenin veya noktalama işaretinin orada olmasının matematiksel bir nedeni vardır, ancak yine de istatistiksel olarak rasgeledir.

GPT filigranının teknik açıklaması aşağıdadır:

"GPT için her giriş ve çıkış, sözcükler olabileceği gibi noktalama işaretleri, sözcüklerin bölümleri veya daha fazlası da olabilen bir belirteç dizisidir; toplamda yaklaşık 100.000 belirteç vardır.

Özünde, GPT, önceki belirteçlerin dizisine bağlı olarak, bir sonraki belirteç üzerinde sürekli olarak bir olasılık dağılımı üretir.

Sinir ağı dağıtımı oluşturduktan sonra, OpenAI sunucusu daha sonra bu dağıtıma veya 'sıcaklık' adı verilen bir parametreye bağlı olarak dağıtımın değiştirilmiş bir versiyonuna göre bir belirteci gerçekten örnekler.

Ancak, sıcaklık sıfır olmadığı sürece, genellikle bir sonraki jetonun seçiminde bir miktar rastgelelik olacaktır: aynı istemi tekrar tekrar çalıştırabilir ve her seferinde farklı bir tamamlama (yani, çıktı jetonları dizisi) elde edebilirsiniz. .

O halde filigran yapmak için, bir sonraki belirteci rastgele seçmek yerine, anahtarı yalnızca OpenAI tarafından bilinen bir kriptografik sözde rasgele işlev kullanarak onu sözde rasgele seçmek olacaktır.”

Metni okuyanlar için filigran tamamen doğal görünüyor çünkü kelime seçimi diğer tüm kelimelerin rastgeleliğini taklit ediyor.

Ancak bu rastgelelik, yalnızca onu deşifre edecek anahtara sahip biri tarafından tespit edilebilecek bir önyargı içerir.

İşte teknik açıklama:

"Örneklemek gerekirse, GPT'nin eşit derecede olası olduğuna karar verdiği bir dizi olası jetona sahip olduğu özel durumda, g'yi maksimize eden herhangi bir jetonu seçebilirsiniz. Seçim, anahtarı bilmeyen biri için tamamen rastgele görünebilir, ancak anahtarı bilen biri daha sonra g'yi tüm n-gramları toplayabilir ve anormal derecede büyük olduğunu görebilir.

Filigran, Gizlilik Öncelikli Bir Çözümdür

Sosyal medyada bazı kişilerin OpenAI'nin ürettiği her çıktının kaydını tutabileceğini ve bunu algılama için kullanabileceğini önerdiği tartışmalar gördüm.

Scott Aaronson, OpenAI'nin bunu yapabileceğini ancak bunu yapmanın bir gizlilik sorunu oluşturduğunu onaylıyor. Muhtemel istisna, ayrıntılı olarak açıklamadığı kolluk kuvvetleri durumudur.

ChatGPT veya GPT Filigranını Tespit Etme

Henüz tam olarak bilinmemiş gibi görünen ilginç bir şey de, Scott Aaronson'ın filigranı yenmenin bir yolu olduğunu not etmiş olmasıdır.

Filigranı alt etmenin mümkün olduğunu söylemedi , alt edilebileceğini söyledi.

“Şimdi, bunların hepsi yeterli çabayla yenilebilir.

Örneğin, GPT'nin çıktısını yorumlamak için başka bir yapay zeka kullandıysanız, tamam, bunu tespit edemeyeceğiz."

Filigran, en azından yukarıdaki açıklamaların yapıldığı Kasım ayından itibaren yenilebilir gibi görünüyor.

Filigranın şu anda kullanımda olduğuna dair bir gösterge yok. Ancak kullanıma girdiğinde, bu boşluğun kapatılıp kapatılmadığı bilinmiyor olabilir.

Yorum Gönder

0 Yorumlar