“Jailbreak” terimi Apple cihazlarının kilidini açmak için kullanan Apple kullanıcıları topluluğundan geliyor. ChatGPT durumunda ise jailbreak terimi, AI aracının normalde sağlayamayacağı yanıtları üretmek için belirli istemleri kullanmak anlamına geliyor. Bir nevi ChatGPT’yi kırmak olarak düşünülebilir. Peki bu açıklar neden kullanılıyor? Çok basit. ChatGPT varsayılan olarak zararsız, rahatsız edici olmayan yanıtlar vermeyi amaçlarken belirli türdeki kışkırtıcı istemlere de yanıt vermeyi reddediyor.
Ancak şimdi bulunan “jailbreak” istemi açıkçası çok daha farklı. En nihayetinde yeni teknikteki temel amaç da diğerlerindeki gibi ChatGPT’nin dikkatini başka yöne çekerek kuralları ihlal ettiğinin farkına varmamasını sağlamak olsa da bu sefer OpenAI tarafından kullanılan özel istemlere erişim bile mümkün.
Hela, ayakyolu, 100 numara… Tuvalete tuvalet demek dışında bir sürü farklı anlam yüklemişiz. Özellikle eskilerin sıklıkla kullandığı bu söylemlerden bir tanesi kafa karıştırıyor: 100 numara.
Sporseverler ve F1 pilotları tarafından sevilen İstanbul Park Formula 1 pisti yeni sahibini arıyor. Vakıflar Genel Müdürlüğü, 117 milyon dolarlık kira bedelinin yanı sıra pistin yeni sahiplerinin 2026’dan itibaren F1 takvimine girmeyi garanti …