OpenAI, otonom kod ajanlarını gerçek iş ortamlarında güvenli bir şekilde çalıştırmak için kontrol mekanizmaları, sınırlar ve telemetri sistemleri geliştirdi.
🤖 Yapay zeka sistemleri gittikçe daha yetenekli hale geldikçe, kullanıcılar adına hareket etme kabiliyetleri de artıyor. Kodlama ajanları artık depo havuzlarını inceleyebiliyor, komutları çalıştırabiliyor ve geliştirme araçlarıyla etkileşime girebiliyor. OpenAI'nin Codex sistemi, bu güçlü yetenekleri kuruluşların güvenli bir şekilde kullanabilmesi için gerekli kontrol mekanizmalarıyla birlikte tasarlanmıştır.
🔐 OpenAI, Codex'i belirli hedeflerle yayına çıkarıyor: ajanı açık teknik sınırların içinde tutmak, düşük riskli işlemlerde geliştiricilerin hızlı hareket etmesini sağlamak ve yüksek riskli işlemleri açık hale getirmek. Güvenlik ekipleri ajanın nasıl çalıştığını yönetebilmelidir—hangi kaynaklara erişebileceği, insan onayının ne zaman gerekli olduğu, hangi sistemlerle etkileşime girebileceği ve davranışlarını açıklamak için hangi telemetri verilerinin mevcut olduğu.
⚡ Sandboxing ve onay mekanizmaları birlikte çalışarak güvenliği sağlar. Sandbox, Codex'in yazabileceği alanları, ağa erişip erişemeyeceğini ve hangi yolların korunacağını tanımlayan teknik sınırları belirler. Onay politikası ise Codex'in bir işlemi gerçekleştirmek için izin isteyeceği zamanları—örneğin sandbox dışına çıkması gerektiğinde—tanımlar. Kullanıcılar bir işlemi tek seferlik onaylamayabilir veya o oturum boyunca o tür işlemleri onaylamayı seçebilirler.
💡 Rutin onay istekleri için OpenAI, Auto-review modu özelliğini kullanıyor. Bu özellik etkinleştirildiğinde, belirli istek türlerini otomatik olarak onaylayarak kullanıcıların Codex işlemlerini durdurup onaylamak zorunda kalma sıklığını azaltıyor. Sistem ayrıca ajan tarafından yapılan işlemleri anlayabilmek ve denetim yapabilmek için ajan temelli telemetri verileri üreterek bu bilgileri kayıt altına almaktadır.