Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Prince of Persia: The Lost Crown, yakında gelecek
Microsoft, üretken yapay zeka araçlarının güvenli ve emniyetli bir şekilde kullanılmasını amaçlayan yeni bir güvenlik aracını tanıttı.
Python Risk Identification Toolkit for generative AI’nın kısaltması olan PyRIT, geliştiricilerin yeni taktiklerden yararlanmak isteyen suçluların her büyüklükteki işletmenin karşı karşıya kaldığı artan tehditlere yanıt vermesine yardımcı olacak.
Çoğunuzun zaten bildiği gibi, ChatGPT gibi üretken yapay zeka araçları, siber suçlular tarafından kötü amaçlı yazılımlar için hızlı bir şekilde kod oluşturmak, kimlik avı e-postaları oluşturmak (ve düzeltmek) ve daha fazlası için kullanılıyor.
Geliştiriciler, aracın farklı istemlere nasıl yanıt verdiğini değiştirerek ve yeteneklerini bir şekilde sınırlayarak yanıt verdi ve Microsoft şimdi bunu bir adım daha ileri götürmeye karar verdi.
Geçtiğimiz yıl boyunca şirket, piyasaya çıkmadan önce “birkaç yüksek değerli üretken yapay zeka sistemini” kırmızı ekibe aldı ve bu süre zarfında tek seferlik komut dosyaları oluşturmaya başladı. Microsoft, “Farklı türde üretken yapay zeka sistemlerini yeniden bir araya getirdikçe ve farklı riskleri araştırdıkça, yararlı bulduğumuz özellikleri ekledik,” diye açıkladı. “Bugün PyRIT, Microsoft AI Red Team’in cephaneliğinde güvenilir bir araçtır.”
Redmond yazılım devi ayrıca PyRIT’in hiçbir şekilde jeneratif yapay zeka sistemlerinin manuel kırmızı ekibinin yerini almadığını vurguluyor. Bunun yerine şirket, diğer kırmızı ekip ekiplerinin bu aracı sıkıcı görevleri ortadan kaldırmak ve işleri hızlandırmak için kullanabileceğini umuyor.
Microsoft ayrıca, “PyRIT, riskin nerede olabileceğine dair sıcak noktalara ışık tutuyor ve bu noktalar güvenlik uzmanları tarafından keskin bir şekilde keşfedilebiliyor,” diye açıklıyor. “Yapay zeka kırmızı ekip operasyonunun stratejisi ve yürütülmesi her zaman güvenlik uzmanının kontrolündedir ve PyRIT, güvenlik uzmanı tarafından sağlanan zararlı istemlerin ilk veri kümesini almak için otomasyon kodu sağlar, ardından daha zararlı istemler oluşturmak için LLM uç noktasını kullanır.”
Microsoft’un vurguladığına göre bu araç aynı zamanda uyarlanabilir, zira yapay zeka sisteminin önceki sorgulara verdiği yanıtlara bağlı olarak taktiklerini değiştirebiliyor. Daha sonra bir sonraki girdiyi üretiyor ve kırmızı ekip üyeleri sonuçlardan memnun olana kadar döngüyü devam ettiriyor.
Yorum Yaz