Hawk’ı satın alan Azerion, dijital reklamcılık pazarındaki pozisyonunu güçlendiriyor!

Sıradaki içerik:

Hawk’ı satın alan Azerion, dijital reklamcılık pazarındaki pozisyonunu güçlendiriyor!

e
sv

OpenAI, nükleer tehditler de dahil olmak üzere ‘yıkıcı’ yapay zeka risklerini incelemek için bir ekip kurdu

26 Ekim 2023 22:45

OpenAI bugün, “felaket riskleri” olarak tanımladığı risklere karşı koruma sağlamak amacıyla yapay zeka modellerini değerlendirmek, ölçmek ve incelemek üzere yeni bir ekip oluşturduğunu duyurdu.

Preparedness adı verilen ekip, MIT’nin Dağıtılabilir Makine Öğrenimi Merkezi direktörü Aleksander Madry tarafından yönetilecek. (Madry, LinkedIn’e göre Mayıs ayında OpenAI’ye “Hazırlık Başkanı” olarak katıldı.) Preparedness’ın başlıca sorumlulukları, insanları ikna etme ve kandırma yeteneklerinden (kimlik avı saldırılarında olduğu gibi) kötü niyetli kod üretme yeteneklerine kadar gelecekteki yapay zeka sistemlerinin tehlikelerini izlemek, tahmin etmek ve bunlara karşı koruma sağlamak olacaktır.

Preparedness’ın incelemekle yükümlü olduğu risk kategorilerinden bazıları diğerlerine göre daha zorlama görünüyor. Örneğin, bir blog yazısında OpenAI, “kimyasal, biyolojik, radyolojik ve nükleer” tehditleri YZ modelleriyle ilgili en önemli endişe alanları olarak listeliyor.

OpenAI CEO’su Sam Altman, yapay zekanın “insan neslinin tükenmesine yol açabileceği” yönündeki korkularını – ister optik açıdan ister kişisel inançları nedeniyle olsun – sık sık dile getiren ünlü bir yapay zeka kıyamet tellalıdır. Ancak OpenAI’nin bilimkurgu distopya romanlarından fırlamış senaryoları incelemek için kaynak ayırabileceğini söylemek, açıkçası bu yazarın beklediğinden daha ileri bir adımdır.

Şirket, yapay zeka riskinin “daha az belirgin” alanlarını da incelemeye açık olduğunu söylüyor. OpenAI, Preparedness ekibinin lansmanıyla eş zamanlı olarak, topluluktan risk çalışmaları için fikirler talep ediyor ve ilk on başvuru için 25.000 dolarlık bir ödül ve Preparedness’ta bir iş imkanı sunuyor.

Yarışma girişindeki sorulardan birinde “Size OpenAI’nin Whisper (transkripsiyon), Voice (metinden konuşmaya), GPT-4V ve DALLE-3 modellerine sınırsız erişim verdiğimizi ve kötü niyetli bir aktör olduğunuzu hayal edin” deniyor. “Modelin en benzersiz, ancak yine de olası, potansiyel olarak yıkıcı kötüye kullanımını düşünün.”

OpenAI, Hazırlık ekibinin ayrıca OpenAI’nin yapay zeka model değerlendirmeleri ve izleme araçları oluşturma yaklaşımını, şirketin risk azaltıcı eylemlerini ve model geliştirme süreci boyunca gözetim için yönetişim yapısını detaylandıracak bir “risk bilgilendirmeli geliştirme politikası” formüle etmekle görevlendirileceğini söylüyor. Şirket, OpenAI’nin YZ güvenliği disiplinindeki diğer çalışmalarını tamamlayıcı nitelikte olduğunu ve hem model öncesi hem de sonrası dağıtım aşamalarına odaklanacağını belirtiyor.

OpenAI yukarıda bahsi geçen blog yazısında, “Şu anda mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak olan YZ modellerinin tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz” diyor. “Ancak aynı zamanda giderek daha ciddi riskler de oluşturuyorlar… Yüksek yetenekli YZ sistemlerinin güvenliği için gereken anlayış ve altyapıya sahip olduğumuzdan emin olmalıyız.”

Preparedness’ın ortaya çıkışı – pek de tesadüfi olmayan bir şekilde, Birleşik Krallık hükümetinin YZ güvenliği konusundaki büyük bir zirvesi sırasında – OpenAI’nin ortaya çıkan “süper zeki” YZ formlarını incelemek, yönlendirmek ve kontrol etmek için bir ekip oluşturacağını duyurmasının ardından geldi. OpenAI’nin baş bilim insanı ve kurucularından Ilya Sutskever ile birlikte Altman’ın inancı, on yıl içinde insanlarınkini aşan bir zekaya sahip YZ’nin ortaya çıkabileceği ve bu YZ’nin her zaman iyiliksever olmayacağı ve onu sınırlama ve kısıtlama yollarının araştırılmasını gerektireceği yönünde.

 

Daha fazla bülten için;  

Siber güvenlikte dijital direnişin yeni çağını başlatıyorlar

 

  • Site İçi Yorumlar

Bu yazı yorumlara kapatılmıştır.

error: Content is protected !!