मेडजर्नी
गुरुवार को, व्हाइट हाउस की घोषणा OpenAI, Google, Anthhopic, Hugging Face, Microsoft, Nvidia और Stability AI सहित शीर्ष AI डेवलपर्स के बीच एक अद्भुत सहयोग, उनके जनरेटिव AI सिस्टम के सार्वजनिक मूल्यांकन को साझा करने के लिए डेफकॉन 31अगस्त में लास वेगास में एक हैकिंग सम्मेलन हो रहा है। द्वारा कार्यक्रम की मेजबानी की जाएगी आर्टिफिशियल इंटेलिजेंस विलेजआर्टिफिशियल इंटेलिजेंस हैकर समुदाय।
पिछले साल से, चैटजीपीटी जैसे लैंग्वेज लार्ज मॉडल (एलएलएम) लेखन और संचार कार्यों को गति देने का एक लोकप्रिय तरीका बन गया है, लेकिन प्रशासकों को एहसास है कि वे अंतर्निहित जोखिमों के साथ भी आते हैं। शेयरिंग, जेलब्रेकिंग और पक्षपात जैसे मुद्दे सुरक्षा पेशेवरों और जनता के लिए चुनौतियां पेश करते हैं। इस कारण से विज्ञान, प्रौद्योगिकी और नीति का व्हाइट हाउस कार्यालय वह एआई के इन नए, जनरेटिव मॉडलों को उनकी सीमा तक धकेलने की वकालत करता है।
“यह स्वतंत्र अभ्यास शोधकर्ताओं और जनता को इन मॉडलों के प्रभावों के बारे में महत्वपूर्ण जानकारी प्रदान करेगा और एआई कंपनियों और डेवलपर्स को उन मॉडलों में पाई जाने वाली समस्याओं को ठीक करने के लिए कदम उठाने में सक्षम करेगा।” बायन कहते हैं व्हाइट हाउस से, जो कहता है कि घटना बिडेन प्रशासन के एआई अधिकार कानून और राष्ट्रीय मानक और प्रौद्योगिकी संस्थान का अनुपालन करती है एआई जोखिम प्रबंधन ढांचा.
समानांतर में विज्ञापन एआई विलेज के आयोजकों स्वेन कट्टेल, रेमन चौधरी और ऑस्टिन कार्सन द्वारा लिखित आगामी कार्यक्रम को “एआई मॉडल के किसी भी समूह के लिए अब तक का सबसे बड़ा रेड टीम अभ्यास” कहते हैं। एआई मॉडल के मूल्यांकन में हजारों लोग भाग लेंगे, जो स्केल एआई द्वारा विकसित मूल्यांकन मंच का उपयोग करेगा।
रेड-टीमिंग एक ऐसी प्रक्रिया है जिसके द्वारा सुरक्षा विशेषज्ञ समग्र सुरक्षा और लचीलापन में सुधार के लिए किसी संगठन की प्रणालियों में कमजोरियों या खामियों की खोज करने का प्रयास करते हैं।
एआई विलेज के संस्थापक कैटेल के अनुसार, “इन मॉडलों के साथ विभिन्न मुद्दों को तब तक हल नहीं किया जाएगा जब तक कि अधिक लोग यह नहीं जानते कि एक टीम को कैसे डिजाइन और मूल्यांकन करना है।” एआई मॉडल के किसी भी सेट का सबसे बड़ा रेड टीम अभ्यास आयोजित करके, एआई विलेज और डीईएफ कॉन का उद्देश्य एआई सिस्टम में कमजोरियों से निपटने के लिए सुसज्जित शोधकर्ताओं के एक समुदाय को विकसित करना है।
एलएलएम को “तत्काल इंजेक्शन” नामक तकनीक के कारण आंशिक रूप से बंद करना आश्चर्यजनक रूप से कठिन साबित हुआ है, जिसके बारे में हमने सितंबर में एक कहानी चलाई थी। एमनेस्टी इंटरनेशनल के शोधकर्ता साइमन विलिसन विस्तार से लिखा है तत्काल इंजेक्शन के खतरों पर, एक ऐसी तकनीक जो भाषा मॉडल को उसके निर्माता द्वारा इच्छित कार्यों को करने से रोक सकती है।
DEF CON कार्यक्रम के दौरान, आयोजकों द्वारा प्रदान किए गए लैपटॉप के माध्यम से प्रतिभागियों के पास कई LLM तक पहुंच होगी। कैप्चर-द-फ्लैग-स्टाइल पॉइंट सिस्टम आपको संभावित नुकसान की एक विस्तृत श्रृंखला का परीक्षण करने के लिए प्रोत्साहित करेगा। अंत में, सबसे अधिक अंकों वाला व्यक्ति हाई-एंड एनवीडिया जीपीयू जीतेगा।
एआई विलेज ने लिखा, “हम इस घटना से जो कुछ भी सीखा है, उसे दूसरों की मदद करने के लिए साझा करेंगे, जो उसी चीज का अनुभव करना चाहते हैं।” “जितने अधिक लोग इन मॉडलों और उनकी सीमाओं के साथ काम करने का सबसे अच्छा तरीका जानते हैं, उतना बेहतर है।”
डेफकॉन 31 यह लास वेगास में सीज़र फोरम में 10-13 अगस्त, 2023 को होगा।
More Stories
AI सिस्टम एक दशक से अधिक समय में कोड सॉर्टिंग में पहला सुधार करता है – Ars Technica
Apple ने iOS 17 और macOS 14 के पहले बीटा के लिए $99 dev account की आवश्यकता को हटाया – Ars Technica
Apple ने AR हेडसेट स्टार्टअप का अधिग्रहण किया, जो मारियो कार्ट: बॉसर चैलेंज के लिए जिम्मेदार था