अप्रैल 18, 2024

Rajneeti Guru

राजनीति, व्यापार, मनोरंजन, प्रौद्योगिकी, खेल, जीवन शैली और अधिक पर भारत से आज ही नवीनतम भारत समाचार और ताज़ा समाचार प्राप्त करें

एआई चैटबॉट झूठ क्यों बोलते हैं और अजीब तरह से काम करते हैं? मैंने आईने में देखो।

एआई चैटबॉट झूठ क्यों बोलते हैं और अजीब तरह से काम करते हैं?  मैंने आईने में देखो।

जब Microsoft ने इस महीने अपने बिंग सर्च इंजन में एक चैटबॉट जोड़ा, तो लोगों ने देखा कि यह गैप, मैक्सिकन नाइटलाइफ़ और गायक बिली इलिश के बारे में सभी प्रकार की झूठी जानकारी प्रदान कर रहा है।

फिर, जब पत्रकारों और अन्य शुरुआती परीक्षकों ने Microsoft के AI बॉट के साथ लंबी बातचीत की, तो यह कर्कश, डराने-धमकाने और खतरनाक व्यवहार में उतर गया।

जब से बिंग बॉट का व्यवहार दुनिया भर में सनसनी बन गया है, तब से लोग इस नई रचना की विचित्रता को समझने के लिए संघर्ष कर रहे हैं। बहुत बार, वैज्ञानिकों ने कहा है कि मनुष्य बहुत अधिक दोष के पात्र हैं।

लेकिन अभी भी एक रहस्य है कि नया चैटबॉट क्या कर सकता है – और यह क्यों करेगा। इसकी जटिलता से इसका विश्लेषण करना और भविष्यवाणी करना भी मुश्किल हो जाता है, और शोधकर्ता इसे एक दार्शनिक लेंस के साथ-साथ कंप्यूटर विज्ञान के कठिन कोड के माध्यम से देखते हैं।

किसी भी अन्य छात्र की तरह, एआई सिस्टम खराब स्रोतों से खराब जानकारी सीख सकता है। क्या यह अजीब व्यवहार है? यह एक चैटबॉट का उपयोग करने वाले लोगों के शब्दों और इरादों का विकृत प्रतिबिंब हो सकता है, एक न्यूरोसाइंटिस्ट, मनोवैज्ञानिक और कंप्यूटर वैज्ञानिक टेरी सेजनोव्स्की ने कहा, जिन्होंने आधुनिक कृत्रिम बुद्धि के लिए बौद्धिक और तकनीकी नींव रखने में मदद की।

ऐसा तब होता है जब आप इन प्रणालियों में गहराई से जाते हैं। शोध पत्र इस घटना के बारे में इस महीने वैज्ञानिक पत्रिका तंत्रिका संगणना में. “आप जो कुछ भी खोज रहे हैं – जो कुछ भी आप चाहते हैं – वे प्रदान करेंगे।”

गूगल भी दिखावा नया चैटबॉट, बार्ड, इस महीने, लेकिन वैज्ञानिकों और पत्रकारों को जल्दी ही एहसास हुआ कि वह जेम्स वेब स्पेस टेलीस्कॉप के बारे में बकवास लिख रहा था। OpenAI, एक सैन फ्रांसिस्को स्टार्टअप, ने नवंबर में चैटबॉट बूम को लात मारी जब उसने चैटजीपीटी पेश किया, जो हमेशा सच नहीं बताता है।

नए चैटबॉट एक तकनीकी वैज्ञानिक द्वारा संचालित होते हैं जिसे लार्ज लैंग्वेज मॉडल या एलएलएम कहते हैं। ये सिस्टम इंटरनेट से निकाले गए बड़ी मात्रा में डिजिटल टेक्स्ट का विश्लेषण करके सीखते हैं, जिसमें बहुत सारी बदनाम, पक्षपाती और अन्य जहरीली सामग्री शामिल है। साथ ही, चैटबॉट जिस स्क्रिप्ट से सीखते हैं, वह थोड़ी पुरानी हो रही है, क्योंकि जनता द्वारा इसका उपयोग करने से पहले उन्हें इसका विश्लेषण करने में महीनों का समय देना पड़ता है।

जैसा कि यह अच्छी और बुरी जानकारी के इस समुद्र का ऑनलाइन विश्लेषण करता है, एलएलएम एक विशेष काम करना सीखता है: शब्दों की एक स्ट्रिंग में अगले शब्द का अनुमान लगाएं।

यह स्वत: पूर्ण तकनीक के एक विशाल संस्करण की तरह काम करता है जो अगले शब्द का सुझाव देता है जैसे आप अपने स्मार्टफोन पर एक ईमेल या तत्काल संदेश टाइप करते हैं। अनुक्रम “टॉम क्रूज़ ____ है” को देखते हुए, कोई “अभिनेता” का अनुमान लगा सकता है।

जब आप चैटबॉट के साथ चैट करते हैं, तो बॉट इंटरनेट से सीखी हर चीज पर निर्भर नहीं रहता है। वह आपके द्वारा कही गई हर बात और उसकी कही हर बात पर भरोसा करता है। यह वाक्य में अगले शब्द का अनुमान लगाने के बारे में नहीं है। यह पाठ के लंबे टुकड़े में अगले शब्द का अनुमान लगा रहा है जिसमें आपके और उसके दोनों शब्द शामिल हैं।

बातचीत जितनी लंबी होगी, उपयोगकर्ता अनजाने में चैटबॉट की कही गई बातों को उतना ही अधिक प्रभावित करेगा। यदि आप चाहते हैं कि वह क्रोधित हो, तो वह क्रोधित हो जाता है, डॉ. सेजनोवस्की ने कहा। यदि आप इसे डरावना होने के लिए फुसलाते हैं, तो यह डरावना हो जाता है।

Microsoft के चैटबॉट के विचित्र व्यवहार पर खतरनाक प्रतिक्रिया ने एक महत्वपूर्ण बिंदु को पीछे छोड़ दिया है: चैटबॉट का कोई व्यक्तित्व नहीं है। यह अविश्वसनीय रूप से जटिल कंप्यूटर एल्गोरिदम के माध्यम से तत्काल परिणाम प्रदान करता है।

बिंग चैटबॉट के साथ चर्चा की लंबाई पर एक सीमा लगाने पर Microsoft सबसे अजीब व्यवहार में कटौती करता हुआ प्रतीत होता है। यह एक परीक्षण कार चालक से सीखने जैसा था कि बहुत देर तक तेज चलने से उसका इंजन जल जाएगा। Microsoft पार्टनर OpenAI और Google भी अपने बॉट्स के व्यवहार को नियंत्रित करने के तरीके तलाश रहे हैं।

लेकिन इस आश्वस्त करने के लिए एक चेतावनी है: क्योंकि चैटबॉट इतनी सामग्री से सीखते हैं और इसे इतने जटिल तरीके से एक साथ जोड़ते हैं, शोधकर्ता इस बात पर पूरी तरह से स्पष्ट नहीं हैं कि चैटबॉट अपने अंतिम परिणाम कैसे देते हैं। शोधकर्ता देखते हैं कि बॉट्स क्या करते हैं और उस व्यवहार पर सीमाएं लगाना सीखते हैं – अक्सर ऐसा होने के बाद।

Microsoft और OpenAI ने फैसला किया कि वास्तविक दुनिया में चैटबॉट क्या करने जा रहे हैं, इसका पता लगाने का एकमात्र तरीका उन्हें खो जाने देना है – और जब वे चले गए तो उन्हें रोल करना। उन्हें लगता है कि उनका बड़ा सार्वजनिक प्रयोग जोखिम के लायक है।

डॉ. सेजनोव्स्की ने माइक्रोसॉफ्ट के चैटबॉट के व्यवहार की तुलना मिरर ऑफ एराइज्ड से की, जो जे.के. राउलिंग के हैरी पॉटर उपन्यासों में एक रहस्यमयी कलाकृति है और युवा जादूगरों की रचनात्मक दुनिया पर आधारित कई फिल्में हैं।

“मावरिक” “इच्छा” है जिसे पीछे की ओर लिखा गया है। जब लोग दर्पण की खोज करते हैं, तो ऐसा लगता है कि यह सत्य और समझ प्रदान करता है। लेकिन वह नहीं करती। यह किसी की भी गहरी इच्छाओं को दर्शाता है जो इसे घूरता है। और कुछ लोग अगर ज्यादा देर तक देखते रहें तो पागल हो जाते हैं।

“चूंकि मनुष्य और एलएलएम दोनों एक दूसरे को प्रतिबिंबित करते हैं, समय के साथ वे एक सामान्य वैचारिक स्थिति की ओर बढ़ेंगे,” डॉ. सेजनोव्स्की ने कहा।

उन्होंने कहा, यह आश्चर्य की बात नहीं थी कि पत्रकारों को बिंग चैटबॉट में खौफनाक व्यवहार दिखाई देने लगा। चाहे जानबूझकर या अनजाने में, वे व्यवस्था को असहज दिशा में धकेल रहे थे। जैसा कि चैटबॉट हमारे शब्दों को लेते हैं और उन्हें वापस हम पर प्रतिबिंबित करते हैं, वे हमारे विश्वासों को सुदृढ़ और बढ़ा सकते हैं और हमें विश्वास दिला सकते हैं कि वे हमें क्या कहते हैं।

डॉ. सेजनोव्स्की 1970 के दशक के अंत और 1980 के दशक की शुरुआत में शोधकर्ताओं के एक छोटे समूह में से एक थे, जिन्होंने न्यूरल नेटवर्क नामक एक प्रकार की कृत्रिम बुद्धिमत्ता की गंभीरता से खोज शुरू की, जो आज के चैटबॉट चला रही है।

एक तंत्रिका नेटवर्क एक गणितीय प्रणाली है जो संख्यात्मक डेटा का विश्लेषण करके कौशल सीखती है। यह वही तकनीक है जो सिरी और एलेक्सा को यह पहचानने की अनुमति देती है कि आप क्या कहते हैं।

2018 के आसपास, Google और OpenAI जैसी कंपनियों के शोधकर्ताओं ने तंत्रिका नेटवर्क का निर्माण शुरू किया, जो बड़ी मात्रा में डिजिटल टेक्स्ट से सीखा, जिसमें किताबें, विकिपीडिया लेख, चैट लॉग और ऑनलाइन पोस्ट की गई अन्य चीजें शामिल हैं। उस सभी पाठ में अरबों प्रतिमानों की पहचान करके, एलएलएम ने ट्वीट, ब्लॉग पोस्ट, भाषण और कंप्यूटर प्रोग्राम सहित स्वयं पाठ बनाना सीखा है। वे बातचीत भी कर सकते हैं।

ये सिस्टम मानवता का प्रतिबिंब हैं। वे इंटरनेट पर मनुष्यों द्वारा पोस्ट किए गए टेक्स्ट का विश्लेषण करके अपना कौशल सीखते हैं।

न्यू मैक्सिको में एक स्वतंत्र लैब, सांता फ़े इंस्टीट्यूट में एआई शोधकर्ता मेलानी मिशेल ने कहा कि चैटबॉट समस्याग्रस्त भाषा उत्पन्न करने का एकमात्र कारण नहीं है।

टेक्स्ट बनाते समय, ये सिस्टम शब्द के लिए इंटरनेट शब्द को दोहराते नहीं हैं। वे अरबों शैलियों को मिलाकर अपने आप नया पाठ उत्पन्न करते हैं।

भले ही शोधकर्ताओं ने इन प्रणालियों को केवल सहकर्मी-समीक्षित वैज्ञानिक साहित्य पर प्रशिक्षित किया हो, फिर भी वे वैज्ञानिक रूप से बेतुके बयान दे सकते हैं। यहां तक ​​कि अगर उन्होंने केवल पाठ से सीखा कि यह सच था, तब भी वे झूठ पैदा कर सकते हैं। यहां तक ​​कि अगर वे केवल संपूर्ण पाठ से सीखते हैं, तब भी वे कुछ डरावना उत्पन्न करने में सक्षम हो सकते हैं।

डॉ मिशेल ने कहा, “उन्हें ऐसा करने से कोई रोक नहीं रहा है।” “वे सिर्फ कुछ ऐसा बनाने की कोशिश कर रहे हैं जो मानव भाषा की तरह लगता है।”

एआई विशेषज्ञ लंबे समय से जानते हैं कि यह तकनीक सभी प्रकार के अप्रत्याशित व्यवहार प्रदर्शित करती है। लेकिन वे हमेशा इस बात पर सहमत नहीं हो सकते कि इस व्यवहार की व्याख्या कैसे करें या चैटबॉट कितनी जल्दी सुधार कर सकते हैं।

क्योंकि ये प्रणालियां हम इंसानों की तुलना में बहुत अधिक डेटा से सीखती हैं, यहां तक ​​कि एआई विशेषज्ञ भी यह नहीं समझ सकते हैं कि वे किसी भी समय पाठ का एक विशिष्ट टुकड़ा क्यों बना रहे हैं।

डॉ. चेजकोव्स्की ने कहा कि उनका मानना ​​है कि लंबे समय में, नए चैटबॉट्स में लोगों को अधिक कुशल बनाने और उन्हें अपना काम बेहतर और तेजी से करने के तरीके देने की क्षमता है। लेकिन यह उन दोनों कंपनियों के लिए एक चेतावनी के साथ आता है जो इन चैटबॉट्स का निर्माण करती हैं और जो लोग उनका उपयोग करते हैं: वे हमें सच्चाई से और कुछ अंधेरी जगहों में भी ले जा सकते हैं।

“यह अज्ञात क्षेत्र है,” डॉ. Czejkowski ने कहा। “मनुष्यों ने पहले कभी इसका अनुभव नहीं किया है।”