अप्रैल 26, 2024

Rajneeti Guru

राजनीति, व्यापार, मनोरंजन, प्रौद्योगिकी, खेल, जीवन शैली और अधिक पर भारत से आज ही नवीनतम भारत समाचार और ताज़ा समाचार प्राप्त करें

“60 मिनट्स” ने Google AI चैटबॉट के बारे में बहुत बुरा दावा किया

“60 मिनट्स” ने Google AI चैटबॉट के बारे में बहुत बुरा दावा किया

जब से OpenAI ने ChatGPT को दुनिया में उतारा है, हमने देखा है कि यह ऐसे लोगों को ले रहा है जिन पर आपको विश्वास नहीं होगा। कुछ लोगों ने दावा किया है कि चैटबॉट्स का एक जागृत एजेंडा है। अमेरिकी सीनेटर क्रिस मर्फी ने ट्वीट किया कि चैटजीपीटी ने खुद को उन्नत रसायन शास्त्र “सिखाया”। यहां तक ​​कि अनुभवी तकनीकी पत्रकारों ने भी इसके काम करने के तरीके के बारे में कहानियां लिखी हैं चैटबॉट को उनसे प्यार हो गया. ऐसा लगता है जैसे दुनिया एआई पर उसी तरह से प्रतिक्रिया कर रही है जिस तरह से गुफाओं के लोगों ने पहली बार आग लगने पर प्रतिक्रिया दी थी: पूरी तरह से भ्रम और असंगत प्रलाप के साथ।

इसका एक ताजा उदाहरण सामने आया है 60 मिनट, जिन्होंने सीबीएस रविवार को प्रसारित होने वाले कृत्रिम बुद्धिमत्ता में नवाचारों पर केंद्रित एक नए एपिसोड के साथ अपनी आवाज़ को रिंग में फेंक दिया। इस एपिसोड में Google के सीईओ सुंदर पिचाई जैसे लोगों के साक्षात्कार शामिल थे और इसमें संदिग्ध सामग्री शामिल थी कंपनी के बड़े भाषा मॉडल (एलएलएम) में से एक के बारे में दावा।

यह खंड आकस्मिक व्यवहार के बारे में है, जो एक एआई प्रणाली के अप्रत्याशित दुष्प्रभाव का वर्णन करता है जो कि मॉडल के डेवलपर्स द्वारा जरूरी नहीं था। हमने हाल ही के अन्य AI प्रोजेक्ट्स में उभरता हुआ व्यवहार देखा है। उदाहरण के लिए, शोधकर्ताओं ने हाल ही में पिछले सप्ताह ऑनलाइन प्रकाशित एक अध्ययन में लक्ष्यों और पृष्ठभूमि के साथ डिजिटल व्यक्तित्व बनाने के लिए चैटजीपीटी का उपयोग किया। वे ध्यान देते हैं कि सिस्टम विभिन्न आकस्मिक व्यवहार करता है जैसे कि नई जानकारी को एक वर्ण से दूसरे में साझा करना और यहां तक ​​कि एक-दूसरे के साथ संबंध बनाना – कुछ ऐसा जो लेखकों ने शुरू में सिस्टम के लिए योजना नहीं बनाई थी।

एक समाचार कार्यक्रम पर चर्चा करने के लिए उभरता हुआ व्यवहार निश्चित रूप से एक सार्थक विषय है। जहां है 60 मिनट हालाँकि, जब हमें दावों के बारे में पता चलता है कि Google का चैटबॉट वास्तव में खुद को एक ऐसी भाषा सिखाने में सक्षम था, जो उस भाषा में पूछे जाने के बाद पहले नहीं जानता था, तो वीडियो एक मोड़ लेता है। सीबीएस न्यूज के रिपोर्टर स्कॉट पेले ने वीडियो में कहा, “उदाहरण के लिए, एक Google एआई प्रोग्राम बांग्लादेश की भाषा में ऐसा करने के लिए कहने के बाद खुद को अनुकूलित कर लिया, जिसे जानने के लिए इसे प्रशिक्षित नहीं किया गया था।”

एआई विशेषज्ञों का कहना है कि यह एक पूर्ण स्नातक की डिग्री है। न केवल रोबोट एक विदेशी भाषा नहीं सीख सकता था जिसे उसने “जानने के लिए कभी प्रशिक्षित नहीं किया”, बल्कि उसने खुद को कभी भी एक नया कौशल नहीं सिखाया। पूरी क्लिप ने एआई शोधकर्ताओं और विशेषज्ञों को ट्विटर पर न्यूज शो के भ्रामक फ्रेमिंग की आलोचना करने के लिए प्रेरित किया।

सांता फ़े इंस्टीट्यूट में एक एआई शोधकर्ता और प्रोफेसर मेलानी मिशेल ने कहा, “मैं निश्चित रूप से आशा करता हूं कि कुछ पत्रकार Google बार्ड पर संपूर्ण @ 60 मिनट सेगमेंट की समीक्षा एआई को कवर करने के तरीके के बारे में एक केस स्टडी के रूप में करेंगे।” उन्होंने एक ट्वीट में लिखा.

“प्रौद्योगिकी के बारे में जादुई सोचना बंद करो! #AI के लिए बंगाली में जवाब देना संभव नहीं है, जब तक कि प्रशिक्षण डेटा को बंगाली से दूषित न किया गया हो या ऐसी भाषा में प्रशिक्षित नहीं किया गया हो जो असमिया, उड़िया या हिंदी जैसे बंगाली के साथ ओवरलैप हो।” एलेक्स ओ. मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के शोधकर्ता, एक अन्य पोस्ट में जोड़ा गया.

यह ध्यान देने योग्य है 60 मिनट क्लिप में ठीक-ठीक यह नहीं बताया गया है कि उन्होंने किस एआई का इस्तेमाल किया। सीबीएस के एक प्रवक्ता ने द डेली बीस्ट को बताया कि यह खंड बार्ड पर चर्चा नहीं बल्कि कृत्रिम बुद्धिमत्ता पर एक अलग कार्यक्रम था। हालाँकि, इन विशेषज्ञों के लिए यह हिस्सा इतना निराशाजनक क्यों है, इसका कारण यह है कि यह इस बात की उपेक्षा करता है और वास्तविकता के साथ खेलता है कि जेनेरेटिव एआई वास्तव में क्या कर सकता है। यह स्वयं को एक भाषा “सिखा” नहीं सकता है अगर इसकी पहली जगह तक पहुंच नहीं है। यह अपने आप को मंदारिन सिखाने की कोशिश करने जैसा होगा लेकिन आपने इसे तभी सुना जब किसी ने आपसे एक बार मंदारिन पूछा।

आखिरकार, भाषा अविश्वसनीय रूप से जटिल है – बारीकियों और नियमों के साथ जिन्हें समझने और संवाद करने के लिए एक अविश्वसनीय डिग्री के संदर्भ की आवश्यकता होती है। यहां तक ​​कि सबसे उन्नत एलएलएम को संभालने और कुछ संकेतों के साथ इसे सीखने का कोई तरीका नहीं है।

इसके अलावा, एआई सॉफ्टवेयर को बांग्लादेश की प्रमुख भाषा बंगाली जानने के लिए पहले से ही प्रशिक्षित किया जा सकता है। मार्गरेट मिशेल (कोई संबंध नहीं), एटी हगिंगफेस और पूर्व में Google में स्टार्टअप लैब में शोधकर्ता ने इसे समझाया ट्वीट विषय क्यों के लिए तर्क दें 60 मिनट यह संभवतः एक गलती थी।

मिचेल ने नोट किया कि बार्ड – Google ने हाल ही में सार्वजनिक रूप से उपलब्ध चैटबॉट पेश किया है – इसमें PaLM नामक मॉडल के शुरुआती पुनरावृत्ति से काम शामिल है। 2022 के एक प्रदर्शन में, Google ने दिखाया कि PaLM बंगाली में संवाद कर सकता है और संकेतों का जवाब दे सकता है। PaLM के पीछे का पेपर एक डेटाशीट में यह पता चला कि मॉडल को वास्तव में बंगाली वर्णमाला में लगभग 194 मिलियन प्रतीकों वाली भाषा पर प्रशिक्षित किया गया था।

हालांकि हम नहीं जानते कि अलग रहस्यमय AI प्रोग्राम क्या था, यह संभवतः PaLM के समान कार्य पर निर्भर था – जो डेटासेट में बंगाली की उपस्थिति की व्याख्या करेगा।

यह स्पष्ट नहीं है कि गूगल के सीईओ पिचाई साक्षात्कार के लिए क्यों बैठे और इन आरोपों को निर्विरोध जारी रहने दिया। (Google ने टिप्पणी के अनुरोधों का जवाब नहीं दिया।) एपिसोड प्रसारित होने के बाद से, वह क्लिप में किए गए भ्रामक और झूठे दावों की ओर इशारा करने वाले विशेषज्ञों के बावजूद चुप रहे। ट्विटर मार्गरेट मिशेल पर प्रस्ताव इसके पीछे का कारण Google नेताओं का एक संयोजन हो सकता है जो यह नहीं जानते कि उनके उत्पाद कैसे काम करते हैं और यह भी कि यह जनरेटिव AI के आसपास मौजूदा प्रचार को संबोधित करने के लिए खराब संदेश फैलाने की अनुमति देता है।

“मुझे संदेह है [Google executives] मैं सचमुच नहीं समझता कि यह कैसे काम करता है, मिशेल कलरव. “जो मैंने ऊपर लिखा है वह उनके लिए सबसे अधिक संभावना वाली खबर है। और वे न समझने के लिए प्रेरित होते हैं (इस डेटा शीट से बात करें !!)।”

वीडियो के दूसरे भाग को भी समस्याग्रस्त के रूप में देखा जा सकता है क्योंकि पिचाई और बिली ने बार्ड द्वारा बनाई गई एक छोटी सी कहानी पर चर्चा की, जो “बहुत मानवीय लग रही थी”, दो लोगों को कुछ हद तक हिलाकर रख दिया।

सच तो यह है, ये उत्पाद जादू नहीं हैं। वे “मानव” होने में असमर्थ हैं क्योंकि वे मानव नहीं हैं। वे टेक्स्ट भविष्यवक्ता हैं जैसे आपके फोन पर, वाक्यांशों में शब्दों की एक श्रृंखला के बाद सबसे संभावित शब्दों और वाक्यांशों के साथ आने के लिए प्रशिक्षित। यह कहना कि उनका अस्तित्व है, उन्हें शक्ति का एक स्तर प्रदान कर सकता है जो अविश्वसनीय रूप से खतरनाक हो सकता है।

आखिरकार, उपयोगकर्ता इन जनरेटिव AI सिस्टम का उपयोग गलत सूचना फैलाने जैसे काम करने के लिए कर सकते हैं। हम पहले ही देख चुके हैं कि यह लोगों की समानता और यहां तक ​​कि उनकी आवाज में हेरफेर करता है।

यहां तक ​​​​कि एक चैटबॉट अपने आप में नुकसान पहुंचा सकता है अगर यह पक्षपाती परिणाम देता है – कुछ ऐसा जो हमने पहले ही चैटजीपीटी और बार्ड की पसंद के साथ देखा है। इन चैटबॉट्स की मतिभ्रम और मनगढ़ंत परिणामों की प्रवृत्ति को जानने के बाद, वे अनपेक्षित उपयोगकर्ताओं के लिए गलत सूचना फैलाने में सक्षम हो सकते हैं।

शोध इसे भी सहन करता है। हाल का अध्ययन में प्रकाशित किया गया था वैज्ञानिक रिपोर्ट उन्होंने पाया कि चैटजीपीटी द्वारा किए गए तर्कों से नैतिक प्रश्नों के प्रति मानवीय प्रतिक्रियाएं आसानी से प्रभावित हो सकती हैं – और यहां तक ​​कि उपयोगकर्ताओं ने बहुत कम अनुमान लगाया कि वे बॉट्स से कितने प्रभावित थे।

के बारे में भ्रामक दावे 60 मिनट यह वास्तव में ऐसे समय में डिजिटल साक्षरता की अधिक आवश्यकता का एक लक्षण मात्र है जब हमें इसकी सबसे अधिक आवश्यकता है। कई एआई विशेषज्ञों का कहना है कि अब, पहले से कहीं ज्यादा, वह समय है जब लोगों को यह जानने की जरूरत है कि एआई क्या कर सकता है और क्या नहीं। रोबोटिक्स के बारे में इन बुनियादी तथ्यों को भी व्यापक जनता के लिए प्रभावी ढंग से संप्रेषित किया जाना चाहिए।

इसका मतलब यह है कि सबसे बड़े प्लेटफॉर्म और सबसे ऊंची आवाज वाले लोग (यानी मीडिया, राजनेता और बिग टेक के सीईओ) एक सुरक्षित और अधिक शिक्षित एआई भविष्य सुनिश्चित करने में सबसे अधिक जिम्मेदारी लेते हैं। यदि हम नहीं करते हैं, तो हम आग के जादू से खेलते हुए – और इस प्रक्रिया में जलते हुए गुफाओं के लोगों की तरह समाप्त हो सकते हैं।

संपादक का नोट: इस कहानी के पिछले संस्करण में कहा गया था कि 60 मिनट के खंड में चर्चा की गई AI बार्ड थी जब यह एक अलग Google AI थी।