
क्या एलोन मस्क ने अमेरिकी सरकार को चलाने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करने की योजना बनाई है? यह उनकी योजना प्रतीत होती है, लेकिन विशेषज्ञों का कहना है कि यह एक “बहुत बुरा विचार” है।
मस्क ने अपने सरकारी दक्षता विभाग (DOGE) के माध्यम से हजारों संघीय सरकारी कर्मचारियों को निकाल दिया है, और उन्हें कथित तौर पर शेष श्रमिकों को विभाग को एक साप्ताहिक ईमेल भेजने की आवश्यकता है, जिसमें पांच बुलेट बिंदुओं की विशेषता है, जिसमें उन्होंने उस सप्ताह क्या पूरा किया।
चूंकि इस प्रकार के हजारों -हजारों ईमेल के साथ बाढ़ के डोगे पर कोई संदेह नहीं होगा, इसलिए कस्तूरी प्रतिक्रियाओं को संसाधित करने के लिए कृत्रिम बुद्धिमत्ता पर भरोसा कर रहा है और यह निर्धारित करने में मदद करता है कि कौन कार्यरत रहना चाहिए। कथित तौर पर उस योजना का एक हिस्सा कई सरकारी कर्मचारियों को एआई सिस्टम के साथ बदलना भी है।
यह अभी तक स्पष्ट नहीं है कि इनमें से कोई भी एआई सिस्टम कैसा दिखता है या वे कैसे काम करते हैं – संयुक्त राज्य अमेरिका के कांग्रेस में कुछ डेमोक्रेट्स पर भरे जाने की मांग कर रहे हैं – लेकिन विशेषज्ञों ने चेतावनी दी है कि संघीय सरकार में एआई का उपयोग मजबूत परीक्षण और इन उपकरणों के सत्यापन के बिना विनाशकारी परिणाम हो सकता है।
“AI उपकरणों का जिम्मेदारी से उपयोग करने के लिए, उन्हें एक विशेष उद्देश्य को ध्यान में रखते हुए डिजाइन करने की आवश्यकता है। उन्हें परीक्षण और मान्य करने की आवश्यकता है। यह स्पष्ट नहीं है कि इसमें से कोई भी यहां किया जा रहा है, ”पेंसिल्वेनिया विश्वविद्यालय में कानून और राजनीति विज्ञान के प्रोफेसर कैरी कॉग्लिअनीस कहते हैं।
कॉग्लिअनीज़ का कहना है कि यदि एआई का उपयोग इस बारे में निर्णय लेने के लिए किया जा रहा है कि उन्हें अपनी नौकरी से किसे समाप्त किया जाना चाहिए, तो वह उस दृष्टिकोण के “बहुत संदेह” होगा। वह कहते हैं कि गलतियों के लिए बहुत वास्तविक क्षमता है, एआई के पक्षपाती होने और अन्य संभावित समस्याओं के लिए।
“यह एक बहुत बुरा विचार है। हम इस बारे में कुछ भी नहीं जानते हैं कि एआई इस तरह के फैसले कैसे करेगा [including how it was trained and the underlying algorithms]मिशिगन विश्वविद्यालय में सार्वजनिक नीति के प्रोफेसर शोबिता पार्थसारथी कहती हैं, “जिस डेटा पर इस तरह के फैसले आधारित होंगे, या हमें क्यों विश्वास करना चाहिए।
उन चिंताओं को वर्तमान सरकार को वापस नहीं रखा जा रहा है, विशेष रूप से कस्तूरी के साथ – एक अरबपति व्यवसायी और अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प के करीबी सलाहकार – इन प्रयासों पर आरोप लगाते हैं।
उदाहरण के लिए, अमेरिकी राज्य विभाग, विदेशी नागरिकों के सोशल मीडिया खातों को स्कैन करने के लिए एआई का उपयोग करने की योजना बना रहा है, जो किसी को भी पहचानने के प्रयास में हमास समर्थक हो सकता है। अमेरिकी सरकार अब तक पारदर्शी नहीं रही है कि इस प्रकार के सिस्टम कैसे काम कर सकते हैं।
अविभाजित हानि
न्यूयॉर्क विश्वविद्यालय में पत्रकारिता के एक प्रोफेसर और आर्टिफिशियल इंटेलिजेंस के विशेषज्ञ हिलके स्केलमैन कहते हैं, “ट्रम्प प्रशासन वास्तव में हर कीमत पर एआई को आगे बढ़ाने में रुचि रखता है, और मैं एआई का एक निष्पक्ष, उचित और न्यायसंगत उपयोग देखना चाहूंगा।” “बहुत सारे नुकसान हो सकते हैं जो अनिर्धारित हो जाते हैं।”
एआई विशेषज्ञों का कहना है कि कई तरीके हैं जिनमें एआई का सरकारी उपयोग गलत हो सकता है, यही वजह है कि इसे सावधानी से और कर्तव्यनिष्ठ रूप से अपनाने की आवश्यकता है। कोग्लिअनीस का कहना है कि नीदरलैंड और यूनाइटेड किंगडम सहित दुनिया भर की सरकारों को खराब तरीके से निष्पादित एआई के साथ समस्याएं हैं जो गलतियाँ कर सकते हैं या पूर्वाग्रह दिखा सकते हैं और परिणामस्वरूप निवासियों के कल्याणकारी लाभों से इनकार कर दिया है, उदाहरण के लिए, जिनकी उन्हें जरूरत है।
अमेरिका में, मिशिगन राज्य को एआई के साथ एक समस्या थी जिसका उपयोग इसकी बेरोजगारी प्रणाली में धोखाधड़ी खोजने के लिए किया गया था जब उसने कथित धोखाधड़ी के हजारों मामलों की गलत पहचान की थी। इनकार किए गए लाभों में से कई को कठोर रूप से निपटा गया, जिसमें कई दंड और धोखाधड़ी के आरोपी शामिल थे। लोगों को गिरफ्तार किया गया और यहां तक कि दिवालियापन के लिए भी दायर किया गया। पांच साल की अवधि के बाद, राज्य ने स्वीकार किया कि सिस्टम दोषपूर्ण था और एक साल बाद यह गलत तरीके से धोखाधड़ी के आरोपी निवासियों को $ 21m वापस कर दिया।
“ज्यादातर समय, इन तकनीकों को खरीदने और तैनात करने वाले अधिकारियों को पता चलता है कि वे कैसे काम करते हैं, उनके पूर्वाग्रह और सीमाएं और त्रुटियां,” पार्थसारथी कहते हैं। “क्योंकि कम-आय और अन्यथा हाशिए के समुदायों में सामाजिक सेवाओं के माध्यम से सरकारों के साथ सबसे अधिक संपर्क होता है [such as unemployment benefits, foster care, law enforcement]वे समस्याग्रस्त एआई से सबसे अधिक प्रभावित होते हैं। ”
एआई ने सरकार में भी समस्याओं का कारण बना है जब इसका उपयोग अदालतों में किसी की पैरोल पात्रता या पुलिस विभागों में चीजों को निर्धारित करने के लिए किया जाता है, जब इसका उपयोग यह अनुमान लगाने की कोशिश करने के लिए किया जाता है कि अपराध कहां होने की संभावना है।
स्केलमैन का कहना है कि पुलिस विभागों द्वारा उपयोग किए जाने वाले एआई को आम तौर पर उन विभागों से ऐतिहासिक डेटा पर प्रशिक्षित किया जाता है, और यह एआई को ओवर-पोलिंग क्षेत्रों की सिफारिश करने का कारण बन सकता है जो लंबे समय से ओवरपोलिक हो चुके हैं, विशेष रूप से रंग के समुदाय।
ऐ कुछ भी नहीं समझता है
संघीय सरकार में श्रमिकों को बदलने के लिए एआई का उपयोग करने के लिए संभावित रूप से समस्याओं में से एक यह है कि सरकार में कई अलग -अलग प्रकार की नौकरियां हैं जिन्हें विशिष्ट कौशल और ज्ञान की आवश्यकता होती है। न्याय विभाग में एक आईटी व्यक्ति के पास कृषि विभाग में एक से बहुत अलग नौकरी हो सकती है, उदाहरण के लिए, भले ही उनके पास एक ही नौकरी का शीर्षक हो। एक एआई कार्यक्रम, इसलिए, एक मानव कार्यकर्ता को बदलने के लिए एक औसत कार्य करने के लिए भी जटिल और उच्च प्रशिक्षित होना चाहिए।
“मुझे नहीं लगता कि आप बेतरतीब ढंग से लोगों की नौकरी में कटौती कर सकते हैं और फिर [replace them with any AI]”कॉग्लिअनीस कहते हैं। “वे कार्य जो लोग प्रदर्शन कर रहे थे, वे अक्सर अत्यधिक विशिष्ट और विशिष्ट होते हैं।”
Schellmann का कहना है कि आप किसी की नौकरी के कुछ हिस्सों को करने के लिए AI का उपयोग कर सकते हैं जो कि अनुमानित या दोहरावदार हो सकता है, लेकिन आप किसी को पूरी तरह से बदल नहीं सकते। यह सैद्धांतिक रूप से संभव होगा यदि आप कई, कई अलग -अलग प्रकार की नौकरियों को करने के लिए सही एआई उपकरण विकसित करने में वर्षों बिताते हैं – एक बहुत ही मुश्किल काम और न कि सरकार वर्तमान में क्या कर रही है।
“इन श्रमिकों के पास वास्तविक विशेषज्ञता और मुद्दों की एक बारीक समझ है, जो एआई नहीं है। एआई वास्तव में, ‘कुछ भी समझ’ नहीं करता है, ‘पार्थसारथी कहते हैं। “यह ऐतिहासिक डेटा के आधार पर पैटर्न खोजने के लिए कम्प्यूटेशनल तरीकों का उपयोग है। और इसलिए इसमें सीमित उपयोगिता होने की संभावना है, और यहां तक कि ऐतिहासिक पूर्वाग्रहों को सुदृढ़ करता है। ”
पूर्व अमेरिकी राष्ट्रपति जो बिडेन का प्रशासन जारी किए गए 2023 में एक कार्यकारी आदेश ने सरकार में एआई के जिम्मेदार उपयोग पर ध्यान केंद्रित किया और एआई का परीक्षण और सत्यापित किया जाएगा, लेकिन इस आदेश को जनवरी में ट्रम्प प्रशासन द्वारा रद्द कर दिया गया था। स्केलमैन का कहना है कि इससे यह संभावना कम हो गई है कि एआई का उपयोग सरकार में जिम्मेदारी से किया जाएगा या शोधकर्ता यह समझ पाएंगे कि एआई का उपयोग कैसे किया जा रहा है।
इस सब ने कहा, अगर एआई जिम्मेदारी से विकसित किया जाता है, तो यह बहुत मददगार हो सकता है। एआई दोहरावदार कार्यों को स्वचालित कर सकता है ताकि श्रमिक अधिक महत्वपूर्ण चीजों पर ध्यान केंद्रित कर सकें या श्रमिकों को उन समस्याओं को हल करने में मदद कर सकें जिनसे वे संघर्ष कर रहे हैं। लेकिन इसे सही तरीके से तैनात करने के लिए समय दिया जाना चाहिए।
“यह कहना नहीं है कि हम एआई टूल का बुद्धिमानी से उपयोग नहीं कर सकते हैं,” कॉग्लियनीस कहते हैं। “लेकिन सरकारें भटक जाती हैं जब वे उचित सार्वजनिक इनपुट और पूरी तरह से सत्यापन और सत्यापन के बिना जल्दी से काम करने की कोशिश करते हैं कि एल्गोरिथ्म वास्तव में कैसे काम कर रहा है।”