संग्रह

एआई एटिट्यूड: क्या विशेषज्ञ चिंता पर विचार करते हैं

एआई एटिट्यूड: क्या विशेषज्ञ चिंता पर विचार करते हैं


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

जैसा कि हमने अपनी बहादुर नई दुनिया में देखा था: एआई की प्रगति नैतिक चिंताओं को क्यों बढ़ाती है, ऐसे कुछ क्षेत्र हैं जिनमें एआई का उपयोग समाज के लिए लाभप्रद से कम है। एलोन मस्क द्वारा सुझाए गए दुःस्वप्न परिदृश्य के अनुसार चेहरे की पहचान और अन्य एल्गोरिथम गुप्त सूत्रों में नस्लीय पूर्वाग्रह, साथ ही नौकरियों के लिए खतरा और संभवतः समग्र सुरक्षा भी शामिल है।

आप नीचे दिए गए वीडियो में एअर इंडिया के बारे में उनकी चिंताओं का वर्णन कर सकते हैं।

एलोन मस्क और मार्क जुकरबर्ग के बीच विचारों का टकराव

2017 में, जब मस्क ने अपने विचारों को प्रचारित किया, तो उन्होंने फेसबुक लाइव प्रसारण के दौरान जुकरबर्ग को बहुत अधिक "आशावादी" लेने के लिए प्रेरित किया। वास्तव में, जुकरबर्ग ने आरोप लगाया कि जो लोग अपरिवर्तनीय हैं वे एआई को शुद्ध करने वाले नहीं हैं, बल्कि वे जो खतरों पर जोर देते हैं। उसने बोला:

"और मुझे लगता है कि जो लोग naysayers हैं और इन doomsday परिदृश्यों को ड्रम करने की कोशिश करते हैं ... मुझे अभी समझ नहीं आया है। यह वास्तव में नकारात्मक है और कुछ मायनों में मुझे लगता है कि यह बहुत गैर जिम्मेदाराना है।"

"आप पर राइट बैक" जुकरबर्ग की मस्क की प्रतिक्रिया का जवाब दे सकता है, जो उन्होंने ट्विटर पर व्यक्त किया था: "मैंने इस बारे में मार्क से बात की है। विषय के बारे में उनकी समझ सीमित है।"

इसलिए मस्क ने अपनी बात को आगे बढ़ाने के लिए अधिक से अधिक विशेषज्ञता का दावा किया। वास्तव में, हालांकि, AI पर आशावादी बनाम निराशावादी विषय में विशेषज्ञता के स्तर से विभाजित नहीं हैं।

ऐ आशावादी

एअर इंडिया के कई विशेषज्ञ जकरबर्ग के आशावादी कदम को साझा करते हैं। उदाहरण के लिए, केविन केली, के सह-संस्थापक वायर्ड और इनवेरिटेबल के लेखक: 12 तकनीकी बलों को समझना जो हमारे भविष्य को आकार देंगे। इस व्यापक घोषणा को बनाया: “कृत्रिम बुद्धि के आगमन का सबसे बड़ा लाभ यह है कि एआई मानवता को परिभाषित करने में मदद करेगा। हमें यह बताने की जरूरत है कि हम कौन हैं। ”

केली ने आईबीएम के साथ एक साक्षात्कार में अपने दृष्टिकोण पर विस्तार किया: "एआई के माध्यम से, हम कई नए प्रकार की सोच का आविष्कार करने जा रहे हैं जो जैविक रूप से मौजूद नहीं हैं और जो मानव सोच की तरह नहीं हैं।"

केली के विचार में, यह पूरी तरह से सकारात्मक है: "इसलिए, यह खुफिया मानव सोच को प्रतिस्थापित नहीं करता है, लेकिन इसे बढ़ाता है।"

एक अन्य एआई आशावादी भविष्यवादी और आविष्कारक, रे कुर्ज़वील हैं, जिन्होंने 2012 के साक्षात्कार में निम्नलिखित घोषणा की थी:

"आर्टिफिशियल इंटेलिजेंस 2029 तक मानव स्तर तक पहुंच जाएगा। इसका पालन करें, कहते हैं कि, 2045, हमने खुफिया, हमारी सभ्यता के मानव जैविक मशीन इंटेलिजेंस को एक अरब गुना बढ़ा दिया है।"

कुर्ज़वील ने इसे भौतिकी के विज्ञान में "विलक्षणता" के समतुल्य बताया, क्योंकि यह "मानव इतिहास में गहरा विघटनकारी परिवर्तन" होगा। अंततः, उन्होंने कहा कि मानव "सोच जैविक और गैर-जैविक सोच का एक संकर बन जाएगा।"

ऐ निराशावादी

ऐसे विशेषज्ञ भी हैं जो एक स्वप्नदोष का सपना नहीं देखते हैं जिसमें एआई नौकरियों और मानवता की बहुत सोच लेता है। वे प्रक्रियाओं के प्रभारी एआई को खतरे से भरा होने की संभावना देखते हैं।

उन लोगों में से हैं युवल नूह हरारी, जिन्होंने लिखा हैहोम देस: ए ब्रीफ हिस्ट्री ऑफ़ टुमारो। पुस्तक के भीतर प्रोफेसर हरारी ने निम्नलिखित घोषणा की:

“आप जानना चाहते हैं कि सुपर-इंटेलिजेंट साइबोर्ग कैसे साधारण मांस-और-रक्त मनुष्यों का इलाज कर सकते हैं? मनुष्य अपने कम बुद्धिमान जानवर के चचेरे भाईयों के साथ कैसा व्यवहार करता है, इसकी पड़ताल करके बेहतर शुरुआत करें। यह निश्चित रूप से एक आदर्श सादृश्य नहीं है, लेकिन यह सबसे अच्छा प्रतीक है जिसे हम वास्तव में केवल कल्पना के बजाय देख सकते हैं। ” 

हारारी का कहना है कि सकारात्मक भविष्यवादियों के विपरीत ध्रुवीय विपरीत है, जिसे वे "डेटावाद" कहते हैं। जिसमें मानव उन्नत कृत्रिम बुद्धिमत्ता के लिए श्रेष्ठ धरातल का निर्माण करता है। यह एक ऐसा भविष्य है जो एक "कॉस्मिक डेटा-प्रोसेसिंग सिस्टम" पर हावी है, जो सर्वव्यापी और सर्वज्ञ दोनों है, और, जैसा कि बोर्ग कहते हैं, प्रतिरोध निरर्थक है।

दिवंगत अंग्रेजी सैद्धांतिक भौतिक विज्ञानी, ब्रह्मांड विज्ञानी, और लेखक जो कैम्ब्रिज विश्वविद्यालय में सैद्धांतिक ब्रह्मांड विज्ञान केंद्र में शोध के निदेशक थे, स्टीफन हॉकिंग, निराशावादी शिविर में भी आते हैं। हारर की तरह, उन्होंने मानवता की परवाह किए बिना एअर इंडिया की संभावनाओं पर अपने लक्ष्य का पीछा करने में मानवीय अनुभव पर विचार किया।

निम्नलिखित वीडियो में स्टीफन हॉकिंग AI पर बहुत निराशावादी कदम उठाते हैं।

2015 की शुरुआत में, Reddit AMA (आस्क मी एनीथिंग) के दौरान Q & A सत्र हॉकिंग से एक शिक्षक से निम्नलिखित प्रश्न पूछा गया था, जो जानना चाहता था कि उसकी कक्षाओं में आने वाली कुछ एआई चिंताओं को कैसे संबोधित किया जाए:

आप मेरी कक्षा के लिए अपनी खुद की मान्यताओं का प्रतिनिधित्व कैसे करेंगे? क्या हमारे दृष्टिकोण सामंजस्यपूर्ण हैं? क्या आपको लगता है कि लेपर्सन टर्मिनेटर-शैली "बुराई एआई" को छूट देने की मेरी आदत भोली है? और अंत में, आपको क्या लगता है कि मुझे एआई में रुचि रखने वाले अपने छात्रों के लिए मजबूत होना चाहिए?

हॉकिंग की प्रतिक्रिया इस प्रकार थी:

AI के साथ वास्तविक जोखिम दुर्भावनापूर्ण नहीं है बल्कि क्षमता है। एक अधीक्षक एआई अपने लक्ष्यों को पूरा करने में बहुत अच्छा होगा, और यदि उन लक्ष्यों को हमारे साथ गठबंधन नहीं किया जाता है, तो हम मुसीबत में हैं। आप शायद एक दुष्ट विरोधी हेटर नहीं हैं जो चींटियों को द्वेष से बाहर निकालता है, लेकिन अगर आप एक पनबिजली हरी ऊर्जा परियोजना के प्रभारी हैं और क्षेत्र में एक एंथिल को बाढ़ में डाल दिया जाता है, तो चींटियों के लिए बहुत बुरा है। उन चींटियों की स्थिति में मानवता को स्थान न दें।

क्या एआई वर्चस्व का खतरा वास्तविक है?

एंथनी जेडोर, कोल्ड स्प्रिंग हार्बर लेबोरेटरी में न्यूरोसाइंस के एक प्रोफेसर, और यान लेकन, न्यूयॉर्क विश्वविद्यालय में कंप्यूटर विज्ञान के प्रोफेसर और फेसबुक पर प्रमुख एआई वैज्ञानिक, तर्क देते हैं कि एआई वर्चस्व पर जुनूनी रूप से गुमराह किया गया है। उन्होंने एक दृश्य में अपना दृष्टिकोण समझाया अमेरिकी वैज्ञानिक ब्लॉग 26 सितंबर, 2019 को प्रकाशित टर्मिनेटर के डर का विषय नहीं है।

आप इस वीडियो में AI पर Zador सुन सकते हैं:

LeCunn AI के अन्य पहलुओं के बारे में इस वीडियो में बात करता है:

इस सवाल के जवाब में, "एक संस्कारवान AI दुनिया को क्यों लेना चाहेगा?" वे सरल दो-शब्द का जवाब देते हैं: "यह नहीं होगा।"

शायद उनके पास हरारी की किताब तब थी जब उन्होंने "विकासवादी इतिहास" में "सामाजिक प्रभुत्व" में बुद्धिमत्ता की भूमिका को संबोधित किया था। वे ड्राइवर के बजाय एक उपकरण के संदर्भ में इसकी व्याख्या करते थे:

“और वास्तव में, खुफिया एक शक्तिशाली अनुकूलन है, जैसे सींग, तेज पंजे या उड़ने की क्षमता, जो कई तरीकों से जीवित रहने की सुविधा प्रदान कर सकता है। लेकिन प्रति इंटेलिजेंस वर्चस्व के लिए ड्राइव को उत्पन्न नहीं करता है, जो सींगों की तुलना में अधिक करते हैं। "

इसलिए मनुष्य अपनी बुद्धिमत्ता का उपयोग करके उन्हें जीवित रहने में मदद करता है। लेकिन जब बुद्धिमत्ता के कृत्रिम रूपों की बात आती है, तो ऐसी कोई "अस्तित्व वृत्ति" नहीं है, और यही वजह है कि AI के पास उन मनुष्यों को लेने का कोई कारण नहीं होगा जो इसे प्रोग्राम करते हैं।

"एअर इंडिया में, खुफिया और अस्तित्व को विघटित कर दिया जाता है, और इसलिए बुद्धि इसके लिए जो भी लक्ष्य निर्धारित करती है वह सेवा कर सकती है।"

साइंस फिक्शन टाइप प्लॉट के बारे में जमीनी चिंता इस तरह की हैएवेंजर्स: द एज ऑफ अल्ट्रॉनया Zador और LeCun (संभवतः हॉकिंग ने पूछा गया प्रश्न का संदर्भ देते हुए) "टर्मिनेटर परिदृश्य" को वास्तव में प्रतिसादात्मक कहा है क्योंकि यह "हमें एआई के वास्तविक जोखिमों से विचलित करता है।"

एआई जोखिमों के बारे में हमें चिंतित होना चाहिए

Zador और LeCun एआई आशावादियों से अपनी स्थिति को अलग करते हैं। मस्क ने वास्तव में एआई को "हथियारबंद" बनाने के बारे में अपनी पुस्तक में सही पाया, साथ ही साथ यह अन्य खतरों से मानवता के लिए खतरा है, जिसमें नौकरियों का नुकसान भी शामिल है।

"जबकि एआई उत्पादकता में सुधार करेगा, नई नौकरियां पैदा करेगा और अर्थव्यवस्था को बढ़ाएगा, श्रमिकों को नई नौकरियों के लिए पीछे हटना होगा, और कुछ अनिवार्य रूप से पीछे रह जाएंगे। जब तक कई तकनीकी क्रांतियों के साथ, AI धन और आय की असमानताओं में और वृद्धि कर सकता है जब तक कि नई राजकोषीय नीतियों को लागू नहीं किया जाता है।]

उन जोखिमों के अलावा जिन्हें पहले से ही अनुमान लगाया जा सकता है, वे हैं जो "किसी भी नई तकनीक से जुड़े अप्रत्याशित जोखिम-अज्ञात अज्ञात हैं।"

सिर्फ इसलिए कि उनकी कल्पना एक विज्ञान कथा कथानक में नहीं की गई है, इसका मतलब यह नहीं है कि वे चिंता का कारण नहीं हैं, वे तर्क देते हैं। वे जोर देते हैं कि मनुष्य वे हैं जो विस्तारित एआई के परिणामों के लिए जिम्मेदार होंगे, जो किसी भी स्वतंत्र एजेंसी या महत्वाकांक्षा को विकसित नहीं कर सकते हैं।

मानव जिम्मेदारी पर जोर देते हुए, हालांकि, Zador और LeCun नई तकनीक के ज्ञात और अज्ञात दोनों - जोखिमों से बचने के लिए किसी विशेष योजना को रेखांकित नहीं करते हैं।

AI के लिए प्रोएक्टिव प्लानिंग

क्या समाधान सरकारी विनियमन है, जैसा कि मस्क ने सुझाव दिया है, या कुछ प्रकार के उद्योग मानक हैं, ऐसा लगता है कि संभावित खतरों के बारे में जागरूकता के साथ किसी प्रकार की योजना क्रम में है। कई विशेषज्ञों ने अभी सुझाव दिया है।

विश्व आर्थिक मंच के संस्थापक प्रोफेसर क्लाउस श्वाब, जिन्होंने "चौथी औद्योगिक क्रांति" शब्द को गढ़ा, ने 2016 में अपनी वर्तमान दिशा पर अपने विचार प्रकाशित किए।

सकारात्मक भविष्यवादियों की तरह, उन्होंने यह कल्पना की कि भविष्य "भौतिक, डिजिटल और जैविक दुनिया को उन तरीकों से फ्यूज करेगा जो मानव जाति को मौलिक रूप से बदल देंगे।" लेकिन उन्होंने इसे इस बात के लिए नहीं लिया कि यह सभी के लिए बेहतर होगा, "लोगों से" जोखिम और अवसरों के बारे में जागरूकता लाने के लिए आगे बढ़ने की योजना "बनाने का आग्रह किया।

क्षितिज पर चालक रहित कारों के साथ भी, लोग अभी भी ड्राइवर की सीट पर हैं जब यह योजना बनाने की बात आती है कि एआई को क्या करना है। "एआई के बारे में कुछ भी कृत्रिम नहीं है," क्षेत्र के विशेषज्ञ फी-फी ली घोषित किए। "यह लोगों द्वारा प्रेरित है, यह लोगों द्वारा बनाया गया है, और - सबसे महत्वपूर्ण बात - यह लोगों को प्रभावित करता है।"


वीडियो देखना: Current affairsPratiyogita Darpan January 2021. live studygramin iasJPSC. dsp kishore kumar rajak (मई 2022).