• होम
  • सियासत
  • समाज
  • स्पोर्ट्स
  • सिनेमा
  • सोशल मीडिया
  • इकोनॉमी
  • ह्यूमर
  • टेक्नोलॉजी
  • वीडियो
होम
टेक्नोलॉजी

एक वैज्ञानिक ने क्यों कहा, विज्ञान ही हमारा नाश करेगा!

    • आईचौक
    • Updated: 14 मार्च, 2018 11:24 AM
  • 21 जनवरी, 2016 12:18 PM
offline
विज्ञान और टेक्नोलॉजी की उन्नति पर भले ही अरबों रुपये खर्च किए जा रहे हों लेकिन महान भौतिकशास्त्री स्टीफन हॉकिंग ने चेतावनी दी है कि विज्ञान की उन्नति ही मानवता के विनाश का कारण बन सकती है, जानिए क्यों?

महान भौतिकशास्त्री स्टीफन हॉकिंग ने कहा है कि विज्ञान और टेक्नोलॉजी की उन्नति मानवता के लिए सबसे बड़ा खतरा है. यानी कि जिस विज्ञान को आप मानवता का रक्षक और तारणहार समझते रहे हैं वही आने वाले वक्त में इसके विनाश का कारण बन सकता है. यह बात आप मजाक समझकर खारिज कर सकते थे लेकिन जिसने ये बात कही है उसे आधुनिक आइंस्टाइन कहा जाता है, तो आप इसे आसानी से खारिज भी नहीं कर सकते हैं. आइए जानें ऐसा क्यों कह रहे हैं हॉकिंग.

आखिर क्यों है मानवता को विज्ञान से खतराः

हाल ही में ब्लैक होल्स की प्रकृति पर अपने लेक्चर के दौरान जब स्टीफन हॉकिंग से पूछा गया कि दुनिया का अंत कैसे होगा, प्राकृतिक या फिर इसका अंत मनुष्य करेगा? इसके जवाब में हॉकिंग ने कहा मानवता के सामने आने वाले ज्यादातर खतरे विज्ञान और टेक्नोलजी की उन्नति द्वारा पैदा होते हैं. इनमें परमाणु युद्ध, प्रलयकारी ग्लोबल वॉर्मिंग और जेनेटकली इंजीनियर्ड वायरस जैसे खतरे शामिल हैं.   

धरती पर होने वाले प्रलय को अगले 1000 से 10 हजार वर्षों तक में 'लगभग निश्चित' करार देते हुए कैम्ब्रिज यूनिवर्सिटी के प्रोफेसर हॉकिंग ने कहा कि इससे मानवता का अंत नहीं होगा क्योंकि तब तक इंसानों के अंतरिक्ष और दूसरे तारों पर बस जाने की संभावना है. हॉकिंग ने मजाकिया लहजे में कहा,’हालांकि हम कम से कम अगले 100 वर्षों में अंतरिक्ष में अपने लिए कॉलोनियां नहीं बसाएंगे, इसलिए इस दौरान हमें बेहद सावधान रहने की जरूरत है.'

हॉकिंग ने हालांकि कहा कि हम उन्नति को रोक नहीं सकते इसलिए हमें खतरों की पहचान कर उन पर रोक लगाने की जरूरत है. उन्होंने कहा,‘हम उन्नति को नहीं रोकने जा रहे हैं, या इसे पीछे नहीं ले जा सकते हैं, 'इसलिए हमें खतरों को पहचाने और उन्हें नियंत्रित करने की जरूरत है. मैं एक आशावादी हूं, मुझे विश्वास है कि हम यह कर सकते हैं.' 

मशीनों को बुद्धिमान बनाना खतरनाक?

स्टीफन हॉकिंग आर्टिफिशियल...

महान भौतिकशास्त्री स्टीफन हॉकिंग ने कहा है कि विज्ञान और टेक्नोलॉजी की उन्नति मानवता के लिए सबसे बड़ा खतरा है. यानी कि जिस विज्ञान को आप मानवता का रक्षक और तारणहार समझते रहे हैं वही आने वाले वक्त में इसके विनाश का कारण बन सकता है. यह बात आप मजाक समझकर खारिज कर सकते थे लेकिन जिसने ये बात कही है उसे आधुनिक आइंस्टाइन कहा जाता है, तो आप इसे आसानी से खारिज भी नहीं कर सकते हैं. आइए जानें ऐसा क्यों कह रहे हैं हॉकिंग.

आखिर क्यों है मानवता को विज्ञान से खतराः

हाल ही में ब्लैक होल्स की प्रकृति पर अपने लेक्चर के दौरान जब स्टीफन हॉकिंग से पूछा गया कि दुनिया का अंत कैसे होगा, प्राकृतिक या फिर इसका अंत मनुष्य करेगा? इसके जवाब में हॉकिंग ने कहा मानवता के सामने आने वाले ज्यादातर खतरे विज्ञान और टेक्नोलजी की उन्नति द्वारा पैदा होते हैं. इनमें परमाणु युद्ध, प्रलयकारी ग्लोबल वॉर्मिंग और जेनेटकली इंजीनियर्ड वायरस जैसे खतरे शामिल हैं.   

धरती पर होने वाले प्रलय को अगले 1000 से 10 हजार वर्षों तक में 'लगभग निश्चित' करार देते हुए कैम्ब्रिज यूनिवर्सिटी के प्रोफेसर हॉकिंग ने कहा कि इससे मानवता का अंत नहीं होगा क्योंकि तब तक इंसानों के अंतरिक्ष और दूसरे तारों पर बस जाने की संभावना है. हॉकिंग ने मजाकिया लहजे में कहा,’हालांकि हम कम से कम अगले 100 वर्षों में अंतरिक्ष में अपने लिए कॉलोनियां नहीं बसाएंगे, इसलिए इस दौरान हमें बेहद सावधान रहने की जरूरत है.'

हॉकिंग ने हालांकि कहा कि हम उन्नति को रोक नहीं सकते इसलिए हमें खतरों की पहचान कर उन पर रोक लगाने की जरूरत है. उन्होंने कहा,‘हम उन्नति को नहीं रोकने जा रहे हैं, या इसे पीछे नहीं ले जा सकते हैं, 'इसलिए हमें खतरों को पहचाने और उन्हें नियंत्रित करने की जरूरत है. मैं एक आशावादी हूं, मुझे विश्वास है कि हम यह कर सकते हैं.' 

मशीनों को बुद्धिमान बनाना खतरनाक?

स्टीफन हॉकिंग आर्टिफिशियल इंटेलिजेंस (AI) को लेकर खासे चिंतित हैं. पहले तो आप ये जान लीजिए कि आर्टिफिशियल इंटेलिजेंस (कृत्रिम बुद्धिमत्ता) है क्या? दरअसल आर्टिफिशियल इंटेलिजेंस मशीनों या सॉफ्टवेयर द्वारा प्रदर्शित इंटेलिजेंस है. साथ ही यह उस अकैडमिक फील्ड ऑफ स्टडी का भी नाम है जोकि इस बात का अध्ययन करती है कि कैसे बुद्धिमानी भरा व्यवहार करने वाले कम्प्युटर्स और कम्प्युटर सॉफ्टवेयर का निर्माण किया जाए.

हालांकि हॉकिंग खुद आर्टिफिशियर इंटेलिजेंट बनाए जाने के पक्षधर हैं लेकिन वह इसके खतरों के प्रति आगाह भी करते हैं और कहते हैं, ‘हमें AI का लक्ष्य पूरी तरह अनिर्दिष्ट आर्टिफिशियल इंटेलिजेंस बनाने की जगह लाभकारी इंटेलिजेंस बनाने की ओर परिवर्तित कर देना चाहिए. हॉकिंग ने लिखा,’यह जानने में दशकों लग सकते हैं कि इसे कैसे करना है, इसलिए इसे आज ही करना शुरू करते हैं बजाय के उस रात को जिस दिन पहला ताकतवर AI स्विच ऑन हो.’

हॉकिंग का कहना है कि चिंता इस बात की नहीं है कि कोई शैतान वैज्ञानिक लैब में किसी खतरनाक और अनैतिक मशीन का निर्माण करेगा बल्कि डर इस बात का है कि सही उद्देश्यों के लिए बनाई गई मशीन में खराबी आ जाने पर ये अप्रत्यक्ष रूप से मानवता को नुकसान पहुंचा सकती है. उनका कहना है, 'AI के साथ असली खतरा द्वेष का नहीं बल्कि सामर्थ्य का है. एक सुपरइंटेलिजेंट AI अपने लक्ष्यों को पूरा करने के लिए बहुत अच्छा होगा लेकिन अगर ये लक्ष्य आपके साथ कतारबद्ध नहीं हैं तो आप मुश्किल में होंगे.'

हॉकिंग ने लिखा, 'आप शायद चीटिंयों से नफरत करने वाले बुरे व्यक्ति नहीं है जो उन्हें द्वेष के कारण कुचलते हैं लेकिन अगर आप उस क्षेत्र की पनबिजली ग्रीन एनर्जी प्रोजेक्ट के इंचार्ज हैं, जहां बाढ़ आने वाली है और जो चींटियों का गढ़ है, तो ये चीढ़ियों के लिए बहुत बुरी बात होगी. इसलिए हमें मानवता को उन चींटियों की स्थिति में नहीं खड़ा करना चाहिए.'

या यूं कहें कि हॉकिंग विज्ञान और टेक्नोलॉजी की उन्नति के खिलाफ नहीं है लेकिन साथ ही वह इसे तार्किक ढंग से किए जाने पर भी जोर देते हैं. ताकि मानवता की भलाई के लिए बनाई जा रही विज्ञान की उन्नत टेक्नोलॉजी उसके विनाश का ही कारण न बन जाए.

इस लेख में लेखक ने अपने निजी विचार व्यक्त किए हैं. ये जरूरी नहीं कि आईचौक.इन या इंडिया टुडे ग्रुप उनसे सहमत हो. इस लेख से जुड़े सभी दावे या आपत्ति के लिए सिर्फ लेखक ही जिम्मेदार है.

ये भी पढ़ें

Read more!

संबंधि‍त ख़बरें

  • offline
    मेटा का ट्विटर किलर माइक्रो ब्लॉगिंग एप 'Threads' आ गया...
  • offline
    क्या Chat GPT करोड़ों नौकरियों के लिये खतरा पैदा कर सकता है?
  • offline
    Google Bard है ही इतना भव्य ChatGPT को बुरी तरह से पिछड़ना ही था
  • offline
    संभल कर रहें, धोखे ही धोखे हैं डिजिटल वर्ल्ड में...
Copyright © 2025 Living Media India Limited. For reprint rights: Syndications Today.

Read :

  • Facebook
  • Twitter

what is Ichowk :

  • About
  • Team
  • Contact
Copyright © 2025 Living Media India Limited. For reprint rights: Syndications Today.
▲