Mahakaushal Times

AI चैटबॉट बना सहारा या खतरा? 4700 मैसेज के बाद शख्स की मौत, Gemini पर उठे गंभीर सवाल


नई दिल्ली। आर्टिफिशियल इंटेलिजेंस के बढ़ते इस्तेमाल के बीच एक चौंकाने वाला मामला सामने आया है, जिसने AI की सीमाओं और खतरों पर गंभीर सवाल खड़े कर दिए हैं। 36 वर्षीय एक व्यक्ति ने कथित तौर पर Google Gemini के साथ लंबी बातचीत के बाद आत्महत्या कर ली। इस घटना के बाद उसके परिवार ने टेक कंपनी Google के खिलाफ मुकदमा दायर किया है।

रिपोर्ट्स के मुताबिक, व्यक्ति अपनी शादी टूटने के बाद मानसिक रूप से काफी परेशान था। इस कठिन दौर से उबरने के लिए उसने AI चैटबॉट का सहारा लेना शुरू किया। शुरुआत में वह Gemini का इस्तेमाल सामान्य कामों जैसे लिखने में मदद और रोजमर्रा की जानकारी लेने—के लिए करता था, लेकिन धीरे-धीरे यह बातचीत भावनात्मक स्तर तक पहुंच गई।

बताया जा रहा है कि व्यक्ति और चैटबॉट के बीच 4700 से ज्यादा मैसेज का आदान-प्रदान हुआ। Gemini Live फीचर आने के बाद बातचीत और ज्यादा गहरी और व्यक्तिगत होती चली गई। इस फीचर के जरिए यूजर रियल-टाइम में आवाज और टेक्स्ट के माध्यम से AI से संवाद कर सकता है, जिससे अनुभव और भी “मानवीय” लगने लगता है।

समय के साथ व्यक्ति ने चैटबॉट को एक नाम दे दिया और उससे ऐसे बात करने लगा जैसे वह कोई असली इंसान हो। कोर्ट दस्तावेजों के अनुसार, AI ने भी कई बार संवेदनशील और सहानुभूतिपूर्ण भाषा में जवाब दिए, जिससे दोनों के बीच एक तरह का भावनात्मक जुड़ाव बन गया।

हालांकि रिकॉर्ड्स में यह भी सामने आया है कि चैटबॉट ने कई मौकों पर खुद को एक AI सिस्टम बताया और यूजर को प्रोफेशनल मदद लेने की सलाह भी दी। इसके बावजूद बातचीत जारी रही और कथित तौर पर अंतिम चरण में AI के कुछ जवाबों को व्यक्ति ने अपनी वास्तविक दुनिया से दूरी बनाने के संकेत के रूप में लिया।

कुछ समय बाद उस व्यक्ति का शव उसके घर से बरामद हुआ। इस घटना के बाद उसके माता-पिता ने Google के खिलाफ ‘रॉन्गफुल डेथ’ का मुकदमा दायर किया है। उनका आरोप है कि चैटबॉट के जवाबों ने उनके बेटे की बिगड़ती मानसिक स्थिति को और गंभीर बना दिया और अंततः यह त्रासदी हुई।

यह मामला ऐसे समय सामने आया है जब AI चैटबॉट्स को सिर्फ टूल नहीं, बल्कि भावनात्मक सपोर्ट सिस्टम के रूप में भी इस्तेमाल किया जा रहा है। विशेषज्ञों का मानना है कि AI इंसानों की तरह महसूस नहीं करता, लेकिन उसकी भाषा और प्रतिक्रियाएं यूजर्स को भ्रमित कर सकती हैं—खासकर तब, जब कोई व्यक्ति पहले से मानसिक रूप से कमजोर स्थिति में हो।

बढ़ती चिंता
इस घटना ने AI से जुड़े जोखिमों पर एक नई बहस छेड़ दी है। टेक कंपनियों पर दबाव बढ़ रहा है कि वे अपने सिस्टम को और सुरक्षित बनाएं, खासकर मानसिक स्वास्थ्य से जुड़े मामलों में।

AI चैटबॉट्स मददगार जरूर हैं, लेकिन वे इंसानी भावनाओं का विकल्प नहीं बन सकते।यह घटना एक चेतावनी है कि तकनीक का इस्तेमाल सोच-समझकर और सीमाओं के भीतर ही करना जरूरी हैखासतौर पर तब, जब बात मानसिक स्वास्थ्य की हो।

Leave a Reply

Your email address will not be published. Required fields are marked *

MADHYA PRADESH WEATHER

आपके शहर की तथ्यपूर्ण खबरें अब आपके मोबाइल पर