संयुक्त राज्य अमेरिका में कृत्रिम बुद्धिमत्ता (AI) का दुरुपयोग कर एक धोखाधड़ी का मामला सामने आया है। किसी अज्ञात व्यक्ति ने AI द्वारा तैयार की गई नकली आवाज़ का उपयोग करके अमेरिकी विदेश मंत्री की पहचान की नकल की और कई देशों के विदेश मंत्रियों व सरकारी अधिकारियों से संपर्क किया, जिससे साइबर सुरक्षा और कूटनीतिक भरोसे को लेकर गंभीर चिंताएं उठ रही हैं।
8 जुलाई 2025 को, कई अमेरिकी मीडिया स्रोतों और रॉयटर्स ने रिपोर्ट दी कि एक अज्ञात व्यक्ति ने AI से तैयार की गई आवाज़ का उपयोग कर अमेरिकी विदेश मंत्री मार्को रूबियो की नकल की और तीन विदेशी मंत्रियों तथा दो अमेरिकी अधिकारियों से संपर्क किया। यह संचार एन्क्रिप्टेड मैसेजिंग ऐप Signal के माध्यम से हुआ और इसमें वॉयस मैसेज के साथ-साथ टेक्स्ट संदेश भी थे, जो उत्तर देने के लिए प्रेरित करते थे।
राजनयिक दस्तावेज़ों के अनुसार, इस व्यक्ति ने जून के मध्य में विदेश मंत्रियों, सांसदों और राज्यपालों से संपर्क करने की कोशिश की थी, जिसमें अत्यंत यथार्थवादी आवाज़ का प्रयोग किया गया था। कम से कम दो व्यक्तियों को ये आवाज़ संदेश प्राप्त हुए थे।
उसी दिन, अमेरिकी विदेश मंत्रालय के प्रवक्ता मैथ्यू मिलर ने एक प्रेस वार्ता में पुष्टि की कि “रिपोर्ट की गई जानकारी सही है” और बताया कि जांच चल रही है।
“हम जानकारी की सुरक्षा को अत्यंत गंभीरता से लेते हैं। भविष्य में इस प्रकार की घटनाओं से बचने के लिए हम साइबर सुरक्षा ढांचे को लगातार मजबूत करने के लिए प्रतिबद्ध हैं।” हालांकि, उन्होंने यह कहते हुए संदेशों की सटीक सामग्री या लक्षित व्यक्तियों के नामों को उजागर करने से इनकार कर दिया कि जांच जारी है।
यह घटना दर्शाती है कि डीपफेक और AI-जनित आवाज़ जैसी तकनीकें साइबर अपराध और राजनीतिक हस्तक्षेप के लिए उपयोग की जा सकती हैं।
3 जुलाई को अमेरिकी राजनयिक तार में उल्लेख किया गया कि “AI द्वारा निर्मित आवाज़ और टेक्स्ट संदेशों का उद्देश्य लक्षित व्यक्तियों को प्रभावित करना और संवेदनशील जानकारी या खाता एक्सेस प्राप्त करना हो सकता है।” इसमें डेटा लीक के संभावित जोखिमों की भी चेतावनी दी गई है।
AI तकनीक की प्रगति के साथ, दृश्य और श्रवण धोखे की क्षमताएं अत्यधिक स्वाभाविक हो गई हैं, और सामाजिक अभियंत्रण की तकनीकें भी अब और अधिक परिष्कृत हो चुकी हैं। इस तरह की "हाई-टेक धोखाधड़ी" देशों के बीच विश्वास और राजनयिक प्रक्रियाओं को खतरे में डाल सकती हैं।
वास्तव में, इसी तरह की घटना मई में भी हुई थी जब व्हाइट हाउस के चीफ ऑफ स्टाफ जेफ़ ज़िएंट्स की आवाज़ में एक नकली कॉल कई सीनेटरों को प्राप्त हुई थी। उस समय भी AI से आवाज़ तैयार की गई होने का संदेह था, जिससे सरकार में निवारक उपायों की तत्काल आवश्यकता महसूस की गई थी।
यह नवीनतम मामला उस प्रवृत्ति की निरंतरता के रूप में देखा जा रहा है, और यह दर्शाता है कि AI-संचालित “पहचान-धोखाधड़ी साइबर हमले” अब राजनीति और कूटनीति के क्षेत्रों में भी प्रवेश कर रहे हैं।
ऐसी घटनाओं की पुनरावृत्ति को रोकने के लिए केवल घरेलू कानून में बदलाव पर्याप्त नहीं है, बल्कि अंतरराष्ट्रीय स्तर पर AI नियमन रूपरेखा का निर्माण करना भी आवश्यक है। उच्च जोखिम वाले लक्ष्य जैसे कि सरकारी अधिकारी और राजनयिकों के लिए उन्नत आवाज़ प्रमाणीकरण और पहचान सत्यापन प्रणाली की आवश्यकता है।
वहीं, जनरेटिव AI को व्यवसाय और रचनात्मक क्षेत्रों में वैध रूप से व्यापक रूप से उपयोग किया जा रहा है। इसलिए इसकी "प्रकाश और छाया" दोनों को संतुलित करने वाली नियामक नीति की आवश्यकता है।
यह घटना दर्शाती है कि कूटनीति जैसे राज्य के मूलभूत क्षेत्रों में भी AI तकनीक से उत्पन्न नकलीपन और धोखाधड़ी एक वास्तविक खतरा बन सकते हैं। जानकारी की सत्यता पहचानने की मीडिया साक्षरता और तकनीकी व संस्थागत सुरक्षा उपायों का सुदृढ़ीकरण अब अत्यधिक आवश्यक हो गया है।
वैश्विक राजनीति और अर्थव्यवस्था से जुड़ी ताज़ा खबरों के लिए:
FIXIO ब्लॉग पर और पढ़ें
यह लेख 9 जुलाई 2025 तक की रिपोर्टों और अमेरिकी सरकार के आधिकारिक बयानों पर आधारित है। कृपया ध्यान दें कि इसमें हालिया घटनाक्रम शामिल नहीं हो सकते हैं।
इसके अतिरिक्त, जो Wikipedia लिंक दिए गए हैं वे तीसरे पक्ष द्वारा संपादित किए गए हैं और हमेशा सटीक नहीं हो सकते। कृपया उपयोग से पहले जानकारी की स्वयं पुष्टि करें।
एनडीडी पद्धति के साथ श्रेष्ठ ट्रेड निष्पादन और ट्रेडिंग शर्तें।
ऑनलाइन एफएक्स उद्योग दुनिया भर के निवेशकों को खरीद और बिक्री में भाग लेने के लिए एक मंच प्रदान करता है।
हमारी दैनिक न्यूज़लेटर को सब्सक्राइब करें और बेहतरीन फॉरेक्स ट्रेडिंग जानकारी और मार्केट्स की स्थिति अपडेट प्राप्त करें।
सर्वश्रेष्ठ ट्रेडिंग ऐप अब अपना खाता खोलें!
मिनटों में ट्रेड करें!
टिप्पणी (0)