Menu
Select Language
EN
HI

AI सुरक्षा की नई चुनौती: एक चर्चा

A

ATHARV

Jan 02, 2026 • 19 Views

AI सुरक्षा की नई चुनौती: एक चर्चा

 

 क्या कविता से टूट सकती है AI की सुरक्षा?  क्या आप सोच सकते हैं कि एक साधारण सी कविता दुनिया के सबसे शक्तिशाली AI सिस्टम, जैसे ChatGPT और Gemini, को 'हैक' कर सकती है? हाल ही में हुए एक रिसर्च में कुछ ऐसे खुलासे हुए हैं जिसने तकनीकी दुनिया में हलचल मचा दी है।

 

दोस्तों, 'इंटरनेशनल बिजनेस टाइम्स' में छपी एक स्टडी के अनुसार, शोधकर्ताओं ने पाया कि इन मॉडल्स को 62% बार प्रतिबंधित या हानिकारक जवाब देने के लिए उकसाया जा सकता है। और इसके लिए किसी 'डूम्सडे कोड' की नहीं, बल्कि सिर्फ काव्यात्मक भाषा (Poetry) की जरूरत पड़ी।

 

अब आप सोच रहे होंगे कि कविता कैसे खतरनाक हो सकती है? असल में, हम कविता का इस्तेमाल प्यार का इज़हार करने के लिए करते हैं, लेकिन शोधकर्ताओं ने इसे एक सुरक्षा हथियार (security exploit) की तरह इस्तेमाल किया। उन्होंने पाया कि जब किसी खतरनाक निर्देश को तुकबंदी या रूपकों (rhyming metaphors) में छिपाकर पूछा जाता है, तो AI के सुरक्षा फिल्टर्स उसे पहचान नहीं पाते।

 

यह समस्या नई नहीं है। पिछले साल, एंथ्रोपिक (Anthropic) के Claude मॉडल में भी ऐसी ही खामी देखी गई थी, जहाँ काल्पनिक कहानियों में छिपे 'स्लीपर प्रॉम्प्ट्स' (sleeper prompts) के जरिए जैविक खतरों (biological threats) से जुड़ी जानकारी निकाली जा सकती थी।

 

यहाँ सबसे बड़ी समस्या यह है कि AI के सुरक्षा नियंत्रण अक्सर केवल ऊपरी संकेतों (surface cues) को देखते हैं। वे गहराई में छिपे इरादे (intentionality) को समझने में नाकाम रहते हैं। हालांकि OpenAI और Google का दावा है कि उनके सुरक्षा घेरे (guardrails) पहले से कहीं ज्यादा मजबूत हैं, लेकिन यह स्टडी बताती है कि लैब के दावों और असल दुनिया के परीक्षणों में बहुत बड़ा अंतर है।,

 

तो इसका समाधान क्या है? विशेषज्ञ मानते हैं कि हमें बेहतर 'एडवरसैरियल ट्रेनिंग' (adversarial training) और स्वतंत्र 'रेड-टीम' (Red-team) संगठनों की जरूरत है जो इन खामियों को पहचान सकें। यूरोपियन यूनियन का AI Act भी इसी तरह के उच्च-जोखिम वाले व्यवहार को नियंत्रित करने की कोशिश कर रहा है।

[Conclusion]

अंत में, यह रिसर्च हमें याद दिलाती है कि हमारे सबसे आधुनिक सिस्टम भी पूरी तरह सुरक्षित नहीं हैं। कभी-कभी एक खतरनाक सवाल का जवाब पाने के लिए बस एक 'कवि' की तरह सोचने की जरूरत होती है।

आप इस बारे में क्या सोचते हैं? क्या AI को कभी पूरी तरह सुरक्षित बनाया जा सकता है? कमेंट्स में जरूर बताएं! और ऐसी ही टेक खबरों के लिए सब्सक्राइब करें।

 

Discussion