अण्वस्त्रे कशी बनवायची? धोकादायक माहिती उघड करण्यासाठी कवितेच्या माध्यमातून AI ला चीट करणं शक्य!

जगभरात एआयचा वापर झपाट्याने वाढत आहे. पण एआयचा जितका फायदा आहे तितकाच तो धोकादायक असल्याचे उघड झाले आहे. तुम्ही एआयला जो प्रश्न विचाराल त्याचे अचूक उत्तर आपल्याला मिळते. पण आता एआय  याचीही माहिती देत असल्याचे उघड झाले आहे. OpenAI, Meta आणि Anthropic ने बनवलेल्या चॅटबॉट्सना केवळ कवितांच्या माध्यमातून प्रश्न विचारून धोकादायक माहिती उघड करण्यास प्रवृत्त केले जात असल्याचे युरोपमधील संशोधकांनी स्पष्ट केले आहे.

India Today ने दिलेल्या वृत्तानुसार, “अ‍ॅडव्हर्सरियल पोएट्री अ‍ॅज अ युनिव्हर्सल सिंगल-टर्न जेलब्रेक इन लार्ज लँग्वेज मॉडेल्स” या अभ्यासात याबाबतची माहिती उघड झाली आहे. यापूर्वी एआयने आत्महत्या करण्यास प्रवृत्त केल्याच्या बातम्या येत होत्या. आता एआय थेट अण्वस्त्रे कशी तयार करायची याबाबत माहिती देत असल्यामुळे आता सुरक्षेबाबत प्रश्न उपस्थित होऊ लागले आहेत. सर्वात प्रगतशील एआय मॉडेल्सना कलात्मक पद्धतीने विचारलेल्या प्रश्नांची उत्तरे देण्यास भाग पाडले जात आहे. रोमच्या सॅपिएन्झा विद्यापीठ आणि डेक्सएआय थिंक टँक यांच्या सहकार्याने इकारो लॅबने केलेल्या या संशोधनात ही धक्कादायक माहिती आढळून आली आहे.

एआयची सुरक्षा यंत्रणा ही बेकायदेशीर प्रश्न किंवा हॅकिंग सूचनांसारख्या धोकादायक promts ना शोधून त्यांना ब्लॉक करतात. हे फिल्टर कीवर्ड आणि एखाद्या विशिष्ट पॅटर्नच्या विश्लेषणावर अवलंबून असतात. दरम्यान, Icaro Lab च्या संशोधकांना असे आढळून आले की, काव्यात्मक पद्धतीने दिलेल्या प्रॉम्प्टवर तुम्हाला सहज त्याची माहिती उपलब्ध होतेय. जेव्हा AI ला कवितेतून काही प्रश्न केले जातात, तेव्हा तो इनपुटला धोका म्हणून मानणे थांबवतो. आणि त्याकडे creative writing म्हणून पाहिले जाते. त्यामुळे आता Creativity ही AI ची एक कमकुवत बाजू बनली आहे.

अशा चुकीच्या पद्धतीने AI ला दिलेले promts वैद्यकीय क्षेत्रासाठी धोकादायक ठरू शकते. संशोधकांच्या मते आता हॅकर्स किंवा वैज्ञानिकांमुळे एआयला धोका नसून तो एका कवीमुळे असू शकतो, असे त्यांचे म्हणणे आहे.