Monday, April 27, 2026
spot_img
HomeTechnologyAre You Sure? पूछते ही बदल जाता है AI का जवाब! आखिर...

Are You Sure? पूछते ही बदल जाता है AI का जवाब! आखिर क्यों पलट जाते हैं चैटबॉट्स, जानिए पूरी जानकारी

Show Quick Read

Key points generated by AI, verified by newsroom

AI Chatbots: अगर आप रोजाना ChatGPT, Gemini या Claude जैसे AI चैटबॉट इस्तेमाल करते हैं तो आपने एक अजीब बात जरूर नोटिस की होगी. ये सिस्टम आम तौर पर बहुत आत्मविश्वास से भरे, सधे हुए जवाब देते हैं. लेकिन जैसे ही आप पूछते हैं, “क्या आप पक्के हैं?” या “Are you sure?”, वही जवाब अचानक बदल सकता है. कई बार नया उत्तर पहले वाले से अलग बल्कि पूरी तरह उल्टा भी होता है. अगर आप बार-बार चुनौती देते रहें तो मॉडल फिर से अपना रुख बदल सकता है. सवाल यह है कि ऐसा क्यों होता है? क्या AI को अपने जवाब पर भरोसा नहीं होता?

साइकोफैंसी यानी खुश करने की प्रवृत्ति

इस व्यवहार को तकनीकी दुनिया में साइकोफैंसी कहा जाता है यानी यूजर को खुश करने या उसकी बात से सहमत होने की प्रवृत्ति. Randal S. Olson जो Goodeye Labs के सह-संस्थापक और CTO हैं बताते हैं कि यह आधुनिक AI सिस्टम की एक जानी-पहचानी कमजोरी है.

दरअसल, इन मॉडलों को इस तरह प्रशिक्षित किया जाता है कि वे मानव प्रतिक्रिया के आधार पर बेहतर बनें. इस प्रक्रिया को RLHF (Reinforcement Learning from Human Feedback) कहा जाता है. इसी ट्रेनिंग के कारण चैटबॉट ज्यादा सभ्य, संवादात्मक और कम आपत्तिजनक बनते हैं. लेकिन इसका एक साइड इफेक्ट भी है वे असहमति जताने के बजाय सहमति की ओर झुक जाते हैं.

सच बोलने पर सजा, सहमत होने पर इनाम?

AI मॉडल को स्कोरिंग सिस्टम के जरिए सुधारा जाता है. अगर उसका जवाब यूज़र को पसंद आता है या सहमतिपूर्ण लगता है तो उसे बेहतर रेटिंग मिलती है. लेकिन अगर वह यूज़र की राय से टकराता है तो उसे कम स्कोर मिल सकता है. इससे एक तरह का चक्र बन जाता है जिसमें मॉडल धीरे-धीरे वही कहने लगता है जो सामने वाला सुनना चाहता है.

Anthropic ने 2023 में प्रकाशित एक शोध में दिखाया था कि मानव प्रतिक्रिया पर प्रशिक्षित मॉडल कई बार सटीक होने से ज्यादा ‘सहमत’ होने को प्राथमिकता देते हैं.

रिसर्च में क्या सामने आया?

एक अन्य अध्ययन में GPT-4o, Claude Sonnet और Gemini 1.5 Pro को गणित और मेडिकल जैसे गंभीर विषयों पर परखा गया. नतीजे चौंकाने वाले थे यूजर द्वारा चुनौती दिए जाने पर इन मॉडलों ने लगभग 60% मामलों में अपना जवाब बदल दिया. यानी यह कोई इक्का-दुक्का गलती नहीं, बल्कि एक आम प्रवृत्ति है.

जब बहुत ज्यादा सहमत हो गया AI

पिछले साल अप्रैल में OpenAI ने GPT-4o का एक अपडेट जारी किया, जिसके बाद चैटबॉट इतना ज्यादा सहमत और चापलूस हो गया कि उसका इस्तेमाल करना मुश्किल लगने लगा. कंपनी के CEO Sam Altman ने इस समस्या को स्वीकार किया और सुधार का दावा भी किया लेकिन विशेषज्ञों का मानना है कि जड़ में मौजूद समस्या अभी पूरी तरह खत्म नहीं हुई है.

यह भी पढ़ें:

फोन हो गया चोरी? घबराएं नहीं! Google की इस ट्रिक से मिनटों में ऐसे लगा सकते हैं पता, नहीं पड़ेगी किसी ऐप की जरूरत

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments