OpenAI के नए AI मॉडल्स क्यों बना रहे हैं ज्यादा फर्जी जवाब?
OpenAI के नए o3 और o4-mini AI मॉडल्स पुराने मॉडल्स की तुलना में ज्यादा हॉलुसिनेट कर रहे हैं, जो AI की दुनिया में एक बड़ी चुनौती बनकर उभरा है।

OpenAI के हाल ही में लॉन्च किए गए o3 और o4-mini AI मॉडल्स कई मायनों में तो बेहतर हैं, लेकिन एक बड़ी समस्या यह है कि ये मॉडल्स ज्यादा हॉलुसिनेट कर रहे हैं। यानी, ये बिना किसी आधार के चीजें गढ़ रहे हैं। और हैरानी की बात यह है कि OpenAI को भी नहीं पता कि ऐसा क्यों हो रहा है।
OpenAI के इंटरनल टेस्ट्स के मुताबिक, o3 और o4-mini, जिन्हें ‘रीजनिंग मॉडल्स’ कहा जाता है, पुराने मॉडल्स की तुलना में ज्यादा हॉलुसिनेट करते हैं। उदाहरण के लिए, PersonQA पर o3 ने 33% सवालों के जवाब में हॉलुसिनेशन दिखाया, जो पिछले मॉडल्स के मुकाबले लगभग दोगुना है।
इसके अलावा, Transluce नाम की एक AI रिसर्च लैब ने पाया कि o3 कभी-कभी ऐसी एक्शन्स का दावा करता है जो उसने की ही नहीं, जैसे कि कोड को किसी MacBook Pro पर रन करने का।
हालांकि, कुछ एक्सपर्ट्स का मानना है कि ये मॉडल्स कोडिंग और मैथ्स जैसे टास्क्स में बेहतर परफॉर्म करते हैं। लेकिन जब बात एक्यूरेसी की आती है, तो ये मॉडल्स बिजनेस के लिए थोड़े रिस्की हो सकते हैं, खासकर ऐसे सेक्टर्स में जहां एक्यूरेसी सबसे ज्यादा मायने रखती है, जैसे कि लॉ फर्म्स।
OpenAI का कहना है कि वे इस समस्या को सुलझाने के लिए लगातार रिसर्च कर रहे हैं। एक संभावित समाधान वेब सर्च कैपेबिलिटीज हो सकती हैं, जैसा कि GPT-4o में देखने को मिला है। लेकिन अगर रीजनिंग मॉडल्स को स्केल करने से हॉलुसिनेशन बढ़ता है, तो यह AI इंडस्ट्री के लिए एक बड़ी चुनौती बन सकता है।