ChatGPT and DeepSeek: भारत की एआई महत्वाकांक्षाएं एक मजबूत बुनियादी ढांचे द्वारा समर्थित हैं, जिसने 10,000 जीपीयू हासिल करने के अपने प्रारंभिक लक्ष्य को पार कर लिया है और अब कुल मिलाकर 18,600 जीपीयू हासिल कर लिए हैं.
भारत आर्टिफिशियल इंटेलिजेंस (AI) में एक बड़ी उन्नति के लिए कमर कस रहा है, जिसमें चैटजीपीटी और डीपसीक जैसी लोकप्रिय प्रणालियों के समान अपना स्वयं का बड़ा भाषा मॉडल (LLM) विकसित करने की योजना है.
आईटी मंत्री अश्विनी वैष्णव ने घोषणा की कि अगले 10 महीनों के भीतर AI मॉडल तैयार हो जाएगा. उत्कर्ष ओडिशा कॉन्क्लेव में बोलते हुए, वैष्णव ने कहा कि आधारभूत कार्य पहले ही हो चुका है, और सरकार अब भारतीय उपयोगकर्ताओं की अनूठी जरूरतों को पूरा करने के लिए एक प्रणाली बनाने पर ध्यान केंद्रित कर रही है.
भारत की AI महत्वाकांक्षाओं को एक मजबूत बुनियादी ढांचे द्वारा समर्थित किया जाता है, जिसने 10,000 GPU हासिल करने के अपने शुरुआती लक्ष्य को पार कर लिया है और अब कुल मिलाकर 18,600 GPU हासिल कर लिए हैं. यह शक्तिशाली कंप्यूटिंग क्षमता देश के आगामी AI मॉडल को प्रशिक्षित करने के लिए महत्वपूर्ण होगी.
इनमें से ज्यादातर GPU हाई-परफॉर्मेंस मॉडल हैं जैसे NVIDIA H100, H200 और MI325. इसे परिप्रेक्ष्य में रखें तो, DeepSeek AI को 2,500 GPU के साथ प्रशिक्षित किया गया था और ChatGPT ने 25,000 का इस्तेमाल किया था, जबकि भारत में अब 15,000 से ज्यादा टॉप-टियर GPU हैं, जो इसे वैश्विक AI दौड़ में मज़बूत स्थिति में रखते हैं. वैष्णव ने इस बात पर जोर दिया कि यह बुनियादी ढांचा दुनिया के सर्वश्रेष्ठ के साथ प्रतिस्पर्धा करने में सक्षम AI मॉडल विकसित करने में महत्वपूर्ण होगा.