अगर आप यह सोचते हैं कि ChatGPT जैसे AI टूल्स सिर्फ बिजली पर चलते हैं, तो ज़रा रुकिए! अमेरिका में हुई एक स्टडी ने चौंकाने वाला खुलासा किया है—ChatGPT जैसे AI मॉडल को ठंडा रखने के लिए पानी की भी जरूरत होती है, और एक यूज़र के सवाल का जवाब देने में लगभग 500ml पानी खर्च होता है।
ChatGPT एक सवाल का जवाब देने में कितना पानी पीता है?
University of California, Riverside और Washington Post की एक जॉइंट रिपोर्ट के अनुसार,
“ChatGPT से हर एक सवाल पूछने पर लगभग आधा लीटर पानी की खपत होती है।”
यह पानी सीधे कंप्यूटर नहीं पीते, बल्कि डेटा सेंटर्स की सर्वरों को कूल रखने के लिए उपयोग होता है।
डेटा सेंटर्स को ठंडा रखने के लिए क्यों जरूरी है पानी?
ChatGPT जैसे AI मॉडल हाई परफॉर्मेंस सर्वर्स पर चलते हैं, जो लगातार गर्मी उत्पन्न करते हैं। इन्हें ठंडा रखने के लिए दो प्रमुख सिस्टम्स का इस्तेमाल होता है:
-
Evaporative Cooling System — पानी को भाप बनाकर तापमान कम किया जाता है।
-
Air Conditioning System — पारंपरिक एसी से ठंडा किया जाता है।
इन कूलिंग सिस्टम्स के लिए हर बार जब यूज़र सवाल करता है, तब पानी खर्च होता है।
ChatGPT कितना बिजली खाता है?
AI सिर्फ पानी ही नहीं, बल्कि भारी मात्रा में बिजली भी खपत करता है।
अगर करोड़ों लोग एक साथ AI टूल्स का उपयोग करें, तो पूरा शहर जितनी बिजली लग सकती है।
ऐसे में जब बिजली कोयले जैसे गैर-नवीकरणीय संसाधनों से आती है, तो कार्बन उत्सर्जन (CO₂ Emissions) बढ़ जाता है।
AI बन सकता है पर्यावरण संकट की वजह?
-
जिन इलाकों में पहले से जल संकट है, वहां डेटा सेंटर्स स्थिति और बिगाड़ सकते हैं।
-
लगातार बिजली की मांग से एनर्जी सिस्टम पर भारी दबाव पड़ रहा है।
-
यदि रिन्यूएबल एनर्जी का उपयोग न हो, तो पर्यावरणीय असर और गहरा हो सकता है।