Meta Launches Llama 3.1. Open-Source AI Model That Surpasses GPT-4, Claude 3.5 In Some Benchmarks

Meta Launches Llama 3.1. Open-Source AI Model That Surpasses GPT-4, Claude 3.5 In Some Benchmarks


इस साल की शुरुआत में, मेटा ने आर्टिफिशियल इंटेलिजेंस (AI) में एक अभूतपूर्व विकास का संकेत दिया: एक ओपन-सोर्स मॉडल जो अग्रणी AI कंपनियों के शीर्ष मालिकाना मॉडल को टक्कर देने का दावा करता है। अब, इसने Llama 3.1 के लॉन्च के साथ इसे पूरा कर लिया है, जिसके बारे में मेटा का दावा है कि यह अब तक का सबसे उन्नत ओपन-सोर्स AI मॉडल है। कंपनी के अनुसार, यह कई प्रदर्शन मीट्रिक में GPT-4o और नए क्लाउड 3.5 सॉनेट से आगे निकल गया है।

मेटा ने AI असिस्टेंट की उपलब्धता का विस्तार किया, इमेज जेनरेशन को जोड़ा

इस रिलीज़ के साथ ही, Facebook की पैरेंट कंपनी Meta अपने Llama-संचालित AI असिस्टेंट की उपलब्धता को और अधिक क्षेत्रों में विस्तारित कर रही है और नए फीचर्स पेश कर रही है, जिसमें यूजर की उपस्थिति के आधार पर इमेज बनाने की क्षमता भी शामिल है। मेटा के सीईओ मार्क जुकरबर्ग ने भविष्यवाणी की है कि 2024 के अंत तक उनका AI असिस्टेंट सबसे ज़्यादा इस्तेमाल किया जाने वाला बन जाएगा, जो OpenAI के ChatGPT जैसे लोकप्रिय विकल्पों को पीछे छोड़ देगा।

यह भी पढ़ें: OnePlus Nord 4 बनाम Realme GT 6T: आपको कौन सा मिड-रेंजर खरीदना चाहिए?

“आज हम ओपन सोर्स AI को उद्योग मानक बनाने की दिशा में अगला कदम उठा रहे हैं। हम Llama 3.1 405B, पहला फ्रंटियर-लेवल ओपन सोर्स AI मॉडल, साथ ही नए और बेहतर Llama 3.1 70B और 8B मॉडल जारी कर रहे हैं। बंद मॉडलों की तुलना में बेहतर लागत/प्रदर्शन के अलावा, तथ्य यह है कि 405B मॉडल खुला है, जो इसे छोटे मॉडलों को ठीक करने और डिस्टिल करने के लिए सबसे अच्छा विकल्प बनाता है,” ज़करबर्ग ने फेसबुक पर लिखा।

लामा 3.1 इस साल की शुरुआत में जारी अपने पूर्ववर्तियों से एक महत्वपूर्ण छलांग का प्रतिनिधित्व करता है। सबसे शक्तिशाली संस्करण में 405 बिलियन पैरामीटर हैं और प्रशिक्षण के लिए 16,000 से अधिक उच्च-स्तरीय Nvidia H100 GPU की आवश्यकता है। जबकि मेटा ने विकास की सटीक लागत का खुलासा नहीं किया है, उद्योग विशेषज्ञों का अनुमान है कि यह केवल हार्डवेयर लागतों के आधार पर सैकड़ों मिलियन डॉलर में है।

एक बयान में, ज़करबर्ग ने कंपनी के तर्क को स्पष्ट किया, और लिनक्स जैसे ओपन-सोर्स सॉफ़्टवेयर की सफलता के साथ समानताएँ बताईं। उनका तर्क है कि ओपन-सोर्स AI मॉडल अंततः विकास की गति और समग्र प्रदर्शन के मामले में मालिकाना विकल्पों से आगे निकल जाएँगे, ठीक उसी तरह जैसे लिनक्स विभिन्न उपकरणों और प्लेटफ़ॉर्म पर प्रमुख ऑपरेटिंग सिस्टम बन गया है।

पर्याप्त निवेश को देखते हुए, कुछ लोग मेटा के इस निर्णय पर सवाल उठा सकते हैं कि वह लामा 3.1 को ओपन-सोर्स मॉडल के रूप में पेश करेगा, जिसमें बड़े पैमाने पर उपयोगकर्ताओं के लिए सीमित लाइसेंसिंग प्रतिबंध होंगे।

लामा 3.1 405B को विकसित करने में, मेटा ने 15 ट्रिलियन टोकन वाले एक व्यापक डेटासेट का उपयोग किया, जिसमें 2024 तक की जानकारी मौजूद है। संदर्भ के लिए, टोकन भाषा की छोटी इकाइयाँ हैं जिन्हें AI मॉडल पूर्ण शब्दों की तुलना में अधिक कुशलता से संसाधित करते हैं। इस डेटासेट का पैमाना बहुत बड़ा है, जो लगभग 750 बिलियन शब्दों के बराबर है।

हालांकि इस डेटासेट की नींव पूरी तरह से नई नहीं है – यह पिछले लामा पुनरावृत्तियों के लिए इस्तेमाल किए गए आधार पर आधारित है – मेटा ने अपनी डेटा प्रबंधन रणनीतियों में महत्वपूर्ण सुधार की रिपोर्ट की है। कंपनी ने कहा कि उन्होंने अपने डेटा क्यूरेशन के तरीकों को बेहतर बनाया है और अधिक सख्त गुणवत्ता नियंत्रण उपायों को लागू किया है। इन परिशोधनों का उद्देश्य इस नवीनतम मॉडल को बनाने के लिए उपयोग किए जाने वाले प्रशिक्षण डेटा की समग्र गुणवत्ता और प्रासंगिकता में सुधार करना था।



Source link

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *