Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the rank-math domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u827540122/domains/supremenews247.com/public_html/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the web-stories domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/u827540122/domains/supremenews247.com/public_html/wp-includes/functions.php on line 6114
Meta AI Segment Anything Model SAM 2 Mark Zuckerberg Instagram Show Video Steps Guide How To Use - Supreme News247
Supreme News247

Meta AI Segment Anything Model SAM 2 Mark Zuckerberg Instagram Show Video Steps Guide How To Use

Meta AI Segment Anything Model SAM 2 Mark Zuckerberg Instagram Show Video Steps Guide How To Use


मेटा ने एक उन्नत वीडियो-संपादन-अनुकूल आर्टिफिशियल इंटेलिजेंस (AI) मॉडल, सेगमेंट एनीथिंग मॉडल 2 (SAM 2) पेश किया है, जिसे जटिल कंप्यूटर विज़न कार्यों को संभालने के लिए डिज़ाइन किया गया है। सोमवार को की गई यह घोषणा पिछले साल लॉन्च किए गए पिछले संस्करण की तुलना में एक महत्वपूर्ण वृद्धि को दर्शाती है, जिसका उपयोग Instagram के बैकड्रॉप और कटआउट सुविधाओं में किया गया था। मेटा बॉस मार्क जुकरबर्ग ने एक मजेदार वीडियो में दिखाया कि नया फीचर कैसे काम करता है।

ज़करबर्ग ने जो पोस्ट किया वह इस प्रकार है:

यह भी पढ़ें: मेटा एआई स्टूडियो क्रिएटर्स को डिजिटल कम्पैनियन्स को जीवंत बनाने में मदद करेगा ताकि जुड़ाव को बढ़ाया जा सके। भारतीय उपयोगकर्ता अभी तक इसका उपयोग नहीं कर पाएंगे

सैम 2 क्या कर सकता है?

सैम 2 में उन्नत क्षमताएं हैं, जिसमें वीडियो के भीतर सेगमेंट की पहचान और ट्रैकिंग शामिल है। मेटा के अनुसार, मॉडल की क्षमताएं छवियों से आगे बढ़कर वीडियो फ़्रेम में वास्तविक समय की वस्तु ट्रैकिंग को शामिल करती हैं, यहां तक ​​कि चुनौतीपूर्ण परिदृश्यों में भी जहां वस्तुएं तेजी से चलती हैं, उपस्थिति बदलती हैं, या अस्पष्ट होती हैं।

नया मॉडल ट्रांसफॉर्मर आर्किटेक्चर पर आधारित है और इसमें स्ट्रीमिंग मेमोरी घटक शामिल है, जिससे यह वीडियो सेगमेंट को कुशलतापूर्वक प्रोसेस कर सकता है। मेटा ने इस बात पर जोर दिया कि SAM 2 को इसके व्यापक वीडियो सेगमेंटेशन डेटासेट पर प्रशिक्षित किया गया था, जिसे SA-V डेटासेट के रूप में जाना जाता है, जो विभिन्न अनुप्रयोगों में मजबूत प्रदर्शन सुनिश्चित करता है।

मेटा ने इस बात पर प्रकाश डाला कि एसएएम के प्रारंभिक संस्करण में विविध अनुप्रयोग थे, जैसे कि प्रवाल भित्तियों का विश्लेषण करने के लिए सोनार छवियों को विभाजित करने में समुद्री वैज्ञानिकों की सहायता करना, उपग्रह इमेजरी विश्लेषण के माध्यम से आपदा राहत में सहायता करना, और त्वचा कैंसर का पता लगाने के लिए सेलुलर छवियों को विभाजित करके चिकित्सा क्षेत्र में सहायता करना।

ओपन-सोर्स मॉडल के रूप में, SAM 2 का कोड और वेट मेटा के GitHub पेज पर उपलब्ध है, जिसे Apache 2.0 के तहत लाइसेंस प्राप्त है। यह लाइसेंस अनुसंधान, शैक्षणिक और गैर-वाणिज्यिक उपयोग की अनुमति देता है, जिससे व्यापक परीक्षण और नवाचार को बढ़ावा मिलता है।

मेटा का मानना ​​है कि SAM 2 वीडियो संपादन, AI-संचालित वीडियो निर्माण और मिश्रित-वास्तविकता अनुभवों को बेहतर बनाने में मदद करेगा। इसके अतिरिक्त, इसकी ऑब्जेक्ट-ट्रैकिंग सुविधा से विज़ुअल डेटा के एनोटेशन को सुव्यवस्थित करने की उम्मीद है, जिससे अन्य कंप्यूटर विज़न सिस्टम के प्रशिक्षण में सुधार होगा।

कुल मिलाकर, एसएएम 2 का प्रस्तुतीकरण एआई प्रौद्योगिकी को आगे बढ़ाने और तकनीक और वैज्ञानिक समुदायों के भीतर व्यापक उपयोग के लिए परिष्कृत उपकरण उपलब्ध कराने के लिए मेटा की प्रतिबद्धता को रेखांकित करता है।





Source link

Exit mobile version