सदस्य:2240249anjalysanjayjain/प्रयोगपृष्ठ-2
न्यूरल नेटवर्क
संपादित करेंन्यूरल नेटवर्क जैविक न्यूरॉन्स का एक न्यूरल सर्किट है, जिसे कभी-कभी जैविक न्यूरल नेटवर्क भी कहा जाता है, या कृत्रिम न्यूरल नेटवर्क के मामले में कृत्रिम न्यूरॉन्स या नोड्स का नेटवर्क भी कहा जाता है।[1]
कृत्रिम न्यूरल नेटवर्क का उपयोग कृत्रिम बुद्धिमत्ता (एआई) समस्याओं को हल करने के लिए किया जाता है; वे नोड्स के बीच भार के रूप में जैविक न्यूरॉन्स के कनेक्शन को मॉडल करते हैं। एक सकारात्मक वजन एक उत्तेजक संबंध को दर्शाता है, जबकि नकारात्मक मूल्यों का मतलब निरोधात्मक कनेक्शन है। सभी इनपुट को एक भार द्वारा संशोधित किया जाता है और सारांशित किया जाता है। इस गतिविधि को रैखिक संयोजन कहा जाता है। अंत में, एक सक्रियण फ़ंक्शन आउटपुट के आयाम को नियंत्रित करता है। उदाहरण के लिए, आउटपुट की स्वीकार्य सीमा आमतौर पर 0 और 1 के बीच होती है, या यह −1 और 1 हो सकती है।
इन कृत्रिम नेटवर्क का उपयोग पूर्वानुमानित मॉडलिंग, अनुकूली नियंत्रण और अनुप्रयोगों के लिए किया जा सकता है जहां उन्हें डेटासेट के माध्यम से प्रशिक्षित किया जा सकता है। अनुभव से उत्पन्न स्व-शिक्षा नेटवर्क के भीतर हो सकती है, जो जानकारी के एक जटिल और प्रतीत होता है असंबंधित सेट से निष्कर्ष निकाल सकती है।[2]
अवलोकन
संपादित करेंएक जैविक न्यूरल नेटवर्क रासायनिक रूप से जुड़े या कार्यात्मक रूप से जुड़े न्यूरॉन्स के एक समूह से बना होता है। एक न्यूरॉन कई अन्य न्यूरॉन से जुड़ा हो सकता है और एक नेटवर्क में न्यूरॉन्स और कनेक्शन की कुल संख्या व्यापक हो सकती है। कनेक्शन, जिन्हें सिनैप्स कहा जाता है, आमतौर पर अक्षतंतु से डेंड्राइट तक बनते हैं, हालांकि डेंड्रोडेंड्रिटिक सिनेप्सेस और अन्य कनेक्शन संभव हैं। विद्युत सिग्नलिंग के अलावा, सिग्नलिंग के अन्य रूप भी हैं जो न्यूरोट्रांसमीटर प्रसार से उत्पन्न होते हैं।
कृत्रिम बुद्धिमत्ता, संज्ञानात्मक मॉडलिंग और न्यूरल नेटवर्क सूचना प्रसंस्करण प्रतिमान हैं जो इस बात से प्रेरित हैं कि जैविक न्यूरल तंत्र डेटा को कैसे संसाधित करते हैं। कृत्रिम बुद्धिमत्ता और संज्ञानात्मक मॉडलिंग जैविक न्यूरल नेटवर्क के कुछ गुणों का अनुकरण करने का प्रयास करते हैं। कृत्रिम बुद्धिमत्ता क्षेत्र में, सॉफ्टवेयर एजेंटों (कंप्यूटर और वीडियो गेम में) या स्वायत्त रोबोट के निर्माण के लिए कृत्रिम न्यूरल नेटवर्क को भाषण पहचान, छवि विश्लेषण और अनुकूली नियंत्रण में सफलतापूर्वक लागू किया गया है।
ऐतिहासिक रूप से, डिजिटल कंप्यूटर वॉन न्यूमैन मॉडल से विकसित हुए, और कई प्रोसेसरों द्वारा मेमोरी तक पहुंच के माध्यम से स्पष्ट निर्देशों के निष्पादन के माध्यम से संचालित होते हैं। दूसरी ओर, न्यूरल नेटवर्क की उत्पत्ति जैविक प्रणालियों में सूचना प्रसंस्करण के मॉडल के प्रयासों पर आधारित है। वॉन न्यूमैन मॉडल के विपरीत, न्यूरल नेटवर्क कंप्यूटिंग मेमोरी और प्रोसेसिंग को अलगअलेक्जेंडर बैन नहीं करता है।
न्यूरल नेटवर्क सिद्धांत ने बेहतर ढंग से पहचानने में मदद की है कि मस्तिष्क में न्यूरॉन्स कैसे कार्य करते हैं और कृत्रिम बुद्धि बनाने के प्रयासों के लिए आधार प्रदान करते हैं।
इतिहास
संपादित करेंसमकालीन न्यूरल नेटवर्क के लिए प्रारंभिक सैद्धांतिक आधार स्वतंत्र रूप से अलेक्जेंडर बैन[3] (1873) और विलियम जेम्स (1890) द्वारा प्रस्तावित किया गया था। उनके काम में, विचार और शरीर की गतिविधि दोनों मस्तिष्क के भीतर न्यूरॉन्स के बीच बातचीत से उत्पन्न हुईं।
पिरामिड न्यूरॉन्स के डेन्ड्राइट की शाखा वास्तुकला का कंप्यूटर सिमुलेशन बैन के लिए, प्रत्येक गतिविधि के कारण न्यूरॉन्स के एक निश्चित समूह को सक्रिय किया गया। जब गतिविधियाँ दोहराई गईं, तो उन न्यूरॉन्स के बीच संबंध मजबूत हो गए। उनके सिद्धांत के अनुसार, इस दोहराव के कारण ही स्मृति का निर्माण हुआ। उस समय सामान्य वैज्ञानिक समुदाय को बेन के सिद्धांत पर संदेह था क्योंकि इसके लिए मस्तिष्क के भीतर अत्यधिक संख्या में न्यूरल कनेक्शन की आवश्यकता होती थी। अब यह स्पष्ट है कि मस्तिष्क अत्यधिक जटिल है और एक ही मस्तिष्क "वायरिंग" कई समस्याओं और इनपुट को संभाल सकता है।
जेम्स का सिद्धांत बेन के समान था; हालांकि, उन्होंने सुझाव दिया कि यादें और क्रियाएं मस्तिष्क में न्यूरॉन्स के बीच विद्युत धाराओं के प्रवाह के परिणामस्वरूप होती हैं। विद्युत धाराओं के प्रवाह पर ध्यान केंद्रित करके उनके मॉडल को प्रत्येक मेमोरी या क्रिया के लिए व्यक्तिगत न्यूरल कनेक्शन की आवश्यकता नहीं थी।
सी. एस. शेरिंगटन[4](1898) ने जेम्स के सिद्धांत का परीक्षण करने के लिए प्रयोग किए। उन्होंने चूहों की रीढ़ की हड्डी में विद्युत धारा प्रवाहित कर दी। हालाँकि, जेम्स द्वारा अनुमानित विद्युत धारा में वृद्धि प्रदर्शित करने के बजाय, शेरिंगटन ने पाया कि समय के साथ परीक्षण जारी रहने के कारण विद्युत धारा की ताकत कम हो गई। महत्वपूर्ण बात यह है कि इस कार्य से आवास की अवधारणा की खोज हुई।
विल्हेम लेन्ज़ (1920) और अर्न्स्ट इज़िंग (1925) ने इज़िंग मॉडल[5] का निर्माण और विश्लेषण किया जो अनिवार्य रूप से एक गैर-सीखने वाला कृत्रिम आवर्तक न्यूरल नेटवर्क (आरएनएन) है जिसमें न्यूरॉन जैसे थ्रेशोल्ड तत्व शामिल हैं। 1972 में, शुनिची अमारी ने इस वास्तुकला को अनुकूल बनाया।उनकी सीख आरएनएन को जॉन हॉपफील्ड ने 1982 में लोकप्रिय बनाया था। मैककुलोच और पिट्स (1943) ने गणित और एल्गोरिदम पर आधारित न्यूरल नेटवर्क के लिए एक कम्प्यूटेशनल मॉडल भी बनाया। उन्होंने इस मॉडल को थ्रेशोल्ड लॉजिक कहा। इन शुरुआती मॉडलों ने न्यूरल नेटवर्क अनुसंधान को दो अलग-अलग दृष्टिकोणों में विभाजित करने का मार्ग प्रशस्त किया। एक दृष्टिकोण मस्तिष्क में जैविक प्रक्रियाओं पर केंद्रित था और दूसरा कृत्रिम बुद्धिमत्ता में न्यूरल नेटवर्क के अनुप्रयोग पर केंद्रित था।
1940 के दशक के अंत में मनोवैज्ञानिक डोनाल्ड हेब्ब ने न्यूरल प्लास्टिसिटी के तंत्र के आधार पर सीखने की एक परिकल्पना बनाई जिसे अब हेब्बियन लर्निंग के रूप में जाना जाता है। हेब्बियन शिक्षण को एक 'विशिष्ट' बिना पर्यवेक्षित शिक्षण नियम माना जाता है और इसके बाद के संस्करण दीर्घकालिक क्षमता के शुरुआती मॉडल थे। इन विचारों को 1948 में ट्यूरिंग की बी-टाइप मशीनों के साथ कम्प्यूटेशनल मॉडल पर लागू किया जाने लगा।
फ़ार्ले और क्लार्क[6] (1954) ने एमआईटी में हेब्बियन नेटवर्क का अनुकरण करने के लिए पहली बार कम्प्यूटेशनल मशीनों का उपयोग किया, जिन्हें बाद में कैलकुलेटर कहा जाता था। अन्य न्यूरल नेटवर्क कम्प्यूटेशनल मशीनें रोचेस्टर, हॉलैंड, हैबिट और डूडा द्वारा बनाई गई थीं (1956)।
फ्रैंक रोसेनब्लैट (1958) ने परसेप्ट्रॉन बनाया, जो सरल जोड़ और घटाव का उपयोग करके दो-परत शिक्षण कंप्यूटर नेटवर्क पर आधारित पैटर्न पहचान के लिए एक एल्गोरिदम है। गणितीय संकेतन के साथ, रोसेनब्लैट ने सर्किट्री का भी वर्णन किया जो मूल अवधारणात्मक में नहीं है, जैसे कि एक्सक्लूसिव-या सर्किट।
कुछ लोग कहते हैं कि मार्विन मिंस्की और सेमुर पैपर्ट (1969) द्वारा मशीन लर्निंग अनुसंधान के प्रकाशन के बाद न्यूरल नेटवर्क अनुसंधान स्थिर हो गया। उन्होंने न्यूरल नेटवर्क को संसाधित करने वाली कम्प्यूटेशनल मशीनों के साथ दो प्रमुख मुद्दों की खोज की। पहला मुद्दा यह था कि सिंगल-लेयर न्यूरल नेटवर्क एक्सक्लूसिव-या सर्किट को प्रोसेस करने में असमर्थ थे। दूसरा महत्वपूर्ण मुद्दा यह था कि कंप्यूटर इतने परिष्कृत नहीं थे कि बड़े न्यूरल नेटवर्क के लिए आवश्यक दीर्घकालिक समय को प्रभावी ढंग से संभाल सकें। हालाँकि, जब तक यह पुस्तक सामने आई, मल्टीलेयर परसेप्ट्रॉन (एमएलपी) के प्रशिक्षण के तरीके पहले से ही ज्ञात थे। पहला गहन शिक्षण एमएलपी 1965 में एलेक्सी ग्रिगोरेविच इवाखनेंको और वैलेन्टिन लापा द्वारा प्रकाशित किया गया था। स्टोकेस्टिक ग्रेडिएंट डिसेंट द्वारा प्रशिक्षित पहला गहन शिक्षण एमएलपी 1967 में शुनिची अमारी द्वारा प्रकाशित किया गया था। अमारी के छात्र सैटो द्वारा किए गए कंप्यूटर प्रयोगों में, दो परिवर्तनीय परतों के साथ पांच परत एमएलपी ने गैर-रैखिक रूप से अलग-अलग पैटर्न कक्षाओं को वर्गीकृत करने के लिए उपयोगी आंतरिक प्रतिनिधित्व सीखा।
जब कंप्यूटरों ने अधिक प्रसंस्करण शक्ति हासिल की तो न्यूरल नेटवर्क अनुसंधान को बढ़ावा मिला। बाद की प्रगति में बैकप्रॉपैगेशन एल्गोरिदम भी महत्वपूर्ण था। यह अलग-अलग नोड्स के नेटवर्क के लिए लाइबनिज़ श्रृंखला नियम (1673) का एक कुशल अनुप्रयोग है। सेप्पो लिन्नैन्मा (1970) के कारण इसे स्वचालित विभेदीकरण या रिवर्स संचय के रिवर्स मोड के रूप में भी जाना जाता है। शब्द "बैक-प्रोपेगेटिंग एरर" को 1962 में फ्रैंक रोसेनब्लैट द्वारा पेश किया गया था, लेकिन उन्होंने इस प्रक्रिया का कार्यान्वयन नहीं किया था, हालांकि हेनरी जे. केली के पास 1960 में पहले से ही बैकप्रोपेगेटिंग का निरंतर अग्रदूत था नियंत्रण सिद्धांत के संदर्भ में। 1982 में, पॉल वेर्बोस ने एमएलपी में बैकप्रॉपैगेशन को उस तरीके से लागू किया जो मानक बन गया है।
1970 के दशक के अंत से 1980 के दशक की शुरुआत में, केली ट्री टोपोलॉजी और बड़े न्यूरल नेटवर्क के संबंध में विल्हेम लेनज़ (1920) और अर्न्स्ट इज़िंग (1925) द्वारा सैद्धांतिक रूप से आइसिंग मॉडल की जांच में रुचि उभरी। 1981 में, आइसिंग मॉडल को पीटर बार्थ द्वारा एक मनमाना शाखा अनुपात के साथ बंद केली पेड़ों (लूप के साथ) के सामान्य मामले के लिए हल किया गया था और इसके स्थानीय-शीर्ष और लंबी दूरी की साइट में असामान्य चरण संक्रमण व्यवहार प्रदर्शित किया गया था। -साइट सहसंबंध.
1980 के दशक के मध्य में समानांतर वितरित प्रसंस्करण कनेक्शनिज्म नाम से लोकप्रिय हो गया। रुमेलहार्ट और मैक्लेलैंड के पाठ (1986) ने न्यूरल प्रक्रियाओं को अनुकरण करने के लिए कंप्यूटर में कनेक्शनवाद के उपयोग पर एक पूर्ण विवरण प्रदान किया।
कृत्रिम बुद्धिमत्ता में उपयोग किए जाने वाले न्यूरल नेटवर्क को पारंपरिक रूप से मस्तिष्क में न्यूरल प्रसंस्करण के सरलीकृत मॉडल के रूप में देखा गया है, भले ही इस मॉडल और मस्तिष्क जैविक वास्तुकला के बीच संबंध पर बहस चल रही है, क्योंकि यह स्पष्ट नहीं है कि कृत्रिम न्यूरल नेटवर्क किस हद तक मस्तिष्क को प्रतिबिंबित करते हैं समारोह।[7]
आर्टिफीसियल इंटेलिजेंस
संपादित करेंएक न्यूरल नेटवर्क (एनएन), कृत्रिम न्यूरॉन्स के मामले में जिसे कृत्रिम न्यूरल नेटवर्क (एएनएन) या सिम्युलेटेड न्यूरल नेटवर्क (एसएनएन) कहा जाता है, प्राकृतिक या कृत्रिम न्यूरॉन्स का एक परस्पर समूह है जो सूचना प्रसंस्करण के लिए गणितीय या कम्प्यूटेशनल मॉडल का उपयोग करता है। गणना के लिए कनेक्शनवादी दृष्टिकोण। ज्यादातर मामलों में, एएनएन एक अनुकूली प्रणाली है जो नेटवर्क के माध्यम से बहने वाली बाहरी या आंतरिक जानकारी के आधार पर अपनी संरचना बदलती है।
अधिक व्यावहारिक शब्दों में, न्यूरल नेटवर्क गैर-रेखीय सांख्यिकीय डेटा मॉडलिंग या निर्णय लेने वाले उपकरण हैं। उनका उपयोग इनपुट और आउटपुट के बीच जटिल संबंधों को मॉडल करने या डेटा में पैटर्न खोजने के लिए किया जा सकता है।
एक कृत्रिम न्यूरल नेटवर्क में प्रसंस्करण तत्वों (कृत्रिम न्यूरॉन्स) का एक नेटवर्क शामिल होता है जो जटिल वैश्विक व्यवहार प्रदर्शित कर सकता है, जो प्रसंस्करण तत्वों और तत्व मापदंडों के बीच कनेक्शन द्वारा निर्धारित होता है। कृत्रिम न्यूरॉन्स को पहली बार 1943 में एक न्यूरोफिज़ियोलॉजिस्ट वॉरेन मैककुलोच और एक तर्कशास्त्री वाल्टर पिट्स द्वारा प्रस्तावित किया गया था, जिन्होंने पहली बार शिकागो विश्वविद्यालय में सहयोग किया था।[8]
कृत्रिम न्यूरल नेटवर्क का एक शास्त्रीय प्रकार आवर्ती हॉपफ़ील्ड नेटवर्क है।
ऐसा प्रतीत होता है कि न्यूरल नेटवर्क की अवधारणा सबसे पहले एलन ट्यूरिंग ने अपने 1948 के पेपर इंटेलिजेंट मशीनरी में प्रस्तावित की थी जिसमें उन्होंने उन्हें "बी-प्रकार की असंगठित मशीनें" कहा था। [9]
कृत्रिम न्यूरल नेटवर्क मॉडल की उपयोगिता इस तथ्य में निहित है कि उनका उपयोग अवलोकनों से किसी फ़ंक्शन का अनुमान लगाने और उसका उपयोग करने के लिए भी किया जा सकता है। अप्रशिक्षित न्यूरल नेटवर्क का उपयोग इनपुट के अभ्यावेदन को सीखने के लिए भी किया जा सकता है जो इनपुट वितरण की मुख्य विशेषताओं को पकड़ता है, उदाहरण के लिए, बोल्ट्ज़मैन मशीन (1983) देखें, और हाल ही में, गहन शिक्षण एल्गोरिदम, जो परोक्ष रूप से वितरण फ़ंक्शन को सीख सकते हैं अवलोकन किया गया डेटा. न्यूरल नेटवर्क में सीखना उन अनुप्रयोगों में विशेष रूप से उपयोगी है जहां डेटा या कार्य की जटिलता हाथ से ऐसे कार्यों के डिज़ाइन को अव्यावहारिक बनाती है।
अनुप्रयोग
संपादित करेंन्यूरल नेटवर्क का उपयोग विभिन्न क्षेत्रों में किया जा सकता है। जिन कार्यों के लिए कृत्रिम न्यूरल नेटवर्क लागू किए जाते हैं वे निम्नलिखित व्यापक श्रेणियों में आते हैं:
- फ़ंक्शन सन्निकटन, या प्रतिगमन विश्लेषण, जिसमें समय श्रृंखला भविष्यवाणी और मॉडलिंग शामिल है।
- वर्गीकरण, जिसमें पैटर्न और अनुक्रम पहचान, नवीनता का पता लगाना और अनुक्रमिक निर्णय लेना शामिल है।
- फ़िल्टरिंग, क्लस्टरिंग, ब्लाइंड सिग्नल पृथक्करण और संपीड़न सहित डेटा प्रोसेसिंग।
एएनएन के अनुप्रयोग क्षेत्रों में नॉनलाइनियर सिस्टम पहचान और नियंत्रण (वाहन नियंत्रण, प्रक्रिया नियंत्रण), गेम खेलना और निर्णय लेना (बैकगैमौन, शतरंज, रेसिंग), पैटर्न पहचान (रडार सिस्टम, चेहरे की पहचान, वस्तु पहचान), अनुक्रम पहचान शामिल हैं। (इशारे, भाषण, हस्तलिखित पाठ पहचान), चिकित्सा निदान, वित्तीय अनुप्रयोग, डेटा खनन (या डेटाबेस में ज्ञान की खोज, "केडीडी"), विज़ुअलाइज़ेशन और ई-मेल स्पैम फ़िल्टरिंग। उदाहरण के लिए, वस्तु पहचान के लिए प्रशिक्षित चित्रों से उभरने वाले उपयोगकर्ता की रुचियों का एक अर्थपूर्ण प्रोफ़ाइल बनाना संभव है।[10]
हाल की प्रगति और भविष्य की दिशाएँ
संपादित करेंकृत्रिम तंत्रिका नेटवर्क (एएनएन) में महत्वपूर्ण प्रगति हुई है, विशेष रूप से जटिल प्रणालियों को मॉडल करने, बड़े डेटा सेट को संभालने और विभिन्न प्रकार के अनुप्रयोगों के अनुकूल होने की उनकी क्षमता में। पिछले कुछ दशकों में उनके विकास को छवि प्रसंस्करण, भाषण मान्यता, प्राकृतिक भाषा प्रसंस्करण, वित्त और चिकित्सा जैसे क्षेत्रों में अनुप्रयोगों की एक विस्तृत श्रृंखला द्वारा चिह्नित किया गया है।
मूर्ति प्रोद्योगिकी
संपादित करेंछवि प्रसंस्करण के क्षेत्र में, एएनएन को छवि वर्गीकरण, वस्तु पहचान और छवि विभाजन जैसे कार्यों में नियोजित किया जाता है। उदाहरण के लिए, डीप कन्वोल्यूशनल न्यूरल नेटवर्क (सीएनएन) हस्तलिखित अंक पहचान, अत्याधुनिक प्रदर्शन प्राप्त करने में महत्वपूर्ण रहे हैं। यह जटिल दृश्य जानकारी को प्रभावी ढंग से संसाधित करने और व्याख्या करने के लिए एएनएन की क्षमता को प्रदर्शित करता है, जिससे स्वचालित निगरानी से लेकर चिकित्सा इमेजिंग तक के क्षेत्रों में प्रगति हुई है।
वाक् पहचान
संपादित करेंवाक् संकेतों को मॉडलिंग करके, एएनएन का उपयोग स्पीकर की पहचान और वाक्-से-पाठ रूपांतरण जैसे कार्यों के लिए किया जाता है। डीप न्यूरल नेटवर्क आर्किटेक्चर ने पारंपरिक तकनीकों से बेहतर प्रदर्शन करते हुए बड़ी शब्दावली निरंतर वाक् पहचान में महत्वपूर्ण सुधार पेश किए हैं। इन प्रगतियों ने अधिक सटीक और कुशल आवाज-सक्रिय प्रणालियों के विकास को सक्षम किया है, जिससे प्रौद्योगिकी उत्पादों में यूजर इंटरफेस में वृद्धि हुई है।
प्राकृतिक भाषा प्रसंस्करण
संपादित करेंप्राकृतिक भाषा प्रसंस्करण में, एएनएन का उपयोग पाठ वर्गीकरण, भावना विश्लेषण और मशीन अनुवाद जैसे कार्यों के लिए किया जाता है। उन्होंने ऐसे मॉडलों के विकास को सक्षम किया है जो भाषाओं के बीच सटीक रूप से अनुवाद कर सकते हैं, पाठ्य डेटा में संदर्भ और भावना को समझ सकते हैं, और सामग्री के आधार पर पाठ को वर्गीकृत कर सकते हैं। [238] [239] इसका स्वचालित ग्राहक सेवा, सामग्री मॉडरेशन और भाषा समझ प्रौद्योगिकियों पर प्रभाव पड़ता है।[11]
दवा
संपादित करेंएएनएन विशाल चिकित्सा डेटासेट को संसाधित और विश्लेषण करने में सक्षम हैं। वे नैदानिक सटीकता को बढ़ाते हैं, विशेष रूप से प्रारंभिक बीमारी का पता लगाने के लिए जटिल चिकित्सा इमेजिंग की व्याख्या करके, और व्यक्तिगत उपचार योजना के लिए रोगी के परिणामों की भविष्यवाणी करके। दवा की खोज में, एएनएन संभावित दवा उम्मीदवारों की पहचान में तेजी लाते हैं और उनकी प्रभावकारिता और सुरक्षा की भविष्यवाणी करते हैं, जिससे विकास के समय और लागत में काफी कमी आती है। इसके अतिरिक्त, वैयक्तिकृत चिकित्सा और स्वास्थ्य देखभाल डेटा विश्लेषण में उनका अनुप्रयोग अनुरूप चिकित्सा और कुशल रोगी देखभाल प्रबंधन की अनुमति देता है। चल रहे शोध का उद्देश्य डेटा गोपनीयता और मॉडल व्याख्या जैसी शेष चुनौतियों का समाधान करना है, साथ ही चिकित्सा में एएनएन अनुप्रयोगों के दायरे का विस्तार करना है।
सामग्री निर्माण
संपादित करेंजेनेरिक एडवरसैरियल नेटवर्क (जीएएन) और ट्रांसफार्मर जैसे एएनएन का उपयोग कई उद्योगों में सामग्री निर्माण के लिए किया जाता है। ऐसा इसलिए है क्योंकि गहन शिक्षण मॉडल विशाल डेटासेट से किसी कलाकार या संगीतकार की शैली सीखने में सक्षम होते हैं और पूरी तरह से नई कलाकृतियाँ और संगीत रचनाएँ तैयार करते हैं। उदाहरण के लिए, DALL-E एक गहन तंत्रिका नेटवर्क है जो इंटरनेट पर 650 मिलियन जोड़ी छवियों और पाठों पर प्रशिक्षित है जो उपयोगकर्ता द्वारा दर्ज किए गए पाठ के आधार पर कलाकृतियाँ बना सकता है। संगीत के क्षेत्र में, AIVA और Jukedeck जैसी कंपनियों के माध्यम से विज्ञापनों और वृत्तचित्रों के लिए मूल संगीत बनाने के लिए ट्रांसफार्मर का उपयोग किया जाता है। विपणन उद्योग में उपभोक्ताओं के लिए वैयक्तिकृत विज्ञापन बनाने के लिए जेनरेटिव मॉडल का उपयोग किया जाता है। इसके अतिरिक्त, प्रमुख फिल्म कंपनियां किसी फिल्म की वित्तीय सफलता का विश्लेषण करने के लिए प्रौद्योगिकी कंपनियों के साथ साझेदारी कर रही हैं, जैसे कि वार्नर ब्रदर्स और प्रौद्योगिकी कंपनी सिनेलिटिक के बीच 2020 में स्थापित साझेदारी इसके अलावा, तंत्रिका नेटवर्क ने वीडियो गेम निर्माण में उपयोग पाया है, जहां गैर-खिलाड़ी पात्र (एनपीसी) गेम में वर्तमान में सभी पात्रों के आधार पर निर्णय ले सकते हैं।[12]
- ↑ "होपफेल्ड".
- ↑ "Definition of Neural Network - Gartner Information Technology Glossary". Gartner (अंग्रेज़ी में). अभिगमन तिथि 2024-01-17.
- ↑ Bain, Alexander (1877). "Mind and body; The theories of their relation". डीओआइ:10.1037/12850-000. Cite journal requires
|journal=
(मदद) - ↑ "II. Experiments in examination of the peripheral distribution the fibres of the posterior roots of some spinal nerves. -Part II". Philosophical Transactions of the Royal Society of London. Series B, Containing Papers of a Biological Character (अंग्रेज़ी में). 190: 45–186. 1898-12-31. आइ॰एस॰एस॰एन॰ 0264-3960. डीओआइ:10.1098/rstb.1898.0002.
- ↑ Brush, Stephen G. (1967-10-01). "History of the Lenz-Ising Model". Reviews of Modern Physics. 39: 883–893. आइ॰एस॰एस॰एन॰ 0034-6861. डीओआइ:10.1103/RevModPhys.39.883.
- ↑ "Simulation of self-organizing systems by digital computer | IEEE Journals & Magazine | IEEE Xplore". ieeexplore.ieee.org. अभिगमन तिथि 2024-01-18.
- ↑ "Definition of a Neural Network". web.archive.org. 2014-05-29. अभिगमन तिथि 2024-01-18.
- ↑ McCulloch, Warren S.; Pitts, Walter (1943-12-01). "A logical calculus of the ideas immanent in nervous activity". The bulletin of mathematical biophysics (अंग्रेज़ी में). 5 (4): 115–133. आइ॰एस॰एस॰एन॰ 1522-9602. डीओआइ:10.1007/BF02478259.
- ↑ Turing, Alan; Copeland, Brian Jack, संपा॰ (2010). The essential Turing: seminal writings in computing, logic, philosophy, artificial intelligence, and artificial life, plus The secrets of Enigma; [the ideas that gave birth to the computer age] (Repr संस्करण). Oxford: Clarendon Press. आई॰ऍस॰बी॰ऍन॰ 978-0-19-825080-7.
- ↑ "Wieczorek, Szymon; Filipiak, Dominik; Filipowska, Agata (2018)".
- ↑ Huang Y (2009). ""Advances in Artificial Neural Networks – Methodological Development and Application"". Cite journal requires
|journal=
(मदद) - ↑ "Yu X, He S, Gao Y, Yang J, Sha L, Zhang Y, et al. (June 2010). "Dynamic difficulty adjustment of game AI for video game Dead-End". The 3rd International Conference on Information Sciences and Interaction Sciences. IEEE. pp. 583–587". Cite journal requires
|journal=
(मदद)
बाहरी संबंध
संपादित करें- A Brief Introduction to Neural Networks (D. Kriesel) - Illustrated, bilingual manuscript about artificial neural networks; Topics so far: Perceptrons, Backpropagation, Radial Basis Functions, Recurrent Neural Networks, Self Organizing Maps, Hopfield Networks.
- Review of Neural Networks in Materials Science
- Artificial Neural Networks Tutorial in three languages (Univ. Politécnica de Madrid)
- Another introduction to ANN
- Next Generation of Neural Networks - Google Tech Talks
- Performance of Neural Networks
- Neural Networks and Information
- Sanderson, Grant (October 5, 2017). "But what is a Neural Network?". 3Blue1Brown. मूल से 2021-11-07 को पुरालेखित – वाया YouTube.