मैं एक फीड-फॉरवर्ड न्यूरल नेटवर्क बनाना चाहता हूं जहां प्रशिक्षण डेटा में आउटपुट बूलियन, 0 या 1 हैं।

उपयोग में, हालांकि, मैं चाहता हूं कि आउटपुट अपेक्षित संभावना हो कि उस इनपुट ने 0 या 1 का उत्पादन किया होगा।

यह देखते हुए कि बैकप्रॉप के सबसे सामान्य रूप एक सिग्मॉइड सक्रियण फ़ंक्शन को नियोजित करते हैं, ऐसा लगता नहीं है कि इसका परिणाम आउटपुट के रूप में वास्तविक संभावनाओं में होगा (सिग्मॉइड वक्र वास्तव में "संभाव्य" फ़ंक्शन की तरह प्रतीत नहीं होता है - क्षमा करें, मुझे पता है कि यह हाथ है - लहरदार)।

या शायद मैं गलत हूँ। क्या सिग्मॉइड एक्टिवेशन फ़ंक्शंस का उपयोग करके फीड-फ़ॉरवर्ड न्यूरल नेट के आउटपुट, और बैकप्रोब का उपयोग करके प्रशिक्षित किया जा सकता है, इसे 0 के विपरीत 1 प्राप्त करने की वास्तविक संभावना के रूप में सुरक्षित रूप से माना जा सकता है?

0
sanity 17 मई 2011, 19:23
मैं आपके कहने का बिल्कुल पालन नहीं करता। "फ़ीड-फ़ॉरवर्ड" कई प्रकार के तंत्रिका नेटवर्क के बड़े संग्रह को संदर्भित करता है। परसेप्ट्रोन सबसे सरल हैं, और वे नियतात्मक हैं, स्टोकेस्टिक नहीं।
 – 
TaslemGuy
18 मई 2011, 00:10
यदि मैं गलत नहीं हूँ, तो बहु-परत फ़ीड-फ़ॉरवर्ड नेटवर्क के साथ बैकवर्ड त्रुटि प्रसार का उपयोग किया जाता है। हां, मैं कुछ ऐसा ढूंढ रहा हूं जो मुझे एक नियतात्मक संभावना देगा कि, एक इनपुट दिए जाने पर, आउटपुट 1 होगा। चूंकि हमें पूर्ण निश्चितता की संभावना नहीं है कि आउटपुट 1 होगा (जब तक कि हमने इसे पहले नहीं देखा है) , आउटपुट हमेशा 1 से कम होगा।
 – 
sanity
18 मई 2011, 01:09

1 उत्तर

सबसे बढ़िया उत्तर

हां, यदि आप मानक सिग्मॉइड सक्रियण फ़ंक्शन का उपयोग करते हैं तो यह उस तरह से काम करेगा जैसा आप चाहते हैं।

यह साबित करने वाला गणित थोड़ा जटिल है, लेकिन यह प्रभावी रूप से इस तथ्य पर उबलता है कि आप आउटपुट प्रशिक्षण सेट के औसत मूल्य को उत्पन्न करने के लिए सिग्मॉइड फ़ंक्शन को प्रशिक्षित कर रहे हैं (यह सामान्य बैकप्रॉप में चुकता त्रुटि फ़ंक्शन का उपयोग करने का एक परिणाम है) . चूंकि दो संभावित मान 0 और 1 हैं, इसलिए औसत मान 1 प्राप्त करने की संभावना के बिल्कुल बराबर है।

1
mikera 21 मई 2011, 18:23