انجام پروژه شبکه عصبی با گروه تخصصی متلبی
دعوت به همکاری
سایت متلبی سفارشات زیادی دریافت می کند
اگر در شبیه سازی با شبکه عصبی تبحّر دارید منتظر شما هستیم
اگر در شبیه سازی با شبکه عصبی تبحّر دارید منتظر شما هستیم
پروژه های انجام شده
سال ارائه خدمت
استادکارهای آنلاین
پشتیبانی هر روز 18ساعت
مبلغ پرداختی شما پس از 48 ساعت برای مجری واریز خواهد شد و درصورت وجود ایراد استادکار ملزم به رفع آن است.
به دلیل رقابت بین مجریان سایت, کمترین قیمت برای سفارش شما پیشنهاد می شود.
شبکه عصبی چیست؟
شبکههای عصبی مصنوعی یا شبکههای عصبی صناعی (Artificial Neural Networks – ANN) یا به زبان سادهتر شبکههای عصبی سیستمها و روشهای محاسباتی نوین برای یادگیری ماشینی، نمایش دانش و در انتها اعمال دانش به دست آمده در جهت بیشبینی پاسخهای خروجی از سامانههای پیچیده هستند. ایدهٔ اصلی این گونه شبکهها تا حدودی الهامگرفته از شیوهٔ کارکرد سیستم عصبی زیستی برای پردازش دادهها و اطلاعات به منظور یادگیری و ایجاد دانش میباشد. عنصر کلیدی این ایده، ایجاد ساختارهایی جدید برای سامانهٔ پردازش اطلاعات است.
این سیستم از شمار زیادی عناصر پردازشی فوقالعاده بهمپیوسته با نام نورون تشکیل شده که برای حل یک مسئله با هم هماهنگ عمل میکنند و توسط سیناپسها (ارتباطات الکترومغناطیسی) اطلاعات را منتقل میکنند. در این شبکهها اگر یک سلول آسیب ببیند بقیه سلولها میتوانند نبود آن را جبران کرده، و نیز در بازسازی آن سهیم باشند. این شبکهها قادر به یادگیریاند. مثلاً با اعمال سوزش به سلولهای عصبی لامسه، سلولها یادمیگیرند که به طرف جسم داغ نروند و با این الگوریتم سیستم میآموزد که خطای خود را اصلاح کند. یادگیری در این سیستمها به صورت تطبیقی صورت میگیرد، یعنی با استفاده از مثالها وزن سیناپسها به گونهای تغییر میکند که در صورت دادن ورودیهای جدید، سیستم پاسخ درستی تولید کند. (منبع ویکی پدیا)
شبکه های عصبی مصنوعی ابزاری مهم در میان مباحث هوش محاسباتی (Computational Intelligence) به حساب می آیند. انواع مختلفی از شبکه های عصبی مصنوعی معرفی شده اند که عمدتا در کاربردهایی همچون: طبقه بندی، خوشه بندی، تشخیص الگو، مدل سازی و تقریب توابع، کنترل، تخمین و بهینه سازی مورد استفاده قرار می گیرند.
شبکه عصبی دارای تولباکس در متلب هست که کار با آن را برای برنامه نویسان بسیار راحت کرده است.
سعی می کنیم در مورد شبکه عصبی مطالب آموزشی بیشتری قرار دهیم. همچنین پروژه های متعددی را توسط شبکه عصبی انجام داده ایم که میتوانید از فروشگاه متلبی دریافت نمایید.
نحوه سفارش پروژه شبکه عصبی با متلب
قیمت انجام پروژه شبکه عصبی
زمان انجام پروژه یا تهیه آموزش شبکه عصبی
کیفیت سفارش انجام شده به چه صورت است؟
متلبی به منزله پلی بین شما و مجری عمل نموده و مبلغ پرداختی شما را 48 ساعت پس از تحویل پروژه (یا آموزش) و درصورت نبود ایراد و رضایت شما بحساب مجری واریز خواهد نمود. لذا با خیال آسوده سفارش خود را به ما بسپارید.
زمان پاسخگویی به سفارشات
چرا متلبی؟
پروژه آماده شبکه عصبی با متلب
با توجه به این که برای شروع آموزش شبکه عصبی نیاز به بررسی چندین پروژه آماده در این زمینه می باشد. تیم تخصصی متلبی در زمان های مختلف, اقدام به انتشار پست های آموزشی و کمک آموزشی به همراه پروژه آماده شبکه عصبی می کند. تا با در دسترس قرار گرفتن شبیه سازی آماده بتوانید به راحتی برنامه را تحلیل کنید.
دانلود پروژه های شبکه عصبی
سایت متلبی تمام محصولات خود را با دقت و بوسیله متخصصین حرفه ای در همان زمینه انجام می دهد. چون خدمات سایت متلبی دارای کمترین هزینه و بالاترین کیفیت است, بعد از مدت بیش از 6ماه اقدام به فروش محصولات می کنیم. البته این اقدام کاملا با رضایت درخواست دهنده اولیه است. وجود بانک عظیمی از شبیه سازی مقالات با شبکه عصبی و داشتن فایل کمک آموزشی به همراه آنها برگ مثبتی جهت اطمینان از کیفیت بالا و ارائه خدمات ارزان قیمت از سوی سایت متلبی است.
سفارش دهندگانی که درخواست اختصاصی بودن سفارششان را بدهند بعد از انجام کار بطور کامل پروژه شبکه عصبی مربوطه از سیستم و ایمیل سایت متلبی حذف می شود. ما مقید به حقوق مادی و معنوی و البته اخلاق حرفه ای در کار خودمان هستیم.
جهت دانلود پروژه بصورت آماده به وبلاگ متلبی و دسته آموزش آن سر بزنید. نمونه ای از پروژه های شبکه عصبی به همراه آموزش در سایت متلبی منتشر شده و به مرور نیز این کار را جهت ارائه خدمات آموزشی و کمک آموزشی بهتر انجام خواهیم داد.
نحوه سفارش پروژه شبکه عصبی
قیمت انجام پروژه های ANN بر اساس حجم، سختی کار و زمان درخواستی انجام پروژه تعیین می گردد. سایت متلبی انجام پروژه ها را به خواسته شما به همراه آموزش در قالب ویدیو یا قالب ورد انجام می دهد.
درخواست انجام پروزه برای تمامی نهادها و مصارف صنعتی و پژوهشی بلامانع است و انجام می شود
انواع شبکه را در زیر به صورت مختصر آورده ایم.
شبکه عصبی پرسپترون
«پرسپترون» (Perceptron | P)، سادهترین و قدیمیترین مدل از نورون محسوب میشود که تاکنون توسط بشر شناخته شده است. پرسپترون، تعدادی ورودی را دریافت، آنها را تجمیع و تابع فعالسازی را روی آنها اعمال میکند و در نهایت، آنها را به لایه خروجی پاس میدهد. در این قسمت، معجزه اصلی شبکههای عصبی مصنوعی به وقوع نمیپیوندد. برای مطالعه بیشتر پیرامون پرسپترون چند لایه، مطالعه مطلب «پرسپترون چند لایه در پایتون — راهنمای کاربردی» پیشنهاد میشود.
شبکه عصبی پیشخور
«شبکههای عصبی پیشخور» (Feed Forward Neural Networks | FF) نیز از اعضای قدیمی خانواده شبکههای عصبی محسوب میشوند و رویکرد مربوط به آنها از دهه ۵۰ میلادی نشأت میگیرد. عملکرد این الگوریتم، به طور کلی از قواعد زیر پیروی میکند:
در اغلب مواقع، این نوع از شبکههای عصبی با استفاده از روش «پسانتشار» (Backpropagation) آموزش داده میشوند.
شبکه عصبی شعاعی پایه
«شبکههای عصبی شعاعی پایه» (Radial Basis Networks | RBF) در واقع شبکههای عصبی پیشخوری (FF) هستند که از «تابع شعاعی پایه» (Radial Basis Function)، به جای «تابع لجستیک» (Logistic Function)، به عنوان تابع فعالسازی استفاده میکنند. سوالی که در این وهله مطرح میشود این است که تفاوت شبکه عصبی شعاعی پایه با شبکه عصبی پیشخور چیست؟ تابع لجستیک برخی از مقادیر دلخواه را به یک بازه ۰ تا ۱ نگاشت میکند تا به یک پرسش «بله یا خیر» (پرسش دودویی) پاسخ دهد. این نوع از شبکههای عصبی برای «دستهبندی» (Classification) و «سیستمهای تصمیمگیری» (Decision Making Systems) مناسب هستند، ولی برای مقادیر پیوسته عملکرد بدی دارند.
این در حالی است که توابع شعاعی پایه به این پرسش پاسخ میدهند که «چقدر از هدف دوریم؟» و این امر موجب میشود تا این شبکههای عصبی برای تخمین تابع و کنترل ماشین (برای مثال، به عنوان جایگزینی برای کنترل کننده PID) مناسب محسوب شوند. به طور خلاصه باید گفت که شبکههای عصبی شعاعی پایه در واقع نوعی از شبکههای عصبی پیشخور با تابع فعالسازی و ویژگیهای متفاوت هستند.
شبکه عصبی پیشخور عمیق
«شبکه عصبی پیشخور عمیق» (Deep Feed Forward Neural Networks | DFF)، در اوایل دهه ۹۰ میلادی، مقدمهای بر بحث شبکههای عصبی شد. این نوع از شبکههای عصبی نیز شبکههای عصبی پیشخور هستند، ولی بیش از یک «لایه پنهان» (Hidden Layer) دارند. سوالی که در این وهله پیش میآید آن است که تفاوت این نوع از شبکههای عصبی با شبکههای عصبی پیشخور سنتی در چیست؟
در هنگام آموزش دادن یک شبکه عصبی پیشخور، تنها بخش کوچکی از خطا به لایه پیشین پاس داده میشود. به همین دلیل، استفاده از لایههای بیشتر، منجر به رشد نمایی زمان آموزش میشود و همین موضوع، موجب میشود که شبکههای عصبی پیشخور عمیق، عملا بدون کاربرد و غیر عملی باشند. در اوایل سال دو هزار میلادی، رویکردهایی توسعه پیدا کردند که امکان آموزش دادن یک شبکه عصبی پیشخور عمیق (DFF) را به صورت موثر فراهم میکردند. امروزه، این شبکههای عصبی، هسته سیستمهای یادگیری ماشین مدرن را تشکیل میدهند و هدفی مشابه با هدف شبکههای عصبی پیشخور (FF) را پوشش میدهند؛ اما نتایج بهتری را دربردارند.
شبکههای عصبی بازگشتی
«شبکههای عصبی بازگشتی» (Recurrent Neural Networks | RNN) نوع متفاوتی از سلولها با عنوان «سلولهای بازگشتی» (Recurrent Cells) را معرفی میکنند. اولین شبکه از این نوع، «شبکه جردن» (Jordan Network) است؛ در این نوع از شبکه، هر یک از سلولهای پنهان، خروجی خود را با تاخیر ثابت – یک یا تعداد بیشتری تکرار- دریافت میکنند. صرف نظر از این موضوع، شبکه جردن مشابه با شبکههای عصبی پیشخور متداول بود.
البته، تغییرات گوناگونی مانند پاس دادن حالت به «گرههای ورودی» (Input Nodes)، تأخیر متغیرها و دیگر موارد در این نوع از شبکهها اتفاق افتاده، اما ایده اصلی به همان صورت باقی مانده است. این نوع از شبکههای عصبی (NN) اساسا هنگامی استفاده میشوند که «زمینه» (Context) مهم است و در واقع یعنی هنگامی که تصمیمگیریها از تکرارهای قبلی یا نمونهها، میتواند نمونههای کنونی را تحت تاثیر قرار دهد. به عنوان مثالی متداول از این نوع از زمینهها، میتوان به «متن» (Text) اشاره کرد. در متن، یک کلمه را میتوان تنها در زمینه کلمه یا جمله پیشین تحلیل کرد.
حافظه کوتاه مدت بلند
«حافظه کوتاه مدت بلند» (Long/Short Term Memory | LSTM) نوع جدیدی از «سلول حافظه» (Memory Cell) را معرفی میکند. این سلول میتواند دادهها را هنگامی که دارای شکاف زمانی (یا تاخیر زمانی) هستند، پردازش کند. شبکه عصبی پیشخور میتواند متن را با «به خاطر سپردن» ده کلمه پیشین پردازش کند. این در حالی است که LSTM میتواند قابهای ویدئو را با «به خاطر سپردن» چیزی که در قابهای بسیار پیشین اتفاق افتاده است پردازش کند. شبکههای LSTM به طور گستردهای برای «بازشناسی گفتار» (Speech Recognition) و «بازشناسی نوشتار» (Writing Recognition) مورد استفاده قرار میگیرند. سلولهای حافظه اساسا ترکیبی از یک جفت عنصر که به آنها گیت گفته میشود هستند. این عنصرها، بازگشتی هستند و چگونگی به یاد آوردن و فراموش کردن اطلاعات را کنترل میکنند. ساختار این نوع از شبکهها، در تصویر زیر به خوبی مشخص است. این نکته که هیچ تابع فعالسازی بین بلوکها وجود ندارد نیز شایان توجه است.
Xهای موجود در نمودار، گیتها هستند و وزن و گاهی تابع فعالسازی خود را دارند. برای هر نمونه، Xها تصمیم میگیرند دادهها را به جلو پاس دهند یا خیر، حافظه را پاک کنند یا نه و به همین ترتیب. گیت ورودی، تصمیم میگیرد که چه میزان اطلاعات از آخرین نمونه در حافظه نگهداری میشود. گیت خروجی میزان دادههای پاس داده شده به لایه بعدی را تنظیم میکند و گیت فراموشی، نرخ خارج شدن از موارد ذخیره شده در حافظه را کنترل میکند. آنچه بیان شد، یک شکل بسیار ساده از سلولهای LSTM است و معماریهای متعدد دیگری نیز برای این نوع از شبکههای عصبی، موجود است.
شبکه عصبی واحد بازگشتی گِیتی
«واحد بازگشتی گیتی» (Gated Recurrent Unit | GRU) نوعی از LSTM با گیتها و دوره زمانی متفاوت است. این نوع از شبکه عصبی ساده به نظر میآید. در حقیقت، فقدان گیت خروجی، تکرار چندین باره یک خروجی مشابه را برای ورودیها سادهتر میسازد. این نوع از شبکههای عصبی بازگشتی در حال حاضر بیشتر در «موتور متن به گفتار» (Speech Synthesis) و «ترکیب صدا» (Music Synthesis) به کار میرود. البته، ترکیب واقعی LSTM با GRU اندکی متفاوت است. زیرا، همه گیتهای LSTM در یک گیت که به آن گیت به روز رسانی گفته میشود ترکیب شدهاند و گیت «بازشناسی» (Reset) از نزدیک به ورودی گره خورده است. GRUها نسبت به LSTMها کمتر از منابع استفاده میکنند و اثر مشابهی را دارند.
شبکه عصبی خود رمزگذار
شبکههای عصبی «خود رمزگذار» (Auto Encoder | AE) برای دستهبندی، «خوشهبندی» (Clustering) و «فشردهسازی ویژگیها» (Feature Compression) استفاده میشوند. هنگامی که یک شبکه عصبی پیشخور برای دستهبندی آموزش داده میشود، باید نمونههای X در Y دسته به عنوان خوراک داده شوند و انتظار میرود یکی از سلولهای Y فعالسازی شده باشد. به این مورد، «یادگیری نظارت شده» (Supervised Learning) گفته میشود. از سوی دیگر، شبکههای عصبی خود رمزگذار را میتوان بدون نظارت، آموزش داد. با توجه به ساختار این شبکهها (که در آن تعداد لایههای پنهان کوچکتر از تعداد سلولهای ورودی است و تعداد سلولهای خروجی برابر با سلولهای ورودی است) و اینکه AE به نوعی آموزش داده میشود که خروجی تا حد امکان به ورودی نزدیک باشد، شبکه عصبی خود رمزگذار مجبور میشود دادهها را تعمیم دهد و به دنبال الگوهای متداول بگردد.
شبکه عصبی خود رمزگذار متغیر
«شبکه عصبی خود رمزگذار متغیر» (Variational Auto Encoder | VAE) در مقایسه با شبکه عصبی خود رمزگذار، احتمالات را به جای ویژگیها فشرده میکند. علارغم تغییرات کوچک که بین دو شبکه عصبی مذکور اتفاق افتاده است، هر یک از این انواع شبکه های عصبی مصنوعی به پرسش متفاوتی پاسخ میدهند. شبکه عصبی خودرمزگذار به پرسش «چگونه میتوان دادهها را تعمیم داد؟» پاسخ میدهد، در حالی که شبکه عصبی خود رمزگذار متغیر به پرسش «اتصال بین دو رویداد چقدر قوی است؟ آیا باید خطا را بین دو رویداد توزیع کرد یا آنها به طور کامل مستقل هستند؟» پاسخ میدهد.
شبکه عصبی خود رمزگذار دینوزینگ
با وجود جالب بودن شبکههای خود رمزگذار، اما این شبکههای عصبی گاهی به جای پیدا کردن مستحکمترین ویژگی، فقط با دادههای ورودی سازگار میشوند (این مورد مثالی از بیشبرازش یا همان Overfitting است). شبکه عصبی «خود رمزگذار دینوزینگ» (Denoising AutoEncoder | DAE) اندکی نویز به سلول ورودی اضافه میکنند. با این کار، شبکه عصبی خود رمزگذار دینوزینگ، مجبور میشود که خروجی را از یک ورودی نویزی، مجددا بسازد و آن را عمومیتر کند و ویژگیهای متداول بیشتری را انتخاب کند.
شبکه عصبی خود رمزگذار اسپارس
شبکه عصبی «خود رمزگذار اسپارس» (Sparse AutoEncoder | SAE) نیز یک نوع دیگر از شبکههای عصبی مصنوعی خود رمزگذار است که در برخی موارد، میتواند برخی از الگوهای گروهی پنهان موجود در دادهها را آشکار کند. ساختار شبکه عصبی خود رمزگذار اسپارس نیز مشابه با AE است، در این نوع از شبکههای عصبی، تعداد لایه پنهان، بیشتر از تعداد سلول لایه ورودی/خروجی است.
زنجیره مارکوف
«زنجیرههای مارکو» (Markov Chains) مفهومی بسیار قدیمی از گرافها هستند که در آنها، هر یالی یک احتمال دارد. در زمانهای قدیم، از زنجیرههای مارکوف برای ساخت متن استفاده میشد؛ برای مثال، بعد از کلمه Hello، با احتمال %0/0053 کلمه Dear و با احتمال %0.03551 کلمه You میآید (در فناوری پیشبینی متن T9 که در موبایلها وجود دارد، از زنجیرههای مارکوف استفاده میشود). زنجیرههای مارکوف، شبکههای عصبی به شیوه کلاسیک نیستند و میتوانند برای دستهبندی بر پایه احتمالات (مانند فیلترهای بیزی)، برای خوشهبندی (برخی از انواع) و «ماشین حالت متناهی» (Finite State Machine) استفاده شوند.
شبکه عصبی هاپفیلد
«شبکههای هاپفیلد» (Hopfield Networks | HN) روی مجموعه محدودی از نمونهها آموزش دیدهاند و بنابراین، به یک نمونه شناخته شده با نمونه مشابهی پاسخ میدهند. پیش از آموزش، هر سلول به عنوان یک سلول ورودی، در طول آموزش به عنوان یک سلول پنهان و در هنگام استفاده، به عنوان یک سلول خروجی کار میکند. یک شبکه هاپفیلد در تلاش است تا نمونههای آموزش دیدهای را بسازد، این شبکهها برای دینوزینگ و بازگردانی ورودیها مورد استفاده قرار میگیرند. در صورتی که به این شبکهها نیمی از یک تصویر یا توالی یاد گرفته شده ارائه شود، نمونه کامل را بازمیگردانند.
ماشین بولتزمن
«ماشینهای بولتزمن» (Boltzmann Machines | BM) از این جهت که برخی از سلولها به عنوان ورودی علامتگذاری میشوند و پنهان باقی میمانند، شباهت بسیاری زیادی به شبکههای هاپفیلد دارند. سلولهای ورودی به محض اینکه سلولهای پنهان حالت خود را به روز رسانی میکنند، به سلولهای خروجی مبدل میشوند (در طول آموزش، ماشین بولتزمن/شبکه هاپفیلد، سلولها را یکی یکی به روز رسانی میکند و این کار به صورت موازی انجام نمیشود).
ماشین بولتزمن محدود
«ماشین بولتزمن محدود» (Restricted Boltzmann Machine) در ساختار شبیه به BM است. اما به دلیل محدود بودن، فقط امکان آموزش دادن آن با استفاده از پسانتشار، صرفا به عنوان پیشخور وجود دارد (تنها با این تفاوت که دادههای پاس داده شده پسانتشار، یکبار به لایه ورودی برگشت داده میشوند).
شبکه باور عمیق
«شبکه باور عمیق» (Deep Belief Network | DBN) که در تصویر بالا قابل مشاهده است، در واقع پشتهای از ماشینهای بولتزمن است (با خودرمزگذار متغیر احاطه شده است). آنها را میتوان به صورت زنجیرهای با یکدیگر قرار داد (هنگامی که یک شبکه عصبی دیگری را آموزش میدهد) و برای تولید دادهها با یک الگوی یاد گرفته شده، قابل استفاده است.
شبکه پیچشی عمیق
«شبکه پیچشی عمیق» (Deep Convolutional Network | DCN) در حال حاضر، ستاره شبکههای عصبی است. این نوع از شبکههای عصبی، دارای سلولهای پیچشی (یا لایههای پولینگ) و کرنلهایی هستند که هر یک، به هدف متفاوتی خدمتدهی میکند. کرنلهای پیچشی در واقع دادههای ورودی را پردازش میکنند و لایههای پولینگ (گردآوری) این کار را با کاهش ویژگیهای غیر لازم، سادهتر میکنند (معمولا با استفاده از توابع غیر خطی مانند Max).شبکههای عصبی پیچشی عمیق معمولا برای «بازشناسی تصویر» (Image Recognition) مورد استفاده قرار میگیرند؛ این شبکهها، روی یک زیرمجموعه از تصاویر (چیزی در حدود 20×20) عمل میکنند. پنجره ورودی، روی کل تصویر به صورت کرکرهای، پیکسل به پیکسل، عبور میکند. دادهها به لایههای پیچشی پاس داده میشوند و این امر موجب میشود که یک قیف شکل بگیرد (فشردهسازی ویژگیهای ورودی). در حوزه بازشناسی تصویر، اولین لایه گرادیان، دومین لایه خطوط و سومین لایه شکل را شناسایی میکند و این روال به همین ترتیب در مقیاس یک شی مشخص ادامه خواهد داشت. DFF معمولا به لایه پیچشی نهایی پیوست میشود تا پیشپردازشهای داده آتی انجام شود.
شبکه دکانولوشنی
«شبکه دکانولوشنی» (Deconvolution Network | DN)، معکوس DCN است. شبکه دکانولوشنی تصویر گربه را دریافت و برداری مانند {dog : 0,lizard : 0,horse :0, cat :1} میسازد. شبکه پیچشی عمیق میتواند این بردار را دریافت کند و بر اساس آن، تصویر یک گربه را بکشد.
شبکه گرافیکی معکوس پیچشی عمیق
«شبکه گرافیکی معکوس پیچشی عمیق» (Deep Convolutional Inverse Graphics Network | DCIGN) که در تصویر بالا نمایش داده شده، به گونهای است که به نظر میرسد DCN و DN به یکدیگر چسبانده شدهاند؛ اما این درست نیست. در واقع، DCIGN یک خود رمزگذار است. DCN و DN به عنوان شبکههای مجزا عمل نمیکنند، در عوض، آنها فاصلهگذارهایی برای ورودی و خروجی شبکه هستند. این نوع از شبکهها که بیشتر برای پردازش تصویر مورد استفاده قرار میگیرند، میتوانند تصاویری را پردازش کنند که پیش از این، با آنها آموزش ندیده باشند. DCIGNها به دلیل سطوح انتزاعی که دارند، میتوانند شی خاصی را از تصویر حذف کنند، آن را از نو بکشند و یا مثلا، اسبها را با گورهخرها جایگزین کنند (مانند کاری که با CycleGAN در یک پژوهشی انجام شده است).
شبکه مولد تخاصمی
«شبکههای مولد تخاصمی» (Generative Adversarial Networks) خانواده بزرگی از شبکههای دوتایی هستند که از «مولد» (Generator) و «متمایزگر» (Discriminator) ساخته شدهاند. این نوع از شبکههای عصبیِ دائما در حال تحول، در شرایطی که بتوان توازن آموزش را بین این دو شبکه (در دوتایی) حفظ کرد، میتوانند تصاویر واقعی تولید کنند.
ماشین حالت سیال
«ماشین حالت سیال» (Liquid State Machine | LSM) یک شبکه عصبی اسپارس (کاملا متصل نیست) است که در آن، توابع فعالسازی با سطح آستانه جایگزین شدهاند. سلول، مقادیر را از نمونههای ترتیبی تجمیع میکند و خروجی را تنها هنگامی میدهد که به آستانه رسیده باشد؛ سپس، شمارنده خارجی را مجددا روی صفر قرار میدهد. چنین ایدهای، از مغز انسان الهام گرفته شده است و این شبکهها به طور گستردهای در «بینایی کامپیوتری» (Computer Vision) و سیستمهای بازشناسی گفتار مورد استفاده قرار میگیرند؛ اما پیشرفتهای اساسی نداشتهاند.
ماشین یادگیری حداکثری
«ماشین یادگیری حداکثری» (Extreme Learning Machine | ELM) تلاشی برای کاهش پیچیدگی نهفته در پس شبکههای عصبی پیشخور است. این کار با ساخت لایههای پنهان اسپارس با اتصالات تصادفی، انجام میشود. این نوع از شبکههای عصبی به قدرت محاسباتی کمتری نیاز دارند، اما کارایی واقعی آنها به شدت بستگی به وظیفه قابل انجام و دادهها دارد.
شبکه حالت پژواک
«شبکه حالت پژواک» (Echo State Network | ESN)، زیرنوعی از شبکههای عصبی بازگشتی با رویکرد آموزشی ویژهای است. دادهها به ورودی و سپس، در صورتی که برای تکرارهای چندگانه مورد نظارت باشند، به خروجی پاس داده میشود (بدین شکل، این امکان فراهم میشود که ویژگیهای بازگشتی دخیل شوند). پس از انجام این کار، فقط وزنهای بین سلولهای پنهان به روز رسانی میشود. البته، این نوع از شبکههای عصبی کاربردهای قابل توجهی ندارند.
شبکه باقیمانده عمیق
«شبکه باقیمانده عمیق» (Deep Residual Network | DRN) یک شبکه عمیق است که در آن، بخشی از دادههای ورودی به لایههای بعدی پاس داده میشوند. این ویژگی، به این شبکهها این امکان را میدهد که حقیقتا عمیق باشند (تا ۳۰۰ لایه)، اما در واقع، نوعی از شبکههای پیچشی عمیق بدون تاخیر صریح هستند.
شبکه عصبی کوهنن
«شبکه عصبی کوهنن» (Kohonen Network | KN)، ویژگی فاصله تا سلول را معرفی میکند. این نوع از شبکههای عصبی برای دستهبندی استفاده میشوند و تلاش میکنند تا سلولهای خود را برای بیشینه واکنش به یک ورودی خاص آماده کنند. هنگامی که برخی از سلولها به روز رسانی میشوند، نزدیکترین همسایههای آنها نیز به همین ترتیب به روز رسانی میشوند. همچون «ماشین بردار پشتیبان» (Support Vector Machine)، این نوع از شبکهها نیز معمولا همیشه به عنوان شبکههای عصبی «واقعی» به حساب نمیآیند.
ماشین بردار پشتیبان
«ماشین بردار پشتیبان» (Support Vector Machine | SVM) برای وظیفه «دستهبندی دودویی» (Binary Classification) قابل استفاده است. اهمیتی ندارد که چند بُعد – یا ورودی – در شبکه پردازش شود، ورودی همیشه «بله» یا «خیر» است. ماشینهای بردار پشتیبان، در اغلب مواقع به عنوان شبکههای عصبی در نظر گرفته نمیشوند.
ماشین تورینگ عصبی
شبکههای عصبی به نوعی مانند جعبه سیاه هستند. این شبکهها را میتوان آموزش داد، نتایج آنها را دریافت کرد، آنها را بهبود بخشید؛ ولی مسیر تصمیمگیری آنها در اغلب مواقع از چشم انسان پنهان است. «ماشین تورینگ عصبی» (Neural Turing Machine | NTM)، تلاشی برای حل این مشکل است. این نوع از شبکه عصبی، در واقع یک شبکه عصبی پیشخور (FF) با سلولهای حافظه استخراج شده است. برخی از پژوهشگران نیز بر این باورند که ماشین عصبی تورینگ، نوعی از انتزاع بر فراز LSTM است. در این نوع از شبکههای عصبی، حافظه به وسیله محتوای آن ارجاع داده میشود و شبکه میتواند بسته به حالت کنونی، از حافظه بخواند و در آن بنویسند.
اگر نیاز به ترجمه تخصصی و شبیه سازی با متلب دارید,
سایت متلبی به صورت تخصصی پروژه های شبکه عصبی را انجام میدهد. در زیر میتوان به صورت کلیدی به آنها اشاره کرد:
لطفا از طریق دکمه روبرو پروژه شبکه عصبی خود را ثبت کنید.