Inception module در شبکه‌های عصبی پیچشی (CNN)

 

Inception module در شبکه‌های عصبی پیچشی (CNN) مورد استفاده قرار می‌گیرد تا محاسبات کارآمدتری را انجام دهد و شبکه‌های عمیق‌تر را از طریق کاهش ابعاد با پیچش‌های ۱ *۱ ایجاد کند. در واقع راهی برای حل مسائل تشخیص و تصحیح تصویر و معماری یادگیری عمیق محسوب می‌شود. Inception module برای کاهش هزینه‌های محاسباتی و همچنین جلوگیری از اتصالات بیش از اندازه طراحی شده‌اند. به طور خلاصه، راه حل این است که فیلترهای هسته با اندازه‌های مختلف را درون CNN قرار دهید و به جای اینکه آنها را به صورت متوالی انباشته کنید، به آنها دستور دهید که در همان سطح کار کنند.

Inception module چگونه کار می‌کند؟

Inception module ترکیبی از تمام لایه‌های پیچشی (۱ * ۱ – ۳ * ۳ – ۵ * ۵) است که فیلتر خروجی آنها یک بردار است که ورودی مرحله بعدی را تشکیل می‌دهد.

Inception module

مثالInception module:

برای درک اهمیت ساختار Inception module، به مثال زیر توجه کنید:

مثالInception module

به‌طور مثال فرض کنید یک لایه در مدل یادگیری عمیق یاد گرفته است که روی قسمت‌های مختلف اجزای صورت تمرکز کند. لایه بعدی شبکه احتمالاً بر روی کلیت صورت موجود در تصویر متمرکز می‌شود تا اجزای مختلف موجود در چهره را مشخص کند. حال برای انجام این کار، لایه باید فیلترهایی با اندازه مناسب داشته باشد تا اشیاء مختلف را تشخیص دهد.

 

 

 

 

 

 

مثال Inception module

اینجاست که Inception module ظاهر می‌شود و اجازه می‌دهد تا لایه‌های داخلی انتخاب شوند که اندازه فیلتر آنها مناسب برای یادگیری اطلاعات موردنیاز است. بنابراین حتی اگر اندازه صورت در تصویر متفاوت باشد (همان‌طور که در تصاویر مقابل مشاهده می‌شود)، برای تشخیص چهره، لایه متناسب به کار برده می‌شود. برای تصویر اول، احتمالاً از فیلتری با اندازه بزرگ‌تر استفاده می‌شود، در حالی که برای تصویر دوم فیلتر کوچک‌تری را در نظر می‌گیرد.

 

طراحی Inception module اولیه معمولاً با عنوان GoogLeNet یا Inception v۱ شناخته می‌شود. تغییرات اضافی در ماژول شروع طراحی شده است، که مسائلی مانند مشکل ناپدید شدن گرادیان را کاهش می‌دهد.

  • اکنون که شما معماری GoogLeNet و شهود پشت آن را درک کرده‌اید، می‌توانید به سادگی با پایتون و کتابخانه Keras آن را پیاده کنید.(لینک پیاده سازی)

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.