یادگیری آماری (Statistical learning theory)

اصل و اساس علم داده، یادگیری بر اساس داده‌های موجود است که از طریق علم یادگیری آماری صورت می‌گیرد. تئوری یادگیری آماری، چارچوبی برای یادگیری ماشین تحت نظارت و بدون نظارت است، که بر مبنای آمار و تحلیل تابع بنا شده است. در واقع این تئوری با مسئله یافتن یک تابع پیش‌بینی بر اساس داده‌ها سروکار دارد.

یادگیری آماری و هوش مصنوعی

در دنیای واقعی، عدم قطعیت عنصر اصلی بسیاری از محیط‌های هوش مصنوعی (AI) است. به‌طور نامشخص، ما به خصوصیاتی اشاره می‌کنیم که یک عامل هوش مصنوعی را از دانستن نتیجه دقیق یک ترکیب خاص از حالت دقیق و مشخص بازمی‌دارد. اینگونه نتایج در محیط‌های غیرقابل مشاهده (nondeterministic) ویا پاره‌ای قابل‌مشاهده (partially observable) رخ می‌دهد.

یادگیری آماری به ابزاری قدرتمند برای غلبه بر عدم اطمینان در محیط‌های هوش مصنوعی شده است، و به‌تبع آن، در بسیاری از چارچوب‌های مدرن هوش مصنوعی به‌طور گسترده اجرا شده است. از جمله تکنیک‌های آماری راهگشا و مؤثر در هوش مصنوعی روش آماری یا یادگیری بیز (Bayes) است. روش آماری بیز با استفاده از رابطه (P (A | B بیان می‌کند که احتمال رخداد A به ‌شرط B چقدر است.

در اصل، یادگیری بیزی یا آماری بر محاسبه احتمالات هر فرضیه در یک محیط AI تمرکز دارد و بر اساس آن پیش‌بینی خود را انجام می‌دهد. البته مدل‌های یادگیری بیزی غالباً در محیط‌هایی که تعداد فرضیه‌ها بسیار بزرگ یا نامتناهی است، ناکارآمد هستند. یک الگوریتم بسیار شناخته‌شده هوش مصنوعی که سعی در رفع این محدودیت‌ها دارد، maximum a posterior است که به‌سادگی پیش‌بینی خود را بر اساس تنها فرضیه انجام و محتمل ترین پیش‌بینی را بیان می‌کند.

تقسیم‌بندی یادگیری آماری

تقسیم بندی یادگیری اماری

روش‌های اصلی آماری در یادگیری آماری را می‌توان به سه دسته‌ی رگرسیون، رده‌بندی و خوشه‌بندی تقسیم کرد. از کاربردهای یادگیری آماری در کارهای آماری می‌توان به شناسایی داده‌های پرت، یکپارچه‌سازی داده‌ها، کدگذاری فعالیت‌ها، مناطق جغرافیایی و … اشاره کرد. به‌منظور افزایش کیفیت چارچوب‌های نمونه‌گیری برای انتخاب دقیق نمونه و دسترسی سریع به نمونه‌های تصادفی، از تکنیک رده‌بندی و رگرسیون استفاده می‌شود.

 

 

 

 

 

 

تئوری یادگیری آماری در عمل چگونه کار می‌کند؟

چگونه تئوری یادگیری آماری در عمل کار می کند؟

رویکرد یادگیری عمومی مانند سایر رشته‌های علمی مشابه است:

1. مشاهده یک پدیده

2. ساختن الگویی از آن پدیده

3. پیش‌بینی با استفاده از مدل به دست آمده

 

 

اما در یادگیری ماشین آماری، نیاز است کل فرآیند برای یک برنامه کامپیوتری خودکار اجرا شود تا از آن یاد بگیرد. بنابراین فرض می‌شود که هر مرحله از این روش به صورت کاملاً تصادفی رخ می‌دهد.

این بدان معناست که اگر همه مشاهدات گذشته و آینده نمونه‌ای تصادفی باشند، می‌توان اطلاعات مربوط به هر رخداد (توزیع احتمال) را با یقین و قطعیت استنباط کرد. این روند اجازه می‌دهد الگوریتم‌های یادگیری مانند k-نزدیک‌ترین همسایه را با مقدار k مناسب ساخت. این‌ها الگوریتم‌هایی سازگار هستند. با افزایش تعداد داده‌ها پیش‌بینی‌های الگوریتم به راه‌حل‌های بهینه نزدیک و نزدیک‌تر می‌شود.

برای مثال، سوابق پزشکی الکترونیکی به طور معمول شامل مشاهدات در مورد علائم است و نه خود بیماری. در آن سناریوها الگوریتم‌هایی مانند خوشه‌بندی بدون نظارت با استفاده از روش Gaussian ، آموزش شبکه‌های بیزی و یادگیری مدل‌های مارکوف پنهان معمولاً انتخاب خوبی هستند.

پس به‌طور کلی یادگیری آماری ابزاری قدرتمند در زمینه یادگیری ماشین است که منجر به کاربردهای موفق در زمینه‌هایی مانند بینایی کامپیوتر، تشخیص گفتار و بیوانفورماتیک شده است.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.