تعریف
نوعی تنظیم کارآمد در آموزش شبکههای عصبی است که با حذف یک انتخاب تصادفی از تعداد ثابت واحدهای یک لایه شبکه کار می کند. هرچه واحدها بیشتر از بین بروند، نظم و انعطاف پذیری قویتر میشود.که شبیه به آموزش شبکه برای تقلید از یک مجموعه نمایی بزرگ از شبکههای کوچکتر است. برای جزئیات کامل به "Dropout: A Simple Way to Prevent Neural Networks from Overfitting" مراجعه کنید.
آخرین ویرایش: ۱ شهریور ۱۳۹۹