کلمات | توضیح | |
---|---|---|
۱ | Sampling Bias |
سوگیری انتخاب را مشاهده کنید. |
۲ | Scalar |
یک عدد یا یک رشته منفرد که میتواند به عنوان تنسور درجه ۰ نمایش داده شود. به عنوان مثال کدهای زیر هر کدام یک مقیاس را در TensorFlow ایجاد میکنند: breed = tf.Variable("poodle",... |
۳ | Scaling |
روشی معمول در مهندسی ویژگی که برای تعدیل دامنه مقادیر یک ویژگی، برای مطابقت با دامنهی سایر ویژگیهای مجموعه داده مورد استفاده قرار میگیرد. به عنوان مثال فرض کنید میخواهید همه ویژگیهای شناور در... |
۴ | Scikit-Learn |
یک پلتفرم محبوب مخزن باز یادگیری ماشین است. برای اطلاعات بیشتر به سایت www.scikit-learn.org مراجعه کنید. |
۵ | Scoring |
بخشی از یک سیستم توصیهگر که برای هر مورد تولید شده به عنوان نامزد پیشنهادی، یک مقدار یا رتبه را ایجاد میکند. |
۶ | Selection Bias |
علت بروز خطا در نتیجهگیری از دادههای نمونهگیری شده، فرایند انتخاب است که ضمن آن تفاوتهای سیستماتیک بین نمونههای مشاهده شده در مجموعه دادهها و موارد مشاهده نشده ایجاد میشود. اشکال زیر از سوگیری... |
۷ | Semi-Supervised Learning |
آموزش مدلی بر روی داده ها که در برخی از نمونه های آموزش دارای برچسب است اما در برخی دیگر اینگونه نیست. یک روش برای یادگیری نیمه نظارت ، استنباط برچسب برای مثالهای بدون برچسب و سپس آموزش بر روی برچسب... |
۸ | Sensitive Attribute |
یک ویژگی انسانی که ممکن است به دلایل حقوقی، اخلاقی، اجتماعی یا شخصی مورد توجه ویژه قرار گیرد. |
۹ | Sentiment Analysis |
استفاده از الگوریتم های آماری یا یادگیری ماشین برای تعیین نگرش کلی یک گروه - مثبت یا منفی - نسبت به یک خدمت، محصول، سازمان یا موضوع. به عنوان مثال، یک الگوریتم میتواند با استفاده از درک زبان طبیعی،... |
۱۰ | Sequence Model |
مدلی که در آن ورودیها به یک توالی وابسته هستند. به عنوان مثال، پیشبینی فریم بعدی در یک ویدیو بر اساس فریمهای قبلیای که از آن مشاهده شده. |
۱۱ | Serving |
مترادف: استنباط |
۱۲ | Shape (Tensor) |
تعداد المانهایی که در هر یک از ابعاد از یک تنسور قرار میگیرند. شکل یک تنسور به شکل لیستی از اعداد نشان داده میشود. به عنوان مثال، شکل تنسور دوبعدی زیر [3, 4] است: [[5, 7, 6, 4], [2, 9, 4, 8], [3,... |
۱۳ | Sigmoid Function |
تابعی که خروجی رگرسیون چندجملهای یا لجستیک را به احتمال نگاشت میدهد و مقداری بین ۰ و ۱ برمیگرداند. تابع سیگوید به صورت زیر تعریف شده است: که سیگما در مسالههای رگرسیون لجستیک به سادگی به شکل زیر... |
۱۴ | Similarity Measure |
در الگوریتمهای خوشهبندی، به معیاری گفته میشود که برای تعیین این که چقدر دو نمونه به هم شبیهند، استفاده میشود. |
۱۵ | Size Invariance |
در یک مساله دستهبندی تصاویر، به توانایی یک الگوریتم در دستهبندی درست با وجود تغییر در اندازه تصویر گفته میشود. به عنوان مثال، الگوریتم باید بتواند یک خودرو را در تصویر تشخیص دهد، بدون توجه به این... |
۱۶ | Sketching |
دستهای از الگوریتمها در یادگیری بدون نظارت، که یک تحلیل شباهت اولیه بر روی دادهها انجام میدهد. الگوریتمهای ترسیم از تابع درهمسازی (hash) حساس به مکان استفاده میکند تا مواردی را که به احتمال... |
۱۷ | Softmax |
تابعی که به ازای هر دسته در یک مدل طبقهبندی چندکلاسه احتمال را محاسبه میکند. مجموع احتمالات برابر ۱ خواهد بود. به عنوان مثال، تابع بیشینه هموار ممکن است تشخیص دهد که احتمال این که یک تصویر مشخص... |
۱۸ | Sparse Feature |
یک بردار ویژگی که مقادیر آن اکثرا صفر یا خالی هستند. به عنوان مثال، یک بردار که تنها یک مقدار ۱ و میلیونها مقدار صفر دارد پراکنده است. به عنوان مثال دیگر، کلماتی که در عبارت مورد جستوجو قرار دارند... |
۱۹ | Sparse Representation |
بازنمایی از یک تنسور که تنها المانهای غیر صفر را نگهداری میکند. به عنوان مثال، زبان انگلیسی شامل حدود یک میلیون کلمه است. دو روش زیر را برای نمایش تعداد کلمات به کار رفته در یک جمله انگلیسی را در... |
۲۰ | Sparse Vector |
یک بردار که بیشتر مقادیرش صفر هستند. مطالعه بیشتر: ویژگی پراکنده |
۲۱ | Sparsity |
تعداد المانهایی از یک بردار یا ماتریس که صفر هستند تقسیم بر تعداد کل المانها. به عنوان مثال، یک ماتریس ۱۰*۱۰ با ۹۸ سلول برابر صفر را درنظر بگیرید. مقدار پراکندگی در این مثال برابر است با: پراکندگی... |
۲۲ | Spatial Pooling |
اطلاعات بیشتر: ادغام |
۲۳ | Squared Hinge Loss |
مربع خطای Hinge. مجذور خطای hinge دادههای پرت را شدیدتر از خطای hinge عادی سرکوب میکند. |
۲۴ | Squared Loss |
تابع خطای مورد استفاده در مسالههای رگرسیون خطی که تحت عنوان زیان L2 نیز شناخته میشود. این تابع مجذور اختلاف بین مقدار پیشبینیشده توسط مدل و برچسب واقعی یک نمونه برچسبزدهشده را محاسبه میکند. با... |
۲۵ | State-Action Value Function |
مترادف: تابع Q |
۲۶ | State |
در یادگیری تقویتی، مقادیر پارامتر که تنظیمات فعلی محیطی را توصیف میکند، که عامل برای انتخاب یک عمل از آن استفاده میکند. |
۲۷ | Static Model |
مدلی که به صورت برونخطی (offline) آموزش دیده است. |
۲۸ | Stationarity |
یک ویژگی در دادههای موجود در یک مجموعه داده، که بیانگر ثابت ماندن توزیع دادهها در یک یا چند بعد میباشد. این بعد معمولا زمان است، و به این معناست که دادههایی که نشاندهندهی ایستایی هستند، با گذشت... |
۲۹ | Step |
بک ارزیابی روبهجلو و معکوس بر روی یک دسته از دادهها. |
۳۰ | Step Size |
مترادف: نرخ یادگیری (learning rate) |
۳۱ | Stochastic Gradient Descent (SGD) |
یک الگوریتم کاهش شیب که در آن تعداد دادههای یک دسته برابر یک است. به بیان دیگر، این الگوریتم برای تخمین شیب در هر گام، تنها به یک نمونه داده که به صورت تصادفی از میان مجموعه داده انتخاب شده نیاز... |
۳۲ | Stride |
در هر عملگر کانولوشنی یا ادغام، به فاصله بین سریهای دادههای ورودی در هر بعد گفته میشود. به عنوان مثال، در نمونه زیر میتوانید یک عملگر کانولوشنی با قدمهای (۱,۱) را ببینید. بنابراین هر برش از... |
۳۳ | Structural Risk Minimization (SRM) |
الگوریتمی که بین دو هدف زیر تعادل برقرار میکند: تمایل به ساخت پیشبینیکنندهترین مدل (مثلا با کمترین خطا) تمایل به ساده نگه داشتن مدل تا حد امکان (مثلا استفاده از نظمدهی قوی) به عنوان مثال، تابعی... |
۳۴ | Subsampling |
به ادغام رجوع کنید. |
۳۵ | Supervised Machine Learning |
آموزش یک مدل بر اساس دادههای ورودی و برچسبهای متناظر آنها. یادگیری ماشین با ناظر مانند دانش آموزی است که با مطالعهی مجموعهای از سوالات و پاسخهای مربوط به آنها، موضوعی را یاد میگیرد. بعد از... |
۳۶ | Synthetic Feature |
ویژگیای که در بین ویژگیهای ورودی قرار ندارد، بلکه با استفاده از یک یا چند مورد از آنها ساخته میشود. برای معرفی نمونههایی از این ویژگیها میتوان به موارد زیر اشاره کرد: سطلبندی کردن یک ویژگی... |