نوع دورهشهریهنام استادمدت زمانتاریخ شروعزمان برگزاریپیشنیازوضعیت دورهثبت نام
حضوری یا آنلاین8,500,000 تومانمهندس مصطفایی64 ساعت1404/02/11
پنج شنبه 16:30 تا 20:30
برنامه نویسی پایتون
درحال ثبت نام
📝 ثبت نام
نوع ثبت نامقیمتتخفیف نقدیمبلغ کلشرایط ثبت نامنوع کلاسثبت نام
نقدی8,500,000 تومان تومان8,500,000 تومانپرداخت کل مبلغ هنگام ثبت نام ثبت نام نقدی
حضوری یا آنلاین6,500,000 تومانمهندس مصطفایی64 ساعت1403/10/14
جمعه 13:30 تا 17:30
برنامه نویسی پایتون
درحال برگزاری
تکمیل ثبت نام
نوع ثبت نامقیمتتخفیف نقدیمبلغ کلشرایط ثبت نامنوع کلاسثبت نام
نقدی6,500,000 تومان تومان6,500,000 تومانپرداخت کل مبلغ هنگام ثبت نام ثبت نام نقدی
درباره دوره یادگیری ماشینهوش مصنوعی و ماشین لرنینگپروژه دانشجویان دوره یادگیری ماشین
نمونه تدریس دوره یادگیری ماشین
چرخه عمر هوش مصنوعی
هوش مصنوعی چیست
تفاوت بین هوش مصنوعی و علم داده
پروژه دوره یادگیری ماشین امیرمحمد شهرجردی
پروژه دوره یادگیری ماشین سید هادی قدوسی
پروژه دوره یادگیری ماشین نگار مالکی
پروژه دوره یادگیری ماشین نگین محبان
دوره ماشین لرنینگ – از صفر تا مهارت تخصصی در هوش مصنوعی
کلاس ماشین لرنینگ ما کاملاً پروژهمحوره! توی این دوره، یادگیری ماشین لرنینگ رو از پایه با پروژه های
ماشین لرنینگ واقعی یاد میگیری.
از تحلیل دادهها با Numpy و Pandas شروع میکنی
با مدلهایی مثل Perceptron، Logistic Regression، SVM و KNN آشنا میشی
با تکنیکهای Bagging و Boosting، کاهش ابعاد با LDA و PCA کار میکنی
در نهایت، با PyTorch و مفاهیم یادگیری عمیق (Deep Learning) مدلهات رو توسعه میدی
کلاسهای ما تمرینی و پروژهمحورن! توی این دوره، با پروژههای ماشین لرنینگ واقعی کار میکنی و استاد
همیشه کنارت هست تا همه تمرینها و سوالاتت رو جواب بده. تمرینات و کدهای پروژههات رو توی پنل دانشجویی
بارگذاری میکنی و استاد هم اونا رو ارزیابی میکنه. حتی بعد از دوره هم پشتیبانی داریم!
این دوره به تو یه نقشه راه ماشین لرنینگ کامل میده تا تو رو برای دنیای داده و مهندس یادگیری ماشین شدن
آماده کنه!
دوره جامع آموزش یادگیری ماشین (ماشین لرنینگ) | پروژهمحور و کاربردی
چرا باید یادگیری ماشین لرنینگ را یاد بگیرید؟
یادگیری ماشین لرنینگ یکی از پرکاربردترین و پردرآمدترین مهارتهای هوش مصنوعی است. اگر قصد ورود به حوزه
متخصص
هوش مصنوعی و یادگیری ماشین را دارید، این دوره شما را از مبانی یادگیری ماشین تا پروژههای عملی هدایت
میکند.
کاربردهای یادگیری ماشین:
تشخیص بیماریها و پردازش تصاویر پزشکی
پیشبینی قیمت خانه، ارز و شاخص بورس
تحلیل رفتار کاربران در کسبوکارهای آنلاین
بهینهسازی تبلیغات و سیستمهای پیشنهاددهنده
ماشین لرنینگ چیه و چگونه کار میکند؟
ماشین لرنینگ چیه؟ یادگیری ماشین لرنینگ یکی از شاخههای هوش مصنوعی است که به مدلها امکان میدهد از
دادهها
یاد بگیرند و بدون برنامهنویسی مستقیم تصمیمگیری کنند. در این دوره یاد میگیرید که چطور با
الگوریتمهای
یادگیری ماشین، دادهها را پردازش و تحلیل کنید.
آنچه در این دوره یاد میگیرید:
نحوه کار با دادهها و پیادهسازی مدلها با Scikit Learn و XGBoost
آموزش الگوریتمهای یادگیری ماشین و طبقهبندی دادهها
استفاده از دادههای واقعی در پروژههای عملی
نقشه راه ماشین لرنینگ – از صفر تا متخصص
اگر مبتدی هستید، نقشه راه ماشین لرنینگ شامل این مراحل است:
آشنایی با مبانی یادگیری ماشین و الگوریتمهای پایهای
یادگیری پایتون و کار با کتابخانههای Pandas، Numpy و Matplotlib
آشنایی با الگوریتمهای یادگیری ماشین مانند KNN، درخت تصمیم و SVM
کار روی پروژههای عملی مانند پیشبینی قیمت خانه و تحلیل دادههای بورس
آشنایی با الگوریتمهای پیشرفته مانند XGBoost و مدلهای ترکیبی (Bagging & Boosting)
شرکت در مسابقات Kaggle و تحلیل دادههای واقعی
این دوره مناسب چه کسانی است؟
اگر به دنبال یادگیری ماشین لرنینگ و ورود به دنیای دادهکاوی هستید.
اگر دانشجو یا فارغالتحصیل رشتههای مهندسی کامپیوتر، آمار، هوش مصنوعی یا علوم داده هستید.
اگر میخواهید مهندس یادگیری ماشین شوید و با الگوریتمهای یادگیری ماشین و پروژههای عملی کار
کنید.
اگر قصد ورود به بازار کار به عنوان متخصص هوش مصنوعی و یادگیری ماشین را دارید.
پیش نیاز ماشین لرنینگ – قبل از شروع چه چیزهایی بدانیم؟
برای شرکت در این دوره، بهتر است با پیش نیاز ماشین لرنینگ آشنا باشید:
آشنایی مقدماتی با پایتون و برنامهنویسی
مفاهیم پایهای ریاضیات، آمار و جبر خطی
تحلیل دادهها با Pandas و Numpy (اختیاری)
نگران نباشید! این دوره همه چیز را از پایه و قدمبهقدم آموزش میدهد.
انواع ماشین لرنینگ و الگوریتمهای یادگیری ماشین
انواع ماشین لرنینگ شامل یادگیری با نظارت، بدون نظارت و تقویتی
پیشبینی نتایج مسابقات فوتبال با مدلهای یادگیری ماشین
پیشبینی قیمت خانه، ارز و شاخص بورس با الگوریتمهای رگرسیون
تحلیل و پردازش دستخط و تشخیص کاراکترها با دادههای تصویری
بررسی مسابقات Kaggle و انجام یکی از پروژههای آن
خوشهبندی مشتریان بانک و تحلیل الگوهای رفتاری آنها
سرفصل های دوره یادگیری ماشین
بخش اول: مروری بر پیشنیازهای یادگیری ماشین
در این بخش، با مفاهیم پایهای یادگیری ماشین (Machine Learning) آشنا میشوید و ارتباط آن را با علم داده (Data
Science)، هوش مصنوعی (Artificial Intelligence) و دادهکاوی (Data Mining) بررسی میکنید. اگر قصد ورود به
دنیای یادگیری ماشین لرنینگ را دارید، درک این مباحث به شما کمک خواهد کرد.
آنچه در این بخش یاد میگیرید
تعریف و مفاهیم یادگیری ماشین و تفاوت آن با سایر شاخههای علوم داده
انواع روشهای یادگیری ماشین (یادگیری با نظارت، بدون نظارت، تقویتی)
پیشنیازهای فنی و ابزارهای مورد نیاز شامل Numpy، Pandas و Matplotlib
نکته: اگر با این کتابخانهها آشنا نیستید، در این دوره بهطور کامل آموزش داده میشوند.
تمرینات و تکالیف عملی برای تثبیت مباحث این بخش در نظر گرفته شده است.
مهمترین مباحث این بخش
آموزش کتابخانه Numpy
ساخت آرایهها و عملیات روی آنها
Indexing، Slicing، Iterating
آرایههای چندبعدی و عملیات اسلایسینگ
تفاوت Copy و View در آرایههای Numpy
تغییر شکل آرایهها با تابع Reshape
اتصال آرایهها با تابع Concatenate
جداسازی و مرتبسازی آرایهها در Numpy
آموزش کتابخانه Pandas
معرفی Series و تفاوت آن با آرایه و دیکشنری
ایجاد و کار با DataFrame
Indexing و دسترسی به المانهای DataFrame
عملیات روی دیتافریمها: Concat، Append، Groupby و Pivot
ترکیب نمودارها و اضافه کردن جزئیات بیشتر برای تحلیل بهتر دادهها
با یادگیری این مباحث، پایهای قوی برای ورود به مباحث پیشرفته یادگیری ماشین خواهید داشت!
بخش دوم: مقدمهای بر یادگیری ماشین و کاربردهای آن
در این بخش، وارد دنیای یادگیری ماشین (Machine Learning) میشویم و اصول پایهای آن را بررسی میکنیم. درک مبانی
یادگیری ماشین به شما کمک میکند تا مسیر خود را در این حوزه مشخص کنید و با الگوریتمهای یادگیری ماشین آشنا
شوید.
در این بخش یاد میگیرید
یادگیری ماشین چیه؟ و چه تفاوتی با سایر شاخههای هوش مصنوعی دارد.
دادهکاوی و نقش آن در یادگیری ماشین
چطور مدلهای هوشمند طراحی و پیادهسازی کنیم؟
یادگیری ماشین با نظارت و بدون نظارت چیست؟
تمرینات عملی: در این بخش، اولین مدل یادگیری ماشین خود را پیادهسازی میکنید و از دیتاستهای معروف مانند MNIST
و IRIS برای آموزش و تست مدلهای خود استفاده خواهید کرد.
مباحث مهم این بخش
مفاهیم پایهای و کاربردهای یادگیری ماشین
تعریف علم داده، دادهکاوی، یادگیری عمیق، شبکههای عصبی مصنوعی
آینده شغلی مهندس یادگیری ماشین و مسیر پیشرفت در این حوزه
چرا یادگیری ماشین لرنینگ برای آینده مهم است؟
یادگیری با نظارت و بدون نظارت
تفاوت Classification و Regression
آشنایی با دیتاستهای واقعی مانند IRIS و MNIST
بررسی الگوریتم Perceptron بهعنوان اولین مدل یادگیری ماشین
پیادهسازی اولین مدل یادگیری ماشین
ایجاد مدل Perceptron از صفر بدون استفاده از Scikit-Learn
نوشتن توابع مهم مانند Fit، Predict و محاسبه خطا
تست مدل روی دادههای واقعی و تحلیل نتایج
تمرینات و پروژههای کاربردی
تشخیص دستخط خودتان با مدل Perceptron و دادههای MNIST
معرفی کتابخانه OpenCV برای خواندن تصاویر
شرکت در تمرینات کلاسی و تکالیف عملی
با یادگیری این بخش، پایهای قوی برای کار با الگوریتمهای یادگیری ماشین و تحلیل داده خواهید داشت!
بخش سوم: یادگیری با نظارت (Classification) – ورود به دنیای مدلهای طبقهبندی
در این بخش، با مدلهای یادگیری ماشین با نظارت آشنا خواهید شد که برای طبقهبندی دادهها مورد استفاده قرار
میگیرند. مدلهای Classification در پروژههای ماشین لرنینگ مانند تشخیص بیماری، تشخیص دستخط، فیلتر ایمیلهای
اسپم، و دستهبندی تصاویر و متن کاربرد دارند.
آنچه در این بخش یاد میگیرید
انواع ماشین لرنینگ – یادگیری با نظارت و بدون نظارت
کار با دادههای واقعی – نحوه پیشپردازش دادهها (Preprocessing) و تحلیل اکتشافی دادهها (EDA)
استانداردسازی و نرمالسازی دادهها برای افزایش دقت مدلها
آموزش الگوریتمهای یادگیری ماشین و تست آنها روی دیتاستهای واقعی
بررسی نقاط قوت و ضعف هر الگوریتم و انتخاب مدل مناسب
الگوریتمهای یادگیری ماشین که در این بخش آموزش داده میشوند
مدل Perceptron – اولین الگوریتم یادگیری ماشین
معرفی و پیادهسازی Perceptron از صفر بدون استفاده از Scikit-Learn
پیادهسازی توابع Fit، Predict و محاسبه خطا
تست مدل روی دیتاست IRIS و تحلیل نتایج
Logistic Regression – مدل رگرسیون لجستیک
کاربرد در پیشبینی احتمال رخداد یک رویداد
مقایسه Regression vs Classification
حل پروژههای واقعی با Logistic Regression
بررسی مقالات معتبر و پیادهسازی مدلهای مشابه
درخت تصمیم (Decision Trees) – مدلهای ساده و قدرتمند
نحوه ساخت و استفاده از درختهای تصمیمگیری
مقایسه درخت تصمیم با سایر مدلهای یادگیری ماشین
پروژه عملی: دستهبندی دادههای مشتریان بانکی
جنگل تصادفی (Random Forest) – مدل ترکیبی قدرتمند
نحوه استفاده از تعدادی درخت تصمیم برای بهبود عملکرد
تحلیل مزایا و معایب الگوریتم Random Forest
اجرای پروژه عملی: پیشبینی قیمت مسکن با Random Forest
ماشین بردار پشتیبان (SVM) – الگوریتمی دقیق و محبوب
آشنایی با SVM و کاربرد آن در طبقهبندی دادهها
نحوه انتخاب Soft Margin SVM برای دادههای پیچیده
معرفی Kernel Trick و انواع کرنلها (RBF، Polynomial، Linear)
پروژه عملی: تشخیص دستخط با SVM
الگوریتم نزدیکترین همسایگان- KNN
نحوه عملکرد K-Nearest Neighbors (KNN) در پیشبینی برچسب دادههای جدید
انتخاب مقدار K بهینه برای بهترین دقت
پروژه عملی: تشخیص بیماری دیابت با KNN
دستهبندیکننده بیز ساده - Naive Bayes
نحوه کار مدلهای احتمالاتی در یادگیری ماشین
آموزش و پیادهسازی مدل Naive Bayes در طبقهبندی متن
بررسی مقالات و کاربردهای عملی Naive Bayes
XGBoost – یکی از قدرتمندترین الگوریتمهای یادگیری ماشین
معرفی XGBoost و کاربرد آن در دادههای پیچیده
مقایسه XGBoost با Random Forest و SVM
پروژه عملی: پیشبینی نتایج مسابقات فوتبال با XGBoost
بهینهسازی مدلها و جلوگیری از Overfitting & Underfitting
بررسی دلایل بیشبرازش و کمبرازش در مدلهای یادگیری ماشین
معرفی Regularization و Feature Selection برای بهبود مدل
آموزش Grid Search برای تنظیم بهینه هایپرپارامترها
نتیجه این بخش
پس از تکمیل این بخش، شما بهطور عملی یاد خواهید گرفت که چطور دادهها را پردازش کنید، الگوریتمهای مختلف را
آموزش دهید و مدلهای طبقهبندی را روی دیتاستهای واقعی اجرا کنید
بخش چهارم: اکتشاف، پاکسازی و پیشپردازش دادهها (EDA, Preprocessing, Data Cleaning)
چرا پردازش داده مهم است؟
قبل از اینکه بتوانیم یک مدل یادگیری ماشین (Machine Learning) را آموزش دهیم، باید دادهها را درک و آماده کنیم.
کیفیت دادهها مستقیماً روی دقت مدلهای یادگیری ماشین تأثیر دارد. در این بخش، یاد میگیریم که چگونه دادهها
را بررسی، پاکسازی و آماده کنیم.
چه چیزهایی در این بخش یاد میگیرید؟
تحلیل اکتشافی دادهها (EDA) – بررسی و شناخت دیتاستهای واقعی
مصورسازی دادهها – تحلیل نمودارهای تکمتغیره و چندمتغیره
کشف دادههای پرت و نامتوازن – شناسایی دادههای غیرعادی و راههای برخورد با آنها
مدیریت دادههای گمشده (Missing Values) – استراتژیهای جایگزینی مقادیر از دست رفته
پیشپردازش دادهها – تبدیل دادههای خام به دادههای قابلاستفاده در یادگیری ماشین
اکتشاف دادهها (Exploratory Data Analysis – EDA)
بررسی آماری دادهها: چطور بفهمیم که دادهها درست و متوازن هستند؟
مصورسازی تکمتغیره و چندمتغیره: استفاده از نمودارهای Histogram، Box Plot و Scatter Plot
شکل توزیع دادهها و بررسی همبستگی ویژگیها با برچسب هدف
نمودار Heat Map – تحلیل ارتباط بین ویژگیها
پاکسازی و پیشپردازش دادهها (Preprocessing, Data Cleaning)
مدیریت دادههای گمشده (Missing Values)
شناسایی مقادیر از دست رفته در دیتاست
استفاده از روشهای حذف داده، جایگزینی میانگین و روشهای پیشرفته مانند KNN Imputation
بررسی و حذف دادههای پرت (Outliers Detection)
روشهای آماری برای شناسایی دادههای پرت
استفاده از Z-Score و IQR برای حذف دادههای نامعتبر
کار با دادههای طبقهبندی شده (Categorical Data)
تبدیل دادههای متنی به دادههای عددی
Encoding Labels و استفاده از One-Hot Encoding در Pandas و Scikit-Learn
انتخاب ویژگیهای مهم (Feature Selection)
چگونه ویژگیهای غیرضروری را حذف کنیم؟
استفاده از Feature Importance در Random Forest
چرا این بخش مهم است؟
بدون پردازش صحیح دادهها، حتی بهترین مدلهای یادگیری ماشین هم عملکرد خوبی نخواهند داشت!
در این بخش یاد میگیریم که چطور دادهها را برای آموزش مدلهای یادگیری ماشین بهینهسازی کنیم تا خروجیهای
دقیق و معتبر داشته باشیم.
بخش پنجم: کاهش ابعاد در یادگیری ماشین
چرا کاهش ابعاد مهم است؟
در پروژههای یادگیری ماشین معمولاً با دیتاستهایی شامل هزاران ویژگی (Feature) مواجه میشویم. این حجم بالای
دادهها باعث افزایش هزینه محاسباتی، پیچیدگی مدل و احتمال Overfitting میشود. در این بخش، یاد میگیرید چگونه
با استفاده از روشهای کاهش ابعاد (Dimensionality Reduction) مانند PCA و LDA، مدلهای یادگیری ماشین را بهینه
کنید.
چالشهای کار با دادههای پرابعاد
زمان پردازش بالا – هر چه ویژگیها بیشتر باشند، مدلها کندتر آموزش میبینند.
افزایش پیچیدگی مدل – داشتن ویژگیهای زیاد، فهم مدل را دشوار میکند.
Overfitting – مدل یادگیری بیش از حد به دادههای آموزشی وابسته شده و روی دادههای جدید عملکرد خوبی ندارد.
نیاز به انتخاب ویژگیهای کلیدی – همه ویژگیها ارزش یکسانی ندارند، بعضی از آنها نویز هستند.
تکنیکهای کاهش ابعاد در یادگیری ماشین
تکنیک کاهش ابعاد برای دادههای غیرنظارتی – Principal Component Analysis (PCA)
PCA چیست؟
یک روش آماری برای کاهش تعداد ویژگیها بدون از دست دادن اطلاعات کلیدی
یافتن محورهای جدیدی که دادهها را در بعد کمتری نمایش میدهند
چه چیزی یاد میگیرید؟
آموزش PCA و بیان ریاضیات آن
نحوه پیادهسازی PCA در Scikit-Learn
کاربرد PCA در پروژههای یادگیری ماشین
مقایسه مدلها قبل و بعد از استفاده از PCA
بررسی مقالات علمی درباره تأثیر PCA در مسائل مختلف
تکنیک کاهش ابعاد برای دادههای نظارتشده – Linear Discriminant Analysis (LDA)
LDA چیست؟
یک روش برای کاهش بعد در دادههایی که دارای برچسب هستند
یافتن بهترین ترکیب ویژگیها برای جداسازی کلاسهای مختلف
چه چیزی یاد میگیرید؟
تفاوت LDA و PCA
ریاضیات و پیادهسازی LDA در Scikit-Learn
کاربرد LDA در مسائل طبقهبندی
بررسی مقالات علمی در مورد استفاده از LDA در پروژههای واقعی
روشهای انتخاب ویژگی (Feature Selection)
گاهی به جای کاهش بعد، نیاز داریم برخی از ویژگیهای مهم را شناسایی و ویژگیهای اضافی را حذف کنیم. در این بخش،
چند تکنیک پیشرفته را بررسی میکنیم:
Brute Force Feature Selection – حذف و آزمایش ویژگیها برای پیدا کردن بهترین ترکیب
Boruta Algorithm – یک روش پیشرفته برای انتخاب مؤثرترین ویژگیها
نتایج یادگیری این بخش
بهینهسازی مدلهای یادگیری ماشین با کاهش ابعاد
افزایش سرعت پردازش مدلها با حذف ویژگیهای غیرضروری
کاهش Overfitting و بهبود تعمیمپذیری مدلها
آموزش بهترین روشهای انتخاب ویژگی برای بهبود عملکرد مدلها
اگر میخواهید مدلهای یادگیری ماشین را با کارایی بالاتر و دقت بهتر اجرا کنید، یادگیری این بخش ضروری است !
بخش ششم: کار با دادههای نامتوازن در یادگیری ماشین
چرا دادههای نامتوازن یک چالش بزرگ در یادگیری ماشین است؟
در بسیاری از پروژههای یادگیری ماشین، دادهها بالانس نیستند. به این معنی که تعداد نمونههای یک کلاس خیلی
بیشتر یا کمتر از کلاس دیگر است. این موضوع میتواند باعث شود که مدل یادگیری نتایج نامعتبر ارائه دهد.
به عنوان مثال، اگر در یک مدل تشخیص تقلب بانکی فقط یک درصد تراکنشها جعلی باشند، یک مدل ساده که همیشه "تراکنش
سالم" را پیشبینی کند، ۹۹ درصد دقت خواهد داشت. اما این مدل کاملاً بیفایده است، زیرا تراکنشهای جعلی را
شناسایی نمیکند. در این بخش، یاد میگیرید چگونه مدلهای خود را برای دادههای نامتوازن بهینه کنید.
مفاهیم اصلی در کار با دادههای نامتوازن
دادههای نامتوازن چیست و چرا برخی از دیتاستها نسبت نمونههای نامتعادل دارند؟
اثرات دادههای نامتوازن روی مدلهای یادگیری ماشین و دلایل ایجاد خطا در مدلها
راهکارهای بالانسسازی دادهها برای حل مشکل دادههای نامتوازن
مهمترین تکنیکهای تحلیل و بهبود مدل برای دادههای نامتوازن
ماتریس درهمریختگی (Confusion Matrix)
تحلیل خطاها شامل مثبت واقعی، منفی واقعی، مثبت کاذب و منفی کاذب
نحوه نمایش ماتریس خطاها در مدلهای یادگیری ماشین
ترسیم ماتریس درهمریختگی با استفاده از Heatmap در Seaborn
متریکهای ارزیابی مدل در دادههای نامتوازن
Accuracy (صحت) و بررسی این که آیا همیشه معیار خوبی است؟
Precision (دقت) به عنوان معیاری برای اندازهگیری تعداد پیشبینیهای صحیح
Recall (بازخوانی) برای بررسی تعداد نمونههای واقعی شناسایی شده
F1-Score به عنوان ترکیبی از Precision و Recall برای بهبود ارزیابی
ترسیم منحنی ROC و تحلیل AUC برای بررسی عملکرد مدل در دادههای نامتوازن
روشهای بالانسسازی دادهها برای بهبود مدل
افزایش دادههای کلاس کمتعداد (Oversampling)
کاهش دادههای کلاس پرتعداد (Undersampling)
استفاده از تکنیک SMOTE برای ایجاد دادههای جدید
اعمال وزندهی کلاسها در الگوریتمهای یادگیری ماشین
نتایج یادگیری این بخش
درک اهمیت دادههای نامتوازن و تأثیر آن بر عملکرد مدلها
توانایی ارزیابی مدلها با متریکهای تخصصی برای دادههای نامتوازن
استفاده از تکنیکهای پیشرفته برای حل مشکل کلاسهای نامتوازن
بالابردن دقت مدلها در مسائل واقعی مانند تشخیص تقلب، پیشبینی بیماریها و تحلیل رفتار کاربران
اگر میخواهید مدلهای یادگیری ماشین شما در مسائل واقعی عملکرد بهتری داشته باشند، یادگیری این تکنیکها ضروری
است.
بخش هفتم: اعتبارسنجی، ارزیابی و بهبود مدل در یادگیری ماشین
چرا اعتبارسنجی و ارزیابی مدل مهم است؟
اگر مدل یادگیری ماشین را بدون ارزیابی و بهینهسازی اجرا کنید، ممکن است به یک مدل غیر دقیق و غیر قابل اعتماد
برسید. در این بخش یاد میگیرید که چگونه عملکرد مدل را ارزیابی کنید و آن را بهینه کنید تا دقت و کارایی بهتری
داشته باشد.
مفاهیم کلیدی در اعتبارسنجی و ارزیابی مدل
چگونه یک مدل را ارزیابی کنیم؟ (روشهای ارزیابی مدل در یادگیری ماشین)
Overfitting و Underfitting چیست؟ چگونه آنها را تشخیص دهیم و رفع کنیم؟
نحوه تنظیم هایپرپارامترها برای بهبود عملکرد مدلها
استفاده از Cross-Validation برای ارزیابی دقیق مدل
روشهای خودکار برای تنظیم دقیق مدل با Grid Search و Random Search
ابزارها و روشهای بهبود عملکرد مدل در یادگیری ماشین
۱. سادهسازی فرآیند یادگیری مدل با Pipelines
Pipeline یکی از بهترین روشها برای سازماندهی کدهای یادگیری ماشین و خودکارسازی فرآیند پردازش داده، یادگیری و
ارزیابی است.
ترکیب پیشپردازش دادهها، مدلسازی و ارزیابی در یک فرآیند یکپارچه
مدیریت بهتر مراحل آمادهسازی داده و بهینهسازی مدل
۲. استفاده از Cross-Validation برای بهبود مدل
k-Fold Cross Validation یکی از مهمترین روشهای ارزیابی مدل است که با تقسیم دادهها به چندین بخش، به شما کمک
میکند مدل دقیقتر و تعمیمپذیرتری بسازید.
روش k-Fold برای ارزیابی پایدارتر و قابل اطمینانتر مدل
کاهش احتمال Overfitting در دادههای آموزشی
۳. دیباگ و تحلیل مشکلات مدل با نمودارهای یادگیری و اعتبارسنجی
نمودارهای یادگیری (Learning Curves): برای تشخیص بایاس بالا یا واریانس زیاد در مدل
نمودارهای اعتبارسنجی (Validation Curves): برای تنظیم هایپرپارامترها و جلوگیری از Overfitting
۴. تنظیم دقیق مدلهای یادگیری ماشین با Grid Search و Random Search
Grid Search: جستجوی دقیق بهترین ترکیب پارامترها برای بهینهسازی مدل
Random Search: یافتن سریعتر ترکیبهای مناسب با انتخاب تصادفی پارامترها
نتایج یادگیری این بخش
توانایی ارزیابی و تحلیل مدلهای یادگیری ماشین به صورت حرفهای
جلوگیری از Overfitting و Underfitting برای بهبود عملکرد مدل
استفاده از تکنیکهای پیشرفته برای تنظیم بهینه مدلها
طراحی و پیادهسازی فرآیند یادگیری ماشین بهصورت خودکار و بهینه
با یادگیری این روشها، میتوانید مدلهای یادگیری ماشین دقیقتر و هوشمندتری بسازید!
بخش هشتم: یادگیری ماشین ترکیبی (Ensemble Machine Learning)
چرا یادگیری ماشین ترکیبی مهم است؟
در بسیاری از موارد، یک مدل یادگیری ماشین بهتنهایی عملکرد مطلوبی ندارد یا در برابر دادههای جدید دچار مشکل
میشود. یادگیری ماشین ترکیبی (Ensemble Learning) با ترکیب چندین مدل مختلف، عملکرد بهتری ارائه میدهد و باعث
افزایش دقت و پایداری پیشبینیها میشود.
اصول و کاربردهای یادگیری ماشین ترکیبی
ترکیب مدلها برای بهبود عملکرد پیشبینی
کاهش Overfitting از طریق روشهای Bagging و Boosting
ساخت مدلهای قویتر با ترکیب مدلهای ضعیفتر
افزایش پایداری مدل در برابر تغییرات دادهها
روشهای یادگیری ماشین ترکیبی که در این بخش یاد میگیرید
۱. یادگیری ترکیبی با رأی اکثریت (Majority Voting)
ترکیب چندین مدل طبقهبندیکننده (Classifiers) برای افزایش دقت
پیادهسازی Voting Classifier در پایتون
مقایسه مدلهای ترکیبی با مدلهای منفرد
۲. روش Bagging – کاهش Overfitting با استفاده از مدلهای تصادفی
Bagging (Bootstrap Aggregating) یک روش محبوب برای افزایش پایداری و کاهش واریانس مدلها است.
Bagging (Bootstrap Aggregating) یک روش محبوب برای افزایش پایداری و کاهش واریانس مدلها است.
آموزش مدلهای جداگانه روی نمونههای مختلف دادهها
ترکیب نتایج مدلهای مختلف برای بهبود دقت پیشبینی
آموزش مدلهایی مانند Random Forest که از Bagging استفاده میکنند
۳. روش Boosting – بهبود مدل با یادگیری از خطاها
Boosting یکی از پیشرفتهترین روشهای یادگیری ماشین ترکیبی است که مدلها را بهصورت متوالی تقویت میکند.
آموزش مدلهای جدید بر اساس خطاهای مدلهای قبلی
افزایش دقت مدلها با ترکیب الگوریتمهای ضعیفتر
بررسی روشهای معروف Boosting مانند AdaBoost، Gradient Boosting و XGBoost
پیادهسازی Boosting در پروژههای واقعی و تحلیل دقت آن
نتایج یادگیری این بخش
توانایی پیادهسازی مدلهای یادگیری ترکیبی برای حل مسائل پیچیده
افزایش دقت پیشبینیها با استفاده از تکنیکهای Voting، Bagging و Boosting
درک عمیق از مزایا و محدودیتهای روشهای مختلف Ensemble Learning
مهارت در استفاده از Scikit-Learn و XGBoost برای پیادهسازی مدلهای ترکیبی
اگر میخواهید مدلهای یادگیری ماشین قویتر، دقیقتر و پایدارتر طراحی کنید، یادگیری این روشها ضروری است!
بخش نهم: آموزش یادگیری با نظارت (مدلهای Regression)
رگرسیون چیست و چرا مهم است؟
مدلهای رگرسیون (Regression) در یادگیری ماشین برای پیشبینی مقادیر عددی پیوسته استفاده میشوند. برخلاف
مدلهای طبقهبندی که دستهبندی انجام میدهند، رگرسیون به ما امکان پیشبینی مقادیری مانند قیمت خانه، میزان
فروش، یا روند رشد بازارهای مالی را میدهد.
کاربردهای مدلهای رگرسیون در دنیای واقعی
پیشبینی قیمت مسکن بر اساس ویژگیهای مختلف
تحلیل روند فروش سالانه یک شرکت
مدلسازی و ارزیابی تأثیر متغیرهای مختلف در یک سیستم مالی
پیشبینی تغییرات دمایی در مدلهای آبوهوایی
روشهای رگرسیون که در این بخش یاد میگیرید
۱. رگرسیون خطی (Linear Regression) – مدل پایهای برای پیشبینی
رگرسیون خطی ساده و چند متغیره یکی از روشهای پایهای در یادگیری ماشین لرنینگ است که برای مدلسازی روابط بین
متغیرها استفاده میشود.
پیادهسازی مدل رگرسیون خطی در Python با استفاده از Scikit-Learn
تحلیل ضرایب مدل و تفسیر رابطه بین ویژگیها
استفاده از نمودار همبستگی و Heatmap برای کشف الگوهای داده
برازش مدل و ارزیابی دقت آن در پیشبینیهای واقعی
۲. استفاده از Gradient Descent برای بهینهسازی مدلهای رگرسیون
درک اصول بهینهسازی و کاهش خطا در مدلهای رگرسیون
پیادهسازی روش کاهش گرادیان (Gradient Descent) برای بهینهسازی ضرایب مدل
تحلیل تأثیر نرخ یادگیری و تعداد تکرارها بر عملکرد مدل
۳. تقویت مدل با روشهای پیشرفته – RANSAC، Regularization و Random Forest
برای بهبود دقت مدلها و کاهش تأثیر دادههای پرت (Outliers) روشهای پیشرفتهای معرفی میشوند:
برازش مدل مقاوم به دادههای پرت با استفاده از RANSAC
افزایش دقت مدل با روشهای Regularization (L1، L2)
استفاده از درخت تصمیم و Random Forest Regression برای مدلسازی روابط غیرخطی
نتایج یادگیری این بخش
درک مفاهیم رگرسیون خطی و غیرخطی در یادگیری ماشین
پیادهسازی مدلهای پیشبینی عددی با استفاده از Scikit-Learn و روشهای پیشرفته
تحلیل و بهینهسازی مدلهای رگرسیون با روشهای مختلف کاهش خطا
توانایی مدلسازی و تحلیل دادههای واقعی در پروژههای تجاری و تحقیقاتی
اگر میخواهید پیشبینیهای عددی دقیق انجام دهید و مدلهای تحلیل داده قوی بسازید، این بخش برای شماست!
بخش دهم: یادگیری غیر نظارتشده (Unsupervised Learning)
یادگیری غیر نظارتشده چیست و چرا مهم است؟
در یادگیری نظارتشده، مدلهای یادگیری ماشین بر اساس دادههایی که دارای برچسب هستند آموزش میبینند، اما در
یادگیری غیر نظارتشده، هدف کشف الگوها و ساختارهای پنهان در دادههایی است که برچسب مشخصی ندارند. این روش در
دستهبندی خودکار، تحلیل دادههای کلان و کشف روابط پیچیده در اطلاعات بسیار کاربرد دارد.
کاربردهای یادگیری غیر نظارتشده در دنیای واقعی
خوشهبندی مشتریان برای بهینهسازی کمپینهای بازاریابی
تحلیل الگوهای رفتاری کاربران در وبسایتها
تشخیص ناهنجاریها در سیستمهای امنیتی و مالی
فشردهسازی دادهها و کاهش ابعاد برای بهینهسازی مدلها
مباحث کلیدی یادگیری غیر نظارتشده در این بخش
۱. الگوریتم خوشهبندی K-Means – گروهبندی دادهها بر اساس شباهتها
درک مفاهیم اساسی خوشهبندی و کاربرد آن در مسائل واقعی
پیادهسازی الگوریتم K-Means با استفاده از Scikit-Learn
روش K-Means++ برای بهینهسازی مراکز اولیه و کاهش نوسانات خوشهبندی
بررسی معیارهای ارزیابی کیفیت خوشهبندی (Silhouette Score, Elbow Method)
۲. خوشهبندی سلسلهمراتبی (Hierarchical Clustering) – کشف ارتباطات پنهان
معرفی روشهای خوشهبندی سلسلهمراتبی: Agglomerative vs. Divisive
استفاده از Dendrograms برای مشاهده ساختار دادهها
پیادهسازی خوشهبندی سلسلهمراتبی و مصورسازی Heatmap برای نمایش ارتباطات خوشهها
۳. الگوریتم DBSCAN – خوشهبندی بر اساس تراکم دادهها
تشخیص مناطق پرتراکم دادهها با استفاده از Density-Based Clustering
مقایسه روشهای K-Means، خوشهبندی سلسلهمراتبی و DBSCAN
تحلیل دادههای واقعی و پیادهسازی مدلهای خوشهبندی برای بررسی دقت روشها
نتایج یادگیری این بخش
کشف الگوهای پنهان در دادهها بدون نیاز به برچسبهای مشخص
پیادهسازی انواع الگوریتمهای خوشهبندی برای گروهبندی دادهها
استفاده از Scikit-Learn برای اجرای مدلهای یادگیری غیر نظارتشده
تحلیل دادههای واقعی برای درک بهتر روندهای خوشهبندی و کاربردهای آن
اگر به دنبال تحلیل دادهها، کشف روابط پنهان و توسعه مدلهای خوشهبندی پیشرفته هستید، این بخش برای شماست!
مهندس مصطفایی
مدرس دوره
سعید مصطفایی کارشناس ارشد مهندسی فناوری اطلاعات از دانشگاه تربیت مدرس تهران هستند. ایشان ۱۰ سال سابقه کار در زمینه برنامه ریزی و کنترل پروژه های نرم افزاری دارد و اکنون در زمینه مشاوره تحلیل و طراحی نرم افزار و استقرار فرایندهای Agile در سازمان ها فعالیت می کنند. ایشان همچنین تدریس در دوره های مختلف از جمله تجزیه و تحلیل نرم افزار، مدیریت پروژه چابک، تجزیه و تحلیل کسب و کار، کاربرد فناوری اطلاعات در سازمان، مهندسی مجدد کسب و کار، برنامه نویسی موبایل با استفاده از تکنولوژی وب و PhoneGap و طراحی و برنامه نویسی تحت وب را در کارنامه خود دارد.
کارشناس ارشد مهندسی فناوری اطلاعات
دانشگاه تربیت مدرس تهران
ارائه مدرک بین المللی فنی و حرفه ای
هنرجویان عزیز، مدرک آموزشگاه تحلیل داده، مدرک رسمی از سازمان فنی و حرفهای میباشد. دانشجویان پس از پایان دوره با ارائه پروژه کاربردی خود به آموزشگاه و پس از تایید استاد دوره گواهی پایان دوره خود را دریافت مینمایند.
حتماً براتون پیش اومده که موقع خرید لپ تاپ برای برنامه نویسی سردرگم بشید و ندونید کدوم مدل بهتره، نه؟ از اونجایی که لپتاپ یه ابزار خیلی مهم برای برنامهنویسهاست، توی این مطلب قراره لپ تاپهای مناسب برنامه نویسی رو معرفی کنیم؛ از اقتصادیترین مدلها گرفته تا گزینههای حرفهای و قدرتمند! هر چی لازم دارید اینجاست، پس همراه ما باشید!
سعی داریم تو این بلاگ به طور کامل شمارو با مراحل ورود به دنیای برنامه نویسی و مسیر های پیش رو آشنا کنیم تا بتونین درست تر و مطمئن تر راهتون رو انتخاب کنین.
دیدین وقتی با موبایل وارد بعضی سایتها میشین، متنها ریزن، دکمهها جابهجا شدن و مجبورین زوم کنین؟ ولی بعضی سایتها کاملاً مرتب و خوانا هستن! راز این تفاوت چیه؟ طراحی ریسپانسیو! تو این مطلب یاد میگیرین چطور سایتتون رو واکنشگرا کنین تا روی همه دستگاهها عالی دیده بشه.
امروز میخوایم درباره یکی از سوال های همیشگی دنیای برنامه نویسی صحبت کنیم: بهترین زبان های برنامه نویسی برای طراحی سایت چیه؟ تکنولوژی با سرعت زیادی پیش میره و اگه برنامه نویسا خودشونو بهروز نکنن، خیلی زود عقب میمونن. برای پیدا کردن جواب این سؤال، به داده های نظرسنجی Stack Overflow، شاخص TIOBE، گزارش های GitHub و حتی آگهی های شغلی سر زدیم تا ببینیم محبوب ترین و پرکاربرد ترین زبان های طراحی سایت کدوم ها هستن. بیاین باهم بررسی کنیم که این روزها چه زبان هایی دنیای توسعه وب رو تسخیر کردن!
عرض سلام, خواستم بدونم اینکه یک جلسه رو اگر نتوانیم حضوری بیایم میتونیم همزمان به صورت انلاین شرکت کنیم ؟
سلام آقای هاشمی عزیز، لطفاً با هماهنگی تیم پشتیبانی، در کلاس به صورت آنلاین شرکت کنید.
امکانش هست روز یا تاریخ دوره عوض بشه .اخه من صبحش دوره ی پایتون با استاد مصطفایی دارم. بعد بلافاصله شروع دوره سخته.
درود کاربر عزيز با اتمام يا اواخر دوره پايتون ميتوانيد در دوره داده کاوي شرکت کنيد.