As a specialist in Machine Learning, Deep Learning, and Data Mining ,Computer Vision ,..., I am passionate about transforming complex challenges into robust, data-driven solutions. This portfolio showcases my journey from foundational concepts to advanced deep learning architectures, featuring end-to-end projects, custom implementations, and a strong command of the underlying theory.
This roadmap provides a visual and textual overview of my expertise, covering a wide range of topics from mathematical foundations to emerging technologies in AI.
Click to expand the detailed Roadmap Sections
- Section 0: 🧠 Mathematical Foundations: Linear Algebra, Calculus, Probability, Statistics, and Signal Processing.
- Section 1: 🤖 Classical Machine Learning: Regression, Classification, Clustering, and Recommender Systems.
- Section 2: 📊 Data Mining & Preprocessing: CRISP-DM, Feature Engineering, Regularization, and LR Scheduling.
- Section 3: 📉 Dimensionality Reduction: PCA, LDA, t-SNE, UMAP, and Autoencoders.
- Section 4: 👁️ Computer Vision & OpenCV: Image Processing, Feature Detection, and Video Analysis.
- Section 5: 🚀 App Development & Automation: Web Apps (Streamlit, Flask), AutoML (PyCaret), and MLOps.
- Section 6: ⚙️ Deep Learning Basics: NNs, Activation Functions, Layers, and Frameworks (TensorFlow, PyTorch).
- Section 7: 🛠️ Advanced NN Optimization: Initialization, Normalization, Transfer Learning, and Advanced Optimizers.
- Section 8: 🏛️ Advanced DL Architectures: Classic & Modern CNNs, Object Detection, and Segmentation.
- Section 9: 📈 RNN & Time Series: LSTMs, GRUs, and Transformers for Time Series Forecasting.
- Section 10: 📝 Natural Language Processing: Text Processing, Transformers, and the HuggingFace Ecosystem.
- Section 11: 💬 LLMs & LangChain: LLM Architectures, Fine-Tuning (LoRA), RAG Systems, and LangGraph.
- Section 12: 🎨 Generative AI: GANs, Diffusion Models (Stable Diffusion), and Multimodal Models (CLIP, DALL-E).
- Section 13: 🎮 Reinforcement Learning: Q-Learning, DQN, Actor-Critic Methods, and Applications.
- Section 14: ✨ Emerging Topics & Ethics: Foundation Models, Responsible AI, Fairness, and Explainability (LIME, SHAP).
- Section 15: ⚛️ Quantum Machine Learning: Quantum Computing Basics and Quantum ML Algorithms.
- Section 16: 💡 Edge Computing & TinyML: Model Optimization (Quantization, Pruning) for IoT devices.
- Section 17: 🔊 Audio Generative Models: Audio Processing, WaveNet, and Text-to-Speech models.
- Computer Vision: Proficient in designing architectures from foundational
CNNs
to advanced models likeResNet
,YOLO
, andU-Net
for classification, object detection, and segmentation. - Time Series & Sequential Data: Deep expertise in
RNNs
,LSTMs
, andGRUs
. Advanced skills in state-of-the-artTransformer
-based models, includingAttention mechanisms
,N-BEATS
, and theTemporal Fusion Transformer (TFT)
for multivariate forecasting. - Generative AI & LLMs: Experience with
GANs
,Diffusion Models
, andLarge Language Models (LLMs)
. Skilled in fine-tuning and implementing LLM applications using frameworks likeLangChain
. - Specialized Models: Experience in building
Siamese Networks
for similarity learning, andWide & Deep
models for tabular data.
- Core Components: Mastery of deep learning building blocks, including custom layers, advanced activation functions (
GELU
,Swish
), and sophisticated weight initializers (He
,Glorot
). - Training & Optimization: In-depth knowledge of optimization algorithms (
AdamW
,Nadam
,RMSProp
). Expertise in preventing overfitting through regularization (L1/L2
,Dropout
) and normalization (Batch/Layer Normalization
). - Advanced Techniques: Skilled in managing vanishing/exploding gradients via
Gradient Clipping
and residual connections. Proficient in implementing learning rate schedulers (1cycle
,Cosine Annealing
) to accelerate convergence. - Hyperparameter Tuning: Proficient with automated tools like
KerasTuner
andOptuna
, and classical methods likeGridSearch
.
- API Mastery: Fluency in all three Keras APIs:
Sequential
for simple stacks,Functional
for complex DAG models (e.g., multi-input/output), andModel Subclassing
for creating fully customized, research-grade models. - Low-Level Control: Expertise in building custom training loops with
tf.GradientTape
for unconventional regimes (e.g., GANs), providing complete control over the training process. - High-Performance Data Pipelines: Designing and optimizing input pipelines using
tf.data
for massive datasets. Skilled in usingTFRecords
for efficient data storage and applying performance-tuning techniques like caching and prefetching.
- Supervised & Unsupervised Learning: Strong command of Regression, Classification (
SVM
,XGBoost
), and Clustering (K-Means
,DBSCAN
,HDBSCAN
). - Data Preprocessing & Feature Engineering: Skilled in preparing data for modeling, including advanced encoding, feature scaling, and dimensionality reduction (
PCA
,UMAP
). - Recommender Systems: Solid understanding of
Collaborative Filtering
,Content-Based
, and hybrid engines likeNeural Collaborative Filtering
. - Automation, MLOps & Development: Experience with
PyCaret
for rapid prototyping and foundational MLOps knowledge (DVC
,MLflow
,Docker
). Proficient in developing automation scripts and integrating with REST APIs (e.g., GitHub API) to streamline workflows, manage projects, and bridge the gap between development and deployment.
- Description: Developed and benchmarked a suite of advanced models including
DeepAR
,N-BEATS
, and theTemporal Fusion Transformer (TFT)
,Temporal Convolutional Network (TCN)
to forecast complex financial (stock market) and climate time series data. - Technologies:
TensorFlow
,Darts
,GluonTS
,PyTorch Lightning
- Achievements: Significantly enhanced forecast accuracy by architecting a
TFT
model that effectively integrated external covariates. Implemented robustbacktesting
andhistorical forecasting
to validate model performance and reliability in real-world scenarios. - ➡️ View Project on GitHub
- Description: Engineered a comprehensive computer vision pipeline for object detection and semantic segmentation. This project implements and evaluates modern architectures to accurately identify, localize, and classify objects at the pixel level within complex scenes.
- Technologies:
TensorFlow
,Keras
,OpenCV
,YOLO
,U-Net
,Transfer Learning
- Achievements: Achieved high accuracy in object localization using fine-tuned YOLO models. Implemented U-Net for precise pixel-level semantic segmentation. Leveraged transfer learning and advanced data augmentation to optimize model performance and generalization on custom datasets.
- ➡️ View Project on GitHub
- Description: Designed a deep learning model with
Hybrid Transformer Model
,RNN
,Ensemble Methods
and others to classify heartbeat signals from the MIT-BIH Arrhythmia dataset, a challenging task due to severe class imbalance. - Technologies:
TensorFlow
,Keras
,Pandas
,Matplotlib
- Achievements: Successfully tackled the class imbalance problem by implementing a custom
Focal Loss
function, which significantly improved the model's ability to detect and classify rare but critical arrhythmia classes. - ➡️ View Project on GitHub
Description: This repository showcases deep TensorFlow proficiency by moving beyond high-level APIs. It focuses on architecting custom models from the ground up using Model Subclassing and controlling the entire training process with tf.GradientTape
. The goal is to build flexible, research-ready models by mastering every component of the training loop.
- Technologies:
TensorFlow 2.x
,tf.GradientTape
,tf.data API
,Keras Model Subclassing
,NumPy
- Achievements:
- Unlocked the ability to implement and train novel, research-grade architectures (e.g., Siamese Networks, GANs) that require non-standard training logic.
- Engineered fully customized training pipelines, providing complete control for advanced experimentation and debugging.
- Mastered the
tf.data
API to build highly efficient and scalable input pipelines for large datasets.
- ➡️ View Project on GitHub
- Description: Developed a Python automation script to streamline GitHub portfolio management. The tool scans a local directory of Git projects, intelligently generates relevant topics from folder structures and README content, and applies these tags directly to the corresponding GitHub repositories via the API.
- Technologies:
Python
,GitHub API
,Requests
,Regex
- Achievements: Successfully automated a tedious manual process, ensuring consistent and comprehensive project tagging. The script features secure handling of credentials using
getpass
and includes a user confirmation step to prevent accidental updates, improving both efficiency and safety. - ➡️ View Project on GitHub
- Clone the Repository:
git clone https://github.com/imehranasgari/imehranasgari.git
- Create Environment:
The recommended way is using the
ai.yml
file, which you can download here. This single environment is designed to work for all repositories, containing all necessary packages with GPU (CUDA) support, ensuring no package conflicts.conda env create -f ai.yml
- Run Notebooks: Navigate to a project folder and run the
.ipynb
files in Jupyter or Google Colab.
من متخصص یادگیری ماشین، یادگیری عمیق و دادهکاوی و بینایی ماشین و... هستم و با اشتیاق، مسائل پیچیده را به راهحلهای هوشمند و دادهمحور تبدیل میکنم. این مجموعه، مسیر حرفهای من از مفاهیم بنیادی تا معماریهای پیشرفته را به نمایش میگذارد و شامل پروژههای کاربردی، پیادهسازیهای اختصاصی و تسلط عمیق بر مبانی تئوری است.
این نقشه راه، دیدی کلی و جامع از تخصص من، از مبانی ریاضی تا فناوریهای نوظهور در هوش مصنوعی را ارائه میدهد.
برای مشاهده جزئیات بخشهای نقشه راه کلیک کنید
- بخش ۰: 🧠 مبانی ریاضیات: جبر خطی، حسابان، احتمالات، آمار و پردازش سیگنال.
- بخش ۱: 🤖 یادگیری ماشین کلاسیک: رگرسیون، طبقهبندی، خوشهبندی و سیستمهای توصیهگر.
- بخش ۲: 📊 دادهکاوی و پیشپردازش: متدولوژی CRISP-DM، مهندسی ویژگی، تنظیم (Regularization) و زمانبندی نرخ یادگیری.
- بخش ۳: 📉 کاهش ابعاد: PCA، LDA، t-SNE، UMAP و Autoencoderها.
- بخش ۴: 👁️ بینایی کامپیوتر و OpenCV: پردازش تصویر، تشخیص ویژگی و تحلیل ویدئو.
- بخش ۵: 🚀 توسعه اپلیکیشن و اتوماسیون: وب اپلیکیشن (Streamlit, Flask)، یادگیری ماشین خودکار (PyCaret) و MLOps.
- بخش ۶: ⚙️ مبانی یادگیری عمیق: شبکههای عصبی، توابع فعالسازی، لایهها و فریمورکها (TensorFlow, PyTorch).
- بخش ۷: 🛠️ بهینهسازی پیشرفته شبکههای عصبی: مقداردهی اولیه، نرمالسازی، یادگیری انتقال و بهینهسازهای پیشرفته.
- بخش ۸: 🏛️ معماریهای پیشرفته یادگیری عمیق: CNNهای کلاسیک و مدرن، تشخیص اشیاء و قطعهبندی تصاویر.
- بخش ۹: 📈 شبکههای بازگشتی و سریهای زمانی: LSTM، GRU و ترنسفورمرها برای پیشبینی سریهای زمانی.
- بخش ۱۰: 📝 پردازش زبان طبیعی: پیشپردازش متن، ترنسفورمرها و اکوسیستم HuggingFace.
- بخش ۱۱: 💬 مدلهای زبان بزرگ و LangChain: معماری LLMها، Fine-Tuning (LoRA)، سیستمهای RAG و LangGraph.
- بخش ۱۲: 🎨 هوش مصنوعی مولد: GANها، مدلهای دیفیوژن (Stable Diffusion) و مدلهای چندوجهی (CLIP, DALL-E).
- بخش ۱۳: 🎮 یادگیری تقویتی: Q-Learning، DQN، متدهای Actor-Critic و کاربردها.
- بخش ۱۴: ✨ موضوعات نوظهور و اخلاق در هوش مصنوعی: مدلهای پایه، هوش مصنوعی مسئولانه، عدالت و توضیحپذیری (LIME, SHAP).
- بخش ۱۵: ⚛️ یادگیری ماشین کوانتومی: مبانی محاسبات کوانتومی و الگوریتمهای مرتبط.
- بخش ۱۶: 💡 محاسبات لبه و TinyML: بهینهسازی مدل (Quantization, Pruning) برای دستگاههای IoT.
- بخش ۱۷: 🔊 مدلهای مولد صوتی: پردازش صوت، WaveNet و مدلهای متن به گفتار.
- بینایی کامپیوتر: مهارت در طراحی معماریها از
CNN
های بنیادین تا مدلهای پیشرفتهای مانندResNet
،YOLO
وU-Net
برای طبقهبندی، تشخیص اشیاء و قطعهبندی. - سریهای زمانی و دادههای ترتیبی: تخصص عمیق در
RNN
،LSTM
وGRU
. مهارتهای پیشرفته در مدلهای مبتنی برTransformer
، شامل مکانیزمAttention
،N-BEATS
وTemporal Fusion Transformer (TFT)
برای پیشبینیهای چندمتغیره. - هوش مصنوعی مولد و LLM: تجربه کار با
GAN
،Diffusion Models
ومدلهای زبان بزرگ (LLM)
. مهارت در Fine-tuning و پیادهسازی اپلیکیشنهای LLM با فریمورکهایی مانندLangChain
. - مدلهای تخصصی: تجربه در ساخت
Siamese Networks
برای یادگیری شباهت و مدلهایWide & Deep
برای دادههای جدولی.
- اجزای اصلی: تسلط بر بلوکهای سازنده یادگیری عمیق، شامل لایههای سفارشی، توابع فعالسازی پیشرفته (
GELU
,Swish
) و مقداردهی اولیه وزنها (He
,Glorot
). - آموزش و بهینهسازی: دانش عمیق از الگوریتمهای بهینهسازی (
AdamW
,Nadam
,RMSProp
). تخصص در جلوگیری از بیشبرازش از طریق تنظیم (L1/L2
,Dropout
) و نرمالسازی (Batch/Layer Normalization
). - تکنیکهای پیشرفته: مهارت در مدیریت چالشهایی مانند محو یا انفجار گرادیان با
Gradient Clipping
و اتصالات پسماند (Residual Connections). تسلط بر پیادهسازی زمانبندی نرخ یادگیری (1cycle
,Cosine Annealing
) برای تسریع همگرایی. - تنظیم هایپرپارامترها: مهارت در استفاده از ابزارهای خودکار مانند
KerasTuner
وOptuna
و روشهای کلاسیک نظیرGridSearch
.
- تسلط بر APIها: مهارت کامل در هر سه API کراس:
Sequential
برای مدلهای ساده،Functional
برای گرافهای پیچیده (مانند چند ورودی/خروجی) وModel Subclassing
برای ساخت مدلهای کاملاً سفارشی و پژوهشمحور. - کنترل سطح پایین: تخصص در ساخت حلقههای آموزش سفارشی با
tf.GradientTape
برای رژیمهای آموزشی غیرمتعارف (مانند GANs) که کنترل کامل بر فرآیند آموزش را فراهم میکند. - پایپلاینهای داده با کارایی بالا: طراحی و بهینهسازی پایپلاینهای ورودی با
tf.data
برای مجموعه دادههای عظیم. مهارت در استفاده ازTFRecords
برای ذخیرهسازی بهینه و اعمال تکنیکهای بهبود عملکرد مانند کَش کردن و پیشواکشی.
- یادگیری نظارتشده و بدون نظارت: تسلط قوی بر رگرسیون، طبقهبندی (
SVM
,XGBoost
) و خوشهبندی (K-Means
,DBSCAN
,HDBSCAN
). - پیشپردازش داده و مهندسی ویژگی: مهارت در آمادهسازی داده برای مدلسازی، شامل کدگذاری پیشرفته، مقیاسبندی ویژگیها و کاهش ابعاد (
PCA
,UMAP
). - سیستمهای توصیهگر: درک عمیق از
Collaborative Filtering
،Content-Based
و موتورهای ترکیبی مانندNeural Collaborative Filtering
. - اتوماسیون، MLOps و توسعه ابزار: تجربه کار با
PyCaret
برای نمونهسازی سریع و دانش پایهای MLOps (DVC
,MLflow
,Docker
). مهارت در توسعه اسکریپتهای اتوماسیون و یکپارچهسازی با REST API (مانند API گیتهاب) برای بهینهسازی فرآیندها، مدیریت پروژهها و اتصال دنیای توسعه به استقرار نهایی.
- شرح: توسعه و ارزیابی مجموعهای از مدلهای پیشرفته شامل
DeepAR
،N-BEATS
وTemporal Fusion Transformer (TFT)
,Temporal Convolutional Network (TCN)
برای پیشبینی سریهای زمانی پیچیده مالی (بازار سهام) و اقلیمی. - تکنولوژیها:
TensorFlow
,Darts
,GluonTS
,PyTorch Lightning
- دستاورد: افزایش چشمگیر دقت پیشبینی با طراحی یک مدل
TFT
که متغیرهای کمکی خارجی را به طور مؤثر ادغام میکرد. پیادهسازی روشهای اعتبارسنجی قدرتمندbacktesting
وhistorical forecasting
برای تضمین عملکرد مدل در سناریوهای واقعی. - ⬅️ مشاهده پروژه در گیتهاب
- شرح: مهندسی و پیادهسازی یک پایپلاین جامع بینایی کامپیوتر برای تشخیص اشیاء (object detection) و قطعهبندی معنایی (semantic segmentation). در این پروژه، معماریهای مدرن برای شناسایی، مکانیابی و طبقهبندی دقیق اشیاء در سطح پیکسل در صحنههای پیچیده پیادهسازی و ارزیابی شدهاند.
- تکنولوژیها:
TensorFlow
,Keras
,OpenCV
,YOLO
,U-Net
,یادگیری انتقال (Transfer Learning)
- دستاوردها: دستیابی به دقت بالا در مکانیابی اشیاء با استفاده از مدلهای YOLO که Fine-tune شدهاند. پیادهسازی مدل U-Net برای قطعهبندی دقیق در سطح پیکسل. بهرهگیری از یادگیری انتقال و تکنیکهای پیشرفته افزایش داده (data augmentation) برای بهینهسازی عملکرد و قدرت تعمیم مدل بر روی دیتاستهای سفارشی.
- ⬅️ مشاهده پروژه در گیتهاب
- شرح: طراحی یک مدل یادگیری عمیق به همراه
Hybrid Transformer Model
,RNN
,Ensemble Methods
و غیره برای طبقهبندی سیگنالهای قلبی از دیتاست MIT-BIH Arrhythmia که به دلیل عدم توازن شدید کلاسها چالشی بزرگ محسوب میشود. - تکنولوژیها:
TensorFlow
,Keras
,Pandas
,Matplotlib
- دستاورد: حل موفقیتآمیز مشکل عدم توازن کلاسها با پیادهسازی یک تابع هزینه سفارشی به نام
Focal Loss
که توانایی مدل در تشخیص و طبقهبندی کلاسهای آریتمی نادر اما حیاتی را به طور قابل توجهی بهبود بخشید. - ⬅️ مشاهده پروژه در گیتهاب
- شرح: این پروژه با فراتر رفتن از APIهای سطح بالا، تسلط عمیق بر TensorFlow را نمایش میدهد. تمرکز این مجموعه بر معماری مدلهای سفارشی از پایه با استفاده از Model Subclassing و کنترل کامل فرآیند آموزش با
tf.GradientTape
است. هدف، ساخت مدلهای انعطافپذیر و پژوهشمحور از طریق تسلط بر تمام اجزای حلقه آموزش است. - تکنولوژیها:
TensorFlow 2.x
,tf.GradientTape
,tf.data API
,Keras Model Subclassing
,NumPy
- دستاوردها:
- کسب توانایی پیادهسازی و آموزش معماریهای نوین و پژوهشمحور (مانند شبکههای سیامی و GANs) که نیازمند منطق آموزش غیراستاندارد هستند.
- مهندسی پایپلاینهای آموزشی کاملاً سفارشی با کنترل کامل برای انجام آزمایشها و دیباگینگ پیشرفته.
- تسلط بر
tf.data
API برای ساخت پایپلاینهای ورودی بسیار کارآمد و مقیاسپذیر برای دیتاستهای حجیم.
- ⬅️ مشاهده پروژه در گیتهاب
- شرح: توسعه یک اسکریپت پایتون برای مدیریت خودکار پروفایل گیتهاب. این ابزار با اسکن دایرکتوری پروژههای محلی، به صورت هوشمند از روی ساختار پوشهها و محتوای فایل
README
کلمات کلیدی مرتبط را استخراج کرده و آنها را از طریق API گیتهاب به عنوان تاپیک به ریپازیتوریهای مربوطه اضافه میکند. - تکنولوژیها:
Python
,GitHub API
,Requests
,Regex
- دستاوردها: خودکارسازی یک فرآیند دستی زمانبر که منجر به تگگذاری یکپارچه و جامع پروژهها شد. این اسکریپت با استفاده از
getpass
اطلاعات حساس را به صورت امن دریافت میکند و دارای یک مرحله تأیید نهایی توسط کاربر برای جلوگیری از تغییرات ناخواسته است که کارایی و امنیت را همزمان تضمین میکند. - ⬅️ مشاهده پروژه در گیتهاب
۱. کلون کردن ریپازیتوری:
git clone https://github.com/imehranasgari/imehranasgari.git
۲. ساخت محیط:
روش پیشنهادی استفاده از فایل ai.yml
است که میتوانید آن را از اینجا دانلود کنید. این محیط یکپارچه برای تمام ریپازیتوریها طراحی شده و شامل تمام پکیجهای ضروری با پشتیبانی از GPU (CUDA) است و هیچگونه تداخلی بین پکیجها وجود ندارد.
conda env create -f ai.yml
۳. اجرای نوتبوکها: به پوشه پروژه مورد نظر بروید و فایلهای .ipynb
را در ژوپیتر یا گوگل کولب اجرا کنید.