Skip to content
View imehranasgari's full-sized avatar

Block or report imehranasgari

Block user

Prevent this user from interacting with your repositories and sending you notifications. Learn more about blocking users.

You must be logged in to block users.

Please don't include any personal information such as legal names or email addresses. Maximum 100 characters, markdown supported. This note will be visible to only you.
Report abuse

Contact GitHub support about this user’s behavior. Learn more about reporting abuse.

Report abuse
imehranasgari/README.md

Welcome Banner

🇬🇧 English Version

Mehran Asgari Roozbahani | Advanced Machine Learning & Deep Learning Portfolio



As a specialist in Machine Learning, Deep Learning, and Data Mining ,Computer Vision ,..., I am passionate about transforming complex challenges into robust, data-driven solutions. This portfolio showcases my journey from foundational concepts to advanced deep learning architectures, featuring end-to-end projects, custom implementations, and a strong command of the underlying theory.


🛠️ My Tech Stack & Tools

Python TensorFlow PyTorch Keras Scikit-learn Hugging Face Pandas NumPy OpenCV Matplotlib Darts PyTorch Lightning LangChain MLflow Docker Streamlit REST APIs Flask Git Jupyter Visual Studio Code


📊 My GitHub Stats

Mehran's GitHub Stats Mehran's Top Languages


🗺️ My Machine Learning & Deep Learning Roadmap

This roadmap provides a visual and textual overview of my expertise, covering a wide range of topics from mathematical foundations to emerging technologies in AI.

Click to view the detailed 2025 Roadmap Image

Machine Learning and Deep Learning Roadmap 2025


Click to expand the detailed Roadmap Sections
  • Section 0: 🧠 Mathematical Foundations: Linear Algebra, Calculus, Probability, Statistics, and Signal Processing.
  • Section 1: 🤖 Classical Machine Learning: Regression, Classification, Clustering, and Recommender Systems.
  • Section 2: 📊 Data Mining & Preprocessing: CRISP-DM, Feature Engineering, Regularization, and LR Scheduling.
  • Section 3: 📉 Dimensionality Reduction: PCA, LDA, t-SNE, UMAP, and Autoencoders.
  • Section 4: 👁️ Computer Vision & OpenCV: Image Processing, Feature Detection, and Video Analysis.
  • Section 5: 🚀 App Development & Automation: Web Apps (Streamlit, Flask), AutoML (PyCaret), and MLOps.
  • Section 6: ⚙️ Deep Learning Basics: NNs, Activation Functions, Layers, and Frameworks (TensorFlow, PyTorch).
  • Section 7: 🛠️ Advanced NN Optimization: Initialization, Normalization, Transfer Learning, and Advanced Optimizers.
  • Section 8: 🏛️ Advanced DL Architectures: Classic & Modern CNNs, Object Detection, and Segmentation.
  • Section 9: 📈 RNN & Time Series: LSTMs, GRUs, and Transformers for Time Series Forecasting.
  • Section 10: 📝 Natural Language Processing: Text Processing, Transformers, and the HuggingFace Ecosystem.
  • Section 11: 💬 LLMs & LangChain: LLM Architectures, Fine-Tuning (LoRA), RAG Systems, and LangGraph.
  • Section 12: 🎨 Generative AI: GANs, Diffusion Models (Stable Diffusion), and Multimodal Models (CLIP, DALL-E).
  • Section 13: 🎮 Reinforcement Learning: Q-Learning, DQN, Actor-Critic Methods, and Applications.
  • Section 14: ✨ Emerging Topics & Ethics: Foundation Models, Responsible AI, Fairness, and Explainability (LIME, SHAP).
  • Section 15: ⚛️ Quantum Machine Learning: Quantum Computing Basics and Quantum ML Algorithms.
  • Section 16: 💡 Edge Computing & TinyML: Model Optimization (Quantization, Pruning) for IoT devices.
  • Section 17: 🔊 Audio Generative Models: Audio Processing, WaveNet, and Text-to-Speech models.

🧠 Core Competencies

1. Deep Learning Architectures

  • Computer Vision: Proficient in designing architectures from foundational CNNs to advanced models like ResNet, YOLO, and U-Net for classification, object detection, and segmentation.
  • Time Series & Sequential Data: Deep expertise in RNNs, LSTMs, and GRUs. Advanced skills in state-of-the-art Transformer-based models, including Attention mechanisms, N-BEATS, and the Temporal Fusion Transformer (TFT) for multivariate forecasting.
  • Generative AI & LLMs: Experience with GANs, Diffusion Models, and Large Language Models (LLMs). Skilled in fine-tuning and implementing LLM applications using frameworks like LangChain.
  • Specialized Models: Experience in building Siamese Networks for similarity learning, and Wide & Deep models for tabular data.

2. Deep Learning Fundamentals & Optimization

  • Core Components: Mastery of deep learning building blocks, including custom layers, advanced activation functions (GELU, Swish), and sophisticated weight initializers (He, Glorot).
  • Training & Optimization: In-depth knowledge of optimization algorithms (AdamW, Nadam, RMSProp). Expertise in preventing overfitting through regularization (L1/L2, Dropout) and normalization (Batch/Layer Normalization).
  • Advanced Techniques: Skilled in managing vanishing/exploding gradients via Gradient Clipping and residual connections. Proficient in implementing learning rate schedulers (1cycle, Cosine Annealing) to accelerate convergence.
  • Hyperparameter Tuning: Proficient with automated tools like KerasTuner and Optuna, and classical methods like GridSearch.

3. Advanced TensorFlow & Keras

  • API Mastery: Fluency in all three Keras APIs: Sequential for simple stacks, Functional for complex DAG models (e.g., multi-input/output), and Model Subclassing for creating fully customized, research-grade models.
  • Low-Level Control: Expertise in building custom training loops with tf.GradientTape for unconventional regimes (e.g., GANs), providing complete control over the training process.
  • High-Performance Data Pipelines: Designing and optimizing input pipelines using tf.data for massive datasets. Skilled in using TFRecords for efficient data storage and applying performance-tuning techniques like caching and prefetching.

4. Classical Machine Learning & Data Science

  • Supervised & Unsupervised Learning: Strong command of Regression, Classification (SVM, XGBoost), and Clustering (K-Means, DBSCAN, HDBSCAN).
  • Data Preprocessing & Feature Engineering: Skilled in preparing data for modeling, including advanced encoding, feature scaling, and dimensionality reduction (PCA, UMAP).
  • Recommender Systems: Solid understanding of Collaborative Filtering, Content-Based, and hybrid engines like Neural Collaborative Filtering.
  • Automation, MLOps & Development: Experience with PyCaret for rapid prototyping and foundational MLOps knowledge (DVC, MLflow, Docker). Proficient in developing automation scripts and integrating with REST APIs (e.g., GitHub API) to streamline workflows, manage projects, and bridge the gap between development and deployment.

🚀 Some Projects

1. Advanced Time Series Forecasting yfinance dataset

  • Description: Developed and benchmarked a suite of advanced models including DeepAR, N-BEATS, and the Temporal Fusion Transformer (TFT),Temporal Convolutional Network (TCN) to forecast complex financial (stock market) and climate time series data.
  • Technologies: TensorFlow, Darts, GluonTS, PyTorch Lightning
  • Achievements: Significantly enhanced forecast accuracy by architecting a TFT model that effectively integrated external covariates. Implemented robust backtesting and historical forecasting to validate model performance and reliability in real-world scenarios.
  • ➡️ View Project on GitHub

2. Computer Vision: Object Detection and Semantic Segmentation

  • Description: Engineered a comprehensive computer vision pipeline for object detection and semantic segmentation. This project implements and evaluates modern architectures to accurately identify, localize, and classify objects at the pixel level within complex scenes.
  • Technologies: TensorFlow, Keras, OpenCV, YOLO, U-Net, Transfer Learning
  • Achievements: Achieved high accuracy in object localization using fine-tuned YOLO models. Implemented U-Net for precise pixel-level semantic segmentation. Leveraged transfer learning and advanced data augmentation to optimize model performance and generalization on custom datasets.
  • ➡️ View Project on GitHub

3. ECG Arrhythmia Classification with Imbalanced Data

  • Description: Designed a deep learning model with Hybrid Transformer Model,RNN,Ensemble Methods and others to classify heartbeat signals from the MIT-BIH Arrhythmia dataset, a challenging task due to severe class imbalance.
  • Technologies: TensorFlow, Keras, Pandas, Matplotlib
  • Achievements: Successfully tackled the class imbalance problem by implementing a custom Focal Loss function, which significantly improved the model's ability to detect and classify rare but critical arrhythmia classes.
  • ➡️ View Project on GitHub

4. Advanced TensorFlow: Custom Models & Low-Level API Mastery

Description: This repository showcases deep TensorFlow proficiency by moving beyond high-level APIs. It focuses on architecting custom models from the ground up using Model Subclassing and controlling the entire training process with tf.GradientTape. The goal is to build flexible, research-ready models by mastering every component of the training loop.

  • Technologies: TensorFlow 2.x, tf.GradientTape, tf.data API, Keras Model Subclassing, NumPy
  • Achievements:
    • Unlocked the ability to implement and train novel, research-grade architectures (e.g., Siamese Networks, GANs) that require non-standard training logic.
    • Engineered fully customized training pipelines, providing complete control for advanced experimentation and debugging.
    • Mastered the tf.data API to build highly efficient and scalable input pipelines for large datasets.
  • ➡️ View Project on GitHub

5. GitHub Repository Auto-Tagger

  • Description: Developed a Python automation script to streamline GitHub portfolio management. The tool scans a local directory of Git projects, intelligently generates relevant topics from folder structures and README content, and applies these tags directly to the corresponding GitHub repositories via the API.
  • Technologies: Python, GitHub API, Requests, Regex
  • Achievements: Successfully automated a tedious manual process, ensuring consistent and comprehensive project tagging. The script features secure handling of credentials using getpass and includes a user confirmation step to prevent accidental updates, improving both efficiency and safety.
  • ➡️ View Project on GitHub

⚙️ Installation & Execution

  1. Clone the Repository:
    git clone https://github.com/imehranasgari/imehranasgari.git
  2. Create Environment: The recommended way is using the ai.yml file, which you can download here. This single environment is designed to work for all repositories, containing all necessary packages with GPU (CUDA) support, ensuring no package conflicts.
    conda env create -f ai.yml
  3. Run Notebooks: Navigate to a project folder and run the .ipynb files in Jupyter or Google Colab.

under Banner eng


🇮🇷 نسخه فارسی

مهران عسگری روزبهانی | پروفایل تخصصی یادگیری ماشین و یادگیری عمیق


من متخصص یادگیری ماشین، یادگیری عمیق و داده‌کاوی و بینایی ماشین و... هستم و با اشتیاق، مسائل پیچیده را به راه‌حل‌های هوشمند و داده‌محور تبدیل می‌کنم. این مجموعه، مسیر حرفه‌ای من از مفاهیم بنیادی تا معماری‌های پیشرفته را به نمایش می‌گذارد و شامل پروژه‌های کاربردی، پیاده‌سازی‌های اختصاصی و تسلط عمیق بر مبانی تئوری است.


🛠️ ابزارها و تکنولوژی‌های من

Python TensorFlow PyTorch Keras Scikit-learn Hugging Face Pandas NumPy OpenCV Matplotlib Darts PyTorch Lightning LangChain MLflow Docker Streamlit REST APIsFlask Git Jupyter Visual Studio Code


📊 آمار گیت‌هاب من

آمار گیت‌هاب مهران زبان‌های برتر مهران


🗺️ نقشه راه یادگیری ماشین و یادگیری عمیق من

این نقشه راه، دیدی کلی و جامع از تخصص من، از مبانی ریاضی تا فناوری‌های نوظهور در هوش مصنوعی را ارائه می‌دهد.

>برای مشاهده تصویر نقشه راه ۲۰۲۵ کلیک کنید

نقشه راه یادگیری ماشین و یادگیری عمیق ۲۰۲۵


برای مشاهده جزئیات بخش‌های نقشه راه کلیک کنید
  • بخش ۰: 🧠 مبانی ریاضیات: جبر خطی، حسابان، احتمالات، آمار و پردازش سیگنال.
  • بخش ۱: 🤖 یادگیری ماشین کلاسیک: رگرسیون، طبقه‌بندی، خوشه‌بندی و سیستم‌های توصیه‌گر.
  • بخش ۲: 📊 داده‌کاوی و پیش‌پردازش: متدولوژی CRISP-DM، مهندسی ویژگی، تنظیم (Regularization) و زمان‌بندی نرخ یادگیری.
  • بخش ۳: 📉 کاهش ابعاد: PCA، LDA، t-SNE، UMAP و Autoencoderها.
  • بخش ۴: 👁️ بینایی کامپیوتر و OpenCV: پردازش تصویر، تشخیص ویژگی و تحلیل ویدئو.
  • بخش ۵: 🚀 توسعه اپلیکیشن و اتوماسیون: وب اپلیکیشن (Streamlit, Flask)، یادگیری ماشین خودکار (PyCaret) و MLOps.
  • بخش ۶: ⚙️ مبانی یادگیری عمیق: شبکه‌های عصبی، توابع فعال‌سازی، لایه‌ها و فریمورک‌ها (TensorFlow, PyTorch).
  • بخش ۷: 🛠️ بهینه‌سازی پیشرفته شبکه‌های عصبی: مقداردهی اولیه، نرمال‌سازی، یادگیری انتقال و بهینه‌سازهای پیشرفته.
  • بخش ۸: 🏛️ معماری‌های پیشرفته یادگیری عمیق: CNNهای کلاسیک و مدرن، تشخیص اشیاء و قطعه‌بندی تصاویر.
  • بخش ۹: 📈 شبکه‌های بازگشتی و سری‌های زمانی: LSTM، GRU و ترنسفورمرها برای پیش‌بینی سری‌های زمانی.
  • بخش ۱۰: 📝 پردازش زبان طبیعی: پیش‌پردازش متن، ترنسفورمرها و اکوسیستم HuggingFace.
  • بخش ۱۱: 💬 مدل‌های زبان بزرگ و LangChain: معماری LLMها، Fine-Tuning (LoRA)، سیستم‌های RAG و LangGraph.
  • بخش ۱۲: 🎨 هوش مصنوعی مولد: GANها، مدل‌های دیفیوژن (Stable Diffusion) و مدل‌های چندوجهی (CLIP, DALL-E).
  • بخش ۱۳: 🎮 یادگیری تقویتی: Q-Learning، DQN، متدهای Actor-Critic و کاربردها.
  • بخش ۱۴: ✨ موضوعات نوظهور و اخلاق در هوش مصنوعی: مدل‌های پایه، هوش مصنوعی مسئولانه، عدالت و توضیح‌پذیری (LIME, SHAP).
  • بخش ۱۵: ⚛️ یادگیری ماشین کوانتومی: مبانی محاسبات کوانتومی و الگوریتم‌های مرتبط.
  • بخش ۱۶: 💡 محاسبات لبه و TinyML: بهینه‌سازی مدل (Quantization, Pruning) برای دستگاه‌های IoT.
  • بخش ۱۷: 🔊 مدل‌های مولد صوتی: پردازش صوت، WaveNet و مدل‌های متن به گفتار.

🧠 توانمندی‌های کلیدی

۱. معماری‌های یادگیری عمیق

  • بینایی کامپیوتر: مهارت در طراحی معماری‌ها از CNNهای بنیادین تا مدل‌های پیشرفته‌ای مانند ResNet، YOLO و U-Net برای طبقه‌بندی، تشخیص اشیاء و قطعه‌بندی.
  • سری‌های زمانی و داده‌های ترتیبی: تخصص عمیق در RNN، LSTM و GRU. مهارت‌های پیشرفته در مدل‌های مبتنی بر Transformer، شامل مکانیزم Attention، N-BEATS و Temporal Fusion Transformer (TFT) برای پیش‌بینی‌های چندمتغیره.
  • هوش مصنوعی مولد و LLM: تجربه کار با GAN، Diffusion Models و مدل‌های زبان بزرگ (LLM). مهارت در Fine-tuning و پیاده‌سازی اپلیکیشن‌های LLM با فریمورک‌هایی مانند LangChain.
  • مدل‌های تخصصی: تجربه در ساخت Siamese Networks برای یادگیری شباهت و مدل‌های Wide & Deep برای داده‌های جدولی.

۲. مبانی یادگیری عمیق و بهینه‌سازی

  • اجزای اصلی: تسلط بر بلوک‌های سازنده یادگیری عمیق، شامل لایه‌های سفارشی، توابع فعال‌سازی پیشرفته (GELU, Swish) و مقداردهی اولیه وزن‌ها (He, Glorot).
  • آموزش و بهینه‌سازی: دانش عمیق از الگوریتم‌های بهینه‌سازی (AdamW, Nadam, RMSProp). تخصص در جلوگیری از بیش‌برازش از طریق تنظیم (L1/L2, Dropout) و نرمال‌سازی (Batch/Layer Normalization).
  • تکنیک‌های پیشرفته: مهارت در مدیریت چالش‌هایی مانند محو یا انفجار گرادیان با Gradient Clipping و اتصالات پسماند (Residual Connections). تسلط بر پیاده‌سازی زمان‌بندی نرخ یادگیری (1cycle, Cosine Annealing) برای تسریع همگرایی.
  • تنظیم هایپرپارامترها: مهارت در استفاده از ابزارهای خودکار مانند KerasTuner و Optuna و روش‌های کلاسیک نظیر GridSearch.

۳. تسلط پیشرفته بر TensorFlow و Keras

  • تسلط بر APIها: مهارت کامل در هر سه API کراس: Sequential برای مدل‌های ساده، Functional برای گراف‌های پیچیده (مانند چند ورودی/خروجی) و Model Subclassing برای ساخت مدل‌های کاملاً سفارشی و پژوهش‌محور.
  • کنترل سطح پایین: تخصص در ساخت حلقه‌های آموزش سفارشی با tf.GradientTape برای رژیم‌های آموزشی غیرمتعارف (مانند GANs) که کنترل کامل بر فرآیند آموزش را فراهم می‌کند.
  • پایپ‌لاین‌های داده با کارایی بالا: طراحی و بهینه‌سازی پایپ‌لاین‌های ورودی با tf.data برای مجموعه داده‌های عظیم. مهارت در استفاده از TFRecords برای ذخیره‌سازی بهینه و اعمال تکنیک‌های بهبود عملکرد مانند کَش کردن و پیش‌واکشی.

۴. یادگیری ماشین کلاسیک و علم داده

  • یادگیری نظارت‌شده و بدون نظارت: تسلط قوی بر رگرسیون، طبقه‌بندی (SVM, XGBoost) و خوشه‌بندی (K-Means, DBSCAN, HDBSCAN).
  • پیش‌پردازش داده و مهندسی ویژگی: مهارت در آماده‌سازی داده برای مدل‌سازی، شامل کدگذاری پیشرفته، مقیاس‌بندی ویژگی‌ها و کاهش ابعاد (PCA, UMAP).
  • سیستم‌های توصیه‌گر: درک عمیق از Collaborative Filtering، Content-Based و موتورهای ترکیبی مانند Neural Collaborative Filtering.
  • اتوماسیون، MLOps و توسعه ابزار: تجربه کار با PyCaret برای نمونه‌سازی سریع و دانش پایه‌ای MLOps (DVC, MLflow, Docker). مهارت در توسعه اسکریپت‌های اتوماسیون و یکپارچه‌سازی با REST API (مانند API گیت‌هاب) برای بهینه‌سازی فرآیندها، مدیریت پروژه‌ها و اتصال دنیای توسعه به استقرار نهایی.

🚀 نمونه ای از پروژه ها

۱. پیش‌بینی پیشرفته سری‌های زمانی دیتاست yfinance

  • شرح: توسعه و ارزیابی مجموعه‌ای از مدل‌های پیشرفته شامل DeepAR، N-BEATS و Temporal Fusion Transformer (TFT),Temporal Convolutional Network (TCN) برای پیش‌بینی سری‌های زمانی پیچیده مالی (بازار سهام) و اقلیمی.
  • تکنولوژی‌ها: TensorFlow, Darts, GluonTS, PyTorch Lightning
  • دستاورد: افزایش چشمگیر دقت پیش‌بینی با طراحی یک مدل TFT که متغیرهای کمکی خارجی را به طور مؤثر ادغام می‌کرد. پیاده‌سازی روش‌های اعتبارسنجی قدرتمند backtesting و historical forecasting برای تضمین عملکرد مدل در سناریوهای واقعی.
  • ⬅️ مشاهده پروژه در گیت‌هاب

۲. بینایی کامپیوتر: تشخیص اشیاء و قطعه‌بندی معنایی

  • شرح: مهندسی و پیاده‌سازی یک پایپ‌لاین جامع بینایی کامپیوتر برای تشخیص اشیاء (object detection) و قطعه‌بندی معنایی (semantic segmentation). در این پروژه، معماری‌های مدرن برای شناسایی، مکان‌یابی و طبقه‌بندی دقیق اشیاء در سطح پیکسل در صحنه‌های پیچیده پیاده‌سازی و ارزیابی شده‌اند.
  • تکنولوژی‌ها: TensorFlow, Keras, OpenCV, YOLO, U-Net, یادگیری انتقال (Transfer Learning)
  • دستاوردها: دستیابی به دقت بالا در مکان‌یابی اشیاء با استفاده از مدل‌های YOLO که Fine-tune شده‌اند. پیاده‌سازی مدل U-Net برای قطعه‌بندی دقیق در سطح پیکسل. بهره‌گیری از یادگیری انتقال و تکنیک‌های پیشرفته افزایش داده (data augmentation) برای بهینه‌سازی عملکرد و قدرت تعمیم مدل بر روی دیتاست‌های سفارشی.
  • ⬅️ مشاهده پروژه در گیت‌هاب

۳. طبقه‌بندی آریتمی قلبی (ECG) با داده‌های نامتوازن

  • شرح: طراحی یک مدل یادگیری عمیق به همراه Hybrid Transformer Model,RNN,Ensemble Methods و غیره برای طبقه‌بندی سیگنال‌های قلبی از دیتاست MIT-BIH Arrhythmia که به دلیل عدم توازن شدید کلاس‌ها چالشی بزرگ محسوب می‌شود.
  • تکنولوژی‌ها: TensorFlow, Keras, Pandas, Matplotlib
  • دستاورد: حل موفقیت‌آمیز مشکل عدم توازن کلاس‌ها با پیاده‌سازی یک تابع هزینه سفارشی به نام Focal Loss که توانایی مدل در تشخیص و طبقه‌بندی کلاس‌های آریتمی نادر اما حیاتی را به طور قابل توجهی بهبود بخشید.
  • ⬅️ مشاهده پروژه در گیت‌هاب

۴. تسلط پیشرفته بر TensorFlow: مدل‌های سفارشی و API سطح پایین

  • شرح: این پروژه با فراتر رفتن از APIهای سطح بالا، تسلط عمیق بر TensorFlow را نمایش می‌دهد. تمرکز این مجموعه بر معماری مدل‌های سفارشی از پایه با استفاده از Model Subclassing و کنترل کامل فرآیند آموزش با tf.GradientTape است. هدف، ساخت مدل‌های انعطاف‌پذیر و پژوهش‌محور از طریق تسلط بر تمام اجزای حلقه آموزش است.
  • تکنولوژی‌ها: TensorFlow 2.x, tf.GradientTape, tf.data API, Keras Model Subclassing, NumPy
  • دستاوردها:
    • کسب توانایی پیاده‌سازی و آموزش معماری‌های نوین و پژوهش‌محور (مانند شبکه‌های سیامی و GANs) که نیازمند منطق آموزش غیراستاندارد هستند.
    • مهندسی پایپ‌لاین‌های آموزشی کاملاً سفارشی با کنترل کامل برای انجام آزمایش‌ها و دیباگینگ پیشرفته.
    • تسلط بر tf.data API برای ساخت پایپ‌لاین‌های ورودی بسیار کارآمد و مقیاس‌پذیر برای دیتاست‌های حجیم.
  • ⬅️ مشاهده پروژه در گیت‌هاب

۵. ابزار اتوماتیک تگ‌گذاری ریپازیتوری‌های گیت‌هاب

  • شرح: توسعه یک اسکریپت پایتون برای مدیریت خودکار پروفایل گیت‌هاب. این ابزار با اسکن دایرکتوری پروژه‌های محلی، به صورت هوشمند از روی ساختار پوشه‌ها و محتوای فایل README کلمات کلیدی مرتبط را استخراج کرده و آن‌ها را از طریق API گیت‌هاب به عنوان تاپیک به ریپازیتوری‌های مربوطه اضافه می‌کند.
  • تکنولوژی‌ها: Python, GitHub API, Requests, Regex
  • دستاوردها: خودکارسازی یک فرآیند دستی زمان‌بر که منجر به تگ‌گذاری یکپارچه و جامع پروژه‌ها شد. این اسکریپت با استفاده از getpass اطلاعات حساس را به صورت امن دریافت می‌کند و دارای یک مرحله تأیید نهایی توسط کاربر برای جلوگیری از تغییرات ناخواسته است که کارایی و امنیت را همزمان تضمین می‌کند.
  • ⬅️ مشاهده پروژه در گیت‌هاب

⚙️ نصب و اجرا

۱. کلون کردن ریپازیتوری:

git clone https://github.com/imehranasgari/imehranasgari.git

۲. ساخت محیط: روش پیشنهادی استفاده از فایل ai.yml است که می‌توانید آن را از اینجا دانلود کنید. این محیط یکپارچه برای تمام ریپازیتوری‌ها طراحی شده و شامل تمام پکیج‌های ضروری با پشتیبانی از GPU (CUDA) است و هیچ‌گونه تداخلی بین پکیج‌ها وجود ندارد.

conda env create -f ai.yml

۳. اجرای نوتبوک‌ها: به پوشه پروژه مورد نظر بروید و فایل‌های .ipynb را در ژوپیتر یا گوگل کولب اجرا کنید.

under Banner per

Popular repositories Loading

  1. ML-Dimensionality-Reduction-PCA ML-Dimensionality-Reduction-PCA Public

    A hands-on implementation of Principal Component Analysis (PCA) on the Iris dataset to demonstrate dimensionality reduction for visualization and faster ML.

    Jupyter Notebook

  2. ML-Data-Preparation-Encoding ML-Data-Preparation-Encoding Public

    A complete data preprocessing workflow for machine learning, covering importing libraries and dataset, handling missing values, encoding categorical variables (independent and dependent), splitting…

    Jupyter Notebook

  3. ML-Data-Preparation-SVM-GridSerach ML-Data-Preparation-SVM-GridSerach Public

    project for optimizing and evaluating an SVM model using Grid Search and k-Fold Cross Validation on the Social_Network_Ads dataset. Includes data preprocessing, training, performance assessment (co…

    Jupyter Notebook

  4. ML-Data-Preparation-EDA ML-Data-Preparation-EDA Public

    Showcasing the capabilities of Python libraries for cleaning, transforming, and visualizing data, this project uses Google Play Store app data to illustrate how EDA reveals patterns in categories, …

    Jupyter Notebook

  5. pandas-numpy-data-manipulation pandas-numpy-data-manipulation Public

    A comprehensive demonstration of Pandas and NumPy features for data selection, cleaning, transformation, and numerical analysis in Python. Includes hands-on Jupyter notebooks using the Titanic data…

    Jupyter Notebook

  6. ML-Regression-Regularization ML-Regression-Regularization Public

    The project aims to explore and implement regularization techniques, specifically Ridge and Lasso Regression, to address potential issues like overfitting in linear regression models. The goal is t…

    Jupyter Notebook