Donanım Odaklı Derin Öğrenmeye Giriş
Donanım Odaklı Derin Öğrenmeye Giriş
15 ya da daha fazla kişi için mi alacaksınız?
KURUMUNUZA ÖZEL TALEP Detaylı Bilgi Almak İçin TıklayınAmaç
Bu eğitimin temel amacı, derin öğrenme modellerinin sadece algoritmik başarısına değil, bu modellerin fiziksel dünyadaki çalışma verimliliğine odaklanarak yazılım ve donanım arasındaki kopukluğu gidermektir. Günümüzde yapay zeka modelleri devasa boyutlara ulaşırken, hesaplama maliyetleri ve enerji tüketimi en büyük engel haline gelmiştir; bu nedenle katılımcıların, modellerini hedef donanim mimarisine (GPU, TPU, Uç cihazlar) göre optimize edebilecek, bellek darboğazlarini yönetebilecek ve modem paralel işleme tekniklerini (Data/Model Parallelism) stratejik olarak kullanabilecek yetkinliğe erişmeleri hedeflenmektedir. Kısacası eğitim, teorik bir modeli laboratuvar ortamindan çikarıp gerçek dünya sistemlerinde en yüksek performansla koşturacak "donanım farkındalıklı" bir mühendislik vizyonu kazandırmayı amaçlar.
Bu eğitimi başariyla tamamlayan bir katılımcı:
- Donanım Mimarilerini Tanır: CPU, GPU, TPU ve FPGA gibi farklı donanım birimlerinin derin öğrenme süreçlerindeki temel rollerini ve mimari farklarını açıklar.
- Performans Darboğazlarini Tespit Eder: Derin öğrenme modellerinde eğitimin ve çıkarımın (inference) neden yavaşladığını; işlem gücü (compute-bound) ve bellek bant genişliği (memory-bound) kısıtları çerçevesinde analiz eder.
- Bellek Hiyerarşisini Kavrar: Verinin bellek katmanları (LI/L2 Cache, HBM, DRAM) arasındaki hareket maliyetini ve bu maliyetin toplam eğitim süresine etkisini anlar.
- Model Sıkıştırma Yöntemlerini Ayırt Eder: Budama (pruning), kuantizasyon (quantization) ve bilgi damıtma (knowledge distillation) gibi tekniklerin hangi durumlarda ve hangi donanımlarda avantaj sağladığını kavrar.
- Hassasiyet Stratejilerini Değerlendirir: FP32, FP16, BF16 ve INT8 gibi veri tiplerinin model doğruluğu ve donanım verimliliği üzerindeki etkilerini (trade-offs) yorumlar.
- Paralelleştirme Kavramlarını Anlar: Veri (Data), Model, Boru Hattı (Pipeline) ve Tensör paralelleştirme stratejilerinin temel çalışma prensiplerini ve ne zaman tercih edildiklerini açıklar.
Başvuru Koşulları
Bu eğitim; Bilgisayar, yazılım, elektrik-elektronik mühendisliği veya veri bilimi gibi teknik alanlarda lisans derecesini tamamlamış, tercihen lisansüstü eğitime devam eden araştırmacılar ile yapay zeka sektöründe çalışan profesyonelleri hedeflemektedir. Katılımcıların temel derin öğrenme kavramlarına (sinir ağları, eğitim döngüleri, optimizasyon yöntemleri) hakim olmaları ve en az bir derin öğrenme kütüphanesi (PyTorch, TensorFlow vb.) ile model geliştirme deneyimine sahip olmaları beklenmektedir. Eğitim, modellerini sadece yazılım düzeyinde değil, donanım kısıtlarını (bellek, işlem gücü, enerji) dikkate alarak optimize etmek isteyen sistem mühendisleri, HPC (Yüksek Başarımlı Hesaplama) uzmanları ve "Edge AI" alanlarında çalışan geliştiriciler için tasarlanmıştır. Bilgisayar mimarisi konusunda temel bir farkındalık avantaj sağlasa da zorunlu bir ön koşul değildir; eğitim bu disiplinler arasındaki köprüyü kuracak teorik temelleri kapsamaktadır.
Süre
18 Ders Saati
Eğitim Dili
Türçe
Belgelendirme
Eğitim sonunda %70 devam zorunluluğunu sağlayan ve uygulanacak sınavda başarı gösteren katılımcılar “Başarı Belgesi” almaya hak kazanacaktır. %70 devam zorunluğu sağlayan ve uygulanacak sınavda başarı gösteremeyen katılımcılar "Katılım belgesi" almaya hak kazanacaktır.
Eğitmenler
Doç. Dr. Erdem Akagündüz
Konu Başlıkları
|
Bölüm |
Konu Başlığı |
Süre |
Açıklama ve Alt Başlıklar |
|
Giriş |
DL Temellerine Giriş |
4 Saat |
Mimariler ve Eğitim Mekanizması: Derin öğrenme tarihçesi, MLP, CNN ve Transformer mimarileri. Backpropagation, gradyan inişi, aktivasyon fonksiyonları ve temel katman yapıları (Linear, Conv, Norm). |
|
Bölüm I |
Donanım Neden Önemli? |
2 Saat |
Performans Analizi: Eğitim ve çıkarım (inference) darboğazları. FLOPs hesaplamaları, gecikme (latency), verim (throughput) ve enerji verimliliği metrikleri. Roofline modeli: Hesaplama vs. Bellek sınırı. |
|
Bölüm II |
Donanım ve Bellek Hiyerarşisi |
2 Saat |
Mimari Farklar: CPU, GPU, TPU ve FPGA karşılaştırmaları. Veri taşıma maliyetleri, bellek hiyerarşisi (Cache, DRAM, HBM) ve veri hassasiyeti (FP32, FP16, INT8). |
|
Bölüm III |
Model Seviyesi Optimizasyon |
3 Saat |
Sıkıştırma Teknikleri: Model budama (pruning), seyreklik (sparsity), nicemleme (quantization) yöntemleri ve bilgi damıtma (knowledge distillation). Donanım dostu verimli mimariler. |
|
Bölüm IV |
Sistem Seviyesi Optimizasyon |
3 Saat |
Paralelleştirme Stratejileri: Veri (Data), Model, Boru Hattı (Pipeline) ve Tensör paralelliği. Karma hassasiyetli eğitim (AMP) ve NCCL/MPI gibi iletişim protokolleri. |
|
Bölüm V |
HPC ve Ölçekleme |
2 Saat |
Büyük Olçekli Sistemler: Yüksek başarımlı hesaplama (HPC) ortamları, DeepSpeed kütüphanesine giriş, ZeRO (Zero Redundancy Optimizer) mantığı ve LLM ölçeklendirme stratejileri. |
|
Final |
Sonuç ve Gelecek |
1 Saat |
Kapanış: Donanım-yazılım ortak tasarımı (co-design), gelecekteki donanım trendleri, kurs özeti ve soru-cevap bölümü. |
15 ya da daha fazla kişi için mi alacaksınız?
KURUMUNUZA ÖZEL TALEP Detaylı Bilgi Almak İçin Tıklayın