Donanım Odaklı Derin Öğrenmeye Giriş

 

ÖN KAYIT

15 ya da daha fazla kişi için mi alacaksınız?

KURUMUNUZA ÖZEL TALEP Detaylı Bilgi Almak İçin Tıklayın

Amaç

Bu eğitimin temel amacı, derin öğrenme modellerinin sadece algoritmik başarısına değil, bu modellerin fiziksel dünyadaki çalışma verimliliğine odaklanarak yazılım ve donanım arasındaki kopukluğu gidermektir. Günümüzde yapay zeka modelleri devasa boyutlara ulaşırken, hesaplama maliyetleri ve enerji tüketimi en büyük engel haline gelmiştir; bu nedenle katılımcıların, modellerini hedef donanim mimarisine (GPU, TPU, Uç cihazlar) göre optimize edebilecek, bellek darboğazlarini yönetebilecek ve modem paralel işleme tekniklerini (Data/Model Parallelism) stratejik olarak kullanabilecek yetkinliğe erişmeleri hedeflenmektedir. Kısacası eğitim, teorik bir modeli laboratuvar ortamindan çikarıp gerçek dünya sistemlerinde en yüksek performansla koşturacak "donanım farkındalıklı" bir mühendislik vizyonu kazandırmayı amaçlar.

Bu eğitimi başariyla tamamlayan bir katılımcı:

  • Donanım Mimarilerini Tanır: CPU, GPU, TPU ve FPGA gibi farklı donanım birimlerinin derin öğrenme süreçlerindeki temel rollerini ve mimari farklarını açıklar.
  • Performans Darboğazlarini Tespit Eder: Derin öğrenme modellerinde eğitimin ve çıkarımın (inference) neden yavaşladığını; işlem gücü (compute-bound) ve bellek bant genişliği (memory-bound) kısıtları çerçevesinde analiz eder.
  • Bellek Hiyerarşisini Kavrar: Verinin bellek katmanları (LI/L2 Cache, HBM, DRAM) arasındaki hareket maliyetini ve bu maliyetin toplam eğitim süresine etkisini anlar.
  • Model Sıkıştırma Yöntemlerini Ayırt Eder: Budama (pruning), kuantizasyon (quantization) ve bilgi damıtma (knowledge distillation) gibi tekniklerin hangi durumlarda ve hangi donanımlarda avantaj sağladığını kavrar.
  • Hassasiyet Stratejilerini Değerlendirir: FP32, FP16, BF16 ve INT8 gibi veri tiplerinin model doğruluğu ve donanım verimliliği üzerindeki etkilerini (trade-offs) yorumlar.
  • Paralelleştirme Kavramlarını Anlar: Veri (Data), Model, Boru Hattı (Pipeline) ve Tensör paralelleştirme stratejilerinin temel çalışma prensiplerini ve ne zaman tercih edildiklerini açıklar.

Başvuru Koşulları

Bu eğitim; Bilgisayar, yazılım, elektrik-elektronik mühendisliği veya veri bilimi gibi teknik alanlarda lisans derecesini tamamlamış, tercihen lisansüstü eğitime devam eden araştırmacılar ile yapay zeka sektöründe çalışan profesyonelleri hedeflemektedir. Katılımcıların temel derin öğrenme kavramlarına (sinir ağları, eğitim döngüleri, optimizasyon yöntemleri) hakim olmaları ve en az bir derin öğrenme kütüphanesi (PyTorch, TensorFlow vb.) ile model geliştirme deneyimine sahip olmaları beklenmektedir. Eğitim, modellerini sadece yazılım düzeyinde değil, donanım kısıtlarını (bellek, işlem gücü, enerji) dikkate alarak optimize etmek isteyen sistem mühendisleri, HPC (Yüksek Başarımlı Hesaplama) uzmanları ve "Edge AI" alanlarında çalışan geliştiriciler için tasarlanmıştır. Bilgisayar mimarisi konusunda temel bir farkındalık avantaj sağlasa da zorunlu bir ön koşul değildir; eğitim bu disiplinler arasındaki köprüyü kuracak teorik  temelleri kapsamaktadır. 

Süre

18 Ders Saati

Eğitim Dili

Türçe

Belgelendirme

Eğitim sonunda %70 devam zorunluluğunu sağlayan ve uygulanacak sınavda başarı gösteren katılımcılar “Başarı Belgesi” almaya hak kazanacaktır. %70 devam zorunluğu sağlayan ve uygulanacak sınavda başarı gösteremeyen katılımcılar "Katılım belgesi" almaya hak kazanacaktır.

Eğitmenler

Doç. Dr. Erdem Akagündüz

Konu Başlıkları

Bölüm

Konu Başlığı

Süre

Açıklama ve Alt Başlıklar

Giriş

 DL Temellerine Giriş

4 Saat

Mimariler ve Eğitim Mekanizması: Derin öğrenme tarihçesi, MLP, CNN ve Transformer mimarileri. Backpropagation, gradyan inişi, aktivasyon fonksiyonları ve temel katman yapıları (Linear, Conv, Norm).

Bölüm I

Donanım Neden Önemli?

2 Saat

Performans Analizi: Eğitim ve çıkarım (inference) darboğazları. FLOPs hesaplamaları, gecikme (latency), verim (throughput) ve enerji verimliliği metrikleri. Roofline modeli: Hesaplama vs. Bellek sınırı.

Bölüm II

Donanım ve Bellek Hiyerarşisi

2 Saat

Mimari Farklar: CPU, GPU, TPU ve FPGA karşılaştırmaları. Veri taşıma maliyetleri, bellek hiyerarşisi (Cache, DRAM, HBM) ve veri hassasiyeti (FP32, FP16, INT8).

Bölüm III

Model Seviyesi Optimizasyon

3 Saat

Sıkıştırma Teknikleri: Model budama (pruning), seyreklik (sparsity), nicemleme (quantization) yöntemleri ve bilgi damıtma (knowledge distillation). Donanım dostu verimli mimariler.

Bölüm IV

Sistem Seviyesi Optimizasyon

3 Saat

Paralelleştirme Stratejileri: Veri (Data), Model, Boru Hattı (Pipeline) ve Tensör paralelliği. Karma hassasiyetli eğitim (AMP) ve NCCL/MPI gibi iletişim protokolleri.

Bölüm V

 HPC ve Ölçekleme

2 Saat

Büyük Olçekli Sistemler: Yüksek başarımlı hesaplama (HPC) ortamları, DeepSpeed kütüphanesine giriş, ZeRO (Zero Redundancy Optimizer) mantığı ve LLM ölçeklendirme stratejileri.

Final

Sonuç ve Gelecek

1 Saat

Kapanış: Donanım-yazılım ortak tasarımı (co-design), gelecekteki donanım trendleri, kurs özeti ve soru-cevap bölümü.

 

ÖN KAYIT

15 ya da daha fazla kişi için mi alacaksınız?

KURUMUNUZA ÖZEL TALEP Detaylı Bilgi Almak İçin Tıklayın