Yapay Zeka Gpu Önerisi
-
Görüntü işleme üzerine bir proje yapacağım. Fakat donanım olarak gpu cluster oluşturmam lazım. Bunun maliyet araştırmasını yapıyorum. Bu konuda tecrüvesi olan satın almış ve ya araştırmış bilgisi olan müridler vardır.
Donanım kısmından çok anlamadığım için yardımcı olursanız sevinirim
Hangi ürünleri tavsiye edersiniz ?
İyi kötü yanları nedir ?
Önerileriniz varsa ve link paylaşabilirseniz bizde bilgilenelim
-
benimde bu ara image classification ile alakalı ufak bir şey yapmam gerekti github daki hazır örnekler üzerinden bir şeyler denemek istedim
tensorflow gpu modunda daha hızlı işlem yapıldığını okudum
tavsiyem cuda destekli bir gpu alman https://developer.nvidia.com/cuda-gpus
çalıştığım firmaya istekte bulundum it tarafı asus gtx 1050 ti bunu alacaklarını söyledi ne kadar işime yarar inan bende bilmiyorum ama cuda destekli bir şey alman gerek diye düşünüyorum.belki okumak istersin https://www.pyimagesearch.com/?s=cuda+gpu
-
Çok özel bir proje değilse Cloud kullansan? Ben cloud tercih ederdim açıkcası, donanımla ne uğraşıcam abi yok bozuldu yok driver güncellenmedi, PaaS olarak kullan kafan rahat olsun.
-
Hocam sıfırdan bir model eğitecek misin, eğiteceksen ne kadar büyük bir model eğiteceksin?
Hazır bir model kullanacaksan ne büyüklükte bir model kullanacaksın?
Realtime çalışması gereken bir şey mi yapıyorsun?
Modelin büyüklüğüne, niteliğine, gerekliliklere göre kullanacağın gpu(lar) değişir.
Ayrıca başlangıçta colab'de denemeler yapabilirsin ücretsiz olarak. Training biraz zahmetli olur ama başlangıç için iş görebilir.
-
gamahawk bunu yazdı
Çok özel bir proje değilse Cloud kullansan? Ben cloud tercih ederdim açıkcası, donanımla ne uğraşıcam abi yok bozuldu yok driver güncellenmedi, PaaS olarak kullan kafan rahat olsun.
terstten geçiriyorlar, en düşük sistemde aylık ücreti 350 doları buluyor.
4x1080ti kullanabilirsin. 2080ti da kullanabilirsin. bütçene göre değişir. 1050ti çok ağır kalıyor. bunların yanında.
1050ti alana kadar 1660 al. Benzer fiyatlı daha iyi performanslı.
ya da tesla serileri k80 falan. Google Cloud'da zaten bu serileri koyuyor makinalarına. Ama k80, 2080ti'dan daha yavaş.
ihtiyaç meselesi hocam.
1050ti, 1080ti, rtx 2080ti üçünü de kullandım ve kullanıyorum aktif olarak. bariz hız farkları var kartlar arasında.
Burası da sana fikir versin:
https://lambdalabs.com/deep-learning/workstations/4-gpu
not: biz tensorflow kullanıyoruz, python ile.
neverland tarafından 24/Haz/20 16:30 tarihinde düzenlenmiştir -
Lightsaber bunu yazdı
Hocam sıfırdan bir model eğitecek misin, eğiteceksen ne kadar büyük bir model eğiteceksin?
Hazır bir model kullanacaksan ne büyüklükte bir model kullanacaksın?
Realtime çalışması gereken bir şey mi yapıyorsun?
Modelin büyüklüğüne, niteliğine, gerekliliklere göre kullanacağın gpu(lar) değişir.
Ayrıca başlangıçta colab'de denemeler yapabilirsin ücretsiz olarak. Training biraz zahmetli olur ama başlangıç için iş görebilir.
Evet sıfırdan bir model eğiteceğim. Keras ve tensorflow kullanmayı düşünüyorum.
1M üstünde veri var büyüklük olarak hangi kategoride bilmiyorum.
Eğittikten sonra realtime çalışacak ve belli aralıklarkla eğitime devam .
@MasterYoda
İncelicem teşekkürler
kont239 tarafından 24/Haz/20 16:19 tarihinde düzenlenmiştir -
kont239 bunu yazdıLightsaber bunu yazdı
Hocam sıfırdan bir model eğitecek misin, eğiteceksen ne kadar büyük bir model eğiteceksin?
Hazır bir model kullanacaksan ne büyüklükte bir model kullanacaksın?
Realtime çalışması gereken bir şey mi yapıyorsun?
Modelin büyüklüğüne, niteliğine, gerekliliklere göre kullanacağın gpu(lar) değişir.
Ayrıca başlangıçta colab'de denemeler yapabilirsin ücretsiz olarak. Training biraz zahmetli olur ama başlangıç için iş görebilir.
Evet sıfırdan bir model eğiteceğim. Keras ve tensorflow kullanmayı düşünüyorum.
1M üstünde veri var büyüklük olarak hangi kategoride bilmiyorum.
Eğittikten sonra realtime çalışacak ve belli aralıklarkla eğitime devam .
@MasterYoda
İncelicem teşekkürler
hocam veriden çok kullanacağın mimarinin büyüklüğü önemli. kaç milyon parametreli bir model olacak?
mesela GAN'larda kontağı açmak genelde 12GB'tan başlıyor (inference için) :)
rahat etmen için en azından modelin sığabileceği kadar vram olması lazım.
Mesela sınıflandırma için bir network eğiteceksen burada belli başlı backboneların ve classifierların gpu memory kullanımlarına dair veriler paylaşılmış: https://github.com/albanie/convnet-burden
Şurada da training ve inference sırasında kendi modelinin ne kadar vrame ihtiyaç duyacağına dair yaklaşık bir hesaplama var: https://datascience.stackexchange.com/a/32078
senin durumundan bağımsız olarak şu aralar f/p olarak rtx 2080 ti öneriyorlar diye hatırlıyorum ama ihtiyaçlarına göre titan, v100, p100 vs düşünmen de gerekebilir ama küçük bir model eğiteceksindir 1050ti bile yetecektir belki