Assembler son PC avec les meilleurs composants

Assembler son PC avec les meilleurs composants => Demandes de configuration en fonction de votre budget => Discussion démarrée par: savant flou le 09 novembre 2019 à 08:39:40

Titre: Configuration-type deep learning
Posté par: savant flou le 09 novembre 2019 à 08:39:40
Il y a eu plus demandes de configuration deep learning, donc il ne serait peut-être pas mal de parler de manière générale des besoins de telles configurations. Voici ce qu'on trouve comme recommandations.

Selon https://timdettmers.com/2018/12/16/deep-learning-hardware-guide/ (https://timdettmers.com/2018/12/16/deep-learning-hardware-guide/) :
- CM + CPU :
   . Le nombre de lignes PCIe n'est pas crucial, tant que la CM et le CPU supportent assez de GPU (avec au moins 1-2 cœur par GPU)
   . Le CPU a un rôle mineur : ne pas dépenser trop.
RAM :
   . La RAM n'est pas ce qu'il y a de plus important tant qu'il y en a plus que la RAM de plus gros des GPU
   . La vitesse de la RAM n'est pas importante
- SSD (pour OS, logiciel, données souvent utilisées) + HDD pour le reste
- GPU : les 'blowers' sont mieux que les doubles ventilateurs avec plusieurs GPU
- Alim :
   . puissance = besoins CPU + GPU + futurs GPU + marge
   . Le rendement de l'alimentation fait baisser les factures d'électricité
   . Vérifier le nombre de PCIe de l'alim
- Avoir plusieurs écrans augmente la productivité

Selon https://medium.com/the-mission/how-to-build-the-perfect-deep-learning-computer-and-save-thousands-of-dollars-9ec3b2eb4ce2 (https://medium.com/the-mission/how-to-build-the-perfect-deep-learning-computer-and-save-thousands-of-dollars-9ec3b2eb4ce2), ce qui est important :
- Le CPU :
   . la CM (et le boîtier) doivent être suffisants pour le (futur) nombre de GPU
   . au moins 8 (16 est mieux) lignes PCIe par GPU (+ 4 pour le SSD + 4 ethernet)
   . en tout >= 8 cœurs (>= 16 threads) et >= 40 lignes PCIe pour 4 GPU (y compris futurs)
   . AMD a un meilleur rapport qualité/prix
- La RAM peut contenir l'intégralité des données (sans compression)
- Le GPU :
   . assez de RAM
   . assez rapide
   . Nvidia est plus facilement compatible avec Tensorflow, PyTorch, etc.
   . les 'blowers' sont mieux que les doubles ventilateurs avec plusieurs GPU
- Alim :
   . puissance = besoins CPU + GPU + futurs GPU + marge
   . attention au bruit

Comparatif GPU : https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ (https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/)
Titre: Configuration-type deep learning
Posté par: Doc.Jeckill le 09 novembre 2019 à 11:56:02
Contradictoire:
C'est le CPU qui gère les ligne PCIe !

Citer
Le nombre de lignes PCIe n'est pas crucial, tant que la CM et le CPU supportent assez de GPU (avec au moins 1-2 cœur par GPU)

Citer
au moins 8 (16 est mieux) lignes PCIe par GPU (+ 4 pour le SSD + 4 ethernet)

Donc le nombre de lignes PCIe n'est pas crucial !

En prenant une carte mère socket 1151 de haut de gamme nous serons limités à 2 cartes graphiques avec du 16x, 8x ensembles, le 4x ne sera pas exploitable. Ca fait déjà 28 lignes PCie réservés pour les GPU. Un i7 9700K ne gère que 1x16 ou 2x8 pour les cartes graphiques !
Donc pour le multi GPU il faudra se tourner vers le socket 2066 pour avoir du 16x, 16x, 8x avec un CPU qui assure au moins 40 lignes, pas donné la bête !
550 € de CM + 1000 € de CPU.

Citer
attention au bruit

Incompatible avec des GPU blower = 747 au décollage  (h_o)
Titre: Configuration-type deep learning
Posté par: savant flou le 09 novembre 2019 à 13:04:48
Et si on table sur 8 lignes PCIe par GPU au lieu de 16 ?
AMD a un peu plus de lignes, non ?
Titre: Configuration-type deep learning
Posté par: savant flou le 09 novembre 2019 à 13:14:16
Est-ce que Crossfire et SLI sont pertinents dans ce contexte, ou est-ce que c'est seulement pour de l'affichage ?
Titre: Configuration-type deep learning
Posté par: Doc.Jeckill le 09 novembre 2019 à 14:59:06
Est-ce que Crossfire et SLI sont pertinents dans ce contexte, ou est-ce que c'est seulement pour de l'affichage ?

Aucun intérêt dans le GPU computing !
Titre: Configuration-type deep learning
Posté par: zestiria le 09 novembre 2019 à 18:43:31
Ah bon, j'ai compris que le NV link permet de partager la mémoire des cartes grahiques : tu peux fitter de plus grands modèles.
Titre: Configuration-type deep learning
Posté par: Doc.Jeckill le 09 novembre 2019 à 23:16:35
Chaque GPU a besoin de sa propre mémoire dans le GPU computing. Pas de link pour éviter la "soupe" !
On peut d'autre part mettre des cartes différentes pour le computing mais respecter la même catégorie car les drivers doivent être identiques. Par exemple, une GTX 1060 avec une RTX 2080.
Titre: Configuration-type deep learning
Posté par: Shiro le 21 novembre 2019 à 01:08:30
La ram reste quand meme importante. Je dirai que 32 go est top. Apres bien entendu ca va dépendre des types de données, mais l'avantage de charger les données en ram fait que les entrainements sont plus rapides.
Un HDD de 4to est à mon sens également necessaire pour être large niveau stockage de données.
Titre: Configuration-type deep learning
Posté par: zestiria le 26 novembre 2019 à 19:17:24
Le AMD 3950X est en rupture de stock dès le premier jour.  En plus, il est vendu à 1000 euros.