Materiel.net PC 

Auteur Sujet: Configuration-type deep learning  (Lu 1284 fois)

Hors ligne savant flou

  • Membre Complet
  • ***
  • Messages: 103
Configuration-type deep learning
« le: 09 novembre 2019 à 08:39:40 »
Il y a eu plus demandes de configuration deep learning, donc il ne serait peut-être pas mal de parler de manière générale des besoins de telles configurations. Voici ce qu'on trouve comme recommandations.

Selon https://timdettmers.com/2018/12/16/deep-learning-hardware-guide/ :
- CM + CPU :
   . Le nombre de lignes PCIe n'est pas crucial, tant que la CM et le CPU supportent assez de GPU (avec au moins 1-2 cœur par GPU)
   . Le CPU a un rôle mineur : ne pas dépenser trop.
RAM :
   . La RAM n'est pas ce qu'il y a de plus important tant qu'il y en a plus que la RAM de plus gros des GPU
   . La vitesse de la RAM n'est pas importante
- SSD (pour OS, logiciel, données souvent utilisées) + HDD pour le reste
- GPU : les 'blowers' sont mieux que les doubles ventilateurs avec plusieurs GPU
- Alim :
   . puissance = besoins CPU + GPU + futurs GPU + marge
   . Le rendement de l'alimentation fait baisser les factures d'électricité
   . Vérifier le nombre de PCIe de l'alim
- Avoir plusieurs écrans augmente la productivité

Selon https://medium.com/the-mission/how-to-build-the-perfect-deep-learning-computer-and-save-thousands-of-dollars-9ec3b2eb4ce2, ce qui est important :
- Le CPU :
   . la CM (et le boîtier) doivent être suffisants pour le (futur) nombre de GPU
   . au moins 8 (16 est mieux) lignes PCIe par GPU (+ 4 pour le SSD + 4 ethernet)
   . en tout >= 8 cœurs (>= 16 threads) et >= 40 lignes PCIe pour 4 GPU (y compris futurs)
   . AMD a un meilleur rapport qualité/prix
- La RAM peut contenir l'intégralité des données (sans compression)
- Le GPU :
   . assez de RAM
   . assez rapide
   . Nvidia est plus facilement compatible avec Tensorflow, PyTorch, etc.
   . les 'blowers' sont mieux que les doubles ventilateurs avec plusieurs GPU
- Alim :
   . puissance = besoins CPU + GPU + futurs GPU + marge
   . attention au bruit

Comparatif GPU : https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/

Hors ligne Doc.Jeckill

  • Administrateur
  • Membre Héroïque
  • *****
  • Messages: 6250
  • Sexe: Homme
    • Assembler - Monter son PC
Configuration-type deep learning
« Réponse #1 le: 09 novembre 2019 à 11:56:02 »
Contradictoire:
C'est le CPU qui gère les ligne PCIe !

Citer
Le nombre de lignes PCIe n'est pas crucial, tant que la CM et le CPU supportent assez de GPU (avec au moins 1-2 cœur par GPU)

Citer
au moins 8 (16 est mieux) lignes PCIe par GPU (+ 4 pour le SSD + 4 ethernet)

Donc le nombre de lignes PCIe n'est pas crucial !

En prenant une carte mère socket 1151 de haut de gamme nous serons limités à 2 cartes graphiques avec du 16x, 8x ensembles, le 4x ne sera pas exploitable. Ca fait déjà 28 lignes PCie réservés pour les GPU. Un i7 9700K ne gère que 1x16 ou 2x8 pour les cartes graphiques !
Donc pour le multi GPU il faudra se tourner vers le socket 2066 pour avoir du 16x, 16x, 8x avec un CPU qui assure au moins 40 lignes, pas donné la bête !
550 € de CM + 1000 € de CPU.

Citer
attention au bruit

Incompatible avec des GPU blower = 747 au décollage  (h_o)
Vous pouvez contribuer à la vie du forum en faisant un don via Paypal:


Hors ligne savant flou

  • Membre Complet
  • ***
  • Messages: 103
Configuration-type deep learning
« Réponse #2 le: 09 novembre 2019 à 13:04:48 »
Et si on table sur 8 lignes PCIe par GPU au lieu de 16 ?
AMD a un peu plus de lignes, non ?

Hors ligne savant flou

  • Membre Complet
  • ***
  • Messages: 103
Configuration-type deep learning
« Réponse #3 le: 09 novembre 2019 à 13:14:16 »
Est-ce que Crossfire et SLI sont pertinents dans ce contexte, ou est-ce que c'est seulement pour de l'affichage ?

Hors ligne Doc.Jeckill

  • Administrateur
  • Membre Héroïque
  • *****
  • Messages: 6250
  • Sexe: Homme
    • Assembler - Monter son PC
Configuration-type deep learning
« Réponse #4 le: 09 novembre 2019 à 14:59:06 »
Est-ce que Crossfire et SLI sont pertinents dans ce contexte, ou est-ce que c'est seulement pour de l'affichage ?

Aucun intérêt dans le GPU computing !
Vous pouvez contribuer à la vie du forum en faisant un don via Paypal:


Hors ligne zestiria

  • Membre Complet
  • ***
  • Messages: 119
Configuration-type deep learning
« Réponse #5 le: 09 novembre 2019 à 18:43:31 »
Ah bon, j'ai compris que le NV link permet de partager la mémoire des cartes grahiques : tu peux fitter de plus grands modèles.

Hors ligne Doc.Jeckill

  • Administrateur
  • Membre Héroïque
  • *****
  • Messages: 6250
  • Sexe: Homme
    • Assembler - Monter son PC
Configuration-type deep learning
« Réponse #6 le: 09 novembre 2019 à 23:16:35 »
Chaque GPU a besoin de sa propre mémoire dans le GPU computing. Pas de link pour éviter la "soupe" !
On peut d'autre part mettre des cartes différentes pour le computing mais respecter la même catégorie car les drivers doivent être identiques. Par exemple, une GTX 1060 avec une RTX 2080.
Vous pouvez contribuer à la vie du forum en faisant un don via Paypal:


Hors ligne Shiro

  • Néophyte
  • *
  • Messages: 8
  • Sexe: Homme
Configuration-type deep learning
« Réponse #7 le: 21 novembre 2019 à 01:08:30 »
La ram reste quand meme importante. Je dirai que 32 go est top. Apres bien entendu ca va dépendre des types de données, mais l'avantage de charger les données en ram fait que les entrainements sont plus rapides.
Un HDD de 4to est à mon sens également necessaire pour être large niveau stockage de données.

Hors ligne zestiria

  • Membre Complet
  • ***
  • Messages: 119
Configuration-type deep learning
« Réponse #8 le: 26 novembre 2019 à 19:17:24 »
Le AMD 3950X est en rupture de stock dès le premier jour.  En plus, il est vendu à 1000 euros.