Aurélien Bardøη
@aurelienbardon
Followers
6K
Following
9K
Statuses
18K
SEO SAAS owner Crawl, Automated Testing, Ranking, Indexing Alerting, Monitoring, Webperf, KW... Try for FREE EN https://t.co/Ssr7Ud3Zgk FR https://t.co/Yjm3KPGv5E Afuera
Lille
Joined January 2008
Excellent post pour comprendre comment fonctionne un data center pour LLM, ses besoins et coûts - Ratio invest entre GPU/bâtiment - Rôles des GPU - Contraintes techniques des GPU 👇👇👇
Depuis quelques jours, on entend beaucoup parler de projets de construction "Datacenters 1GW" pour l'IA en France Pour bien comprendre le besoin, il faut bien avoir en tête ces 3 chiffres suivant: il faut 50Me, pour investir dans 1000 GPU qui vont fonctionner dans un Datacenter consommant 1MW de puissance électrique Ces 3 chiffres fonctionnent ensemble sur plusieurs niveaux de scale: 50Me - 1k GPU - 1MW 500Me - 10k GPU - 10MW 5Mde - 100k GPU - 100MW 50Mde - 1M GPU - 1GW 80% de ces montants servent à acheter les GPUs, 20% pour construire un Datacenter Pour quel besoin ? Les GPUs sont utilisés pour 2 types d'usage: - l'entrainement et donc la création d'un modèles LLM avec les données (training) - l'utilisation d'un modele LLM existant par les clients (inference) Les générations de GPUs actuellement disponibles sur le marché permettent de faire l'entraînement sur environ 100K GPU en fonctionnant ensemble. Le facteur limitant est la distance entre les 2 GPUs les plus éloignés physiquement : à partir d'un certain nombre de GPU connectés ensemble, la distance fait ralentir le fonctionnement de l'ensemble de GPUs C'est pourquoi pour le besoin de l'entrainement, une nouvelle génération de GPUs arrive sur le marché: les superchip. Au lieu d'avoir des dizaines de GPU indépendants que vous connectez en suite ensemble, chaque superchip regroupe une dizaines de GPUs sur une seule carte. Bravo ! Vous avez réduit la distance entre les GPUs et vous pouvez connecter désormais 10 fois plus de GPUs ensemble sans ralentir le tout. En revanche, vous avez de nouveaux défis à résoudre: comment distribuer l'énergie et refroidir une infrastructure 10 fois plus dense Comment vous procurer une source d'énergie de 1GW et comment assurer sa redondance Pour héberger la puissance de calcul dans un Datacenter, on utilise les baies aka les racks, qui est une sorte d'armoire de 0,6m de large, 1m de profondeur et 2.5m de hauteur. Chaque baie est alimentée avec environ 20KW de puissance électrique. Pour la refroidir, on utilise de l'air frais qu'on pousse à travers la baie Si on veut utiliser plus que 20KW dans une baie, l'air ne suffit pas pour la refroidir. Il faut passer en watercooling. C'est là qu'on commence à parler de la nouvelle génération de Datacenter et dans certains cas on parle de 1GW. En effet, pour héberger les superchip, on parle désormais de baies à 120KW voir meme on spécule sur 240KW par baie et un système de watercooling pour capturer et extraire toute cette chaleur. C'est totalement nouveau par la puissance par baie mais aussi par ce système de refroidissement watercooling at scales. Voilà pourquoi ce genre de Datacenter n'existent pas et donc faut les construire Pour l'usage d'inférence, il n'y a pas besoin de Datacenters aussi sophistiqués. Pas besoin de superchip non plus. Un modèle LLM a besoin d'un système de GPU qui consomme entre 100W et 10KW, rarement 20KW, equivalent de 1 à 16 GPU. Chaque système étant indépendant, vous pouvez mettre autant de systèmes en parallèle que vous voulez, ce qui vous permet d'absorber un grand traffic web ou mobile. Il est même préférable d'avoir plusieurs Datacenters d'Inference, en parallèle et pourquoi pas 1 par pays. Cela permet d'assurer la haute disponibilité, et les faibles latences en utilisant Datacenter le plus proche du visiteur Et OVHcloud dans tout ca ? Nous possédons plus de 40 Datacenters, dans plusieurs pays en Europe, au Canada, en Amérique du Nord, et Asie. Nous sommes experts de watercooling depuis plus de 20 ans. Ceci nous permet de refroidir >500K serveurs physique dans tous nos Datacenters. Nos technos interne, opensourcées, coutent 20x à 40x moins que les solutions du marché. Nous possédons les Datacenters de 40MW à 100MW, capable d'héberger de l'entrainement, avec de baies à 40KW mais aussi nous avons les Datacentres partout dans le monde pour assurer l'inference. Nos investissements suivent les besoins de nos clients et nous sommes capable d'accélérer si necessaire
1
4
5
On est sur un nouveau projet à l'international et cette fois c'est le canada. Pour l'instant, on perfore littéralement les SERPs 🙈🙈🙈 #seo
1
0
2
Le Chat Pro de l'IA 🇫🇷 Mistral gratuit si vous êtes chez Free ! merci @free @Xavier75 @MistralAI 🙏 v/ @nicovarchar2
Free Mobile, premier opérateur à intégrer un assistant IA premium dans toutes ses offres : le Chat Pro de Mistral AI ! À partir de ce lundi 12 février, Free Mobile proposera le Chat Pro de Mistral AI en option, offert pendant 12 mois et sans engagement !
1
0
3
je savais depuis longtemps que @pabaly était pas tout à fait normal dans le sens comme le commun des mortels mais j'ai appris un truc today vraiment hallucinant qui le confirme :D La suite vendredi pour ceux qui viennent à l'apéro seo de @Charles_vandend ^^
0
0
4
@GuillaumGuersan Il y a eu une dissolution et 3 ou 4 premiers ministres en 1 an tu sais depuis ^^ Plus aucune majorité même relative. Il n'est plus au manette : - )
1
0
1
@eseoref @barryfabien Les petits AE facturent souvent à des particuliers. Tu fais fausse route
1
0
1
@eseoref @barryfabien Si tu parles de mon tweet, ce qui est déploré (et déplorable) c'est l'état du régime de retraite, de notre système de santé & de notre sécurité :)
1
0
1
C super d'avoir des stats qui confirment ce qu'on peut penser et qui peuvent permettre d'appuyer ses propos. En revanche quand cela arrivera en France et qu'il faudra dire au client "c'est normal de perdre des visites cela va piquer ^^" En revanche, ce qui me surprend c'est l'augmentation du CTR (quand pas d'IA.) J'avais plutôt l'impression que cela faisait que de baisser. Après cela reste "qu'une" étude coté US.
1
0
1
@barryfabien 2em et 3me effet kisscool ^^ - pour les bénef, c'est l'IR - puis qd tu consommes avec ce qu'il reste, la tva arrive Heureusement en échange, on à la justice, la sécurité et la santé & la retraite au top ! Oh wait...
1
0
2
@eseoref On a déjà soulevé ce point dans ton raisonnement et tu ne répondais pas à mes questions, dc pas très envie de te répéter la même chose sorry :) (tu considères que taxer moins est un cadeau so... 😅)
0
0
4