aurelienbardon Profile Banner
Aurélien Bardøη Profile
Aurélien Bardøη

@aurelienbardon

Followers
6K
Following
9K
Statuses
18K

SEO SAAS owner Crawl, Automated Testing, Ranking, Indexing Alerting, Monitoring, Webperf, KW... Try for FREE EN https://t.co/Ssr7Ud3Zgk FR https://t.co/Yjm3KPGv5E Afuera

Lille
Joined January 2008
Don't wanna be here? Send us removal request.
@aurelienbardon
Aurélien Bardøη
1 year
On lance une ToolBox SEO (gratuite) Extracteur Hx Entête HTTP Comparer des listes Extracteur URL de SITEMAP Analyse SEO Générateur Sitemap Compteur mots/caractères Extracteur d'URL Générateur d'URL SEO Combinaison de KW
Tweet media one
1
25
56
@aurelienbardon
Aurélien Bardøη
5 hours
Imaginez comment notre vie serait morose sans Internet... :)
Tweet media one
@aurelienbardon
Aurélien Bardøη
18 hours
Twitter 🍿🍿🍿 chez les géants oO 🍿🍿🍿 => Réponse de Musk à "l'insulte" de Niel => Réponse de Altman à la rumeur de la prise de contrôle d'OpenAI par Musk Les dramas SEO ne seront plus jamais au niveau
Tweet media one
Tweet media two
Tweet media three
1
0
4
@aurelienbardon
Aurélien Bardøη
6 hours
Excellent post pour comprendre comment fonctionne un data center pour LLM, ses besoins et coûts - Ratio invest entre GPU/bâtiment - Rôles des GPU - Contraintes techniques des GPU 👇👇👇
@olesovhcom
Octave Klaba
7 hours
Depuis quelques jours, on entend beaucoup parler de projets de construction "Datacenters 1GW" pour l'IA en France Pour bien comprendre le besoin, il faut bien avoir en tête ces 3 chiffres suivant: il faut 50Me, pour investir dans 1000 GPU qui vont fonctionner dans un Datacenter consommant 1MW de puissance électrique Ces 3 chiffres fonctionnent ensemble sur plusieurs niveaux de scale: 50Me - 1k GPU - 1MW 500Me - 10k GPU - 10MW 5Mde - 100k GPU - 100MW 50Mde - 1M GPU - 1GW 80% de ces montants servent à acheter les GPUs, 20% pour construire un Datacenter Pour quel besoin ? Les GPUs sont utilisés pour 2 types d'usage: - l'entrainement et donc la création d'un modèles LLM avec les données (training) - l'utilisation d'un modele LLM existant par les clients (inference) Les générations de GPUs actuellement disponibles sur le marché permettent de faire l'entraînement sur environ 100K GPU en fonctionnant ensemble. Le facteur limitant est la distance entre les 2 GPUs les plus éloignés physiquement : à partir d'un certain nombre de GPU connectés ensemble, la distance fait ralentir le fonctionnement de l'ensemble de GPUs C'est pourquoi pour le besoin de l'entrainement, une nouvelle génération de GPUs arrive sur le marché: les superchip. Au lieu d'avoir des dizaines de GPU indépendants que vous connectez en suite ensemble, chaque superchip regroupe une dizaines de GPUs sur une seule carte. Bravo ! Vous avez réduit la distance entre les GPUs et vous pouvez connecter désormais 10 fois plus de GPUs ensemble sans ralentir le tout. En revanche, vous avez de nouveaux défis à résoudre: comment distribuer l'énergie et refroidir une infrastructure 10 fois plus dense Comment vous procurer une source d'énergie de 1GW et comment assurer sa redondance Pour héberger la puissance de calcul dans un Datacenter, on utilise les baies aka les racks, qui est une sorte d'armoire de 0,6m de large, 1m de profondeur et 2.5m de hauteur. Chaque baie est alimentée avec environ 20KW de puissance électrique. Pour la refroidir, on utilise de l'air frais qu'on pousse à travers la baie Si on veut utiliser plus que 20KW dans une baie, l'air ne suffit pas pour la refroidir. Il faut passer en watercooling. C'est là qu'on commence à parler de la nouvelle génération de Datacenter et dans certains cas on parle de 1GW. En effet, pour héberger les superchip, on parle désormais de baies à 120KW voir meme on spécule sur 240KW par baie et un système de watercooling pour capturer et extraire toute cette chaleur. C'est totalement nouveau par la puissance par baie mais aussi par ce système de refroidissement watercooling at scales. Voilà pourquoi ce genre de Datacenter n'existent pas et donc faut les construire Pour l'usage d'inférence, il n'y a pas besoin de Datacenters aussi sophistiqués. Pas besoin de superchip non plus. Un modèle LLM a besoin d'un système de GPU qui consomme entre 100W et 10KW, rarement 20KW, equivalent de 1 à 16 GPU. Chaque système étant indépendant, vous pouvez mettre autant de systèmes en parallèle que vous voulez, ce qui vous permet d'absorber un grand traffic web ou mobile. Il est même préférable d'avoir plusieurs Datacenters d'Inference, en parallèle et pourquoi pas 1 par pays. Cela permet d'assurer la haute disponibilité, et les faibles latences en utilisant Datacenter le plus proche du visiteur Et OVHcloud dans tout ca ? Nous possédons plus de 40 Datacenters, dans plusieurs pays en Europe, au Canada, en Amérique du Nord, et Asie. Nous sommes experts de watercooling depuis plus de 20 ans. Ceci nous permet de refroidir >500K serveurs physique dans tous nos Datacenters. Nos technos interne, opensourcées, coutent 20x à 40x moins que les solutions du marché. Nous possédons les Datacenters de 40MW à 100MW, capable d'héberger de l'entrainement, avec de baies à 40KW mais aussi nous avons les Datacentres partout dans le monde pour assurer l'inference. Nos investissements suivent les besoins de nos clients et nous sommes capable d'accélérer si necessaire
Tweet media one
1
4
5
@aurelienbardon
Aurélien Bardøη
18 hours
Twitter 🍿🍿🍿 chez les géants oO 🍿🍿🍿 => Réponse de Musk à "l'insulte" de Niel => Réponse de Altman à la rumeur de la prise de contrôle d'OpenAI par Musk Les dramas SEO ne seront plus jamais au niveau
Tweet media one
Tweet media two
Tweet media three
1
0
4
@aurelienbardon
Aurélien Bardøη
19 hours
S'ils tuent à la fois les très grosses entreprises FR (+40% d'impôts) + le private equity : C'est qu'on s'approche de la fin 🤓 (ils ont renoncé aux petits AE)
@LesEchos
Les Echos
1 day
« On est KO debout » : vent de colère des patrons de LBO contre la hausse de taxation des plus-values
1
0
3
@aurelienbardon
Aurélien Bardøη
1 day
On est sur un nouveau projet à l'international et cette fois c'est le canada. Pour l'instant, on perfore littéralement les SERPs 🙈🙈🙈 #seo
1
0
2
@aurelienbardon
Aurélien Bardøη
1 day
Il n'y a jamais eu autant de rédacteurs indé à nous contacter pour du taf... :s C'est surement le signe que le marché est atroce (+ pb IA) En ce début de semaine, bon courage à tous pour trouver la motivation et rebondir !
6
3
17
@aurelienbardon
Aurélien Bardøη
2 days
l'IA française Mistral va construire son premier centre de données en France (Plusieurs milliards d'invest)
2
1
1
@aurelienbardon
Aurélien Bardøη
3 days
Le Chat Pro de l'IA 🇫🇷 Mistral gratuit si vous êtes chez Free ! merci @free @Xavier75 @MistralAI 🙏 v/ @nicovarchar2
@TiinoX83
Tiino-X83
4 days
Free Mobile, premier opérateur à intégrer un assistant IA premium dans toutes ses offres : le Chat Pro de Mistral AI ! À partir de ce lundi 12 février, Free Mobile proposera le Chat Pro de Mistral AI en option, offert pendant 12 mois et sans engagement !
Tweet media one
1
0
3
@aurelienbardon
Aurélien Bardøη
4 days
je savais depuis longtemps que @pabaly était pas tout à fait normal dans le sens comme le commun des mortels mais j'ai appris un truc today vraiment hallucinant qui le confirme :D La suite vendredi pour ceux qui viennent à l'apéro seo de @Charles_vandend ^^
Tweet media one
0
0
4
@aurelienbardon
Aurélien Bardøη
5 days
Le sujet le plus sous coté du SEO alors qu'il est majeur Les organic shopping grids Vidéo de 30min sur le sujet (EN)
4
8
30
@aurelienbardon
Aurélien Bardøη
5 days
@GuillaumGuersan Il n'a rien de libéral ^^ :D
0
0
3
@aurelienbardon
Aurélien Bardøη
6 days
@GuillaumGuersan Il y a eu une dissolution et 3 ou 4 premiers ministres en 1 an tu sais depuis ^^ Plus aucune majorité même relative. Il n'est plus au manette : - )
1
0
1
@aurelienbardon
Aurélien Bardøη
6 days
Google change d'avis & s'autorise désormais à utiliser son IA pour faire des armes et dévisse de plus de 7% en bourse après publication des résultats
0
0
1
@aurelienbardon
Aurélien Bardøη
6 days
@eseoref @barryfabien Les petits AE facturent souvent à des particuliers. Tu fais fausse route
1
0
1
@aurelienbardon
Aurélien Bardøη
6 days
@eseoref @barryfabien Si tu parles de mon tweet, ce qui est déploré (et déplorable) c'est l'état du régime de retraite, de notre système de santé & de notre sécurité :)
1
0
1
@aurelienbardon
Aurélien Bardøη
6 days
j'viens de vivre un moment de solitude à l'agence comme de + en + souvent BTW. Une ref qui personne n'a. La pub a 25 ans, mon collègue a 25ans. La pub en question qui devrait vous rappeler de bons souvenirs 🥰 "Tu ne sais pas cliquer"
1
1
5
@aurelienbardon
Aurélien Bardøη
6 days
C super d'avoir des stats qui confirment ce qu'on peut penser et qui peuvent permettre d'appuyer ses propos. En revanche quand cela arrivera en France et qu'il faudra dire au client "c'est normal de perdre des visites cela va piquer ^^" En revanche, ce qui me surprend c'est l'augmentation du CTR (quand pas d'IA.) J'avais plutôt l'impression que cela faisait que de baisser. Après cela reste "qu'une" étude coté US.
1
0
1
@aurelienbardon
Aurélien Bardøη
6 days
@barryfabien 2em et 3me effet kisscool ^^ - pour les bénef, c'est l'IR - puis qd tu consommes avec ce qu'il reste, la tva arrive Heureusement en échange, on à la justice, la sécurité et la santé & la retraite au top ! Oh wait...
1
0
2
@aurelienbardon
Aurélien Bardøη
6 days
@eseoref On a déjà soulevé ce point dans ton raisonnement et tu ne répondais pas à mes questions, dc pas très envie de te répéter la même chose sorry :) (tu considères que taxer moins est un cadeau so... 😅)
0
0
4