Affichage des articles dont le libellé est ChatGPT. Afficher tous les articles
Affichage des articles dont le libellé est ChatGPT. Afficher tous les articles

janvier 20, 2026

Incendie de Notre-Dame : les vérités cachées et serons-nous plus intelligent avec l'IA ?

Sommaire:

A) - Incendie de Notre-Dame : les vérités cachées que le gouvernement préfère ignorer

B) - L’IA va-t-elle nous rendre stupides ?

 


 

A) - Incendie de Notre-Dame : les vérités cachées que le gouvernement préfère ignorer

Le 15 avril 2019, les flammes ont dévoré la cathédrale Notre-Dame de Paris, un symbole millénaire de la civilisation occidentale.

Cinq ans plus tard, alors que la réouverture a eu lieu en décembre 2024, l’enquête officielle piétine toujours, laissant planer des zones d’ombre sur les causes réelles du désastre.

Basé sur un documentaire récent de TV Libertés intitulé Incendie de Notre-Dame : ce que le gouvernement ne veut pas avouer… Contre-enquêtes, cet article explore les hypothèses accidentelles, les négligences humaines et institutionnelles, ainsi que les enjeux politiques et financiers qui entourent cette tragédie.


 

Les causes potentielles : accident ou négligence ?

L’incendie, survenu un lundi saint, a débuté dans les combles de la cathédrale. Selon des témoins comme un prêtre qui quittait les lieux vers 18h, une fumée suspecte a été remarquée au-dessus de la flèche, et l’alerte a été donnée rapidement. Pourtant, le feu s’est propagé à une vitesse fulgurante, attisé par un vent fort et la structure en bois sec datant du Moyen Âge.

Les enquêteurs se sont d’abord tournés vers les ouvriers du chantier de rénovation, opérant pour la société Le Bras Frères. Ces derniers, une douzaine sur site, ont été auditionnés à plusieurs reprises. Leur employeur affirme que le chantier se déroulait normalement depuis plus d’un an, sans incident notable, et que personne n’était présent au moment du départ du feu. Les consignes de sécurité auraient été respectées, mais des employés ont admis fumer sur les balcons lors des pauses.

Bien que un mégot de cigarette soit écarté comme cause directe, une hypothèse plus probable pointe vers un court-circuit dans des câbles électriques provisoires. Installés en 2007 et 2012 pour électrifier des cloches, ces dispositifs temporaires étaient toujours en place en 2019, malgré leur obsolescence. Était-ce une économie sur le remplacement ? La cathédrale reposait ainsi sur un « volcan » électrique, où un simple dysfonctionnement pouvait embraser la charpente.

D’autres pistes émergent : des déchets inflammables jetés intentionnellement ou non, potentiellement par des grimpeurs urbains qui escaladaient illégalement la cathédrale pour des vidéos en ligne. Combiné à un court-circuit, cela aurait pu déclencher le brasier. L’architecte en chef des monuments historiques, Philippe Villeneuve, a mentionné un seul départ de feu connu dans la « forêt » (la charpente), sans chantier à proximité, renforçant les soupçons de négligence ou d’intrusion.

De plus, des produits protecteurs appliqués sur le bois auraient accéléré les flammes dans cet espace clos et ventilé.

Les erreurs fatales : 23 minutes perdues

Le destin de Notre-Dame s’est joué dans les 20 premières minutes après l’alarme. À 18h18, le système de détection s’active, mais l’agent de sécurité, employé par un prestataire privé, interprète mal l’emplacement. Inexpérimenté dans ce monument complexe, il se rend au mauvais endroit, retardant la vérification.

Ce n’est qu’après un second appel, 23 minutes plus tard, que les pompiers sont alertés. Ces précieuses minutes ont transformé un feu contenable en catastrophe nationale. Le système d’alarme, basé sur des zones numérotées peu intuitives, était géré par des agents sous-formés, recrutés pour des raisons d’économie. Pourquoi sous-traiter la sécurité d’un joyau patrimonial ? Pour réduire les coûts, au détriment d’une expertise adaptée.

Des alertes préalables existaient : en 2016, un rapport du chercheur Paolo Vannucci, remis au gouvernement Valls, soulignait la vulnérabilité des combles et recommandait des mesures anti-incendie. Classé « secret défense » sous prétexte de risques terroristes, il a été ignoré, évitant un débat public embarrassant sur l’entretien du patrimoine chrétien pré-1905, dont l’État est propriétaire mais souvent négligent.

L’enquête lente : une procession administrative

Cinq ans après, aucune cause officielle n’est retenue. L’enquête repose sur des témoignages, sujets à la bonne foi des impliqués. Sans preuves tangibles, elle avance comme une « procession administrative », évitant d’ébranler les responsabilités. Les assurances, impliquées pour des centaines de millions d’euros, préfèrent une conclusion prudente pour éviter des faillites.

L’État semble soulagé que les dons privés et publics financent la reconstruction, masquant ses manquements. Si l’erreur humaine est admise, elle révèle un paradoxe : des monuments historiques sous-protégés comparés à des bureaux modernes, avec des équipes réduites et des protocoles obsolètes.

Le financement et les enjeux politiques

La reconstruction, promise en cinq ans par Emmanuel Macron, a été financée par un élan mondial : des familles fortunées (LVMH, Kering) et des citoyens ont promis des centaines de millions. Pourtant, les versements réels sont inférieurs aux annonces, et une partie des fonds sert à des frais administratifs, contredisant l’esprit des dons.

Macron a transformé la tragédie en récit de rassemblement national, transférant la charge financière vers le privé et évitant d’assumer les déficits d’entretien. L’absence du pape François à la réouverture de décembre 2024, malgré l’invitation, souligne une réserve vis-à-vis de cette instrumentalisation politique du patrimoine chrétien.

L'incendie de Notre-Dame de Paris a suscité émotion et solidarité dans le monde entier. Au-delà des polémiques sur la sécurité du bâtiment et sa reconstruction, comment expliquer que l'enquête avance si lentement, que ses conclusions soient autant dissimulées ? C'est que leur mise au jour lèverait le voile sur des vérités quelque peu dérangeantes...
 

Un avertissement divin ?

Au-delà des faits, certains y voient un « signe » divin, un avertissement sur les négligences sociétales, comme la Covid ou les guerres récentes. En France, certaines vérités « brûlent plus fort que les charpentes ». Tant que l’enquête reste dans l’ombre, les questions persistent : accident providentiel ou symptôme d’un système défaillant ? La renaissance de Notre-Dame invite à une réflexion profonde sur la préservation de notre héritage.

https://multipol360.com/incendie-de-notre-dame-les-verites-cachees-que-le-gouvernement-prefere-ignorer/

 


B) - L’IA va-t-elle nous rendre stupides ?

Les risques cachés de la dépendance à ChatGPT et consorts

En 2029, une IA militaire déclenche l’apocalypse nucléaire et fabrique des robots tueurs pour asservir l’humanité. Ce scénario à la Terminator glace le sang, mais il reste de la science-fiction. Pourtant, des experts comme d’anciens employés de Google et OpenAI alertent sur un risque existentiel réel posé par l’intelligence artificielle.

Le vrai danger n’est pas une rébellion des machines, mais une atrophie progressive de nos cerveaux, rendant l’humanité dépendante et inapte.

Basé sur une analyse approfondie d’une vidéo récente de la chaîne YouTube Micode (titre : « La Fabrique à Idiots »), cet article explore comment l’IA, de ChatGPT à ses successeurs, pourrait nous transformer en « idiots complets » si nous ne changeons pas notre approche.

Le mythe de l’apocalypse et le vrai péril : la dépendance insidieuse

Les visions apocalyptiques reposent sur des technologies inexistantes, comme une IA consciente décidant d’exterminer l’humanité. Mais le scénario plus probable est une perte graduelle de nos capacités cognitives. Posez-vous la question : quand avez-vous pris une décision importante sans consulter ChatGPT ? Écrit un e-mail en anglais de votre main ? Cherché une information sans aide ? L’IA, initialement un outil pour des tâches triviales, devient un assistant multitâche indispensable. Nous déléguons de plus en plus, savourant la « magie » de voir des corvées accomplies en quelques minutes.

Mais à long terme, cela pourrait atrophier notre cerveau, nous rendant incapables sans elle.

Dès son lancement, ChatGPT a divisé : les enthousiastes y voyaient la fin du travail ingrat, les sceptiques un gadget hallucinant et menteur. GPT-3.5 avait des limites – entraînement arrêté en 2021, absence de sources, incohérences. Pourtant, des développeurs et étudiants s’y sont jetés dessus : les premiers pour générer du code, les seconds pour tricher aux devoirs.

L’évolution explosive des LLM et leurs impacts sur l’éducation

En quelques mois, les modèles comme GPT-4o, Gemini ou Claude ont évolué : accès web en temps réel, multimodalité (images, audio, vidéos), mémoire longue (jusqu’à 1500 pages analysées). Gemini peut même créer un podcast à deux voix sur un sujet !

Chez les étudiants, la triche est devenue endémique. En France, dès janvier 2023, un professeur a détecté des copies identiques générées par GPT – structure similaire, anecdotes personnelles fictives, orthographe impeccable. Aujourd’hui, 80 % des lycéens français utilisent des LLM, tuant les devoirs à la maison. Les enseignants refusent souvent de les noter, ne sachant plus qui évalue : l’élève ou l’IA ?

Du côté des développeurs, les juniors délèguent trop, produisant du code sans comprendre. Un exemple personnel : un stagiaire, Antoine, a utilisé l’IA comme « chef d’orchestre », mais s’est noyé dans du code verbeux et buggé, révélant son manque de bases.

Comment l’apprentissage humain est court-circuité : théorie, pratique, métacognition

Pour comprendre l’impact, rappelons comment le cerveau apprend. Première étape : la théorie, où le cortex préfrontal (concentration) et l’hippocampe (encodage) se recâblent. Deuxième : la pratique, où les ganglions de la base transforment l’effort en automatisme. Troisième : la métacognition, via des signaux dopaminergiques (erreur de prédiction) pour corriger et adapter.

Un professeur intervient à chaque stade : enseigne, assigne des devoirs, corrige. Mais déléguer à l’IA court-circuite la pratique et la métacognition, menant à une « dette cognitive » – comme la dette technique en code, accumulant des problèmes futurs.

C’est un « Google Effect » amplifié : le GPS atrophie l’hippocampe (comme chez les taxis londoniens qui avaient entrainé leur cerveau à cartographier toute la ville), internet externalise la mémoire, réduisant la matière première pour penser. Avec l’IA, on sous-traite tout processus mental exigeant.

Études alarmantes : dette cognitive et différences juniors/seniors

Une étude du MIT (juin 2025) confirme : des participants écrivant des essais avec GPT-4o montrent une activité cérébrale réduite comparée à ceux utilisant internet ou rien. Les gains immédiats masquent des lacunes.

Une enquête sur 791 développeurs révèle un contre-intuitif : les seniors (10+ ans d’expérience) utilisent plus de code IA, mais le vérifient minutieusement. Les juniors, eux, s’en servent comme béquille, manquant de bases solides.

Solutions : transformer l’IA en tuteur, pas en béquille

Pour contrer cela, utilisez l’IA comme tuteur : demandez des exercices sans réponses immédiates, forçant la pratique. Par exemple, pour une division : « Donne-moi un exercice sans indices. » Cela transforme ChatGPT en précepteur personnalisé, un luxe historique.

Des études comme celle de Harvard sur « PhysicsPal » (basé sur GPT-4) montrent des progrès accélérés, avec adaptation au rythme individuel et promotion d’un « mentalité de croissance ». Mais sans encadrement, les élèves « copient-collent » et apprennent moins.

Risque : inégalités croissantes. Ceux qui choisissent l’effort progressent ; les autres accumulent des lacunes, devenant « lobotomisés ». Dans les entreprises, prioriser le rendement immédiat atrophie les employés.

Solutions pratiques : examens papier-stylo (comme en Wallonie vs. Flandre belge, où la numérisation a doublé les réussites suspectes). Ou une « cure de désintox » : interdire l’IA temporairement, comme avec Antoine, qui a regagné compétences et plaisir.

(exemple commenté: Je suis un boomer (74 ans) et j'ai une anecdote dont l'analogie avec les thèses évoquées dans cette vidéo est criante : Au début des années 70, j'étais en 3ème année d'école d'ingénieur. Le prof de RDM (résistance des matériaux) avait décidé que les devoirs sur table (appelés "devoirs surveillés" DS) seraient sans limite de temps et avec avec toute la documentation que l'on voulait. Justification : "Dans la vie active, vous aurez accès à toute la documentation, et si nécessaire, vous aurez toutes vos nuits pour travailler vos projets". Nous étions donc persuadés qu'ayant toute la doc, nous n'avions plus rien à apprendre, tout au plus à savoir nous servir d'une règle à calculs (Hé oui : même les calculettes quatre opérations n'existaient pas encore !). Bref, le DS commençait à 14 H, sans limite de temps mais toute sortie de la salle était définitive. En simplifiant : Au premier trimestre, l'expérience montra : - que nous venions tous avec des tonnes de doc pour être parés à toute éventualité - que personne ne restait au-là de 19H55 (5 minutes avant l'heure de fermeture du resto de l'école. Coïncidence ? 😄) - que les résultats étaient globalement catastrophiques Au deuxième trimestre, - la plupart des élèves venaient avec une doc réduite, en ayant potassé les cours avant - une majorité sortaient au bout de cinq heures - les résultats par rapport au premier trimestre s'étaient largement amélioré mais restaient médiocres Au troisième trimestre - la doc apportée était souvent réduite à des fiches de synthèse faites préalablement à partir des cours - au bout de 4h30, pratiquement tout le monde avait rendu sa copie - La moyenne de la promo était passée au-dessus de 10 (on notait sur 20, à l'époque) La doc illimitée était le ChatGPT de l'époque. Pour la petite histoire, j'ai eu un diplôme d'ingénieur en Génie Civil, et j'ai fait toute ma carrière dans l'informatique, en commençant comme développeur. Et aujourd'hui encore, à la retraite, je développe pour mon plaisir.)
 

Un choix quotidien pour préserver notre intelligence

L’IA ne nous rendra pas stupides ; nous le ferons nous-mêmes en choisissant la facilité. Notre cerveau, optimisé pour l’économie d’énergie, préfère les raccourcis – mais l’effort sculpte l’intelligence. L’éducation est le socle d’une société ; la négliger pour des gains immédiats mène à l’effondrement.

La tech facilite la vie, mais avec modération. À chaque prompt, choisissez : béquille ou sparring partner « partenaire d’entraînement) Déléguer ou aiguiser votre pensée ? L’avenir dépend de ce choix quotidien.

https://multipol360.com/lia-va-t-elle-nous-rendre-stupides/ 

 


 

Intelligence artificielle

L'intelligence artificielle, abrégé par le sigle IA, en anglais Artificial Intelligence, est un domaine ou programme de recherche consistant à mettre en œuvre un processus où des machines ou systèmes informatiques seraient dotés des caractéristiques proches du comportement et intelligence humaines. Le concept d'intelligence artificielle est né de l'idée qu'une machine complexe, comme un ordinateur, peut effectuer des tâches exigeant de l’intelligence, c'est-à-dire qu'elle peut générer et traiter une très grande capacité de données.

Le terme a été crée en 1956 par John McCarthy, cogniticien et informaticien américain, principal pionnier de l’intelligence artificielle avec Marvin Lee Minsky, lors d'un atelier scientifique organisé au campus du Dartmouth College. Cet atelier baptisé Conférence de Dartmouth a réuni une vingtaine de chercheurs comme Claude Shannon (père de la théorie de l’information), Nathan Rochester, Ray Solomonoff, Trenchard More, Oliver Selfridge, Allen Newell et Herbert Simon (concepteur de la notion de bounded rationality ou rationalité limitée).

Aujourd'hui, le domaine de l'intelligence artificielle est devenu un programme multidisciplinaire interconnectant plusieurs domaines de recherche comme par exemple l'informatique, les mathématiques, les neurosciences ou encore les technologies spatiales.

L’intelligence artificielle telle que nous la connaissons de nos jours s’appelle, à proprement parler, IA restreinte (ou IA faible), car elle est conçue pour effectuer des tâches restreintes.

Voir aussi

Liens externes

 https://www.wikiberal.org/wiki/Intelligence_artificielle

 

 

novembre 22, 2025

La Fake news sur “L’empire de l’IA”

“L’empire de l’IA”, la contre-attaque qui fait plouf !

Un chiffre choc, glaçant même. Empire of AI, best-seller de l’été sur l’IA, affirme qu’un data center consomme mille fois l’eau d’une ville entière. Le problème, c’est que l’autrice s’est trompée : l’estimation était 5 000 fois trop élevée.

 


 

Cerrillos, petite ville chilienne de 88 000 habitants, devait accueillir un nouveau data center de Google. Dans son livre à succès consacré à Sam Altman et au système OpenAI, Karen Hao décrit une installation dont les besoins en eau dépasseraient mille fois ceux de la commune. De quoi s’imaginer un véritable monstre technologique à la soif inextinguible. Le chiffre était frappant… trop, sans doute. 

La menace fantôme 

Car tout ceci s’est révélé être une énorme erreur factuelle , qui fait partir la démonstration à vau-l’eau et basculer Karen Hao — pourtant diplômée d’ingénierie du MIT — du côté obscur de l’information scientifique. 


 

Dans un contexte saturé de chiffres alarmistes sur l’IA, ce ratio improbable a pu paraître crédible à beaucoup. Mais pas à Andy Masley, membre du courant de l’Effective Altruism , dont la démarche repose strictement sur les faits et les preuves. 

 


Le Jedi des ordres de grandeur 

Un calcul rapide montre en effet que ce ratio impliquerait que chaque habitant n’utilise que 0,2 litre d’eau par jour — une absurdité, près de 900 fois moins que la moyenne chilienne

En consultant les rapports de la SMAPA (service municipal de l’eau de Maipú/Cerrillos), Masley découvre que les chiffres présentés comme des « litres » dans la réponse officielle obtenue par Hao sont en réalité des mètres cubes. Une erreur d’unité qui change la comparaison d’un facteur 1 000. 

Karen Hao a reconnul’erreur et admis qu’un contrôle de plausibilité aurait suffi à la repérer. Elle a aussi annoncé qu’elle mettrait à jour son livre une fois la confirmation officielle reçue, tout en maintenant ses critiques sur l’implantation de data centers en zones de stress hydrique. 

Mais ce n’est pas tout. Masley lui reproche aussi d’avoir fondé sa comparaison sur les valeurs maximales de prélèvement autorisées, alors que la consommation réelle se situe plutôt autour de 20 % de ce plafond. Une autre source majeure de surestimation. 

Enfin, il pointe la confusion fréquente entre prélèvements et consommation nette : les volumes cités correspondent à de l’eau prélevée — restituée à plus de 90 % — et non à la part réellement consommée. Une nuance pourtant essentielle pour comprendre l’impact réel d’un data center. 

Ces trois éléments — l’erreur d’unité, la comparaison à la capacité maximale autorisée et la confusion entre prélèvements et consommation nette — modifient radicalement l’interprétation du cas de Cerrillos. 

Rien d’anecdotique. La circulation mondiale de chiffres spectaculaires mais faux finit par façonner une image déformée de l’IA, présentée comme une industrie prédatrice. Ce décalage entre perception et réalité alimente la défiance du public et complique tout débat rationnel autour de ces infrastructures. 

 


 

A lire : La France refroidit le cloud sans assécher la planète (50cl par requête ? Non, 0,0007.; 70 000 fois moins ! Une performance française.)

Un nouvel espoir 

S’il est légitime de se poser des questions sur l’impact environnemental des data centers, encore faut-il poser correctement les enjeux. Le volume total d’eau consommée, pris isolément, n’a aucune signification. Ce qui compte, c’est où et quand l’eau est prélevée. Un captage dans un grand cours d’eau en période de crue n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique peut devenir problématique. 


À Cerrillos, Google a mis en pause son projet de 200 millions de dollars après qu’un tribunal environnemental chilien a partiellement révoqué son autorisation et demandé une réévaluation intégrant la vulnérabilité de l’aquifère local et les effets du changement climatique. 

L’entreprise a annoncé repartir « à zéro », en adoptant un refroidissement par air, sans aucun prélèvement dans les puits environnants. Une solution plus coûteuse, mais appelée à devenir la norme partout où l’usage de l’eau fait l’objet d’une forte compétition. 

Frédéric Halbran

 https://x.com/lel_media/status/1992112305476161673

 


Idée reçue

La Fake news des 50cl

C’est une fake news qui fait couler beaucoup d’encre : une requête ChatGPT « consommerait » 50 cl d’eau. À ce sujet, les grands médias nationaux, comme le journal de 20 h de France TV du 26 octobre dernier, boivent régulièrement la tasse. Debunk à contre-courant.

D’où vient cette comparaison iconique de la bouteille d’eau ? D’une étude non revue par des pairs et plusieurs fois modifiée depuis. La version originale citait « 50 cl d’eau pour 20 à 50 réponses », et le chiffre est, peu ou prou, resté le même au gré des itérations.

On remarque déjà qu’il ne s’agit pas de 50 cl par requête, mais pour 20 à 50 d’entre elles, contrairement à ce que laisse penser l’infographie du 20 h — ce qui représente entre 1,42 cl et 2,5 cl par réponse. On est déjà loin de la bouteille d’eau.


Pour établir cette estimation, l’étude s’appuie sur un article ne fournissant qu’une fourchette très large de consommation électrique pour GPT-3 : entre 1,1 et 23 GWh, soit un facteur 20. L’auteur divise ensuite cette valeur par un nombre d’utilisateurs lui aussi incertain, en déduit une consommation par requête, puis extrapole jusqu’à l’eau nécessaire au refroidissement des serveurs et à la production d’électricité.

Les 50 cl correspondent uniquement au haut de cette fourchette. Avec l’estimation basse, on tombe sous le millilitre. Un chiffre déjà dépassé, puisqu’il concerne une version de ChatGPT de 2023 — une éternité dans le monde de l’IA.

Autrement dit, ces 50 cl sont à la fois surestimés, fragiles et obsolètes. Pourtant, plutôt que de les remettre en cause, les auteurs ont tenté de les consolider. Leur méthode, qu’ils reconnaissent eux-mêmes approximative, met malgré tout en lumière plusieurs points.

D’abord, l’eau prise en compte inclut non seulement celle utilisée par les data centers, mais aussi — et surtout — celle consommée pour produire l’électricité qui les alimente. En Finlande, par exemple, 99,8 % de l’eau utilisée pour une requête vient de la production électrique, et seulement 0,2 % du refroidissement des serveurs.

Ces chiffres varient fortement selon l’emplacement du data center et le mix énergétique local. L’Arizona, désertique, n’a pas grand-chose à voir avec la Finlande.

De plus, un volume total d’eau « consommée » ne signifie rien en soi. Tout dépend d’où et quand elle est captée. Dans un fleuve en période de crue, cela n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique a, au contraire, des effets importants.

En Finlande, Google refroidit ses serveurs avec l’eau de mer, renvoyée ensuite légèrement réchauffée, sans effet notable sur l’environnement. En France, le refroidissement en circuit fermé réduit la consommation à un niveau très faible.

Malheureusement, ces nuances disparaissent du débat public, écrasé par l’image choc de la bouteille d’eau, au mépris des ordres de grandeur.


L’ensemble des data centers de Google — en partie seulement dédiés à l’IA — représentait en 2023 l’équivalent de 1/5000ᵉ du débit de la Seine. Soit la consommation d’environ 41 parcours de golf, alors qu’il en existe 15 000 rien qu’aux États-Unis. À peine plus qu’une ville comme Montpellier. Quant au Paris Digital Park, le plus grand data center de France, il consomme deux fois moins d’eau que… France Télévisions. Mais ça, peu de chances que ça passe au 20 h.

  Antoine Copra

https://lel.media/insert/la-fake-news-des-50cl/

lel.media

 

septembre 16, 2025

Elon Musk !! Quel coup de génie !! Vente de X & Tesla en cours...

Sa société d'IA, xAI, vient de racheter X (anciennement Twitter) dans une transaction massive de 33 milliards de dollars.
‎En surface, cela ressemble à une simple restructuration d'entreprise. Mais en réalité, Musk vient peut-être de prendre de vitesse toute l'industrie de l'IA.
 

 
‎Voici pourquoi cela change tout :
‎ 1✅ X est évalué à 33 milliards de dollars
‎ 2✅ xAI vaut désormais 80 milliards de dollars
‎ 3✅ La transaction s'est faite entièrement en actions, excluant les 12 milliards de dollars de dette de X
 
‎À première vue, on pourrait croire que Musk y perd... après tout, il avait payé 44 milliards de dollars pour Twitter à l'origine. Mais ici, cela ne concerne pas uniquement les réseaux sociaux.
‎Il concerne quelque chose de bien plus précieux : les données.
 
‎ En 2022,les gens étaient perplexes. Pourquoi l'homme le plus riche du monde, connu pour construire des fusées et des voitures électriques, voudrait-il d'une plateforme sociale en difficulté ?
‎Aujourd'hui, la réponse est claire : Twitter (devenu X) n'a jamais été un simple réseau social, c'était un moteur de données massives en temps réel.
 
‎Avec 600 millions d'utilisateurs actifs générant un flux constant de conversations, d'opinions et d'événements en temps réel, X est une mine d'or pour entraîner des modèles d'IA.
‎Et c'est exactement ce dont xAI a besoin pour rivaliser avec OpenAI, Anthropic et Google.
‎Le timing n'est donc pas une coïncidence
 
‎... La preuve, Il y a seulement quelques mois, xAI avait sécurisé un financement de 6 milliards de dollars avec une valorisation de 24 milliards. Désormais, après cette acquisition, sa valorisation s'envole à 80 milliards (dépassant même la croissance d'OpenAI).
 
‎Pourquoi est-ce important ?
‎ La plupart des entreprises d'IA peinent à obtenir des données de qualité et réalistes. Leurs modèles dépendent de jeux de données préexistants et obsolètes qui ne reflètent pas le comportement humain en temps réel.
‎ Mais xAI a désormais quelque chose que ses concurrents n'ont pas: un accès direct et en temps réel aux interactions humaines.
 
‎Cela signifie :
‎1 ✅Des modèles d'IA plus humains
‎2 ✅Un avantage compétitif dans les applications temps réel
‎3 ✅La capacité d'entraîner l'IA sur les informations les plus récentes disponibles
 
‎Que va-t-il se passer ensuite ?
‎ L'avenir nous le dira...
‎Une chose est sûre, cette fusion ne se résume pas à un assistant IA intégré à X. Elle pose les bases de quelque chose de bien plus grand.
‎Musk ne se contente pas de rivaliser avec OpenAI, Google et Anthropic. Il change complètement la donne.
 

Elon Musk annonce que sa start-up d’IA, xAI, a racheté X

 Le milliardaire a annoncé vendredi que son entreprise d’intelligence artificielle avait acquis le réseau social pour un montant de 33 milliards de dollars.

Elon Musk a annoncé vendredi que sa start-up d’intelligence artificielle (IA) générative, xAI, avait acquis X, son réseau social, «dans le cadre d’une transaction entièrement en actions», qui valorise la plateforme à 33 milliards de dollars hors dette.

«Les avenirs de xAI et de X sont intimement liés», a-t-il assuré dans un message sur X. Le patron de Tesla et SpaceX avait racheté Twitter fin 2022 pour 44 milliards de dollars et s’est servi du réseau social notamment pour faire campagne pour Donald Trump.

Selon le milliardaire, combiner les données, les modèles d’IA, les capacités informatiques et les ressources humaines des deux entreprises va permettre à la nouvelle entité de proposer des «services plus intelligents et plus rentables».

Il estime qu’associer «les capacités et l’expertise de xAI en matière d’IA avancée à la portée massive de X» va «libérer l’immense potentiel» de la société. Plus de 600 millions d’utilisateurs se servent de X, a-t-il affirmé, sans donner de fréquence.

xAI valorisé à 80 milliards de dollars

L’opération «valorise xAI à 80 milliards de dollars et X à 33 milliards de dollars (45 milliards moins 12 milliards de dollars de dettes)», a-t-il encore indiqué.

L’entrepreneur a fondé xAI en 2023, en réaction au succès de ChatGPT, le pionnier de l’IA générative lancé fin 2022 par OpenAI, une start-up qu’il avait contribué à fonder avant de couper les ponts avec les autres fondateurs.

xAI a mis au point son propre chatbot, Grok, qui a l’avantage d’être alimenté par l’ensemble des conversations sur X. Il est censé donner des réponses moins «woke» et faire plus d’humour.

L’homme le plus riche au monde a conclu son message sur X en affirmant que la fusion de ses deux entreprises va permettre de «construire une plateforme qui ne se contente pas de refléter le monde, mais qui accélère activement le progrès humain».

Source 


 

 Tesla a officiellement déposé une proposition d'investissement dans xAI 👀


Les actionnaires sont invités à voter « OUI » en invoquant les synergies dans les domaines de l'IA, de la robotique et de l'énergie, Grok étant déjà intégré dans les véhicules Tesla.


 

"Ok mais quelques sujets à traiter 

Régulation (rgpd) Qualité des données... Confiance (quid de la perception des utilisateurs) Cout/renta (si les couts explosent (opé/infra/modé./régul) -> quid de la renta (revenu pub ?) Technique (pas trivial) Mais ça reste un coup de génie..."RZDZ

 

 

 
Powered By Blogger