
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet (ZD Tech : tout comprendre en moins de 3 minutes)
Explorez tous les épisodes de ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
Date | Titre | Durée | |
---|---|---|---|
14 Dec 2021 | Sentry-II, l'algorithme qui doit éviter l'Armageddon | 00:03:30 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Pierre Benhamou et aujourd’hui, je vous explique comment la précision algorithmique nous rassure contre le danger des astéroïdes géocroiseurs. Oui, parce que c'est l'un deux qui a exterminé tous les dinosaures. Fin novembre la Nasa faisait décoller DART - fléchette en anglais - un petit vaisseau spatial chargé de percuter un astéroïde géocroiseur situé à 11 millions de kilomètres de la Terre. Le choc doit se produire dans 10 mois, à la vitesse effrayante de 24 000 km/h. « Pour la première fois, l'humanité va changer le mouvement d'un corps céleste naturel dans l'espace » fanfaronne la Nasa. Ce jeu d'adresse doit donc prouver qu'il est possible de détourner un astéroïde de sa course. Pourquoi ? Pour ne pas qu'il s'écrase sur Terre. Et ne provoque un cataclysme comparable à celui qui a exterminé les dinosaure voici 65 millions d'années. Tout est donc bien qui finit bien ? Et bien non. Car les experts estiment n'avoir connaissance que de 40 % des astéroïdes mesurant plus de 140 mètres, ceux là même capables de provoquer de gros dégâts sur Terre. Ce sont eux les astéroïdes géocroiseurs. Pour trouver les 60 % restants, et surtout connaître la probabilité qu'ils prennent la Terre pour cible, la Nasa annonce de nouveaux satellites de reconnaissance. Mais surtout l'agence vient de sortir la V2 d'un algorithme nommé Sentry. Mais avant d'aller plus loin, il faut que je vous en dise un peu plus sur la trajectoire des astéroïdes géocroiseurs. Ces derniers suivent des trajectoires orbitales connaissables, c'est à dire prévisibles par des calculs. Mais parfois, quand ces trajectoires s'approchent très près de la position future de la Terre, en raison de petites incertitudes de calcul, "un futur impact terrestre ne peut être complètement exclu" assure la Nasa. La nouvelle version de Sentry fait donc la chasse à ces petites incertitudes. Comment ? Et bien la première version de Sentry, sorti en 2002, prenait en compte la force de gravitation exercée par le soleil et les planètes voisines sur les astéroïdes pour calculer leur trajectoire future. Mais son algorithme faisait l'impasse sur les forces non gravitationnelles qui jouent sur la trajectoire des astéroïdes. La chaleur du soleil par exemple. Attention, c'est assez complexe à comprendre, mais accrochez-vous, ça vaut le détour. "Lorsqu'un astéroïde tourne, la lumière du soleil chauffe la face diurne de l'objet" explique la Nasa. Ensuite, cette surface chaude se refroidit et de l’énergie infrarouge est alors libérée, générant une poussée minuscule, mais continue sur l'astéroïde. Ce phénomène est connu sous le nom d'effet Yarkovsky. Et l'effet Yarkovsky modifie considérablement la trajectoire d'un astéroïde sur des décennies et des siècles. De quoi fausser les calculs actuels. La nouvelle version de Sentry améliore donc très fortement la précision de ces calculs. De quoi éviter les coups de chauds quand un astéroïde géocroiseur passe à portée de la planète Terre. Et envoyer DART à bon escient. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
31 May 2022 | Le cloud français écrasé par trois géants américains | 00:02:51 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vous explique pourquoi le cloud computing français est écrasé par trois géants américains. A l'heure des grandes annonces sur la souveraineté numérique, oui nous avons désormais un ministre pour ça, il faut rappeler un constat. Selon une toute récente étude du cabinet Markess, Amazon détient 46 % du marché français du IaaS et du PaaS en France, avec sa filiale de cloud computing AWS. Suivent Microsoft et Google avec respectivement 17% et 8% de part de marché en France/ Bref, à eux trois, Amazon, Microsoft et Google s'arrogent 71% de ce marché. Et la tendance est très loin de s'inverser. L'an passé, les trois "hyperscalers" ont capté 80% de la croissance du marché, soit 400 millions d'euros de revenus supplémentaires. Dans le détail, c'est Microsoft Azure qui enregistre la croissance la plus forte, avec 53%, suivi par Google Cloud, avec 48% et enfin AWS avec 36%. Et ce dans un contexte où le marché global est lui en croissance de 35%. "Rarement un marché du numérique n’avait été si concentré", constate Markess. Les autres fournisseurs, qu'il s'agisse de OVHcloud, de Kyndril, d'Oracle, d'Orange Business Services, de Scaleway, ou encore de 3D Outscale tentent donc de survivre en misant sur les besoins spécifiques de clients qui ne peuvent ou ne veulent aller voir les trois géants. Et surtout, la croissance de ces acteurs est moins forte que celle du marché global. Donc elle ralenti. Alors pourquoi une telle concentration ? Certaines DSI répondront par leurs besoins de connectivité partout dans le monde, ce que seuls les hyperscalers proposent. D'autres mettront en avant les services proposés par ces géants, à la pointe de l'innovation, notamment en matière d'intelligence artificielle. Enfin, les plus terre à terre mettront en avant la politique de prix de ces géants, particulièrement attractive, car orientée par une conquête de base client toujours à l'oeuvre. Reste que si rien ne change, le marché du cloud, qui pèse aujourd'hui 16 milliards d'euros et devrait passer à 27 milliards d'ici 2025, sera toujours dominé par ces trois géants. Bref, la souveraineté numérique est encore loin. Mais en creux, c'est un énorme défi à relever. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
31 Jan 2022 | Pourquoi les attaques DDoS sont désormais des rafales de mitraillettes | 00:03:24 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui je vais vous expliquer pourquoi les attaques DDoS prennent désormais la forme de rafales de mitraillettes. Des rafales de mitraillettes. Qui font des trous énormes. Voici ce que sont devenues en 2021 les attaques DDoS qui mettent une énorme pagaille sur internet et les systèmes d'informatique du monde entier. Mais avant d'aller plus loin, il faut que je vous explique ce qu'est une attaque DDoS. DDoS ? Un acronyme anglais pour nommer une attaque par déni de service distribué. Et bien, c'est une attaque informatique qui consiste à prendre pour cible un système informatique en l’inondant de messages entrants ou de requêtes de connexion. Le but ? Le faire exploser et le mettre ainsi hors service. Et pour ce faire, les pirates détournent des ordinateurs, des objets connectés ou encore des serveurs pour diriger des milliers, voire des millions de requêtes simultanées vers la cible qu'ils veulent exploser. On parle alors de zombies informatiques. Oui, une armée de zombies à l'action coordonnée, agissant sans le consentement de leur propriétaire légitime. Et au cours du second semestre 2021, le monde a connu un niveau sans précédent d'attaques DDoS. Alethea Toh, responsable d'Azure Networking chez Microsoft, indique que l'an passé c'est l'industrie du jeu vidéo et les services de visioconférence qui ont été fortement touchés par ce type d'attaque. Alors, pourquoi une telle montée en puissance de ce type d'attaques ? Et bien, d'abord parce que les outils pour mettre sur pied et diriger des attaques DDoS sont de moins en moins chers. 300 dollars par mois seulement pour diriger de très grosses attaques, assure Microsoft. Bilan : en six mois, entre le premier et le second semestre 2021, ces attaques ont augmenté de 40 %. Et Microsoft a atténué une moyenne de 1 955 attaques par jour pour ses clients. Mais voici le gros morceau. En novembre 2021, Microsoft a atténué une attaque DDoS d'un débit de 3,47 térabits par seconde. 340 millions de paquets informatiques étaient alors envoyés par seconde vers la cible, qui était un client Azure situé en Asie. Microsoft pense qu'il s'agissait là de la plus grande attaque jamais signalée dans l'histoire. L'attaque provenait de 10 000 sources. Et de plusieurs pays, dont les Etats-Unis, la Chine, ou encore la Russie. Et surtout, le pic de l'attaque globale a duré environ... 15 minutes. Alors, pourquoi ces attaques durent si peu de temps ? C'est une question très intéressante. Au premier semestre 2021, les attaques duraient en moyenne 30 minutes. Elles sont désormais plus courtes. Mais plus rapprochées. La sensation de la victime, alors, c'est d'être confrontée à des salves, comme des rafales de mitraillettes, sur ses systèmes informatiques. Une concentration du feu, en quelque sorte, pour désorganiser les défenseurs. Par exemple, l'attaque record de novembre dernier était une agrégation de quatre rafales consécutives, de très courte durée. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
01 Nov 2021 | Les drones, futurs rois de la livraison à domicile | 00:02:44 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vais vous expliquer pourquoi les drones vont devenir les rois de la livraison à domicile. 10 000 tasses de café, 1 200 poulets rôtis, 2 700 plateaux de sushi et 1 000 miches de pain. Cet inventaire à la Prévert recense une petite partie des livraisons effectuées avec des drones par Wing, une filiale de Google, dans la ville de Logan, en Australie. Si les essais de livraison par drone existent depuis des années, la nouveauté ici vient du modèle logistique. Car la piste d'envol et d'atterrissage des drones est positionnée sur le toit d'un centre commercial. Alors que jusqu'alors les drones décollaient de centre logistiques éloignés des magasins. "Pour la première fois, nous partageons nos drones avec les entreprises dans leurs locaux, plutôt que de laisser les entreprises locales partager leurs marchandises avec nous dans notre centre de livraison" s'enthousiasme sur ce point un responsable de Wing Australie. L'expérience a débuté à la mi-août 2021, et bientôt de nouveaux produits seront disponibles à la livraison par ces drones capables de transporter un peu plus d'un kilo de marchandises. Une pharmacie devrait très prochainement utiliser ce moyen de livraison pour proposer des médicaments et des produits de parapharmacie. Une fois que le drone a slalomé dans le ciel de Logan à la recherche de son point de livraison, il dépose le colis, et repart. Ce n'est qu'ensuite que le client est prévenu. Ainsi, aucun risque d'accident entre le drone et le destinataire du colis. Pour Wing et les commerçants partenaires, ce nouveau moyen de livraison permet de tester une solution au problème numéro un du e-commerce : c'est en effet le dernier kilomètre de la livraison d'un produit qui coûte le plus cher au commerçant, ce qui rend prohibitif les frais de livraison pour bon nombre de produits, comme les tasses de café. Les promoteurs de la solution assurent également que la livraison par drone éviter de rajouter des bouchons sur la route. Mais un problème tout à fait inattendu se pose néanmoins. Les drones, qui ont une portée de près de 10 kilomètres, sont depuis peu sujet à des attaques en plein vol de corbeaux, visiblement irrités par cette concurrence territoriale. En attendant de trouver une solution à ce problème de cohabitation avec les volatiles, Wing a décidé de réduire la voilure, sans toutefois cesser ses essais. Cette mésaventure rappelle celle de la Police parisienne, dont les drones de surveillance de manifestation avaient été attaqués il y a deux ans, une dizaine de fois, par des goélands furieux aux abords de la Seine. De quoi obliger les pilotes a faire revenir leurs engins au sol. Un arrêt définitif, car depuis, le conseil d'Etat a interdit à la préfecture de Police de Paris l'utilisation des drones pour surveiller les manifestations publiques. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
11 Apr 2025 | Visa, Mastercard, PayPal ou encore AliPay remis en question en Europe | 00:03:05 | |
C'est un projet ambitieux de l’Union européenne. Il s'agit de se libérer des géants américains et chinois du paiement, comme Visa, Mastercard, PayPal ou encore AliPay du côté de l'Empire du Milieu. Se passer des réseaux de paiement non européens Premier point, à l'heure de la guerre commerciale et tarifaire, il semble que les autorités européennes jugent que la dépendance aux entreprises étrangères spécialisées dans l'intermédiation du paiement est problématique. Et voici un exemple très concret pour comprendre ce qui chiffonne l'Europe. À chaque fois que vous utilisez votre carte Visa ou que vous réglez un achat via PayPal, vous passez par des réseaux qui ne sont ni européens ni souverains. Ces services sont américains, ou chinois dans le cas d’AliPay. C'est cette situation qui commence sérieusement à inquiéter Bruxelles, surtout dans un contexte de tensions géopolitiques et commerciales. La BCE prend les devants Et c'est plus précisément la BCE, la Banque Centrale Européenne, qui prend les devants. Christine Lagarde, la présidente de la Banque centrale, a exprimé clairement sa volonté de bâtir une alternative européenne. L’objectif est de proposer un système de paiement local, sécurisé et indépendant, capable de concurrencer les géants actuels. Ce serait, selon ses mots, "un pas de plus vers l’indépendance économique de l’Europe". Vers un portefeuille numérique unifié en Europe Mais, et c'est le troisième point, se passer de Visa ou Mastercard n'est qu'un aspect de cette volonté d'indépendance européenne. Concrètement, l’Union européenne planche aussi sur un portefeuille numérique unifié. Celui-ci pourrait centraliser, sur nos smartphones, des documents comme la carte d’identité, le permis de conduire, mais aussi des moyens de paiement. Cette dynamique est déjà à l'œuvre en France où il est désormais possible de dématérialiser sur son smartphone sa carte d'identité, sa Carte Vitale, et prochainement son permis de conduire. Mais portée à l'échelle européenne, cette brique technologique pourrait accélérer l’intégration économique au niveau du Vieux Continent. Et rendre plus indépendant encore les européens des entreprises américaines et chinoises, qui proposent déjà des outils de stockage de documents dématérialisés. D’après les estimations du service de recherche du Parlement européen, une telle initiative pourrait générer jusqu’à 2800 milliards d’euros de PIB d’ici 2032. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
17 Feb 2022 | Les Bonnie and Clyde de la cryptomonnaie | 00:03:42 | |
Bonjour à tous et bienvenue sur le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Pierre Benhamou et aujourd’hui je vais vous raconter l’histoire rocambolesque d’Ilya Lichtenstein et de sa compagne Heather Morgan, désormais présentés comme les Bonnie and Clyde de la cryptomonnaie. Début février, les autorités américaines lâchent une véritable bombe en annonçant avoir résolu un mystère planant depuis 2016 et le casse de la place de marché de cryptomonnaie Bitfinex. A l’époque, ce sont pas moins de 4,5 milliards de dollars en crypto-monnaies qui s’évaporent dans la nature suite à ce braquage sans arme ni violence. Et si deux frères ont bien été arrêtés en 2019 pour leur implication dans cette attaque, une grande partie du butin, elle, semblait avoir tout simplement disparu. Du moins, jusqu’au 8 février dernier, lorsque le FBI annonce l’arrestation d’un couple au profil pour le moins déroutant. Il faut dire qu’Ilya Lichtenstein et Heather Morgan, deux trentenaires plus branchés Instagram qu’armes à feu, n’ont pas vraiment la tête de l’emploi. Si le premier est certes développeur, sa compagne elle se présente comme rappeuse, artiste surréaliste et investisseuse tech. Les faits qui leur sont reprochés sont pourtant lourds. Très lourds. Rendez-vous compte : le duo est accusé d’avoir tenté de blanchir pas moins de 119 754 bitcoins volés liés à l'attaque sur Bitfinex. Pour la procureure en charge de l'affaire, il s’agit ni plus, ni moins que de la "plus importante saisie financière jamais effectuée par le département américain de la justice". Mais alors comment ces Bonnie and Clyde 2.0 ont-ils été démasqués ? Eh bien comme souvent dans les affaires de ce type, c’est l’étape du blanchiment du butin qui s’est révélée fatale à nos deux malfaiteurs présumés. Pressé de convertir leur magot en monnaie sonnante et trébuchante, le couple aurait ainsi initié plus de 2 000 transactions non autorisées au cours des cinq dernières années… De quoi mettre la puce à l’oreille des autorités américaines. Celles-ci accusent aujourd’hui nos deux comparses d'avoir utilisé de fausses identités pour blanchir des fonds sur plusieurs places d'échange de cryptomonnaie via un processus compliqué nommé "chain hopping". Les autorités américaines chiffrent à 2 000 les adresses de portefeuilles de cryptomonnaies trouvés sur le cloud de Lichtenstein, dont la quasi-totalité était liées aux fonds volés. Si Heather Morgan est aujourd’hui libre, après avoir été libérée moyennant le règlement d’une caution, son compagnon, lui, dort en cellule en attendant leur jugement. Leur histoire n’est pourtant pas sans avoir attiré l’oeil d’Hollywood. Selon certaines rumeurs, Netflix se serait ainsi mis sur le coup et une série tournant autour du duo serait d’ores et déjà en préparation. Quant aux propriétaires des bitcoins subtilisés, ceux-ci n’ont toujours pas revu trace de leur argent depuis 2016. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
15 Dec 2021 | Le sésame pour ouvrir votre chambre d'hôtel est dans votre Apple Watch | 00:02:47 | |
Bonjour à tous et bienvenu dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi le sésame pour ouvrir votre chambre d'hôtel se trouve désormais dans votre Apple Watch. Apple vient de s'associer au groupe hôtelier Hyatt afin de rajouter des clés d'hôtel dématérialisée à l'application Cartes d'Apple, Apple Wallet en anglais. Jusqu'à présent cette application n'enregistrait que des cartes bancaires ou des cartes de transport pour l'avion où le train. Bon, ça commence tout doucement. Six établissements du groupe Hyatt aux États-Unis sont pour l'instant concernés par cette innovation. Et pour fonctionner iOS 15 ou WatchOS 8 sont nécessaires sur les appareils Apple. Mais ce type d'initiative est bien pratique en temps de Covid. Le système fonctionne grace à la puce NFC des appareils mobviles. Pour le reste, l'idée est la même qu'une carte-clé traditionnelle, que l'on trouve désormais dans presque tous les hôtels du monde pour ouvrir les chambres. Les utilisateurs doivent toutefois toujours s'enregistrer à la réception de l'hôtel pour que leurs clés soient activées. Une fois cela fait, l'iPhone permet aussi d'accéder à des espaces communs comme des salles de sport, des spas, ou encore des piscines d'hôtel. A noter que ces clés numériques peuvent également être modifiées après coup. Le personnel de l'hôtel peut donc changer à distance l'affectation des chambres, accepter des prolongations de réservation ou encore ajouter des options de départ tardif. Ces nouvelles clés de chambre Hyatt prennent en charge le mode express de l'application Cartes d'Apple. Ce mode permet d'accéder aux clés et de les utiliser sans avoir besoin de FaceID ou de toute autre méthode de déverrouillage. Une option bien pratique avec le port actuel des masques chirurgicaux en tout circonstance. A noter que si l'iPhone a besoin d'être rechargé, les utilisateurs peuvent toujours utiliser leur appareil pour déverrouiller leur chambre pendant cinq heures après l'arrêt de l'appareil. Comment ? Grâce à la réserve d'énergie de l'iPhone. Le groupe Hyatt proposait déjà une clé numérique disponible via son application mobile. Mais ce système utilise la technologie Bluetooth. Bien sûr, pour qu'il fonctionne, il faut que le Bluetooth soit activé, et que la batterie de l'appareil ne soit pas à plat. Et Apple ne compte pas s'arrêter à la porte des hôtels. L'application Cartes doit également intégrer à terme les cartes d'identité et les permis de conduire américains. De quoi par exemple faciliter l'enregistrement dans les aéroports. Mais aucune date de disponibilité de ce service n'est pour l'instant communiquée. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
24 Feb 2022 | Cyberattaques : pourquoi le BTP est une cible facile | 00:03:26 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vais vous expliquer pourquoi le secteur du BTP est une cible facile pour les pirates informatiques. Qui est donc la victime préférée des pirates par les temps qui courent ? Les coiffeurs ? Les grands magasins ? Les concessionnaires automobiles ? Non. Pour le NCSC, l'équivalent de l'Anssi outre-Manche, les cibles les plus faciles pour les pirates informatiques sont les entrepreneurs dans le domaine du bâtiment et de la construction. Oui, le secteur du BTP est un régal pour les pirates. Au point que cette agence vient de publier un guide à destination spécifique des acteurs du BTP, histoire de faire comprendre les enjeux et les risques de la cybersécurité aux maçons, carreleurs et autres plombiers zingueurs. Alors pourquoi les entreprises de ce secteur sont elles particulièrement exposées aux attaques des pirates informatiques ? D'abord parce que les motivations des pirates qui s'attaquent aux pros du BTP sont multiples. Le secteur de la construction est confronté aux menaces des cybercriminels qui vont tenter de leur extorquer de l'argent via des ransomwares, des rançongiciels si vous préférez. Mais ils vont aussi devoir faire face à des personnes infiltrées dans leurs organisations. Comprenez par là que les employés indélicats, ou en froid avec leur patron, qui vont tenter de partir avec des données sensibles sont nombreux. Enfin, les pros du BTP font face à des attaques d'ampleur financées par des Etats quand ils participent à des chantiers cruciaux pour le développement économique de pays. Pensez centrales nucléaires et barrages hydrauliques par exemple. Mais surtout, les entreprises du BTP sont considérées par les cybercriminels comme une "cible facile" car beaucoup d'entre elles ont des flux de trésorerie importants. Pourquoi ? Parce que le recours intensif à des sous-traitants et à des fournisseurs implique un grand nombre de paiements. Donc les attaques de hameçonnages, dites aussi de phishing, où les pirates envoient des e-mails en apparence honnêtes avec des pièces jointes infectées, sont monnaie courante. Difficile en effet pour un comptable d'une de ces entreprises de vérifier l'authenticité de centaines de pièces jointes, devis, factures, demande d'acompte d'une société au quotidien. Et cela n'arrive pas qu'aux autres. En janvier 2020, l'entreprise Bouygues Construction avait subi en France une importante attaque de ransomware. Selon les pirates, 237 postes de travail avaient été chiffrés par le ransomware. L'entreprise avait alors eu pour fierté de n'avoir arrêté aucun chantier pendant cette période troublée. Elle avait aussi en fin de crise tenu à remercier le travail de ses équipes et « l’élan de solidarité » venant des partenaires, clients et fournisseurs qui avaient alors « détaché des experts en renfort ». « A mesure que les entreprises de construction adoptent des méthodes de travail numériques, il est essentiel qu'elles mettent en place des mesures de protection pour rester en sécurité en ligne – et ce de la même manière que vous porteriez un casque de sécurité sur le chantier », illustre le rapport britannique. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
09 Feb 2022 | Pourquoi Meta ne fermera pas Facebook et Instagram en Europe | 00:03:24 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui je vous explique pourquoi Meta ne fermera pas Facebook et Instagram en Europe de sitôt, malgré les gros titres de nos confrères. Rassurez-vous, vous pourrez toujours vous injecter vos doses quotidiennes de Facebook et d'Instagram dans les mois qui viennent. Allez, je vous dis tout sur le coup de pression de Mark Zuckerberg. Tremblez internautes, tremblez ! Dans son rapport annuel remis à la SEC, le régulateur financier des Etats-Unis, l'entreprise Meta, oui c'est le nouveau nom de Facebook, indique envisager la fermeture de ses applications en Europe. Diantre ! Pourquoi Meta débrancherait Facebook, Instagram ou encore WhatsApp ? Et bien, il y a deux raisons à cela. Et je vais vous les expliquer en détail. D'une part, Meta pointe les problèmes légaux qui touchent le transfert de données entre l'Europe et les Etats-Unis. Sans entrer dans les détails, la localisation des données des utilisateurs européens des services de l'entreprise est l'objet d'une controverse juridique. Meta avertit que sans possibilité de localiser ces données aux Etats-Unis, il lui deviendra difficile de travailler en Europe. D'autre part, Meta indique que les limitation induites par le RGPD sur le consentement des utilisateurs à l'emploi de leurs données personnelles nuit à son bénéfice financier. La publicité numérique représente 98 % des revenus de Meta et 81 % de ceux d'Alphabet, ce qui signifie que les deux entreprises sont particulièrement sensibles à toute réinitialisation réglementaire de la circulation des données publicitaires. A ce jour, quand vous ne lisez pas les conditions générales d'utilisation de Facebook, mais que vous cochez la case mentionnant que vous les acceptez, vous vous engagez par contrat à recevoir de la publicité. Le loi européenne sur les données précise que c'est illégal, et que vous devriez au contraire y consentir. Alors, Facebook est-il vraiment sur le départ ? Et bien, rassurez-vous, la menace a déjà été brandie à l'automne 2020 par Mark Zuckerberg. Il s'agirait plus d'un coup de pression, alors que des échéances juridiques, tant sur le transfert de données que sur le RGPD, approchent. Et Facebook met dans la balance d'éventuels investissements en Europe. Dont des emplois très qualifiés dans le domaine du metaverse, le grand dada actuel de Meta après son renoncement sur sa monnaie virtuelle, le Diem. Reste que si Meta se retire de l'Europe, le groupe, qui a perdu un quart de sa valorisation la semaine dernière à Wall Street, se priverait des revenus publicitaires en provenance de 430 millions d'utilisateurs. « Il n'y a aucune menace », s'empressait de préciser un porte-parole France de Facebook en début de semaine. « Juste la mention des risques que font peser les incertitudes autour du cadre juridique encadrant les transferts de données entres les Etats-Unis et l'Europe. » Et de préciser que ces éléments ont également été mis en avant par plus de 70 entreprises lors de la présentation de leurs résultats annuels. Bref, pas d'inquiétude, vous pourrez toujours continuer à vous abreuver au quotidien aux sources de Facebook et d'Instagram. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
06 Dec 2021 | L'attribution des cyberattaques, un art délicat | 00:03:12 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui, je vais vous expliquer pourquoi retrouver et dénoncer les auteurs de cyberattaques est un sujet complexe et délicat.
En enquêtant sur les caractéristiques de l’attaque, il est possible de collecter certains indices. Par exemple, l’utilisation d’adresses IP, de noms de domaines ou encore de certaines métadonnées laissées par les cybercriminels donne des pistes intéressantes. Et ces indices permettent, parfois, à force d’investigation et de patience, de retrouver les groupes ou les personnes à l’origine de l’attaque. Mais ce n’est pas une science exacte. Et ce, pour deux bonnes raisons. Tout d’abord, parce que les cybercriminels prennent généralement soin d’effacer leurs traces. Pour cela, ils utilisent des techniques visant à effacer les indices qu’ils laissent derrière eux. Par exemple, ils peuvent utiliser un fournisseur d'accès à internet qui ne répond pas aux injonctions des forces de l’ordre. Ou utiliser des techniques de chiffrement. Ou encore des outils pour protéger leur anonymat, comme Tor ou Tails. Mais, dans certains cas, les pirates peuvent aussi usurper des identités afin de se faire passer pour d’autres. Une affaire récente le montre. En 2019, des chercheurs en sécurité informatique se sont ainsi rendu compte qu’un groupe de cybercriminels, connu sous le nom de Turla, avait piraté les outils informatiques d’un autre groupe de pirates, baptisé OilRig. Pourquoi faire ? Pour créer un magnifique écran de fumée ! Pour les enquêteurs, les indices laissés par les pirates pointaient vers Oilrig. Mais dans certains cas, c’était en réalité le groupe Turla qui tirait les ficelles. D'où la difficulté d'attribuer avec certitude la paternité d'une attaque à tel ou tel groupe. Ce genre de manipulations est généralement l’apanage d’attaquants très sophistiqués. Le genre de groupe qui travaille pour le compte de gouvernements dans des affaires d’espionnage ou sur des cyberattaques de très haut vol. Et ça, c'est un point crucial. Car ces difficultés incitent certains pays à la prudence quand il s’agit de dénoncer publiquement les actions de leurs ennemis. Ainsi, dans le cas présenté un peu plus tôt, le groupe Turla est généralement associé à la Russie. Et le groupe OilRig serait plutôt lié à l’Iran. Donc, pointer hâtivement du doigt un groupe alors qu’un autre est en réalité à la manœuvre peut conduire à un incident diplomatique. Le genre d’incident dont on préférerait se passer. Reste que les Etats-Unis, par exemple, ne s’embarrassent pas toujours de ces subtilités. Ils se sont fait une spécialité de dénoncer publiquement les responsables d’attaques informatiques. Il s’agit le plus souvent de la Chine, de la Russie et de la Corée du Nord. Le plus souvent des ennemis sur le plan géopolitique. La conséquence de cette politique, c'est que les accusés ont toujours la possibilité de se dédouaner. Il leur suffit de rappeler que l’attribution des attaques n’est pas une science exacte. Et que les faits rapportés par les enquêteurs ne sont pas des preuves irréfutables, mais de simples spéculations. Et voilà, on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur ZDNet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
21 Apr 2022 | Souris : 57 degrés à l'ombre de votre avant bras | 00:02:58 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi en matière de souris informatique, 57 degrés c'est bon pour votre avant bras. Et votre colonne vertébrale. Si vous posez les mains sur votre bureau, naturellement, vous ne les mettrez pas à plat, mais plutôt en position verticale, posées sur la tranche du côté de l'auriculaire. Et pourtant si vous saisissez votre souris informatique, il vous faudra faire un mouvement du poignet, un quart de tour, pour saisir et utiliser la souris. Voilà, vous venez de comprendre pourquoi la tenue de votre souris informatique vous est parfois pénible. Voire douloureuse. Mais par quel miracle donc une souris ergonomique permet à la main d'être positionnée plus naturellement sur le plan de travail ? Et bien grâce à une forme étrange. Je vais vous décrire ce à quoi ressemble une souris ergonomique, et si je vous l'explique mal, aller regarder sur le web à quoi ça ressemble. Une souris ergonomique possède une tranche quasi verticale sur laquelle vient s'enchasser la main de l'utilisateur. Donc vous ne posez pas la main à plat sur l'accessoire. C'est cette position exotique de la main qui soulage les pressions au niveau du canal carpien, des muscles, et des articulations. Le poignet de l'utilisateur reste dans le sens de l’avant-bras. La nouvelle souris ergonomique du suisse Logitech, nommée Lift, dispose po_ur ce faire, d’un angle vertical positionné à 57° très précisément. Pourquoi ? Pour réduire au maximum la pression exercée sur votre poignet, votre avant-bras, et par conséquence votre colonne vertebrale. En plus de la molette et des boutons de clic situés au bout de la souris, sur sa tranche, on retrouve les classiques boutons des souris traditionnelles, qui peuvent servir à revenir en arrière ou en avant quand on navigue sur le net. Alors faut-il absoluement se jeter sur ces 57 degrés ? Trust, un concurrent de Logitech, commercialise sa souris verticale Verro avec un angle de 60 degré. Donc oui, on est pas à un ou deux degrés près, mais l'angle, ça compte. Seul bémol, il faut quelques jours d’utilisation pour s’habituer à ce type de souris. "J'ai essayé une souris verticale" évoque à ce titre un lecteur de ZDNet dans les commentaires d'un article sur les souris ergonomiques. "Le problème avec ce type de souris" dit-il "c'est que le déplacement de la souris ne se fait plus avec les doigts mais avec l'avant bras et du coup la précision est infiniment moindre". Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
16 Sep 2024 | Pourquoi l'internet très haut débit Starlink va changer vos voyages en avion | 00:03:01 | |
Bonjour à tous et bienvenue dans le ZD TECH, le podcast quotidien de la rédaction de ZDNET. Je suis Elia, votre présentateur IA, et tous les jours j’évoque avec vous un fait marquant de l’actualité numérique pour les professionnels. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
08 Jul 2022 | Les premiers élus de la cryptographie post quantique | 00:02:56 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis ADAM et aujourd’hui, je vais vous expliquer comment les États Unis entendent définir les normes de la cryptographie post quantique. L’institut américain des standards technologiques, le NIST, a annoncé cette semaine les quatre premiers algorithmes de cryptographie post quantique sélectionnés par ses soins. Pour ceux qui ne comprennent pas tous les enjeux, je vous renvoie à un précédent podcast et à nos articles sur les défis de la cryptographie post quantique. Cette annonce du NIST est l’aboutissement d’un challenge initié en 2016. L’institut a invité les spécialistes de la cryptographie à proposer de nouveaux algorithmes de chiffrement conçu pour résister aux attaques menées à l’aide d’un ordinateur quantique. A chaque round, les algorithmes candidats ont été soumis à des tests visant à éprouver leur fiabilité face aux attaques. Après plusieurs années d’échange, le NIST dévoile une première série de quatre algorithmes : pour le chiffrement général, l’institut a ainsi sélectionné un algorithme baptisé CRYSTALS Kyber. Pour les signatures électronique, le Nist a retenu trois algorithmes : CRYSTALS Dilithium, FALCON et SPHINX Plus. Ces quatre algorithmes feront donc partie de la norme en cours d’élaboration par l’institut américain des standards visant à proposer des outils de chiffrement post quantique. Celle ci devrait être finalisée en 2024. Et d’autres viendront : le NIST indique ainsi que quatre autres algorithmes sont actuellement à l’étude pour se faire une place au sein de la norme américaine. Plusieurs entreprises, comme Cloudflare ou Amazon, ont déjà commencé à travailler sur des produits expérimentaux reposant sur ces nouveaux outils. Et le NIST invite les experts en sécurité à se pencher sur ces propositions et à les tester. Mais l’institut rappelle qu’ils ne sont pas encore finalisés. Il serait donc hasardeux de les utiliser dans des systèmes en production. Une certaine prudence s’impose donc, même à l’égard des algorithmes sélectionnés par les États Unis. Dans une note publiée en début d’année, l’agence française de cybersécurité a rappelé sa position sur le sujet. Si les outils proposés par le NIST peuvent être tentants, l’agence rappelle que le domaine de la cryptographie post quantique est encore jeune. Et donc qu’un algorithme sélectionné par le NIST aujourd’hui pourrait bien être finalement écarté dans quelques années. Mais ils sont une excellente occasion pour tester ces nouveaux types d’algorithmes et anticiper les difficultés à venir pour la transition qui s’annonce. Et voila, normalement on a fait le tour du sujet. Pour en savoir plus, rendez vous sur ZDNet.fr. Mais n’attendez pas de nouvel épisode du ZD Tech lundi prochain, c'était le dernier de la saison. Merci beaucoup de nous avoir écoutés, on espère que vous avez apprécié, et rendez-vous en septembre pour la suite ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
26 Jan 2022 | La blockchain est partie pour rester | 00:03:22 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui je vais vous expliquer pourquoi nous allons probablement entendre parler de blockchain pendant encore un bon moment. C’est aujourd’hui difficile d’y échapper : tout le monde connaît au moins quelqu’un qui s’est lancé à cœur perdu dans la spéculation sur les cryptomonnaies, ou un entrepreneur qui pense révolutionner le monde avec une application de rencontres basée sur la blockchain. Mais le principe d’une blockchain (ou chaîne de bloc en français) mérite tout de même une petite explication. De manière simple, il s’agit d’une base de données distribuée entre plusieurs utilisateurs et dont les différentes transactions sont certifiées par des mécanismes cryptographiques. L’image fréquemment utilisée est celle d’un grand livre de comptes accessible à tous, sur lequel l’ensemble des transactions entre les utilisateurs seraient inscrites et vérifiables par tout un chacun. La blockchain, c’est ça : un monstrueux fichier informatique partagé entre différents utilisateurs. Il est constitué de différents "blocs" qui contiennent le détail des transactions sur le réseau : qui a transféré quoi et à qui et quand. Pour vous donner un exemple, la blockchain du bitcoin fait aujourd’hui un peu plus de 300 gigaoctets. Vous pouvez la télécharger, et retracer l’ensemble des transactions en bitcoin ayant eu lieu depuis la création de la blockchain. Si le concept avait été envisagé dès les années 90, la première blockchain effectivement implémentée fut celle du Bitcoin en 2009. Le premier objectif de la blockchain telle qu’elle était conçue alors était de rendre possible la création d’une monnaie numérique et décentralisée. Cette technologie est en effet tout indiquée pour cela. La blockchain permet de se passer d’une autorité centrale pour vérifier les transactions et de laisser cette tâche au collectif. Dans une blockchain publique, comme celle du Bitcoin par exemple, ce sont en effet les "mineurs" qui se chargent de ce rôle. Ces utilisateurs se chargent de vérifier la validité des transactions et de comparer entre eux les informations ajoutées à la blockchain afin de parvenir à un consensus. Une tâche qui nécessite une certaine puissance de calcul, et pour laquelle ils sont rétribués, en bitcoins évidemment. Si le Bitcoin a posé les premières bases, cela fait maintenant plus de 10 ans que les technophiles tentent d’améliorer le concept. La blockchain du Bitcoin, bien que fonctionnelle, présente en effet des défauts : on cite souvent la consommation énergétique importante, mais aussi les délais de validations des transactions, ou encore la gouvernance du système. Pour répondre à ces problèmes et proposer de nouvelles fonctionnalités, d’autres blockchains fonctionnant sur des modalités différentes ont donc été développées. On peut par exemple citer Ethereum, Zcash, Monero et les centaines d’autres projets similaires qui ont émergé au cours des 10 dernières années. Et si, à l’origine, la blockchain a été pensée pour développer une monnaie numérique, de nombreux utilisateurs envisagent aujourd’hui d’autres applications pour cette technologie, allant du vote en ligne au stockage de données. Une effervescence qui donne le meilleur comme le pire, mais qui ne semble pas prête de s’essouffler. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
12 Dec 2024 | Pourquoi Lisa Su (AMD) est nommée PDG de l'année 2024 | 00:03:14 | |
Aujourd’hui, voici pourquoi Lisa Su, la PDG d’AMD, vient d'être nommée PDG de l’année 2024 par le magazine Time. Il faut dire qu'au milieu des annonces autour de la bataille de l'IA entre Qualcomm, Nvidia et Intel, AMD apparaît moins dans les titres de presse. Pourtant, la PDG de ce spécialiste de l'infrastructure vient d'être honorée. Alors pourquoi ce titre si prestigieux ? AMD a centuplé sa capitalisation boursière Et bien pour commencer AMD a centuplé sa capitalisation boursière sous la direction de Lisa Su. En 2014, quand elle prend les commandes de ce géant des semi-conducteurs, l’entreprise traverse une période difficile. Mais grâce à une stratégie audacieuse et une vision claire, AMD est passé en 10 ans d’une capitalisation boursière de 2 milliards de dollars à plus de 200 milliards aujourd’hui. Un des plus grands tournants initié par la femme d'affaires a été le développement et la commercialisation de la gamme de processeurs AMD EPYC. Ce sont ces puces qui ont permis à AMD de devenir un acteur majeur dans les secteurs des serveurs informatiques et des centres de données. Sous le règne de Lisa Su, la part de marché de l'entreprise dans ce secteur est passée de 1 % à près de 34 %. De quoi damer le pion à l'éternel rival Intel, qui vient lui de perdre son PDG, mis de force à la retraite. Et les processeurs EPYC équipent aujourd’hui certains des superordinateurs les plus rapides et les plus économes en énergie au monde. La reine de l'innovation Le second point, c'est que Lisa Su est aussi une experte de l’innovation. Sous son leadership, AMD a investi massivement en recherche et développement, avec un montant de près de 6 milliards de dollars rien qu’en 2023. Ces investissements permettent à AMD de proposer désormais des solutions d’infrastructure pour l’intelligence artificielle, un domaine clé pour l’avenir. À titre d’exemple, AMD a récemment racheté Silo AI, un laboratoire d’IA en Europe, et ZT Systems, un fournisseur d’infrastructure spécialisé pour les géants du cloud. La plus grosse acquisition du secteur, c'est elle Pour couronner le tout, Lisa Su a aussi marqué l’histoire des semi-conducteurs en réussissant la plus grosse acquisition jamais réalisée dans ce secteur. Il s'agit de celle de Xilinx, spécialiste de l’informatique adaptative. Une opération qui a fait d'AMD un leader incontournable du secteur. Née à Taïwan et diplômée du prestigieux Massachusetts Institute of Technology, Lisa Su a toujours été une pionnière. Elle a commencé sa carrière chez IBM et pilote aujourd'hui une entreprise à la pointe de l'innovation. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
10 May 2022 | Bitcoin : pourquoi MicroStrategy joue avec le feu | 00:04:26 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vais vous expliquer pourquoi le vénérable éditeur de logiciel MicroStrategy joue avec le feu à coup de Bitcoin. MicroStrategy est une très respectable société américaine, qui édite des progiciels de Business Intelligence. Et voici que pour ses 33 ans d'existence, elle pourrait connaître cette année la mort ou la résurrection. Et tout ceci est une affaire de Bitcoin. Je vous explique. Son fondateur, Michael Saylor, croit depuis deux ans que l'avenir est au Bitcoin. Au point d'avoir utilisé une partie du capital de son entreprise côtée pour acheter de cette monnaie virtuelle fort volatile. Et pas qu'un peu ! L'homme a effectué son premier achat de bitcoins au nom de sa société en août 2020. A l'époque, il rafle 21 500 bitcoin au cours de l'époque de 11 650 dollars. Ravi de l'appréciation continue de cette monnaie, il récidive dans les mois qui suivent. De quoi à ce jour posséder un portefeuille avec plus de 129 000 bitcoins dont le prix moyen d'achat est de 30 700 dollars chacun. Au total, MicroStrategy détient environ 4 milliards de dollars en Bitcoin. De quoi en faire le premier investisseur de ce type avant Tesla, qui aurait 1 milliard de dollars en Bitcoin dans ses réserves. Oui mais voilà que vient la catastrophe. Car hier lundi fut une journée particulièrement noire pour les crypto, avec une chute de 8% de la valeur du Bitcoin. Son cours frôle désormais les 30 000 dollars. Première conséquence, l'action de MicroStrategy a chuté de 25 % ces dernières heures. Mais il y a bien pire. Car oui, vous l'aurez compris, la gamelle de ce début de semaine efface l'ensemble des bénéfices que MicroStrategy espérait réalisé avec sa stratégie de spéculation sur cette monnaie virtuelle. Cela va t-il provoquer chez Michael Saylor un changement de posture ? Et bien rien n'est moins sûr. Car en avril dernier, alors que le cours des crypto s'affaissait déjà grandement, le PDG de l'entreprise annonçait fièrement à ses actionnaires que MicroStrategy avait l’intention de « poursuivre vigoureusement » sa stratégie d’actifs de réserve en achetant et en détenant toujours plus de Bitcoin. A l'époque, MicroStrategy assurait que sa stratégie d'achat de crypto lui avait permis de dégager une marge bénéficiaire potentielle de... 1,2 milliard de dollars. Une marge qui désormais est réduite à... 0. La société doit donc présenter pour le trimestre finissant une perte d'exploitation de 178 millions de dollars, en grande partie à cause de charges comptables sur ses avoirs en bitcoins. MicroStrategy affirme cependant disposer de suffisamment de liquidités provenant de ses activités de vente de logiciels pour couvrir ses obligations en matière de dette. Néanmoins, les investisseurs pourraient être de plus en plus nerveux à l'idée que Michael Saylor s'entête. Surtout qu'avec la hausse des taux, l'entreprise devra faire face à des frais d'intérêts plus élevés à l'avenir. Mais au delà du cas symptomatique de MicroStrategy, comment expliquer cette chute ? Déjà ce n'est pas un retournement. Le cours du Bitcoin est en tendance baissière depuis novembre dernier, où son cours le plus élevé l'avait porté à 64400 dollars l'unité. Ensuite, l'ensemble des valeurs boursières de la tech sont à la baisse, ce qui a une incidence sur les crypto-monnaies. Par ailleurs, les inquiétudes liées à la faible croissance et à la possible récession dans le monde font que personne semble t-il ne souhaite investir désormais dans ces monnaies encore très mal, voire pas du tout, régulées. Enfin, nous l'avons vu la semaine dernière dans un épisode du ZD Tech, les NFT, les petits cousins des cryptomonnaies, basés eux aussi sur la technologie blockchain, s'essoufflent aussi. | |||
16 Mar 2022 | Ransomware-as-a-Service : les nouveaux syndicats du cybercrime | 00:03:06 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m'appelle Louis Adam et aujourd'hui, je vais vous parler du Ransomware-as-a-Service et de la façon dont ces groupes ont changé le visage du cybercrime. Aujourd'hui, on parle beaucoup d'informatique « as-a-service », que ce soit pour du logiciel, de l'infrastructure ou des données. Le monde cybercriminel n'échappe pas à la tendance. Ces dernières années, le concept de Ransomware-as-a-Service (RaaS) a émergé afin de décrire les nouvelles organisations cybercriminelles spécialisées dans le ransomware. Un ransomware (ou rançongiciel en bon français) est un logiciel malveillant qui va chiffrer les données de la victime et rendre l'appareil inutilisable. Seul le paiement d'une rançon permet d'obtenir la clé de déchiffrement et de récupérer l'accès aux données. Depuis le début des années 2010, ce type de logiciel est devenu une manne financière considérable pour les cybercriminels. Mais développer et maintenir un rançongiciel n'est pas à la portée de n'importe qui. Alors, assez naturellement, les cybercriminels se sont réparti les tâches. Ceux qui étaient en capacité de développer des logiciels de ransomware ont proposé à d'autres groupes de les utiliser. C'est ce modèle qui a fait le succès de groupes connus, comme Conti, REvil ou encore Lockbit. Le groupe initial se concentre sur la conception, le développement et la maintenance du rançongiciel. Celui-ci doit être mis à jour régulièrement afin de contourner les protections des antivirus, et il faut aussi s'assurer que les outils de chiffrement et de déchiffrement fonctionnent comme prévu. Dans certains cas, le groupe s'occupe également de négocier les rançons avec les victimes et de diffuser d'éventuelles données volées pour accentuer la pression. Autour de ces groupes gravitent d'autres cybercriminels qui viennent louer l'utilisation du rançongiciel : on les appelle généralement les « affiliés ». Ils se chargent d'infiltrer les cibles, de se déplacer dans le réseau pour prendre le contrôle des appareils les plus intéressants et ensuite d'activer le rançongiciel. Et si au passage, ils peuvent mettre la main sur des données confidentielles, c'est toujours ça de pris. Ce mode de fonctionnement a commencé à voir le jour aux alentours de 2016, avant de se populariser largement au cours des deux dernières années. Et c'est un business florissant pour les développeurs de ransomwares. Différents modèles économiques sont proposés par les acteurs de ce type : certains proposent une simple location du ransomware à l'usage, tandis que d'autres passent des accords plus poussés avec leurs affiliés, prévoyant un partage des rançons récupérées. Et ce modèle rend les choses plus compliquées pour les forces de l'ordre : ce sont les affiliés qui prennent l'essentiel des risques et qui sont le plus souvent arrêtés par les policiers. Les concepteurs du rançongiciel, eux, restent généralement à l'abri et se contentent de trouver de nouveaux volontaires pour faire tourner leur business. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
12 Sep 2024 | Copilot pour Microsoft 365 : 30 € par mois, mais combien de temps réellement gagné ? | 00:02:32 | |
Bonjour à tous et bienvenue dans le ZD TECH, le podcast quotidien de la rédaction de Z D NET. Je suis Elia, votre présentateur IA, et tous les jours j'évoque avec vous un fait marquant de l'actualité numérique pour les professionnels. Aujourd'hui, un point sur Copilot pour Microsoft 365, l'IA intégrée à la suite bureautique Microsoft 365. La question est simple. Qu'apportent au quotidien les 30 € par mois dépensés pour l'abonnement. Combien de minutes de travail cet abonnement permet t-il d'économiser ? Les premiers retours d’expérience nous viennent de Corée du Sud. Là bas plus de cent entreprises utilisent déjà cet outil. Alors, que nous montrent ces premiers retours ? Tout d'abord, Microsoft avance qu'un gain de temps moyen de trois minutes par jour suffit à justifier le coût de l'abonnement. Sur la base d’un employé moyen qui travaille huit heures par jour pour un salaire annuel de 40 000 €, ces trois minutes par jour suffiraient à couvrir largement le coût de l'abonnement mensuel de trente euros. Surtout, un porte-parole de Microsoft affirme que les utilisateurs de Copilot peuvent économiser bien plus que trois minutes par jour. Il affirme que le gain monte à 45 minutes ! Cela inclut des tâches comme la rédaction de courriels, l'organisation de réunions, et la recherche d’informations. Le temps économisé serait donc dix fois supérieur au coût de l’abonnement. Du moins sur le papier. Mais Microsoft précise bien que ce gain de temps dépend surtout du type de poste. Ce sont principalement les cadres et les managers qui tirent le plus d’avantages de cette IA. Et ce pour optimiser des tâches de gestion, de suivi de projets, ou encore de rédaction de comptes rendus de réunions. Et surtout c'est l'intégration avec des outils de collaboration comme Outlook et Teams qui permet d'automatiser l’attribution des tâches, d'éviter les oublis et de mieux suivre les progrès des équipes. Microsoft compare cette révolution technologique à celle de l’imprimerie de Gutemberg. L'idée est que ce genre d'innovation peut être mal perçue au début. Mais qu'il est essentiel de comprendre comment bien l’utiliser. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur notre site ZDNET.FR. Et retrouvez tous les jours un nouvel épisode du ZD TECH sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
06 Jul 2022 | Quand le bug bounty tourne mal | 00:03:10 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis ADAM et aujourd’hui, je vais vous expliquer comment les programmes de bug bounty peuvent parfois mal tourner. Nous avons déjà parlé des bug bounty. Ces programmes permettent à des chercheurs en sécurité de signaler des vulnérabilités informatiques à des entreprises contre des primes, qui peuvent parfois atteindre des sommes importantes. Sur le papier, c’est une excellente idée : cela permet aux entreprises de corriger les vulnérabilités, et aux chercheurs indépendants de se faire payer. Malheureusement, tout ne se passe pas toujours comme prévu. Il y a tout d’abord les questions épineuses liées à ce qu’on appelle « le scope », c’est à dire le champ d’application du programme de bug bounty. Lorsqu’une entreprise décide de lancer un bug bounty, elle tente bien souvent de cadrer les choses. Elle annonce que les primes ne sont versées que pour certaines de ses applications ou services, ou encore que certain types de failles ne donnent pas lieu à une rémunération. Et l’interprétation de ce cadre peut parfois conduire à des déconvenues. C’est la mésaventure qu’un chercheur en sécurité a rencontré en 2019, après avoir signalé des failles dans l’application Steam édité par la société Valve. Le chercheur avait décelé une faille permettant une élévation de privilège au travers de Steam. Il a donc tenté de signaler cette faille au travers du programme de bug bounty de Valve, géré à l’époque par la société américaine leader du secteur, HackerOne. Simplement Valve n’avait pas prévu de payer pour ce type de vulnérabilité. Sans avoir réussi à convaincre la société de la gravité de la faille, le chercheur a donc choisi de la dévoiler en public, sans que celle ci ne soit corrigée en amont par la société. En réponse, Valve a banni le chercheur, provoquant un petit scandale dans la communauté de la sécurité informatique. Et Valve a finalement fait amende honorable : en réintégrant le chercheur à son programme, en corrigeant les failles découvertes et en modifiant le champ d’application de son bug bounty. Mais ça aurait pu être pire. Parfois les bug bounty sont utilisés pour dissimuler de vraies attaques. C’est plus ou moins ce qu’a tenté de faire l’ex responsable de la sécurité d’Uber en 2016. A l’époque, deux cybercriminels parviennent à accéder aux données de 57 millions de conducteurs et de passagers utilisant l’application. Une mauvaise nouvelle pour le tout nouveau directeur sécurité du groupe. Mais celui ci a une idée. Il entre en contact avec les cybercriminels et leur propose d’acheter leur silence contre une prime de 100 000 dollars en bitcoin. Un détournement des programmes de bug bounty de l’entreprise, qui lui a coûté son poste et des ennuis sérieux avec la justice. Mais la méthode a fait des émules : parmi les nombreux services de finance décentralisée qui se sont fait pirater au cours des derniers mois, certains n’hésitent pas à proposer une prime à l’attaquant si celui ci accepte de restituer les fonds volés. On l’a vu chez Akropolis, mais aussi chez Wormhole, ou encore chez QuBit Finance. Et voila, normalement on a fait le tour du sujet. Pour en savoir plus, rendez vous sur ZDNet.fr, et retrouvez tous les jours un nouvel épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
15 Nov 2024 | Amazon tire les prix vers le bas pour assommer Temu, Shein et AliExpress | 00:02:40 | |
Aujourd'hui, nous allons parler d’Amazon Haul, la nouvelle offre à bas prix du géant du e-commerce. En lançant cette boutique en ligne, pour l'instant uniquement aux Etats-Unis, Amazon veut directement concurrencer les plateformes chinoises comme Temu et Shein, bien connues pour leurs prix au ras des pâquerettes. Qu'est-ce que propose Amazon Haul ? Avec Haul, Amazon met à disposition des internautes toute une gamme de produits variés, allant des vêtements à l'électronique en passant par des articles de beauté, des gadgets, et des articles ménagers. Le point fort ? Le prix, puisque tout coûte 20 dollars ou moins. Un exemple ? Vous pouvez acheter un organisateur de bijoux à 5 dollars, un sac à linge pour 3 dollars, ou encore des chemises pour 12 dollars. Amazon offre également des réductions sur les grosses commandes, avec 5 % de remise pour les paniers supérieurs à 50 dollars et 10 % au-delà de 75 dollars. Une stratégie très claire Amazon veut rivaliser avec les prix ultra bas de ses concurrents en provenance de Chine. On le voit écrit en gros sur les bannières sur le site, telles que "prix follement bas" et des émojis pour attirer l’attention sur les bonnes affaires. En plus, la livraison est offerte pour les commandes au-delà de 25 dollars. Ce sont des pratiques directement inspirées des méthodes de Temu et Shein. Cependant, un changement de taille est à noter : bien qu’Amazon ait bâti sa réputation sur des livraisons rapides, avec Haul, le délai est d’une à deux semaines, à peu près équivalent à celui de ses concurrents low cost. Amazon joue sur la confiance pour se démarquer Enfin, Amazon joue aussi sur la confiance pour se démarquer. Contrairement aux problèmes de contrefaçons souvent reprochés aux plateformes chinoises, Amazon affirme que tous les produits vendus sur Haul sont contrôlés et conformes aux réglementations en vigueur. Cette mesure vise à rassurer les consommateurs, notamment face aux inquiétudes croissantes aux États-Unis et en Europe concernant la qualité et la sécurité des produits importés de Chine notamment. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
17 Feb 2025 | YouTube, voici les nouveautés pour 2025 | 00:02:39 | |
YouTube vient de souffler ses 20 bougies. Pour nombre d'entre vous ça doit leur faire tout drôle ! Et la société rachetée par Google il y a bien longtemps à présent en profite pour annoncer une pluie de nouvelles fonctionnalités pour cette année. Bien sûr, ces nouveautés sont largement portées par l'intelligence artificielle. Si vous créez du contenu ou simplement aimez regarder des vidéos, ces changements pourraient donc bien vous intéresser. Voici trois points pour mieux les comprendre. L'IA pour le processus créatif Premièrement, YouTube mise sur l'IA pour accompagner les créateurs de contenus dans leur processus créatif. L'entreprise annonce des outils d'aide à la génération d'idées, de titres et de vignettes pour vidéos. Mais aussi un système de doublage automatique en plusieurs langues accessible à tous les créateurs du YouTube Partner Program. C'est une véritable aubaine pour ceux qui veulent toucher un public international sans avoir à enregistrer leur propre voix dans différentes langues. Du machine learning pour estimer l'âge de l'audience Deuxièmement, la plateforme cherche à mieux protéger ses utilisateurs, et ce grâce à l'apprentissage automatique, on dit aussi Machine Learning en anglais. Par exemple, un système d'estimation d'âge permettra d'adapter le contenu aux jeunes spectateurs. En parallèle, YouTube déploie un programme pilote pour permettre aux influenceurs de contrôler la manière dont l'IA les représente dans les vidéos, et ce avec des outils de détection avancés. L'idée bien évidemment est de lutter contre les deepfakes. La TV a dépassé le smartphone comme principal écran pour YouTube Enfin, YouTube adapte son produit aux nouvelles habitudes des spectateurs. Aux États-Unis, la télévision a dépassé le smartphone comme principal écran de visionnage de YouTube. En réponse, YouTube améliore ses fonctionnalités télé, avec notamment une expérience second écran qui permet d'interagir via le smartphone tout en regardant la vidéo sur grand écran. Autre nouveauté, la fonction "Watch With" qui permettra aux créateurs de commenter en direct des événements comme des matchs ou des spectacles. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
05 Nov 2024 | Pourquoi l'Europe va avoir bien du mal a fournir de l'électricité pour l'IA | 00:02:47 | |
Aujourd’hui, nous explorons le lien étroit entre la révolution de l’intelligence artificielle en Europe et la demande croissante en électricité. Avec l’explosion de l’IA, la demande en centres de données s'accélère. Mais cette croissance soulève un défi majeur pour le marché de l’électricité européen selon une nouvelle étude réalisée par McKinsey. 150 térawattheures par an d'ici 2030 Premièrement, les centres de données d’Europe sont déjà en pleine expansion. Et cette croissance va faire tripler leur consommation électrique d'ici 2030, atteignant environ 150 térawattheures par an. Cela signifie que dans six ans, les centres de données représenteront jusqu’à 5 % de la consommation totale d'électricité en Europe, contre environ 2 % aujourd'hui. Avec un tel volume, l’IA devient donc l’un des moteurs principaux de la demande énergétique du continent. 230 à 275 milliards d'euros d'investissement supplémentaire Ensuite, des investissements massifs sont nécessaires pour accompagner cette transformation numérique. Pour alimenter les futurs datacenters, l'étude estime que l’infrastructure actuelle devra être renforcée avec un montant compris entre 230 à 275 milliards d'euros. Et cela n'inclut même pas la production d'électricité elle-même, je vous parle juste ici du matériel nécessaire, c'est-à dire les équipements informatiques, les équipements électriques et de refroidissement ou encore tout simplement l'immobilier. L'alimentation électrique devra de son côté de plus en plus reposer sur des énergies vertes, notamment pour respecter les engagements « net-zero » de nombreux acteurs. Le délai pour obtenir l’électricité pour un nouveau datacenter : 3 à 5 ans Enfin et surtout, l'Europe fait face à des obstacles pratiques à cette transition énergétique vers l'IA. Les infrastructures de production en amont sont insuffisantes, les équipements électriques sont parfois indisponibles, et la main d'œuvre n'est pour l'instant pas assez qualifiée pour construire ces installations. Conséquence, sur des marchés de l'électricité comme Dublin et Francfort, le délai pour obtenir l’électricité nécessaire à un nouveau centre de données peut dépasser trois à cinq ans. De quoi là aussi freiner l’essor de l’IA en Europe. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
01 Jun 2022 | Authentification : le mot de passe ne suffit plus | 00:03:11 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui je vais vous expliquer pourquoi l’authentification ne peut plus se contenter du seul mot de passe pour protéger un compte. L’authentification, c’était mieux avant. Dans les années 80 par exemple, lorsqu’on voulait se connecter à un compte utilisateur, on pouvait se contenter d’un simple identifiant et d’un mot de passe. Les plus paranoïaques pouvaient opter pour un mot de passe long et complexe et c’était une mesure de sécurité jugée suffisante pour décourager un tiers qui tenterait de se connecter au compte en devinant le mot de passe. Mais cela ne suffit plus aujourd’hui. L’évolution de la puissance informatique des ordinateurs conjuguée avec les multiples fuites de mots de passe permet maintenant aux attaquants de deviner sans trop de peine les mots de passe les plus simples. Plusieurs types d’attaques visent à deviner ou à voler les mots de passe pour accéder à un compte en ligne, et celles-ci sont perfectionnées par les cybercriminels depuis des dizaines d’années maintenant. Pour faire face à ce défi, l’authentification cherche donc de nouvelles pistes afin de garantir une sécurité suffisante. La méthode fréquemment recommandée est celle de l’authentification multifacteurs, qui peut prendre plusieurs formes. Plutôt que de faire reposer la vérification d’accès sur un seul mot de passe, on va demander plusieurs preuves d’identité à l’utilisateur avant d’autoriser son accès. En plus de son mot de passe, on va par exemple lui demander d’entrer un code à usage unique envoyé par SMS sur son téléphone. Ou de connecter à l’ordinateur une clé USB de sécurité, type Yubikey ou Google Titan. Enfin, on peut également renforcer l’authentification par l’utilisation d’un facteur biométrique : par exemple un capteur d’empreinte digitale ou d’empreinte rétinienne. Pour retenir les différents types de facteurs d’authentification, on peut les résumer ainsi : ce que je sais, ce que j’ai, ou ce que je suis. La combinaison de ces différents facteurs permet une authentification plus sûre que celle du simple mot de passe. A ces éléments peuvent s’ajouter des données contextuelles liées à la connexion : la personne se connecte-t-elle depuis un nouvel appareil ou depuis un appareil connu ? L’heure de connexion ou la géolocalisation de l’adresse IP est elle inhabituelle ? Autant de paramètres qui peuvent être pris en compte pour estimer la fiabilité d’une connexion et déclencher des mesures de vérification supplémentaires. Aujourd’hui, les géants du numérique comme Google et Microsoft aimeraient démocratiser autant que possible ces nouvelles méthodes d’authentification afin de limiter le piratage des comptes utilisateurs et de mieux sécuriser les accès à des services parfois critiques. Mais ces méthodes ne sont pas à toute épreuve : une empreinte digitale peut se copier, un SMS contenant un mot de passe à usage unique peut être intercepté, une clé de sécurité peut être volée, voire clonée. En matière d’authentification, il n’y a donc pas de solution miracle. On peut simplement rendre la tâche des attaquants plus difficile, jusqu’à les décourager d’essayer. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
04 Nov 2021 | Sur les navires autonomes, le capitaine reste seul maître à bord, après Dieu | 00:02:46 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vais vous expliquer pourquoi, à l'heure des navires autonomes, le capitaine reste tout de même le seul maître à bord, après Dieu.
Le prochain véhicule autonome que vous risquez de croiser ne sera pas au bout de la rue. Vous pourrez l'accoster ou le couler. Oui, il s'agira d'un bateau.
Ou d'un sous-marin militaire. L'entreprise Naval Group vient d'annoncer la mise à l'eau de son premier démonstrateur de drones sous-marin océanique.
De quoi tester ce que Naval Group appelle, « l'autonomie décisionnelle contrôlée », c'est-à-dire la capacité de contrôler l'engin à grande distance, et en grande profondeur.
Dans le domaine civil également, le navire autonome a la cote. Le français SeaOwl, spécialisé dans la gestion des installations offshore en haute mer, teste lui aussi un navire téléopéré par satellite, et vidé lui aussi de son équipage.
Ce sont ces initiatives qui ont décidé les autorités à se pencher sur le statut juridique des drones maritimes et des navires autonomes.
Une ordonnance relative aux conditions de navigation de ces nouveaux engins vient d'être publiée au Journal officiel. Elle reconnaît la spécificité de ces deux nouvelles catégories d'engins flottants.
Et le texte précise qu'une des plus vieilles lois maritimes au monde persiste sur ces nouveaux engins.
Oui, le capitaine est toujours le seul maître à bord après Dieu. Aucun système autonome, aucune intelligence artificielle, ne pourra être jugé responsable d'une décision heureuse ou malheureuse à bord d'un navire.
Le capitaine demeure celui qui exerce le « commandement du navire autonome », précise le texte.
Le texte crée aussi une nouvelle catégorie d'engins flottants. Il s'agit des drones maritimes, une catégorie bien distincte des navires.
Les drones maritimes sont des engins flottants de surface ou sous-marins, opérés à distance ou par ses propres systèmes d'exploitation, sans personnel, sans passager, et sans fret à bord.
Des objets flottants désormais identifiés, à l'utilisation très particulière. Ces drones ne seront pas astreints à l'obtention de titres de navigation.
Ils devront toutefois être immatriculés et posséder un pavillon. Et seront soumis, bien sûr, aux règles de circulation maritime et devront être assurés.
Enfin, les pilotes à distance de ces engins devront aussi être titulaires d'un titre de conduite en mer, et suivre une formation spécifique.
Oui, même à terre, le capitaine restera le seul maître à bord des engins qui croisent en mer, après Dieu.
Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
05 Apr 2022 | Pourquoi les installations d'entrepôts d'Amazon vacillent en France | 00:03:05 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m'appelle Anne Mignard et aujourd'hui, je vous explique pourquoi les installations d'entrepôts d'Amazon vacillent en France. Je ne vous apprends rien, l'ogre de Seattle ne cesse de se développer partout dans le monde. En France, il y a quatre ans, le groupe américain comptait déjà cinq centres logistiques, que l'entreprise appelle centres de distribution. Depuis, trois nouveaux ont été construits. Le dernier-né est sorti de terre à Augny, près de Metz, en septembre dernier. Un entrepôt d'une surface totale de 182 000 m2, ce qui en fait la plus grande plateforme logistique d'Amazon en France. Rien ne semble donc arrêter le développement du géant américain dans sa conquête de l'Hexagone. Mais le vent pourrait bien être en train de tourner. Car ces derniers mois, les cailloux dans la chaussure française d'Amazon commencent à s'accumuler. Il y a quelques jours, le géant de la tech encaissait un nouveau revers tout près de Belfort. Le permis de construire et l'autorisation environnementale d'un projet d'entrepôt ont été annulés par le tribunal administratif de Besançon. La raison ? La destruction d'une zone humide protégée. Et cette déconvenue est loin d'être la première en France pour Amazon. Le mois dernier, c'est Amazon lui-même qui aurait choisi de renoncer à installer un entrepôt de 160 000 m2 à Petit-Couronne, près de Rouen. Et ce, au grand mécontentement des élus locaux. Et à la grande joie des opposants écologistes au projet. En décembre 2021, c'est près du pont du Gard qu'un autre projet d'entrepôt était abandonné. Là, c'est le tribunal administratif de Nîmes qui a tranché en ne reconnaissant pas « l'intérêt public majeur » du projet. Il semblerait aussi que la présence dans les environs de la pie-grièche méridionale, un charmant oiseau protégé, ait empêché Amazon de déployer ses ailes dans le Gard. Deux mois avant, en octobre de l'année dernière, la communauté de commune de Grand-Lieu, tout près de Nantes, avait abandonné un projet de plateforme logistique de 185 000 m2 sur la commune de Montbert. Une décision surprenante pour des élus, dans la mesure où Amazon promettait la création de nombreux emplois. Mais cette implantation aurait accumulé, je cite, « trop de contraintes techniques et juridiques ». Quatre échecs qui n'inquiètent pas en apparence Amazon. Ses porte-paroles affirment même que, contrairement à ce qu'il est écrit dans la presse, le site prévu en Normandie était en fait destiné à une autre enseigne... une affaire à suivre. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
13 Nov 2024 | Bitcoin, Tesla et dollar ; fièvre des investisseurs en vue du second mandat de Donald Trump | 00:02:48 | |
Voici les premières conséquences de l'élection de Donald Trump dans le monde de la technologie et de la finance. L'arrivée au pouvoir suprême outre-Atlantique de Donald Trump pour la seconde fois a des effets immédiats sur le marché des crypto-monnaies, les actions de Tesla, ou encore l'excellente tenue du dollar américain. Pourquoi ? Parce que les investisseurs américains anticipent déjà la mise en place d'une politique économique favorable aux marchés financiers et surtout aux crypto-monnaies. Et cela d'autant plus que notre homme aura un soutien probable du Congrès des Etats-Unis. Et par conséquent très peu de contre pouvoirs pour tempérer son action. Et cela a aussi des conséquences sur le secteur des semi-conducteurs. Le Bitcoin bat tous les records Premièrement donc, le Bitcoin bat tous les records. L’anticipation d’une approche peu stricte en matière de régulation des crypto-monnaies par l’administration Trump stimule très fortement les marchés. Résultat, le Bitcoin a franchi la barre des 88 000 dollars, un record historique. Et cela a des conséquences sur tout l'écosystème. La plateforme d'échange de crypto-monnaies Coinbase, par exemple, a bondi en bourse de près de 20 %. Une vraie euphorie s'empare donc du secteur, avec des spéculations sur l’éventuelle création d'une réserve nationale de Bitcoins aux Etats-Unis. Tesla s'envole Cette victoire électorale donne aussi des ailes à des entreprises de la tech, comme Tesla. Il faut aussi préciser que le patron de l'entreprise, Elon Musk, est un fervent allié de Donald Trump. L’action du constructeur automobile a enregistré en début de semaine un gain de 9 %, surfant sur la vague optimiste du marché. Les investisseurs misent sur une conjoncture favorable qui pourrait même faciliter de futures réformes énergétiques, dont un soutien aux véhicules électriques. Le dollar américain grimpe également Enfin, le dollar américain grimpe également, atteignant son plus haut niveau en quatre mois face à un panier de devises, où l'on trouve l'euro. Et là c'est très clair. Cette appréciation du dollar est directement stimulée par les promesses de Donald Trump de réduire les impôts et d’augmenter les droits de douane. De quoi faire défaillir nous autres européens certes, mais aussi risquer une hausse de l'inflation. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
10 Jun 2022 | Paypal, le dinosaure qui passe aux crypto | 00:03:05 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vous explique pourquoi Paypal, un des dinosaures du paiement en ligne, passe aux crypto-monnaies. C'est un véritable dinosaure du web. Paypal est né en 1998, et s'appelait alors Confinity. L'idée de génie ? Servir grâce au web d'alternative au paiement par chèque ou par carte bancaire. Évidemment une petite révolution à une époque, où les banques ne proposaient pas de service en ligne, et où le paiement différé, nouvelle lubie du secteur de la fintech, n'existait pas. Première plateforme de paiement de renom, PayPal a également été un des premiers services à assurer des virements entre personnes. Et voici que désormais, Paypal passe à l'ère du web3 et de la cryptomonnaie en intégrant un service de transfert, d'envoi et de réception des Bitcoin, Ethereum et autres Litecoin. Bien sûr, les utilisateurs qui transfèrent leurs actifs numériques d'un portefeuille crypto ou d'une plateforme d'échange externe vers PayPal peuvent ensuite les utiliser pour effectuer des achats. Mais il faut bien sûr pour cela que l'e-commerçant accepte les paiements en crypto. Ce qui n'est pas le cas de tout le monde. Mais attention toutefois. Si vous voulez transférer des crypto-monnaies d'un portefeuille externe vers PayPal, il faut placer l'adresse PayPal unique de réception dans votre portefeuille, puis lancer le transfert. Mais vérifiez avant que l'adresse est correcte. Car une adresse incorrecte entraînera la perte irrémédiable du montant de la transaction. PayPal ne facture pas de frais pour le transfert de crypto, qu'il s'agisse d'envoi ou de réception. Reste que des frais d'utilisation du réseau s'appliquent dans les deux cas. Cette annonce n'est pas la première initiative de Paypal dans le domaine des crypto. En mars 2021, Paypal assurait qu'il était possible de payer en cryptomonnaie sur sa plateforme avec une nouvelle fonctionnalité, nommée "Checkout with Crypto". Dans le même temps, PayPal rachètait la start-up Curv, spécialisée dans le stockage de cryptomonnaies. Ces évolutions sont bien évidemment des tentatives pour Paypal de rester au goût du jour, et des utilisateurs, dans un environnement très très concurrentiel. Autre initiative, en septembre 2021, PayPal mettait la main sur Paidy, le spécialiste japonais du paiement différé. Une opération à 2,7 milliards de dollars sur un marché porteur. Ces services de paiement différé représentaient 2,1 % des paiements du commerce électronique mondial en 2020, et devrait atteindre 4,2 % en 2024. Reste que dans les mois qui viennent le contexte économique mondial - marqué par l'augmentation des taux et de l'inflation - risque de fortement toucher tant le secteur des crypto-monnaies que celui du "buy now, pay later". Mais Paypal peut se reposer, à la différence de nombre de ces concurrents de la fintech, sur une base client mondiale déjà très fidélisée. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
17 Nov 2022 | Les tendances RH qui vont façonner l'année 2023 | 00:02:36 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui nous allons nous intéresser aux tendances RH qui vont façonner l’année 2023. Dans un monde post-pandémique, l’environnement de travail a été bouleversé. Le télétravail et le travail hybride ont gagné les usages, forçant nombre d’entreprises à composer avec des équipes dispersées, qui collaborent à distance avec plus de flexibilité que par le passé. En 2023, certaines tendances RH pourraient bien s’accentuer, et avec elles, des conséquences bien réelles sur notre manière de travailler. Prenons quelques exemples. Tout d’abord, il est certain que le travail hybride n’est pas prêt de disparaître. Bien que de nombreuses entreprises forcent leurs employés à revenir au bureau - et nous en avons eu un exemple très récent chez Twitter -, ces dernières ne lâchent pas le travail hybride et à distance pour autant. Et avec une inflation qui augmente encore le coût de la vie, les employés ne voudront peut-être pas dépenser plus pour acheter de l’essence, un déjeuner à l’extérieur ou encore le café du matin. Sans compter que de nombreux bureaux se débarrassent également des agencements traditionnels, maintenant que les employés travaillent régulièrement depuis chez eux. Bon nombre d’experts des ressources humaines s’accordent à dire que les réaménagements de bureaux dans les années à venir pourraient favoriser le travail collaboratif et réinventer profondément l’open space. Deuxième tendance à laquelle on peut s’attendre l’année prochaine : l’investissement en hausse dans les formations, pour permettre aux salariés de se doter des compétences dont ils ont besoin. D’ailleurs, selon une enquête récente d’Amazon et de Workplace Intelligence, plus de 80 % des employés placent l’amélioration de leurs compétences en tête de leurs priorités pour l’année prochaine. Finalement, quelle que soit l’organisation de travail adoptée, le mot d’ordre en 2023 est la flexibilité. L'équilibre entre vie professionnelle et personnelle est devenu un enjeu précieux. Les phénomènes que l’on observe ces derniers temps, tels que le “quiet quitting” ou la Grande Démission aux Etats-Unis, sont la preuve que les entreprises qui ne parviennent pas à injecter plus de flexibilité dans leur organisation de travail pourraient risquer de perdre leurs meilleurs talents. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur notre site internet. Et retrouvez tous les jours un nouvel épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
19 Sep 2024 | Pourquoi LinkedIn ne peut pas entraîner son IA sur les CV des français ? | 00:02:37 | |
Aujourd’hui, voyons pourquoi LinkedIn, le réseau social pour les professionnels est empêché d'entraîner son IA sur les CV des utilisateurs français. De fait, LinkedIn récolte de plus en plus de données pour entraîner ses modèles d’intelligence artificielle. Pourtant, il y a une exception notable. Les utilisateurs de l’Union Européenne, dont les Français, ne sont pas concernés par cette collecte. Premier point, pourquoi cette exception ? La réponse tient en quatre lettres : RGPD. Le Règlement Général sur la Protection des Données, mis en place en 2018 dans l’Union Européenne, impose des règles très strictes sur l’utilisation des données personnelles. Ce règlement exige que toute entreprise, y compris LinkedIn, obtienne le consentement explicite des utilisateurs avant d’utiliser leurs données pour entraîner des modèles d’IA. Sans ce consentement, LinkedIn n’a tout simplement pas le droit de puiser dans les informations personnelles des utilisateurs européens pour améliorer ses systèmes d’intelligence artificielle. Deuxième point, et c'est important, LinkedIn ne s’est pas gêné pour récolter des données de ses utilisateurs dans d’autres régions du monde. Aux États-Unis par exemple, LinkedIn utilise déjà les posts, articles, et messages privés de ses membres pour entraîner ses modèles d’IA générative. Et ce sans leur demander clairement leur avis. Pour les utilisateurs en dehors de l’Union Européenne, il faut donc aller chercher dans les paramètres de confidentialité de LinkedIn pour désactiver cette collecte, et refuser ainsi que leurs données soient utilisées. C’est une démarche volontaire, et peu de gens sont au courant de cette possibilité. Il n'est donc pas surprenant que cette collecte massive de données ait provoqué la colère de nombreux utilisateurs de par le monde. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
09 Sep 2022 | Signal recrute une ex-Google pour tenter de gagner de l'argent | 00:03:04 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique comment l'application de messagerie Signal va enfin tenter de gagner de l'argent. L'application de messagerie Signal vient d'embaucher Meredith Whittaker, une ancienne responsable du géant de la tech Google. Et ce n'est pas sur un petit poste puisqu'elle devient la première présidente de Signal. Reste que son objectif est très très ambitieux. Elle a pour mission ni plus ni moins de convaincre les utilisateurs de Signal de payer pour continuer à utiliser cette application pour l'heure gratuite. Signal est une application de messagerie comme WhatsApp ou Messenger. Sa réputation s'est construite sur la sécurité des échanges, et un chiffrement soit disant à toute épreuve. Signal propose en effet un chiffrement de bout en bout pour les discussions de groupe par texte, voix et vidéo, ne collecte ni ne stocke d'informations sensibles et ne conserve pas de sauvegardes de vos données sur ses serveurs. Un point de différenciation important vis à vis d'une concurrence acharnée sur le secteur des messageries. La plupart des concurrents de Signal utilisent en effet les données personnelles des utilisateurs pour gagner de l'argent. L'application a d'ailleurs connu un pic massif de téléchargements l'année dernière quand WhatsApp a modifié sa politique d'utilisation pour collecter des données sur les interactions de ses utilisateurs. A noter par ailleurs que Signal est gérée par une organisation à but non lucratif. Mais à présent, il faut bien gagner de l'argent. Surtout que si Signal compte actuellement 140,9 millions de téléchargements sur l'App Store et Google Play, ses concurrents sont loins devant. WhatsApp a dépassé les 2 milliards de téléchargements en 2019. Telegram de son côté a dépassé le milliard de téléchargements en 2021. Dans une interview, Meredith Whittaker a déclaré prévoir de se concentrer sur l'autofinancement, et ce grâce aux petits dons de millions d'utilisateurs. "Cela coûte des dizaines de millions de dollars par an pour développer et maintenir une application comme Signal" explique t-elle. Car oui, comme le sait très bien Meredith Whittaker avec son expérience chez Google, quand c'est gratuit, c'est vous le produit. La seule façon donc d'échapper à une technologie qui gagne de l'argent grâce à vos données est de payer pour des produits qui n'en gagnent pas, dit Mme Whittaker. Une alternative à la collecte de données n'existe que si la communauté des personnes qui en dépendent "donne un petit coup de pouce", dit-elle. Au delà de son pedigree chez Google, Meredith Whittaker, qui est membre du conseil d'administration de Signal depuis 2020, s'est fait connaître pour son discours parfois critique sur la mise en place des nouvelles technologies dans les entreprises. Elle a cofondé le AI Now Institute, un centre de recherche pour sensibiliser aux implications sociales de l'intelligence artificielle. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
20 Oct 2021 | Fibre optique : des plats de nouilles difficiles à digérer | 00:02:48 | |
Bonjour et bienvenue dans le ZD Tech, le podcast de la rédaction de ZDNet. Je suis Pierre Benhamou et aujourd’hui, je vais vous expliquer pourquoi en matière de Fibre optique on trouve encore des plats de nouilles bien difficiles à digérer. C’est un fait : la France s’est imposée ces dernières années comme le champion européen de la fibre optique. Rendez-vous compte : au moins 60 % des foyers et entreprises français ont d'ores et déjà accès au très haut débit par ce moyen. Une proportion qui tombe à seulement 8 % chez nos voisins allemands et ne s’élève qu'à 38 % au niveau européen. C’est dire. Reste que ce succès s’impose malheureusement comme l’arbre qui cache la forêt... ou plutôt un énorme plat de nouille. Mais alors me direz-vous, que vient faire la gastronomie italienne ici ? Eh bien rien. Le plat de nouille, dans le cas qui nous intéresse, c’est le petit surnom de l'enchevêtrement de câbles et de fils qui dégoulinent trop souvent des armoires télécom. Pour rappel, ce sont elles que vous pouvez voir dans vos cages d’escaliers ou sur le trottoir d’en face et qui servent à assurer votre connexion. Et c’est bien à leur niveau que se situe l’un des derniers points faibles de la connectivité au très haut débit en France. C’est en effet au niveau du raccordement final de la fibre, c’est-à-dire la connexion entre le dernier point de mutualisation et votre domicile ou votre entreprise, que le bât blesse. Les réseaux sociaux regorgent d’ailleurs de clichés exposant ces amoncellements de câbles qui dégueulent littéralement de ces armoires. Des armoires qui en théorie devraient pourtant être organisées au cordeau par les techniciens de la fibre. Vous y avez d’ailleurs peut-être été confrontés vous-même. En souhaitant vous connecter à la fibre optique, le technicien appelé à la rescousse débranche par mégarde ou inexpérience votre voisin ou vice- versa. Avant de repartir sans autre forme de procès. Alors, à qui la faute ? Pour les acteurs du secteur, la responsabilité incombe surtout à la sous-traitance qu’affectionnent les opérateurs commerciaux pour raccorder leurs abonnés à la fibre. Les cadences infernales infligées aux techniciens et le manque de formation sont aussi parfois mis en avant pour expliquer la multiplication des plats de nouilles dans les armoires de fibre optique. Pour rectifier le tir, les opérateurs se sont engagés ces derniers mois à mettre en place un nouveau cadre de sous-traitance. A l’aide de l’intelligence artificielle et de photographies prises avant et après chaque intervention, les acteurs du secteur promettent de restaurer la confiance des utilisateurs, ainsi que leur image. Chacun pourra de toute manière juger sur pièce dans les prochains mois. Et si cela fonctionne, gageons que la prolifération de ces plats de nouilles bien indigestes sera de l'histoire ancienne. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
09 Nov 2021 | La cybersécurité va mettre le pied dans la porte des conseils d’administration | 00:02:23 | |
Bonjour à tous et bienvenue sur le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je suis Guillaume Serries et aujourd’hui je sors ma boule de voyante pour expliquer comment la cybersécurité va mettre le pied dans la porte des conseils d’administration des entreprises.
Si jusqu’alors les attaques informatiques décimaient les ordinateurs, elles vont tuer des êtres humains de chair et d’os d'ici 2025.
C’est en tout cas une des prévisions du cabinet d’analyse Gartner, qui fait le point sur ce qui va arriver dans le domaine de la cybersécurité dans les mois qui viennent.
Déjà cette année, des hôpitaux et des usines ont été bloqués ou perturbés par des malwares et des ransomwares. Pas incroyable donc de s’attendre à ce que malheureusement des victimes soient prochainement à déplorer du fait des attaques informatiques.
L’autre tendance lourde de ce secteur, c’est l’encadrement de la cybersécurité par des textes de loi.
Gartner s'attend justement à ce qu'au moins 30 % des pays du monde adoptent une forme de législation sur les ransomwares. Une manière peut-être de réguler un phénomène jusqu’à présent totalement hors de contrôle.
Et, par ailleurs, 75 % de la population mondiale sera couverte d'une manière ou d'une autre par une loi sur la protection de la vie privée, dit le Gartner. Oui, c’est bien le RGPD pour tous dont nous parlons ici. Le règlement général sur la protection des données, une initiative européenne, va contaminer le monde d’ici 2023.
Ce sont ces nouveaux cadres juridiques et l’augmentation des risques qui auront des conséquences cruciales sur la gouvernance des entreprises.
En clair, la cybersécurité va pousser les portes du conseil d’administration. D'ici 2025, 40 % de ces instances dirigeantes disposeront de comités dédiés à la cybersécurité, ou d'au moins un membre qualifié chargé de superviser la cybersécurité.
Enfin, dernière prévision, l’atomisation des acteurs de l’écosystème de la cybersécurité, c’est terminé. Une consolidation massive est à l’œuvre. Au point que 30 % des clients finiront par utiliser le même fournisseur de services de sécurité de cloud et de edge computing d'ici 2024.
Des services qui seront non plus installés sur des serveurs ou des ordinateurs, mais fournis sous la forme de solutions en mode SaaS.
Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
04 May 2022 | Mais que va donc faire Spotify chez Roblox ? | 00:03:04 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet.fr. Je m’appelle Guillaume Serries et aujourd’hui je vous explique pourquoi Spotify s'acoquine avec la plateforme de jeu vidéo Roblox. Oui c'est sûr, vous connaissez Spotify. Mais peut-être ne connaissez-vous pas - encore - Roblox. Alors qu'est ce que Roblox ? Et bien demandez à votre gamin ! Bon ok je vous explique. Roblox est depuis 2005 une plateforme de jeu vidéo en ligne free-to-play destinée aux enfants et adolescents. De quoi jouer bien sûr donc, mais aussi créer des jeux. La plateforme regroupe au quotidien 40 milions de joueurs. Et bien Spotify a décidé qu'il serait le premier streamer de musique, et de podcast, à avoir une présence officielle dans Roblox. Pour ce faire, le suédois vient de lancer dans Roblox "Spotify Island", un lieu virtuel où les artistes et les fans peuvent jouer en ligne, débloquer du contenu exclusif et acheter des produits dérivés des artistes. Dans le détail, Spotify Island se présente sous la forme d'un continent virtuel entouré d'une multitude d'îles à thème, que les joueurs pourront explorer. Comment ? Ils pourront interagir en marchant, en courant, en sautant, en touchant et en ramassant divers objets. On trouvera également dans cet univers une bande sonore alimentée par Soundtrap, l'un des outils de création audio de Spotify. Rassurez-vous, vous pourrez mettre en pause la musique, et sauter des pistes. Alors, que vient donc faire Sportify dans l'univers Roblox ? Et bien il s'agit d'un sacré pari. "Nous donnons aux joueurs la possibilité d'être des créateurs et d'avoir vraiment l'impression d'être l'artiste qui se produit lui-même" assure Spotify. Les joueurs pourront donc créer des sons sur machine de beat-maker virtuelles alimentées par Soundtrap. Ils pourront aussi se déplacer sur une "scène" virtuelle pour interagir avec des objets virtuels. Surtout, le lancement de l'univers Spotify dans Roblox intervient à un moment où la musique est devenu un avantage concurrentiel important pour les plateformes de jeux en ligne. Oui vous avez bien compris, de plus en plus de joueurs choisissent leurs jeux en fonction de la musique et de la présence des artistes. Une tendance qui devrait se renforcer avec l'arrivée prochaine des métaverses sur les écrans et les casques de VR. Un exemple ? Fortnite dès 2020 a ouvert la voie avec son concert virtuel de Travis Scott, suivi par un concert d'Ariana Grande l'année dernière. Et cette année c'est le festival de musique de Coachella qui était mis à l'honneur sur sa plateforme. Roblox n'est pas en reste. La plateforme de jeu a organisé son premier concert virtuel en 2020 avec, excusez du peu, Lil Nas X en tête de gondole. Et l'année dernière, Roblox a tissé un partenariat avec Sony Music. Enfin il faut noter que Spotify héberge déjà plus de 2,2 millions de listes de lecture liées aux jeux vidéos sur sa plateforme. Et avec ce partenariat, le géant suédois cherche à toucher une jeune génération. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
07 Jan 2022 | Va-t-on troquer nos disques durs contre des brins d’ADN ? | 00:03:20 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles et aujourd’hui je vais vous expliquer pourquoi un jour peut-être vous troquerez vos disques durs contre des brins d’ADN. Dans une armoire de fer, au coeur des Archives nationales, on trouve de minuscules capsules qui protègent deux copies de documents historiques très très particulières. L'une est la Déclaration des droits de l’homme et du citoyen de 1789. L'autre la déclaration des droits de la femme, rédigée par Olympe de Gouges en 1791. Au delà de la richesse historique de ces textes c'est leur support de stockage qui est tout à fait étonnant. Jugez plutôt : les deux documents sont sauvegardés sur de... l’ADN synthétique. Une prouesse réalisée par une équipe de chercheurs français du CNRS, qui a mis au point la technologie dite de “DNA Drive”. Pour lire les deux déclarations, il faut donc s'équiper... de séquenceurs d'ADN. Oui, les mêmes machines utilisées en biologie pour séquencer les génomes des êtres vivants. Dit comme ça, cela parait simple. Et pourtant, l’ADN est encore loin de remplacer nos disques durs du quotidien. L'Académie des technologies estime que cette technologie issue du vivant pourrait devenir économiquement viable entre 2025 et 2040. Alors dans le détail, comment fonctionne le stockage de données sur ADN ? L'ADN est une substance que l'on retrouve dans les cellules de tous les êtres vivants. Son rôle est de contenir leurs informations génétiques. Les chercheurs ont donc imaginé pouvoir y stocker des données numériques en lieu et place des gènes X et Y. Bien sûr tout cela est très compliqué. Mais je vais vous le décomposer en cinq étapes. Il faut d’abord coder le fichier de données numériques dans l'alphabet de l'ADN. Puis il faut les écrire, et les stocker. Ensuite, il faut être capable de décoder cet ADN si particulier, pour enfin pouvoir lire l'information. Cet exploit est le fruit de travaux entamés depuis les années 2010. Microsoft en 2019 a par exemple présenté le tout premier système de stockage ADN entièrement automatisé. Avec cette expérimentation, les ingénieurs avaient réussi à encoder le mot “hello” dans des morceaux d’ADN artificiel, et à le convertir à nouveau en donnée numérique. Reste que le principal obstacle à la démocratisation du stockage sur ADN est sa vitesse d'écriture. Elle est encore trop lente pour stocker des données au quotidien sur de l'ADN. A ce stade de la recherche, on imagine plutôt l’ADN comme une solution de stockage alternative pour des données qui sont rarement consultées. Comme pour les Archives nationales, par exemple, qui pratiquent donc surtout de l'archivage. Et l'autre difficulté que rencontre cette technologie de stockage sur ADN est son coût. Mais malgré les défis technologiques et économiques, cette innovation a de beaux jours à venir. Tout d’abord parce que la stabilité de l'ADN se compte en dizaines, voire en centaines de milliers d'années. Mais surtout parce que c’est aussi un support de stockage plus compact. L’équipe de recherche à l’origine de la technologie DNA Drive assure que l'intégralité des données mondiales pourrait tenir dans 100 grammes d'ADN. Soit le poids d'une tablette de chocolat. Et voilà, on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur ZDNet.fr . Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
11 Mar 2022 | Quand la DSI devient un véritable nid d'espion | 00:03:25 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet.fr. Je m’appelle Guillaume Serries et aujourd’hui je vous explique ce qui se passe quand la DSI devient le nid d'espion d'une société. Un rôle qui explose avec la mise en place du télétravail. C'est malheureux mais c'est un fait. Plus nous nous appuyons sur la technologie, plus nous nous tournons vers la logique de surveillance. Un exemple ? L'an passé une entreprise était épinglée sur le réseau social Reddit. Elle mettait a disposition de ses employés une messagerie instantanée qui permettait de configurer trois statuts possibles : inactif, disponible ou en réunion. Sauf que le système de messagerie enregistrait en sous main un employé comme "inactif" s'il ne touchait pas son clavier pendant... cinq minutes. Génial non ? On pourrait penser que ce type de comportement de la part des employeurs est ultra minoritaire. Et idiot. Le fait de ne pas utiliser un clavier ne signifie pas que vous ne travaillez pas, ne réfléchissez pas, de produisez pas. Mais détrompez-vous. L'explosion du télétravail a entraîné l'explosion des outils de surveillance à distance des collaborateurs. Prenez l'entreprise américaine CoStar, qui compte 4900 employés. Un article de Business Insider fin février rapportait une "exode massif" hors de cette entreprise spécialisée dans l'analyse de données dans l'immobilier commercial. Rien que de très banal au premier coup d'oeil. Bien des gens choisissent de quitter des entreprises de la tech tout le temps, pour de muiltiples raisons, surtout dans le contexte actuel de tension extrême dans les emplois de développeurs par exemple. Chez CoStar, cependant, le malaise des employés venait de la transformation de la DSI de l'entreprise en véritable... nid d'espion. 37 % des employés sont partis l'an passé de l'entreprise. Pourquoi ? Parce que du jour au lendemain, les 154 employés de la DSI ont reçu la consigne d'appeler chacun une centaine de télétravailleurs de la société. Le prétexte ? Vérifier que les VPN des fonctionnaient correctement. Mais surtout, ces membres de la DSI devaient noter la rapidité du décroché de l'employé, s'il activait ou non sa webcam pendant la discussion. Ils devaient aussi détecter dans quel lieu travaillait l'employé, et si il était habillé de manière professionnelle. C'st à dire pas en short et en tong. Si l'employé ne répondait pas à l'appel trois fois, il était mis sur une liste noire. Et certains ont depuis été licenciés. Oui, trop souvent la technologie est utilisée comme un substitut à d'autres compétences qui devraient être mises en oeuvre dans l'entreprise. Comme la gestion, par exemple. Dans ce contexte, est-il si surprenant que certaines entreprises aient soudainement du mal à recruter de bons employés - ou n'importe quel employé, en fait ? Sans compter que l'on peut se demander ce qu'il advient des employés de la DSI chargés de cette surveillance. Je connais quelques informaticiens. Et bien sûr sous le sceau du secret ils m'ont aussi parlé de demandes occasionnelles de la part de la direction pour surveiller les employés. Des demandes qui leur retournent l'estomac. Lorsque je leur demande comment ils gèrent cela, ils haussent les épaules, comme si cela faisait simplement partie de leur travail quotidien. Maintenir le réseau informatique, et espionner de temps à autres. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
20 Nov 2024 | L'IA s'infiltre dans Spotify, pourquoi c'est un problème pour musiciens et les fans | 00:02:41 | |
Aujourd'hui, on parle d'un phénomène qui touche les fans de musique et les créateurs sur Spotify, la fameuse plateforme de streaming musical. Depuis quelques semaines, Spotify subit une invasion de chansons générées par intelligence artificielle. Pire, ces morceaux perturbent le fonctionnement de la plateforme et posent des problèmes pour les vrais artistes, faits de chair et d'os. Des milliers de chansons produites par des intelligences artificielles se retrouvent désormais sur Spotify, et ce parfois même sur les pages et dans les playlists d'artistes existants. Comment ? Eh bien, de faux labels comme Beat Street Music mettent en ligne ces titres de manière massive. Ces morceaux prennent des noms d'artistes générés de manière aléatoire. Mais du fait du hasard, ces noms correspondent parfois à ceux de véritables musiciens. Résultat, Spotify mélange les pages, et les fans tombent sur des albums ou des chansons qui n’ont rien à voir avec le style de leur groupe préféré. Conséquence, vous ouvrez un nouvel album d’un artiste que vous adorez… mais à l’écoute, c’est déconcertant et le son n'a rien à voir avec celui de votre chanteur préféré. Pourquoi ces faux contenus existent Ce n’est pas vraiment pour tromper les fans délibérément, mais plutôt pour générer du profit. Les créateurs de ces musiques espèrent que quelques centimes par écoute, multipliés par des milliers de chansons, peuvent rapporter une petite somme d'argent. Il s'agit donc d'une forme d’optimisation douteuse, qui cause des dégâts. Les artistes touchés, souvent des petits groupes, voient ainsi leur image brouillée, et les fans sont frustrés. Comment Spotify réagit ? La plateforme dit retirer les chansons signalées par les artistes. Mais ce n’est pas immédiat. Certains groupes ont dû attendre plus d’un mois pour voir ces morceaux disparaître de leurs pages. Pendant ce temps, le mal est déjà fait. Cela provoque de la confusion pour les fans et une perte de crédibilité pour les artistes. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
03 Dec 2021 | Voyagez dans le temps avec Internet Archive | 00:02:49 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Marine Louste et aujourd’hui, je vous fais découvrir la mémoire de l'internet mondial. J'ai nommé Internet Archive. Allons-y ! Que vous soyez plutôt Tardis ou Delorean, je suis sûre que vous rêvez de voyager dans le temps. Et bien, Internet Archive a la solution avec son formidable outil, la "wayback machine". De quoi revivre les meilleurs (et les pire) moments de l'internet mondial depuis... 1996. Donc maintenant, vous vous dites, Internet Archive qu'est-ce que c'est ? Internet Archive, c'est un organisme à but non lucratif. Son objectif ? Comme son nom l'indique, archiver l'internet au fil du temps. Ce projet titanesque dure depuis 25 ans. Son fondateur, Brewster Kahle, se définit à la fois comme informaticien, bibliothécaire et militant de la propriété intellectuelle. Il compare tout simplement ce projet à la bibliothèque d'Alexandrie. Mais en version web, évidemment. On y trouve donc tout ce qui fait internet. Jugez plutôt : le site regroupe 475 milliards de pages web, 28 millions de textes et 14 millions d'enregistrements audio. Et oui, ça pèse. 30 pétaoctets de données, au minimum, pour être précis. La bibliothèque d'Alexandrie des temps modernes, effectivement. Mais, à Alexandrie, on se posait certainement moins qu'aujourd'hui la question du copyright. Et oui, l'an dernier, au plus fort de la pandémie et des confinements, Internet Archive a mis à disposition du public des œuvres protégées par le droit d'auteur. Résultat : quatre grands éditeurs américains ont porté plainte. Le procès est en cours. Vous allez me dire : mais... et le voyage dans le temps dans tout ça ? Et bien, la "wayback machine", ou "machine à revenir en arrière" en français, permet de revenir à un instant T sur un site donné. Cet outil est disponible depuis 2001. Alors, comment ça fonctionne ? Je vous rassure, pas besoin d'attendre une nuit d'orage ou de chercher une police box. Il vous suffit d'aller sur le site archive.org/web. Un site à l'ergonomie, je l'avoue, un peu vintage. Comme ça, vous êtes déjà dans l'ambiance ! Bon, je l'ai testé pour vous. Avec ZDNet.fr, bien sûr. Et bien, sachez qu'il y a un peu plus de 20 ans, en septembre 2001, on attendait Windows XP avec impatience... et oui, le dernier bon Windows pointait le bout de son nez. On est loin de Windows 11 ! Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
12 Sep 2022 | DMA / DSA : l'Europe tente une approche diplomatique de la Silicon Valley | 00:02:57 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vous explique pourquoi l'Union Européenne implante un bureau à San Francisco, à quelques encablures de la Silicon Valley. L'Union Européenne ouvre un nouveau bureau à San Francisco, à quelques kilomètres de la Silicon Valley. Et dans quels locaux ce bureau est-il donc situé ? Et bien dans le consulat d'Irlande. L'Irlande est le pays européen favori des GAFA et des entreprises américaines de technologie. Pourquoi ? Parce que ces entreprises domicilient leurs filiales européennes en Irlande pour bénéficier d'un niveau de taxe faible. Comment ? Et bien via la fameuse technique de la doublette irlandaise. C'est à dire une stratégie d'évitement fiscal utilisé par certaines sociétés multinationales pour réduire leur impôt sur les sociétés. Dès la fin des années 80, la structure d’imposition en doublette irlandaise a été mise en oeuvre par des sociétés comme Apple, qui a été une des premières à mettre en place le principe. Reste que l'objectif de ce nouveau bureau est de renforcer la diplomatie numérique de l'Union Européenne. Et cela est un défi de taille. Le bureau est dirigé par le néerlandais Gerard de Graaf, un fonctionnaire européen de premier plan qui a joué un rôle crucial dans la mise en oeuvre du Digital Markets Act et du Digital Services Act, dits DMA et DSA. Ces textes européens législatifs historiques, adoptés en juillet dernier, visent à limiter le pouvoir des grandes entreprises technologiques et à rendre l'internet plus sûr. Ils doivent entrer en vigueur en 2023. Il est donc compréhensible que l’une des principales tâches de ce nouveau bureau, inauguré le 1er septembre, soit de veiller à ce que les relations avec les géants américains de la technologie restent constructives plutôt que conflictuelles sur ce terrain. Ce rôle pourrait être crucial dans le cas du DMA. Car ce texte permet un dialogue réglementaire entre la Commission européenne et les grandes entreprises technologiques concernées, les fameux « contrôleurs d’accès », dits gatekeepers en anglais. Surtout que certaines des obligations du DMA touchent au modèle d’entreprise même des sociétés concernées. Gerard de Graaf donne sur ce point l’exemple des systèmes d’exploitation qui devront s’ouvrir à d’autres App Store que ceux de leurs éditeurs. Il faut donc travailler à ce que ces sociétés intègrent mieux les nouvelles contraintes juridiques européennes dans leur mode de fonctionnement. Cette inauguration fait suite à la visite il y a quelques semaines d'un groupe de députés européens aux États-Unis pour s'entretenir avec des entreprises technologiques telles que Google, Meta, Apple, Airbnb, eBay, PayPal ou encore Uber. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
15 Feb 2022 | Pourquoi et comment un pays a été privé d'internet à cause d'un tournoi Minecraft | 00:02:42 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Marine Louste et aujourd’hui, je vous expliquepourquoi et comment un pays entier a été privé d'internet à cause d'un tournoi de Minecraft qui a très mal tourné. Dans Minecraft comme dans Squid Game, tous les coups sont permis. Même les cyberattaques. Nous sommes en Andorre, la principauté coincée entre la France et l'Espagne, le samedi 22 janvier dernier. Les Squidcraft Games battent leur plein. Mais voici qu'une coupure internet tout à fait intentionnelle éjecte plusieurs joueurs de la compétition.
Inspiré par la série à succès Squid Game, ce tournoi en ligne se déroule dans l'univers du célèbre jeu Minecraft. Et comme dans la série Netflix, les épreuves suivent le mode Battle Royale. Non, rassurez-vous, il n'y a pas de morts. Mais toute élimination est définitive. Plus de 150 streamers s'affrontent pour une récompense finale de 100 000 dollars. L'événement dure six jours, et plus de deux millions de spectateurs le suivent sur Twitch. Et tous les coups sont permis entre joueurs, même les plus répréhensibles. Jugez plutôt : les flux DDoS dirigés contre Andorre ont atteint 10 Gigabits par seconde. Plus de trois millions de machines, situées dans plus de 50 pays différents, auraient été utilisées pour mettre hors service le réseau. Si l’attaque n’a pas été revendiquée, son timing semble indiquer que les compétiteurs andorrans étaient les cibles véritables de cette attaque. Le but ? Saturer l'internet du pays pour les éjecter de la compétition. Et ça a marché. Huit joueurs habitant dans la principauté sont immédiatement déconnectés, et de fait éliminés de la partie. Mais les participants ne seront pas les seules victimes de cette grosse cyberattaque. C'est toute la principauté qui se retrouve soit totalement privée d’internet, soit avec une connexion très ralentie. L'histoire ne dit pas si de rage les huit joueurs furieux ont ressorti les Lego du placard ! Mais c'est peut-être l'une des premières fois que le réseau internet d'un pays entier devient la victime collatérale d'un tournoi de eSport qui tourne mal. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
03 Mar 2022 | Hack back, la meilleure défense est-elle l’attaque ? | 00:02:58 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui, je vais vous parler du hack back. Le hack back est un terme anglophone qui recouvre un phénomène finalement assez simple, mais aux implications parfois complexes. Cela désigne le fait pour une organisation privée victime d’attaque informatique de répliquer à son tour avec une cyberattaque visant ses agresseurs. Un genre de légitime défense du cyber. Et si parfois la tentation est grande, la pratique est illégale à peu près partout. En France, l’Anssi s’est prononcée à plusieurs reprises contre l’idée, au nom du maintien de l’ordre dans le cyberespace. L’agence de cybersécurité française a déjà bien du mal avec les espions et les cybercriminels et ne se réjouit pas à l’idée de voir internet se transformer en Far West numérique. Seules les forces de l’ordre disposent d’exceptions légales leur permettant de s’infiltrer dans un système d’information à l’insu de son propriétaire. Et ces dispositions sont généralement très encadrées. La position est à peu près la même en Europe, mais aux Etats-Unis l’approche est un peu plus... nuancée. Les Américains sont moins fermés à l’idée d’autoriser la pratique et deux projets de loi, en 2017 et 2019, visaient à ouvrir la voie à cette possibilité. Pour l’instant, ils n’ont jamais été approuvés et le hack back reste donc illégal. Et c’est peut-être tant mieux ! De nombreux arguments plaident en défaveur du hack back. D’une part, l’attribution des attaques informatiques est difficile. On a déjà consacré un épisode du ZD Tech à la question, mais le risque de victimes collatérales d’un hack back mal maîtrisé est grand. D’autre part, rares sont les entreprises à disposer des capacités techniques permettant d’identifier l’auteur d’une attaque informatique, et plus rares encore sont celles qui seraient en capacité de répliquer face à une attaque. En face de ça, le bénéfice escompté du hack back reste maigre. On peut éventuellement envisager un hypothétique effet dissuasif pour les attaquants. Il y a peut-être la satisfaction de ne pas être resté passif face à l’agression. Mais c’est à peu près tout. Il y a pourtant une zone grise. Celle-ci touche à un secteur assez particulier, celui du renseignement sur les menaces. De nombreuses entreprises de cybersécurité se spécialisent aujourd’hui sur la collecte de renseignements concernant les attaquants et leurs pratiques. Et dans certains cas, les chercheurs en sécurité ne se privent pas d’infiltrer les serveurs des cybercriminels afin de récolter des informations. La pratique n’est pas légale, mais cela arrive de temps en temps : les cybercriminels ne portent pas plainte et les informations ainsi glanées peuvent permettre d’aider les forces de l’ordre à démanteler certains réseaux. Et tant qu’aucune victime collatérale n’est à déplorer, tout le monde laisse faire. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
31 Oct 2022 | Les cybercriminels, aussi, font leurs affaires dans le Metaverse | 00:02:45 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui je vous explique pourquoi le metaverse deviendra demain le théâtre d’activités cybercriminelles en tous genres. Le metaverse n’est pas encore une réalité, que déjà, beaucoup d’entreprises investissent dans ce que seront demain ces environnements immersifs, dans lesquels chacun pourra jouer, travailler et échanger à distance. Gartner prévoit que, d'ici 2027, 40 % des grandes entreprises utiliseront une combinaison d'outils de web3 et de la réalité augmentée dans des projets menés dans le métavers. Dans ces mondes peuplés d’avatars, les cybercriminels feront leurs affaires. Au fur et à mesure que le nombre d’utilisateurs du metaverse augmente et que la technologie se développe, la liste des crimes possibles ne fera que s’allonger. C’est en tout cas l’hypothèse d’Interpol, qui veut former ses policiers à patrouiller dans le metaverse. De quelles menaces potentielles parle-t-on exactement ? Et bien la liste est longue. Il peut s’agir de vol de données, de blanchiment d’argent, de fraude financière, de contrefaçon, de ransomware, de phishing voire de harcèlement. Les mêmes délits que l’on retrouve déjà sur la toile en somme, mais dans une forme beaucoup plus insidieuse car les échanges se déroulent en temps réel. A cette liste, on peut aussi ajouter d’autres formes d’attaques plus spécifiques au web3, qui ciblent notamment des communautés de joueurs, des portefeuilles de NFT ou encore des transactions illicites de terrains virtuels. En tout état de cause, il ne fait aucun doute pour les experts en sécurité que le dark web et son lot d’activités illégales feront demain faire leur apparition dans le metaverse. D’ailleurs, comme le suggère Trend Micro dans un récent rapport prospectif, les cybercriminels pourraient même être amenés à migrer des forums du dark web vers des recoins obscurs du metaverse.
Dans ce contexte, la modération des contenus est prise très au sérieux par Interpol. qui vient d’ouvrir son propre metavers. L’organisation internationale de coopération policière cherche à s’approprier ces nouveaux espaces virtuels afin de mieux comprendre l’évolution du crime en ligne. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur notre site internet. Et retrouvez tous les jours un nouvel épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
31 Jan 2025 | Projet Stargate, voici qui tire les marrons du feu | 00:02:58 | |
Revenons aujourd'hui sur le projet Stargate, cette co-entreprise d'IA annoncée la semaine dernière par Donald Trump. Ce projet est une coentreprise entre OpenAI, SoftBank, Oracle et le fonds souverain MGX d'Abou Dhabi. Son objectif est d'investir jusqu'à 500 milliards de dollars sur plusieurs années pour développer des centres de données dédiés à l'IA aux États-Unis. Mais cette initiative soulève de nombreuses questions, notamment sur son financement et son impact sur l'écosystème technologique. La transparence financière du projet en question Selon l'analyste Brad Zelnick de la Deutsche Bank, l'un des enjeux majeurs concerne la propriété de Stargate, sa structure financière et les sources de financement. Qui met quoi sur la table, et à hauteur de combien ? L'objectif affiché est d'investir massivement dans des centres de données pour soutenir le développement de l'IA, mais tout n'est pas encore très clair sur les modalités de financement. Un doute qui a fait réagir Elon Musk sur X, qui a simplement tweeté : "Ils n'ont pas l'argent". Réponse immédiate de Sam Altman, le patron d'OpenAI : "Faux, comme vous le savez certainement". Quel objectif pour les nouveaux centres de données Une question cruciale est de savoir quelle part de leur puissance sera consacrée à l'entraînement des modèles d'IA et quelle part servira à l'inférence, c'est-à-dire l'exploitation de ces IA. C'est une distinction clé, car l'entraînement nécessite des ressources massives, tandis que l'inférence génère plus directement du revenu. De plus, cela pourrait influencer la stratégie d'investissement de Microsoft dans OpenAI et redéfinir la part des bénéfices reversés à l'entreprise de Redmond. Une victoire stratégique pour Oracle Brad Zelnick souligne que cette coentreprise est une excellente nouvelle pour Oracle, qui renforce ainsi la position de son offre cloud, OCI, dans la course à l'IA face à des acteurs comme AWS et Google Cloud. En effet, plus on avance dans le développement de l'IA, plus les exigences de performance et d'échelle deviennent complexes. Oracle s'affirme donc comme un acteur incontournable dans cette évolution. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
07 Mar 2022 | Logiciel open source / logiciel propriétaire : qui est le mieux sécurisé ? | 00:02:54 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet.fr. Je m’appelle Guillaume Serries et aujourd’hui je vous explique qui des logiciels open source ou des logiciels propriétaires sont les mieux sécurisés. C'est un débat aussi ancien que l'Internet. Les logiciels open source sont-ils aussi sûr que les logiciels propriétaires ? 89 % des responsables informatiques pensent que les logiciels libres sont aussi sûrs que les logiciels propriétaires, selon une enquête menée par Red Hat, une société appartenant à IBM, et qui édite la distribution Linux Red Hat Enterprise Linux. Et pour quelle raison ? Et bien parce que ces responsables informatiques jugent qu'ils sont arrivés à maturité. Oui, je suis d'accord avec vous, cela demande d'aller un peu plus dans les détails. Selon les partisans des logiciels open source, ces logiciels sont plus sécurisés que les logiciels propriétaires car un plus grand nombre de personnes vérifient le code source. Un code source qui est disponible publiquement. De quoi entraîner des corrections plus rapides. "Le problème c'est qu'il n'y a parfois pas beaucoup d'yeux" pour regarder le code, note toutefois un expert de RedHat, qui appuie là où ça fait mal. "Ces yeux sont parfois peu qualifiés, et n'ont pas de processus rigoureux" poursuit-il. Mais ce n'est pas la raison première pour laquelle les responsables informatiques font confiance aux logiciels open source. De même, la possibilité d'auditer le code de ces logiciels n'est pas la raison principale de la préférence pour l'open source selon l'étude. "L'open source d'entreprise est de plus en plus considéré comme ayant les mêmes avantages que les logiciels propriétaires, tout en offrant en plus la flexibilité des licences open source et du modèle de développement open source" assure RedHat. A contrario, les logiciels propriétaires fonctionnent sur un modèle de "sécurité par l'obscurité". C'est à dire que les bases de code ne peuvent être vérifiées, et corrigées, que par les employés de la société. Mais aujourd'hui, le débat porte davantage sur le financement des projets de logiciels libres. La question de leur sécurité est en jeu de manière cruciale. La découverte récente de la faille Log4Shell montre bien que l'utilisation des briques open source dans la chaîne d'approvisionnement de logiciels très utilisés pose, selon les autorités américaines, un "problème de sécurité nationale". Aujourd'hui, les projets de logiciels open source ont besoin de plus de financement pour trouver et corriger les bugs. Car oui, cela coûte du temps et de l'argent. Et le volontariat originel des développeurs semble atteindre ses limites. Et ce alors même que la plupart de l'infrastructure Internet mondiale repose encore sur ces projets basés sur le volontariat. Mais ce temps semble révolu. Google par exemple contribue désormais au financement de projets open source pour améliorer les processus de correction des failles de sécurité. La Fondation Linux, qui est soutenue par Microsoft, Intel, Oracle ou encore Facebook, travaille également sur ce sujet capital. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
09 Mar 2022 | Attention ! La ruée vers le cloud dépasse la capacité d'adaptation de la DSI | 00:02:56 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet.fr. Je m’appelle Guillaume Serries et aujourd’hui je vous explique pourquoi la ruée vers le cloud dépasse la capacité d'adaptation de la DSI. Rien ne semble freiner désormais la course effrénée des entreprises vers le cloud computing. Rien ? Sauf peut-être les maux de tête de la DSI et des directions métiers quand il s'agit de migrer vers le cloud. Et de le faire fonctionner. Oui, la ruée vers le "cloud" risque bien de devancer la capacité des organisations à suivre le rythme. C'est ce qui ressort en tout cas d'une récente enquête menée auprès de 300 responsables informatiques par la Harvard Business Review. L'enjeu est de taille. A l'heure actuelle, la plupart des entreprises possèdent encore la majorité de leurs systèmes informatique en interne, c'est à dire sous la forme de serveurs stockés dans des salles informatiques, dites aussi datacenter. Mais le tsunami du cloud computing, c'est à dire la migration de ces serveurs vers des acteurs externes, et spécialisés, arrive. D'ici deux ans, la plupart des entreprises fonctionneront principalement à partir du cloud prédit l'enquête. Un chiffre pour éclairer la tendance : 65 % des DSI prévoient que plus de 60 % de leur portefeuille informatique résidera dans le cloud d'ici deux ans. Reste que ce phénomène massif ne doit pas cacher une réalité qui demeure. Oui, personne ne va tout mettre dans le cloud. Le monde qui se dessine est un monde hybride. "La plupart des personnes interrogées utilisent le cloud en plus de leurs systèmes sur site" assurent les auteurs de l'étude. "Et ils prévoient de maintenir une telle infrastructure hybride dans un avenir proche". Et c'est là, précisement, que ça se gâte. Car la la gestion des environnements hybrides est particulièrement complexe. Mais le rush vers le cloud pose surtout la question de la pénurie des compétences. Recruter la bonne équipe pour gérer les environnements hybrides est devenue le problème numéro un de la DSI. Déjà plus de 60 % des responsables informatiques déclarent avoir des difficultés à suivre l'évolution rapide des rôles et responsabilités technologiques nécessaires pour l'adoption du cloud. Les auteurs de l'étude conseillent de ne pas se reposer dans ce contexte sur la solution de facilité de l'externalisation. Surtout auprès des fournisseurs de services de cloud. Pourquoi ? C'est très simple. L'enquête révèle que seuls 21 % des responsables informatiques disent que leurs fournisseurs de cloud fournissent tous les outils et processus nécessaires pour gérer et optimiser leurs environnements de cloud computing. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
06 Mar 2025 | Voici comment Mickey s'est fait piquer vos données | 00:03:16 | |
Voici une véritable mésaventure arrivée à un ingénieur de chez Disney. Il s'est retrouvé bien malgré lui au cœur d’une cyberattaque. Mais surtout, quel rôle son gestionnaire de mots de passe a-t-il joué dans cette affaire ? Voici ce que l'on peut dire de cette rocambolesque et dramatique histoire. Une petite erreur qui au final a coûté très très cher Tout a commencé en février 2024. Matthew Van Andel, un ingénieur logiciel de Disney, télécharge un outil d’IA gratuit sur son ordinateur personnel. Problème : ce programme cache un malware qui permet à des pirates d’accéder à toutes ses données pendant plusieurs mois. Résultat, ils mettent la main sur ses identifiants stockés dans 1Password, son gestionnaire de mots de passe. Mais ils consultent également des fichiers de session qui leur donnent un accès direct aux outils internes de l'employeur de Matthew Van Andel, c'est-à dire la Walt Disney Company. Une très importante fuite de données L’ampleur des dégâts est en effet impressionnante. Les pirates ont publié en ligne un téraoctet de messages internes en provenance de Disney. Des messages qui contiennent des informations sensibles comme des numéros de passeport, des données financières et des échanges confidentiels. Pire encore, ils ont rendu publiques les données personnelles de l'ingénieur dont l'ordinateur a été piraté. Et comme si cela ne suffisait pas, l'ingénieur à perdu son emploi. Alors quand vos données d'identification sont stockées dans un gestionnaire de mot de passe, sont-elles vraiment en sécurité ? Dans cette histoire, le gestionnaire de mot de passe 1Password n’a pas été piraté en tant que tel. Mais comme le logiciel malveillant des pirates avait un accès total au PC de la victime, les attaquants ont tout de même pu récupérer les informations. C’est un rappel de prudence essentiel. Un gestionnaire de mots de passe est un excellent outil de sécurité, mais il doit être protégé par une authentification forte, et surtout, il ne remplace pas une bonne hygiène numérique. Comment éviter un tel scénario catastrophe D’abord, ne téléchargez jamais de logiciels inconnus, surtout sur un appareil qui stocke des données sensibles. Ensuite, activez toujours l’authentification à deux facteurs, idéalement avec un appareil séparé ou une clé physique. Et enfin, ne sous-estimez pas les règles de sécurité mises en place par votre entreprise. Elles existent pour éviter ce genre de catastrophe. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
25 May 2022 | Oubliez la voiture autonome, le vaisseau spatial autonome débarque ! | 00:02:56 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vous explique pourquoi les vaisseaux spatiaux autonomes débarquent à bord de l'ISS, la station spatiale internationale. Grosse actu la semaine dernière, où l'on apprenait via une kyrielle d'articles que Uber Eats passait à la livraison autonome dans la bonne ville de Los Angeles. Et petite actu, en tout cas en matière de nombre d'articles, la station spatiale internationale était ravitaillée pour la première fois par un module autonome. Oui, un vaisseau spatial autonome qui ravitaille l'ISS avec 400 kilos de fret. Son doux nom est Starliner, et son concepteur est tout simplement le géant de l'aéronautique Boeing. Vendredi soir dernier donc, le vaisseau spatial CST-100 Starliner, dépourvu de tout équipage, s'est amarré presque tout seul à la station spatiale internationale. Le vaisseau Starliner avait quitté la Terre quelques heures plus tôt, propulsé par une fusée Atlas V tirée depuis Cap Canaveral, en Floride. Mais pas question de laisser Starliner se planter tout seul, surtout dans cette mission qui reste un test. Starliner a donc avant tout effectué une série de démonstrations de systèmes afin de vérifier que le vaisseau spatial était "sain" et pouvait manœuvrer en toute sécurité. Puis les contrôleurs au sol à Houston, au Texas, ont utilisé les systèmes autonomes du Starliner pour guider le vaisseau spatial sur l'orbite. Et dans la station spatiale, les astronautes surveillaient scrupuleusement le module, prêts à prendre son contrôle en cas de souci. Mais il s'avère que tout s'est bien passé. Pour le dire clairement, Starliner s'est amarré tout seul. Le système d'amarrage utilisé par Starliner est le même que celui de la capsule Crew Dragon de SpaceX. Il permet le transfert d'énergie, de données, de commandes, d'air, de communications et potentiellement d'eau, d'oxygène et de gaz pressurisant. La réussite de cette manœuvre n'était pas écrite. Le vol automatisé de Starliner vers ISS est l'aboutissement de huit années de travail. Il s'agit du second vol sans équipage du Starliner. Le premier vol avait été effectué en 2019, mais le vaisseau spatial avait dû revenir sur Terre avant de s'amarrer à la station spatiale en raison de problèmes de logiciel. Cet essai en vol a surtout permis de recueillir des données pour certifier le vaisseau spatial pour des missions avec équipage. Car oui, Starliner peut transporter jusqu'à quatre membres d'équipage. En clair, les passagers n'auront pas à piloter le module. Sinon, Starliner doit revenir sur Terre cette semaine. Tout seul comme un grand. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
27 Oct 2022 | Pourquoi les résultats de Google et Microsoft sont plombés ? | 00:02:58 | |
Bonjour à tous et bienvenue sur le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je suis Guillaume Serries et aujourd'hui je vous explique pourquoi les résultats trimestriels de Google et Microsoft sont plombés. Oui, la croissance du chiffre d'affaires de Microsoft ralentit. Il n'est en croissance que de ... 11%. Reste que les activités de cloud computing de la société, Microsoft Azure, aident à compenser le déclin de Windows. Le chiffre d'affaires de Microsoft Cloud a atteint 25,7 milliards de dollars au cours du trimestre, en hausse de 24 % par rapport à l'année précédente. C'est plus de la moitié du chiffre d'affaires total de la société, qui est en baisse par rapport à la croissance de 36 % enregistrée au trimestre précédent. Alors, pourquoi ce ralentissement après des années fastes marquées par le retournement vers le télétravail ? Et bien oui, le marché des PC est en déclin à présent. Les revenus de Windows sont en déclin de 15 %. Mais surtout, c'est l'appréciation récente du dollar américain qui nuisent à l'export dans les résultats du groupe. A noter aussi une baisse des dépenses publicitaires qui touche LinkedIn, le réseau social pour les pros racheté il y a quelques années par Microsoft. Et le marché de la pub qui vacille touche aussi bien évidemment Google et sa maison mère, Alphabet. Alphabet a ainsi réalisé cet été la plus faible croissance de son chiffre d’affaires depuis 2013, hormis le début de la pandémie. Le groupe californien a publié mardi un chiffre d’affaires trimestriel tout de même en hausse de 6 % sur un an. Mais ce résultat est largement inférieur aux attentes. Certes, l'activité Google Cloud est toujours en forme, à l'instar d'Azure pour Microsoft. Mais dans le détail, les revenus publicitaires de YouTube ont baissé de 2 % à 7 milliards de dollars, une première dans l'histoire de la plateforme vidéo. Alors oui le marché de la pub est certes en contraction, mais il faut dire que la concurrence est rude. La concurrence du streaming et des formats de vidéos courtes, sur des applications comme TikTok par exemple, fait souffrir YouTube. Le relais de croissance de Google, de façon assez inattendue, pourrait provenir de sa gamme de smartphones Pixel. De juillet 2021 à juin 2022, la progression des livraisons de ces téléphones mobiles made in Google est de... 129 % sur un an, selon les chiffres du cabinet Canalys. Mais le cœur de l’activité de Google reste la publicité finement ciblée à très grande échelle. Et les perspectives en ce domaine ne sont pas folichonnes. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
13 Jun 2022 | Pi : nouveau record de calcul pour Google | 00:03:07 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vous explique comment Google vient d'établir le nouveau record du calcul du nombre Pi. 3,141592, et la suite... Combien de temps faut-il pour calculer 100 trillions de chiffres derrière la virgule du nombre Pi ? Demandez à Google. Emma Haruka Iwao, employée par Google Cloud, la filiale cloud computing de Google, a établi un nouveau record mondial pour le calcul du plus grand nombre de chiffres de Pi. Il s'agissait bien évidemment au delà du record de démontrer la puissance des systèmes de calcul en mode cloud de Google. Depuis 4000 ans, mathématiciens et scientifiques s'efforcent de calculer les chiffres de Pi. Une des plus anciennes approximations de Pi se trouve sur un papyrus égyptien. En moins 1800 avant notre ère, son auteur était parvenu à calculer deux décimales après la virgule, c'est à dire 3,15. Au 14ème siècle, l'astronome perse de Samarkand Jemshid al Kashi utilise la fameuse méthode d'Archimède pour calculer une valeur approchée à 14 décimales exactes. Et cela devrait durer éternellement puisque Pi est un nombre irrationnel, c'est à dire qu'il s'écrit avec un nombre infini de décimales sans suite logique. Mais à ce jour, nous connaissons désormais au moins les 100 premiers trillions de chiffres de Pi, et ce grâce à ce projet de Google. Google ne précise pas dans le détail la puissance de calcul nécessaire pour établir ce nouveau record. Mais le calcul a pris un peu moins de 158 jours. Au delà de la puissance informatique, Google vante avec cette expérience la fiabilité de ses produits. De fait, le programme a fonctionné pendant plus de cinq mois sans défaillance de nœud et a traité correctement chaque bit des 82 Petaoctet d'entrée et sortie de disque. Google a utilisé l'outil open-source Terraform pour tester différentes options d'infrastructure et choisir les paramètres optimaux. Et le code utilisé pour calculer les 100 000 milliards de chiffres est disponible sur GitHub. Si vous avez le temps, la séquence complète des chiffres calculés par Google est disponible en ligne. Ce nouveau record bat celui établi en 2021 par des scientifiques suisses, qui étaient parvenu à calculer la constante mathématique à 62,8 trillions de décimales. En 2019, l'antépénultième record était de 31,4 trillions de chiffres, et le calcul avait pris 121 jours. Donc le calcul de Google a pris deux fois moins de temps. Pour finir sachez que la 100 trillionième décimale de pi est 0. Merci Google. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
10 Feb 2025 | E-commerce chinois, comment l'Europe veut sévir | 00:03:09 | |
Aujourd'hui, nous allons parler de décisions importantes prises en Europe, et qui vont toucher le commerce électronique en provenance de Chine. La Commission européenne veut donc mieux contrôler ces flux en provenance d'Asie. L'Europe annonce le renforcement des contrôles douaniers Concrètement, cela signifie que les autorités vont multiplier les vérifications aux frontières de l'Europe. Elles chercheront à repérer non seulement des produits défectueux ou contrefaits, mais également tout ce qui ne respecte pas les règles commerciales en vigueur dans l’Union Européenne. Bref, c'est un peu comme quand on vérifie la validité d’un billet à l’entrée d’un concert. Dans ce cas précis, le but est de s’assurer que les produits qui arrivent sur le marché européen respectent les normes de qualité et de sécurité en vigueur. Une nouvelle taxe ! Et le financement du renforcement de ces contrôles passera, je vous le donne en mille, par la mise en place d'une nouvelle taxe. Oui, pour aider les douanes à faire leur travail, la Commission propose d’introduire une nouvelle taxe sur ces importations. Elle doit toucher des plateformes de commerce électronique bien connues comme AliExpress, Shein ou encore Temu. Prenons l’exemple de Shein. Cette plateforme connaît un succès fou en Europe et en France en vendant des vêtements à moins de 10 euros. Avec l’arrivée de cette taxe, les autorités espèrent non seulement mieux surveiller ces échanges, mais aussi créer un environnement commercial plus équitable pour tous les acteurs du marché. Car ces décisions européennes doivent avoir un impact sur le marché du commerce électronique. Les chiffres ne mentent pas. L'année dernière, environ 4,6 milliards d’articles d’une valeur inférieure à 22 euros ont été importés directement en Europe. Et 91 % de ces colis venaient de Chine. Ce volume colossal pose des défis en termes de sécurité, de respect des règles et d’équité pour les commerçants européens. Reprendre les discussions sur la réforme douanière Pour répondre à ces enjeux, la Commission veut aussi accélérer les discussions sur une réforme douanière, qui traînent depuis 2023. L'objectif de cette réforme est de supprimer une exonération fiscale qui existe depuis longtemps sur les colis de faible valeur. Ce changement pourrait rapporter un milliard d’euros par an aux douanes. Par ailleurs, des enquêtes sont déjà en cours, notamment contre Shein et Temu, suspectés de ne pas respecter les normes européennes. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
05 May 2022 | Pourquoi les ventes de NFT s'effondrent | 00:03:04 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet.fr. Je m’appelle Guillaume Serries et aujourd’hui je vous explique pourquoi les ventes de NFT s'effondrent. Le volume de vente de jetons non fongibles, ou NFT pour Non Fungible Token en anglais, est tombée à une moyenne quotidienne d'environ 19 000 cette semaine. Soit une baisse de 92 % par rapport à un son plus haut pic de septembre 2021, où environ 225 000 NFT étaient alors échangés. C'est un papier du Wall Street Journal qui lève le voile ce qui s'apparente désormais à une gigantesque pyramide de Ponzi. Bref, une arnaque. En parallèle de ce volume des ventes qui plongent, le nombre de portefeuilles actifs sur le marché des NFT a chuté de 88 %. On en dénombre désormais 14 000, alors qu'ils étaient 119 000 en novembre dernier. Pour expliquer le phénomène, le quotidien économique mentionne que “la hausse des taux d’intérêt a porté un coup aux paris risqués sur tous les marchés financiers – et les NFT figurent parmi les actifs les plus spéculatifs”. Et d’ajouter : “Le déséquilibre entre l’offre et la demande est aussi préjudiciable au marché du NFT. Il existe environ cinq NFT pour chaque acheteur.” Pourtant l'idée même du NFT pouvait paraître séduisante. Les NFT sont des jetons numériques qui sont utilisés comme certificat de propriété, et ils sont créés et administrés sur des technologies de type blockchain. La conséquence directe de ce ralentissement de l'activité d'échange de NFT est bien sûr une baisse de leur valeur nominale. Concrètement, de nombreux propriétaires de NFT constatent à présent que leurs investissements valent désormais beaucoup moins que lorsqu'ils les ont acheté. L'exemple le plus parlant de ce phénomène est certainement le NFT du premier tweet de Jack Dorsey, le cofondateur de Twitter Inc, qui avait été vendu en mars 2021 pour 2,9 millions de dollars. Le propriétaire l'a mis aux enchères en début d'année. Il n'a alors pas reçu d'offres supérieures à 14 000 dollars. Et il s'est donc résolu à conserver son bien. Pour se consoler, et tenter de conserver la confiance des investisseurs sur ce nouveau marché bien nébuleux, le propriétaire, par ailleurs possesseur d'une blockchain, a déclaré que cet échec n'était pas un signe que le marché du NFT se détériore. Rien de plus qu'une fluctuation normale selon lui, qui peut se produire sur n'importe quel marché. "Je ne regretterai jamais de l'avoir acheté, car ce NFT est mon capital", assure t-il encore aujourd'hui. Et bien sûr, d'autres partisans des NFT remettent en question les chiffres du Wall Street Journal. Ils questionnent surtout le nombre d'utilisateurs et de transactions NFT, qui selon d'autres sources seraient beaucoup plus élevé. Et ils parient sur l'innovation, affirmant que toute une série de nouveaux NFT sont en train de décoller. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
19 Oct 2021 | Failles zéro day : si spéciales... et précieuses | 00:02:30 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast de la redaction de Zdnet. Moi je m’appelle Louis Adam et aujourd’hui je vais vous expliquer pourquoi les failles zéro day sont si spéciales, et précieuses, en matière de sécurité informatique. Ces failles d’un genre un peu special sont le cauchemar des editeurs et des constructeurs comme Apple, mais aussi de leurs utilisateurs./ Et elles se monnayent parfois pour des millions d’euros, au profit de services de renseignements et de cybercriminels qui souhaitent les utiliser. Mais pour comprendre ce qu’est une faille zero day, il faut déjà comprendre ce qu’est une faille tout court./ Il s’agit d’un bug dans un programme informatique, une erreur qui va pousser l’ordinateur ou l’appareil à se comporter d’une façon inattendue./ Ces failles peuvent être utilisées pour prendre le contrôle de l’appareil, voler des informations secretes comme les mots de passe et d’autres choses du même genre. Quand ces failles sont decouvertes, l’editeur publie une mise à jour de son logiciel. Ces mises à jours visent à reparer l’erreur et rendre la faille inutilisable. L’utilisateur doit donc télécharger et appliquer les dernieres mises à jours fournies par les editeurs de ses logiciels pour se proteger. / C’est plus facile à dire qu’à faire : les attaquants profitent souvent de failles connues et corrigées, mais que les utilisateurs n’ont pas eu le temps de patcher. Mais alors qu’est ce qu’une faille zero day a de plus qu’une faille normale ? Une faille zero day, c’est précisement une faille inconnue de l’editeur du logiciel. Comme le createur du programme n’est pas au courant de son existence, il n’existe aucune mise à jour pour corriger le probleme. Et l’utilisateur final ne peut donc rien faire pour se proteger. Pour pirater votre telephone ou votre ordinateur, les failles zero day sont donc la methode revée.C’est la raison pour laquelle les informations sur ces failles sont vendues à des prix parfois delirants : jusqu’à 2 millions de dollars pour une faille Zero day sur un iphone par exemple. Face à cela, les editeurs eux même proposent de payer les chercheurs en sécurité qui leur signalent des vulnérabilités, afin de pouvoir les corriger. Malheureusement, les montants offerts par ces programmes de récompenses peinent bien souvent à s’aligner sur les prix pratiqués par les courtiers en faille zeroday. Pour un chercheur ayant découvert une vulnérabilité de ce type, la tentation est donc grande d’aller la revendre à un courtier qui l’utilisera pour contournr les protections d’un systeme. Ce genre de prix reserve l’utilisation de ces failles à des organisations soutenues par des gouvernement, commes les services de renseignement ou de police. /Ils s’en servent officiellement pour pirater les appareils des suspects dans le cadre de leurs enquetes. Mais parfois, des cybercriminels peuvent egalement mettre la main dessus, et en profiter pour faire beaucoup de degats. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur zdnet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes d'écoute de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
07 Feb 2025 | Ce qui est crucial dans l'IA open source ce sont les poids ! | 00:03:01 | |
Aujourd’hui, on parle de l’Open Weight Definition, une initiative qui veut clarifier ce que signifie vraiment une IA open source. Vous avez peut-être entendu parler des efforts pour définir l’IA open source, mais des désaccords persistent. C’est pourquoi l’Open Source Alliance propose sa propre vision à travers ce nouveau framework. Alors, en quoi consiste cette Open Weight Definition ? Voici trois points clés à retenir. Accessibilité des poids des modèles Premièrement, elle met l’accent sur l’accessibilité des poids des modèles. Pour rappel, les poids sont ces valeurs numériques cruciales qui définissent comment un modèle d’IA fonctionne après son entraînement. L’OWD, c'est à dire l'Open Weight Definition, veut garantir que ces poids soient accessibles aux chercheurs et aux développeurs. Transparence des données Deuxièmement, elle introduit une notion de transparence des données. Pas besoin de rendre publics tous les jeux de données d’entraînement, mais il faut au moins documenter leur origine et les méthodes de collecte. Cette exigence vise à renforcer la confiance sans forcément exposer des données sensibles. Transparence de l’architecture Troisièmement, la transparence de l’architecture. L’idée est de permettre aux experts d’analyser, modifier et améliorer les modèles sans devoir partir de zéro. Mais cette définition a aussi une dimension politique. L’Open Source Alliance cherche à s’imposer face à une autre organisation, nommée Open Source Initiative, en proposant une sorte d’"Open Source 2.0". C'est à dire une nouvelle version de la définition traditionnelle de l’open source pour mieux englober les spécificités de l’IA. Enfin quand je dis définition traditionnelle, il faut relativiser. Car la première version de l'IA open source date d'il y a à peine... trois mois. Reste que certains experts, comme l’avocate Heather Meeker, soulignent que les poids des modèles d’IA ne sont pas du code source. Et que donc ils ne peuvent pas être traités de la même manière. D’où son idée d’une licence spécifique, l’Open Weights Permissive License, pour encadrer leur usage. En clair, l’Open Weight Definition est une tentative de normalisation qui reflète les défis uniques de l’IA. Mais dans un marché dominé par quelques grands acteurs et des réglementations encore floues, reste à voir si cette initiative prendra vraiment racine. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
17 Jun 2022 | Cyberattaques : sortez couvert ! | 00:03:10 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Marine Louste et aujourd'hui, je vous explique comment vous protéger des cyberattaques, chez vous comme au bureau. Ransomware, phishing, attaque sur la supply chain... vous n'êtes pas familier avec ces termes ? Pourtant, ils peuvent mettre un coup d’arrêt à votre activité. Même si vous êtes une petite entreprise. Alors oui, les cyberattaques qui font la Une des journaux ciblent souvent de grosses organisations. Mais être une PME, ou même une TPE, ne vous protège pas des cybercriminels. D'une part, parce qu'il est souvent plus facile d'attaquer une petite entreprise, qui n'a pas toujours de personnel dédié à sa cybersécurité. D'autre part, parce que la petite entreprise peut parfois permettre d'accéder à la grosse... Mais pas de panique ! La plupart des cyberattaques peuvent être évitées avec des astuces simples. Voici donc quelques conseils pour bâtir un cyber-rempart. Pour commencer, oubliez les mots de passe simples. 123456, le nom de votre chat, ou "password" sont à bannir, car trop facile à deviner. Une autre règle, c'est : un mot de passe pour un compte. Ainsi, vous limitez la casse si vous avez un compte compromis. Et si vous avez peur de ne pas retenir tous vos mots de passe (on vous comprend !) les gestionnaires de mots de passe sont là pour vous faciliter la vie. Ensuite, activez l’authentification multifactorielle sur tous vos comptes. Peu utilisée, elle permet pourtant de limiter les risques. Car même si un attaquant arrive à deviner votre mot de passe, il ne pourra pas accéder à votre compte sans votre accord. Parlons maintenant des mises à jour de sécurité. On a tous un jour procrastiné pour les installer. Pourtant, il faut les appliquer dès qu'elles sont disponibles. Je vous explique : lorsqu'un correctif est publié, le problème qu'il corrige est révélé. Les cybercriminels s'engouffrent alors dans la faille pour l'exploiter. Si vous patchez, vous êtes protégés ! Passons aux conseils spécifiques aux entreprises maintenant. Tout d'abord, formez vos employés à avoir les bons réflexes. Par exemple, apprenez-leur à reconnaître un e-mail de phishing ou une pièce jointe suspecte. Mais surtout, expliquez-leur la marche à suivre et qui contacter en cas de suspicion d'attaque. Ensuite, pensez à sauvegarder vos données ! Prévoyez des sauvegardes régulières, stockez-les hors ligne et testez-les. Cela vous permettra, si votre réseau est compromis,de reprendre du service rapidement. Pour finir, préparez-vous au pire et essayez d'avoir un plan clair pour réagir face à une attaque. Comme ça, si malgré tout cela des cyberattaquants passent votre bouclier, vous pourrez agir avec calme et sang-froid. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
26 Oct 2022 | Le démarchage abusif, bientôt de l'histoire ancienne ? | 00:03:07 | |
Bonjour à tous et bienvenue sur le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je suis Pierre et aujourd'hui je vous invite à vous pencher avec moi sur la stratégie que comptent déployer les autorités pour mettre fin au démarchage abusif sur nos numéros de téléphone portable. Vous avez certainement tous été aussi victimes au moins une fois de ce type d'appel. Oui vous savez, ceux qui vous proposent des offres pour rénover votre toiture, pour isoler votre logement ou encore pour vous former en vous appuyant sur votre compte formation. Que vous ayez ou non une maison, que vous soyez actif ou retraité, ce type de démarchages téléphoniques intempestifs ne vous laissent certainement pas insensibles. D'autant que le phénomène a tendance à s'aggraver et fait aujourd'hui figure de nuisance bien connue de tout un chacun. Alors que les autorités ont des difficultés à endiguer le phénomène, la parade la plus évidente pour nombre d'entre nous est de faire la sourde oreille, au risque de passer à côté d'un appel important. Selon des chiffres livrés par l'Insee en début d'année, 2 % des possesseurs de téléphone portable indiquent ne jamais prendre un appel, tandis que 30 % d'entre eux filtrent systématiquement leurs appels. La situation est encore pire sur nos téléphones fixes : imaginez donc, 17 % des possesseurs d'un poste fixe indiquent ne jamais décrocher aux appels, tandis que 26 % d'entre eux ne répondent que lorsqu’ils connaissent le numéro appelant. Pour mettre fin à une situation intolérable à de nombreux points de vue, l'Arcep vient toutefois de frapper un grand coup. Le gendarme des télécoms s'est ainsi saisi du sujet en privant tout simplement les entreprises de la possibilité d'utiliser des numéros de téléphone commençants par 06 et 07 à compter du 1er janvier 2023. Une mesure que l'Autorité justifie par sa volonté de « limiter les nuisances dont sont victimes les utilisateurs finaux recevant des appels ou messages non sollicités », mais aussi d'éviter tout « risque de pénurie de numéros à 10 chiffres ». Reste maintenant à voir si cela suffira à mettre un terme aux démarchages abusifs. Pour rappel, les autorités n'en sont pas à leur coup d'essai dans le domaine et différentes entreprises ont déjà connu un retour de bâton en la matière. C'est le cas notamment de TotalEnergies, qui s'est vu infliger en juin dernier une amende d'un million d'euros, entre autres pour ses méthodes de démarchages téléphoniques ne permettant pas de respecter le droit d’accès aux données et le droit d’opposition. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
10 Mar 2025 | Prix Turing 2025, les pionniers de l’apprentissage par renforcement récompensés ! | 00:03:00 | |
Aujourd’hui, on parle des lauréats du prix Turing 2025, la plus haute distinction en informatique. Il vient d'être décerné à deux chercheurs pionniers de l’intelligence artificielle. Il s'agit de Andrew Barto et Richard Sutton. Mais alors, quelle est leur contribution au monde de l'informatique ? Il s'agit d'une technique dite d'apprentissage par renforcement. C'est cette une approche clé qui a permis à des IA comme AlphaZero et AlphaStar d’exceller dans des jeux complexes, comme les échecs. Mais avant d'aller plus loin, penchons nous sur ce qu'est l’apprentissage par renforcement. Qu'est ce que l'apprentissage par renforcement ? Imaginez une souris dans un labyrinthe. À chaque décision, à chaque direction qu'elle prend, elle peut être récompensée ou non en fonction de son avancée vers la sortie. Et bien l'apprentissage que peut effectuer un ordinateur fonctionne de la même manière. Il explore différentes options, apprend de ses erreurs et ajuste sa stratégie pour maximiser ses gains. Et cette méthode est devenue essentielle pour entraîner des systèmes intelligents, oui tout le monde dit intelligence artificielle désormais. Et elles sont à présent capables de prendre des décisions autonomes. Echecs, go et shogi comme terrains d'entraînement Concrètement, l'apprentissage par renforcement est devenue une technique clé pour réaliser les promesses de l’IA moderne. C’est cette approche qui a permis à AlphaZero, le programme de Google DeepMind, d’apprendre à jouer aux échecs, au go ou encore au shogi, qui est un jeu de société traditionnel japonais. Et le tout sans connaissance préalable. L'IA s'est en effet entraînée contre elle même sur ces trois jeux, jusqu'à devenir experte en la matière. De la même manière mais cette fois dans le domaine des jeux vidéos, le programme AlphaStar a atteint un niveau de "grand maître" dans le jeu Starcraft 2. La première véritable théorie computationnelle de l’intelligence Mais évidemment, la puissance de l'apprentissage par renforcement à désormais un impact bien au-delà des jeux. Richard Sutton et Andrew Barto affirment que leur vision de l’apprentissage par renforcement repose sur une idée plus profonde. Ils expliquent que l'apprentissage par renforcement pourrait être la première véritable théorie computationnelle de l’intelligence. Mais au-delà des algorithmes, ils insistent sur l’importance du jeu et de la curiosité comme moteurs fondamentaux de l’apprentissage, et ce aussi bien pour les humains que pour les machines. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
18 Oct 2024 | Des réponses pour les professionnels face à la calamité des appels fantômes | 00:02:39 | |
Ce phénomène peut sembler anodin mais peut poser de sérieux problèmes aux entreprises et aux professionnels. Surtout, des solutions existent pour régler ce problème. C'est quoi un appel fantôme exactement ? Nous avons tous connu cette situation. Vous répondez à votre téléphone et il n’y a personne à l’autre bout. Ou bien, un numéro inconnu s’affiche, mais quand vous décrochez, c’est le silence total. Si cela vous arrive de temps en temps, rien de grave. Il peut s'agit par exemple d'un appel de poche, un pocket call en anglais. Cela signifie que votre interlocuteur appuie sur son téléphone de manière malencontreuse. Et que le téléphone vous appelle. Et bien sûr personne n'est là quand vous décrochez. Mais quand ces appels se répètent sans arrêt, c'est là que les problèmes commencent pour les profesionnels. Encombrement complet des lignes téléphoniques des professionnels Car les appels fantômes peuvent provoquer un encombrement complet des lignes téléphoniques. Imaginez par exemple une entreprise qui reçoit plusieurs de ces appels chaque jour. Ça perturbe non seulement le service client, mais cela peut aussi entraîner des pertes de revenus si des appels légitimes ne parviennent plus à passer. Par ailleurs, les interruptions régulières causées par les appels fantômes peuvent engendrer frustration et anxiété de la part de vos propres employés. De quoi jouer sur leur moral. Attaque par balayage de port Second point, derrière ces appels fantômes, il peut y avoir des intentions très malveillantes. Les cybercriminels utilisent parfois des techniques comme le balayage de ports ou le "war dialing" pour tester les vulnérabilités des systèmes téléphoniques. Dans ce cas, les appels fantômes ne sont pas juste un désagrément. Ils doivent devenir un véritable signal d'alerte pour une entreprise. Mettre en place des pare-feux et des outils de filtrage des appels Enfin, troisième point, des solutions existent pour contrer ces appels fantômes. Par exemple, les systèmes VoIP doivent être régulièrement mis à jour et configurés correctement pour éviter les attaques. Et des pare-feux et des outils de filtrage des appels peuvent aussi être mis en place pour limiter l'impact de ces nuisances et améliorer la sécurité. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
29 Sep 2022 | Les fabricants de chargeurs fondent pour la technologie GAN | 00:02:39 | |
Bonjour à tous et bienvenue sur le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je suis Pierre et aujourd’hui, je vais vous expliquer pourquoi les fabricants de chargeurs USB vantent une nouvelle technologie connue sous l’acronyme GAN. Vos tiroirs débordent très certainement de nombreux chargeurs USB. Si ces derniers accusent quelques années, alors ils seront très certainement équipés de transistors en silicium. Seulement voilà, les fabricants de chargeurs USB vantent aujourd’hui une nouvelle technologie baptisée GaN et basées sur un autre matériau semi-conducteurs que le silicium, à savoir le nitrure de gallium. Plus compacts, mais aussi plus efficaces, ces nouveaux chargeurs sont équipés de transistors, des minuscules interrupteurs électroniques, capables de transporter plus de puissance, de commuter plus rapidement (environ 40 millions de fois par seconde, soit quatre fois plus vite que les transistors en silicium). Surtout, ces transistors disposent d’un rendement énergétique autrement que les traditionnels transistors en silicium. Traduction : alors qu'il est courant que les chargeurs utilisant des transistors au silicium deviennent presque trop chauds au toucher, il est rare qu'un chargeur utilisant la technologie GaN soit légèrement chaud. De plus, leur commutation plus rapide leur permet de supporter des charges de plus en plus importantes. Alors que les smartphones de nouvelle génération sont de plus en plus gourmands en énergie, que les chargeurs de 100 W sont désormais monnaie courante et que les chargeurs de 240 W seront bientôt une réalité, voilà pourquoi les chargeurs basés sur la technologie GaN devraient bientôt remplacer pour de bon nos vieux chargeurs au silicium. Cela signifie-t-il pour autant que vous pouvez d’ores et déjà jeter vos anciens chargeurs et passer à la technologie supérieure ? Loin de là : si vous êtes satisfait de vos chargeurs actuels, conservez-les jusqu'à ce que vous ressentiez le besoin de les mettre à niveau. Vous aurez alors tout le loisir de vous tourner vers cette nouvelle technologie qui vous permettra de bénéficier de nombreux avantages pour un coût minime. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
12 Jan 2022 | Pourquoi certains pays interdisent désormais le minage de cryptomonnaies | 00:03:36 | |
Bonjour à tous et bienvenue sur le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui je vous explique pourquoi certains pays interdisent désormais le minage de cryptomonnaies. C'est l'histoire d'une migration vers l'ouest. L'exode a commencé en mai 2021. Pourquoi ? Parce que la Chine commençait à y étouffer son industrie du minage de la cryptomonnaie. Partez ! disaient les autorités chinoises aux propriétaires de fermes de minage ! Allez voir ailleurs ! Jusqu'alors, la Chine était le premier pays producteur de cryptomonnaies, profitant des prix bas de l’électricité dans les zones productrices de charbon et d'hydroélectricité. Désormais, la Chine veut réduire de 90 % les capacités de minage du pays. Face à ce déluge réglementaire, les mineurs de cryptomonnaie ont donc décidé de partir pour investir le Kazakhstan voisin. Conséquence, le Kazakhstan devenait très rapidement le deuxième centre mondial d'extraction de bitcoins, après les Etats-Unis. En août 2021, le Kazakhstan représentait 18 % du "hashrate" mondial. Le hashrate ? C'est la puissance de calcul utilisée par les ordinateurs connectés au réseau bitcoin dans le jargon cryptographique. Et ce, alors qu'en avril 2021, avant les mesures drastiques prises en Chine contre l'extraction de bitcoins, ce chiffre n'était que de 8 %. Comme en Chine, les fermes d'extraction de cryptomonnaies du Kazakhstan ont été installées près de centrales à charbon vieillissantes. Et ce, alors que le gouvernement local cherche à décarboniser l'économie locale. Le ministère kazakh de l'énergie mentionnait l'an passé que l'énergie consommée par les mineurs de cryptomonnaies avoisinerait 2 Giga Watt, soit 8 % de la capacité de production totale d'électricité du Kazakhstan. Les émeutes survenues la semaine dernière dans la capitale Almaty ont provoqué des dizaines de mort. La Russie a envoyé des parachutistes pour aider a réprimer les manifestations contre l'explosion du coût de l'énergie. Les autorités ont également coupé internet. Conséquence, la puissance de calcul mondiale du réseau bitcoin a chuté d'environ 15 %. Et le bitcoin est passé sous la barre des 43 000 dollars jeudi, atteignant son plus bas niveau depuis plusieurs mois. La solution pour les cryptomineurs ? Migrer à nouveau vers l'ouest. C'est la raison pour laquelle le Kosovo vient d'interdire le minage des cryptomonnaies. Le ministre de l'Economie du Kosovo explique que cette interdiction vise tout simplement à protéger l'économie du pays. Il faut dire que le Kosovo est en état d'urgence depuis décembre dernier. Le froid a mis hors service les centrales électriques locales et obligé le gouvernement à importer plus d'énergie que d'habitude. Et cela n'empêche pas des coupures de courant et une hausse des factures d'électricité. L'an passé, c'est en Iran que l'interdiction est survenue, en réponse à une série de pannes d'électricité dans les grandes villes du pays. L'interdiction de minage porte jusqu'au 6 mars 2022. La Suède met également en place des restrictions. Les autorités suédoises estiment que les objectifs de limitation du réchauffement climatique à 1,5°C fixés par l'accord de Paris de 2015 ne peuvent être tenues avec le minage de cryptomonnaies. Pour les défenseurs de l'écosystème de la cryptomonnaie, l'affaire kazakh montre tout simplement que le réseau Bitcoin est résilient, même lorsqu'une partie importante des mineurs est mis hors ligne. Toujours plus à l'ouest, les Etats-Unis pourraient devenir la Mecque de l'extraction de cryptomonnaies. Pourquoi ? Parce que des sources d'énergie les moins chères de la planète y sont exploitées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
21 Mar 2025 | Lip-Bu Tan, l'homme qui doit ressusciter Intel | 00:02:53 | |
C'était l'une des surprises de la fin de l'année dernière. Pat Gelsinger, le boss du fondeur Intel, était mis sur la touche par les actionnaires de la société. Et jusqu'alors, nul ne savait qui allait prendre sa place. Et voici que la semaine dernière le géant des semi-conducteurs a nommé Lip-Bu Tan, 65 ans, au poste de directeur général. Penchons nous sur l'homme, et sa stratégie pour refaire partir la machine Intel. Alors qui est Lip-Bu Tan ? C'est un vétéran de l'industrie des semi-conducteurs, avec à son actif plus de deux décennies d'expérience. Il est connu pour la croissance sous sa direction des revenus et de la marge de la société de logiciel Cadence Design Systems. Mais il est aussi le fondateur d'une société de capital-risque. Son expertise repose donc sur le logiciel, et l'investissement. Bref, ce n'est pas un spécialiste des processeurs et de l'infrastructure informatique. Néanmoins, l'homme propose une rupture stratégique avec la direction précédente. Changement de cap stratégique pour Intel Sous la direction de Pat Gelsinger, Intel avait développé une stratégie d'expansion de ses capacités de fabrication. L'idée était de concurrencer des géants comme le taïwanais TSMC en produisant des puces pour des tiers. Cependant, cette approche a rencontré des obstacles, notamment à cause de retards dans la technologie de fabrication. La conséquence a été une perte de parts de marché au profit de concurrents comme Nvidia. Et donc l'éviction de Pat Gelsinger. Lip-Bu Tan adopte lui une approche différente. Il envisage de recentrer Intel sur l'innovation produit et l'ingénierie, en mettant l'accent sur le développement de produits de pointe. De plus, il évalue la possibilité de séparer les divisions de conception et de fabrication de puces. Et cela marquerait un changement significatif par rapport à l'intégration verticale traditionnelle d'Intel. Lip-Bu Tan bien accueilli, pour l'instant C'est donc un pari risqué. Mais pour l'instant, le marché réagit plutôt bien. L'annonce de la nomination de Lip-Bu Tan a été bien accueillie, avec une augmentation de 15 % du cours de l'action Intel. Surtout, les analystes sont optimistes quant à sa capacité à redresser l'entreprise. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
20 Sep 2024 | Disney se fâche avec Slack à cause d'un piratage de grande ampleur | 00:02:52 | |
Aujourd'hui, on parle d'un conflit majeur entre Disney et Slack. La célèbre entreprise de divertissement a décidé de bannir complètement l'outil de messagerie professionnelle après un piratage de grande ampleur. Voici ce qu’il faut retenir de cette affaire en trois points. Premier point, le piratage Un hacker nommé Nullbulge a réussi à voler plus d'un téraoctet de données sensibles à Disney, et tout cela via Slack. Les informations volées incluent non seulement des données stratégiques et financières, mais aussi des informations personnelles sur les employés et même certains clients. Pour vous donner un ordre d'idée, Nullbulge a publié en ligne plus de 44 millions de messages provenant des channels Slack de Disney, près de 19 000 feuilles de calcul, et au moins 13 000 documents PDF. Des feuilles de calcul et des PDF ? Oui, parce qu'il est possible d'héberger dans les messages de Slack des fichiers. C'est plus simple pour travailler et échanger entre collègue. Mais c'est donc plus simple à voler si un pirate pénètre dans Slack. De fait, ce vol massif met en lumière les failles de sécurité de cet outil, pourtant très populaire dans les entreprises. Dans le cas de Disney, le hackeur Nullbulge a détaillé avoir d'abord dupé un développeur de Disney et avoir réussi à pénétrer dans son ordinateur. Deuxième point, la réaction de Disney Face à cette fuite monumentale, Disney a décidé de bannir Slack dans l'ensemble de ses organisations. De nombreuses équipes au sein de l'entreprise ont déjà commencé à migrer vers d'autres outils de communication se félicite la direction de l'entreprise. Un document interne de Disney explique que l'entreprise souhaite se tourner vers des plateformes plus intégrées et plus sécurisées pour ses besoins professionnels. Ce n’est pas seulement une mesure de sécurité, mais aussi une stratégie pour mieux contrôler et protéger les échanges internes. Troisième point, les conséquences pour Slack Cette affaire jette évidemment le discrédit sur la réputation de l’outil de communication, qui est largement utilisé par les entreprises du monde entier. Ce piratage rappelle aux entreprises l'importance de sécuriser leurs outils de communication et de bien former leurs employés aux bonnes pratiques de cybersécurité. L'exemple de Disney montre que même les grandes entreprises peuvent être vulnérables et que les décisions pour protéger les données doivent être drastiques. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
11 Dec 2024 | Google reprend la tête de la course à l'informatique quantique | 00:03:10 | |
On plonge aujourd'hui dans l’univers fascinant de l’informatique quantique avec Google, qui vient de franchir une étape importante dans la course aux ordinateurs du futur. Google vient en effet de présenter son dernier processeur quantique, baptisé Willow, et fabriqué dans une usine de l'entreprise. Ce processeur utilise 105 qubits, ces fameuses unités d’information quantiques qui remplacent les bits traditionnels. Et le problème c'est que les qubits sont incroyablement instables et génèrent beaucoup d’erreurs. Mais cette fois, Google affirme avoir surmonté cet obstacle majeur. Plus il y a de qubits, moins il y a d’erreurs Grâce à un nouveau système de correction d’erreurs, Google fait en sorte que plus il y a de qubits, moins il y a d’erreurs. "Nous avons dépassé le seuil de rentabilité", a déclaré Hartmut Neven, qui dirige l'unité d'IA quantique de Google. "Nous avons mis fin à un défi majeur dans le domaine de la correction d'erreur quantique, un défi vieux de trente ans". C'est cette avancée qui est décrite comme une première dans le domaine de l'informatique quantique. Les progrès restent théoriques ou expérimentaux Reste que l'utilisation d'applications sur des ordinateurs quantiques est encore du domaine du futur. Pour l’instant, les progrès de cette jeune discipline restent théoriques ou expérimentaux. Par exemple, Google explique que son processeur pourrait résoudre en cinq minutes un problème mathématique qui prendrait des milliards d’années à un ordinateur classique. Certes, c'est impressionnant. Mais ce problème mathématique n’a pas d’applications concrètes. Une féroce compétition L’objectif est en fait de développer des ordinateurs capables de résoudre des enjeux réels, comme par exemple concevoir de nouveaux médicaments ou optimiser les batteries électriques. Les experts estiment que ces applications pratiques pourraient voir le jour d’ici 2030. Surtout que l'informatique quantique est l'objet d'une compétition intense. Google n’est pas seul dans la course. IBM, Amazon ou encore des start-ups comme Alice & Bob rivalisent d’innovations. Et chacun emprunte un chemin différent. Alors que Google mise sur des avancées scientifiques comme la correction d’erreurs, IBM se concentre sur des usages commerciaux et la formation au quantique via le cloud. Les deux géants s’affrontent aussi à coup de publications scientifiques et de nouveaux processeurs. Et certains rivaux de Google produisent des puces avec un plus grand nombre de qubits. Mais Google dit de son côté se concentrer sur la fabrication des qubits les plus fiables possibles. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
28 Feb 2022 | Les circuits photoniques : passer de l'électricité à la lumière | 00:03:11 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui, je vais vous expliquer comment les circuits photoniques vont utiliser de la lumière, et non plus de l'électricité, dans les cartes cartes mères de vos serveurs. Et peut-être de vos ordinateurs. Nombre d'entre vous connaissent la différence fondamentale entre le bon vieux protocole ADSL et la fibre optique, entre le haut débit et le très haut débit. Oui, dans un cas c'est l'électricité qui transmet l'information, et dans l'autre cas, c'est la lumière. Et voici que cette technique, utiliser la lumière pour transporter de l'information, est en passe de débarquer dans les puces de nos serveurs, et peut-être de nos ordinateurs. Et ce, grâce à des puces dites photoniques. Le but, comme dans le domaine des télécoms, est de déplacer les données sur la carte mère d'une machine beaucoup plus rapidement qu'avec les interconnexions métalliques traditionnelles. L’histoire des circuits intégrés photoniques ou puces optiques a commencé il y a plusieurs dizaines d’années. C’est en septembre 1969 qu'un premier article scientifique évoque le sujet. Mais ensuite, de l'eau va couler sous les ponts. Le pionnier de ce secteur, l'américain Infinera Corporation, commercialise ses premières puces en 2004. Et ce n'est qu'en 2011 que des puces photoniques au débit de 500 Gbits par seconde voient le jour. De là, le marché décolle, porté par les réseaux de fibre optique. Ensuite, ce sont les acteurs du datacenter qui s'emparent de cette technologie. L'augmentation rapide du volume de données pour effectuer des calculs de haute performance ou des calculs d'intelligence artificielle devient insoluble avec les techniques traditionnelles. Concrètement, il n'y a plus assez de bande passante. Ayar Labs, une entreprise qui collabore avec HPE sur le sujet, affirme que sa technologie photonique peut désormais offrir une bande passante 1 000 fois supérieure à celle des circuits électriques tout en consommant 1/10e de la puissance utilisée actuellement. En clair, la transmission de flux de données serait alors de 1 térabit par seconde. Et surtout, les photons ont la particularité de ne pas créer d’interférence magnétique, ni de générer de chaleur. Récemment, Intel a réussi à intégrer une puce photonique dans un serveur. Reste que cette technique est déjà connue dans le monde de la recherche. Des puces photoniques intégrées françaises, conçues à Grenoble, sont par exemple utilisées dans le Very Large Telescope du mont Paranal au Chili. Mais l'utilisation des photons pour transporter de l'information fait également évoluer le matériau utilisé pour fabriquer des puces. L'historique silicium est peu à peu remplacé par le nitrure de silicium. Ce dernier a des propriétés plus intéressantes, notamment en matière de propagation et de coefficient d'absorption. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
10 Feb 2022 | L'IA aura-t-elle la peau des développeurs ? | 00:03:19 | |
Bonjour à tous et bienvenue sur le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m'appelle Pierre Benhamou et aujourd'hui, je vais vous parler d'un outil de Google qui pourrait bien remplacer un jour les développeurs et faire entrer la programmation dans une nouvelle ère. Nombreux sont aujourd'hui les étudiants à s'orienter vers des filières d'informatique, alléchés à la fois par un domaine passionnant, mais aussi rémunérateur. Les entreprises s'en frottent les mains, alors que les métiers du développement informatique font actuellement l'objet d'une demande croissante bien supérieure à l'offre disponible sur le marché du travail. Confrontés à une pénurie chronique de talents, les géants de la tech n'ont pour leur part pas attendu pour s'attaquer au problème en mettant sur pieds des modèles d'intelligence artificielle qui pourraient bien un jour assurer à elles seules les tâches qui incombent aujourd'hui aux développeurs. Des chercheurs de DeepMind, l'unité de Google spécialisée dans l'IA, viennent ainsi de jeter une nouvelle pierre dans le jardin de ces derniers en affirmant qu'Alphacode, leur système de programmation assisté par l'IA, s'est amélioré tant et si bien qu'il est désormais capable d'obtenir un score médian aux différents concours de programmation organisés pour les développeurs en herbe. C'est bien simple, le système de DeepMind s'est ainsi classé parmi les 54,3 % de participants les mieux placés dans 10 concours comptant plus de 5 000 participants organisés récemment. Dans ces concours, chaque participant doit analyser la description d'une énigme et développer rapidement un programme destiné à la résoudre. Confronté à ses concurrents humains, Alphacode a dû créer un algorithme puis le mettre en œuvre de manière efficace en optant pour des langages divers et variés afin de surmonter les difficultés. Rien de plus facile pour Alphacode, dont les connaissances s'étalent sur pas moins de 715 Go de code provenant de fichiers issus de dépôts GitHub écrits en langage C++, JavaScript, Python, PHP, Ruby, Rust, Scala, et j'en passe. Rien de plus facile pour Alphacode, dont les connaissances s'étalent sur pas moins de 715 Go de code provenant de fichiers issus de dépôts GitHub écrits en langage C++, JavaScript, Python, PHP, Ruby, Rust, Scala et j'en passe. Se pose alors la question de l'avenir des développeurs, dont l'activité pourrait un jour être automatisée par Alphacode et d'autres systèmes d'IA. Ces derniers auront-ils la peau des développeurs ? Et bien, rassurez-vous, ce n'est pas encore prêt d'arriver, car la nouvelle percée de DeepMind n'est pas sans défauts. Le modèle même d'Alphacode, qui se base sur des programmes existants pour s'entraîner, fait que ce dernier n'est pas sans générer du code comprenant des faiblesses exploitables. On s'en doute, en se basant sur des programmes écrits par des humains pour s'améliorer, Alphacode va logiquement reproduire les biais et les failles de ses professeurs. Reste également un problème pour l'heure insoluble à résoudre pour faire d'Alphacode et consorts des concurrents de taille aux développeurs humains. Il s'agit bien évidemment de l'impact environnemental de tels systèmes, dont l'entraînement a nécessité, dans le cas du système de DeepMind, des « centaines de jours pétaFLOPS » dans les centres de données de Google. De quoi rassurer pour le moment les développeurs en herbe et leurs aînés ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
29 Jun 2022 | Vote en ligne : l'éternel débat | 00:03:12 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui, je vous explique pourquoi le vote en ligne provoque un si vif débat. Les élections sont passées, et le constat est toujours le même : le taux d’abstention est au plus haut. Pour lutter contre cette tendance, certains ont une solution toute trouvée : instaurer la possibilité de voter en ligne. Elire son député ou son président depuis son canapé, sur son smartphone, c’est une perspective qui semble aujourd’hui évidente. Après tout, on déclare et paye ses impôts en ligne, et de nombreuses formalités administratives sont réalisables via internet. Mais pour le vote, c’est un peu plus compliqué. Pour être tout à fait honnête : le vote en ligne existe déjà dans certains pays, et en France pour certains cas spécifiques. Les Français de l’étranger ont ainsi pu expérimenter cette année la possibilité de voter à distance, directement depuis un service en ligne. Cette option a notamment été ouverte pour les élections consulaires et législatives. Mais l’élection américaine de 2016 est venue remettre en question ces premières expérimentations. Dans un contexte de doute sur les élections, les autorités ont préféré restreindre cette possibilité. Le vote en ligne pose des problèmes similaires à ceux du vote électronique. Le vote électronique consiste à enregistrer les votes des électeurs sur un ordinateur dédié. Le vote en ligne fonctionne de la même manière, mais en proposant en plus aux électeurs d’interagir avec le logiciel d’enregistrement des votes à distance, directement depuis leurs propres appareils. Malheureusement, dans les deux cas, la question de la confiance dans les machines est centrale. Pour les électeurs, il est difficile d’accorder sereinement sa confiance à une machine ou à un logiciel chargé d’enregistrer les suffrages. Si n’importe quel électeur peut décider d’aller assister au dépouillement des urnes à la fin d’une journée d’élection, le vote électronique et le vote en ligne n’offrent pas cette possibilité. Outre cette question de la confiance, le vote en ligne doit également faire ses preuves en matière de sécurité. Il est compliqué de garantir que les appareils d’enregistrement des votes sont dépourvus de failles de sécurité permettant à un tiers de modifier le résultat des suffrages exprimés. Toutes les machines connaissent des failles, et les hackers réunis à la conférence américaine DEF CON s’amusent fréquemment à démontrer les faiblesses de ces appareils. Face au débat, la France opte donc pour l’instant pour la plus grande prudence. Certains pays comme l’Estonie ou la Suisse ont de leur côté choisi d’avancer sur ce sujet et multiplient les expérimentations. D’autres pistes sont envisagées pour réhabiliter le vote électronique, notamment l’emploi de la technologie blockchain. Mais le système présente d’autres difficultés, notamment lorsqu’il s’agit de passer un vote à l’échelle nationale. On le réserve pour l’instant principalement à des votes de moindre importance, par exemple au sein des entreprises. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
12 May 2022 | Groupes APT, une menace patiente et déterminée | 00:03:01 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de Fancy Bear, Animal Farm, Hafnium : chaque société de cybersécurité dispose de sa APT pour Advanced Persistent Threat, ou Menace persistante avancée : l’acronyme Les groupes désignés par le sigle APT sont des groupes organisés et patients. Le Le qualificatif « Persistant » est en revanche plus adapté : contrairement aux groupes
Et les cibles de ces groupes sont de tous types. Si les secteurs les plus stratégiques, Contrairement aux cybercriminels « classiques », les groupes APT opèrent donc avec Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
21 Oct 2024 | Comment améliorer le taux de réussite de vos projets de transformation numérique | 00:02:54 | |
Voici un sujet crucial pour de nombreuses entreprises : comment améliorer le taux de réussite de vos projets de transformation numérique. C'est un sujet majeur parce qu'il est déterminant pour assurer la survie et la compétitivité de son organisation dans un marché qui se numérise de plus en plus. La question de la visibilité Souvent, les entreprises se lancent dans des projets de transformation numérique sans avoir une vue d’ensemble claire. Le manque de visibilité sur les projets en cours, et même sur ceux à venir, peut créer des blocages importants. Un exemple frappant nous vient d'une étude menée par le Gartner, où les DSI interrogés disent que moins de 50 % de leurs projets numériques aboutissent. Ce qui revient selon les analystes à « jouer à pile ou face ». Pour éviter cela, il est essentiel d'instaurer une transparence totale sur l'état des projets, à tous les niveaux de l’organisation. Concrètement, il ne suffit plus d’attendre des rapports mensuels. La direction doit pouvoir suivre en temps réel l’évolution des initiatives. Connecter la transformation numérique à la stratégie globale de l'entreprise Il est capital de connecter votre transformation numérique à la stratégie globale de l'entreprise. De nombreuses entreprises dépensent des millions d'euros dans la transformation numérique, mais peinent à en montrer la valeur. Comment éviter cela ? Pour que ces investissements ne soient pas gaspillés, il faut que chaque initiative numérique soit alignée sur les objectifs stratégiques de l'entreprise. Cela permet non seulement de donner un sens à chaque projet, mais aussi de faciliter la prise de décision. Les projets doivent pouvoir être ajustés, redéfinis, voire stoppés si les conditions du marché changent. Renforcer la capacité de changement Enfin, et c'est peut être le plus important, il est indispensable de renforcer la capacité de changement. Les entreprises doivent être prêtes à réajuster en permanence leurs priorités en fonction des résultats et des nouvelles opportunités. Les anciens modèles, où un projet a un début et une fin bien définis, appartiennent au passé. Aujourd'hui, nous évoluons dans un monde d'innovation continue. Les entreprises doivent donc être prêtes à pivoter rapidement, à réaffecter leurs ressources et à ajuster leurs stratégies. C'est à ce prix que le taux de réussite des projets de transformation numérique peut être amélioré. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
13 Jan 2025 | AMD montre à présent ses muscles à présent aussi sur le gaming | 00:03:32 | |
Aujourd'hui, on plonge dans les annonces d'AMD réalisées au CES 2025. Elles marquent un tournant dans le secteur des PC destinés aux amateurs de jeux vidéos, jusqu'alors une chasse gardée de son concurrent Intel. Voici donc pourquoi Intel pourrait commencer à trembler. D'abord, AMD mène une véritable offensive sur le marché des PC de jeux et cela c'est bien vu au CES. AMD frappe fort cette année avec ses nouveaux processeurs, notamment les séries Ryzen 9000 et Ryzen Z2. Du Ryzen chez Razer et MSI Surtout, le fondeur annonce l’intégration pour la première fois d’un processeur AMD Ryzen dans un ordinateur portable de la marque Razer, bien connue des gamers. Il s'agit du modèle Razer Blade 16. C'est une décision stratégique, car jusque-là, l'entreprise de Singapour s’appuyait exclusivement sur des puces Intel pour ses machines. Mais AMD ne s’arrête pas là. MSI, un autre géant des ordinateurs portables de jeu, adopte aussi ces nouveaux processeurs sur son modèle Stealth A18. Bref, ce partenariat montre qu’AMD gagne peu à peu la confiance des marques qui dominent le marché des gamers. Du processeur très haut de gamme et des APU Pour aller plus loin nous avons eu la chance de nous entretenir avec Frank Azor, architecte en chef des solutions de jeu chez AMD lors du CES. Il nous a expliqué que l’évolutivité est au cœur de la stratégie. Et il cite en exemple une nouvelle puce dotée de 16 cœurs Zen 5 et d’un cache impressionnant de 144 Mo. Sa vitesse peut atteindre 5,7 Giga Hertz. Bien sûr, cette puce coûte un bras. Mais pour les joueurs au budget plus serré, AMD propose aussi des APU. Une APU est une Unité de calcul accéléré, qui peut être ajoutée au CPU pour améliorer les performances. La toute nouvelle APU Krackan Point, qui doit être commercialisée dans quelques jours, vise donc les joueurs qui ont des oursins dans les poches. Et c'est malin puisque selon Frank Azor, 90 % des joueurs investissent dans des GPU à moins de 1 000 euros. Vers l'IA et la 3D Enfin, il faut noter que AMD n'est pas qu'un rival sérieux pour Intel aussi sur le marché du gaming. Certes, Intel reste un géant. Mais le fondeur est au milieu du gué, et a perdu son PDG Pat Gelsinger à la fin de l'année dernière. La boss d'AMD depuis 10 ans, Lisa Su, a elle au contraire été nommée pour l'année 2024 PDG de l'année par le magasine Time. Et AMD ne veut pas s'arrêter à ses performances sur le gaming. La marque vise désormais le marché de l'intelligence artificielle et la 3D. Elle affirme sur ce terrain que sa puce Ryzen AI Max Plus 395 surpasse même des références comme le GPU Nvidia RTX 4090 ou le M4 Pro d’Apple dans ces domaines. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
13 Apr 2022 | Wannacry : quand le ransomware passe à la vitesse supérieure | 00:03:20 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui, je vais vous expliquer pourquoi l’épidémie du rançongiciel Wannacry a fait date dans l’histoire de la sécurité informatique. Le 12 mai 2017, de nombreux administrateurs systèmes voient rouge. La cause ? Le ransomware Wannacry, qui commence ce matin là à infecter des ordinateurs à travers le monde. Pour les victimes, le résultat est toujours le même : l’ordinateur affecté et les données qu’ils contient deviennent inaccessible et un écran rouge s’affiche, demandant le paiement d’une rançon en bitcoin pour récupérer l’accès aux données. En 2017, les rançongiciels sont une menace connue. Mais Wannacry se distingue par sa vitesse de prolifération : en l’espace d’une journée, on estime que le logiciel aurait infecté un peu plus de 200 000 machines dans plus de 150 pays. Et tout le monde semble visé, de la PME aux grands hôpitaux britanniques. Dans cette situation, la réaction ne se fait pas attendre. Microsoft diffuse rapidement un correctif de sécurité visant à combler l’une des vulnérabilités utilisées par Wannacry pour se propager. Des chercheurs analysent le logiciel malveillant et découvrent également un « killswitch », un mécanisme prévu par les concepteurs de Wannacry pour stopper sa propagation. Celui ci est activé et parvient à ralentir la diffusion du logiciel pendant quelques heures, avant que de nouvelles versions n’apparaissent. Une course contre la montre s’empare du secteur, et le nombre d’infection par Wannacry finit enfin par chuter quelques jours après sa découverte. L’attaque laisse tout de même de nombreuses victimes sur le carreau : les dégâts sont difficiles à estimer mais se comptent en centaines de millions de dollars. Mais l’efficacité de Wannacry n’est pas due au hasard. Celui ci dispose de fonctionnalités lui permettant de se diffuser très rapidement sur les réseaux de ses cibles. Une vitesse de propagation rendue possible par l’utilisation de deux outils connus sous les noms d’Eternal Blue et de Doublepulsar. Il s’agit de logiciels développés par la NSA, l’agence américaine du renseignement, et diffusés publiquement sur le web par le mystérieux groupe des Shadow Brokers au milieu de l’année 2016. Eternalblue exploite notamment une faille de sécurité qui permet à Wannacry de se propager à la vitesse de l’éclair. Cette vulnérabilité avait pourtant été corrigée quelques semaines auparavant, mais rien dans les indications de Microsoft ne laissait penser que ce correctif avait une importance particulière. Wannacry a été une implacable démonstration des dégâts que pouvait causer une attaque informatique à très grande échelle. Mais l’affaire pose encore de nombreuses questions : les États Unis ont ainsi accusé la Corée du nord d’être à l’origine de cette attaque. Mais certains chercheurs estiment que les créateurs étaient d’origine chinoise. Et l’objectif final des auteurs de WannaCry n’est toujours pas clair, même aujourd’hui. Le montant des rançons récoltées par les attaquants reste faible, de l’ordre de 100 000 dollars selon certains experts. Soit un chiffre dérisoire en regard des dégâts causés. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez vous sur ZDNet.fr, et retrouvez tous les jours un épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
04 Apr 2022 | Stuxnet, aux origines de la cyberguerre | 00:03:29 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m'appelle Louis Adam, et aujourd'hui je vais vous parler de Stuxnet, ce ver informatique d'un genre nouveau qui a pris le monde entier au dépourvu. Quand on parle de guerre informatique, un nom revient fréquemment : celui de Stuxnet, un ver informatique découvert en 2010. Il s'agit d'un logiciel malveillant disposant de fonctionnalités qui lui permettent de se propager automatiquement sur les systèmes qu'il infecte. Ce n'est pas exactement une nouveauté à l'époque, mais Stuxnet étonne par sa sophistication. Son analyse révèle en effet plusieurs choses : tout d'abord, il exploite quatre failles 0-day pour infecter les ordinateurs de ces cibles et se propager. Les failles de ce type sont rares et précieuses. Alors, en 2010, découvrir un logiciel malveillant qui en utilise non pas une, mais quatre, c'est une première. L'autre particularité de Stuxnet, c'est son fonctionnement. Le logiciel ne cherche pas à casser les ordinateurs qu'il infecte ou à voler des informations. Au contraire : dans la plupart des cas, il reste inactif et silencieux. Mais en étudiant le logiciel, les chercheurs comprennent que la charge utile de ce ver ne s'active que dans certains cas. Stuxnet a été conçu pour viser un certain type d'appareils : des centrifugeuses industrielles. Lorsque Stuxnet détecte qu'il a infecté un ordinateur de contrôle d'une de ces centrifugeuses, il active alors sa véritable charge malveillante. Celle-ci vise à modifier la vitesse de rotation des automates à l'insu de leur propriétaire, ce qui peut provoquer des incidents allant jusqu'à détruire la centrifugeuse. A quoi bon ? Et bien, on comprend un peu mieux l'utilité de ce malware en se penchant sur ses cibles : les centrifugeuses visées par Stuxnet sont majoritairement utilisées par l'industrie du nucléaire dans les processus visant à enrichir l'uranium. De la même manière, le ver Stuxnet s'est propagé dans de nombreux systèmes à travers le monde, mais la grande majorité de ses cibles sont situées en Iran. A l'époque de sa découverte, les spéculations vont bon train. L'Iran reconnaît rapidement qu'un ver informatique a causé des incidents sur son site de Natanz en fin d'année 2009. Le pays tente à l'époque d'accélérer son programme nucléaire, au grand dam de son voisin israélien et des Etats-Unis. Mais il faudra attendre encore quelques années pour que la presse américaine obtienne la confirmation de ce que tout le monde soupçonnait déjà : les services secrets américains et israéliens sont bien à l'origine de la création de Stuxnet. Le logiciel malveillant ultra sophistiqué a été conçu pour freiner les efforts iraniens en retardant le développement de leur programme d'enrichissement de l'uranium. A l'époque, c'est une première. Utiliser un logiciel pour venir saboter une installation industrielle d'un pays ennemi, c'est du jamais vu. Et encore aujourd'hui, il est difficile de savoir si ce programme a bien atteint le but recherché. Les centrifugeuses iraniennes infectées ont bien été détruites, mais l'Iran soutient que cela n'a pas retardé ses progrès. Mais Stuxnet a très certainement ouvert la voie en matière d'attaques informatiques menées par des Etats. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
08 Oct 2024 | Pourquoi les géants de la tech s'entichent des centrales nucléaires | 00:02:58 | |
Aujourd’hui, on va parler d’un sujet qui peut sembler surprenant. Voici pourquoi les géants de la tech, comme Amazon, Microsoft ou Google, se tournent vers l’énergie nucléaire pour alimenter leurs centres de données. D'abord, la consommation énergétique des datacenters des géants de la tech explose. Une explosion dopée par la montée en puissance des services d'intelligence artificielle. Bref, ces entreprises consomment une quantité énorme d’électricité pour mettre sur pied les services informatiques du futur. Et si les énergies renouvelables comme l’éolien et le solaire sont intéressantes, elles sont intermittentes. Elles dépendent du degré d'ensoleillement et de la force du vent. Le nucléaire, lui, a l’avantage de fournir une énergie continue, 24 heures sur 24. Et cela correspond parfaitement aux besoins des data centers qui tournent jour et nuit. Oui, c'est un argument environnemental C’est pour cette raison que Microsoft, par exemple, a signé tout récemment un contrat pour relancer une centrale nucléaire aux États-Unis. Le second point est surprenant et crée la division dans le camp des écologistes. Car oui, c'est un argument environnemental. Les géants du numérique se sont tous engagés à réduire leurs émissions de carbone. Or, avec la montée en puissance de l'IA, ces entreprises voient leurs émissions polluantes augmenter. Le nucléaire pourrait être une solution, car il produit très peu de gaz à effet de serre. Bill Gates, qui a créé Microsoft, est lui-même un fervent défenseur de cette technologie. Il a d'ailleurs créé une société nommée TerraPower, qui conçoit des réacteurs nucléaires. Et pour lui, le nucléaire peut aider à résoudre les problèmes climatiques. Vers les petits réacteurs modulaires TerraPower commence à développer une nouvelle classe de réacteurs nucléaires. Mais ce projet est repoussé d'au moins deux ans du fait que le seul fournisseur du combustible nucléaire qui convient est russe. Mais l'exemple de TerraPower montre surtout que les géants de la technologie ne se limitent plus aux vieilles centrales. Ils misent aussi sur de nouvelles technologies, comme les petits réacteurs modulaires. Ces réacteurs de nouvelle génération, plus petits et plus flexibles, pourraient fournir une électricité de manière plus adaptable aux besoins des entreprises. Google, par exemple, envisage sérieusement cette option dans sa stratégie énergétique pour l’avenir. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
27 Sep 2024 | Cloud computing en Europe, Google se jette dans la bataille contre Microsoft | 00:03:08 | |
Aujourd’hui, on se penche sur une nouvelle bataille dans le monde du cloud computing. Google vient de déposer une plainte la semaine dernière contre Microsoft devant la Commission européenne. Et cette action risque de faire beaucoup de bruit. Google accuse Microsoft de pratiques anticoncurrentielles, en poussant ses clients à utiliser son service cloud Azure. Et ce au détriment des plateformes concurrentes comme Google Cloud ou AWS, le cloud d’Amazon. Que reproche exactement Google à Microsoft ? Premièrement, il y a les conditions de licences logicielles. Selon Google, les entreprises qui utilisent des logiciels comme Windows Server doivent payer jusqu’à 400% de plus si elles choisissent de les héberger sur un cloud concurrent d’Azure. Et ça ne s’arrête pas là. Ces entreprises seraient également confrontées à des limitations importantes, notamment en termes de correctifs de sécurité. En gros, selon Google, Microsoft aurait tout fait pour rendre difficile, voire impossible, le passage d’Azure à une autre plateforme, créant ainsi un verrouillage des clients. La question des "barrières d’interopérabilité" Depuis 2019, Microsoft aurait mis en place de nombreuses restrictions pour rendre l’utilisation de ses logiciels sur des plateformes autres que la sienne de plus en plus compliquée. Un exemple ? Imaginons une entreprise qui utilise Google Cloud pour héberger ses données mais qui a besoin d’utiliser des services Microsoft comme Office ou Windows Server. Eh bien, cette entreprise pourrait se retrouver avec des coûts supplémentaires et des problèmes techniques liés à cette interopérabilité limitée. Enfin, il faut rappeler que cette bataille entre Google et Microsoft ne date pas d’hier. Les deux géants se livrent une guerre sur le terrain de la concurrence depuis plusieurs années. Microsoft avait même témoigné contre Google aux États-Unis, l’accusant d’avoir bloqué l’essor de moteurs de recherche concurrents. Et on se souvient aussi des amendes infligées à Google par l’Union européenne dans les années 2010 pour abus de position dominante dans la recherche en ligne. "Activisme judiciaire" Pour Microsoft, cette plainte n’est rien d’autre que de "l’activisme judiciaire". Le groupe assure qu’il a déjà trouvé des accords avec des fournisseurs de cloud européens sur des questions similaires. Mais Google semble bien décidé à aller au fond des choses. A noter que l'Europe enquête déjà sur Microsoft concernant d’autres pratiques, notamment l’intégration de Teams dans ses logiciels de bureautique. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
20 Jan 2025 | Des agents d'IA "aussi faciles à utiliser que Excel" assure Satya Nadella | 00:03:06 | |
Par l'intermédiaire de Microsoft 365 Copilot Chat de nouveaux agents d'intelligence artificielle font leur entrée dans les outils de la suite Microsoft Office. Qu'est ce que Microsoft 365 Copilot Chat Depuis plusieurs mois, Microsoft a intégré Copilot, son assistant IA basé sur GPT-4 d'OpenAI, dans ses applications bureautiques phares comme Word, Excel ou Outlook. Ce Copilot permet de répondre à des questions, de rédiger des résumés ou encore d’automatiser des tâches simples. Mais avec les annonces de Microsoft effectuées mercredi dernier, Copilot Chat devient encore plus puissant. Et ce grâce à l’ajout d’agents d’IA payants. Ces agents, programmables via un outil nommé Copilot Studio, peuvent réaliser des tâches répétitives et complexes avec un minimum d’interventions de l’utilisateur. Que peuvent faire concrètement pour vous ces agents d'IA ? Ces agents d’IA sont conçus pour s’adapter à des contextes professionnels variés. Par exemple, un agent peut collecter les informations d’un client avant une réunion ou fournir des instructions détaillées pour un technicien sur le terrain. Le tout, basé sur les données de l'entreprise stockées dans Microsoft 365, et des informations disponibles sur le web. Imaginez que vous organisiez une réunion importante. Au lieu de préparer manuellement les documents, votre agent peut rassembler les données nécessaires, rédiger un ordre du jour et même suggérer des réponses adaptées aux participants. Un véritable gain de temps et d’efficacité pour les entreprises ! Combien ça coûte ? Créer et utiliser ces agents n’est pas gratuit, et Microsoft reste assez nébuleux sur la tarification. Microsoft facture en fonction de la complexité de l’agent et du volume de messages utilisés. L'entreprise assure que les administrateurs IT des entreprises peuvent gérer leur utilisation. Cette initiative de Microsoft s’inscrit dans une tendance plus large de l’IA agentique. D’autres acteurs comme Salesforce ou OpenAI, avec sa nouvelle fonctionnalité Tasks, se lancent également dans ce domaine. L’objectif est de rendre ces agents "aussi facile à utiliser qu'une feuille de calcul Excel" assure le PDG de Microsoft Satya Nadella. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
16 Nov 2022 | Pourquoi la NSA veut que vous changiez de langage de programmation | 00:03:10 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je suis Guillaume Serries et aujourd'hui je vous explique pourquoi la NSA vous demande de changer votre langage de programmation pour améliorer la sécurité de votre code. C'est un message que tient à faire passer la NSA - la principale Agence américaine de renseignement - aux développeurs. Il faut en finir avec les langages C et C++. Et pourquoi donc ? Parce que ces langages sont susceptibles de permettre des attaques informatiques qui utilisent la mémoire informatique. Et se passer de C ou C++ pourrait signifier une réorientation vers C#, Go, Java, Ruby, Rust ou encore Swift. Et ces langages ont par ailleurs déjà fait leur preuve. Un exemple ? Java est le langage le plus utilisé dans les entreprises et pour le développement d'applications Android. Un autre exemple ? Swift figure dans le top 10 des langages de programmation les plus utilisés, notamment bien sûr grâce au développement d'applications sous iOS. L'agence d'espionnage américaine cite des recherches récentes de Google et de Microsoft selon lesquelles 70 % des problèmes de sécurité dans le navigateur Chrome et le système d'exploitation Windows, sont liés à la mauvaise gestion de la mémoire avec les langages de programmation C et C++. Reste la question de savoir pourquoi C et C++ ont des problèmes de mémoire. "Ils offrent beaucoup de liberté et de souplesse dans la gestion de la mémoire tout en s'appuyant fortement sur le programmeur pour effectuer les vérifications nécessaires sur les références mémoire" mentionne la NSA. L'Agence recommande donc d'utiliser un langage à mémoire sécurisée lorsque cela est possible. Et le langage Rust semble être le principal candidat au "remplacement" de C et C++. Le noyau Linux d'ailleurs a récemment introduit Rust comme deuxième langage après le C. Ces projets développés en Rust ne remplaceront pas l'ancien code C ou C++. Oui, ce sont de nouveaux projets qui auront les faveurs de ce nouveau langage. Même son de cloche chez Microsoft. Mark Russinovich, le directeur technique de Microsoft Azure, a récemment appelé tous les développeurs à utiliser Rust plutôt que C et C++ pour tous les nouveaux projets. Il faut cependant bien comprendre que l'utilisation d'un langage sécurisé pour la mémoire n'empêche pas par défaut l'introduction de bugs de mémoire dans les logiciels. De plus, les langages autorisent souvent des bibliothèques qui ne sont pas écrites dans des langages sûrs pour la mémoire. Enfin, La NSA note que certains langages recommandés peuvent avoir un coût en termes de performances. Donc dans ce cas là, les développeurs peuvent prendre des mesures pour renforcer la sécurité les langages non sécurisés en mémoire. L'équipe Chrome de Google par exemple, étudie plusieurs méthodes pour renforcer le langage C++. Et il semble que C++ restera dans la base de code de Chrome dans un avenir prévisible. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
11 Apr 2022 | Pourquoi le prix des cartes graphiques va (enfin) plonger | 00:02:58 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vous explique pourquoi le prix des cartes graphiques va enfin plonger. Après cinq années de hausse continue du prix des GPU, les "graphic processing unit", voici qu'il va devenir, peut-être pas encore abordable, mais en tout cas envisageable, de s'offrir une carte graphique. Mais avant de comprendre les raisons de ce cette baisse, il faut que je vous explique pourquoi ces cinq dernières années le prix de la carte graphique a été tiré continuellement vers le haut. D'abord, parce que les cartes graphiques sont utilisées pour miner de la cryptomonnaie, et que la cryptomonnaie, à commencer par le bitcoin, est sacrément à la mode ces derniers temps. Ce nouvel usage des cartes graphiques, en fort développement, a créé à certaines périodes récentes de véritables pénuries de GPU. S'est ajoutée à cela une autre pénurie, plus récente celle-là, de composants électroniques nécessaires à la fabrication de cartes graphiques. Des difficultés d'approvisionnement liées directement à la pandémie de Covid-19, qui frappe les pays asiatiques producteurs de ces éléments indispensables au matériel informatique. Résultat : une explosion des tarifs. Le prix moyen d'une carte graphique était de 260 dollars entre 2011 et 2014. La flambée des cryptomonnaies a fait passer ce seuil à plus de 400 dollars entre 2015 et 2019. Puis à 770 dollars en 2021. Alors, pourquoi à présent les prix vont-ils donc baisser ? Déjà, parce que les usines tournent à plein régime. En 2021, ce sont en effet 50 millions de cartes qui ont été vendues, contre 42 millions en 2020. Donc, en clair, les capacités de production augmentent en dépit des difficultés conjoncturelles. Ensuite, la baisse du prix des GPU est due au fait que de nouvelles puces dédiées permettent de faire du minage de cryptomonnaies ou encore de l'intelligence artificielle, autant de tâches spécifiques qui étaient jusqu'alors confiées aux cartes graphiques. Intel, par exemple, a récemment annoncé que sa prochaine puce ASIC, nommée Bonanza, serait dédiée au minage de cryptomonnaies. Et côté intelligence artificielle, l'arrivée d'une nouvelle catégorie de processeurs, les NPU – pour Neural Processing Unit – exempte désormais de plus en plus les cartes graphiques de cette tâche. Enfin, un troisième facteur explique la baisse des prix des cartes graphiques. Intel se lance cette année dans la bataille des GPU dédiés, face à AMD et Nvidia. Et ce, alors qu'Intel jusqu'à présent était peu, voire pas présent sur ce segment. Intel estime commercialiser aux alentours de quatre millions de GPU cette année, de quoi éventer sérieusement la chaleur sur les prix des cartes graphiques. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
09 Dec 2021 | Botnet, le couteau suisse cybercriminel | 00:02:52 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui je vais vous expliquer ce que sont les botnets et comment ces outils sont devenus des éléments centraux dans l’arsenal des cybercriminels. Tout d’abord, un botnet, c’est quoi ? De manière imagée, on décrit souvent les botnets comme un réseau d’ordinateurs zombies. C'est-à-dire un réseau d'ordinateurs infectés par un même logiciel malveillant, et contrôlés par une personne. Cela permet au cybercriminel à la tête du botnet d’utiliser les appareils compromis pour des buts généralement illégaux. Ce contrôle se fait via un serveur de commande et de contrôle avec lequel toutes les machines infectées communiquent. Une précision néanmoins : les botnets ne concernent pas uniquement les ordinateurs de bureau personnel, mais potentiellement tout ce qui dispose d’une puissance de calcul. Donc des serveurs, des ordinateurs, des routeurs, des smartphones ou des objets connectés comme des caméras de sécurité. Tout est bon, tant que cela peut être infecté facilement !
Et certains botnets comportent parfois des dizaines, voire des centaines de milliers d’appareils infectés. Mais, en dehors du plaisir un peu maléfique de se savoir à la tête d’une armée d’ordinateurs zombies, à quoi servent exactement les botnets ? Et bien... à peu près à tout ce que vous voulez. L’intérêt du botnet, ce sont les nombreuses opportunités qu’il offre aux cybercriminels. On a par exemple vu des botnets être utilisés dans le cadre d'attaques en déni de service distribué : les machines infectées sont utilisées pour envoyer du trafic malveillant à une cible afin de surcharger sa capacité réseau. C’était notamment le cas du botnet Mirai, qui infectait des routeurs mal sécurisés. Mais on peut aussi utiliser des botnets pour miner de la cryptomonnaie : si un mineur de cryptomonnaie sur une machine seule a peu de chances d’être rentable, la donne est différente quand vous pouvez le déployer sur 60 000 machines. Surtout si vous ne payez pas l’électricité ! C’était l’activité principale du botnet Retadup, démantelé par la gendarmerie française en 2019. On peut aussi utiliser les botnets pour diffuser des e-mails, de spam ou de phishing, ou encore des messages contenant des pièces jointes malveillantes. Le botnet Emotet est de ceux-là, et avant son démantèlement au mois de février 2021, il était l’un des botnets les plus importants en activité. Enfin, les botnets représentent également une manne financière non négligeable pour les cybercriminels. Il est en effet courant pour les opérateurs de monnayer les services de leurs botnets à d’autres groupes cybercriminels. Cela peut aller de la simple revente d’identifiants volés sur les machines, à l’hébergement de fichiers en passant par la vente d’accès aux ordinateurs compromis. Les prix varient selon la prestation, mais pour un cybercriminel, disposer d’un botnet conséquent est un bon moyen de s’assurer une source de revenu. Et voilà, on a fait le tour du sujet. Pour en savoir plus, rendez vous sur ZDNet.fr . Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
30 Sep 2022 | La NASA reprend la main sur Voyager 1 | 00:02:55 | |
Bonjour à tous et bienvenue sur le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je suis Pierre et aujourd'hui je vais vous expliquer comment la NASA a, après une enquête minutieuse, réussi à résoudre un problème situé à plus de 23 milliards de kilomètres de chez nous. Alors que la NASA est actuellement aux prises avec son programme Artemis 1, l'agence spatiale américaine a réglé un autre problème plus lointain et pourtant tout aussi problématique. A des années-lumière de nos pénates, il se trouve en effet que le vaisseau spatial Voyager 1, lancé il y a 45 ans, transmettait depuis le début d'année des données bien mystérieuses. Après de nombreuses recherches, les ingénieurs de la NASA ont trouvé la cause de cette faille pour le moins critique. Et non, pas de bonhommes verts à signaler, la réponse à cet imbroglio tiendrait en réalité à ordinateur zombie qui n'aurait jamais dû être utilisé pour relayer les données de télémétrie du vaisseau. Résultat des courses : le système d'articulation et de contrôle d'attitude de Voyager 1, qui maintient son antenne dirigée vers la Terre, a commencé au début de l'année à renvoyer des informations qui ne reflétaient pas ce qui se passait réellement à bord. La sonde "avait commencé à envoyer les données de télémétrie par le biais d'un ordinateur de bord dont on savait qu'il avait cessé de fonctionner il y a des années, et l'ordinateur a corrompu les informations", a indiqué la NASA pour expliquer le phénomène. Pour autant, si les données renvoyées vers la Terre semblaient invalides, le reste de la sonde était pour sa part en bonne santé, cette dernière continuant à recueillir et à renvoyer des données scientifiques. Le problème a beau être désormais résolu, ses causes semble encore difficile à déterminer pour l'agence spatiale américaine, qui craignent désormais l'effet boule de neige. Du côté de la NASA, on indique donc que les recherches se poursuivent pour déterminer la nature du problème, en croisant les doigts pour que cette crise n'hypothèque pas l'avenir du vaisseau spatial le plus éloigné de la Terre. Lancé de Cap Canaveral en septembre 1977, Voyager 1 se trouve désormais à plus de 23 milliards de kilomètres de la Terre. Premier objet fabriqué par l'homme à pénétrer dans l'espace interstellaire, la sonde s'occupe désormais de mesurer la densité de la matière à l'endroit où elle se trouve. Si son odyssée se poursuit, le vaisseau devrait toutefois un jour sortir des radars de la NASA et quitter notre bon vieux système solaire... Même si, rassurez-vous, ce ne sera pas avant très, très longtemps. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
26 Nov 2024 | Vous jouez à Pokémon Go ? Vous ne le saviez pas, mais vous entraînez l'IA à cartographier le monde | 00:03:04 | |
Aujourd’hui, on parle de Pokémon Go, ce jeu mobile ultra populaire qui pousse des milliers de fans à se déplacer partout dans le monde depuis sa sortie en 2016. Ce que vous ne saviez probablement pas, c’est qu’en attrapant Pikachu ou Dracaufeu, vous participez en réalité à l’entraînement d’une IA destinée à cartographier le monde. Alors premier point, comment cela fonctionne ? Niantic, l’éditeur de Pokémon Go, a récemment révélé qu’il utilise les données générées par les joueurs pour former un grand modèle géospatial. Ce modèle aide à mieux comprendre les environnements en 3D. En clair, les joueurs, avec leurs smartphones, parcourent des lieux, prennent des photos et partagent involontairement des informations géographiques précieuses. Tout cela alimente un système de positionnement visuel, une technologie clé pour élaborer des applications de réalité augmentée et des cartes intelligentes. Par exemple, imaginez une église. Si une IA classique ne voit que sa façade, elle n’aura aucune idée de son architecture globale. Mais grâce aux joueurs de Pokémon Go, qui tournent autour de ces monuments et les photographient sous plusieurs angles, l’IA apprend à reconstituer des espaces en 3D. Mais Niantic a décidé d'aller encore plus loin avec une nouvelle fonctionnalité pour booster le recueil de données. Une nouvelle fonctionnalité pour booster le recueil de données L'éditeur à récemment lancé une fonction appelée Pokémon Playground. Cette nouveauté permet aux joueurs de placer un Pokémon dans le monde réel pour que d’autres puissent le voir. Et cela implique de scanner les lieux en détail, en capturant des images sous différents angles. Résultat : des millions de photos enrichissent chaque semaine la base de données de Niantic. Impressionnant, non ? A quoi servent ces données ? Niantic affirme que les informations qui entraînent son modèle d'IA ne sont pas uniquement destinées à ses jeux. Son modèle d'IA pourrait être utilisé dans des domaines comme la robotique, la réalité augmentée, ou encore les systèmes autonomes. En somme, Pokémon Go est devenu un outil discret mais puissant pour construire des cartes 3D hyper-détaillées. Ce qui est fascinant, c’est que non seulement l’entreprise gagne de l’argent grâce à ses jeux, mais elle prévoit aussi de monétiser auprès de clients professionnels ces cartes créées… grâce à vous, les joueurs. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
17 May 2022 | Aramco dépasse Apple en bourse, symbole d'un retournement économique mondial | 00:03:22 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vous explique pourquoi Aramco dépasse Apple en bourse, et pourquoi cela est un symbole d'un retournement économique mondial. Le secteur de la tech, et Apple en premier lieu, est miné par la pénurie mondiale de semi-conducteurs. Une pénurie qui oblige à réduire la production d'appareils connectés. Et l'une des conséquences de cette situation, c'est que la marque à la pomme n’est plus l’entreprise la plus chère du monde depuis la semaine dernière. Evidemment, ce n'est pas la seule raison. Et nous allons entrer dans le détail pour mieux comprendre. Oui, c'est le géant pétrolier saoudien Saudi Aramco qui est redevenu l'entreprise la plus valorisée au monde, passant devant Apple. Et Microsoft, première entreprise du classement des sociétés les mieux valorisées en 2019, arrive en troisième position désormais. L'agence Bloomberg assure que l'entreprise pétrolière saoudienne a désormais une valorisation estimée à 2 430 milliards de dollars. Alors pourquoi ce changement ? Oui, Apple souffre du fait des semi-conducteurs, mais Aramco grimpe grâce à la récente flambée des cours du pétrole brut. Bien sûr, la valorisation d'Apple reste plus que conséquente. La capitalisation de l'entreprise californienne est de 2 370 milliards de dollars à date. Mais cette capitalisation s'est effritée depuis le début de l'année. En janvier dernier, l'entreprise de Cupertino était la première société à dépasser la barre des 3 000 milliards de dollars de capitalisation boursière. Mais depuis, la valorisation d'Apple a chuté de près de 20% et ce alors même que la capitalisation d'Aramco était en hausse de 28%. Il faut noter que la correction est brutale pour les valeurs de la tech, et touche tout le Nasdaq. Cet indice boursier de la tech a ainsi perdu plus de 25% depuis le début de l'année, et ce dans le sillage d'un changement de politique monétaire de la Banque centrale américaine, la Fed, face à l'inflation et la guerre en Ukraine. On l'a donc bien compris, l'appréciation du secteur de l'énergie et le ralentissement d'activité dans le secteur de la tech ont provoqué un retournement de situation. Un retournement que Bloomberg juge durable. "Même si le mouvement s'avère de courte durée et qu'Apple reprend la première place, l'inversion des rôles souligne la puissance des forces majeures qui traversent l'économie mondiale", note l'agence. Le chassé croisé entre Apple et Aramco n'est cependant pas une affaire nouvelle. Apple avait dépassé Aramco juillet 2020, durant la crise du Covid-19, et ce alors que le groupe saoudien était lui pénalisé par la chute des cours et la baisse de la demande, allant de pair avec le ralentissement de l'activité économique. En France, on note que c'est l'opérateur Orange qui arrive en seconde place du classement hexagonal, avec une valorisation de plus de 16 milliards d'euros. Et la première place est occupée par Louis Vuitton. Le géant du luxe revendique une valorisation de plus de 20 milliards d'euros. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
03 Nov 2022 | Comment ce luthier vend ses guitares sur son site web | 00:03:29 | |
Bonjour, je m'appelle Anne Mignard et je vous invite à travers les podcasts de ZNet. fr à découvrir le monde de la transformation numérique chez les petites et très petites entreprises.
Aujourd'hui je vous parle d'un passionné de guitare qui depuis ses 18 ans, fabrique ses instruments en amateur et qui grâce aux outils numériques a pu faire de sa passion un métier celui de luthier. Après ses études, en 2007, Clément Guéton, avec un diplôme de designer industriel s'est lancé dans la vie active. Il a rapidement été embauché par une société spécialisée dans la fabrication de poêle à bois et cheminée. Armé d'une souris ou d'un crayon à papier, il a alors dessiné toute la journée des ces deux éléments de chauffage au gré des désirs des clients dans la limite des contraintes techniques. En même temps, Clément consacrait alors tout son temps libre à son instrument fétiche, la guitare. Il en jouait bien sûr mais en fabriquait aussi grâce au savoir-faire acquis durant ses études. Les années ont passé et l'entreprise a décliné. Tant et si bien que Clément, en 2014 s'est vu remercié avec des indemnités. L'occasion pour le luthier amateur de se lancer. Sans boutique et pour se faire connaître, il a tout simplement choisi de vendre ses guitares sur un site internet, sur lequel il a tout misé. Il s'est d'ailleurs formé à cet effet, pour être le mieux référencé possible. Le nom du site : ligerie-guitare.fr. Sur ce site, tout y est, le catalogue, les photos des prototypes, les prix...mais aussi un configurateur qui permet aux clients de choisir les caractéristiques de leur guitare avant de passer commande.... une quantité d'options est disponible dans la fabrication du futur instrument. Le site comporte aussi toute la partie réparation, avec à chaque fois, une illustration et le tarif pour changer une corde de guitare ou un micro. Et face à ce vaste choix d'options, le client n'est il pas perdu ? Il peut toujours envoyer des mails pour des questions ou tout simplement appeler de vive voix Clément. Et ça marche, puisque le site est aujourd'hui le second recommandé par Google pour tout ce qui est "guitare made in France" ou encore " guitare sur mesure". Mais Clément n'est pas qu'un exécutant des désirs des clients, comme il l'était pour les poêles à bois, il dessine et crée lui-même les instruments. Avec un papier et une feuille mais aussi une quantité d'instruments informatiques qui laisse libre choix à son imagination en terme de couleur, de graphisme ou encore de matière. Ce qu'apprécient nombre de musiciens, certains plus ou moins connus dans le milieu du rock métal...qui font fonctionner le bouche à oreille. Clément a aussi créé de petites vidéos de démonstration de ses instruments sur sa chaîne Youtube. Là aussi, toute la communication est maîtrisée...les images et le son sont de bonne qualité et les vidéos dédiées aux guitares très informatives et bien illustrées. Du coup, nul besoin de boutiques physiques. De toute façon, les deux tiers des clients de Clément n'habitent pas sa région . De nombreuses commandes se font uniquement par mail, messagerie instantanée et téléphone, ensuite la guitare terminée, elle est envoyée via transporteur. Dans l'ensemble Clément est plutôt fier et satisfait de s'être lancé dans l'aventure mais n'a qu'un seul regret...il n'a plus le temps de jouer de son propre instrument. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
27 Sep 2022 | Cultiver son jardin dans l’Espace, le rêve d’Interstellar Lab | 00:02:29 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui je vous explique comment Interstellar Lab conçoit l'agriculture du futur avec son BioPod. Cultiver de la vanille au Canada et des fruits de la passion en Angleterre ? Demain, ce ne sera peut-être plus une idée si farfelue. C’est en tout cas ce qu’imagine la startup française Interstellar Lab, avec son projet hydroponique baptisé BioPod. En quelques mots : il s’agit d’un module portatif d’une dizaine de mètres de long dans lequel sont installées des étagères permettant de cultiver des plantes hors sol. Les paramètres comme l’air, l’humidité et l’eau sont contrôlés en temps réel pour optimiser la production et minimiser les pertes. L’équipe d’interstellar Lab travaille dessus depuis quatre ans. Ce mois-ci, le premier modèle jamais construit a été présenté à la presse. Interstellar Lab compte bien accélérer la cadence, et entend fabriquer une centaine de modèles de ce type d’ici l’an prochain. Si ces BioPods ne peuvent pas nourrir toute la planète, ils sont une réponse à la sur-exploitation des terres agricoles, et au changement climatique qui menace de détruire les récoltes. Les agriculteurs ne sont pas les seuls intéressés. Interstellar Lab participe également à des tests avec des industriels pharmaceutiques, qui étudient la croissance de certaines espèces de plantes aux vertus médicinales dans un environnement artificiel. Et les enjeux vont au-delà de notre chère planète : D’après Interstellar Lab, ce projet technologique renoue avec l'exploration spatiale. La startup rêve en effet de pouvoir embarquer son module dans des missions spatiales… et pourquoi pas, un jour, faire pousser des fraises sur Mars. Bon, même si la NASA et le CNES ont eu vent du projet, on penche encore plus du côté de la science-fiction que de la réalité. D’ailleurs, la référence au film “Seul sur Mars” ne vous aura pas échappée. Dans ce récit, un astronaute, laissé pour mort sur la planète rouge, tente de cultiver sa propre nourriture pour survivre dans ce désert aride, bien inhospitalier. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur notre site internet. Et retrouvez tous les jours un nouvel épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
21 Nov 2024 | Google Lens se lance dans le shopping physique | 00:03:01 | |
Aujourd'hui, on parle de Google Lens, la fonction de reconnaissance visuelle de Google pour smartphone. Elle s'enrichit d'une nouvelle fonctionnalité pensée pour simplifier le shopping en magasin, juste à temps pour les fêtes de fin d’année. Vous allez voir, c'est pratique et ingénieux ! Mais pour l'instant, ça n'est déployé qu'aux Etats-Unis. En attendant son arrivée possible en France donc, je vous explique d'abord pourquoi c'est une innovation pour les achats en magasin Cette nouveauté répond à une frustration que l'on connaît vous et moi. Il m'arrive souvent par exemple d'hésiter à acheter un produit dans un magasin parce que je ne sais si il est fiable ou si son prix est correct. Une photo et des infos Grâce à Google Lens, plus besoin de tergiverser. Vous prenez simplement une photo du produit avec Google Lens via l’application iOS ou Android. Et là vous accédez à une mine d’informations ! Par exemple des prix comparés dans différents magasins, ou encore des avis d’acheteurs. Concrètement, cela vous permet de mieux vous guider dans les rayons. Imaginez, par exemple, que vous cherchez un jouet pour Noël. Vous le photographiez dans le rayon, et en un clin d’œil, vous savez s’il est moins cher ailleurs ou ce qu’en pensent les autres parents. 20 milliards de recherches visuelles par mois Et ça devrait plaire à une très grand nombre d'internautes mobiles. Car cette nouvelle fonctionnalité s'appuie sur un outil technologique, Google Lens, qui est déjà largement plébiscitée. Oui, Google Lens, c’est loin d’être un gadget. L’application est déjà utilisé pour près de 20 milliards de recherches visuelles par mois. Et 20 % de ces recherches visuelles concernent le shopping. Côté technologie, tout repose sur le Shopping Graph de Google, une immense base de données de 45 milliards de listes de produits et de données d’inventaires. Et la consultation de cette gigantesque base de données est rendue possible par les avancées de Google en matière d'IA et de reconnaissance d’images. Quelles restrictions ? Reste qu'il y a quelques limites à garder en tête, en plus de sa disponibilité pour l'instant uniquement aux États-Unis. Car oui cette fonctionnalité a des restrictions. Elle fonctionne uniquement pour certains produits comme les cosmétiques, les jouets et les produits électroniques, et uniquement dans les magasins partageant leurs données de stocks avec Google. Et, petite précision : vous devrez autoriser le partage de votre position pour en profiter. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
04 Jan 2022 | Max Schrems, le fossoyeur du Safe Harbour et du Privacy Shield | 00:03:02 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Louis Adam et aujourd’hui je vais vous parler de Max Schrems, un étudiant autrichien qui a fait bouger les lignes du droit européen en matière de protection des données. Schrems 1 et Schrems 2 : ce sont les noms donnés à deux arrêts majeurs de la cour de justice européenne, rendus en 2015 et 2020. Ces deux décisions de justice sont venues rebattre les cartes en matière de cadre légal permettant d’exporter des données personnelles. Elles ont mis fin au Safe Harbour et au Privacy Shield, deux accords passés entre les Etats-Unis et l’Europe afin de simplifier les échanges de données personnelles transatlantiques. Et comme leur nom l’indique, on doit ces deux arrêts à l’action en justice de Max Schrems. En 2011, l'étudiant autrichien en droit n’est pas tout à fait un inconnu mais peu de gens en Europe ont entendu parler de lui. Il s’engage à l'époque dans la lutte pour la vie privée et la protection des données personnelles. Et rapidement, il va s’attaquer à un très gros morceau : Facebook. Le début d’une longue guerre juridique avec le réseau social, qui se poursuit toujours aujourd’hui.
En 2013, Max Schrems attaque Facebook en s’appuyant sur les révélations d’Edward Snowden. Les documents publiés montrent que Facebook collabore avec les services du renseignement américain, et que les données de ses utilisateurs ne sont donc pas aussi protégées et confidentielles que le prétend le réseau social. Après plusieurs allers-retours devant les cours de justice irlandaises, l’affaire atterrit devant les juges de la CJUE, la cour de justice européenne. Celle-ci tranche le sujet et donne raison à Max Schrems. Avec une conséquence non négligeable : elle invalide par la même décision le Safe Harbour, un texte qui encadrait jusqu’alors l'échange de données personnelles entre l’europe et les Etats-Unis. Cette décision de 2015 est un petit séisme en matière de droit des données personnelles. Mais ce n’est pas le dernier.
Rapidement, la Commission européenne et le gouvernement américain parviennent à un nouvel accord encadrant les échanges de données, baptisé Privacy Shield. Le texte propose une version remaniée, avec de nouveaux engagements pour les deux parties en matière de protection des données personnelles. Mais de nombreuses zones d’ombre subsistent, notamment sur la question de l’accès du renseignement américain aux données d’Européens traitées par des entreprises américaines. Max Schrems attaque donc le nouveau texte, toujours dans le cadre de sa procédure l’opposant à Facebook. Et il s’appuie sensiblement sur les mêmes arguments que pour le Safe Harbour. On aurait pu croire que les rédacteurs du nouveau texte auraient retenu la leçon, mais non : en juillet 2020, la CJUE rend son avis et invalide à son tour le Privacy Shield. C’est la décision Schrems 2. Depuis, on attend toujours un nouveau texte pour encadrer les échanges de données entre l’Europe et les Etats-Unis. Et Max Schrems attend toujours une décision dans son conflit avec Facebook. Lui-même n’est pas sûr de l’obtenir un jour, mais en chemin, il peut déjà se vanter d’avoir obtenu deux décisions majeures pour le droit européen. Et voilà, on a fait le tour du sujet. Pour en savoir plus, rendez vous sur ZDNet.fr . Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
03 Dec 2024 | Les sanctions américaines touchent les entreprises de la tech chinoises pour la troisième fois | 00:03:03 | |
Aujourd’hui, on parle des nouvelles restrictions imposées cette semaine par les États-Unis à l’industrie chinoise des semi-conducteurs. C'est la troisième campagne de sanctions en quelques années, et les conséquences pourraient être lourdes pour Pékin. Alors voyons ensemble tout d'abord l’objectif de ces nouvelles mesures. L’administration Biden souhaite limiter l’accès de la Chine à des technologies avancées, notamment celles qui permettent de développer des puces destinées à l’intelligence artificielle ou à des usages militaires. Pour cela, 140 nouvelles entreprises chinoises ont été ajoutées à la liste des entreprises sanctionnées par les Etats-Unis. Les sociétés chinoises inscrites dans cette liste ne peuvent plus recevoir de matériel en provenance des Etats-Unis et de pays alliés sans une licence spéciale accordée au compte goutte par les autorités américaines. Samsung pourrait perdre 30 % de ses ventes de puces mémoire HBM Parmi elles, des fabricants d’équipements pour semi-conducteurs comme Naura Technology Group. Ces restrictions visent à ralentir les ambitions chinoises en matière de production de puces de nouvelle génération. Les nouvelles règles affectent particulièrement les puces mémoire à large bande passante. Ces puces sont essentielles pour faire tourner des applications informatiques haut de gamme comme celles qui permettent de faire de l’entraînement de modèles d’intelligence artificielle. Par exemple, Samsung, l’un des leaders dans ce domaine, pourrait perdre une partie importante de son marché chinois, qui représente environ 30 % de ses ventes de puces mémoire HBM. Les restrictions américaines ne s’arrêtent pas aux frontières des entreprises américaines Enfin pourquoi des sanctions américaines contre la Chine ont-elles une répercussion mondiale ? Oui, les restrictions américaines ne s’arrêtent pas aux frontières des entreprises américaines. Elles s’appliquent aussi aux équipements fabriqués dans des pays comme Israël, Singapour ou Taïwan. Pourquoi ? Et bien parce que le rapport de force entre les Etats-Unis et ces pays penche en faveur du premier. Si Taïwan n'obéit pas à la loi américaine sur les sanctions, le pays s'expose à des représailles. Du côté chinois, la réponse est vive. Le ministère des Affaires étrangères accuse les États-Unis de compromettre les chaînes d’approvisionnement mondiales. Reste que malgré les efforts de la Chine pour développer une production locale, elle reste encore dépendante de technologies venues de l’étranger. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
13 Feb 2025 | IA en entreprise, tout le monde en veux mais personne ne sais comment faire ! | 00:02:51 | |
C'est un paradoxe étonnant. 97 % des dirigeants d’entreprise prévoient d’intégrer l’intelligence artificielle dans leur stratégie, mais seulement 1,7 % se sentent réellement prêts à franchir le pas mentionne une étude de Cisco. Alors pourquoi un tel décalage entre ambition et préparation ? Manque de connaissances techniques Premièrement, si 80 % des dirigeants reconnaissent le potentiel de l’IA dans leur métier, beaucoup sont freinés par leur manque de connaissances techniques. Près de 70 % redoutent que ce déficit ne leur fasse perdre du terrain face à leurs concurrents. Et pour cause : plus de la moitié d’entre eux estiment déjà avoir perdu en compétitivité en raison d’un sous-investissement technologique. Les trois priorités des chefs d'entreprise face à l'IA Deuxièmement, les chefs d’entreprise ne comptent pas rester passifs. Pour combler ce retard, ils ont défini trois priorités.
Mais ils ne veulent pas agir seuls. 96 % des dirigeants s’appuient sur des partenaires de confiance pour accompagner cette transformation. Une inaction destructrice Enfin, Cisco souligne que l’inaction pourrait coûter cher. Selon l’étude, le manque d’investissement dans les nouvelles technologies pourrait entraîner une hausse des coûts d’exploitation, une baisse de la productivité et au final une perte de parts de marché. À l’inverse, les dirigeants qui osent adopter l’IA dès maintenant peuvent en espérer des bénéfices clairs. Ils citent sur le podium :
En résumé, les entreprises doivent agir vite et de manière stratégique, en misant sur des infrastructures modernes et des réseaux résilients pour rester compétitives à l’ère de l’IA. C'est en tout cas le souhait de Cisco qui est, rappelons le, un vendeur de matériel réseau et informatique. Jeetu Patel, le Chief Product Officer de Cisco en est lui persuadé. « À terme, il n’y aura plus que deux types d’entreprises : celles qui sont des entreprises d’IA, et celles qui ne sont plus pertinentes » dit-il. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
20 May 2022 | Louer une trottinette libre service : simple ? Pas pour tout le monde | 00:02:47 | |
Bonjour à tous et bienvenue sur le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je suis Précilia Ahissou et aujourd'hui je vous explique pourquoi louer une trottinette libre service doit être très simple pour l'utilisateur, mais est d'une complexité folle côté technique. De nos jours, voyager en ville, c'est simple. Vous débloquez une trottinette, une voiture, ou un vélo electrique en libre service depuis votre smartphone, et c'est parti. Mais bien sûr, vous ne vous doutez pas de l'incroyable complexité technique derrière ces simples gestes. Tout d'abord, les sociétés de location doivent définir leur zone d'opération. C'est à dire quels sont les endroits de la ville où seront déposés et loués les véhicules pour gagner de l'argent. Et pour faire cela, l'analyse de données et l'intelligence artificielle sont fortement mises à contribution. Côté données, plusieurs critères sont analysés, comme le profil sociodémographique de la zone, la fréquentation, ou encore le nombre de restaurants, de musées, d'entreprises, bref, de destinations potentielles pour les clients. Côté intelligence artificielle, la technologie permet de prédire la demande afin de s'assurer que les véhicules disponibles se trouvent dans des quartiers où il seront loués rapidement. Et si ce n'est pas le cas, les algorithmes doivent ajuster les tarifs de location pour rendre la zone ou le véhicule est garé plus attrayants. C'est capital parce que cela permet d'optimiser le service bien sûr, mais aussi de réduire les coûts de fonctionnement. Oui car cela évite qu'un technicien se déplace en personne pour relocaliser le véhicule. Mais là ou la technologie est encore plus cruciale, c'est du côté de l'expérience client. Car oui, l'expérience client est certainement le facteur le plus important du succès d'un service de mobilité partagée. De la réservation sur smartphone à la prise en main du véhicule, le service doit être fluide, et surtout instantané. Durée de location, enregistrement des documents administratifs, ergonomie de l'application et du parcours client, l'instantanéité du service est l’un des atouts majeurs assure dans une tribune publiée sur ZDNet Olivier Reppert, le PDG de Share Now, une société spécialisée dans l'autopartage en free-floating. Surtout que pour la location de voitures, l'expérience clients est jalonnée de multiples étapes. Comme l'évaluation de l'état de fonctionnement et de la propreté du véhicule. Enfin, l'entretien des flottes de véhicules est lui aussi nourri à la technologie. Ce sont des algorithmes de machine learning qui permettent d'avoir une visibilité complète sur l'état des véhicules afin d'adopter des mesures de maintenance prédictive. Ces algorithmes utilisent des données du véhicule, l'heure du dernier nettoyage, le modèle de véhicule, mais aussi les commentaires laissés par les utilisateurs sur la propreté du véhicule. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
06 Dec 2024 | Des scanners de sécurité à base d'IA totalement inefficaces | 00:03:05 | |
Aujourd’hui, on parle de sécurité et d’intelligence artificielle avec une affaire qui fait grand bruit. La FTC, l’autorité américaine de la concurrence, accuse la société Evolv Technologies de publicité mensongère concernant ses scanners de sécurité à base d'IA. On va voir ensemble ce que cela implique, notamment pour les établissements scolaires qui ont adopté ces technologies outre-Atlantique. Premier point, les promesses vendues par cette société sur la performance de l'IA en matière de sécurité n'ont pas été tenues. Détecter les armes avec l'IA En juin 2022 l'ancien directeur général d'Evolv, Peter George, s'était vu demander si son entreprise aurait pu empêcher la tragique fusillade dans l'école d'Uvalde, au Texas, où 19 élèves et deux enseignants ont été tués. Il avait alors répondu "Lorsque quelqu'un passe par notre système et qu'il possède une arme dissimulée ou non, nous la trouvons, un point c'est tout." Evolv affirmait en effet que ses scanners pouvaient détecter des armes tout en ignorant les objets inoffensifs, comme des bouteilles d’eau ou des classeurs. Lacunes et marketing Or, la réalité s'est avérée bien différente. Non seulement les scanners ont déclenché de nombreuses fausses alarmes pour des objets banals, mais pire, dans certains cas, ils ont échoué à repérer des armes. Et ce dans des conditions réelles. Des écoles qui avaient investi des millions de dollars dans ces équipements ont constaté des lacunes graves, mettant en question la sécurité des élèves. Deuxième point, ces lacunes ont désormais des conséquences légales et financières importantes. Les autorités américaines ont exigé qu’Evolv modifie ses pratiques marketing. Les écoles qui ont acheté ces systèmes entre 2022 et 2023 pourront également annuler leurs contrats. La performance des scanners n'a jamais évolué De plus, la société fait face à des recours collectifs d’actionnaires. Ils estiment avoir été trompés sur les capacités réelles des produits. Surtout qu'une des grandes promesses de l'IA, c'est de s'améliorer en apprenant. Ici, la performance des scanners n'a jamais évolué. Enfin troisième point, cette affaire met en lumière une problématique plus large. Surfant sur l'effet de mode, des fournisseurs survendent les capacités de l'intelligence artificielle. Or, ils ne sont en aucun cas une solution miracle. Méfiez-vous donc des discours commerciaux qui à domicile ou au bureau vous promettent monts et merveilles grâce à l'IA. C'est souvent survendu, et parfois, tout simplement, ça ne marche pas du tout. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
20 Oct 2022 | TPE-PME : comment se remettre d'une attaque informatique ? | 00:05:44 | |
Aujourd'hui nous nous rendons chez un artisan de la région parisienne pour parler des attaques informatiques. Par mesure de sécurité, nous ne vous donnerons pas le nom de l'entreprise ni celui de son responsable. Sachez seulement que c'est une société très ancienne et qu'elle emploie aujourd'hui une dizaine de salariés. Sachez aussi qu'elle a fait l'objet de deux attaques informatiques. L'une en 2017 et l'autre en 2020. Et pourtant comme le raconte celui que nous appellerons monsieur Martin, tout un dispositif de sécurité était déjà en place avant l'attaque. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
23 May 2022 | Le télétravail ne nous rend pas moins productif | 00:03:04 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui je vous explique pourquoi le télétravail promet un gain de productivité à long terme chez les entreprises qui optent pour un mode hybride. Pour ceux qui en doutent encore : non, le télétravail ne rend pas les salariés moins productifs. C’est même l’inverse qui se produit, selon le conseil national de la productivité, un organisme rattaché à Matignon. Les économistes prédisent que la généralisation du télétravail engendrera une hausse de la productivité une fois la période Covid terminée. Ainsi, le passage à une proportion de télétravailleurs de 5% avant le Covid à 25% à plus long terme pourrait générer un gain de productivité de 5 à 9% en moyenne, selon les chiffres officiels. Pourtant, le télétravail était loin de faire l’unanimité il y a encore deux ans. Il s’était imposé en mars 2020 comme une solution de secours dans un contexte pandémique angoissant, et un peu à la hâte, il faut bien l’avouer. Mais en 2022, force est de constater que le travail à distance est rentré dans les habitudes. Et aujourd’hui, de plus en plus d’entreprises optent pour des organisations hybrides. Les salariés qui le peuvent se voient proposer des emplois du temps qui alternent entre le bureau et la maison. Le conseil national de la productivité encourage d’ailleurs l’installation d’un rythme de travail hybride. En effet, selon les analystes, 2 ou 3 jours de télétravail par semaine est optimal pour garantir la productivité et le bien-être des salariés, sans perdre les interactions. Trop de télétravail n’est en revanche pas idéal, nous disent les experts. Même si les collaborateurs ont appris à communiquer sur Slack et via Zoom à longueur de journée, il reste très difficile de garantir une coordination étroite et fréquente entre les équipes via ces seuls canaux de communication. Reste que l’argument majeur en faveur du télétravail, c’est la suppression des temps de trajet entre le domicile et le lieu de travail. Selon le conseil national de la productivité, ce temps retrouvé est aussi favorable à la productivité. Les travailleurs sont plus libres d’organiser leur temps comme ils l’entendent, sans les mêmes contraintes qu’au bureau. Reste que pour bien travailler chez soi, certaines règles s’imposent. Il est recommandé, par exemple, d’instaurer une routine pour éviter de prendre de mauvaises habitudes pendant la journée. Pour être performant chez soi, avoir un bureau et du bon matériel sont aussi des prérequis. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur ZDNet.fr. Et retrouvez tous les jours un nouvel épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
04 Nov 2024 | Voici pourquoi les données sont le talon d'Achille de l'IA en entreprise | 00:02:40 | |
Aujourd’hui voyons pourquoi les données sont pour les entreprises le point de faiblesse et tout à la fois un élément essentiel du développement de l’intelligence artificielle et de la transformation numérique. Malgré l’intérêt croissant pour l’IA générative, de nombreuses entreprises se heurtent en effet à cet obstacle majeur. Pour aller vite, les données sont mal organisées, et donc sont difficiles à traiter et à exploiter. C'est le constat de deux récentes études, qui concluent que les données constituent le talon d’Achille de l’IA en entreprise. De nombreuses entreprises considèrent encore les données comme un coût Premièrement, de nombreuses entreprises considèrent encore les données comme un simple coût, plutôt qu’un levier de valeur. Malgré le discours marketing ambiant donc, les entreprises qui comprennent l’opportunité stratégique que représente l'analyse de données restent rares. Pourquoi donc ? Parce que les outils de mesure de la rentabilité concrète de l'analyse des données en entreprise sont difficiles à manier. Conséquence, la majorité des cadres interrogés dans les deux études avouent manquer de méthodes pour estimer l’impact concret des données sur leurs décisions et, donc, leur rentabilité. Et le coût des données freine également les investissements en IA Deuxièmement, le coût des données freine également les investissements en IA. C'est la raison pour laquelle près de la moitié des entreprises adoptent l’IA sans avoir les infrastructures de données adéquates. 86 % des DSI rencontrent des obstacles liés aux données. Il s'agit principalement de difficultés d’accès aux informations en temps réel. Ce manque de préparation entraîne échecs et retards, et les dirigeants hésitent alors à intégrer l’IA dans leurs opérations. Les entreprises à la peine avec la gouvernance des données Enfin, les entreprises peinent avec la gouvernance des données. Une des deux études montre que la gestion de la qualité des données, l’alignement des modèles d'IA et la transparence des flux d’information sont au cœur des difficultés. Les entreprises doivent donc être capables d’évaluer, de corriger et de maîtriser la qualité de leurs données pour éviter des erreurs coûteuses et garantir une IA performante. Et ça aussi, c'est difficile à faire. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
25 Oct 2022 | Une Customer Data Platform, pour qui pourquoi, avec Dimitri François, responsable de l'offre CDP d'Adobe | 00:06:08 | |
Bonjour à toutes et à tous, et bienvenu pour ce nouvel épisode du ZDnet le Mag en partenariat avec Adobe. Le nouvel épisode de ce podcast s'adresse aux responsables marketing qui se demandent comment mieux analyser les données client. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
03 Feb 2022 | Ce nouveau format de fichier réduit par 30 le temps d'analyse de l'ADN | 00:03:24 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui je vais vous expliquer pourquoi un nouveau format de fichier permet de réduire le temps d'analyse de l'ADN. Oui, nous allons parler de calculs simultanés. Le traitement des données produites par le séquençage de l'ADN est chronophage. Comptez en général deux semaines. Mais voici qu'un nouveau format de données permet de passer à une demi-journée de traitement. Comment et pourquoi ? Et bien écoutez ce qui suit. Ce nouveau format de fichier informatique accélère l'analyse du séquençage par nanopore. Et allez ! Encore un terme incompréhensible. Voilà, je vous explique ce qu'est le séquençage nanopore. Cette méthode de séquençage de l'ADN est utilisée depuis 1995. Pour ce faire les laborantins utilisent des trous d'un diamètre de l'ordre du nanomètre, d'où le terme nanopore. Et le séquençage par nanopore permet d'améliorer les traitements de patients atteints de cancer par exemple. Problème, le processus d'analyse du séquençage prend beaucoup de temps. Mais voici que des chercheurs australiens ont mis au point un nouveau format de fichier informatique qui permet d'accélérer l'analyse du séquençage. Oui, un format de fichier qui a une incidence sur le temps de traitement. Les résultats de ces chercheurs ont été publiés dans la revue Nature Biotechnology. Le format SLOW5 permet de traiter le séquençage de l'ADN par nanopore "plus de 30 fois plus vite" que le format de fichier précédent. Ne riez pas, ce format de fichier un peu lent s'appelle lui FAST5. Jusqu'à présent, les données produites par le processus de séquençage d'ADN sont systématiquement enregistrées dans des formats de fichiers FAST5. Le résultat d'un séquençage d'ADN est contenu dans un fichier informatique d'un volume d'environ 1,3 téraoctet. Soit l'équivalent de 650 heures de vidéo haute définition. Et pour traiter plus d'un Teraoctet de données, il faut environ deux semaines aux ordinateurs. Avec le format de fichier SLOW5, on passe à une demi-journée pour le même volume d'information. Et voici pourquoi. Contrairement au format FAST5, le format SLOW5 permet le calcul parallèle. C'est-à-dire que plusieurs processeurs peuvent exécuter simultanément de multiples analyses à partir du même fichier. D'où ce gain de temps très conséquent. "C'est comme si vous essayiez de creuser un très grand trou avec 10 personnes" explique un chercheur. "S'il n'y a qu'une seule pelle, vous devez la partager. C'est comme ça que ça se passe avec FAST5". "Mais avec SLOW5" poursuit-il, "chacun a sa propre pelle, et ils peuvent tous creuser en même temps et faire le travail beaucoup plus rapidement". Le format FAST5 est lent parce que les données ne sont pas accessibles en parallèle. Il est basé sur le format de données hiérarchique qui a été conçu dans les années 1990 pour fonctionner sur des machines qui, à l'époque, n'avaient qu'un seul processeur. Les machines modernes, elles, embarquent plusieurs processeurs. Inventer un format de fichier qui permette de tirer parti de la simultanéité de la puissance de calcul de ces machines. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
07 Oct 2024 | Comment Google et Goldman Sachs cherchent à influencer la réglementation de l'IA en Europe | 00:03:15 | |
Aujourd’hui évoquons un sujet brûlant. Voici comment Google et Goldman Sachs cherchent à influencer la réglementation de l'intelligence artificielle en Europe. Leur arme ? Un rapport économique qui promet monts et merveilles. Premier point, selon ce rapport, Google estime que l'IA générative pourrait transformer plus de 60 % des emplois en Europe. Cela permettrait non seulement d’augmenter la productivité dans des secteurs clés comme les services, mais aussi de créer des milliers de milliards d’euros de croissance pour l’économie européenne. Google promet même une augmentation annuelle explosive de 8 % du PIB dans la zone euro pour les dix prochaines années. Pour rappel, le taux de croissance actuel est de... 0,3 %. La grande automatisation des services L'idée ici est que l'IA générative, à la différence des robots industriels qui se concentraient surtout sur la production de produits, touche des domaines où la main-d’œuvre est encore majoritairement humaine, comme les services. Deuxième point, ce rapport met en avant la compétitivité technologique de l'Europe, compétitivité qui bat de l'aile. Il rappelle un constat alarmant. En 2022, l’Europe n'a déposé que 2 % des brevets mondiaux dans le domaine de l'IA, contre plus de 60 % pour la Chine et plus de 20 % pour les États-Unis. Allègement des lois européennes pour améliorer l'innovation Ce retard au démarrage est vu par Google comme une conséquence directe de la réglementation excessive dans le secteur numérique. Et de viser directement l'adoption récente du pacte sur l'intelligence artificielle, qui réglemente le développement et les usages de cette nouvelle technologie en Europe Google et Goldman Sachs, qui a fourni les modèles économiques sur lesquels se basent l'étude, plaident donc pour un allègement des lois européennes pour améliorer l'innovation. Au delà de leurs fantastiques projections économiques, ils s’appuient aussi sur le récent rapport de Mario Draghi, ancien président de la Banque centrale européenne, qui signale un ralentissement de la productivité en Europe. Meta et Apple ont retardé le déploiement de certaines technologies d'IA dans l’UE Enfin, malgré ces critiques, Google reconnaît néanmoins la nécessité d’une certaine forme de régulation. Mais le géant américain appelle l’Europe à mettre en place un cadre plus souple, tout en respectant les exigences de confidentialité et de sécurité des données. Cette campagne de lobbying survient alors que d'autres entreprises technologiques américaines comme Meta et Apple ont retardé le déploiement de certaines technologies d'IA dans l’Union européenne, craignant des sanctions ou des obstacles liés aux nouveaux textes, comme la loi sur les marchés numériques, dite aussi DMA. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
17 Mar 2022 | Comment la société Clearview AI redore son blason sur le dos des Russes | 00:03:20 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui je vous explique comment améliorer votre image de marque. Il suffit de proposer vos services à l'Ukraine, et de scanner des milliards de visages russes. C'est en tout cas ce que vient de décider de faire la société Clearview AI. C'est une nouvelle qui a fait les choux gras de la presse française cette semaine. L'Ukraine utiliserait les technologies d'intelligence artificielle (IA) de Clearview AI pour détecter les envahisseurs russes, au plus fort de l'offensive militaire de la Russie contre ce pays. Le ministère ukrainien de la Défense aurait adopté le moteur de reconnaissance faciale de Clearview AI pour « repérer les personnes d'intérêt aux points de contrôle, entre autres utilisations ». Et ce gratuitement, selon la société. Pour ceux qui sont familiers avec le sujet de la reconnaissance faciale, le simple nom de Clearview fait "tilt" tant cette société a déjà défrayé la chronique ces derniers mois. Pour les autres, c'est donc là que vous me demandez : c'est quoi Clearview AI ? Et qu'est ce que c'est que cette sombre histoire de reconnaissance faciale ? Clearview AI est une société qui développe et commercialise des technologies qui permettent de scanner des photos et des vidéos de visages de personnes, et de les reconnaître et de les identifier. Ces produits sont vendus aux forces de l'ordre de divers pays. Pour éduquer son intelligence artificielle, la société fait feu de tout bois. Photos d'identité judiciaires, visuels publiés sur les profils des médias sociaux et sur les sites d'information sont avalés pour entraîner les algorithmes de reconnaissance faciale. L'objectif ? Que n'importe quel visage capturé par un dispositif numérique soit rapidement reconnaissable, comparable, et potentiellement relié à une identité stockée sur une base de données. Concernant les belligérants russes, plus de deux milliards de photos auraient été extraites de VKontakte, le Facebook préféré des Russes. Et plus de 10 milliards de visuels seraient par ailleurs disponibles pour être utilisé par l'IA. C'est un très beau coup de communication pour Clearview. Imaginez un peu : scanner les visages des méchants Russes pour protéger les Ukrainiens ! Mais ce coup de com ne saurait masquer une réalité tout à fait sordide. Car les pratiques de Clearview AI sont assez sauvages en matière de protection de la vie privée. En décembre dernier, en France, la CNIL mettait en demeure Clearview AI de cesser la réutilisation de photographies accessibles sur internet. La manière forte pour empêcher que les photos et vidéos des citoyens français ne soient aspirées sans autorisation pour gonfler sa base de données. Et côté GAFAM, les pratiques de Clearview AI exaspèrent. Google, Microsoft et Facebook ont envoyé des lettres à l'entreprise, exigeant que Clearview arrête de scraper les images de leurs plateformes et services. D'aucuns diraient qu'il pourrait simplement s'agir de jalousie. Car face à la pression de l'opinion publique, Microsoft et Amazon, ou encore IBM, se sont engagés à ne plus vendre de logiciels de reconnaissance faciale aux forces de l'ordre, et ce pour des raisons de protection de la vie privée et de surveillance. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
06 Feb 2025 | Voici le smartphone qui a cartonné en 2024 | 00:03:24 | |
Et bien c'est l’iPhone 15 d’Apple qui a été en tête des ventes mondiales l'an passé. Cette appétence pour le haut de gamme a un impact direct sur le chiffre d’affaires mondial des ventes de smartphones. Il a progressé de 5 % par rapport à 2023. Même le prix moyen de vente de smartphone a atteint un prix record de 345 euros. Ce sont des signes forts qui montrent que malgré tout, l'innovation et la qualité continuent d'attirer le regard des acheteurs de smartphone. La performance d’Apple L’iPhone 15, suivi de près par l’iPhone 15 Pro et l’iPhone 15 Pro Max, domine donc les ventes 2024. Oui, les clients veulent du haut de gamme. Mais par ailleurs, les livraisons mondiales de smartphones ont connu une hausse de 4 % pour la première fois depuis 2021. C'est donc un peu comme si, après une longue période de ralentissement, le secteur du smartphone retrouvait le sourire. Les clients ne se contentent pas du minimum. Ils veulent de meilleurs appareils photo, des processeurs plus rapides et, bien sûr, les dernières technologies comme la 5G pour rester connectés. Apple au royaume des early adopters Pour aller plus loin dans l'analyse des ventes d'iPhone, les données montrent que, sur le dernier trimestre 2024, c'est bien l’iPhone 16 Pro qui a dépassé les ventes des modèles standards. Cela prouve que dès leur lancement, les acheteurs passionnés se précipitent sur les derniers modèles Pro, souvent dès le mois de septembre où sont vendus les nouveaux iPhone, afin de profiter des toutes dernières innovations. Et une fois que l’engouement initial diminue, c’est au tour des modèles classiques de gagner du terrain. Ils sont plus accessibles pour un public soucieux de son budget. Cette dynamique crée une alternance dans la demande et contribue à la stabilité des ventes d’Apple. La concurrence est forte sur le marché mondial Apple n’est pas le seul à innover. Samsung, par exemple, continue de marquer des points grâce à sa série Galaxy S24. Le Galaxy S24 Ultra a même réussi à entrer dans le top 10 mondial des meilleures ventes. Une première pour la série S de Samsung depuis 2018. L'intégration précoce de fonctionnalités d'intelligence artificielle dans ses smartphones est la cause de ces bonnes ventes. Et ce n’est pas tout. D’autres marques comme Vivo et Xiaomi montrent une croissance significative. Cela prouve que la compétition est rude et que l’innovation, surtout autour de l’IA et des capacités de la 5G, est désormais un facteur clé pour séduire les clients. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
06 Sep 2022 | Accompagner l’évolution de l’environnement de travail, comme par magie ! | 00:03:00 | |
Les entreprises sont confrontées à une accélération de l’évolution des modes de travail, qui va vers un modèle beaucoup plus hybride. En conséquence, l’environnement de travail aussi évolue ! Avec une réponse technologique personnalisée et sécurisée, l’entreprise peut offrir une expérience utilisateur optimale à ses salariés et ainsi maintenir satisfaction et productivité. Marie-Héléne Briens Ware pilote le programme stratégique dédié à l'espace de travail numérique chez Orange Business Services. Elle revient sur son rôle auprès d’entreprises en pleine transformation. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
21 Jan 2022 | City manager, un nouveau métier très numérique et bien sûr très urbain | 00:03:11 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries et aujourd’hui je vous explique ce qu'est un city manager, un nouveau métier très numérique et bien sûr très urbain. C'est un nouveau métier lié à la croissance des plateformes numériques de livraison. Sa mission ? Coordonner le développement local des marchés des plateformes numériques comme Uber ou Deliveroo. Un métier qui baigne dans le numérique, donc, mais pas seulement, loin s'en faut. Car leur rôle est tout d'abord de développer le business des plateformes numériques. Et ses plateformes ont des activités multiples. Il peut s'agir de livraison, mais aussi de gestion de flotte de véhicules divers et variés, ou encore de conciergerie façon Airbnb. La recherche de partenariats et la gestion de la relation clients sont donc les missions premières du city manager. Bien sûr, la gestion au quotidien des équipes et le développement de la marque au niveau local excluent le plus souvent le télétravail. Les compétences en urbanisme, développement durable et développement commercial sont fortement appréciées, assure LinkedIn dans une toute récente étude qui évoque ce métier. La même étude mentionne que ce poste est occupé en France par une majorité de femmes. Et les candidats à ce poste sont dans une très grande majorité titulaires d'un Master. Et voici deux exemples de recrutements en cours pour mieux comprendre le rôle de ce nouveau métier. Deliveroo recrute en ce moment un City Manager parisien. Son City Manager doit définir les priorités stratégiques, élaborer les feuilles de route, et prendre des décisions financières. L'amélioration des processus est donc au coeur de la fonction indique la société. Pour Deliveroo bien sûr, il s'agit essentiellement de la relation avec les restaurants, en lien avec l'account manager. Mais le city manager doit également gérer les équipes de terrain locales, surtout pour effectuer des remontées de terrain afin d'améliorer l’application. C'est peut être là que le lien avec le numérique est le plus spécifique. Car il s'agit d'améliorer le fonctionnement de l'application pour les utilisateurs et les livreurs. Ce travail de feedback s'effectue avec les équipes Opérations et Marketing de la plateforme. Frichti recrute de son côté un City Manager à Bordeaux. Placé sous la la supervision du directeur Commercial, il doit lancer le service de livraison de repas dans la capitale girondine. Là aussi, il anime l’activité commerciale B2C et B2B, manage les équipes locales sur place en lien avec le Gestionnaire de Site. Ce nouveau métier de city manager est donc au croisement de l'activité de business developpement classique sur une zone géographique, et du lien technique et fonctionnel avec la plateforme numérique. Nul doute qu'avec la numérisation de l'économie, ce type de fonction est appelé à croître considérablement dans les mois et les années qui viennent. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
16 Jan 2025 | L'IA va changer en profondeur la prise en charge du diabète | 00:03:02 | |
Aujourd’hui évoquons les progrès de l’intelligence artificielle dans le domaine médical, et plus particulièrement de la façon dont elle pourrait révolutionner l’usage de votre glucomètre. Ce petit appareil utilisé pour mesurer votre glycémie pourrait devenir un outil bien plus puissant grâce à l’IA. Comment ? Et bien déjà en analysant mieux les sous-types de diabète. Oui parce que quand on parle de diabète, on pense souvent au deux types principaux, le type 1 et le type 2. Le diabète de type 2, qui concerne environ 95 % des patients, est complexe Mais ce qu’on sait moins, c’est que le diabète de type 2, qui concerne environ 95 % des patients diabétiques, est en réalité beaucoup plus complexe. Il existe plusieurs sous-types, chacun associé à des risques spécifiques, comme des problèmes cardiaques, rénaux ou hépatiques. Des chercheurs de l’Université de Stanford ont donc développé un algorithme d’intelligence artificielle capable d’identifier trois des sous-types les plus courants de diabète de type 2. L’idée est simple. Il s'agit d'utiliser les données que votre glucomètre collecte déjà pour analyser votre métabolisme, et ce sans nécessiter de tests très chers ou compliqués. Une précision impressionnante Et la bonne nouvelle, c'est que les résultats de l'algo sont d'une précision impressionnante. L’algorithme atteint environ 90 % de précision, surpassant même les tests traditionnels en clinique. Il peut identifier si un patient souffre, par exemple, d’une résistance à l’insuline ou d’un déficit en cellules bêta. Aller vers des soins plus accessibles Ces informations sont cruciales, car elles permettent aux médecins de personnaliser les traitements. Certains médicaments, par exemple, seront bien plus efficaces pour un sous-type spécifique. Prenons un exemple concret. Une personne diagnostiquée avec un déficit en cellules bêta pourrait bénéficier d’un traitement axé sur la stimulation de ces cellules. Par ailleurs, une personne souffrant de résistance à l’insuline aurait besoin d’une autre approche que celle jusqu'alors proposée. Au final, cette innovation doit permettre des soins plus accessible. 5,6 % des français sont diabétiques En effet, l’algorithme fonctionne avec des données déjà collectées par des appareils que les patients possèdent souvent chez eux, comme les glucomètres. Pas besoin d’un nouveau processus pour bénéficier de cette avancée. En France, où 5,6 % de la population est diagnostiquée diabétique, cette technologie pourrait transformer la vie de millions de personnes. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
25 Sep 2024 | Ring lance la recherche de fantôme avec ses sonnettes connectées | 00:02:24 | |
Voici une opération marketing des plus originales lancée par le fabricant de sonnettes connectées Ring. Ring est une entreprise connue pour ses caméras de sécurité et ses interphones. Et à l'approche d'Halloween, elle propose une offre peu commune au Etats-Unis. Un prix de 100 000 dollars doit récompenser la meilleure vidéo de fantôme capturée par une de leurs caméras installée chez un client. "La grande recherche de fantômes" Ring promet une très forte récompense pour une vidéo où l'on voit une apparition fantomatique filme à partir de ses caméras connectées. Bien sûr les vrais fantômes sont bienvenus. Mais même si vous n’avez pas de fantômes dans votre maison, pas de panique ! Le concours permet d'envoyer des vidéos de scènes créées avec du maquillage, des costumes ou des accessoires. C’est évidemment une façon pour Ring de promouvoir ses produits tout en s’amusant avec la thématique d’Halloween. Un jury prestigieux évalue les vidéos Parmi eux, on retrouve l'acteur Finn Wolfhard, connu pour son rôle dans la série Stranger Things, mais aussi une chasseuse de fantômes professionnelle. A noter que les juges évaluent les vidéos sur quatre critères. Il s'agit de la clarté de l’apparition, de l’originalité de la vidéo, de la dimension divertissement et enfin de la manière dont le fantôme interagit avec l’équipement Ring. Attention, un seul gagnant remportera le prix. Une façon brillante de combiner marketing, divertissement et créativité Cette opération met aussi l'accent sur la capture de données par les objets connectés du quotidien, qui accumulent de plus en plus de données sur notre environnement, sans même que nous y prêtions attention. Cela met également en avant la qualité des caméras Ring, capables de capturer les moindres détails, qu'ils soient réels... ou un peu plus surnaturels ! Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
10 Oct 2022 | Alexa et les marques, conseils ou arguments de vente ? | 00:02:24 | |
Bonjour à tous et bienvenue dans le ZD Tech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui je vous explique pourquoi l’arrivée des marques dans l’assistant vocal d’Amazon fait craindre des réponses biaisées pour les clients. Demain, les réponses d’Alexa seront-elles toujours aussi pertinentes qu’aujourd’hui ? La question se pose. Amazon, en effet, va bientôt doper les réponses d’Alexa avec des messages sponsorisés par les marques elle-même. Cette fonctionnalité, appelée Customers ask Alexa, se met en route lorsque les questions posées à l’assistant vocal ciblent spécifiquement des produits ou des marques. Alors, les marques de ces catégories de produits auront la possibilité d’y répondre directement. Prenons un exemple. Un client qui achète des produits de nettoyage sur Amazon pourrait demander à son enceinte intelligente : “comment puis-je enlever les poils d’animaux de mon tapis ?” Jusqu’alors, Alexa utilisait des informations tirées d’internet pour répondre aux questions. Mais bientôt, une marque pourra également fournir des réponses qu’elle juge utiles, ainsi que des liens vers sa vitrine Amazon. Selon Amazon, la démarche est on ne peut plus légitime, car les marques sont expertes de leurs produits. Cette fonctionnalité crée en quelque sorte une passerelle en direct entre les marques et les clients. Qui plus est, il ne s’agit pas de publicités payantes. Les vendeurs peuvent voir les questions et y répondre dans une plateforme dédiée, avec des outils en libre-service. Et, pour s’assurer a minima de la qualité des messages, Amazon précise qu’aucune réponse ne sera diffusée sans modération. Le commerce vocal n'en est encore qu'à ses débuts, mais Amazon fait un gros pari sur le fait qu'il deviendra une plateforme commerciale majeure à l'avenir. Mais l’avenir n’est pas tout rose. Il n’est pas déraisonnable de s’attendre à ce que les vendeurs se disputent une place de choix dans le système de réponses fourni par les vendeurs d’Alexa. Il n’est pas non plus déraisonnable de s’attendre à ce que les arguments de vente, même s’ils sont déguisés en réponses très utiles, envahissent ces réponses. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus, rendez-vous sur notre site internet. Et retrouvez tous les jours un nouvel épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. | |||
21 Jun 2022 | iPhone : la mort lente du port Lightning | 00:02:59 | |
Bonjour à tous et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Guillaume Serries, et aujourd’hui je vous explique comment le port Lightning est en train de mourir de sa belle mort. Le port Lightning d'Apple est menacé depuis un certain temps. Mais le coup de grâce est bien venu récemment du législateur européen, qui a mis sur la table le port USB-C pour recharger l'ensemble des smartphones, ordinateurs portables et autres appareils informatiques. En clair, l'avenir de l'iPhone passera par le port USB-C, que cela plaise à Apple ou non. Ce qui est remarquable dans la décision européenne, c'est sa portée. Elle couvre tous les smartphones, les tablettes, les liseuses électroniques, les écouteurs, les appareils photo numériques, les casques et les écouteurs, les consoles de jeux vidéo portables et les haut-parleurs portables. Curieusement, les montres connectées ne figurent pas dans cette liste. Mais avant d'aller plus loin, voici un petit rappel de ce qu'à été le port Lightning. Car oui, l'iPhone date de bien avant le port Lightning. Ce port a été embarqué dans les iPhones en septembre 2012 avec l'iPhone 5. Avant le connecteur Lightning à 8 broches, existait un connecteur à 30 broches, qui était utilisé sur les iPhones et les iPods. Et à part quelques problèmes d'oxydation, le port Lightning a plutôt fait le job. C'est un connecteur solide, bien conçu, qui a su résister à l'épreuve du temps. Alors, que va faire Apple face à l'interdiction européenne. Plusieurs options se présentent au géant américain. D'une part, Apple pourrait cesser de vendre ses produits en Europe. Oui, c'est une option irréaliste. Donc il reste deux options. L'une d'elle serait de passer à l'USB-C. Et c'est une option fort envisageable. Car Apple utilise déjà l'USB-C sur certains de ses appareils. Et passer de Lightning à l'USB-C serait plutôt indolore pour Apple et ses clients. Cela pourrait permettre à l'iPhone de conserver une rétrocompatibilité avec l'énorme écosystème d'appareils et d'accessoires existants en proposant un dongle pour ceux qui en ont besoin. L'autre option serait de supprimez complètement le port. C'est à dire de passez au tout sans fil pour la recharge et le transfert de données. C'est une solution très séduisante. Imaginez un monde sans fil. Et il est préférable de passer au sans fil dès maintenant. Ce sera moins douloureux pour les clients sur le long terme. Surtout, Apple aime simplifier. Et si l'entreprise ne peut plus générer de revenus à partir des licences du connecteur Lightning, je pense qu'Apple abandonnera complètement le port. Le problème donc est de savoir ce qu'il adviendra des très nombreux accessoires qui dépendent d'un connecteur Lightning. Je ne vois pas, d'un autre côté, Apple tirer un trait sur tous ces appareils et les envoyer à la décharge. Et voilà, normalement on a fait le tour du sujet. Pour en savoir plus rendez vous sur ZDNet.fr et retrouvez tous les jours un épisode du ZDTech sur vos plateformes de podcast préférées. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations. |