Beta

Explorez tous les épisodes de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle

Plongez dans la liste complète des épisodes de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle . Chaque épisode est catalogué accompagné de descriptions détaillées, ce qui facilite la recherche et l'exploration de sujets spécifiques. Suivez tous les épisodes de votre podcast préféré et ne manquez aucun contenu pertinent.

Rows per page:

1–50 of 109

DateTitreDurée
10 Feb 2022Épisode 31 - Penser le Métavers01:12:32

Dans cet épisode nous commençons un triptyque sur le Métavers. Depuis que Meta et Marc Zuckerberg ont décidé de mettre quelques billes dans ce domaine, le sujet semble s'imposer. 

Dans cet épisode, nous tenterons de nous faire une tête sur le sujet. Avec mes collaborateurs, Sylvain Munger et Claude Coulombe, nous tenterons humblement d’élever le niveau (vous nous connaissez!), d'éviter à la fois l'enthousiasme naïf et le technophobisme non critiqué, et de donner un peu de sens à ce Metavers.

Au programe: 

  • De la définition : C’est quoi le métavers?
  • Du terrain: À quoi ça ressemble concrètement, en ce moment, le métavers (applications, jeux, etc.) ?
  • Des parties prenantes: Qui sont les principaux acteurs ?
  • De l'IA : Pourquoi a-t-on besoin de l’intelligence artificielle dans le Metavers?
  • De l'éthique et des enjeux sociaux:  Quelles sont les principales craintes et promesses du Metavers?

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand, Claude Coulombe.

Support the show

24 Feb 2022Épisode 32 - Créer et rêver le Métavers (Harold Dumur)00:53:57

Dans cet épisode d’IA Café, nous recevons un expert du Metavers et entrepreneur :  Harold Dumur. Harold Dumur est le fondateur et président d’Ova, une PME de Québec spécialisée dans le développement de logiciels immersifs assistés par l’IA.
 
Au programme: 

  • Réalité virtuelle et augmenté - Définir le métavers
  • Créer une partie du métavers - Les défis économiques et techniques
  • L'entrepreneuriat du métavers (sans se faire bouffer par les GAFAM)
  • Du rôle de l'AI dans la production du métavers 
  • Enjeux éthiques et sociaux  -  De l'intérieur
  • Rêver le métavers (et, peut-être, de moutons électriques)    

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand, Claude Coulombe.

Support the show

10 Mar 2022Épisode 33 - Fermer le Métavers00:57:20

Dans cet épisode, on referme le Metavers. Ce sera notre conclusion d'un tryptique dans ces mondes virtuels qu'on souhaiterait ouverts, partagés, itératifs, collectifs, collaboratifs, et interopérables avec des standards universels. La réalité du Métavers n'est pas exactement cela. Retour sur l’entrevue d’Harold Dumur et retour sur les thèmes que nous avons explorés avec lui. 

Au programme:

  • Du rôle des entrepreneurs dans la création du Métavers
  • De la présence (ou non) de l'intelligence artificielle (apprentissage profond et apprentissage automatique) dans la conception et la réalisation du Métavers 
  • Premières recensions des craintes et critiques associées au Métavers (la menace environnementale, le trouble schizoïde et la perte du réel, l'exploitation et l'instrumentalisation de la donnée,  la menace à la vie personnelle et à l'intimité, le «farweb» de l'économie virtuelle, l'hypercentralisation et le monopole socio-économique)
  • Des promesses et du rêve du Métavers 

Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand, Claude Coulombe.

Support the show

24 Mar 2022Épisode 34 - Les applications militaires en IA - Entrevue avec Joanne Kirkham00:53:42

Dans cet épisode d’IA Café, nous recevons une juriste et experte des utilisations militaires de l’intelligence artificielle: Joanne Kirkham.

Joanne cumule des passages remarqués au département des affaires juridiques chez Human rights watch,  à Genève au United nations human rights, à Londres au King’s College. Elle a produit une thèse à l’Université Panthéon-Assas, dont le titre est le suivant : "Les systèmes d'armes létaux autonomes en droit international".

Plusieurs thèmes abordés:

  • De la définition d'un système d'armes létal autonome (SALA)
  • Des exemples concrets et appliqués d'applications militaires des systèmes d'armes létaux autonomes
  • Des enjeux éthiques, des principaux bénéfices, et des principaux arguments contraires et critiques à l’endroit de cette technologie
  • Des enjeux juridiques et du pouvoir du Droit international pour encadrer cette technologie

Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.

Principales sources


Support the show

07 Apr 2022Épisode 35 - Skynet, Terminator et droit international - L'intelligence artificielle et l'art de la guerre01:01:22

Dans cet épisode d’IA Café, retour sur notre rencontre avec Joanne Kirkham et les applications militaires de l’intelligence artificielle. Ève Gaumond, Shirley Plumerand et  Sylvain Munger m'ont accompagné dans cette analyse! 

Plusieurs thèmes abordés:

  • Des concepts d’autonomie, d'automatisation (et de responsabilité) associés aux systèmes d'armes létaux autonomes (SALA)
  • Des potentialités techniques, exécutives et stratégiques des applications militaires de l'IA
  • Du pouvoir du droit international pour encadrer et baliser cette technologie
  • Des degrés et niveaux d’autonomie (human «in», «on» and «off» the loop
  • Du socle du principe de dignité humaine
  • Des limites de l'idée d'une guerre «humaine»

Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.

Principales sources

Support the show

21 Apr 2022Épisode 36 - Les biais en IA et en intelligence...naturelle - Entrevue avec Jean-Philippe Beauregard01:09:05

Dans cet épisode d’IA Café,  nous replongeons dans un sujet que vous avez aimé : les biais en IA.  Avec Jean-Philippe Beauregard, nous retournons à la source en explorant non pas les biais en intelligence artificielle, mais les biais propres à notre intelligence humaine, et donc ... naturelle! Et cela, évidemment afin d'approfondir notre compréhension des biais en IA!

Nous avions entamé cette réflexion dès l’épisode 8 (avec Justine Dima) intitulé : «Dis-moi qui tu embauches, et je te dirai qui tu es» (publié le 28 janvier 2021). Nous avions poursuivi notre réflexion avec l’équipe et les collaborateur d’IA Café à l’épisode 9 intitulé : «Biais psychosociaux -  une IA humaine trop humaine» (publié le11 février 2021). 

Cette enquête sur les biais n’a donc jamais pris de repos. Le nombre de fois où le terme biais est mentionné dans nos 35 premiers épisodes! C’est un thème récurrent, mais nous prenons rarement le temps de l’approfondir. Les réflexions de Jean-Philippe Beauregard nous permettront de faire quelques pas de plus dans notre enquête.

Plusieurs thèmes abordés:

  • Analyse des faits - De la discrimination et du racisme systémique en ressources humaines et dans le processus d'embauche - quelques expériences et résultats surprenants!
  • Le problème - Des biais en ressources humaines - Définition, exemple, nature, fréquence 
  • Les causes - Des causes psychologiques et sociales 
  • Les solutions et conseils - De la gestion prudente des biais en RH et quelques conseils à celles et ceux qui sont impliqués dans la conception d'IA 

 Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.

Principales sources

Support the show

05 May 2022Épisode 37 - Former à l’éthique de l’IA en enseignement supérieur - Entrevue avec Frédérick Bruneault00:54:29

Dans cet épisode, avec mon invité Frédérick Bruneault, notre enquête sur les enjeux éthiques et sociaux de l'IA s'aventure bien en amont du développement de l'IA en explorant: la  formation en éthique de l'IA. 

Frédérick Bruneault est professeur de philosophie au Collège André-Laurendeau, professeur associé à l'École des médias de l'Université du Québec à Montréal (UQAM), chercheur principal au Laboratoire d'éthique du numérique et de l'intelligence artificielle (LEN.IA), chercheur associé à l'Observatoire sur les impacts sociétaux de l'intelligence artificielle et du numérique (OBVIA), à l'Observatoire du numérique en éducation (ONE). Ses recherches portent sur la fondation de nos obligations morales dans le contexte du développement technologique actuel, notamment celui des technologies du numérique et de l'intelligence artificielle.

Avec lui, nous explorons un texte dont il est le coauteur (avec Andréane Sabourin Laflamme, et André Mondoux) : Former à l’éthique de l’IA en enseignement supérieur : Référentiel de compétence.  

Au programme:

  • Histoire et genèse du rapport. 
  • Méthode de recherche
  • D’une approche pragmatique en éthique
  • De la compétence en éthique (générale)
  • De la compétence en éthique de l’IA

Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.


Support the show

19 May 2022Épisode 38 - NLP, GPT3 et fraude scientifique - Guillaume Cabanac, le détective de la tromperie!00:50:58

Dans cet épisode, nous recevons Guillaume Cabanac surnommé « détective de la tromperie ». Guillaume a été nommé, par la prestigieuse revue Nature, parmi les 10 personnalités qui ont marqué la science en 2021. 

Guillaume est un chercheur qui fait de la recherche, mais sur la recherche. Il est maître de conférence, docteur en informatique, professeur à l’Université Paul Sabatier Toulouse 3. Il enseigne en informatique, en gestion et traitement informatique des données massives.  Ses plus récents travaux de recherche sont en scientométrie (la science de la mesure et de l'analyse de la science). 

Avec lui, nous avons principalement discuté d’un article qui a fait beaucoup de bruit dans la communauté scientifique. L’article a été publié en juillet 2021 :

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.

Support the show

02 Jun 2022Épisode 39 - Économie de la promesse et battage technologique en IA - Entrevue avec Maxime Colleret00:55:08

Dans cet épisode, nous recevons Maxime Colleret. Avec lui, nous revenons sur le rapport qu'il a coécrit, avec son collègue et directeur de recherche Yves Gingras, et qui est intitulé: L'intelligence artificielle au Québec : un réseau tricoté serré.

Nous explorerons également les principales idées publiées dans un autre article, coécrit avec son collègue Mahdi Khelfaoui, et intitulé: D'une révolution avortée à une autre? Les politiques québécoises en nanotechnologies et en IA au prisme de l'économie de la promesse.

Au programme:

  • D’un réseau (tissé serré) en IA
  • Analyse sociologique du réseau, des principaux acteurs et des bailleurs de fonds en IA au Québec
  • Des potentiels conflits de rôles, conflits d’intérêts et problèmes d’éthique organisationnelle
  • De la concentration du financement de la recherche en IA
  • De l’économie de la promesse
  • Du cycle de battage technologique
  • De l’avenir de l’IA 

Bonne écoute!

Référence principale:
- Colleret, M. et Khelfaoui, M. (2020). D'une révolution avortée à une autre? Les politiques québécoises en nanotechnologies et en IA au prisme de l'économie de la promesse. Recherches sociographiques, 61(1), 163-188.
- Colleret, M., & Gingras, Y. (2020). L'intelligence artificielle au Québec: un réseau tricoté serré (Doctoral dissertation, UQAM).


Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.

 

Support the show

17 Jun 2022Épisode 40 - Éthique appliquée et philosophie de terrain - Allison Marchildon01:02:27

Dans cet épisode d’IA Café, nous recevons la sociologue et philosophe (de terrain): Allison Marchildon. Avec elle, nous parlons de la place de l'éthique appliquée dans la réflexion, la formation et la recherche en intelligence artificielle.

Au programme: 

  • D'une sociologue en philosophie
  • De la philosophie de terrain (field philosophy) comme champ académique
  • De la compétence en éthique (générale)
  • De la compétence éthique en IA
  • Du cycle des technologies, des enjeux éthiques et du retour du même 
  • De la grille de réflexivité sur les enjeux éthiques des systèmes d’intelligence artificielle
  • Du rôle de l’éthique et de la recherche en éthique en IA. 

Bonne écoute!

Référence principale:
- Allison Marchildon, Steve jacob, Aude-Marie Marcoux, Grille de réflexivité portant sur les enjeux éthiques des systèmes d'intelligence artificielle (SIA) · Publié le 19 octobre 2021 dans Actualités, Outils.

Production et animation: Jean-François Sénéchal, Ph.D
Invitée: Allison Marchildon
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand.


Support the show

07 Jul 2022Épisode 41 - Les vacances de monsieur Dall-e (et de l'équipe d'IA café!)01:16:31

Dernier épisode de la saison 2! Déjà. Triste, non?

Dans cet épisode, avec mes collaborateurs (Ève et Sylvain), nous partageons quelques événements, articles, ouvrages, conférences, rencontres qui ont marqué notre printemps 2022 de recherche sur les enjeux éthiques et sociaux en IA. 

En bonus, nous vous faisons quelques recommandations de lectures et de divertissements pour nourrir, peut-être avec un peu plus de légèreté et de soleil d'été, votre passion pour l'intelligence artificielle. 

On se reverra en septembre. D'ici là, reposez-vous bien, et bonnes vacances!

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Ève Gaumond, Sylvain Munger
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.

Mentions dans ce podcast:


Support the show

08 Sep 2022Épisode 42 - Retour en classe et «apprentissages profonds»!01:11:38

Ça y est! Corne de brume! Nous sommes de retour. Bienvenue à votre saison #3 d’IA café. Épisode 42. L’épisode de la «réponse ultime» (ou pas)! 

Avec mes collaborateurs et collaboratrices (Ève Gaumond, Sylvain Munger et Maxime Heuillet), nous mettons la table pour cette saison 3, explorons les thèmes à venir, discutons des événements en IA qui ont attirés notre attention, et partageons nos ambitions et projets d'automne.

Et au passage, quelques discussions passionnantes sur nos sujets préférés:

  • Dall-e et Midjourney - banc d'essai
  • Justice, démocratie et expression en ligne
  • Du lien social entre la communauté de chercheurs en IA et la population en générale
  • Aristocratie et entrepreneuriat - Rêve, imagerie et pouvoir
  • Workshop - Utilisation de techniques de NLP pour traduire le sens caché et cryptique des plumitifs (résumé sommaires de décisions judiciaires)
  • De pertinence de la question de la singularité et de la naissance potentielle d'une IA générale menaçante (ou enthousiasmante) 
  • Guide de survie pour étudiantes et étudiants français qui aimeraient étudier en IA au Québec ou en Amérique (de l'autre côté de la Grande Flaque)
  • Du rôle de l'IA dans l'intox, dans la construction des discours conspirationnistes et dans la radicalisation du discours sur les réseaux sociaux
  • NeurIps 2022 -  Conference on Neural Information Processing Systems 

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Ève Gaumond, Sylvain Munger, Maxime Heuillet
Collaborateurs: David Beauchemin, Fredérick Plamondon, Shirley Plumerand.

Support the show

22 Sep 2022Épisode 43 - Faire la morale aux robots et aux algorithmes (Entrevue avec Martin Gibert)00:52:54

Dans cet épisode d’IA Café, nous recevons le philosophe, Martin Gibert, pour discuter avec lui des pistes d'éducation potentielles pour enseigner la morale, non seulement aux étudiants qui fréquentent ses cours en éthique de l'IA, mais également aux robots et algorithmes qui sont et seront les manifestations les plus concrètes des plus récentes avancées en intelligence artificielle.  

Au programme: 

  • De l’éthique et de l’éthique normative.
  • Des théories morales en éthique normative applicables en l’intelligence artificielle.
  • De la programmation morale des systèmes d’intelligence artificielle.
  • Des enjeux éthiques associés aux technologies en intelligence artificielle.
  • De la distinction entre éthique de l’IA et éthique des algorithmes.
  • De la création d'un cours en éthique de l'IA.

Référence principale:

  • Martin Gibert, Faire la morale aux robots -  Une introduction à l’éthique des algorithmes, Atelier 10, 9 juin 2020, 165 p.

Production et animation: Jean-François Sénéchal, Ph.D.
Invité: Martin Gibert
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

06 Oct 2022Épisode 44 - De la fabrication de l'éthique robotique et algorithmique - et autres sujets connexes00:46:21

Avec mes collaborateurs (Ève Gaumond, Sylvain Munger, et Maxime Heuillet), nous revenons sur le contenu de l'entrevue avec Martin Gibert. Et nous tissons des liens entre les thèmes abordés lors de cette entrevue et nos propres thèmes d'expertise.   

Au programme:

  • Des impacts néfastes de la formation et de la recherche interdisciplinaire sur la carrière académique
  • De l'éthique de la vertu et de la notion «du bon père de famille» en droit
  • Réflexions sociologiques sur la technologie et les technologies modernes en intelligence artificielle.
  • D'un projet réalisé par Uber AI Labs et de la voiture autonome
  • Du principe d'incertitude morale dans la programmation des algorithmes en IA
  • De l’applicabilité (ou non) des  principales théories morales dans la conception de voitures autonomes et d'algorithmes.
  • Des défis et contraintes associés à la création d'un cours en éthique de l'IA.

Et encore bien plus!

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs qui ont participé à l'enregistrement: Ève Gaumond, Sylvain Munger, Maxime Heuillet
Collaborateurs: David Beauchemin, Frédérick Plamondon, Shirley Plumerand.

Support the show

20 Oct 2022Épisode 45 - Art et I.A.rt - Enjeux sociaux et juridiques de l'utilisation de l'I.A. en art. - Entrevue avec Valentine Goddard00:57:38

Dall-e,  Midjourney, Meta (Make-a-video)! Vous connaissez?  Ce ne sont que quelques exemples de technologies qui permettent de créer des images ou des vidéos en mobilisant l'intelligence artificielle. Quels sont les enjeux sociaux et juridiques découlant de ces façons innovantes de créer?

Dans cet épisode d'I.A. café, nous avons pris un café, et discuté des enjeux éthiques, légaux et sociaux de l'I.A en art, avec Valentine Goddard.

Valentine est avocate, membre du Conseil consultatif sur l'IA du Canada, consultante pour les Nations Unies en matière de politique et de gouvernance de l'IA. Elle a participé à plusieurs publications de politiques publiques en lien avec l’encadrement éthique et normatif de l’IA. Valentine est aussi une artiste et femme engagée.  Elle siège sur de nombreux comités en lien avec les implications éthiques et sociales de l’IA. 

Au programme:

  • Des enjeux éthiques et sociaux de l'I.A dans le monde des arts
  • Du narratif de l’IA
  • Du droit en IA et de la démocratisation sociale de l’IA  
  • Du rôle des arts dans la culture numérique.

Bonne écoute!

Note: L’artiste dont Valentine et JF discutaient, et dont le nom avait été oublié, était « Greg Rutkowski« . Greg Rutkowski (illustrateur iconique de la franchise connue Donjons et Dragons) est le nom le plus souvent utilisé par les utilisateurs de systèmes de génération d’images par IA (Dall-e, Midjourney, etc). L’artiste crie à l'injustice sur plusieurs tribunes depuis qu’il a constaté que ses créations et propriétés intellectuelles  sont instrumentalisées par ces systèmes d’IA (entrainés à partir de ses créations). Et que ces systèmes génèrent avec une efficacité et simplicité redoutable, des images inspirées de son style, et cela, sans aucune forme de reconnaissance ou d’allocation du statut d’auteur. Dossier à suivre.

Production et animation: Jean-François Sénéchal, Ph.D.
Invité: Valentine Goddard
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

31 Oct 2022Épisode 46 - Spécial Halloween - Histoires d'horreur en intelligence artificielle01:02:00

Aimez-vous les histoires d'horreur? Connaissez-vous les histoires d'horreur en IA?

Dans cet épisode, les  collaborateurs d'IA Café sont venu me raconter leurs histoires d’horreur préférées en I.A. Ces histoires sont parfois concrètes (ex. : un programme d’IA qui dérape et qui vous réveille à 2 heures du matin avec une voix creepy). Elles sont aussi parfois symboliques (ex.: « «La vente d’Element AI est une belle histoire d’horreur». La blague est d’Ève Gaumond en réunion de production).  Vous comprenez le concept. 

Dans cet épisode:

  • La série Years an years  (Apple TV, Canal +) - L'horreur d'un futur proche
  • La première victime d'un robot tueur - La naissance possible de Skynet
  • Le Lee-luda de Scatterlabs - Un chatbot qui vous veux du bien
  • Les conseils d'Alexa et les réflexions de LaMDa - À glacer le sang
  • Les GAFAM et l'asservissement du monde
  • Le jeu vidéo d'horreur - Manipulation vicérale des peurs intimes 
  • Le deepfake en science - La chasse aux vrais fantômes 

Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Sylvain Munger,  Shirley Plumerand, Maxime Heuillet
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon

Texte cité:



Support the show

17 Nov 2022Épisode 47 - Dall-e et Midjourney - Vols, injustices et disparition des créateurs?01:07:41

Dall-e, Midjourney, Meta (Make-a-video)! Connaissez-vous? Et si on abordait les enjeux éthiques et juridiques associés à ces technologies au potentiel, c'est vrai, fort enthousiasmant.

Dans cet épisode, nous revisitons les thèmes abordés à l’épisode 45 intitulé «Art et I.A.rt - Enjeux sociaux et juridiques de l'utilisation de l'I.A. en art. - Entrevue avec Valentine Goddard». Avec mes collaboratrices (Ève Gaumond et Shirley Plumerand), juristes en résidence, nous analysons et réfléchissons aux thèmes abordés avec Valentine lors de cette entretien.

Au programme: 

  • Des enjeux éthiques et juridiques entourant les applications comme Dall-e, Midjourney, Meta (Make-a-video)! 
  • Des différences socioculturelles (Canada-Québec) dans l'encadrement du développement de la technologie en IA
  • Des biais raciaux et sexistes (Gender Washing et White washing) à l'oeuvre dans ces technologies. 
  • Des menaces au statut d'auteur et des différentes formes de reconnaissance et d’allocation du statut d’auteur.
  • Du narratif de l’IA
  • Du dialogue et des collaborations possibles entre l'artiste et la «machine» 
  • De l'expérimentation (enthousiasmante) du potentiel artistique des outils de création «text to image» en IA, c'est-à-dire qui sont capables de créer des images à partir de quelques ligne de texte
  • De la difficulté d'application des principes de «transparence» et de «proportionnalité» en matière de droit d'auteur, dans l'encadrement des  nouveaux systèmes d’IA qui génèrent automatiquement des images (et bientôt des vidéos) à partir de quelques lignes de texte

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaboratrices invitées: Ève Gaumond,  Shirley Plumerand.
Collaborateurs: David Beauchemin, Frédérick Plamondon, Sylvain Munger, Maxime Heuillet

Texte cité:

Merci aussi pour vos dons à AI helps Ukraine. Pour l'information concernant cet événement: https://aihelpsukraine.cc/

Support the show

01 Dec 2022Épisode 48 - Encadrer le développement de l'intelligence artificielle - Entrevue avec Céline Castets-Renard00:48:22

Comment encadrer le développement du marché numérique et de l'intelligence artificielle? De quelles lois a-t-on besoin? Quelles sont les différences entre le cadre normatif aux États-Unis, au Canada, en Europe? 

Ce sont les thèmes que j'ai abordés avec mon invitée: Céline Castets-Renard! 

Au programme:

  • Des principaux bénéfices et des principaux problèmes associés à l’intelligence artificielle
  • Des notions de consentement et de vie privée
  • Des difficultés propres au consentement «numérique»
  • Du droit en matière de vie privée et de consentement.
  • Des principales différences entre l'encadrement canadien et européen de la vie privée et du consentement 
  • De la LPRPDE (Loi sur la protection des renseignements personnels et les documents électroniques) au Canada
  • Du RGPD (Règlement général sur la protection des données) en Europe
  • De la possibilité d'une IA respectueuse de la LPRPDE et du RGPD

Production et animation: Jean-François Sénéchal, Ph.D.
Invitée : Céline Castets-Renard
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Merci aussi pour vos dons à AI helps Ukraine. Pour l'information concernant cet événement: https://aihelpsukraine.cc/

Support the show

15 Dec 2022Épisode 49 - Le Noël de Charles A.I. Brown - Et les prix Lovelace et IArk 2022 (partie 1)00:51:17

Bienvenue à notre spécial de Noël d’IA café (première partie). Plusieurs sujets abordés dans cet épisode. Outre l'incontournable ChatGPT, qui s'est évidemment invité dans nos conversations de party, cet épisode sera principalement l’occasion de nous prononcer sur nos prix IArk et Lovelace 2022. C’est votre cadeau de Noël. C’est le nôtre aussi!

Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux  articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!

Dans cette première partie:

Frédérick Plamondon

  • Le prix Lovelace :  ResearchRabbit.ai - «La recherche d'Alice jusqu'au fond du terrier»
  • Le prix I.A.rk:  Les enjeux sociaux associés au Large Language model (LLM) - «Le père Noël est-il une ordure» 

Maxime Heuillet

  • Le prix Lovelace: Dall-e et Mid Journey - «Dessine-moi un mouton»
  • Le prix I.A.rk: Les enjeux de la langue en I.A. - Français VS Anglais (et on ne parle pas de la Coupe du Monde!)

Jean-François Sénéchal

  • Le prix I.A.rk: Galactica - La science en lendemain de veille.  Taylor, Ross, et al. "Galactica: A Large Language Model for Science." arXiv preprint arXiv:2211.09085 (2022). https://arxiv.org/pdf/2211.09085.pdf 

Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

29 Dec 2022Épisode 50- Le Noël de Charles A.I. Brown - Et les prix Lovelace et IArk 2022 (partie 2)01:24:03

Bienvenue à cette deuxième partie de notre spécial de Noël d’IA café. Et bienvenue à ce 50e épisode d'I.A. café! Cinquante! C'est complètement fou!  

Plusieurs sujets abordés dans cet épisode. Décidément, impossible de passer un party de Noël sans une discussion sur ChatGPT. Nous en dirons encore quelques mots et partagerons nos réflexions. Cet épisode sera également l’occasion pour nos autres collaborateurs et collaboratrices de se prononcer sur leurs prix IArk et Lovelace 2022. 

Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux  articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!

Dans cette seconde partie:

Ève Gaumond

  • Le prix Lovelace : Rapport sur le projet de loi C27 - «He sees you when you're sleeping. He knows when you' re awake» 
  • Le prix I.A.rk:  Les systèmes d'IA et d'aide à l'embauche - HireVue - Des ressources humaines?

Shirley Plumerand

Sylvain Munger: 

  • Le prix Lovelace:  Waverly - Empathie et liste de souhaits
  • Le prix I.A.rk: Trois façons d'expliquer «l'échec» de la cyberguerre en Ukraine

Jean-François Sénéchal

  • Le prix Lovelace: Dall-e et Dall-e 2 (Open AI).  Paix et dialogues entre l'homme et la machine

Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

05 Jan 2023Bonus - Cadeau - Un regroupement d'artistes dénonce l'utilisation d'intelligence artificielle en art00:09:46

C’est la pause des Fêtes, mais votre hôte ne chôme pas. On m’a en effet invité à Radio-Canada (TV et Radio d'État, au Canada) pour commenter le mouvement naissant d'un regroupement d'artistes qui critique l'utilisation d'intelligence artificielle dans le milieu des arts. On cible évidemment les Dall-e et MidJourney de ce monde.  

Dans cet épisode, ce sera donc une courte chronique pour parler d’intelligence artificielle et d’IArt. Vous connaissez évidemment le sujet, notamment parce que nous avons ensemble exploré ce thème lors des derniers épisodes d'IA Café, mais je souhaitais que vous soyez néanmoins témoins du contenu de notre enquête sur les enjeux éthiques et sociaux en IA qui percole, lentement mais surement, grace à votre soutien et votre engagement, jusque dans les grands médias. 

Vous constaterez notamment qu’en dix minutes, on en dit très peu. Et que des outils comme une balado sur l’IA démontre encore une fois tout son potentiel pour approfondir un sujet que nous chérissons tous et toutes. 

Bonne année 2023!

Support the show

12 Jan 2023Épisode 51 - ChatGPT - Le chat sort du sac !01:04:43

Nous y sommes: 2023! Bonne année! Bienvenue à notre 51e épisode. Au programme:

1. ChatGPT et la place du baratin (bullshit) dans la construction du savoir.

Le sujet est partout, y compris dans les grands médias, et nous nous approchons du point de saturation. Nous souhaitions néanmoins en discuter avec l'équipe d'IA café, non pas pour surfer la vague (quoique un peu!), mais pour analyser cette vague, et prendre la pleine mesure de la force et peut-être des dangers associés à une vague de cette ampleur.

  • Analyse et critique du baratin (bullshit) dans la construction de la vérité
  • Ode au baratin et la place de la pensée brouillonne dans le monde des idées
  • Recension - Limitations et craintes associées à ChatGPT

2. Retour sur l’épisode 48- Encadrer le développement de l'intelligence artificielle - Entrevue avec Céline Castets-Renard.

Nous avons fait une rencontre passionnante avec Céline Castets-Renard, et l'équipe d'IA café souhaitait revenir sur les thèmes et sujets de cet épisode 48.  

  • La définition de l'intelligence artificielle
  • La consstruction du cadre normatif en matière d'intelligence artificielle

3. Corne de brume - 2023 !
C’est le début de l’année. C’est le moment de regarder un peu vers l’avenir. 

  • Fred, Ève et JF parlent de leur projets personnels et académiques en 2023. 

Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

26 Jan 2023Épisode 52 - Cinéma, Science-fiction et construction des mythes en IA - Entrevue avec Vincent Clément00:54:44

Le cinéma de science-fiction et l'intelligence artificielle! Il ne manque que le popcorn!

Bien avant de trouver des formes et applications concrètes dans notre quotidien, les plus grandes promesses scientifiques en intelligence artificielle se matérialisaient d’abord dans le cinéma et sur nos écrans. De 2001 Odyssée de l’espace, à Blade Runner, à Terminator 2, en passant par les plus récents Her ou Ex-Machina, le cinéma de science-fiction met en effet en scène nos plus grands mythes en IA et leur donne vie sur nos écrans. Ce cinéma incarne à la fois nos plus grandes peurs et promesses en IA . 

Dans cet épisode, je vous propose de prendre un café (et un popcorn) avec un jeune doctorant, pour parler de recherche en IA, et des liens entre le cinéma de science-fiction et l'intelligence artificielle: Vincent Clément.  Ce dernier a publié un mémoire (en 2021) intitulé: « Intelligence artificielle : du mythe de la créature artificielle à son actualisation contemporaine». Avec Vincent, nous examinerons à la fois l'histoire de l'intelligence artificielle et l'histoire des principales figures mythiques (et mythologiques) de l'intelligence artificielle au cinéma.

Bonne écoute!

Invité: Vincent Clément
Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

09 Feb 2023Épisode 53 - L'lliade, 2001 Odyssée de l'espace et la Matrice - Mythes et imaginaires socio-techniques00:57:42

Dans cet épisode, en compagnie de mes collaborateurs Sylvain Munger et Frédérick Plamondon, nous poursuivons notre enquête sur les enjeux sociaux, techniques et éthiques de l'intelligence artificielle à partir des thèmes et enjeux qui ont été abordés à l'épisode 52 intitulé - Cinéma, Science-fiction et construction des mythes en IA - Entrevue avec Vincent Clément.  

Au programme:

  • Le cinéma de science fiction et la promesse technoscientifique performative 
  • L'Illiade et Héphaïstos : le mythe du feu et de la création technique 
  • L’imaginaire socio-technique et l’idéal post industriel 
  • La construction de l’imaginaire et du langage de l’IA 
  • Les mythes et la matrice - Le contrôle humain de la machine et la liberté
  • 2001 Odyssée de l'espace - La peur et le rêve de la singularité

Collaborateurs invités:  Frédérick Plamondon, Sylvain Munger et Jean-François Sénéchal.
Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: David Beauchemin, Ève Gaumond, Shirley Plumerand, Maxime Heuillet.


Support the show

23 Feb 2023Épisode 54 - La ville intelligente et la réalité mixte - Entrevue avec Sylvie Daniel, vingt mille lieues sous les mers00:58:43

Dans cet épisode, nous recevons la docteur Sylvie Daniel, professeure et experte en photogrammétrie, techniques d’imagerie 3D et cartographie numérique. Avec elle, nous explorons nos villes, nos fonds marins, nos buildings, nos routes et tentons de reproduire leurs jumeaux numériques!

Au programme:

  • La ville intelligente : la numérisation des villes, des fonds marins, des routes, et du bâtiment construit.
  • La cueillette de données, le consentement et la protection de la vie privée dans l’espace public.
  • Les défis techniques associés à la gestion de nuages de données et de la métadonné. 
  • Les risques techniques, juridiques et éthiques associés à ces technologies.
  • Les contraintes et libertés de la recherche publique (vs la recherche privée)
  •  La collecte, l’utilisation, l’accès, l'appropriation et la vente de données publiques.
  • Les programmes gouvernementaux d’acquisition de la donnée publique.
  • Le travail (aliénant) d'étiquetage de données.

Bonne écoute!

Invitée: Sylvie Daniel
Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

09 Mar 2023Épisode 55 - Big Brother vous regarde - La ville numérique, la vie privée et l'espace public01:13:59

Dans cet épisode, en compagnie de mes collaboratrices Shirley Plumerand et Ève Gaumond, nous poursuivons notre enquête sur les enjeux sociaux, techniques et éthiques de l'intelligence artificielle à partir des thèmes et enjeux qui ont été abordés à l'épisode 54 -  La ville intelligente et la réalité mixte - Entrevue avec Sylvie Daniel, vingt mille lieues sous les mers.  

Au programme:

  • Actualités: 
  1. LLaMA - La réponse de Meta (Facebook) à ChatGPT (Open AI). Un LLM qui vous veut du bien.
  2. L'IA, le contrôle de l'accès aux mineurs à la pornographie, l'hypertrucage (deepfake) et la pornodivulgation (revenge porn).
  3. Au-delà de la donnée (Elizabeth Renieris, Beyond data- Reclaiming Human Rights at the Dawn of the Metaverse, MIT Press, 2023). De l'échec potentiel du Droit dans sa tentative de protéger les valeurs humaines les plus fondamentales, y compris le sens profond de la protection de la vie privée.  
  •  Retour sur l'épisode 54 - Rencontre avec Sylvie Daniel
  1. Ville intelligente - La protection de la vie privée dans l’espace public 
  2. La captation et l'appropriation de la donnée dans l'espace public
  3. Livre Blanc sur la ville intelligente (Mila)- Principes de responsabilité, d'imputabilité et d'exactifude - quelques balises et guides pour créer le cadre normatif de la ville intelligente .
  4. De la place de la donnée publique, des programmes d'acquisition de données publiques, et des tensions entre le secteur privé et public.
  5. Le droit à la remorque de la technologie - Mythes et réalités
  6. Les risques éthique, juridiques et sociaux associés à la numérisation des villes.

Collaboratrices invitées:  Ève Gaumond, Shirley Plumerand.
Production et animation: Jean-François Sénéchal, Ph.D. 
Collaborateurs: Frédérick Plamondon, Sylvain Munger, David Beauchemin, Maxime Heuillet.

Support the show

23 Mar 2023Épisode 56 - Vision artificielle, synthèse audio et santé - Tour d’horizon en IA – Entrevue Syntyche Gbehounou00:59:54

Dans cette épisode, rencontre au sommet de la baladodiffusion-podcasting sur l'intelligence artificielle, en français: IA Café vs Horizon IA!

En effet, nous avons eu la chance de rencontrer Syntyche Gbehounou, coproductrice et coanimatrice du podcast Horizon IA, un podcast passionnant sur la vulgarisation des enjeux techniques en intelligence artificielle.  

Syntyche est également docteur en traitement du signal et des image en intelligence artificielle. Avec elle, nous explorons le riche contenu de son podcast, les thèmes abordés pendant ces trois saisons, nous nous remémorons les rencontres et découvertes qui ont parsemé les 25 premiers épisodes d'Horizon IA.

Au programme:

1. Vision et intelligence artificielle. 

  • L’IA pour sauver nos forêts des flammes
  • Les biais d’apprentissage
  • Les droits d’auteur invisibles
  • La détection de vols à l’étalage
  • Montage et édition automatisés de match de foot  

2. Sons et intelligence artificielle. 

  • Immersion dans les sons de la vie quotidienne
  • Les systèmes de reconnaissance du locuteur
  • Conversations artificielles  et synthèse vocale
  • Décodage d’une discussion dans un cocktail party

3. Santé et intelligence artificielle.

  • L'IA au service de la médecine pédiatrique
  • Neuro-prothèses et la maladie de Parkinson
  • Aide diagnostic du cancer 
  • Assistance chirurgicale orthopédique

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D. 
Invitée: Syntyche Gbehounou
Collaborateurs: Ève Gaumond, Shirley Plumerand, Frédérick Plamondon, Sylvain Munger, David Beauchemin, Maxime Heuillet.


Support the show

30 Mar 2023Épisode 57 - Moratoire (ou pause) sur l'intelligence artificielle! Un pas de recul?01:26:23

Gros programme. On parle de l’actualité IA. Et on parle (évidemment!) de cette lettre, publiée par l’institut Future of Life, qui demande aux chercheurs dans le domaine de l’I.A. de prendre une pause de six mois dans leurs recherches et expérimentations en IA. Six mois pour se donner le temps de réfléchir à la place que l’on souhaite donner à l’IA en société, est-ce nécessaire? Est-ce suffisant?

Avec mes collaborateurs et collaboratrices (Fred, Shirley, Sylvain), nous tentons de prendre un «pas de recul» pour décider si cette pause est un «pas de recul» ou non.

Au programme:

  • GPT4, Bard, LlaMA - Premières expérimentations et commentaires
  • Encadrement normatif de la vidéosurveillance algorithmique au jeux Olympiques de 2024 - Indifférence et acceptabilité passive
  • Un homme se suicide - l'imputabilité du robot conversationnel
  • Cours 101 sur les LLM (Large language models)
  • Taxonomie des risques en IA - Un peu d'ordre!
  • Lettre de l'institut Future of life - Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Pour faciliter la navigation dans l'épisode :

  • 🤖 Le "hype" autour de l'IA: Fred (5:15), Shirley (10:00), Sylvain (14:20)
  • 🤖 Ce qui a retenu notre attention ce mois-ci: Fred (26:00), Shirley (32:00), Sylvain (47:40)
  • 🤖 À propos de la lettre ouverte de Future of life Institute (FLI) (58:00)

Quelques références mentionnées par Fred:

Collaboratrices et collaborateurs invités:  Shirley Plumerand, Frédérick Plamondon, Sylvain Munger.
Production et animation: Jean-François Sénéchal, Ph.D. 
Collaborateurs: Ève Gaumond,  David Beauchemin, Maxime Heuillet.


Support the show

13 Apr 2023Épisode 58 - Hyper enthousiasme et économie de la promesse en IA – Guillaume Dandurand et Marek Blottière01:11:25

Dans cet épisode, dans la foulée de ce moratoire proposé en IA, j’ai la chance d’avoir avec moi deux acteurs résolument critiques de cette sorte d’hyper-enthousiasme collectif en IA. Le «hype en IA»! Vous connaissez? La frénésie des foules pour ChatGPT, Dall-e, Midjourney, qui n'a pas succombé? Et si le moratoire était le contrepoint logique de cet hyper enthousiasme? 

Guillaume Dandurand et Marek Blottière nous accompagnent dans cette réflexion. Ils ont récemment publié un texte intitulé  "Training the News: Coverage of Canada's AI Hype Cycle (2012–2021)." Le texte a depuis été traduit:  Entraîner l’actualité : La couverture canadienne du cycle d’engouement pour l’IA (2012-2021)

Au programme:

  • Présentation du rapport Training the News: Coverage of Canada's AI Hype Cycle (2012–2021) 
  • Principaux résultats et constats
  • Le «techno-optimisme» 
  • Le rôle des médias et journalistes dans la création du hype en IA
  • Technologies disruptives, enthousiasmes et moratoires - Quelques leçons historiques 
  • La place des experts techniques de l’IA dans le débat public
  • Pour une compréhension plus réaliste de l'IA - Recommandations et pistes de solutions
  • Des défis de la recherche multicentrique et internationale

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D. 
Invités: Guillaume Dandurand et Marek Blottière
Collaborateurs: Ève Gaumond, Shirley Plumerand, Frédérick Plamondon, Sylvain Munger, David Beauchemin, Maxime Heuillet.

Support the show

20 Apr 2023Épisode 59 - ChatGPT et la recherche académique - Entrevue avec Laure Soulier00:53:00

Dans cet épisode, nous accueillons Laure Soulier, chercheure et maître de conférence à l’Université de Sorbonne. Experte en intelligence artificielle, elle collabore notamment aux travaux de l'ISIR (Institut des Systèmes Intelligents et de Robotique). Avec elle nous discutons des thèmes et enjeux qui seront abordés lors de notre Panel d'ouverture de la Semaine sur la conduite responsable en recherche, le 1er mai 2023, à l'Université Laval, un panel intitulé: ChatGPT, hypertrucage et IA: Le Vrai du Faux!  

Au programme:

  • La recherche en informatique, la conceptualisation et le développement de système d'IA comme Dall-e et ChatGPT
  • Les utilisations potentiellement acceptables et inacceptables de ChatGPT en recherche. 
  • Doit-on citer ChatGPT à titre d’auteur?  
  • L’intelligence artificielle et l'instrumentalisation de l'IA pour produire de fausses images en recherche. 
  • L’intelligence artificielle et la production de faux articles académiques. 
  • Pistes de solutions techniques pour lutter contre la fraude en recherche.
  • Pistes de solutions humaines et organisationnelles pour réduire le nombre de comportements maladroits, manquements, fraudes et inconduites en recherche. 
  • La formation à l’intégrité et à la conduite responsable en recherche dans nos institutions académiques.

Production, animation: Jean-François Sénéchal
Invitée:   Laure Soulier

Musique:
Hero Theme de Kevin MacLeod fait l'objet d'une licence Creative Commons Attribution 4.0. https://creativecommons.org/licenses/by/4.0/
Source : http://incompetech.com/music/royalty-free/index.html?isrc=USUAN1100491
Artiste : http://incompetech.com/

Support the show

28 Apr 2023Épisode 60 - ChatGPT, Ève Gaumond et la Ligue des justicières!00:56:24

Cet enregistrement a aussi été diffusé via mon autre podcast «La science dont vous êtes le héros», d'où la mention de ce podcast en ouverture. 

Dans cet épisode, je reçois votre juriste préférée à IA Café: Ève Gaumond. En effet, en préparation du panel d'ouverture à la Semaine sur la conduite responsable en recherche, dont je suis responsable, je reçois Ève pour discuter de notre panel intitulé: ChatGPT, hypertrucage et IA: Le Vrai du Faux! 

Avec Ève, nous explorerons les thèmes suivants:

  • ChatGPT - Applications probables de quelques outils d'IA en recherche
  • Les pressions organisationnelles en recherche
  • Les utilisations probables, utiles ou problématiques, de l'intelligence artificielle en recherche
  • Les pistes de solutions pour réduire le risque d'utilisation problématique de l'intelligence artificielle en recherche
  • Le risque d'effritement de la confiance du public envers la science et ses intitutions.

Rappelons qu'Ève participera à ce panel du 1er mai 2023, animé par Lyse Langlois, directrice de l'Observatoire sur les enjeux sociétaux de l'intelligence artificielle. Voici les trois panélistes : 

  • Ève Gaumond (Chercheuse au centre de recherche en Droit public de l’Université de Montréal).   
  • Nadia Naffi, professeur au département d'études sur l'enseignement et l'apprentissage (ULaval) et titulaire de la Chaire de leadership en enseignement (CLE) sur les pratiques pédagogiques innovantes en contexte numérique. 
  • Jonathan Durand Folco, Professeur adjoint à l’École d’innovation sociale de l’Université Saint-Paul (Ottawa). 

Production, animation: Jean-François Sénéchal
Panéliste invitée:   Ève Gaumond

Musique:
Hero Theme de Kevin MacLeod fait l'objet d'une licence Creative Commons Attribution 4.0. https://creativecommons.org/licenses/by/4.0/
Source : http://incompetech.com/music/royalty-free/index.html?isrc=USUAN1100491
Artiste : http://incompetech.com/

Support the show

11 May 2023Épisode 61 - Actualités IA - L'automatisation du PDG, les imaginaires politico-militaires, et le rôle social des experts techniques de l'IA01:10:49

On parle de l’actualité en intelligence artificielle. Avec mes collaborateurs, Frédérick Plamondon et Sylvain Munger, nous explorons les enjeux éthiques et sociaux en intelligence artificielle à travers certains éléments de l'actualité du domaine.

Au programme:

  • Yann LeCun, Yoshua Bengio, Geoffrey Hinton - Le bon, la brute et le truand (dans l'ordre ou dans le désordre?)
  • Le rôle social des figures de proue techniques dans le débat social entourant l'IA.
  • L'éthique de IA appliquée au management. 
  • L'automatisation du PDG et des gestionnaires.
  • Relations internationales et imaginaires socio techniques dans le discours des grandes puissances politiques. 
  • La démission de Geoffrey Hinton, le "parrain" de l'IA - Une offre "qu'il ne pouvait pas refuser".
  • Les savoirs autochtones, épistémologie du rapport entre le vivant et l'inanimé et la redéfinition de la place de l’IA dans nos sociétés.
  • L’IA comme objet techno militaire – Contribution au statu quo ou promoteur du changement international.  
  • Le déterminisme et l'inévitabilité technologique.
  • Les dangers spéculatifs et dngers réels de l'intelligence artificielle.

Collaboratrices et collaborateurs invités:  Frédérick Plamondon, Sylvain Munger.
Production et animation: Jean-François Sénéchal, Ph.D. 
Collaborateurs: Ève Gaumond, Shirley Plumerand, David Beauchemin, Maxime Heuillet.

Support the show

25 May 2023Épisode 62 - Mesure de l'impact environnemental de ChatGPT - Entrevue avec Anne-Laure Ligozat00:51:37

Quel est le bilan environnemental de ChatGPT? Peut-on mesurer son bilan carbone, et les émissions de GES associées, et cela, tout au long de son cycle de vie? Autour de ces quelques questions, nous entamons une série de trois épisodes consacrée aux enjeux environnementaux de l'intelligence artificielle.

Dans ce premier de trois épisodes, nous posons les bases de cette réflexion avec Anne-Laure Ligozat, maître de conférences en informatique à l’École Nationale Supérieure d'Informatique pour l'Industrie et l'Entreprise. Anne est également chercheur et collaboratrice au Laboratoire Interdisciplinaire des Sciences du Numérique (LISN), sur le campus de l’Université Paris-Saclay. Elle est également responsable d’EcoInfo , un site web pensé pour les enseignants, informaticiens, décideurs, dans le secteur de l’enseignement supérieur et de la recherche, qui s’intéressent à la mesure et à la réduction des impacts environnementaux et sociétaux négatifs des technologies du numérique. 

Au programme:

  • Analyse du cycle de vie (ACV) d’une IA 
  • Mesure de l’impact environnemental de l’IA 
  • Le coût-bénéfices et le bilan environnementaux du développement d’une IA 
  • Quelques applications IA au service de l'environnement
  • Promesses environnementales enthousiasmantes et bilans environnementaux décevants.
  • Le coût environnemental et le bilan carbone de ChatGPT, MidJourney, Dall-e, Stable Diffusion.
  • Quelques pistes de solution pour arrimer les promesses de l'intelligence artificielle avec nos attentes environnementales.

Invitée: Anne-Laure Ligozat
Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.


Support the show

08 Jun 2023Épisode 63 - Le coût environnental de l'IA, et le silence déraisonnable du monde.00:46:36

L’intelligence artificielle a, en soi, un coût environnemental! L'aurions-nous oublié? Première partie (1 de 2) de notre analyse. Un seul thème: environnement et intelligence artificielle.

En effet, toutes ces folles et belles aventures et expérimentations sur ChatGPT, Dall-e, Midjourney, Stable diffusion ont un coût environnemental. En amont, des tonnes de ressources naturelles sont mobilisées pour créer ces serveurs, ces puces, et ces processeurs graphiques (GPU) qui font vrombir les ressources computationnelles en IA. On aimerait peut-être l'oublier, mais ces outils informatiques mobiliseront également des mégawatts et térawatts, produits à partir d'autres ressources naturelles, arnachant nos rivières ou puisant dans des mines de charbons ou nos puits de pétroles. Sans compter les ressources humaines solicitées, travaillant parfois dans des conditions de travail qui nous font rougir de honte. Résultats, des tonnes de GES pour programmer ces IA, les entrainer, les utiliser, et cela, afin que ces derniers puissent contribuer à cette quête ambitieuse, voire démesurée:  résoudre «tous les problèmes du monde», y compris les problèmes... environnementaux!

«L'absurde naît de cette confrontation entre l'appel humain et le silence déraisonnable du monde » (Albert Camus, Le mythe de Siphyphe)

Au programme, avec mes collaborateurs Frédérick Plamondon et Shirley Plumerand, nous explorons les enjeux environnementaux de l’intelligence artificielle, à travers notre analyse de l'entretien que j'ai eu la chance d'avoir avec Anne-Laure Ligozat (épisode 62).  

Collaboratrices et collaborateurs invités:  Frédérick Plamondon, Shirley Plumerand.
Production et animation: Jean-François Sénéchal, Ph.D. 
Collaborateurs: Ève Gaumond, Sylvain Munger, David Beauchemin, Maxime Heuillet.


Support the show

22 Jun 2023Épisode 64 - (Partie 2) Le coût environnental de l'IA, et le silence déraisonnable du monde.00:56:46

L’intelligence artificielle a, en soi, un coût environnemental! L'aurions-nous oublié? Deuxième partie (2 de 2) de notre analyse. Un seul thème: environnement et intelligence artificielle.

En effet, toutes ces folles et belles aventures et expérimentations sur ChatGPT, Dall-e, Midjourney, Stable diffusion ont un coût environnemental. En amont, des tonnes de ressources naturelles sont mobilisées pour créer ces serveurs, ces puces, et ces processeurs graphiques (GPU) qui font vrombir les ressources computationnelles en IA. On aimerait peut-être l'oublier, mais ces outils informatiques mobiliseront également des mégawatts et térawatts, produits à partir d'autres ressources naturelles, arnachant nos rivières ou puisant dans des mines de charbons ou nos puits de pétroles. Sans compter les ressources humaines solicitées, travaillant parfois dans des conditions de travail qui nous font rougir de honte. Résultats, des tonnes de GES pour programmer ces IA, les entrainer, les utiliser, et cela, afin que ces derniers puissent contribuer à cette quête ambitieuse, voire démesurée:  résoudre «tous les problèmes du monde», y compris les problèmes... environnementaux!

«L'absurde naît de cette confrontation entre l'appel humain et le silence déraisonnable du monde » (Albert Camus, Le mythe de Siphyphe)

Au programme, avec mon collaborateur Sylvain Munger et mon invité «chouchou de classe» (Raphaël Guay-Gagné) , nous explorons les enjeux environnementaux de l’intelligence artificielle, à travers notre analyse de l'entretien que j'ai eu la chance d'avoir avec Anne-Laure Ligozat (épisode 62).  

Collaborateurs invités:  Sylvain Munger, Raphaël Guay-Gagné 
Production et animation: Jean-François Sénéchal, Ph.D. 
Collaborateurs et collaboratrices: Frédérick Plamondon, Shirley Plumerand, Ève Gaumond, Sylvain Munger, David Beauchemin, Maxime Heuillet.

Support the show

06 Jul 2023Épisode 65 - Nos prix IArk et Lovelace (Été 2023) - Partie 100:54:18

Nous entamons (première de deux parties) la conclusion de cette troisième saison d'IA café. Pour finir en beauté, nous vous offrons nos prix IArk et Lovelace.

Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux  articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!

Dans cet épisode:

David  Beauchemin

  • IArk – Le PDG d’Open AI est clair : « Régulez-nous (mais pas trop)! » 
  • IArk - ChatGPT – Saint Graal de la vente à rabais de solutions technologiques pour régler tous vos problèmes (ou pas).

Shirley Plumerand

  • IArk – La reconnaissance biométrique dans l’espace public (encore!)
  • Lovelace – Charleyne Biondi: «Dé-coder – Une histoire d’une numérique»

Frédérick Plamondon

  • Lovelace – Le travail de l'ombre en IA - «AI is a lot of work» (The verge) et «Inside effective altruism» (MIT)
  • IArk –  (Face palm) - Une IA révèle de quoi a l’air une belle femme dans 100 pays - Journal de Montréal.

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs et collaboratrices: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

20 Jul 2023Épisode 66 - Fin de saison - Nos prix IArk et Lovelace (Été 2023) - Partie 200:53:30

Fin de notre troisième saison d'IA café! Pour finir en beauté, nous vous offrons nos prix IArk et Lovelace.

Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux  articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!

Dans cet épisode:

Sylvain Munger

  • Lovelace –  Yoshua Bengio vs Philippe Beaudoin vs ChatGPT
  • IArk - Un compte tiktok qui fait parler les morts

Ève Gaumond

  • IArk - Le Droit est-il au service de la technologie?
  • Lovelace - La force du Droit fondamental et internationnal pour encadrer le développement de l'IA

Jean-François Sénéchal

  •  IArk - ChatGPT - Une technologie de rupture
  • Lovelace - ChatGPT - Une technologie révolutionnaire

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs et collaboratrices: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.

Support the show

07 Sep 2023Épisode 67 - La rentrée d'IA Café saison 4 - Yiiiiiiiiii Aaaaaaaa! (Partie 1) - ChatGPT vs Gémini00:41:27

Ça y est! Nous sommes de retour. Bienvenue à votre saison #4 d’IA café.  

Avec mes collaborateurs et collaboratrices (Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Minéo), nous mettons la table pour cette saison 4, explorons les thèmes à venir cet automne, discutons des événements en IA qui s'annoncent, et partageons nos ambitions et projets automnaux.

Au programme:

Présentation d'une nouvelle collaboratrice, Véronique Tremblay, et d'un nouveau collaborateur, Stéphane Minéo: 

  • Véronique - De la science des données et de la gestion responsable des donnée
  • Stéphane - De la programmation en IA, du machine learning, et des jeux de données

Shirley Plumerand:

  •  Le DSA (Digital services act) comme pouvoir de contrainte des grandes plateformes de réseaux sociaux. 
  • La mesure algorithmique des athlètes des Jeux olympiques de Paris 2024

Stéphane Minéo: 

  • Le salon du big data et de l’IA à Paris
  • Le LLM Gemini de Google, une riposte à ChatGPT d’Open AI !

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo
Collaborateurs: Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Support the show

14 Sep 2023Épisode 68 - La rentrée d'IA Café saison 4 (Partie 2) - Le cygne noir et l'improbabilité statistique00:55:32

Et ça continue avec cette entame de saison 4, deuxième partie.

Avec mes collaborateurs et collaboratrices (Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Minéo), nous  explorons les thèmes à venir cet automne, discutons des événements en IA qui s'annoncent, et partageons nos ambitions et projets automnaux.

Au programme:

Sylvain Munger:

  • Risques potentiels, risques réels et risques théoriques 
  • La théorie du cygne noir, et la gestion prudente de l'improbabilité statistique.

Véronique Tremblay:

  • Le projet de loi C27 et la gestion terrain de l'imposition de modèles équitables et non discriminatoires
  • Réflexion et analyse critique de la notion de «biais statistiques», et la question du biais intentionnel et orienté en fonction de valeurs sociales.

Jean-François Sénéchal: 

  • Les outils et systèmes d'IA en recherche - Enquête au coeur de la fraude et de l'inconduite académique
  • Le podcast comme outil de recherche académique ou de développement professionnel.

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo
Collaborateurs: Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Mentionné pendant l'épisode: 

Support the show

21 Sep 2023Épisode 69 - Universités, enseignement et IA génératives - Éthique, sciences et technologie - Rencontre avec Mélanie Rembert et Guillaume Pelletier (CEST)01:01:26

Rencontre avec Mélanie Rembert et Guillaume Pelletier de la Commission de l'éthique en science et en technologie du Québec. 

Au programme:

  • De la rédaction d'un rapport gouvernemental sur les enjeux éthiques et pédagogiques de l’utilisation des intelligences artificielles génératives en enseignement supérieur
  • De l'encadrement de l’utilisation d’IA générative comme ChatGPT - interdiction, accompagnement, éducation
  • Des principaux bénéfices associés aux IA génératives dans les universités
  • Des principaux risques, enjeux et défis pédagogiques et éthiques associés aux IA génératives dans les universités
  • De processus de consultation publique et de la place des experts dans la production d'un rapport gouvernemental
  • De l'argument de la «perte de contrôle» et de la «boite noire»
  • Des notions d'«explicabilité», «transparence» et «interprétabilité» en éthique de l’IA.
  • De l'effritement accru de la relation de confiance entre les enseignants et étudiants.
  • De l'altération de la relation entre l’étudiant et le savoir
  • Des impacts sur les compétences numériques
  • Des impacts en matière d'imputabilité et de rigueur intellectuelle
  • De l'accroissement possible des inégalités numériques 

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Mélanie Rembert et Guillaume Pelletier de la Commission de l'éthique en science et en technologie du Québec
Collaborateurs: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Support the show

05 Oct 2023Épisode 70 - ChatGPT, les LLM et l'enseignement universitaire: «Se faire une tête»!01:17:22

Gros programme cette semaine. Je vous propose un épisode en deux blocs. 

Dans un premier bloc, avec mes collaborateurs et collaboratrices (Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Minéo), nous  partageons nos réflexions entourant l’épisode 69 d'IA Café. Dans cet épisode 69, j’ai eu la chance de discuter avec Mélanie Rembert et Guillaume Pelletier, conseillers en éthique à la Commission de l’éthique en science et en technologie du Québec. 

Dans un deuxième bloc : les BaristIA font le tour de leurs actualités IA afin de  rester branchés sur les actualités en intelligence artificielle. Et de tenter de maintenir ce rythme de fou! 

Au programme:

Shirley Plumerand:

  • L'encadrement de l’utilisation d’IA générative : interdiction, accompagnement, éducation
  • Les inégalités et inéquités numériques
  • La nuit du droit!

Stéphane Mineo:

  • La culture du partage du savoir en informatique
  • Les LLM et la citation des sources
  • Le Salon du big data à Paris

Sylvain Munger:

  • Le rôle des enseignants et les utilisations possibles des LLM en classe
  • Les LLM répondent-ils (vraiment!) à un besoin des enseignants?
  • La socialisation des étudiants, le rapport au savoir, et à l'autre
  • La fin du téléphone intelligent - et le nouveau paradigme technologique

Véronique Tremblay:

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo
Collaborateurs: Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Support the show

19 Oct 2023Épisode 71 - Repenser les réseaux sociaux - Entrevue avec Philippe Beaudoin00:55:08

Philippe Beaudoin est avec nous! Jadis ingénieur senior chez Google, vice-président du volet recherche chez Element IA, maintenant cofondateur et PDG de la compagnie Waverly, avec lui, nous discutons du développement de l’IA au Canada, de la pertinence d’une pause en IA pour encadrer ce développement, et de sa conception du rôle de la technologie et de l’IA dans notre société. Nous prendrons également le temps de discuter avec lui de l’ascension fulgurante et de la triste chute d’Élement AI, notre fleuron de l’IA au Québec, en 2020.  

Au programme : 

  • De l’ascension et de la chute d’Element AI
  • De la nécessité (ou non) d’une pause 
  • De la concentration des pouvoirs et de la diversification des contre-pouvoirs collaboratifs
  • De l’humain au centre de son environnement technologique
  • Du techno-enthousiasme et de la réplique cynique  
  • Des facteurs de réussites des jeunes pousses (start-up) 
  • De financement du développement de l’IA
  • De l’importance de la recherche sur les enjeux éthiques et sociaux 

Et encore plus !

Bonne écoute.

Mentionné dans l'épisode : 

 Production et animation: Jean-François Sénéchal, Ph.D

Invités: Philippe Beaudoin

Collaborateurs: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Support the show

31 Oct 2023Épisode 72 - Spécial Halloween - Cauchemar en IA - Le monstre en nous.00:49:33

C’est notre spécial d'histoires d'horreur en intelligence artificielle.  Le concept est simple, j’ai demandé à mes collaborateurs et collaboratrices de me raconter leurs histoires d’horreur préférées en I.A. Les histoires peuvent être concrètes ou symboliques, l'important étant que ça parle d’IA, et que ça fasse peur!

Au programme:
- Vendre son âme - Sam Altman (fondateur d'Open AI et Tools for humanity) et son «Orb» pour collecter toutes vos données biométriques et vendre (peut-être) votre âme à Sauron.
- Nécrophagie - La compagnie Pack and save vous offre de faire des recettes à partir de ce qui reste dans votre frigo, y compris des restes humains...
- Pathotourisme - MSN tourist offre une visite des sites touristiques de la ville d'Ottawa incluant la visite d'une banque alimentaire!
- La construction des masques de l'ombre - Tiktokisation de Google Meet : les filtres et les deepfakes de l'apparence physique dans la construction de l'identité.
- Traquer les bouffeurs de planètes - Ils sont de plus en plus gros, et ils ont de plus en plus faim! Retour sur le rapport de Sasha Luccioni (ICRA) : Vers l’évaluation et l’atténuation de l’impact environnemental des grands modèles de langues (Les LLM).
- Démonisation ciblée -  Profilage raciale dans les algorithmes des allocations familiales des Pays-Bas - Une IA qui vous veut du bien.

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Shirley Plumerand, Fredérick Plamondon
Collaborateurs: Sylvain Munger, Véronique Tremblay, Stéphane Minéo,  Ève Gaumond, Maxime Heuillet, David Beauchemin.


Support the show

16 Nov 2023Épisode 73 - Rêver mieux - Le techno optimisme réaliste et la compétence prophétique en IA01:03:57

Beau programme cette semaine. Premier bloc:  retour sur l’épisode 71, intitulé : Repenser les réseaux sociaux, avec Philippe Beaudoin (ex ingénieur senior chez Google, ex vice-président du volet recherche chez Element IA, et cofondateur et PDG de sa compagnie Waverly). Deuxième bloc : Actualités IA. 

Au programme : 

  • Element AI – Le modèle d’affaires des jeunes pousses (start-ups) en IA - Quelques leçons apprises
  • Element AI - Tous les œufs dans le même panier - La concentration du pouvoir 
  • Mistral (Le chatGPT venu d’Europe) – Un vent de fraicheur, qui donne (parfois) froid dans le dos!
  • Le techno optimisme et la compétence prophétique comme nécessité chez les entrepreneurs
  • La formation du public aux enjeux éthiques et sociaux en IA 
  • Le rôle social des Ordres professionnels dans l’utilisation responsable de l’IA
  • Le régime d’historicité de Hartog: le régime passéiste, futuriste, et présentiste
  • Le capital Algorithmique (de Jonathan Durand Folco et Jonathan Martineau)
  • Le forum sur l’encadrement de l’intelligence artificielle (Conseil de l’innovation du Québec). https://conseilinnovation.quebec/forum-public-ia/ 

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Barist.IA:  Sylvain Munger Ph.D, Véronique Tremblay, Stéphane Minéo
Collaborateurs et collaborarices: Shirley Plumerand, Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Support the show

24 Nov 2023Épisode 74 - Chaos chez OpenAI - Congédiement (et embauche!) de Sam Altman.01:03:24

Cette semaine, l’actualité s’est imposée. Sam Altman, le patron d’OpenAI (Microsoft-ChatGPT) a été congédié. Et réembauché quelques jours plus tard! C'est le chaos chez OpenAI. Et ça mérite au moins un pti-IA-café

Au programme:

  • Chronologie des événements
  • Acteurs impliqués, jeux de coulisses et de pouvoir
  • Le techno-optismisme VS le catastrophisme
  • Les discours et idéologies TESCREAListes
  • Des difficultés de «l'alignement» sociale et morale de l'intelligence artificielle
  • Enjeux de communication et discours cosmétiques

Production et animation: Jean-François Sénéchal, Ph.D
Barist.IA:  Shirley Plumerand, Fredérick Plamondon, Sylvain Munger Ph.D, Stéphane Minéo

Collaborateurs et collaboratrices: Véronique Tremblay, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Support the show

07 Dec 2023Épisode 75 - Bonne fête, ChatGPT!01:31:58

Pour souligner le 1er anniversaire de ChatGPT, nous vous proposons un panel de dix experts de l'IA pour discuter de l'émergeance des IA génératives! 

Ce panel a été organisé par l'OBVIA (l'observatoire international sur les impacts sociétaux de l’IA et du numérique) dans le cadre du pré-lancement de son document intitulé: «Un an après l’arrivée de chatGPT: Réflexions de l’Obvia sur les enjeux et pistes d’action possibles face à l’IA générative».  

À la table:

Et votre animateur et expert en éthique de l'IA: Jean-François Sénéchal, Ph.D

Au programme:

  • L'utilisation de ChatGPT dans le quotidien des experts
  • Leçons de l’histoire - Savoir d'où l'on vient
  • Les enjeux éthiques transversaux - L'IA partout
  • En classe - Les enjeux éthiques en éducation
  • Copilot et l'utilisation dans le monde du travail 
  • La responsabilité sociale des entreprises (RSE) et l'éthique cosmétique
  • Le cadre juridique français et québécois à l'épreuve
  • Appel à la vigilance et à l’action 

Production et animation: Jean-François Sénéchal, Ph.D

Collaborateurs et collaborarices: Shirley Plumerand, Fredérick Plamondon, Sylvain Munger Ph.D, Stéphane Minéo, Véronique Tremblay, Ève Gaumond, Maxime Heuillet, David Beauchemin.

Support the show

21 Dec 2023Épisode 76 - Le Noël d'IA café - Algorithmes et guerres des intelligences sous le sapin!01:12:08

Enfin! C'est notre spécial de Noël d’IA café. Pour l’occasion, j’ai demandé à mes barist.I.A.s de nous partager leurs suggestions de cadeaux. Évidemment, ça parle d'intelligence artificielle et de cadeaux, mais vous les connaissez, avec une interprétation très souple du terme « cadeau »...

Plusieurs sujets abordés dans cet épisode. 

  • Art urbain (Street Art) et I.A.rt : L’exposition « Loading, l'art urbain à l'ère numérique » au Grand Palais Immersif à Paris. 
  • Le Grinch et le Problème de Monty Hall – Le biais d’animosité envers les mathématiques (de Sylvain!).
  • Zelda (ou non!) - L’histoire de Link. Un livre pour enfants – écrit par Gabrielle Joni Verreault, illustré par Marie-Sol St-Onge. Septembre, 2023
  • Le conte de Noël: «Du roi-philosophe aux algorithmes : l’histoire de la hiérarchie du pouvoir occidental comme guerre des intelligences continuée». Un texte de Sylvain Munger publié dans Karine Gentelet. Les intelligences artificielles au prisme de la justice sociale.  Novembre, 2023
  • La guerre des tuques. Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme
  • Le rêve de l'entrepreneur IA - Mythologie de l'entrepreneur informatique dans son garage. Ada & Zangemann - Un conte pour enfants sur les logiciels, le skateboard et la glace à la framboise. Texte  de Matthias Kirschner, illustré par Sandra Brandstätter. Novembre, 2023
  • Vos achats du Temps des Fêtes. Le biais statistique - Les algorithmes de recommandation et les systèmes d’aide à la décision.
  • Origine de la création de l'intelligence artificielle. L’Eve future, Villiers de L'Isle-Adam, 1886. 
  • Simulants, Nomad et Nirmata - Le Film – The creator - Le créateur, réalisé par Gareth Edwards. 2023.

 Production et animation: Jean-François Sénéchal, Ph.D

Barist.I.A.s:  Shirley Plumerand, Véronique Tremblay,  Sylvain Munger Ph.D, Stéphane Minéo

Collaborateurs et collaboratrices: Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

11 Jan 2024Épisode 77 - Le meilleur et le pire de l'IA en 2023 - Et bonne année 2024!01:17:17

Bonne année! Pour ce premier épisode 2024, nous vous avons réservé nos prix Lovelace et I.A.rk.! C’est notre revue de l’année 2023. 

Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle en 2023. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI qui nous fait dire «I. A. rk» !

Bonne écoute!

Jean-François Sénéchal

  • Lovelace 2023:  Sasha Luccioni (Hugging Face – Montréal) pour ses travaux sur les impacts environnementaux de l’IA 
  • I.A.rk 2023:  La croissance inquiétante du «deepfake science» ou hypertrucage académique

Frédérick Plamondon

  • Lovelace 2023:   La norme ISO 42001 - Une norme ISO pour définir le management de l'intelligence artificielle
  • I.A.rk 2023:  Erreur 404 chez Stable Diffusion - Une étude de Stanford a démontré que le jeu de données LAION-5B, utilisé par Stable Diffusion, contenait 3,226 images pédopornographiques

Véronique Tremblay:

  • Lovelace 2023:  Sasha Luccioni (Hugging Face – Montréal) pour ses travaux sur les impacts environnementaux de l’IA 
  • I.A.rk 2023:  La prolifération des pseudo-experts des GenAI (IA génératives)

Stéphane Minéo

  • Lovelace 2023:  L'Union européenne réussi à créer son règlement sur l'intelligence artificielle
  • I.A.rk 2023:  Profilage et discrimination de la Caisse nationale des allocations familiales (CNAF) et les dérives des algorithmes

Production et animation: Jean-François Sénéchal, Ph.D

Barist.I.A.s:   Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon,

Collaborateurs et collaboratrices:  Shirley Plumerand,  Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

25 Jan 2024Épisode 78 - Enseignement et IA : Deepfake, métavers et ChatGPT à l’école des sorciers!00:52:04

Dans cet épisode, nous recevons Nadia Naffi. Nadia est titulaire de la Chaire de leadership en enseignement sur les pratiques pédagogiques innovantes en contexte numérique Banque Nationale. Elle y explore la question du rôle de la personne enseignante à l'ère de l'intelligence artificielle. 

Nadia Naffi s’intéresse aux innovations pédagogiques et numériques, aux expériences d’apprentissage numériques, à l’enseignement en ligne, à distance, hybride, comodale, à la littéracie numérique, aux environnements virtuels d’apprentissage. Et, évidemment, à l’intégration progressive de l’intelligence artificielle dans nos expériences d’enseignement et d’apprentissage. 

Au programme

  • ChatGPT et autres utilisations enthousiasmantes pour un étudiant et un prof 
  • Le métavers, la réalité virtuelle et les environnements numériques d’apprentissage
  • Le deepfake (l’hypertrucage), la désinformation et le mensonge algorithmique
  • Promesses de l’intelligence artificielle en enseignement, défis et solution
  • La formation et l’éducation aux enjeux éthiques et sociaux du numérique et de l’intelligence artificielle.
  • L’agentivité et le rôle citoyen dans la construction d’un futur numérique.

Production et animation: Jean-François Sénéchal, Ph.D
Invitée: Nadia Naffi, Ph.D.

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand,  Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

08 Feb 2024Épisode 79 - GenAI sur les bancs d'écoles - Techno-optimisme et technoréalisme.00:59:13

Retour sur notre entretien avec Nadia Naffi, épisode 78, intitulé «Enseignement et IA : Deepfake, métavers et ChatGPT à l’école des sorciers»!

Deux baristIAs en studio: Frédérick Plamondon et Véronique Tremblay.

Au programme:

  • NY Times VS Open AI.
  • Le lancement du GPT store d'OpenAI.
  • La relation professeur-étudiant à l'épreuve des GenAI.
  • Techno-optimisme vs technosepticisme vs technoréalisme. 
  • Le technosolutionnisme et ses limites. 
  • Utilisations étudiantes et professorales de ChatGPT à l'école
  • Deepfake (hypertrucage), désinformation et mensonge. 

Production et animation: Jean-François Sénéchal, Ph.D
BaristIAs: Véronique Tremblay et  Fredérick Plamondon,

Collaborateurs et collaboratrices:  Stéphane Minéo, Shirley Plumerand,  Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.


OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

22 Feb 2024Épisode 80 - Lidars et véhicules autonomes - Rencontre avec Frantz Saintellemy (LeddarTech)00:53:30

Dans cet épisode, nous discutons de véhicules autonomes et des technologies numériques qui rendent ce rêve possible. En voiture avec nous :  Frantz Saintellemy, président de la compagnie LeddarTech, une compagnie spécialisée dans les systèmes de captures de données dont se servent les véhicules autonomes pour se diriger dans nos rues, sans conducteur.  

Au programme :

  • Comment survivre à la volatilité du marché de la tech-AI
  • La techno-culture et les réseaux sociaux de la Silicon Valley 
  • La voiture du futur : Lidars, capteurs, cameras et autres trésors sous le capot
  • LeddarVision, apprentissage automatisé et réseaux de neurones profonds
  • Les principaux « freins » techniques et économiques
  • Craintes, risques et démesure  
  • Promesses, rêves et espoirs 
  • De l’amélioration de la sécurité des usagers de la route  
  • De l’amélioration de la mobilité et de l’efficacité du réseau de transport routier

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invité: Frantz Saintellemy

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand,  Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

07 Mar 2024Épisode 81 - Sciences molles vs sciences dures (partie 1) - L'oeil du tigre!01:07:36

Gros combat cette semaine : sciences molles vs sciences dures. On se fait la leçon. On se taquine un peu. On aide l’autre à mieux comprendre des champs de l’expertise en IA qu’il ne maîtrise pas (pas encore!). 

Au programme : 10 choses que les experts en sciences dures de l’IA (programmation, informatique, génie logiciel, sciences des données, apprentissage automatique, etc.) ignorent à propos des sciences molles de l’IA (éthique, sociologie, droit, etc.). 

Mes BaristIA nous expliqueront ce qui les agace dans le discours des experts AI des sciences périphériques à leurs champ principal d’expertise. 

Au programme :

  • 🥊Du «wokisme» de Gémini
  • 🥊 Des prétentions d’objectivité des sciences dures 
  • 🥊De la main mise sur le pouvoir associé à l’objectivité des sciences dures
  • 🥊De la possibilité d’un algorithme non biaisé et équitable 
  • 🥊Du terme «éthique» et de la morale des algorithmes 
  • 🥊De alignement algorithmique et la possibilité de déterminer ce qu’est le Bien et le Juste
  • 🥊Des sciences dures comme véhicule des myopies de leur époque

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs: Véronique Tremblay, Shirley Plumerand, Stéphane Minéo et Sylvain Munger Ph.D.  

Collaborateurs et collaboratrices: Frédérick Plamondon, Ève Gaumond, Maxime Heuillet, et David Beauchemin. 

Musique (crédit): "Eye of the Tiger",  Survivor. (Rocky III, 1982)

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

21 Mar 2024Épisode 82 - Combat «mortel» en IA ! - Sciences molles vs Sciences dures (partie 2)01:15:46

Deuxième ronde d’un combat «mortel» : sciences molles vs sciences dures. On se fait la leçon. On se taquine un peu. On se lance des coups. Et on aide l’autre à mieux comprendre des champs de l’expertise en IA qu’il ne maîtrise pas (pas encore!). 

Au programme : 10 choses que les experts en sciences molles de l’IA (droit, éthique, sociologie, etc.) ignorent à propos des sciences dures (informatique, mathématique et sciences des données) de l’IA. 

Mes baristIA nous expliqueront ce qui les agace dans le discours des experts AI des sciences périphériques à leurs champ principal d’expertise. 

Au programme :

  • Du mythe de la «boîte noire» et de l'incompréhensibilité des algorithmes
  • Des difficultés à parler «d'apprentissage» et «d'intelligence»
  • Des fausses vérités à propos du «programmeur biaisé» 
  • Des beautés créatives et esthétiques de la programmation elle même

Et tellement d'autres sujets. Gros fun dans cet épisode!

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs: Véronique Tremblay, Shirley Plumerand, Stéphane Minéo, Frédérick Plamondon, et Sylvain Munger Ph.D.  

Collaborateurs et collaboratrices:  Ève Gaumond, Maxime Heuillet, et David Beauchemin.  

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

04 Apr 2024Épisode 83 - Le retour du Jed.Ai - David Beauchemin : de Open Layer à Baseline!00:51:35

Il est de retour, David Beauchemin est avec nous dans le studio d'IA Café! Nouvellement président directeur général de Baseline, une coopérative de service conseil en IA, David nous raconte ce qui se passe dans sa vie de jeune chercheur et jeune entrepreneur en IA.

Au programme:

  • Du statut éphémère de l'intelligence artificielle: «Tout ce qu’on fait aujourd’hui en IA ne sera pas considéré comme de l’IA dans 20 ans» (29 :06)
  • Du rythme de production d’une thèse académique en IA
  • De Baseline - une coopérative de service conseil en IA 
  • De la pertinence des valeurs coopératives pour guider les solutions technologiques en IA
  • Solutions IA ou solutions informatiques: De la frontière entre «intelligence artificielle» et «informatique de haute performance»
  • OpenAI ou CloseAI?
  • De la distance entre le monde réel et le monde académique
  • IArk  - De la reconnaissance faciale dans les machines distributrices de chips!

Production et animation: Jean-François Sénéchal, Ph.D
Invité: David Beauchemin (Baseline et Open Layer) 

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand,  Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

18 Apr 2024Épisode 84 - L'enfer, c'est les autres - Implications collectives de la protection de la vie privée00:56:41

Dans cette épisode, avec Ève Gaumond (de retour à IA Café!) et notre invitée Michelle Albert-Rochette, nous discutons d'un article que cette dernière a publié en collaboration avec Clara Lavis et Mathilde Meunier,  intitulé: Protection de la vie privée dans le contexte des plateformes en ligne : les limites des fiducies de données et du devoir fiduciaire de loyauté.

Au programme:

  •  Comment les médias sociaux et plateformes protègent-ils notre vie privée, nos données et renseignements personnels? 
  • Des principales lois encadrant la protection de la vie privée et les renseignements personnels au Canada et en Europe
  • De la question du consentement dans la protection de la vie privée
  • Des implications collectives de la notion de vie privée
  • C’est quoi une « fiducie de données » ?
  • De la possibilité d’imposer aux GAFAM un devoir fiduciaire de loyauté
  • Et IA ? Vieux problème avec de nouveaux moyens? 

Et encore plus !

Bonne écoute.

Texte à l'étude: Albert-Rochette, M., Lavis, C., & Meunier, M. (2023). Protection de la vie privée dans le contexte des plateformes en ligne : les limites des fiducies de données et du devoir fiduciaire de loyauté. Lex Electronica, 28(1), 23-59.

Production et animation: Jean-François Sénéchal, Ph.D
Analyses et coanimation: Ève Gaumond 
Invitée: Michelle Albert-Rochette

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand,  Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.

  

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

02 May 2024Épisode 85 - J'ai cloné ma voix (et c'est complètement fou!)00:50:05

C'est fait! J'ai cloné ma voix avec un outil de création de voix de synthèse. Les résultats sont à la fois impressionnants, drôles, et troublants. Aussi, avec mes collaborateurs, nous avons discuté des plus récentes actualités en IA.

Au programme:  

  • J’ai cloné ma voix (Ayoye!) 
  • Droit à «l’image vocale» et consentement
  • La gestion algorithmique de la guerre
  • Projet Nimbus - Le conflit israélo-palestinien comme laboratoire de l’armement AI 
  • No tech for apartheid – Google et Amazon, le contrôle des foules, la surveillance militaire, l’épuration ethnique et le colonialisme.
  • Musique composée et produite par l’IA - Spotify fait son ménage du prétemps et supprime 7 % de son catalogue
  • L’intelligence artificielle au service (ou non) de la musique et de ses artistes 

Et tellement d'autres sujets. Gros fun dans cet épisode! Et certains sujets plus délicats. 

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs: Stéphane Minéo et Frédérick Plamondon, 

Collaborateurs et collaboratrices:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Ève Gaumond, Maxime Heuillet, et David Beauchemin.  

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

16 May 2024Épisode 86 - Sociologie de l'ostentation du pouvoir de l'IA00:51:26

Actualités et banc d'essai. On discute en studio de quelques actualités qui ont stimulé nos réflexions. On teste aussi quelques applications AI.

Au progamme

  • De l'autre côté de la Grande Flaque -  Shirley Plumerand à la conquête du Québec AI
  • La consommation ostentatoire : l’importance de montrer sa maîtrise des technologies associées à l’intelligence artificielle
  • Retour sur les expérimentations de synthèse (clonage) vocale.
  • L’instrumentalisation de l’IA comme démonstration de pouvoir militaire 
  • Victoria Shi, une porte-parole (avatar) de l’Ukraine animée par l’IA.
  • Ubenwa - Une application pour interpréter les pleurs de bébés…

Références citées ou consultées: 

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs: Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D. 

Collaborateurs et collaboratrices:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon, Ève Gaumond, et David Beauchemin.   



OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

30 May 2024Épisode 87 - FredGPT - Pourquoi se contente-t-on d’une écriture grammaticalement juste, mais sémantiquement pauvre?00:50:28

Actualités et banc d'essai. On discute en studio de quelques actualités qui ont stimulé nos réflexions. On teste aussi quelques applications AI.

Au progamme   

  • On a testé Méta, sur Facebook (Messenger) et Instagram!
  • Gen AI et aide à l’écriture - Pourquoi se contente-t-on d’une écriture grammaticalement juste, mais sémantiquement pauvre?
  • FredGPT - Quelques utilisations techno-pédagogiques de l’IA en enseignement de la gestion de ressources humaines
  • L’hypertruckage (deepfake) pour protéger les témoins du mouvement de contestation iranien.

Références citées ou consultées: 

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs: Shirley Plumerand, Frédérick Plamondon

Collaborateurs et collaboratrices:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon, Ève Gaumond, et David Beauchemin.  

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

13 Jun 2024Épisode 88 - L’IA au service de la pornographie, de l’industrie du sexe et du divertissement adulte»01:02:32

Dans cet épisode, nous explorons un champ d’application de l’intelligence artificielle souvent ignoré dans les rapports et analyses plus officiels : l’industrie du sexe, du divertissement adulte et de la pornographie. 

C’est un sujet délicat, évidemment, et nous l’abordons avec le sérieux et la rigueur qui s’imposent. Deux experts nous accompagnent : Simon Dubé, chercheur au réputé Kinsey Institute, à Indiana University et professeur affilié au département de sexologie à l’UQAM, et Valerie A. Lapointe, doctorante en psychologie à l’Université du Québec à Montréal (UQAM). 

Au programme :

  • Les acteurs économiques de l’industrie du sexe AI - Portait économique et pôles de pouvoir de l’industrie 
  • Les deepfakes, les sex-chatbots et autres applications concrètes de l’IA dans l’industrie du sexe
  • Problèmes : les enjeux éthiques et sociaux existants, et disruptifs 
  • Promesses:  quelques utilisations qui donnent (peut-être) un peu d’espoir
  • La réalité virtuelle et le Sexe AI pour le traitement des dysfonctions et troubles sexuels
  • L’érobotique comme solution potentielle aux besoins, désirs, et bien-être sexuels
  • Gérer les promesses, enjeux éthiques et problèmes sociaux l’IA dans l’industrie du sexe et du divertissement adulte

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D

Invités:  Simon Dubé et Valerie A. Lapointe

Collaborateurs et collaboratrices:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon, Ève Gaumond, et David Beauchemin.  


OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

27 Jun 2024Épisode 89 - Sexe, mensonges et vidéo01:09:20

Dans cet épisode, retour (avec mes baristIAs) sur notre épisode 88 intitulé «L'IA au service de la pornographie, de l'industrie du sexe et du divertissement adulte». 

Au programme :

  • Deepnude (la nudité hyper truquée)
  • La construction (et déconstruction) numérique de l’image des femmes
  • Les conséquences potentielles sur la sexualité des jeunes
  • La promesse des usages technologiques à haut potentiel et ses limites
  • Les asymétries de pouvoirs et les difficultés à encadrer une industrie délinquante
  • L’influence des propriétaires de la technologie (GAFAM) sur la moralisation sociale de la sexualité et de ses représentations 
  • Le consentement sexuel (et de son absence) à l’époque du deepfake
  • Le consentement (éternel et sans limite) à l’utilisation des données
  • De la régulation des contenus pornographiques (générés par l’IA) et de l’intervention possible du législateur
  • Du rôle des experts techniques (informatiques et mathématiques) dans la réflexion sur les enjeux sociaux de l’IA.
  • De consommateur à acteur – La bidirectionnalité de la sexualité numérique.

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs:  Véronique Tremblay, Shirley Plumerand, Stéphane Minéo, Frédérick Plamondon.

Collaborateurs et collaboratrices:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon, Ève Gaumond, et David Beauchemin.  

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

11 Jul 2024Épisode 90 - Nos prix IArk et Lovelace - Été 2024 (partie 1)00:59:43

Pour finir en beauté notre quatrième saison d'IA café, nous vous offrons nos prix IArk et Lovelace.

Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux  articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!

Véronique Tremblay:

Shirley Plumerand:

  • Lovelace: au Magazine Shut! – Tech, responsabilité et éthique. 

Frédérick Plamondon:

  • Lovelace:  au journalisme critique du techno-optimisme – Au-delà des usages et des discours experts. 
  • Mention spéciale à Jonathan Roberge et Destiny Tchehouali.

Sylvain Munger:

  • IArk:  à Habsora – L’IA au service de l’armée israélienne 
  • Analyse sociologique de l’imagerie militaire : Les quatre images de l’IA -1. Le modèle collaboratif («Le centaure» et «Athéna»!) vs 2. Le modèle d’automatisation («Le terminator» et «Skynet»!)  

Stéphane Mineo:

  • IArk : aux chercheurs de l’Université de Tokyo qui inventent un prototype de peau cellulaire pour robot. Voir notamment cet article de France info.

Jean-François Sénéchal:

  • Lovelace: à Clément Brunet – Les leçons de l’apprentissage automatique sur le processus d’apprentissage des enfants dans le spectre de l’autisme.

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon.

Collaborateurs et collaboratrices:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon, Ève Gaumond, et David Beauchemin.  



OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

25 Jul 2024Épisode 91 - Nos prix IArk et Lovelace - Été 2024 (partie 2)00:56:16

Conclusion d'une conclusion. Pour finir en beauté notre quatrième saison d'IA café, nous vous offrons la deuxième et dernière partie de nos prix IArk et Lovelace Été 2024.

Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux  articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!

Véronique Tremblay:

  • IArk: aux deepnudes (nus hypertruckés), aux utilisations pédopornographiques et associées à la sextorsion - Des mesures de protection à l’enfance qui devraient s'imposer!

Shirley Plumerand:

  • IArk: à la vidéosurveillance algorithmique entournant les jeux olympiques de Paris et ses dérives potentielles.  

Frédérick Plamondon:

  • IArk:  à Y Combinator, un incubateur à jeunes pousses (startup) de l’IA - Le pouvoir altruiste effectif d’un réseau tissé serré de la Silicone Valley. 

Sylvain Munger:

  • Lovelace: à la naissance, en Corée, des premiers robots insoumis, réfractaires au travail aliénant et suicidaires (!?!). 

Stéphane Mineo:

  • Lovelace: aux efforts d'équité et à la croissance du nombre de femmes dans l'industrie de l'IA.

Jean-François Sénéchal:

  • Lovelace: à l'accomplissement technique de Sora (Open AI) et Labs AI – La production simplifiée de vidéo de synthèse à partir de quelques prompts (commandes écrites) et de contenus visuels existants. 

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D

BaristIAs:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon.

Collaborateurs et collaboratrices:  Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D.,  Stéphane Minéo, Frédérick Plamondon, Ève Gaumond, et David Beauchemin.  

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

05 Sep 2024Épisode 92 - Rentrée saison 5 - Copilot au bureau - Sommes-nous prêts?01:03:20

Nous sommes de retour pour cette saison 5! Saison des bilans.

Ce sera en effet la saison des bilans. Parce qu'après cinq années d'exploration des enjeux éthiques, légaux, techniques, sociaux et humains de l'IA, il est temps de prendre un petit pas de recul pour faire une analyse rétrospective de ce que nous avons appris et compris de ce domaine fort enthousaismant et préoccupant qu'est la recherche en intelligence artificielle.

Évidemment, nous poursuivrons aussi nos entretiens avec des experts et expertes, acteurs et actrices, de la recherche en IA. Nous survolerons également l'actualité. Nous vous préparerons enfin quelques tests et bancs d'essai.

Cette semaine, avec mes collaborateurs et collaboratrices (Shirley Plumerand, Véronique Tremblay et Stéphane Minéo), nous mettons la table pour cette saison 5, nous testons quelques outils et faisons quelques bilans. 

Au programme:

  • On a testé pour vous Copilot et ChatGPT au bureau - Et on dit «ayoye»!
  • On a testé pour vous la conduite assistée - Et on vous suggère de garder les mains sur le volant!
  • On n'a testé pour vous la retraite d’écriture en Guadeloupe - Et on aime! 
  • On a lu pour vous:  Un logique nommé Joe, de Murray Leinster
  • Réplica – Rendez-vous galant - « Je date une IA »
  • Bilan et analyse: Les principaux champs d’applications de l'intelligence artificielle.

Et encore plus ! Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Shirley Plumerand, Véronique Tremblay, Stéphane Minéo
Collaborateurs: Sylvain Munger, Fredérick Plamondon, Ève Gaumond, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

19 Sep 2024Épisode 93- ChatGPT5, strawberry, OpenAI-o1 : Une IA qui "pense"? Vraiment?01:03:29

Gros programme encore cette semaine. D’abord, sujet incontournable, OpenAi et sa nouvelle mouture de ChatGPT: OpenAI o1. On raconte que ce OpenAI-o1 "pense" avant de répondre. À voir...

Et en deuxième partie: autres actualités, discussions, et autres réflexions.  

Au programme:

  • ChatGPT-5, Strawberry, OpenAI-o1 : Une IA qui « pense »?
  • Le discours entrepreneurial, le markéting et le modèle d’affaires de l’IA.
  • Sous le capot - À l’assaut de la boite noire! 
  • Explicabilité et transparence : La promesse de sécurité et de conformité.
  • Les enjeux techniques et éthiques des outils AI de transcription.
  • Les succès et insuccès financiers du big business et des jeunes pousses (startups) de l’IA. 
  • Dronathlon : Un concours pour des utilisations militaires des drones. 

Et encore plus ! Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invités:  Sylvain Munger, Fredérick Plamondon, Stéphane Minéo
Collaborateurs:  Véronique Tremblay, Shirley Plumerand, Ève Gaumond, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

03 Oct 2024Épisode 94 - Une machine qui "apprend" avec peu - Données massives VS données frugales en IA - Entrevue avec Christian Gagné00:44:15

Dans cet épisode, nous discutons avec Christian Gagné. Christian est directeur de l’Institut intelligence et données (IID) de l’Université Laval. Il est également détenteur de la prestigieuses Chaire en intelligence artificielle Canada-CIFAR, qui a pour objectif d’attirer au Canada les plus grands chercheurs en IA du monde et de retenir nos meilleurs talents existants. 

Au programme :

  • Le concept d'évolution en biologie et son influence dans le développement de la recherche en intelligence artificielle
  • Histoire de la recherche universitaire (et de son financement) en intelligence artificielle
  • L’apprentissage machine ou apprentissage automatique, c’est quoi?  
  • Dans quelle mesure peut-on faire le parallèle entre les processus d’apprentissage humain et les processus d’apprentissage machine?
  • Du « big data » au «few data»: comment on fait pour réduire le nombre de données massives utilisées pour entraîner des algorithmes? 
  • Du risque de la singularité - Les principaux risques, réels ou non (!), en intelligence artificielle.
  • Le potentiel (réel) de l'IA pour transformer le monde. 

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
Invité: Christian Gagné

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

24 Oct 2024Épisode 95 - Évolutionnisme biologique, déterminisme technologique et darwinisme algorithmique - Sauts quantiques et disruptions01:19:04

Dans cet épisode, retour (avec mes baristIAs) sur notre épisode 94 intitulé « Une machine qui "apprend" avec peu - Données massives VS données frugales en IA - Entrevue avec Christian Gagné». 

Au programme:

  • Évolutionnisme biologique, déterminisme technologique, sauts quantiques et disruptions – La menace d'une marche inéluctable vers une nouvelle forme de vie intelligente.
  • Le darwinisme algorithmique : le jeu de la libre concurrence et la main invisible du développement capitaliste de l’IA.
  • Optimus gen3 (Tesla) – Un robot mu par l’intelligence artificielle : prouesse technique ou coup de pub?
  • Menaces à la démocratie - La puissance et le raffinement des techniques de deepfake (hypertruckage) pour influencer les systèmes électoraux.
  • Méta met fin à Crowdtangle -  un outil de moins pour la lutte journalistique aux fake news.
  • Les influences du mouvement hippie des débuts de l’IA - Les idéaux, valeurs et fondations morales de l'informatique.
  • Données massives vs données frugales - La frustration des attentes

Et encore plus !

Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
BarristIAs: Stéphane Minéo, Shirley Plumerand, Sylvain Munger.

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

31 Oct 2024Épisode 96 - Spécial Halloween - Nos histoires d'horreur en IA00:55:19

C’est notre spécial d'histoires d'horreur en intelligence artificielle. Le concept est simple, j’ai demandé à mes collaborateurs et collaboratrices de me raconter leurs histoires d’horreur préférées en I.A. 

Au programme:

Et encore plus! Bonne écoute.

Merci au passage à Laurent Nicolas-Guennoc et son équipe, de l’excellent podcast Changement d’époque en cours (que je découvre avec bonheur), et sa mention d’IA café (et ses bons mots) dans leur épisode 8, un épisode spécial Halloween – AI et Science-fiction.

Production et animation: Jean-François Sénéchal, Ph.D
BarristIAs: Fredérick Plamondon, Shirley Plumerand, Sylvain Munger.

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.

En musique :

  • Carlos, Wendy, et Rachel Elkind. "Thème d'ouverture du Shining." The Shining. Warner Bros. Records, 1980.
  • Elfman, Danny. "Thème d'ouverture." Tales from the Crypt. 1989.
  • Carpenter, John. "Thème d'Halloween." Halloween. Varèse Sarabande, 1978.
  • Herrmann, Bernard. "Thème d'ouverture." Psycho. Réal. Alfred Hitchcock, 1960.
  • Manfredini, Harry. "Thème principal." Friday the 13th. 1980.
  • Raffertie. The Substance (Original Motion Picture Score) ℗ 2024 Waxwork Records
  • Hooper, Tobe, et Wayne Bell. "Thème principal." The Texas Chainsaw Massacre. 1974.
OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

14 Nov 2024Épisode 97 - Les bilans d'IA Café - Les principaux champs d'application de l'IA00:32:53

Premier épisode de la série Les bilans d'IA Café. Après cinq ans d’entrevues, de discussions, de recherches, de rencontres, ces épisodes proposent une synthèse rétrospective du travail d’exploration et d’analyse d'IA Café. 

Pour celles et ceux qui se sont ajoutés plus récemment à la communauté IA Café, ces épisodes vous permettront de rattraper le train d’IA café, en explorant l'essentiel du contenu entourant un thème ou un sujet plus précis.

Au programme, dans ce premier épisode bilan:

Les principaux champs d'application de l'intelligence artificielle!

Santé 

Éducation:

Villes intelligentes et véhicules autonomes

Art 

Divertissement adulte

Militaire

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.

Musique:
Rich in the 80s · DivKid - Provided to YouTube by YouTube Audio Library ℗ YouTube Audio Library Released on: 2021-12-13

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

05 Dec 2024Épisode 98 - Des cadeaux sous le sApIn (partie1)00:42:53

Party de noël d'IA café! On se fait des cadeaux. On VOUS fait des cadeaux et des suggestions de cadeaux. Des cadeaux dans lesquels se cachent évidemment le thème de l’intelligence artificielle.

Shirley Plumerand:

Stéphane Mineo:

  • Conception d'un outil informatique de transcription et d'analyse d'un podcast extraordinaire.
  • Fireflies - Une application pour faire des transcriptions à bons prix: https://fireflies.ai/

Frédérick Plamondon:

Jean-François Sénéchal

  • Un indice concernant notre prestigieux invité pour le 100e épisode d'IA Café!

Et encore plus! Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
BarristIAs: Fredérick Plamondon, Shirley Plumerand, Stéphane Mineo

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Mineo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.

En musique :

  • Guaraldi, V., Bailey, C., Budwig, M., & Schulz, C. M. 1. (2012). A Charlie Brown Christmas: the original sound track recording of the CBS television special [cd sound recording] ([Expanded ed.].). Fantasy.




OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

12 Dec 2024Épisode 99 - Des cadeaux sous le sApIn (partie 2)00:36:44

Party de noël d'IA café! On se fait des cadeaux et des suggestions de cadeaux sous le thème de l’intelligence artificielle.  Et on vous annonce le nom de notre prestigieux invité pour le 100e épisode d'IA Café!

Shirley Plumerand:

Jean-François Sénéchal:

Stéphane Mineo:

Jean-François Sénéchal

  • Annonce officielle: Le nom de notre prestigieux invité pour le 100e épisode d'IA Café!

Et encore plus! Bonne écoute.

Production et animation: Jean-François Sénéchal, Ph.D
BarristIAs: Shirley Plumerand, Stéphane Mineo

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Mineo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.

En musique :

  • Guaraldi, V., Bailey, C., Budwig, M., & Schulz, C. M. 1. (2012). A Charlie Brown Christmas: the original sound track recording of the CBS television special [cd sound recording] ([Expanded ed.].). Fantasy.
  • Sheena Easton, It's christmas all over the world, Soundtrack «Santa Claus - The movie», 1985. Pogologo Corp.
OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

26 Dec 2024Épisode 100 - Yoshua Bengio !!!!!00:47:33

Pour souligner notre 100e épisode, nous recevons en studio «LA» figure de proue en intelligence artificielle, le plus grand des experts en intelligence artificielle, l’un des trois corécipiendaires du prix Turing en 2018 (Le prix Nobel d’informatique): Yoshua Bengio!

Gros programme:

  • Le prix Turing :  Une histoire vraie
  • Élément AI : Chronique d'une mort annoncée          
  • Informatique : Apprentissage profond et réseaux de neurones - Pensée et raisonnement
  • De retour de l'autre côté de la pause en IA: Pertinence et nécessité
  • Intelligence artificielle générale: Outils de contrôle  - Urgence et nécessité
  • Éducation: De l'art et de la science

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Invité: Yoshua Bengio

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

09 Jan 2025Épisode 101 - Les leçons de Yoshua Bengio01:03:45

Pour entamer 2025, nous ferons un retour sur l’Épisode 100 – avec Yoshua Bengio! Avec mes collaborateurs et baristIAs (Fred et Stephane), nous revenons sur les propos de Yoshua, nous discutons des thèmes abordés, et nous partageons nos réflexions, critiques et analyses.  

Au programme

  • Boucle d’or : bébé ours, maman ours… et le Grizzly !
  • Alignement moral de l’IA avec « Nos valeurs » – les valeurs de qui?
  • La modération de contenu automatisée, et la gestion du risque : 20 filtres de sécurité d’Open AI-o1 passés au bistouri.
  • L’industrie de l’IA, ses infrastructures, et les rapports de forces géopolitiques.
  • L’encadrement démocratiquement de la marche inarrêtable du GAFAM vers une IA générale forte.
  • Libéralisme, « illibéralisme » et «broligarchie» technologique.
  • Le contrôle de l’IA et le contrôle des masses. 
  • L’émergence des agents IA autonomes, l’iniquité d’accès aux technologies et la répartition juste des bénéfices de l’IA.
  • Sciences ouvertes et fiducies de données publiques.

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Invité: Stéphane Minéo, Fredérick Plamondon

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.


OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

06 Feb 2025Épisode 103- IA et éducation - Comment former et outiller – Entrevue avec Sandrine Prom Tep et Bruno Santerre00:45:14

Dans cet épisode, nous ajoutons un volet à notre exploration de l’avenir de l’IA en éducation en examinant les enjeux éthiques et pédagogiques de l’IA dans nos écoles et universités. Pour m’accompagner dans ces réflexions, j’ai eu la chance de discuter avec deux experts de ce domaine. 

La première, Sandrine Prom Tep, est professeure au département de Marketing de l’École des sciences de la gestion de l’Université du Québec à Montréal. Elle s’intéresse notamment au comportement du consommateur numérique et sa participation en ligne. 

Le second, Bruno Santerre, est professeur au Collège Bois de Boulogne à Montréal et professionnel des médias numériques. Bruno a participé au développement de nombreux projets interactifs et numériques, dont le principal projet exploré dans cet épisode : https://literatia.ca/ 

Au programme

  • LiteratIA : un outil pour développer la littératie en matière d’intelligence artificielle dans le domaine de l’ éducation. 
  • Hack’apprendre IA 2024 (UC Louvain) : comment inspirer les transformations des institutions d’enseignement avec l'intelligence artificielle.
  • Les défis et obstacles de la formation en IA des enseignants, étudiants, chercheurs en matière. 
  • Sobriété numérique, gestion responsable des données, propriété intellectuelle et intégrité
  • Les enjeux éthiques et humains associés à l’intégration de l’IA en éducation. 
  • L’IA générative contribue-t-elle à l’accroissement des inégalités entre les étudiants. 
  • Cette relation humaine, nécessaire entre le professeur et l’étudiant, est-elle possible dans un environnement d’enseignement accompagné d’IA?

Production et animation: Jean-François Sénéchal, Ph.D
Invités: Sandrine Prom Tep et Bruno Santerre

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond.

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

23 Jan 2025Épisode 102- Projet Stargate - Techno-césarisme et techno-broligarchisme00:55:44

Avec mes baristIAs (Sylvain, Véronique et Benjamin), nous explorons quelques actualités de la semaine, dont le projet Stargate aux États-Unis. Également, derniers commentaires et analyses concernant les propos de Yoshua Bengio lors de notre 100e épisode.  

Au programme:

  • Stargate – La porte des étoiles – « Think big!»
  • Les geeks au pouvoir - Politique de puissance et rêve technologique.
  • Frugalité algorithmique, efficacité et sobriété numérique. Et son contraire!
  • Techno-césarisme et techno-broligarchisme. 
  • Les limites conceptuelles et logiques de l’analogie anthropomorphique.
  • De la responsabilité sociale des porte-paroles et figures de proue de l’IA.
  • Des risques de la tentative de domestication de l’IA. 
  • Changement de cible: Et si on créait artificiellement une intelligence générale « différente » de la nôtre...          

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs et collaboratrices (BaristIAs): Véronique Tremblay, Sylvain Munger et Benjamin Leblanc

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc. 

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

20 Feb 2025Épisode 104 - DeepSeek vs ChatGPT - Guerre géopolitique et sociotechnique.00:46:30

Dans cet épisode, nous faisons un premier tour des enjeux techniques, sociaux, géopolitiques d'un combat entre titans de l’intelligence artificielle : DeepSeek (Hangzhou DeepSeekAI) vs ChatGPT (d’Open AI). 

Au programme:

  • DeepSeek : efficace, ouvert, gratuit, multilingue, frugal, environnemental, démocratique! Qu’en est-il vraiment? Comparaison des modèles.  
  • Imaginaire sociotechnique: le Klondike techno-optimiste.
  • L’arroseur arrosé – Le pillage de contenus protégés par des droit d’auteurs.
  • Guerre géopolitique et sociotechnique - La lutte à la concentration du pouvoir techno-oligarchique.
  • Le narratif du «Moment Spoutnik» et ses conséquences : le moment «Ford modèle T» comme alternative.
  • Le Cyberlibertarianisme, les algorithmes pour le peuple et la démocratie à l’ère de l’IA. Algorithms for the People: Democracy in the Age of AI

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs et collaboratrices (BaristIAs):  Sylvain Munger et  Fredérick Plamondon.

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc. 

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

06 Mar 2025Épisode 105 - Les bilans d'IA Café - Les principaux enjeux éthiques et sociaux (intrinsèques) de l'IA00:52:02

Second épisode de la série Les bilans d'IA Café. Après cinq ans d’entrevues, de discussions, de recherches, de rencontres, ces épisodes proposent une synthèse rétrospective du travail d’exploration et d’analyse d'IA Café. 

Pour celles et ceux qui se sont ajoutés plus récemment à la communauté IA Café, ces épisodes vous permettront de rattraper le train d’IA café, en explorant l'essentiel du contenu entourant un thème ou un sujet plus précis.

Au programme, dans ce premier épisode bilan:

Les principaux enjeux éthiques et sociaux (intrinsèques) de l'intelligence artificielle!

Les enjeux éthiques et sociaux intrinsèques sont les enjeux qui ne sont pas reliés aux usages de l'IA, ou externes (extrinsèques) à l'outil en soi, mais des enjeux qui sont plutôt directement, viscéralement et irrémédiablement liés à l'outil d'IA en tant que tel (intrinsèques). Un fardeau d'enjeux sociaux et moraux qui serait nécessairement associé à l'outil, et cela, peu importe les bénéfices ou problèmes sociaux ou moraux découlant de l'usage de l'outil. Parmi ces enjeux, nous allons en explorer trois: 

  1. le bilan environnemental (préoccupant) de l'IA
  2. le pillage des droits d'auteur
  3. les biais psychosociaux induits

Extraits choisis:

Introduction:

Bilan environnemental de l'IA:

Pillage des droits d'auteurs et propriété intellectuelle:

Les biais psychosociaux induits

Bonne écoute!

Production, narration et animation: Jean-François Sénéchal, Ph.D

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc.

Musique:
Searching For You - White Hex - Royalty Free Music - No Copyright Music | https://goo.gl/Fv1DxA | Best And New Background Music |

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

20 Mar 2025Épisode 106 - Grok, Sora et reconnaissance faciale - Vie et mort d'une dinde01:02:18

Cette semaine, quelques actualités en intelligence artificielle, bancs d’essais et chroniques.

Au programme

  • Les improbabilités statistiques, le cygne noir et la dinde - Chronique d'une mort (non) annoncée.
  • Une claque au visage - La reconnaissance faciale à l'épreuve du droit.
  • “Nexus”, de Yuval Noah Harari : Algorithmes de l’information pour construire ou détruire le monde!
  • Grok - Un outil d'information au service... de la désinformation.
  • IA et gestion des RH - Vous êtes congédiés!  
  • Sora et production vidéo - Un café brulant.

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs et collaboratrices (BaristIAs):  Shirley Plumerand, Stéphane Minéo, et Sylvain Munger.

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc. 


OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

03 Apr 2025Épisode 107 - Minecraft et la «déplateformisation» du numérique01:10:54

Cette semaine, quelques actualités en intelligence artificielle, des bancs d’essais et des chroniques.

Au programme

  • IA et santé - la numérisation et l'informatisation du corps.
  • Le dynamisme américain: le MAGA et les GAFAM sont-ils en synergie?
  • Sommet pour l'action sur l’IA - Penser et agir. 
  • Minecraft comme banc d'essai - La créativité des systèmes d'IA à l'épreuve.
  • L'IA et ses impacts sur l'autonomie, la liberté et l'exercice du jugement.
  • La « déplateformisation » du numérique.  
  • Meta AI traverse la Grande Flaque et s'invite en Europe.

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs et collaboratrices (BaristIAs):  Shirley Plumerand, Benjamin Leblanc, et Frédérick Plamondon.

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc. 

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Support the show

17 Apr 2025Épisode 108 - Starter pack - Vie et mort des tendances en IA01:08:10

Deux tendances majeures en IA, dans les deux dernières semaines: 1. créer son « starter pack »; et 2. critiquer celles et ceux qui ont créé leur « starter pack» ! 

Dans cet épisode, retour sur notre enregistrement devant public au Rendez-vous numérique de Québec, quelques actualités en intelligence artificielle, bancs d’essai et chroniques.

Au programme

  • Le public du Rendez-vous numérique de Québec!
  • Starter pack (kit de démarrage) – Vie et mort des tendances en IA
  • Des maths pour l’amour des maths - Tioh Academy, avec Clotilde Djuikem : Tioh Academy - YouTube
  • Banc d’essai – Forces et limites des systèmes d’IA pour résoudre des dilemmes éthiques
  • ComparIA : Comparons des pommes avec des oranges
  • Enseignement des enjeux éthiques et sociaux de l’IA : c’est « secondaire »!

Bonne écoute!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs et collaboratrices (BaristIAs):  Véronique Tremblay, Stéphane Minéo, et Benjamin Leblanc. 

Collaborateurs et collaboratrices:  Véronique Tremblay, Stéphane Minéo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc. 

OBVIA
Observatoire international sur les impacts sociétaux de l'intelligence artificielle

Support the show

20 Oct 2020Épisode 1 - Bienvenue à IA Café00:13:57

On se présente! Et on présente le podcast. Rien de plus. Bienvenue dans cette aventure (éthique et sociologique) en intelligence artificielle!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

29 Oct 2020Épisode 2 - Philippe Després - Contrôler le chaos00:53:44

Dans cet épisode, nous recevons Philippe Després. 

Philippe est professeur agrégé au Département de physique, de génie physique et d’optique de l’Université Laval. Il s'intéresse aux données, notamment à celles que l'on fournit à nos algorithmes d'apprentissages, et aux infrastructures et à l'architecture des données massives.

Nous avons abordés avec lui plusieurs thèmes.

Notons:
1.       La bête est mal nourrie: Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner?
2.       Oui, je le veux! Le consentement (à l’utilisation de données).
Comment concevoir un système de production de données en recherche qui tient compte du consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), et plus pérenne?
3.       Camarades, debout! Les idéaux à atteindre en production de données.
Philippe explique les principes FAIR ( Facile à (re) trouver,  Accessible,  Interopérables, Réutilisables)

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

 

Support the show

05 Nov 2020Épisode 3 - Debriefing (Philippe Després) - Nourrir la bête00:50:05

Retour sur l'entrevue de Philippe Després. 

JF, David et Fred discutent de l'entrevue et des thèmes abordés par Philippe Després.

1. La bête est mal nourrie. Comment « nourrir la bête» (AI)? Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner?  Les IA sont à l’image des données fournies. Si les données sont «toutes croches», les AI seront «toutes croches» puisqu’elles apprennent à partir de ces données. Pour Philippe, la bête est mal nourrie. Les données disponibles à la tonne, mais la qualité n’est pas là. Comment créer les infrastructures qui permettront de produire de façon pérenne et efficace des données à partir desquels ces AI pourront apprendre.

2. Le consentement (à l’utilisation de données).  Les GAFA (Google, Amazon, facebook et Apple) de ce monde ont accès à des tonnes et des tonnes de données, et cela, avec un consentement que plusieurs hésitent à qualifier de «libre» et «éclairé».  Comment concevoir un système de production de données en recherche qui tient compte de ce consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), plus pérenne.

3. Les idéaux à atteindre en production de données. On tente de comprendre les principes FAIR, mentionnés par Philippe en conclusion :

o   Facile à (re) trouver :  identifiant unique et pérenne, indexé, langage commun 
o   Accessible : Facile à accéder et, lorsque possible, des données ouvertes (et via des protocoles qui permettent aux machines de communiquer entre elles)
o   Interopérables : ???
o   Réutilisables : données qui peuvent être réutilisées 

Support the show

20 Nov 2020Épisode 4 - Darwin Brochero - Prédire le futur00:53:00

Dans cet épisode, nous recevons Darwin Brochero.

Darwin a fait son doctorat à l'université Laval en génie civil et sa maîtrise en ressources hydrauliques à Université Nationale de Colombie. Son expertise combine intelligence artificielle, data sciences, génie civil, apprentissage machine et hydro-informatique. Il est entrepreneur et consultant en AI. Il a aussi créé la compagnie Apox, une compagnie de service conseil en AI. 

Nous avons abordés avec lui plusieurs thèmes.

Notons:

  1. Prédire le futur (hydraulique): Utilisation des AI et de l'apprentissage machine (machine learning) dans la modélisation des prédictions météorologiques et hydriques 
  2. Le hasard et la nécessité. Stochastique et probabilisme (contingence et nécessité): Comment les nouveaux modèles en IA permettent-ils de faire le pont entre des phénomènes qui sont stochastiques (fruit du hasard) à petite échelle et qui sont donc imprévisibles, mais qui deviennent prévisibles dès lors que des patterns peuvent être identifiés à grande échelle par des outils mobilisant de l'intelligence artificielle. 
  3. Outils d'aide à la décision et imputabilité. Darwin explique le rôle des AI, et leurs limites, dans l'accompagnement de la prise de décision des décideurs.

Bonne écoute! Et merci encore, Darwin!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

03 Dec 2020Épisode 5 - Un nouvel hiver en Intelligence artificielle? Retour sur l'entrevue de Darwin Brochero.01:01:34

Retour sur l'entrevue de Darwin Brochero.

JF, David et Fred discutent de l'entrevue et des thèmes abordés avec Darwin.

1. «L'intelligence artificielle n'existe pas» (Luc Julia) . Vraiment? Pourquoi tant de malaise à se désigner comme «chercheur en IA» ? Pourquoi finance-t-on l'IA si personne n'en fait vraiment. Avant de nier l’existence d’une chose,  du moins avec une approche philosophique, il faut d’abord la définir. 

 2. Donner du sens au chaos Stochastique et probabilisme.. Contingence et nécessité.  «Hasard et la nécessité » (Jacques Monod). Les nouveaux modèles en IA permettent de faire le pont entre des phénomènes qui sont stochastiques (fruit du hasard) à petit échelle, mais qui sont régis par des paterns lorsqu’on les observe à grand échelle.  Nos modèles scientifiques classiques nous ont permis de mieux comprendre, mieux prévoir et de mieux prédire. Et les nouveaux modèles en IA permettent d’accroître encore davantage, en précision et puissance, ce pouvoir prédictif. 

3. De l'éducation. De quelle éducation avons-nous besoin pour saisir, dans leurs intégralités, les problèmes éthiques et sociétaux associés à l'intelligence artificielle? Les universités sont-elles conçues pour résoudre de tels problèmes? Quoi faire pour s'assurer, que bien en amont, les enjeux éthiques et moraux soient mieux pensés par ceux et celles qui conçoivent les applications AI de demain?

4. Croissance et décroissance (un nouvel hiver en IA?) Le champs de l'intelligence artificielle n'est pas né de la «dernière pluie». On se rappellera d'une grande vague d’enthousiasme envers l’IA dans les années 70 (financé par le DARPA aux USA), et que cette vague s’est estompée dans les années 80. On avait nommé «hiver» cette période de stagnation des travaux et du financement en IA. Or, le financement en IA ne cesse de croître. Si «l'hiver s’en vient», pour reprendre cette maxime des peuples du Nord (Game of Thrones), nous avons encore quelques belles saisons. 


Support the show

18 Dec 2020Épisode 6 - Le Noël de Timnit Gebru - Nos prix Lovelace et IArk (partie 1)01:02:36

Le concept:
Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk. 

Le concept est simple. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace (évidemment en l'honneur d'Ada Lovelace).

La contrepartie, ce sera nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sera nos prix citrons, nos navets et nanars, nos prix IgNobel. Ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!

C’est le concept.

Essayons-le !
---
Dans cet épisode:

Pour David:

  • Prix Lovelace à Timnit Gebru dans l’affaire Timnit Gebru vs Googliath
  • Prix IArk à Google (et jeff Dean AKA Le vilain) dans la même affaire

Pour Ève: 

  • Prix Lovelace au projet de Loi C11 
  • Prix IArk à Google dans l'affaire Timnit Gebru vs Google

Autre thème abordé:

  • La place de l'éthique en AI - et le rôle de l'éthicien au sein des compagnies qui développent ces applications AI.

Articles cités:

Production, animation et collaboration: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

14 Jan 2021Épisode 7 - Le Bye Bye d'Element AI - Nos prix Lovelace et IArk (partie 2)00:49:02

Deuxième partie de nos prix Lovelace et IArk.

Rappelons le concept. Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk. 

Les prix Lovelace. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace.

La contrepartie: nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!


---
Dans cet épisode:

Pour Frédérick:

  • Prix Lovelace à Timnit Gebru (encore!). Fred résume deux de ses contributions à la réflexion sur les enjeux éthiques et sociaux de l'intelligence artificielle.
  • Prix IArk à «La réponse Google AI (et Jeff Dean ) dans l'Affaire Gebru vs Google,  et parce qu'il mérite bien un deuxième prix IArk.

Pour JF: 

  • Prix Lovelace à Deepmind, le laboratoire d’Alphabet (mère de Google). Le laboratoire s’est servi des algorithmes d’AlphaFold (Le jeu de Go : une pierre "blanche" dans l‘histoire de l’AI) pour résoudre un problème insoluble depuis 50 ans: la prédiction de la forme exacte des protéines.
  • Prix IArk à «la vente d’Élément AI au développeur de logiciels californien la compagnie ServiceNow». 

Articles cités:

Production, animation et collaboration: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

28 Jan 2021Épisode 8 - Justine Dima - Dis-moi qui tu embauches, et je saurai qui tu es!00:50:56

Quelques mois avant le début de la pandémie au Québec,  nous recevions, dans nos studios, une force montante de l'intelligence artificielle: Justine Dima.

Justine était alors étudiante au doctorat en management à l’Université Laval. Son sujet de thèse:  « Le bon et le mauvais côté de l’intelligence artificielle : ses effets sur les travailleurs et les équipes de travail ».  Dans ses travaux, Justine souhaite « Déterminer comment les travailleurs perçoivent les effets de l’utilisation de l’intelligence artificielle, quelles sont les stratégies que les travailleurs mettent en œuvre pour faire face à ces effets et quels sont les conséquences positives et/ou négatives liés à l’utilisation de l’intelligence artificielle». Rien de moins!

Nous avons abordé avec elle plusieurs thèmes.

Notons:

  1.  Mobilisation des IA en ressources humaines. Sélection de cv pertinents lors du processus d’embauche.  Recherche de candidats. Analyse de cv pour le candidat et l'employeur. 
  2. Des difficultés d'intégration des IA dans le monde du travail et des ressources humaines.
  3. Biais psychosociaux, processus d'embauche et reproduction (intensification) des biais via l'intelligence artificielle.

Bonne écoute! Et merci encore, Justine!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

11 Feb 2021Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine00:51:44

Voyage dans le temps. L'épisode a été enregistré en septembre 2020. Ève, David et moi discutons de notre rencontre avec Justine Dima et des thèmes abordés avec cette dernière.
 
 Thèmes abordés:

-          Une IA humaine, trop humaine.

Les IA sont éduquées en fonction de ce que nous sommes, et non en fonction de ce que souhaiterions être. En effet, on les éduque en leur demandant d’apprendre de nos décisions et jugements passés. Or, ces décisions et jugements passés sont empreints de nos failles, erreurs, défauts, préconceptions, préjugés, tendances, biais psychosociaux. Les décisions et jugements résultants de ces algorithmes risquent de ressembler à ceux d’un homme avec ses failles et misères. Ces IA risquent de devenir humaines, mais trop humaines. 

-          Les biais psychosociaux.

Plusieurs biais à l'œuvre en AI. Quelques distinctions: les biais d’accentuation inter-catégorielle (ou effet de contraste), les biais d’homogénéisation intra-catégorielle (ou effet d’assimilation).

-          Une IA qui reflète la morale et la culture des maîtres. 

Les IA sont éduquées en fonction d’une conception occidentale de la morale. Imaginons des IA qui plaquent leur comportement et leur jugement sur les comportements et jugements attendus d’un régime chinois ou sud-coréen? Souhaiterait-on être jugés, évalués, sélectionnés, étudiés par des IA éduqués dans un tel contexte?

-          Une IA difficile à intégrer au monde du travail.

La technologie ne semble pas adaptée à la réalité organisationnelle. Justine Dima le rappelle: « 70-80% des changements IA en organisation échouent parce qu’on n'a pas pris en compte les facteurs humains, parce que les résistances humaines ne sont pas prises en compte ». Il existe des barrières personnelles, humaines et psychologiques qui font en sorte que les individus peuvent être plus réfractaires à l’intégration des IA dans le monde du travail. Quelles sont les pistes de solutions? 


Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

25 Feb 2021Épisode 10 - Actualités: Clearview AI, Gebru, DEDA.01:04:04

Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu. 

Dans cet épisode:

  • Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.
  • David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.
  • Jean-François un outil d'aide à la décision en matière d'éthique des données massives: le Data Ethics Decision Aid (DEDA).

Les articles cités sont ici:

Support the show

11 Mar 2021Épisode 11 - Cécile Petitgand - L'intelligence artificielle dans les établissements de santé00:37:20

Nous avons enregistré cet épisode à l'automne 2020. Superbe rencontre avec cette experte en AI qui a fait le saut sur le plus périlleux des terrains: dans nos établissements de santé!

Sur le cv de Cécile Petitgand on lit : « Mon objectif est de mettre mon expertise et mes compétences en recherche et gestion au service de l'intégration responsable de l'innovation et de l'intelligence artificielle dans les établissements de santé». 

Nous avons abordé avec elle plusieurs thèmes.

Notons:

  1.  Le potentiel de l'AI en santé
  2. Les craintes (fondées ou non) associées à l'AI en santé
  3. Les principaux enjeux éthiques et sociaux de l'AI en santé
  4. Les biais
  5. La déclaration de Montréal
  6. Les attentes (parfois démesurées en AI)

Bonne écoute! Et merci encore, Cécile!

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

25 Mar 2021Épisode 12 - Debriefing (Cécile Petitgand) - IA, Covid, Santé. Pas le temps de niaiser!00:43:56

Retour sur notre rencontre avec Cécile Petitgand et les applications AI en santé!

Nous avons révisé plusieurs thèmes.

Notons:

  1.  Le potentiel de l'AI en santé
  2. Les craintes (fondées ou non) associées à l'AI en santé
  3. Les principaux enjeux éthiques et sociaux de l'AI en santé
  4. Les biais
  5. Les attentes (parfois démesurées en AI)

Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

08 Apr 2021Épisode 13 - Véhicules I.A.utonomes - Premières analyses et réflexions00:57:12

Dans cet épisode, nous souhaitions partager avec vous nos premières réflexions et premières enquêtes sur les applications AI dans le domaine des voitures et véhicules autonomes. Ce sujet encapsule, peut-être encore mieux que tous les autres, la hauteur de nos ambitions en AI, mais aussi nos peurs et nos craintes. Plusieurs enjeux éthiques, sociaux, techniques, juridiques sont associés à cette technologie. Et quoi de mieux que prendre un exemple concret, appliqué, autour duquel on peut ajouter nos réflexions et questions. Du moins c’est le programme que David et moi nous vous avons préparé dans cet épisode.

Thèmes:

  • Défis techniques
  • Enjeux éthiques
  • Le dilemme du tramway (trolley problem) et sa version moderne proposée par le MIT
  • Des voies classiques d'argumentation morale (déontologisme et conséquentialisme) et de leur transpostions possible (ou non) aux VA.

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateur: David Beauchemin, M. Sc.

Références:

-          https://www.moralmachine.net/hl/fr 

Support the show

22 Apr 2021Épisode 14 - No fault! Daniel Gardner - De la responsabilité des véhicules IAutonomes00:45:14

Un grand pouvoir engendre de grandes responsabilités, nous disait ce vieux Ben Parker. Dans cet épisode d’IA Café, nous recevons un expert du droit qui se passionne depuis quelques années pour les véhicules autonomes, l‘intégration d’IA dans ces véhicules et la notion de responsabilité (imputabilité) dans un contexte : M. Daniel Gardner.  

Au programme:

  • De la définition de «véhicule autonome»- De la Google car aux navettes Keolis
  • Du «no fault» -  Problème réglé?
  • De la responsabilité civile (au Québec) - La cadre normatif est-il prêt?
  • De la responsabilité (ailleurs dans le monde) 
  • Quelques mythes entourant les véhicules autonomes 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateur: David Beauchemin, Ève Gaumond
Invité: Daniel Gardner, Ph.D. 


Support the show

06 May 2021Épisode 15 - Carl Maria Mörch - AI, suicide, santé publique et santé mentale00:51:05
Dans cet épisode d’IA Café, nous recevons, et vous vous apprêtez à prendre un café avec Carl Maria Mörch

Et si l'AI nous servait d'outil de prévention et de surveillance de la santé mentale de la population et des comportements suicidaires? Quelles seraient les balises éthiques nécessaires pour encadrer de tels outils? C'est ce dont nous discutons avec Carl Maria Mörch!

Carl-Maria Mörch est titulaire d'une maîtrise en psy. (EPP-ICP, France) et d'un doctorat en psychologie communautaire (UQÀM, Canada).  De façon générale, il s’intéresse au développement responsable des technologies dans la société, en santé et en psychologie.  Ses recherches sont orientées vers la création d’outils en éthique de l’IA.  Ses sujets préférés : la prévention du Suicide, le Dark Web, le Big Data, l’Intelligence Artificielle.

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon
Invité: Carl Maria Mörch, Ph.D. 

Support the show

20 May 2021Épisode 16 - Intelligence artificielle et santé mentale00:41:34

Retour sur notre rencontre avec Carl Maria Mörch

En vrac:

  • AI et infodémiologie
  • AI et réseaux socionumériques
  • Le Canada protocole
  • Le rapport entre droit et morale
  • De la généralisation des moyens
  • Les faux positifs et les prophéties auto réalisatrices
  • L'effet Werther
  • Le suicide et les possibles interventions AI


Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon

Canada Protocol: an ethical checklist for the use of Artificial Intelligence in Suicide Prevention and Mental Health 

Support the show

03 Jun 2021Épisode 17 - Erobotique, AI et sexbot - Entrevue avec Dave Anctil00:45:50

Sujet assurément le plus «sexy» de notre saison 1. Rassurez-vous, le débat restera hautement philosophique.

Pour cet épisode d’IA Café, nous avons pris un café avec chercheur qui se passionne d’AI et de robotique, mais qui s’intéresse aux enjeux sociaux et éthiques des interactions érotiques entre les humains et les machines, l’érotisme-robotique ou érobotique: Dave Anctil.

Plusieurs sujets:

  • De la difficulté du sujet de recherche (et du rôle de chercheur)
  • De l’AI dans ces agents erobotiques? vraiment?
  • Le potentiel de l'AI en érobotique
  • Les craintes et peurs (fondées, ou non!)
  • De la coévolution de la technologie et de l’homme

 Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon

Support the show

18 Jun 2021Épisode 18 - Grandeurs et misères de la recherche interdisciplinaire en AI - Des nouvelles de nous!01:00:25

Au début de cette aventure qu'est ce podcast sur la recherche en AI, parce que vous aviez accepté de nous suivre dans nos enquêtes sur la recherche sur les enjeux sociaux et moraux en AI, nous vous avions promis de vous confier les grandeurs et misères de jeunes chercheurs qui tentent d’arrimer leurs propres expertises avec ce «nouveau» champ qu’est la recherche en IA. Dans cet épisode, nous vous donnons des nouvelles de nous!

Ève nous parle:

  • de ses projets d'écriture 
  • de son projet de mémoire
  • des difficultés et défis de la recherche en droit
  • des défis techniques de la recherche qualitative #Nvivo

David nous parle: 

  • de son projet de recherche sur l'utilisation du NLP pour décortiquer l'intelligibilité des contrats d'assurances
  • de son podcast Open Layer (notre podcast ami!) https://youtu.be/sOnYAftqAKA 
  • de l'avenir de la recherche universitaire dans un contexte où la recherche en AI se fait essentiellement à l'extérieur des universités

JF nous parle:

  • de la recherche sur les enjeux éthiques en AI
  • du développement d'un système de trophées, badges et récompenses, inspiré de la culture des jeux vidéos, pour stimuler l'engagement des étudiants en classes
  • du mouvement SoTL (Scholarship of teaching and learning) consacré à la recherche sur l'enseignement
  • du rôle du chercheur, et des multiples tâches qui accompagnent ce rôle!

Textes mentionnés: 

Support the show

02 Jul 2021Épisode 19 - Nos prix Lovelace et I.A.rk - Été 202100:56:26

Ils sont là: vos prix I.A.rk et Lovelace - édition été 2021. Je vous rappelle le concept, on donne des prix pour le meilleur et le pire de l'IA! 

Les prix Lovelace à nos meilleurs articles, articles scientifiques, évènements, congrès, prouesses techniques, dignes de la mention du prix Lovelace (en l'honneur d'Ada la pionnière).

Et la contrepartie, ce sont nos prix I.A.rk. Ce sont nos prix citrons, navets et nanars, nos prix IgNobel. Ce sont des articles scientifiques, événements, congrès, prouesse technique, mais qui nous font dire «yark»!

C’est le concept.

Nos prix, cet été vont à...

David:

  • Lovelace: Dynabench et Dynaboard
  • Lovelace: David Victor Rodriguez et les applications de GPT3 à l’évaluation de plumitif (résumés légaux)

Ève: 

  • Lovelace: Atlas of AI, Kate Crawford 
  • IArk: Les chercheurs en IA - et l'absence d'application concrète à partir des résultats de recherche en IA pour détecter la COVID.

JF: 

  • Lovelace: Quatre chercheurs québécois parmi les plus influents au monde en AI. Ils sont du MILA (Le Mila est l'Institut québécois d’intelligence artificielle, anciennement Montreal Institute for Learning Algorithms) 
    o   Yoshua Bengio (UdeM),   
    o   Joëlle Pineau (McGill), 
    o   Jian Tang (HEC Montréal) et
    o   Aaron Courville (UdeM),
  • IArk:  Clearview et Gendarmerie royale du Canada: utilisation illégale de reconnaissance faciale et violation de la vie privée. 

Notes:

Ce sera notre dernier épisode avant la pause d'été. On se revoit cet automne! D'ici là, on rêve (peut-être) de montons électriques.

Support the show

15 Jul 2021Épisode 20 - Collaborateurs et collaboratrices recherché(e)s !00:02:23

Aimez-vous nous accompagner dans notre enquête au cœur de la recherche sur les enjeux éthique et sociaux de l’intelligence artificielle? Aimeriez-vous faire un pas de plus?

Nous nous cherchons de nouveaux collaborateurs pour le podcast IA Café. Il est en effet temps d’enrichir notre équipe! 

Nous cherchons idéalement des collaborateurs de l’extérieur «de» Québec (Montréal, Toronto, etc.) mais aussi de l'extérieur «du» Québec au coeur de la francophonie mondiale en AI (France, Maroc, Belgique, Algérie, etc.). Je le sais que vous nous écoutez de là bas... 

Est-ce que ce genre d’aventures vous tentent: apprendre à faire et produire des podcasts, discuter avec d'autres experts du domaine AI, expérimenter dans un cadre amical et collégial la vraie transdisciplinarité, transformer vos propres recherches et lectures en contenu audio. 

Faites-nous signe! Écrivez-moi.  

Sinon, partagez et parlez-en autour de vous.  

Allez. Bon été.

De retour à l'automne pour la deuxième saison d'IA Café!

Support the show

10 Sep 2021Épisode 21 - Sexe et AI - «Désolé Dave, I’m afraid I can’t do that»00:45:33

Retour sur notre rencontre avec Dave Anctil et les applications AI en ero-botique. Plusieurs thèmes jadis abordés avec lui: les robots, l'AI, les bots et la sexualité, les enjeux sociaux et éthiques des interactions érotiques entre les humains et les machines, l’érotisme-robotique ou érobotique. Assurément notre entrevue la plus sexy de la première saison.  

Dans cet épisode, nous revenons donc sur le contenu de cette entrevue pour explorer quelques zones d'ombre qui avaient peut-être été trop peu mises en lumières. Vous verrez notamment que ce n'est pas parce que ça parle de sexe que ça ne vole pas haut. Bien au contraire! Nous avons exploré plusieurs thèmes lors de cette discussion.

Notons:

  • De l’absence relative des applications sexuelles dans le portrait AI. 
  • Du technosolutionnisme.
  • Des intérêts sociaux économiques associés aux applications AI.
  • Du besoin potentiel d'une philosophie morale de la sexualité pour guider l'AI en érobotique.
  • De la nécessaire accointance idéologique entre l’érobotique et l’industrie de la pornographie.
  • De la coévolution de la technologie et de l’homme. 
  • De l'humanisation de la technologie et  de la réhumanisation de l'éros humain.

Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the show

Améliorez votre compréhension de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle avec My Podcast Data

Chez My Podcast Data, nous nous efforçons de fournir des analyses approfondies et basées sur des données tangibles. Que vous soyez auditeur passionné, créateur de podcast ou un annonceur, les statistiques et analyses détaillées que nous proposons peuvent vous aider à mieux comprendre les performances et les tendances de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle . De la fréquence des épisodes aux liens partagés en passant par la santé des flux RSS, notre objectif est de vous fournir les connaissances dont vous avez besoin pour vous tenir à jour. Explorez plus d'émissions et découvrez les données qui font avancer l'industrie du podcast.
© My Podcast Data