Explorez tous les épisodes de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle
Plongez dans la liste complète des épisodes de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle . Chaque épisode est catalogué accompagné de descriptions détaillées, ce qui facilite la recherche et l'exploration de sujets spécifiques. Suivez tous les épisodes de votre podcast préféré et ne manquez aucun contenu pertinent.
Rows per page:
50
1–50 of 109
Date
Titre
Durée
10 Feb 2022
Épisode 31 - Penser le Métavers
01:12:32
Dans cet épisode nous commençons un triptyque sur le Métavers. Depuis que Meta et Marc Zuckerberg ont décidé de mettre quelques billes dans ce domaine, le sujet semble s'imposer.
Dans cet épisode, nous tenterons de nous faire une tête sur le sujet. Avec mes collaborateurs, Sylvain Munger et Claude Coulombe, nous tenterons humblement d’élever le niveau (vous nous connaissez!), d'éviter à la fois l'enthousiasme naïf et le technophobisme non critiqué, et de donner un peu de sens à ce Metavers.
Au programe:
De la définition : C’est quoi le métavers?
Du terrain: À quoi ça ressemble concrètement, en ce moment, le métavers (applications, jeux, etc.) ?
Des parties prenantes: Qui sont les principaux acteurs ?
De l'IA :Pourquoi a-t-on besoin de l’intelligence artificielle dans le Metavers?
De l'éthique et des enjeux sociaux: Quelles sont les principales craintes et promesses du Metavers?
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand, Claude Coulombe.
Épisode 32 - Créer et rêver le Métavers (Harold Dumur)
00:53:57
Dans cet épisode d’IA Café, nous recevons un expert du Metavers et entrepreneur : Harold Dumur. Harold Dumur est le fondateur et président d’Ova, une PME de Québec spécialisée dans le développement de logiciels immersifs assistés par l’IA.
Au programme:
Réalité virtuelle et augmenté - Définir le métavers
Créer une partie du métavers - Les défis économiques et techniques
L'entrepreneuriat du métavers (sans se faire bouffer par les GAFAM)
Du rôle de l'AI dans la production du métavers
Enjeux éthiques et sociaux - De l'intérieur
Rêver le métavers (et, peut-être, de moutons électriques)
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand, Claude Coulombe.
Dans cet épisode, on referme le Metavers. Ce sera notre conclusion d'un tryptique dans ces mondes virtuels qu'on souhaiterait ouverts, partagés, itératifs, collectifs, collaboratifs, et interopérables avec des standards universels. La réalité du Métavers n'est pas exactement cela. Retour sur l’entrevue d’Harold Dumur et retour sur les thèmes que nous avons explorés avec lui.
Au programme:
Du rôle des entrepreneurs dans la création du Métavers
De la présence (ou non) de l'intelligence artificielle (apprentissage profond et apprentissage automatique) dans la conception et la réalisation du Métavers
Premières recensions des craintes et critiques associées au Métavers (la menace environnementale, le trouble schizoïde et la perte du réel, l'exploitation et l'instrumentalisation de la donnée, la menace à la vie personnelle et à l'intimité, le «farweb» de l'économie virtuelle, l'hypercentralisation et le monopole socio-économique)
Des promesses et du rêve du Métavers
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand, Claude Coulombe.
Épisode 34 - Les applications militaires en IA - Entrevue avec Joanne Kirkham
00:53:42
Dans cet épisode d’IA Café, nous recevons une juriste et experte des utilisations militaires de l’intelligence artificielle: Joanne Kirkham.
Joanne cumule des passages remarqués au département des affaires juridiques chez Human rights watch, à Genève au United nations human rights, à Londres au King’s College. Elle a produit une thèse à l’Université Panthéon-Assas, dont le titre est le suivant : "Les systèmes d'armes létaux autonomes en droit international".
Plusieurs thèmes abordés:
De la définition d'un système d'armes létal autonome (SALA)
Des exemples concrets et appliqués d'applications militaires des systèmes d'armes létaux autonomes
Des enjeux éthiques, des principaux bénéfices, et des principaux arguments contraires et critiques à l’endroit de cette technologie
Des enjeux juridiques et du pouvoir du Droit international pour encadrer cette technologie
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.
Épisode 35 - Skynet, Terminator et droit international - L'intelligence artificielle et l'art de la guerre
01:01:22
Dans cet épisode d’IA Café, retour sur notre rencontre avec Joanne Kirkhamet les applications militaires de l’intelligence artificielle. Ève Gaumond, Shirley Plumerand et Sylvain Munger m'ont accompagné dans cette analyse!
Plusieurs thèmes abordés:
Des concepts d’autonomie, d'automatisation (et de responsabilité) associés aux systèmes d'armes létaux autonomes (SALA)
Des potentialités techniques, exécutives et stratégiques des applications militaires de l'IA
Du pouvoir du droit international pour encadrer et baliser cette technologie
Des degrés et niveaux d’autonomie (human «in», «on» and «off» the loop)
Du socle du principe de dignité humaine
Des limites de l'idée d'une guerre «humaine»
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.
Épisode 36 - Les biais en IA et en intelligence...naturelle - Entrevue avec Jean-Philippe Beauregard
01:09:05
Dans cet épisode d’IA Café, nous replongeons dans un sujet que vous avez aimé : les biais en IA. Avec Jean-Philippe Beauregard, nous retournons à la source en explorant non pas les biais en intelligence artificielle, mais les biais propres à notre intelligence humaine, et donc ... naturelle! Et cela, évidemment afin d'approfondir notre compréhension des biais en IA!
Cette enquête sur les biais n’a donc jamais pris de repos. Le nombre de fois où le terme biais est mentionné dans nos 35 premiers épisodes! C’est un thème récurrent, mais nous prenons rarement le temps de l’approfondir. Les réflexions de Jean-Philippe Beauregard nous permettront de faire quelques pas de plus dans notre enquête.
Plusieurs thèmes abordés:
Analyse des faits - De la discrimination et du racisme systémique en ressources humaines et dans le processus d'embauche - quelques expériences et résultats surprenants!
Le problème - Des biais en ressources humaines - Définition, exemple, nature, fréquence
Les causes - Des causes psychologiques et sociales
Les solutions et conseils - De la gestion prudente des biais en RH et quelques conseils à celles et ceux qui sont impliqués dans la conception d'IA
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.
Épisode 37 - Former à l’éthique de l’IA en enseignement supérieur - Entrevue avec Frédérick Bruneault
00:54:29
Dans cet épisode, avec mon invité Frédérick Bruneault, notre enquête sur les enjeux éthiques et sociaux de l'IA s'aventure bien en amont du développement de l'IA en explorant: la formation en éthique de l'IA.
Frédérick Bruneault est professeur de philosophie au Collège André-Laurendeau, professeur associé à l'École des médias de l'Université du Québec à Montréal (UQAM), chercheur principal au Laboratoire d'éthique du numérique et de l'intelligence artificielle (LEN.IA), chercheur associé à l'Observatoire sur les impacts sociétaux de l'intelligence artificielle et du numérique (OBVIA), à l'Observatoire du numérique en éducation (ONE). Ses recherches portent sur la fondation de nos obligations morales dans le contexte du développement technologique actuel, notamment celui des technologies du numérique et de l'intelligence artificielle.
Épisode 38 - NLP, GPT3 et fraude scientifique - Guillaume Cabanac, le détective de la tromperie!
00:50:58
Dans cet épisode, nous recevons Guillaume Cabanac surnommé « détective de la tromperie ». Guillaume a été nommé, par la prestigieuse revue Nature, parmi les 10 personnalités qui ont marqué la science en 2021.
Guillaume est un chercheur qui fait de la recherche, mais sur la recherche. Il est maître de conférence, docteur en informatique, professeur à l’Université Paul Sabatier Toulouse 3. Il enseigne en informatique, en gestion et traitement informatique des données massives. Ses plus récents travaux de recherche sont en scientométrie (la science de la mesure et de l'analyse de la science).
Avec lui, nous avons principalement discuté d’un article qui a fait beaucoup de bruit dans la communauté scientifique. L’article a été publié en juillet 2021 :
Épisode 39 - Économie de la promesse et battage technologique en IA - Entrevue avec Maxime Colleret
00:55:08
Dans cet épisode, nous recevons Maxime Colleret. Avec lui, nous revenons sur le rapport qu'il a coécrit, avec son collègue et directeur de recherche Yves Gingras, et qui est intitulé: L'intelligence artificielle au Québec : un réseau tricoté serré.
Nous explorerons également les principales idées publiées dans un autre article, coécrit avec son collègue Mahdi Khelfaoui, et intitulé: D'une révolution avortée à une autre? Les politiques québécoises en nanotechnologies et en IA au prisme de l'économie de la promesse.
Au programme:
D’un réseau (tissé serré) en IA
Analyse sociologique du réseau, des principaux acteurs et des bailleurs de fonds en IA au Québec
Des potentiels conflits de rôles, conflits d’intérêts et problèmes d’éthique organisationnelle
De la concentration du financement de la recherche en IA
De l’économie de la promesse
Du cycle de battage technologique
De l’avenir de l’IA
Bonne écoute!
Référence principale: - Colleret, M. et Khelfaoui, M. (2020). D'une révolution avortée à une autre? Les politiques québécoises en nanotechnologies et en IA au prisme de l'économie de la promesse. Recherches sociographiques, 61(1), 163-188. - Colleret, M., & Gingras, Y. (2020). L'intelligence artificielle au Québec: un réseau tricoté serré (Doctoral dissertation, UQAM).
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.
Épisode 40 - Éthique appliquée et philosophie de terrain - Allison Marchildon
01:02:27
Dans cet épisode d’IA Café, nous recevons la sociologue et philosophe (de terrain): Allison Marchildon. Avec elle, nous parlons de la place de l'éthique appliquée dans la réflexion, la formation et la recherche en intelligence artificielle.
Au programme:
D'une sociologue en philosophie
De la philosophie de terrain (field philosophy) comme champ académique
De la compétence en éthique (générale)
De la compétence éthique en IA
Du cycle des technologies, des enjeux éthiques et du retour du même
De la grille de réflexivité sur les enjeux éthiques des systèmes d’intelligence artificielle
Du rôle de l’éthique et de la recherche en éthique en IA.
Épisode 41 - Les vacances de monsieur Dall-e (et de l'équipe d'IA café!)
01:16:31
Dernier épisode de la saison 2! Déjà. Triste, non?
Dans cet épisode, avec mes collaborateurs (Ève et Sylvain), nous partageons quelques événements, articles, ouvrages, conférences, rencontres qui ont marqué notre printemps 2022 de recherche sur les enjeux éthiques et sociaux en IA.
En bonus, nous vous faisons quelques recommandations de lectures et de divertissements pour nourrir, peut-être avec un peu plus de légèreté et de soleil d'été, votre passion pour l'intelligence artificielle.
On se reverra en septembre. D'ici là, reposez-vous bien, et bonnes vacances!
Production et animation: Jean-François Sénéchal, Ph.D Invités: Ève Gaumond, Sylvain Munger Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.
Le podcast La science dont vous êtes le héros de Jean-François Sénéchal, en collaboration avec le Vice-Rectorat à la recherche, à la création et à l'innovation de l'Université Laval
Épisode 42 - Retour en classe et «apprentissages profonds»!
01:11:38
Ça y est! Corne de brume! Nous sommes de retour. Bienvenue à votre saison #3 d’IA café. Épisode 42. L’épisode de la «réponse ultime» (ou pas)!
Avec mes collaborateurs et collaboratrices (Ève Gaumond, Sylvain Munger et Maxime Heuillet), nous mettons la table pour cette saison 3, explorons les thèmes à venir, discutons des événements en IA qui ont attirés notre attention, et partageons nos ambitions et projets d'automne.
Et au passage, quelques discussions passionnantes sur nos sujets préférés:
Dall-e et Midjourney - banc d'essai
Justice, démocratie et expression en ligne
Du lien social entre la communauté de chercheurs en IA et la population en générale
Aristocratie et entrepreneuriat - Rêve, imagerie et pouvoir
Workshop - Utilisation de techniques de NLP pour traduire le sens caché et cryptique des plumitifs (résumé sommaires de décisions judiciaires)
De pertinence de la question de la singularité et de la naissance potentielle d'une IA générale menaçante (ou enthousiasmante)
Guide de survie pour étudiantes et étudiants français qui aimeraient étudier en IA au Québec ou en Amérique (de l'autre côté de la Grande Flaque)
Du rôle de l'IA dans l'intox, dans la construction des discours conspirationnistes et dans la radicalisation du discours sur les réseaux sociaux
NeurIps 2022 - Conference on Neural Information Processing Systems
Et encore plus !
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Invités: Ève Gaumond, Sylvain Munger, Maxime Heuillet Collaborateurs: David Beauchemin, Fredérick Plamondon, Shirley Plumerand.
Épisode 43 - Faire la morale aux robots et aux algorithmes (Entrevue avec Martin Gibert)
00:52:54
Dans cet épisode d’IA Café, nous recevons le philosophe, Martin Gibert, pour discuter avec lui des pistes d'éducation potentielles pour enseigner la morale, non seulement aux étudiants qui fréquentent ses cours en éthique de l'IA, mais également aux robots et algorithmes qui sont et seront les manifestations les plus concrètes des plus récentes avancées en intelligence artificielle.
Au programme:
De l’éthique et de l’éthique normative.
Des théories morales en éthique normative applicables en l’intelligence artificielle.
De la programmation morale des systèmes d’intelligence artificielle.
Des enjeux éthiques associés aux technologies en intelligence artificielle.
De la distinction entre éthique de l’IA et éthique des algorithmes.
De la création d'un cours en éthique de l'IA.
Référence principale:
Martin Gibert, Faire la morale aux robots - Une introduction à l’éthique des algorithmes, Atelier 10, 9 juin 2020, 165 p.
Production et animation: Jean-François Sénéchal, Ph.D. Invité: Martin Gibert Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Épisode 44 - De la fabrication de l'éthique robotique et algorithmique - et autres sujets connexes
00:46:21
Avec mes collaborateurs (Ève Gaumond, Sylvain Munger, et Maxime Heuillet), nous revenons sur le contenu de l'entrevue avec Martin Gibert. Et nous tissons des liens entre les thèmes abordés lors de cette entrevue et nos propres thèmes d'expertise.
Au programme:
Des impacts néfastes de la formation et de la recherche interdisciplinaire sur la carrière académique
De l'éthique de la vertu et de la notion «du bon père de famille» en droit
Réflexions sociologiques sur la technologie et les technologies modernes en intelligence artificielle.
D'un projet réalisé par Uber AI Labs et de la voiture autonome
Du principe d'incertitude morale dans la programmation des algorithmes en IA
De l’applicabilité (ou non) des principales théories morales dans la conception de voitures autonomes et d'algorithmes.
Des défis et contraintes associés à la création d'un cours en éthique de l'IA.
Et encore bien plus!
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs qui ont participé à l'enregistrement: Ève Gaumond, Sylvain Munger, Maxime Heuillet Collaborateurs: David Beauchemin, Frédérick Plamondon, Shirley Plumerand.
Épisode 45 - Art et I.A.rt - Enjeux sociaux et juridiques de l'utilisation de l'I.A. en art. - Entrevue avec Valentine Goddard
00:57:38
Dall-e, Midjourney, Meta (Make-a-video)! Vous connaissez? Ce ne sont que quelques exemples de technologies qui permettent de créer des images ou des vidéos en mobilisant l'intelligence artificielle. Quels sont les enjeux sociaux et juridiques découlant de ces façons innovantes de créer?
Dans cet épisode d'I.A. café, nous avons pris un café, et discuté des enjeux éthiques, légaux et sociaux de l'I.A en art, avec Valentine Goddard.
Valentine est avocate, membre du Conseil consultatif sur l'IA du Canada, consultante pour les Nations Unies en matière de politique et de gouvernance de l'IA. Elle a participé à plusieurs publications de politiques publiques en lien avec l’encadrement éthique et normatif de l’IA. Valentine est aussi une artiste et femme engagée. Elle siège sur de nombreux comités en lien avec les implications éthiques et sociales de l’IA.
Au programme:
Des enjeux éthiques et sociaux de l'I.A dans le monde des arts
Du narratif de l’IA
Du droit en IA et de la démocratisation sociale de l’IA
Du rôle des arts dans la culture numérique.
Bonne écoute!
Note: L’artiste dont Valentine et JF discutaient, et dont le nom avait été oublié, était « Greg Rutkowski« . Greg Rutkowski (illustrateur iconique de la franchise connue Donjons et Dragons) est le nom le plus souvent utilisé par les utilisateurs de systèmes de génération d’images par IA (Dall-e, Midjourney, etc). L’artiste crie à l'injustice sur plusieurs tribunes depuis qu’il a constaté que ses créations et propriétés intellectuelles sont instrumentalisées par ces systèmes d’IA (entrainés à partir de ses créations). Et que ces systèmes génèrent avec une efficacité et simplicité redoutable, des images inspirées de son style, et cela, sans aucune forme de reconnaissance ou d’allocation du statut d’auteur. Dossier à suivre.
Production et animation: Jean-François Sénéchal, Ph.D. Invité: Valentine Goddard Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Aimez-vous les histoires d'horreur? Connaissez-vous les histoires d'horreur en IA?
Dans cet épisode, les collaborateurs d'IA Café sont venu me raconter leurs histoires d’horreur préférées en I.A. Ces histoires sont parfois concrètes (ex. : un programme d’IA qui dérape et qui vous réveille à 2 heures du matin avec une voix creepy). Elles sont aussi parfois symboliques (ex.: « «La vente d’Element AI est une belle histoire d’horreur». La blague est d’Ève Gaumond en réunion de production). Vous comprenez le concept.
Dans cet épisode:
La série Years an years (Apple TV, Canal +) - L'horreur d'un futur proche
La première victime d'un robot tueur - La naissance possible de Skynet
Le Lee-luda de Scatterlabs - Un chatbot qui vous veux du bien
Les conseils d'Alexa et les réflexions de LaMDa - À glacer le sang
Les GAFAM et l'asservissement du monde
Le jeu vidéo d'horreur - Manipulation vicérale des peurs intimes
Le deepfake en science - La chasse aux vrais fantômes
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Invités: Sylvain Munger, Shirley Plumerand, Maxime Heuillet Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon
Épisode 47 - Dall-e et Midjourney - Vols, injustices et disparition des créateurs?
01:07:41
Dall-e, Midjourney, Meta (Make-a-video)! Connaissez-vous? Et si on abordait les enjeux éthiques et juridiques associés à ces technologies au potentiel, c'est vrai, fort enthousiasmant.
Dans cet épisode, nous revisitons les thèmes abordés à l’épisode 45 intitulé «Art et I.A.rt - Enjeux sociaux et juridiques de l'utilisation de l'I.A. en art. - Entrevue avec Valentine Goddard». Avec mes collaboratrices (Ève Gaumond et Shirley Plumerand), juristes en résidence, nous analysons et réfléchissons aux thèmes abordés avec Valentine lors de cette entretien.
Au programme:
Des enjeux éthiques et juridiques entourant les applications comme Dall-e, Midjourney, Meta (Make-a-video)!
Des différences socioculturelles (Canada-Québec) dans l'encadrement du développement de la technologie en IA
Des biais raciaux et sexistes (Gender Washing et White washing) à l'oeuvre dans ces technologies.
Des menaces au statut d'auteur et des différentes formes de reconnaissance et d’allocation du statut d’auteur.
Du narratif de l’IA
Du dialogue et des collaborations possibles entre l'artiste et la «machine»
De l'expérimentation (enthousiasmante) du potentiel artistique des outils de création «text to image» en IA, c'est-à-dire qui sont capables de créer des images à partir de quelques ligne de texte
De la difficulté d'application des principes de «transparence» et de «proportionnalité» en matière de droit d'auteur, dans l'encadrement des nouveaux systèmes d’IA qui génèrent automatiquement des images (et bientôt des vidéos) à partir de quelques lignes de texte
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaboratrices invitées: Ève Gaumond, Shirley Plumerand. Collaborateurs: David Beauchemin, Frédérick Plamondon, Sylvain Munger, Maxime Heuillet
Épisode 48 - Encadrer le développement de l'intelligence artificielle - Entrevue avec Céline Castets-Renard
00:48:22
Comment encadrer le développement du marché numérique et de l'intelligence artificielle? De quelles lois a-t-on besoin? Quelles sont les différences entre le cadre normatif aux États-Unis, au Canada, en Europe?
Ce sont les thèmes que j'ai abordés avec mon invitée: Céline Castets-Renard!
Au programme:
Des principaux bénéfices et des principaux problèmes associés à l’intelligence artificielle
Des notions de consentement et de vie privée
Des difficultés propres au consentement «numérique»
Du droit en matière de vie privée et de consentement.
Des principales différences entre l'encadrement canadien et européen de la vie privée et du consentement
De la LPRPDE (Loi sur la protection des renseignements personnels et les documents électroniques) au Canada
Du RGPD (Règlement général sur la protection des données) en Europe
De la possibilité d'une IA respectueuse de la LPRPDE et du RGPD
Production et animation: Jean-François Sénéchal, Ph.D. Invitée : Céline Castets-Renard Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Merci aussi pour vos dons à AI helps Ukraine. Pour l'information concernant cet événement: https://aihelpsukraine.cc/
Épisode 49 - Le Noël de Charles A.I. Brown - Et les prix Lovelace et IArk 2022 (partie 1)
00:51:17
Bienvenue à notre spécial de Noël d’IA café (première partie). Plusieurs sujets abordés dans cet épisode. Outre l'incontournable ChatGPT, qui s'est évidemment invité dans nos conversations de party, cet épisode sera principalement l’occasion de nous prononcer sur nos prix IArk et Lovelace 2022. C’est votre cadeau de Noël. C’est le nôtre aussi!
Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!
Dans cette première partie:
Frédérick Plamondon
Le prix Lovelace : ResearchRabbit.ai - «La recherche d'Alice jusqu'au fond du terrier»
Le prix I.A.rk: Les enjeux sociaux associés au Large Language model (LLM) - «Le père Noël est-il une ordure»
Maxime Heuillet
Le prix Lovelace: Dall-e et Mid Journey - «Dessine-moi un mouton»
Le prix I.A.rk: Les enjeux de la langue en I.A. - Français VS Anglais (et on ne parle pas de la Coupe du Monde!)
Jean-François Sénéchal
Le prix I.A.rk: Galactica - La science en lendemain de veille. Taylor, Ross, et al. "Galactica: A Large Language Model for Science." arXiv preprint arXiv:2211.09085 (2022). https://arxiv.org/pdf/2211.09085.pdf
Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Épisode 50- Le Noël de Charles A.I. Brown - Et les prix Lovelace et IArk 2022 (partie 2)
01:24:03
Bienvenue à cette deuxième partie de notre spécial de Noël d’IA café. Et bienvenue à ce 50e épisode d'I.A. café! Cinquante! C'est complètement fou!
Plusieurs sujets abordés dans cet épisode. Décidément, impossible de passer un party de Noël sans une discussion sur ChatGPT. Nous en dirons encore quelques mots et partagerons nos réflexions. Cet épisode sera également l’occasion pour nos autres collaborateurs et collaboratrices de se prononcer sur leurs prix IArk et Lovelace 2022.
Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!
Dans cette seconde partie:
Ève Gaumond
Le prix Lovelace : Rapport sur le projet de loi C27 - «He sees you when you're sleeping. He knows when you' re awake»
Le prix I.A.rk: Les systèmes d'IA et d'aide à l'embauche - HireVue - Des ressources humaines?
Le prix I.A.rk: Tic tok, tic tok, tic tok. Messe de minuit!
Sylvain Munger:
Le prix Lovelace: Waverly - Empathie et liste de souhaits
Le prix I.A.rk: Trois façons d'expliquer «l'échec» de la cyberguerre en Ukraine
Jean-François Sénéchal
Le prix Lovelace: Dall-e et Dall-e 2 (Open AI). Paix et dialogues entre l'homme et la machine
Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Bonus - Cadeau - Un regroupement d'artistes dénonce l'utilisation d'intelligence artificielle en art
00:09:46
C’est la pause des Fêtes, mais votre hôte ne chôme pas. On m’a en effet invité à Radio-Canada (TV et Radio d'État, au Canada) pour commenter le mouvement naissant d'un regroupement d'artistes qui critique l'utilisation d'intelligence artificielle dans le milieu des arts. On cible évidemment les Dall-e et MidJourney de ce monde.
Dans cet épisode, ce sera donc une courte chronique pour parler d’intelligence artificielle et d’IArt. Vous connaissez évidemment le sujet, notamment parce que nous avons ensemble exploré ce thème lors des derniers épisodes d'IA Café, mais je souhaitais que vous soyez néanmoins témoins du contenu de notre enquête sur les enjeux éthiques et sociaux en IA qui percole, lentement mais surement, grace à votre soutien et votre engagement, jusque dans les grands médias.
Vous constaterez notamment qu’en dix minutes, on en dit très peu. Et que des outils comme une balado sur l’IA démontre encore une fois tout son potentiel pour approfondir un sujet que nous chérissons tous et toutes.
Nous y sommes: 2023! Bonne année! Bienvenue à notre 51e épisode. Au programme:
1. ChatGPT et la place du baratin (bullshit) dans la construction du savoir.
Le sujet est partout, y compris dans les grands médias, et nous nous approchons du point de saturation. Nous souhaitions néanmoins en discuter avec l'équipe d'IA café, non pas pour surfer la vague (quoique un peu!), mais pour analyser cette vague, et prendre la pleine mesure de la force et peut-être des dangers associés à une vague de cette ampleur.
Analyse et critique du baratin (bullshit) dans la construction de la vérité
Ode au baratin et la place de la pensée brouillonne dans le monde des idées
Recension - Limitations et craintes associées à ChatGPT
Nous avons fait une rencontre passionnante avec Céline Castets-Renard, et l'équipe d'IA café souhaitait revenir sur les thèmes et sujets de cet épisode 48.
La définition de l'intelligence artificielle
La consstruction du cadre normatif en matière d'intelligence artificielle
3. Corne de brume - 2023 ! C’est le début de l’année. C’est le moment de regarder un peu vers l’avenir.
Fred, Ève et JF parlent de leur projets personnels et académiques en 2023.
Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Épisode 52 - Cinéma, Science-fiction et construction des mythes en IA - Entrevue avec Vincent Clément
00:54:44
Le cinéma de science-fiction et l'intelligence artificielle! Il ne manque que le popcorn!
Bien avant de trouver des formes et applications concrètes dans notre quotidien, les plus grandes promesses scientifiques en intelligence artificielle se matérialisaient d’abord dans le cinéma et sur nos écrans. De 2001 Odyssée de l’espace, à Blade Runner, à Terminator 2, en passant par les plus récents Her ou Ex-Machina, le cinéma de science-fiction met en effet en scène nos plus grands mythes en IA et leur donne vie sur nos écrans. Ce cinéma incarne à la fois nos plus grandes peurs et promesses en IA .
Dans cet épisode, je vous propose de prendre un café (et un popcorn) avec un jeune doctorant, pour parler de recherche en IA, et des liens entre le cinéma de science-fiction et l'intelligence artificielle: Vincent Clément. Ce dernier a publié un mémoire (en 2021) intitulé: « Intelligence artificielle : du mythe de la créature artificielle à son actualisation contemporaine». Avec Vincent, nous examinerons à la fois l'histoire de l'intelligence artificielle et l'histoire des principales figures mythiques (et mythologiques) de l'intelligence artificielle au cinéma.
Bonne écoute!
Invité: Vincent Clément Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Épisode 53 - L'lliade, 2001 Odyssée de l'espace et la Matrice - Mythes et imaginaires socio-techniques
00:57:42
Dans cet épisode, en compagnie de mes collaborateurs Sylvain Munger et Frédérick Plamondon, nous poursuivons notre enquête sur les enjeux sociaux, techniques et éthiques de l'intelligence artificielle à partir des thèmes et enjeux qui ont été abordés à l'épisode 52 intitulé - Cinéma, Science-fiction et construction des mythes en IA - Entrevue avec Vincent Clément.
Au programme:
Le cinéma de science fiction et la promesse technoscientifique performative
L'Illiade et Héphaïstos : le mythe du feu et de la création technique
L’imaginaire socio-technique et l’idéal post industriel
La construction de l’imaginaire et du langage de l’IA
Les mythes et la matrice - Le contrôle humain de la machine et la liberté
2001 Odyssée de l'espace - La peur et le rêve de la singularité
Collaborateurs invités: Frédérick Plamondon, Sylvain Munger et Jean-François Sénéchal. Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: David Beauchemin, Ève Gaumond, Shirley Plumerand, Maxime Heuillet.
Épisode 54 - La ville intelligente et la réalité mixte - Entrevue avec Sylvie Daniel, vingt mille lieues sous les mers
00:58:43
Dans cet épisode, nous recevons la docteur Sylvie Daniel, professeure et experte en photogrammétrie, techniques d’imagerie 3D et cartographie numérique. Avec elle, nous explorons nos villes, nos fonds marins, nos buildings, nos routes et tentons de reproduire leurs jumeaux numériques!
Au programme:
La ville intelligente : la numérisation des villes, des fonds marins, des routes, et du bâtiment construit.
La cueillette de données, le consentement et la protection de la vie privée dans l’espace public.
Les défis techniques associés à la gestion de nuages de données et de la métadonné.
Les risques techniques, juridiques et éthiques associés à ces technologies.
Les contraintes et libertés de la recherche publique (vs la recherche privée)
La collecte, l’utilisation, l’accès, l'appropriation et la vente de données publiques.
Les programmes gouvernementaux d’acquisition de la donnée publique.
Le travail (aliénant) d'étiquetage de données.
Bonne écoute!
Invitée: Sylvie Daniel Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
LLaMA - La réponse de Meta (Facebook) à ChatGPT (Open AI). Un LLM qui vous veut du bien.
L'IA, le contrôle de l'accès aux mineurs à la pornographie, l'hypertrucage (deepfake) et la pornodivulgation (revenge porn).
Au-delà de la donnée (Elizabeth Renieris, Beyond data- Reclaiming Human Rights at the Dawn of the Metaverse, MIT Press, 2023). De l'échec potentiel du Droit dans sa tentative de protéger les valeurs humaines les plus fondamentales, y compris le sens profond de la protection de la vie privée.
Retour sur l'épisode 54 - Rencontre avec Sylvie Daniel
Ville intelligente - La protection de la vie privée dans l’espace public
La captation et l'appropriation de la donnée dans l'espace public
Livre Blanc sur la ville intelligente (Mila)- Principes de responsabilité, d'imputabilité et d'exactifude - quelques balises et guides pour créer le cadre normatif de la ville intelligente .
De la place de la donnée publique, des programmes d'acquisition de données publiques, et des tensions entre le secteur privé et public.
Le droit à la remorque de la technologie - Mythes et réalités
Les risques éthique, juridiques et sociaux associés à la numérisation des villes.
Collaboratrices invitées: Ève Gaumond, Shirley Plumerand. Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: Frédérick Plamondon, Sylvain Munger, David Beauchemin, Maxime Heuillet.
Épisode 56 - Vision artificielle, synthèse audio et santé - Tour d’horizon en IA – Entrevue Syntyche Gbehounou
00:59:54
Dans cette épisode, rencontre au sommet de la baladodiffusion-podcasting sur l'intelligence artificielle, en français: IA Café vs Horizon IA!
En effet, nous avons eu la chance de rencontrer Syntyche Gbehounou, coproductrice et coanimatrice du podcast Horizon IA, un podcast passionnant sur la vulgarisation des enjeux techniques en intelligence artificielle.
Syntyche est également docteur en traitement du signal et des image en intelligence artificielle. Avec elle, nous explorons le riche contenu de son podcast, les thèmes abordés pendant ces trois saisons, nous nous remémorons les rencontres et découvertes qui ont parsemé les 25 premiers épisodes d'Horizon IA.
Au programme:
1. Vision et intelligence artificielle.
L’IA pour sauver nos forêts des flammes
Les biais d’apprentissage
Les droits d’auteur invisibles
La détection de vols à l’étalage
Montage et édition automatisés de match de foot
2. Sons et intelligence artificielle.
Immersion dans les sons de la vie quotidienne
Les systèmes de reconnaissance du locuteur
Conversations artificielles et synthèse vocale
Décodage d’une discussion dans un cocktail party
3. Santé et intelligence artificielle.
L'IA au service de la médecine pédiatrique
Neuro-prothèses et la maladie de Parkinson
Aide diagnostic du cancer
Assistance chirurgicale orthopédique
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D. Invitée: Syntyche Gbehounou Collaborateurs: Ève Gaumond, Shirley Plumerand, Frédérick Plamondon, Sylvain Munger, David Beauchemin, Maxime Heuillet.
Épisode 57 - Moratoire (ou pause) sur l'intelligence artificielle! Un pas de recul?
01:26:23
Gros programme. On parle de l’actualité IA. Et on parle (évidemment!) de cette lettre, publiée par l’institut Future of Life, qui demande aux chercheurs dans le domaine de l’I.A. de prendre une pause de six mois dans leurs recherches et expérimentations en IA. Six mois pour se donner le temps de réfléchir à la place que l’on souhaite donner à l’IA en société, est-ce nécessaire? Est-ce suffisant?
Avec mes collaborateurs et collaboratrices (Fred, Shirley, Sylvain), nous tentons de prendre un «pas de recul» pour décider si cette pause est un «pas de recul» ou non.
Au programme:
GPT4, Bard, LlaMA - Premières expérimentations et commentaires
Encadrement normatif de la vidéosurveillance algorithmique au jeux Olympiques de 2024 - Indifférence et acceptabilité passive
Un homme se suicide - l'imputabilité du robot conversationnel
🤖 Le "hype" autour de l'IA: Fred (5:15), Shirley (10:00), Sylvain (14:20)
🤖 Ce qui a retenu notre attention ce mois-ci: Fred (26:00), Shirley (32:00), Sylvain (47:40)
🤖 À propos de la lettre ouverte de Future of life Institute (FLI) (58:00)
Quelques références mentionnées par Fred:
Shanahan, M. (2022). Talking About Large Language Models (arXiv:2212.03551). arXiv.
Floridi, L., & Chiriatti, M. (2020). GPT-3 : Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30(4), 681‑694. https://doi.org/10.1007/s11023-020-09548-1
Weidinger, L., Uesato, J., Rauh, et al. (2022). Taxonomy of Risks posed by Language Models. 2022 ACM Conference on Fairness, Accountability, and Transparency, 214‑229. https://doi.org/10.1145/3531146.3533088
Collaboratrices et collaborateurs invités: Shirley Plumerand, Frédérick Plamondon, Sylvain Munger. Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: Ève Gaumond, David Beauchemin, Maxime Heuillet.
Épisode 58 - Hyper enthousiasme et économie de la promesse en IA – Guillaume Dandurand et Marek Blottière
01:11:25
Dans cet épisode, dans la foulée de ce moratoire proposé en IA, j’ai la chance d’avoir avec moi deux acteurs résolument critiques de cette sorte d’hyper-enthousiasme collectif en IA. Le «hype en IA»! Vous connaissez? La frénésie des foules pour ChatGPT, Dall-e, Midjourney, qui n'a pas succombé? Et si le moratoire était le contrepoint logique de cet hyper enthousiasme?
Présentation du rapport Training the News: Coverage of Canada's AI Hype Cycle (2012–2021)
Principaux résultats et constats
Le «techno-optimisme»
Le rôle des médias et journalistes dans la création du hype en IA
Technologies disruptives, enthousiasmes et moratoires - Quelques leçons historiques
La place des experts techniques de l’IA dans le débat public
Pour une compréhension plus réaliste de l'IA - Recommandations et pistes de solutions
Des défis de la recherche multicentrique et internationale
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D. Invités: Guillaume Dandurand et Marek Blottière Collaborateurs: Ève Gaumond, Shirley Plumerand, Frédérick Plamondon, Sylvain Munger, David Beauchemin, Maxime Heuillet.
Épisode 59 - ChatGPT et la recherche académique - Entrevue avec Laure Soulier
00:53:00
Dans cet épisode, nous accueillons Laure Soulier, chercheure et maître de conférence à l’Université de Sorbonne. Experte en intelligence artificielle, elle collabore notamment aux travaux de l'ISIR (Institut des Systèmes Intelligents et de Robotique). Avec elle nous discutons des thèmes et enjeux qui seront abordés lors de notre Panel d'ouverture de la Semaine sur la conduite responsable en recherche, le 1er mai 2023, à l'Université Laval, un panel intitulé: ChatGPT, hypertrucage et IA: Le Vrai du Faux!
Au programme:
La recherche en informatique, la conceptualisation et le développement de système d'IA comme Dall-e et ChatGPT .
Les utilisations potentiellement acceptables et inacceptables de ChatGPT en recherche.
Doit-on citer ChatGPT à titre d’auteur?
L’intelligence artificielle et l'instrumentalisation de l'IA pour produire de fausses images en recherche.
L’intelligence artificielle et la production de faux articles académiques.
Pistes de solutions techniques pour lutter contre la fraude en recherche.
Pistes de solutions humaines et organisationnelles pour réduire le nombre de comportements maladroits, manquements, fraudes et inconduites en recherche.
La formation à l’intégrité et à la conduite responsable en recherche dans nos institutions académiques.
Épisode 60 - ChatGPT, Ève Gaumond et la Ligue des justicières!
00:56:24
Cet enregistrement a aussi été diffusé via mon autre podcast «La science dont vous êtes le héros», d'où la mention de ce podcast en ouverture.
Dans cet épisode, je reçois votre juriste préférée à IA Café: Ève Gaumond. En effet, en préparation du panel d'ouverture à la Semaine sur la conduite responsable en recherche, dont je suis responsable, je reçois Ève pour discuter de notre panel intitulé: ChatGPT, hypertrucage et IA: Le Vrai du Faux!
Avec Ève, nous explorerons les thèmes suivants:
ChatGPT - Applications probables de quelques outils d'IA en recherche
Les pressions organisationnelles en recherche
Les utilisations probables, utiles ou problématiques, de l'intelligence artificielle en recherche
Les pistes de solutions pour réduire le risque d'utilisation problématique de l'intelligence artificielle en recherche
Le risque d'effritement de la confiance du public envers la science et ses intitutions.
Rappelons qu'Ève participera à ce panel du 1er mai 2023, animé par Lyse Langlois, directrice de l'Observatoire sur les enjeux sociétaux de l'intelligence artificielle. Voici les trois panélistes :
Ève Gaumond (Chercheuse au centre de recherche en Droit public de l’Université de Montréal).
Nadia Naffi, professeur au département d'études sur l'enseignement et l'apprentissage (ULaval) et titulaire de la Chaire de leadership en enseignement (CLE) sur les pratiques pédagogiques innovantes en contexte numérique.
Jonathan Durand Folco, Professeur adjoint à l’École d’innovation sociale de l’Université Saint-Paul (Ottawa).
Épisode 61 - Actualités IA - L'automatisation du PDG, les imaginaires politico-militaires, et le rôle social des experts techniques de l'IA
01:10:49
On parle de l’actualité en intelligence artificielle. Avec mes collaborateurs, Frédérick Plamondon et Sylvain Munger, nous explorons les enjeux éthiques et sociaux en intelligence artificielle à travers certains éléments de l'actualité du domaine.
Au programme:
Yann LeCun, Yoshua Bengio, Geoffrey Hinton - Le bon, la brute et le truand (dans l'ordre ou dans le désordre?)
Le rôle social des figures de proue techniques dans le débat social entourant l'IA.
L'éthique de IA appliquée au management.
L'automatisation du PDG et des gestionnaires.
Relations internationales et imaginaires socio techniques dans le discours des grandes puissances politiques.
La démission de Geoffrey Hinton, le "parrain" de l'IA - Une offre "qu'il ne pouvait pas refuser".
Les savoirs autochtones, épistémologie du rapport entre le vivant et l'inanimé et la redéfinition de la place de l’IA dans nos sociétés.
L’IA comme objet techno militaire – Contribution au statu quo ou promoteur du changement international.
Le déterminisme et l'inévitabilité technologique.
Les dangers spéculatifs et dngers réels de l'intelligence artificielle.
Collaboratrices et collaborateurs invités: Frédérick Plamondon, Sylvain Munger. Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: Ève Gaumond, Shirley Plumerand, David Beauchemin, Maxime Heuillet.
Épisode 62 - Mesure de l'impact environnemental de ChatGPT - Entrevue avec Anne-Laure Ligozat
00:51:37
Quel est le bilan environnemental de ChatGPT? Peut-on mesurer son bilan carbone, et les émissions de GES associées, et cela, tout au long de son cycle de vie? Autour de ces quelques questions, nous entamons une série de trois épisodes consacrée aux enjeux environnementaux de l'intelligence artificielle.
Dans ce premier de trois épisodes, nous posons les bases de cette réflexion avec Anne-Laure Ligozat, maître de conférences en informatique à l’École Nationale Supérieure d'Informatique pour l'Industrie et l'Entreprise. Anne est également chercheur et collaboratrice au Laboratoire Interdisciplinaire des Sciences du Numérique (LISN), sur le campus de l’Université Paris-Saclay. Elle est également responsable d’EcoInfo , un site web pensé pour les enseignants, informaticiens, décideurs, dans le secteur de l’enseignement supérieur et de la recherche, qui s’intéressent à la mesure et à la réduction des impacts environnementaux et sociétaux négatifs des technologies du numérique.
Au programme:
Analyse du cycle de vie (ACV) d’une IA
Mesure de l’impact environnemental de l’IA
Le coût-bénéfices et le bilan environnementaux du développement d’une IA
Quelques applications IA au service de l'environnement
Promesses environnementales enthousiasmantes et bilans environnementaux décevants.
Le coût environnemental et le bilan carbone de ChatGPT, MidJourney, Dall-e, Stable Diffusion.
Quelques pistes de solution pour arrimer les promesses de l'intelligence artificielle avec nos attentes environnementales.
Invitée: Anne-Laure Ligozat Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Épisode 63 - Le coût environnental de l'IA, et le silence déraisonnable du monde.
00:46:36
L’intelligence artificielle a, en soi, un coût environnemental! L'aurions-nous oublié? Première partie (1 de 2) de notre analyse. Un seul thème: environnement et intelligence artificielle.
En effet, toutes ces folles et belles aventures et expérimentations sur ChatGPT, Dall-e, Midjourney,Stable diffusion ont un coût environnemental. En amont, des tonnes de ressources naturelles sont mobilisées pour créer ces serveurs, ces puces, et ces processeurs graphiques (GPU) qui font vrombir les ressources computationnelles en IA. On aimerait peut-être l'oublier, mais ces outils informatiques mobiliseront également des mégawatts et térawatts, produits à partir d'autres ressources naturelles, arnachant nos rivières ou puisant dans des mines de charbons ou nos puits de pétroles. Sans compter les ressources humaines solicitées, travaillant parfois dans des conditions de travail qui nous font rougir de honte. Résultats, des tonnes de GES pour programmer ces IA, les entrainer, les utiliser, et cela, afin que ces derniers puissent contribuer à cette quête ambitieuse, voire démesurée: résoudre «tous les problèmes du monde», y compris les problèmes... environnementaux!
«L'absurde naît de cette confrontation entre l'appel humain et le silence déraisonnable du monde » (Albert Camus, Le mythe de Siphyphe)
Au programme, avec mes collaborateurs Frédérick Plamondon et Shirley Plumerand, nous explorons les enjeux environnementaux de l’intelligence artificielle, à travers notre analyse de l'entretien que j'ai eu la chance d'avoir avec Anne-Laure Ligozat (épisode 62).
Collaboratrices et collaborateurs invités: Frédérick Plamondon, Shirley Plumerand. Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs: Ève Gaumond, Sylvain Munger, David Beauchemin, Maxime Heuillet.
Épisode 64 - (Partie 2) Le coût environnental de l'IA, et le silence déraisonnable du monde.
00:56:46
L’intelligence artificielle a, en soi, un coût environnemental! L'aurions-nous oublié? Deuxième partie (2 de 2) de notre analyse. Un seul thème: environnement et intelligence artificielle.
En effet, toutes ces folles et belles aventures et expérimentations sur ChatGPT, Dall-e, Midjourney,Stable diffusion ont un coût environnemental. En amont, des tonnes de ressources naturelles sont mobilisées pour créer ces serveurs, ces puces, et ces processeurs graphiques (GPU) qui font vrombir les ressources computationnelles en IA. On aimerait peut-être l'oublier, mais ces outils informatiques mobiliseront également des mégawatts et térawatts, produits à partir d'autres ressources naturelles, arnachant nos rivières ou puisant dans des mines de charbons ou nos puits de pétroles. Sans compter les ressources humaines solicitées, travaillant parfois dans des conditions de travail qui nous font rougir de honte. Résultats, des tonnes de GES pour programmer ces IA, les entrainer, les utiliser, et cela, afin que ces derniers puissent contribuer à cette quête ambitieuse, voire démesurée: résoudre «tous les problèmes du monde», y compris les problèmes... environnementaux!
«L'absurde naît de cette confrontation entre l'appel humain et le silence déraisonnable du monde » (Albert Camus, Le mythe de Siphyphe)
Au programme, avec mon collaborateur Sylvain Munger et mon invité «chouchou de classe» (Raphaël Guay-Gagné) , nous explorons les enjeux environnementaux de l’intelligence artificielle, à travers notre analyse de l'entretien que j'ai eu la chance d'avoir avec Anne-Laure Ligozat (épisode 62).
Collaborateurs invités: Sylvain Munger, Raphaël Guay-Gagné Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs et collaboratrices: Frédérick Plamondon, Shirley Plumerand, Ève Gaumond, Sylvain Munger, David Beauchemin, Maxime Heuillet.
Épisode 65 - Nos prix IArk et Lovelace (Été 2023) - Partie 1
00:54:18
Nous entamons (première de deux parties) la conclusion de cette troisième saison d'IA café. Pour finir en beauté, nous vous offrons nos prix IArk et Lovelace.
Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!
Dans cet épisode:
David Beauchemin
IArk – Le PDG d’Open AI est clair : « Régulez-nous (mais pas trop)! »
IArk - ChatGPT – Saint Graal de la vente à rabais de solutions technologiques pour régler tous vos problèmes (ou pas).
Shirley Plumerand
IArk – La reconnaissance biométrique dans l’espace public (encore!)
Lovelace – Charleyne Biondi: «Dé-coder – Une histoire d’une numérique»
Frédérick Plamondon
Lovelace – Le travail de l'ombre en IA - «AI is a lot of work» (The verge) et «Inside effective altruism» (MIT)
IArk – (Face palm) - Une IA révèle de quoi a l’air une belle femme dans 100 pays - Journal de Montréal.
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs et collaboratrices: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Épisode 66 - Fin de saison - Nos prix IArk et Lovelace (Été 2023) - Partie 2
00:53:30
Fin de notre troisième saison d'IA café! Pour finir en beauté, nous vous offrons nos prix IArk et Lovelace.
Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!
Dans cet épisode:
Sylvain Munger
Lovelace – Yoshua Bengio vs Philippe Beaudoin vs ChatGPT
IArk - Un compte tiktok qui fait parler les morts
Ève Gaumond
IArk - Le Droit est-il au service de la technologie?
Lovelace - La force du Droit fondamental et internationnal pour encadrer le développement de l'IA
Jean-François Sénéchal
IArk - ChatGPT - Une technologie de rupture
Lovelace - ChatGPT - Une technologie révolutionnaire
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D. Collaborateurs et collaboratrices: David Beauchemin, Ève Gaumond, Frédérick Plamondon, Sylvain Munger, Shirley Plumerand, Maxime Heuillet.
Épisode 67 - La rentrée d'IA Café saison 4 - Yiiiiiiiiii Aaaaaaaa! (Partie 1) - ChatGPT vs Gémini
00:41:27
Ça y est! Nous sommes de retour. Bienvenue à votre saison #4 d’IA café.
Avec mes collaborateurs et collaboratrices (Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Minéo), nous mettons la table pour cette saison 4, explorons les thèmes à venir cet automne, discutons des événements en IA qui s'annoncent, et partageons nos ambitions et projets automnaux.
Au programme:
Présentation d'une nouvelle collaboratrice, Véronique Tremblay, et d'un nouveau collaborateur, Stéphane Minéo:
Véronique - De la science des données et de la gestion responsable des donnée
Stéphane - De la programmation en IA, du machine learning, et des jeux de données
Shirley Plumerand:
Le DSA (Digital services act) comme pouvoir de contrainte des grandes plateformes de réseaux sociaux.
La mesure algorithmique des athlètes des Jeux olympiques de Paris 2024
Stéphane Minéo:
Le salon du big data et de l’IA à Paris
Le LLM Gemini de Google, une riposte à ChatGPT d’Open AI !
Et encore plus !
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Invités: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo Collaborateurs: Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.
Épisode 68 - La rentrée d'IA Café saison 4 (Partie 2) - Le cygne noir et l'improbabilité statistique
00:55:32
Et ça continue avec cette entame de saison 4, deuxième partie.
Avec mes collaborateurs et collaboratrices (Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Minéo), nous explorons les thèmes à venir cet automne, discutons des événements en IA qui s'annoncent, et partageons nos ambitions et projets automnaux.
Au programme:
Sylvain Munger:
Risques potentiels, risques réels et risques théoriques
La théorie du cygne noir, et la gestion prudente de l'improbabilité statistique.
Véronique Tremblay:
Le projet de loi C27 et la gestion terrain de l'imposition de modèles équitables et non discriminatoires
Réflexion et analyse critique de la notion de «biais statistiques», et la question du biais intentionnel et orienté en fonction de valeurs sociales.
Jean-François Sénéchal:
Les outils et systèmes d'IA en recherche - Enquête au coeur de la fraude et de l'inconduite académique
Le podcast comme outil de recherche académique ou de développement professionnel.
Et encore plus !
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Invités: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo Collaborateurs: Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.
Épisode 69 - Universités, enseignement et IA génératives - Éthique, sciences et technologie - Rencontre avec Mélanie Rembert et Guillaume Pelletier (CEST)
01:01:26
Rencontre avec Mélanie Rembert et Guillaume Pelletier de la Commission de l'éthique en science et en technologie du Québec.
Au programme:
De la rédaction d'un rapport gouvernemental sur les enjeux éthiques et pédagogiques de l’utilisation des intelligences artificielles génératives en enseignement supérieur
De l'encadrement de l’utilisation d’IA générative comme ChatGPT - interdiction, accompagnement, éducation
Des principaux bénéfices associés aux IA génératives dans les universités
Des principaux risques, enjeux et défis pédagogiques et éthiques associés aux IA génératives dans les universités
De processus de consultation publique et de la place des experts dans la production d'un rapport gouvernemental
De l'argument de la «perte de contrôle» et de la «boite noire»
Des notions d'«explicabilité», «transparence» et «interprétabilité» en éthique de l’IA.
De l'effritement accru de la relation de confiance entre les enseignants et étudiants.
De l'altération de la relation entre l’étudiant et le savoir
Des impacts sur les compétences numériques
Des impacts en matière d'imputabilité et de rigueur intellectuelle
De l'accroissement possible des inégalités numériques
Et encore plus !
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Invités: Mélanie Rembert et Guillaume Pelletier de la Commission de l'éthique en science et en technologie du Québec Collaborateurs: Shirley Plumerand, Sylvain Munger, Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Ève Gaumond, Maxime Heuillet, David Beauchemin.
Épisode 70 - ChatGPT, les LLM et l'enseignement universitaire: «Se faire une tête»!
01:17:22
Gros programme cette semaine. Je vous propose un épisode en deux blocs.
Dans un premier bloc, avec mes collaborateurs et collaboratrices (Sylvain Munger, Shirley Plumerand, Véronique Tremblay, Stéphane Minéo), nous partageons nos réflexions entourant l’épisode 69 d'IA Café. Dans cet épisode 69, j’ai eu la chance de discuter avec Mélanie Rembert et Guillaume Pelletier, conseillers en éthique à la Commission de l’éthique en science et en technologie du Québec.
Dans un deuxième bloc : les BaristIA font le tour de leurs actualités IA afin de rester branchés sur les actualités en intelligence artificielle. Et de tenter de maintenir ce rythme de fou!
Au programme:
Shirley Plumerand:
L'encadrement de l’utilisation d’IA générative : interdiction, accompagnement, éducation
Épisode 71 - Repenser les réseaux sociaux - Entrevue avec Philippe Beaudoin
00:55:08
Philippe Beaudoin est avec nous! Jadis ingénieur senior chez Google, vice-président du volet recherche chez Element IA, maintenant cofondateur et PDG de la compagnie Waverly, avec lui, nous discutons du développement de l’IA au Canada, de la pertinence d’une pause en IA pour encadrer ce développement, et de sa conception du rôle de la technologie et de l’IA dans notre société. Nous prendrons également le temps de discuter avec lui de l’ascension fulgurante et de la triste chute d’Élement AI, notre fleuron de l’IA au Québec, en 2020.
Au programme :
De l’ascension et de la chute d’Element AI
De la nécessité (ou non) d’une pause
De la concentration des pouvoirs et de la diversification des contre-pouvoirs collaboratifs
De l’humain au centre de son environnement technologique
Du techno-enthousiasme et de la réplique cynique
Des facteurs de réussites des jeunes pousses (start-up)
De financement du développement de l’IA
De l’importance de la recherche sur les enjeux éthiques et sociaux
Épisode 72 - Spécial Halloween - Cauchemar en IA - Le monstre en nous.
00:49:33
C’est notre spécial d'histoires d'horreur en intelligence artificielle. Le concept est simple, j’ai demandé à mes collaborateurs et collaboratrices de me raconter leurs histoires d’horreur préférées en I.A. Les histoires peuvent être concrètes ou symboliques, l'important étant que ça parle d’IA, et que ça fasse peur!
Au programme: - Vendre son âme - Sam Altman (fondateur d'Open AI et Tools for humanity) et son «Orb» pour collecter toutes vos données biométriques et vendre (peut-être) votre âme à Sauron. - Nécrophagie- La compagnie Pack and save vous offre de faire des recettes à partir de ce qui reste dans votre frigo, y compris des restes humains... - Pathotourisme - MSN tourist offre une visite des sites touristiques de la ville d'Ottawa incluant la visite d'une banque alimentaire! - La construction des masques de l'ombre - Tiktokisation de Google Meet : les filtres et les deepfakes de l'apparence physique dans la construction de l'identité. - Traquer les bouffeurs de planètes - Ils sont de plus en plus gros, et ils ont de plus en plus faim! Retour sur le rapport de Sasha Luccioni (ICRA) : Vers l’évaluation et l’atténuation de l’impact environnemental des grands modèles de langues (Les LLM). -Démonisation ciblée- Profilage raciale dans les algorithmes des allocations familiales des Pays-Bas - Une IA qui vous veut du bien.
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Invités: Shirley Plumerand, Fredérick Plamondon Collaborateurs: Sylvain Munger, Véronique Tremblay, Stéphane Minéo, Ève Gaumond, Maxime Heuillet, David Beauchemin.
Épisode 73 - Rêver mieux - Le techno optimisme réaliste et la compétence prophétique en IA
01:03:57
Beau programme cette semaine. Premier bloc: retour sur l’épisode 71, intitulé : Repenser les réseaux sociaux, avec Philippe Beaudoin (ex ingénieur senior chez Google, ex vice-président du volet recherche chez Element IA, et cofondateur et PDG de sa compagnie Waverly). Deuxième bloc : Actualités IA.
Au programme :
Element AI – Le modèle d’affaires des jeunes pousses (start-ups) en IA - Quelques leçons apprises
Element AI - Tous les œufs dans le même panier - La concentration du pouvoir
Mistral (Le chatGPT venu d’Europe) – Un vent de fraicheur, qui donne (parfois) froid dans le dos!
Le techno optimisme et la compétence prophétique comme nécessité chez les entrepreneurs
La formation du public aux enjeux éthiques et sociaux en IA
Le rôle social des Ordres professionnels dans l’utilisation responsable de l’IA
Le régime d’historicité de Hartog: le régime passéiste, futuriste, et présentiste
Le capital Algorithmique (de Jonathan Durand Folco et Jonathan Martineau)
Épisode 74 - Chaos chez OpenAI - Congédiement (et embauche!) de Sam Altman.
01:03:24
Cette semaine, l’actualité s’est imposée. Sam Altman, le patron d’OpenAI (Microsoft-ChatGPT) a été congédié. Et réembauché quelques jours plus tard! C'est le chaos chez OpenAI. Et ça mérite au moins un pti-IA-café
Au programme:
Chronologie des événements
Acteurs impliqués, jeux de coulisses et de pouvoir
Le techno-optismisme VS le catastrophisme
Les discours et idéologies TESCREAListes
Des difficultés de «l'alignement» sociale et morale de l'intelligence artificielle
Enjeux de communication et discours cosmétiques
Production et animation: Jean-François Sénéchal, Ph.D Barist.IA: Shirley Plumerand, Fredérick Plamondon, Sylvain Munger Ph.D, Stéphane Minéo
Collaborateurs et collaboratrices: Véronique Tremblay, Ève Gaumond, Maxime Heuillet, David Beauchemin.
Pour souligner le 1er anniversaire de ChatGPT, nous vous proposons un panel de dix experts de l'IA pour discuter de l'émergeance des IA génératives!
Ce panel a été organisé par l'OBVIA (l'observatoire international sur les impacts sociétaux de l’IA et du numérique) dans le cadre du pré-lancement de son document intitulé: «Un an après l’arrivée de chatGPT: Réflexions de l’Obvia sur les enjeux et pistes d’action possibles face à l’IA générative».
Épisode 76 - Le Noël d'IA café - Algorithmes et guerres des intelligences sous le sapin!
01:12:08
Enfin! C'est notre spécial de Noël d’IA café. Pour l’occasion, j’ai demandé à mes barist.I.A.s de nous partager leurs suggestions de cadeaux. Évidemment, ça parle d'intelligence artificielle et de cadeaux, mais vous les connaissez, avec une interprétation très souple du terme « cadeau »...
Le Grinch et le Problème de Monty Hall – Le biais d’animosité envers les mathématiques (de Sylvain!).
Zelda (ou non!) - L’histoire de Link. Un livre pour enfants – écrit par Gabrielle Joni Verreault, illustré par Marie-Sol St-Onge. Septembre, 2023
Le conte de Noël: «Du roi-philosophe aux algorithmes : l’histoire de la hiérarchie du pouvoir occidental comme guerre des intelligences continuée». Un texte de Sylvain Munger publié dans Karine Gentelet. Les intelligences artificielles au prisme de la justice sociale. Novembre, 2023
Le rêve de l'entrepreneur IA - Mythologie de l'entrepreneur informatique dans son garage. Ada & Zangemann - Un conte pour enfants sur les logiciels, le skateboard et la glace à la framboise. Texte de Matthias Kirschner, illustré par Sandra Brandstätter. Novembre, 2023
Vos achats du Temps des Fêtes. Le biais statistique - Les algorithmes de recommandation et les systèmes d’aide à la décision.
Origine de la création de l'intelligence artificielle. L’Eve future, Villiers de L'Isle-Adam, 1886.
Simulants, Nomad et Nirmata - Le Film – The creator - Le créateur, réalisé par Gareth Edwards. 2023.
Production et animation: Jean-François Sénéchal, Ph.D
Épisode 77 - Le meilleur et le pire de l'IA en 2023 - Et bonne année 2024!
01:17:17
Bonne année! Pour ce premier épisode 2024, nous vous avons réservé nos prix Lovelace et I.A.rk.! C’est notre revue de l’année 2023.
Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle en 2023. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI qui nous fait dire «I. A. rk» !
Bonne écoute!
Jean-François Sénéchal
Lovelace 2023: Sasha Luccioni (Hugging Face – Montréal) pour ses travaux sur les impacts environnementaux de l’IA
I.A.rk 2023: La croissance inquiétante du «deepfake science» ou hypertrucage académique
Frédérick Plamondon
Lovelace 2023: La norme ISO 42001 - Une norme ISO pour définir le management de l'intelligence artificielle
I.A.rk 2023: Erreur 404 chez Stable Diffusion - Une étude de Stanford a démontré que le jeu de données LAION-5B, utilisé par Stable Diffusion, contenait 3,226 images pédopornographiques
Véronique Tremblay:
Lovelace 2023: Sasha Luccioni (Hugging Face – Montréal) pour ses travaux sur les impacts environnementaux de l’IA
I.A.rk 2023: La prolifération des pseudo-experts des GenAI (IA génératives)
Stéphane Minéo
Lovelace 2023: L'Union européenne réussi à créer son règlement sur l'intelligence artificielle
I.A.rk 2023: Profilage et discrimination de la Caisse nationale des allocations familiales (CNAF) et les dérives des algorithmes
Production et animation: Jean-François Sénéchal, Ph.D
Nadia Naffi s’intéresse aux innovations pédagogiques et numériques, aux expériences d’apprentissage numériques, à l’enseignement en ligne, à distance, hybride, comodale, à la littéracie numérique, aux environnements virtuels d’apprentissage. Et, évidemment, à l’intégration progressive de l’intelligence artificielle dans nos expériences d’enseignement et d’apprentissage.
Au programme
ChatGPT et autres utilisations enthousiasmantes pour un étudiant et un prof
Le métavers, la réalité virtuelle et les environnements numériques d’apprentissage
Le deepfake (l’hypertrucage), la désinformation et le mensonge algorithmique
Promesses de l’intelligence artificielle en enseignement, défis et solution
La formation et l’éducation aux enjeux éthiques et sociaux du numérique et de l’intelligence artificielle.
L’agentivité et le rôle citoyen dans la construction d’un futur numérique.
Production et animation: Jean-François Sénéchal, Ph.D Invitée: Nadia Naffi, Ph.D.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 80 - Lidars et véhicules autonomes - Rencontre avec Frantz Saintellemy (LeddarTech)
00:53:30
Dans cet épisode, nous discutons de véhicules autonomes et des technologies numériques qui rendent ce rêve possible. En voiture avec nous : Frantz Saintellemy, président de la compagnie LeddarTech, une compagnie spécialisée dans les systèmes de captures de données dont se servent les véhicules autonomes pour se diriger dans nos rues, sans conducteur.
Au programme :
Comment survivre à la volatilité du marché de la tech-AI
La techno-culture et les réseaux sociaux de la Silicon Valley
La voiture du futur : Lidars, capteurs, cameras et autres trésors sous le capot
LeddarVision, apprentissage automatisé et réseaux de neurones profonds
Les principaux « freins » techniques et économiques
Craintes, risques et démesure
Promesses, rêves et espoirs
De l’amélioration de la sécurité des usagers de la route
De l’amélioration de la mobilité et de l’efficacité du réseau de transport routier
Et encore plus !
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Invité: Frantz Saintellemy
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 81 - Sciences molles vs sciences dures (partie 1) - L'oeil du tigre!
01:07:36
Gros combat cette semaine : sciences molles vs sciences dures. On se fait la leçon. On se taquine un peu. On aide l’autre à mieux comprendre des champs de l’expertise en IA qu’il ne maîtrise pas (pas encore!).
Au programme : 10 choses que les experts en sciences dures de l’IA (programmation, informatique, génie logiciel, sciences des données, apprentissage automatique, etc.) ignorent à propos des sciences molles de l’IA (éthique, sociologie, droit, etc.).
Mes BaristIA nous expliqueront ce qui les agace dans le discours des experts AI des sciences périphériques à leurs champ principal d’expertise.
Au programme :
🥊Du «wokisme» de Gémini
🥊 Des prétentions d’objectivité des sciences dures
🥊De la main mise sur le pouvoir associé à l’objectivité des sciences dures
🥊De la possibilité d’un algorithme non biaisé et équitable
🥊Du terme «éthique» et de la morale des algorithmes
🥊De alignement algorithmique et la possibilité de déterminer ce qu’est le Bien et le Juste
🥊Des sciences dures comme véhicule des myopies de leur époque
Production et animation: Jean-François Sénéchal, Ph.D
Épisode 82 - Combat «mortel» en IA ! - Sciences molles vs Sciences dures (partie 2)
01:15:46
Deuxième ronde d’un combat «mortel» : sciences molles vs sciences dures. On se fait la leçon. On se taquine un peu. On se lance des coups. Et on aide l’autre à mieux comprendre des champs de l’expertise en IA qu’il ne maîtrise pas (pas encore!).
Au programme : 10 choses que les experts en sciences molles de l’IA (droit, éthique, sociologie, etc.) ignorent à propos des sciences dures (informatique, mathématique et sciences des données) de l’IA.
Mes baristIA nous expliqueront ce qui les agace dans le discours des experts AI des sciences périphériques à leurs champ principal d’expertise.
Au programme :
Du mythe de la «boîte noire» et de l'incompréhensibilité des algorithmes
Des difficultés à parler «d'apprentissage» et «d'intelligence»
Des fausses vérités à propos du «programmeur biaisé»
Des beautés créatives et esthétiques de la programmation elle même
Et tellement d'autres sujets. Gros fun dans cet épisode!
Production et animation: Jean-François Sénéchal, Ph.D
Épisode 83 - Le retour du Jed.Ai - David Beauchemin : de Open Layer à Baseline!
00:51:35
Il est de retour, David Beauchemin est avec nous dans le studio d'IA Café! Nouvellement président directeur général de Baseline, une coopérative de service conseil en IA, David nous raconte ce qui se passe dans sa vie de jeune chercheur et jeune entrepreneur en IA.
Au programme:
Du statut éphémère de l'intelligence artificielle: «Tout ce qu’on fait aujourd’hui en IA ne sera pas considéré comme de l’IA dans 20 ans» (29 :06)
Du rythme de production d’une thèse académique en IA
De Baseline - une coopérative de service conseil en IA
De la pertinence des valeurs coopératives pour guider les solutions technologiques en IA
Solutions IA ou solutions informatiques: De la frontière entre «intelligence artificielle» et «informatique de haute performance»
OpenAI ou CloseAI?
De la distance entre le monde réel et le monde académique
IArk - De la reconnaissance faciale dans les machines distributrices de chips!
Production et animation: Jean-François Sénéchal, Ph.D Invité: David Beauchemin (Baseline et Open Layer)
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Maxime Heuillet, David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 84 - L'enfer, c'est les autres - Implications collectives de la protection de la vie privée
00:56:41
Dans cette épisode, avec Ève Gaumond (de retour à IA Café!) et notre invitée Michelle Albert-Rochette, nous discutons d'un article que cette dernière a publié en collaboration avec Clara Lavis et Mathilde Meunier, intitulé: Protection de la vie privée dans le contexte des plateformes en ligne : les limites des fiducies de données et du devoir fiduciaire de loyauté.
Au programme:
Comment les médias sociaux et plateformes protègent-ils notre vie privée, nos données et renseignements personnels?
Des principales lois encadrant la protection de la vie privée et les renseignements personnels au Canada et en Europe
De la question du consentement dans la protection de la vie privée
Des implications collectives de la notion de vie privée
C’est quoi une « fiducie de données » ?
De la possibilité d’imposer aux GAFAM un devoir fiduciaire de loyauté
Épisode 85 - J'ai cloné ma voix (et c'est complètement fou!)
00:50:05
C'est fait! J'ai cloné ma voix avec un outil de création de voix de synthèse. Les résultats sont à la fois impressionnants, drôles, et troublants. Aussi, avec mes collaborateurs, nous avons discuté des plus récentes actualités en IA.
Au programme:
J’ai cloné ma voix (Ayoye!)
Droit à «l’image vocale» et consentement
La gestion algorithmique de la guerre
Projet Nimbus - Le conflit israélo-palestinien comme laboratoire de l’armement AI
No tech for apartheid – Google et Amazon, le contrôle des foules, la surveillance militaire, l’épuration ethnique et le colonialisme.
Musique composée et produite par l’IA - Spotify fait son ménage du prétemps et supprime 7 % de son catalogue
L’intelligence artificielle au service (ou non) de la musique et de ses artistes
Et tellement d'autres sujets. Gros fun dans cet épisode! Et certains sujets plus délicats.
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D
BaristIAs: Stéphane Minéo et Frédérick Plamondon,
Collaborateurs et collaboratrices: Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D., Ève Gaumond, Maxime Heuillet, et David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 86 - Sociologie de l'ostentation du pouvoir de l'IA
00:51:26
Actualités et banc d'essai. On discute en studio de quelques actualités qui ont stimulé nos réflexions. On teste aussi quelques applications AI.
Au progamme
De l'autre côté de la Grande Flaque - Shirley Plumerand à la conquête du Québec AI
La consommation ostentatoire : l’importance de montrer sa maîtrise des technologies associées à l’intelligence artificielle
Retour sur les expérimentations de synthèse (clonage) vocale.
L’instrumentalisation de l’IA comme démonstration de pouvoir militaire
Victoria Shi, une porte-parole (avatar) de l’Ukraine animée par l’IA.
Ubenwa - Une application pour interpréter les pleurs de bébés…
Références citées ou consultées:
Veblen, T., & Aron, R. (1970). Théorie de la classe de loisir.
Lafortune, J. M. (2007). Les règles de l’ostentation: L’œuvre-phare de Veblen: source et guide de la sociologie du loisir. Revue Interventions économiques. Papers in Political Economy, (36). https://journals.openedition.org/interventionseconomiques/537
Épisode 88 - L’IA au service de la pornographie, de l’industrie du sexe et du divertissement adulte»
01:02:32
Dans cet épisode, nous explorons un champ d’application de l’intelligence artificielle souvent ignoré dans les rapports et analyses plus officiels : l’industrie du sexe, du divertissement adulte et de la pornographie.
C’est un sujet délicat, évidemment, et nous l’abordons avec le sérieux et la rigueur qui s’imposent. Deux experts nous accompagnent : Simon Dubé, chercheur au réputé Kinsey Institute, à Indiana University et professeur affilié au département de sexologie à l’UQAM, et Valerie A. Lapointe, doctorante en psychologie à l’Université du Québec à Montréal (UQAM).
Au programme :
Les acteurs économiques de l’industrie du sexe AI - Portait économique et pôles de pouvoir de l’industrie
Les deepfakes, les sex-chatbots et autres applications concrètes de l’IA dans l’industrie du sexe
Problèmes : les enjeux éthiques et sociaux existants, et disruptifs
Promesses: quelques utilisations qui donnent (peut-être) un peu d’espoir
La réalité virtuelle et le Sexe AI pour le traitement des dysfonctions et troubles sexuels
L’érobotique comme solution potentielle aux besoins, désirs, et bien-être sexuels
Gérer les promesses, enjeux éthiques et problèmes sociaux l’IA dans l’industrie du sexe et du divertissement adulte
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D
Invités: Simon Dubé et Valerie A. Lapointe
Collaborateurs et collaboratrices: Véronique Tremblay, Shirley Plumerand, Sylvain Munger Ph.D., Stéphane Minéo, Frédérick Plamondon, Ève Gaumond, et David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Dans cet épisode, retour (avec mes baristIAs) sur notre épisode 88 intitulé «L'IA au service de la pornographie, de l'industrie du sexe et du divertissement adulte».
Au programme :
Deepnude (la nudité hyper truquée)
La construction (et déconstruction) numérique de l’image des femmes
Les conséquences potentielles sur la sexualité des jeunes
La promesse des usages technologiques à haut potentiel et ses limites
Les asymétries de pouvoirs et les difficultés à encadrer une industrie délinquante
L’influence des propriétaires de la technologie (GAFAM) sur la moralisation sociale de la sexualité et de ses représentations
Le consentement sexuel (et de son absence) à l’époque du deepfake
Le consentement (éternel et sans limite) à l’utilisation des données
De la régulation des contenus pornographiques (générés par l’IA) et de l’intervention possible du législateur
Du rôle des experts techniques (informatiques et mathématiques) dans la réflexion sur les enjeux sociaux de l’IA.
De consommateur à acteur – La bidirectionnalité de la sexualité numérique.
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D
Épisode 90 - Nos prix IArk et Lovelace - Été 2024 (partie 1)
00:59:43
Pour finir en beauté notre quatrième saison d'IA café, nous vous offrons nos prix IArk et Lovelace.
Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!
Lovelace: au Magazine Shut! – Tech, responsabilité et éthique.
Frédérick Plamondon:
Lovelace: au journalisme critique du techno-optimisme – Au-delà des usages et des discours experts.
Mention spéciale à Jonathan Roberge et Destiny Tchehouali.
Sylvain Munger:
IArk: à Habsora – L’IA au service de l’armée israélienne
Analyse sociologique de l’imagerie militaire : Les quatre images de l’IA -1. Le modèle collaboratif («Le centaure» et «Athéna»!) vs 2. Le modèle d’automatisation («Le terminator» et «Skynet»!)
Stéphane Mineo:
IArk : aux chercheurs de l’Université de Tokyo qui inventent un prototype de peau cellulaire pour robot. Voir notamment cet article de France info.
Jean-François Sénéchal:
Lovelace: à Clément Brunet – Les leçons de l’apprentissage automatique sur le processus d’apprentissage des enfants dans le spectre de l’autisme.
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D
Épisode 91 - Nos prix IArk et Lovelace - Été 2024 (partie 2)
00:56:16
Conclusion d'une conclusion. Pour finir en beauté notre quatrième saison d'IA café, nous vous offrons la deuxième et dernière partie de nos prix IArk et Lovelace Été 2024.
Rappelons le concept. Nos prix Lovelace et IArk pointent vers le meilleur et le pire en Intelligence artificielle. Les prix Lovelace sont décernés aux articles scientifiques, évènements, congrès, prouesses techniques dont l'excellence les rend dignes du prix Lovelace (en l’honneur Ada Lovelace). La contrepartie, ce sont nos prix IArk. Ce sont nos prix citrons, le pire de l’AI, n'importe quoi en IA qui nous fait dire I. A. rk!
Véronique Tremblay:
IArk: aux deepnudes (nus hypertruckés), aux utilisations pédopornographiques et associées à la sextorsion - Des mesures de protection à l’enfance qui devraient s'imposer!
Shirley Plumerand:
IArk: à la vidéosurveillance algorithmique entournant les jeux olympiques de Paris et ses dérives potentielles.
Frédérick Plamondon:
IArk: à Y Combinator, un incubateur à jeunes pousses (startup) de l’IA - Le pouvoir altruiste effectif d’un réseau tissé serré de la Silicone Valley.
Sylvain Munger:
Lovelace: à la naissance, en Corée, des premiers robots insoumis, réfractaires au travail aliénant et suicidaires (!?!).
Stéphane Mineo:
Lovelace: aux efforts d'équité et à la croissance du nombre de femmes dans l'industrie de l'IA.
Jean-François Sénéchal:
Lovelace: à l'accomplissement technique de Sora (Open AI) et Labs AI – La production simplifiée de vidéo de synthèse à partir de quelques prompts (commandes écrites) et de contenus visuels existants.
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D
Épisode 92 - Rentrée saison 5 - Copilot au bureau - Sommes-nous prêts?
01:03:20
Nous sommes de retour pour cette saison 5! Saison des bilans.
Ce sera en effet la saison des bilans. Parce qu'après cinq années d'exploration des enjeux éthiques, légaux, techniques, sociaux et humains de l'IA, il est temps de prendre un petit pas de recul pour faire une analyse rétrospective de ce que nous avons appris et compris de ce domaine fort enthousaismant et préoccupant qu'est la recherche en intelligence artificielle.
Évidemment, nous poursuivrons aussi nos entretiens avec des experts et expertes, acteurs et actrices, de la recherche en IA. Nous survolerons également l'actualité. Nous vous préparerons enfin quelques tests et bancs d'essai.
Cette semaine, avec mes collaborateurs et collaboratrices (Shirley Plumerand, Véronique Tremblay et Stéphane Minéo), nous mettons la table pour cette saison 5, nous testons quelques outils et faisons quelques bilans.
Au programme:
On a testé pour vous Copilot et ChatGPT au bureau - Et on dit «ayoye»!
On a testé pour vous la conduite assistée - Et on vous suggère de garder les mains sur le volant!
On n'a testé pour vous la retraite d’écriture en Guadeloupe - Et on aime!
Épisode 93- ChatGPT5, strawberry, OpenAI-o1 : Une IA qui "pense"? Vraiment?
01:03:29
Gros programme encore cette semaine. D’abord, sujet incontournable, OpenAi et sa nouvelle mouture de ChatGPT: OpenAI o1. On raconte que ce OpenAI-o1 "pense" avant de répondre. À voir...
Et en deuxième partie: autres actualités, discussions, et autres réflexions.
Au programme:
ChatGPT-5, Strawberry, OpenAI-o1 : Une IA qui « pense »?
Le discours entrepreneurial, le markéting et le modèle d’affaires de l’IA.
Sous le capot - À l’assaut de la boite noire!
Explicabilité et transparence : La promesse de sécurité et de conformité.
Les enjeux techniques et éthiques des outils AI de transcription.
Les succès et insuccès financiers du big business et des jeunes pousses (startups) de l’IA.
Dronathlon : Un concours pour des utilisations militaires des drones.
Et encore plus ! Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Invités: Sylvain Munger, Fredérick Plamondon, Stéphane Minéo Collaborateurs: Véronique Tremblay, Shirley Plumerand, Ève Gaumond, David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 94 - Une machine qui "apprend" avec peu - Données massives VS données frugales en IA - Entrevue avec Christian Gagné
00:44:15
Dans cet épisode, nous discutons avec Christian Gagné. Christian est directeur de l’Institut intelligence et données (IID) de l’Université Laval. Il est également détenteur de la prestigieuses Chaire en intelligence artificielle Canada-CIFAR, qui a pour objectif d’attirer au Canada les plus grands chercheurs en IA du monde et de retenir nos meilleurs talents existants.
Au programme :
Le concept d'évolution en biologie et son influence dans le développement de la recherche en intelligence artificielle
Histoire de la recherche universitaire (et de son financement) en intelligence artificielle
L’apprentissage machine ou apprentissage automatique, c’est quoi?
Dans quelle mesure peut-on faire le parallèle entre les processus d’apprentissage humain et les processus d’apprentissage machine?
Du « big data » au «few data»: comment on fait pour réduire le nombre de données massives utilisées pour entraîner des algorithmes?
Du risque de la singularité - Les principaux risques, réels ou non (!), en intelligence artificielle.
Le potentiel (réel) de l'IA pour transformer le monde.
Et encore plus !
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D Invité: Christian Gagné
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 95 - Évolutionnisme biologique, déterminisme technologique et darwinisme algorithmique - Sauts quantiques et disruptions
01:19:04
Dans cet épisode, retour (avec mes baristIAs) sur notre épisode 94 intitulé « Une machine qui "apprend" avec peu - Données massives VS données frugales en IA - Entrevue avec Christian Gagné».
Au programme:
Évolutionnisme biologique, déterminisme technologique, sauts quantiques et disruptions – La menace d'une marche inéluctable vers une nouvelle forme de vie intelligente.
Le darwinisme algorithmique : le jeu de la libre concurrence et la main invisible du développement capitaliste de l’IA.
Optimus gen3 (Tesla) – Un robot mu par l’intelligence artificielle : prouesse technique ou coup de pub?
Menaces à la démocratie - La puissance et le raffinement des techniques de deepfake (hypertruckage) pour influencer les systèmes électoraux.
Méta met fin à Crowdtangle - un outil de moins pour la lutte journalistique aux fake news.
Les influences du mouvement hippie des débuts de l’IA - Les idéaux, valeurs et fondations morales de l'informatique.
Données massives vs données frugales - La frustration des attentes
Et encore plus !
Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D BarristIAs: Stéphane Minéo, Shirley Plumerand, Sylvain Munger.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 96 - Spécial Halloween - Nos histoires d'horreur en IA
00:55:19
C’est notre spécial d'histoires d'horreur en intelligence artificielle. Le concept est simple, j’ai demandé à mes collaborateurs et collaboratrices de me raconter leurs histoires d’horreur préférées en I.A.
Merci au passage à Laurent Nicolas-Guennoc et son équipe, de l’excellent podcast Changement d’époque en cours (que je découvre avec bonheur), et sa mention d’IA café (et ses bons mots) dans leur épisode 8, un épisode spécial Halloween – AI et Science-fiction.
Production et animation: Jean-François Sénéchal, Ph.D BarristIAs: Fredérick Plamondon, Shirley Plumerand, Sylvain Munger.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.
En musique :
Carlos, Wendy, et Rachel Elkind. "Thème d'ouverture du Shining." The Shining. Warner Bros. Records, 1980.
Elfman, Danny. "Thème d'ouverture." Tales from the Crypt. 1989.
Épisode 97 - Les bilans d'IA Café - Les principaux champs d'application de l'IA
00:32:53
Premier épisode de la série Les bilans d'IA Café. Après cinq ans d’entrevues, de discussions, de recherches, de rencontres, ces épisodes proposent une synthèse rétrospective du travail d’exploration et d’analyse d'IA Café.
Pour celles et ceux qui se sont ajoutés plus récemment à la communauté IA Café, ces épisodes vous permettront de rattraper le train d’IA café, en explorant l'essentiel du contenu entourant un thème ou un sujet plus précis.
Au programme, dans ce premier épisode bilan:
Les principaux champs d'application de l'intelligence artificielle!
Party de noël d'IA café! On se fait des cadeaux. On VOUS fait des cadeaux et des suggestions de cadeaux. Des cadeaux dans lesquels se cachent évidemment le thème de l’intelligence artificielle.
Un indice concernant notre prestigieux invité pour le 100e épisode d'IA Café!
Et encore plus! Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D BarristIAs: Fredérick Plamondon, Shirley Plumerand, Stéphane Mineo
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Mineo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.
En musique :
Guaraldi, V., Bailey, C., Budwig, M., & Schulz, C. M. 1. (2012). A Charlie Brown Christmas: the original sound track recording of the CBS television special [cd sound recording] ([Expanded ed.].). Fantasy.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Party de noël d'IA café! On se fait des cadeaux et des suggestions de cadeaux sous le thème de l’intelligence artificielle. Et on vous annonce le nom de notre prestigieux invité pour le 100e épisode d'IA Café!
Annonce officielle: Le nom de notre prestigieux invité pour le 100e épisode d'IA Café!
Et encore plus! Bonne écoute.
Production et animation: Jean-François Sénéchal, Ph.D BarristIAs: Shirley Plumerand, Stéphane Mineo
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Mineo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.
En musique :
Guaraldi, V., Bailey, C., Budwig, M., & Schulz, C. M. 1. (2012). A Charlie Brown Christmas: the original sound track recording of the CBS television special [cd sound recording] ([Expanded ed.].). Fantasy.
Sheena Easton, It's christmas all over the world, Soundtrack «Santa Claus - The movie», 1985. Pogologo Corp.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Pour souligner notre 100e épisode, nous recevons en studio «LA» figure de proue en intelligence artificielle, le plus grand des experts en intelligence artificielle, l’un des trois corécipiendaires du prix Turing en 2018 (Le prix Nobel d’informatique): Yoshua Bengio!
Gros programme:
Le prix Turing : Une histoire vraie
Élément AI : Chronique d'une mort annoncée
Informatique : Apprentissage profond et réseaux de neurones - Pensée et raisonnement
De retour de l'autre côté de la pause en IA: Pertinence et nécessité
Intelligence artificielle générale: Outils de contrôle - Urgence et nécessité
Éducation: De l'art et de la science
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Invité: Yoshua Bengio
Pour entamer 2025, nous ferons un retour sur l’Épisode 100 – avec Yoshua Bengio! Avec mes collaborateurs et baristIAs (Fred et Stephane), nous revenons sur les propos de Yoshua, nous discutons des thèmes abordés, et nous partageons nos réflexions, critiques et analyses.
Au programme
Boucle d’or : bébé ours, maman ours… et le Grizzly !
Alignement moral de l’IA avec « Nos valeurs » – les valeurs de qui?
La modération de contenu automatisée, et la gestion du risque : 20 filtres de sécurité d’Open AI-o1 passés au bistouri.
L’industrie de l’IA, ses infrastructures, et les rapports de forces géopolitiques.
L’encadrement démocratiquement de la marche inarrêtable du GAFAM vers une IA générale forte.
Libéralisme, « illibéralisme » et «broligarchie» technologique.
Le contrôle de l’IA et le contrôle des masses.
L’émergence des agents IA autonomes, l’iniquité d’accès aux technologies et la répartition juste des bénéfices de l’IA.
Sciences ouvertes et fiducies de données publiques.
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Invité: Stéphane Minéo, Fredérick Plamondon
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, David Beauchemin.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 103- IA et éducation - Comment former et outiller – Entrevue avec Sandrine Prom Tep et Bruno Santerre
00:45:14
Dans cet épisode, nous ajoutons un volet à notre exploration de l’avenir de l’IA en éducation en examinant les enjeux éthiques et pédagogiques de l’IA dans nos écoles et universités. Pour m’accompagner dans ces réflexions, j’ai eu la chance de discuter avec deux experts de ce domaine.
La première, Sandrine Prom Tep, est professeure au département de Marketing de l’École des sciences de la gestion de l’Université du Québec à Montréal. Elle s’intéresse notamment au comportement du consommateur numérique et sa participation en ligne.
Le second, Bruno Santerre, est professeur au Collège Bois de Boulogne à Montréal et professionnel des médias numériques. Bruno a participé au développement de nombreux projets interactifs et numériques, dont le principal projet exploré dans cet épisode : https://literatia.ca/
Au programme
LiteratIA : un outil pour développer la littératie en matière d’intelligence artificielle dans le domaine de l’ éducation.
Hack’apprendre IA 2024 (UC Louvain) : comment inspirer les transformations des institutions d’enseignement avec l'intelligence artificielle.
Les défis et obstacles de la formation en IA des enseignants, étudiants, chercheurs en matière.
Sobriété numérique, gestion responsable des données, propriété intellectuelle et intégrité
Les enjeux éthiques et humains associés à l’intégration de l’IA en éducation.
L’IA générative contribue-t-elle à l’accroissement des inégalités entre les étudiants.
Cette relation humaine, nécessaire entre le professeur et l’étudiant, est-elle possible dans un environnement d’enseignement accompagné d’IA?
Production et animation: Jean-François Sénéchal, Ph.D Invités: Sandrine Prom Tep et Bruno Santerre
Épisode 102- Projet Stargate - Techno-césarisme et techno-broligarchisme
00:55:44
Avec mes baristIAs (Sylvain, Véronique et Benjamin), nous explorons quelques actualités de la semaine, dont le projet Stargate aux États-Unis. Également, derniers commentaires et analyses concernant les propos de Yoshua Bengio lors de notre 100e épisode.
Au programme:
Stargate – La porte des étoiles – « Think big!»
Les geeks au pouvoir - Politique de puissance et rêve technologique.
Frugalité algorithmique, efficacité et sobriété numérique. Et son contraire!
Techno-césarisme et techno-broligarchisme.
Les limites conceptuelles et logiques de l’analogie anthropomorphique.
De la responsabilité sociale des porte-paroles et figures de proue de l’IA.
Des risques de la tentative de domestication de l’IA.
Changement de cible: Et si on créait artificiellement une intelligence générale « différente » de la nôtre...
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs et collaboratrices (BaristIAs): Véronique Tremblay, Sylvain Munger et Benjamin Leblanc
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 104 - DeepSeek vs ChatGPT - Guerre géopolitique et sociotechnique.
00:46:30
Dans cet épisode, nous faisons un premier tour des enjeux techniques, sociaux, géopolitiques d'un combat entre titans de l’intelligence artificielle : DeepSeek (Hangzhou DeepSeekAI) vs ChatGPT (d’Open AI).
Épisode 105 - Les bilans d'IA Café - Les principaux enjeux éthiques et sociaux (intrinsèques) de l'IA
00:52:02
Second épisode de la série Les bilans d'IA Café. Après cinq ans d’entrevues, de discussions, de recherches, de rencontres, ces épisodes proposent une synthèse rétrospective du travail d’exploration et d’analyse d'IA Café.
Pour celles et ceux qui se sont ajoutés plus récemment à la communauté IA Café, ces épisodes vous permettront de rattraper le train d’IA café, en explorant l'essentiel du contenu entourant un thème ou un sujet plus précis.
Au programme, dans ce premier épisode bilan:
Les principaux enjeux éthiques et sociaux (intrinsèques) de l'intelligence artificielle!
Les enjeux éthiques et sociaux intrinsèques sont les enjeux qui ne sont pas reliés aux usages de l'IA, ou externes (extrinsèques) à l'outil en soi, mais des enjeux qui sont plutôt directement, viscéralement et irrémédiablement liés à l'outil d'IA en tant que tel (intrinsèques). Un fardeau d'enjeux sociaux et moraux qui serait nécessairement associé à l'outil, et cela, peu importe les bénéfices ou problèmes sociaux ou moraux découlant de l'usage de l'outil. Parmi ces enjeux, nous allons en explorer trois:
Épisode 106 - Grok, Sora et reconnaissance faciale - Vie et mort d'une dinde
01:02:18
Cette semaine, quelques actualités en intelligence artificielle, bancs d’essais et chroniques.
Au programme
Les improbabilités statistiques, le cygne noir et la dinde - Chronique d'une mort (non) annoncée.
Une claque au visage - La reconnaissance faciale à l'épreuve du droit.
“Nexus”, de Yuval Noah Harari : Algorithmes de l’information pour construire ou détruire le monde!
Grok - Un outil d'information au service... de la désinformation.
IA et gestion des RH - Vous êtes congédiés!
Sora et production vidéo - Un café brulant.
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs et collaboratrices (BaristIAs): Shirley Plumerand, Stéphane Minéo, et Sylvain Munger.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Fredérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 107 - Minecraft et la «déplateformisation» du numérique
01:10:54
Cette semaine, quelques actualités en intelligence artificielle, des bancs d’essais et des chroniques.
Au programme
IA et santé - la numérisation et l'informatisation du corps.
Le dynamisme américain: le MAGA et les GAFAM sont-ils en synergie?
Sommet pour l'action sur l’IA - Penser et agir.
Minecraft comme banc d'essai - La créativité des systèmes d'IA à l'épreuve.
L'IA et ses impacts sur l'autonomie, la liberté et l'exercice du jugement.
La « déplateformisation » du numérique.
Meta AI traverse la Grande Flaque et s'invite en Europe.
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs et collaboratrices (BaristIAs): Shirley Plumerand, Benjamin Leblanc, et Frédérick Plamondon.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Épisode 108 - Starter pack - Vie et mort des tendances en IA
01:08:10
Deux tendances majeures en IA, dans les deux dernières semaines: 1. créer son « starter pack »; et 2. critiquer celles et ceux qui ont créé leur « starter pack» !
Dans cet épisode, retour sur notre enregistrement devant public au Rendez-vous numérique de Québec, quelques actualités en intelligence artificielle, bancs d’essai et chroniques.
Au programme
Le public du Rendez-vous numérique de Québec!
Starter pack (kit de démarrage) – Vie et mort des tendances en IA
Des maths pour l’amour des maths - Tioh Academy, avec Clotilde Djuikem : Tioh Academy - YouTube
Banc d’essai – Forces et limites des systèmes d’IA pour résoudre des dilemmes éthiques
ComparIA : Comparons des pommes avec des oranges
Enseignement des enjeux éthiques et sociaux de l’IA : c’est « secondaire »!
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs et collaboratrices (BaristIAs): Véronique Tremblay, Stéphane Minéo, et Benjamin Leblanc.
Collaborateurs et collaboratrices: Véronique Tremblay, Stéphane Minéo, Frédérick Plamondon, Shirley Plumerand, Sylvain Munger Ph.D, Ève Gaumond, Benjamin Leblanc.
OBVIA Observatoire international sur les impacts sociétaux de l'intelligence artificielle
Philippe est professeur agrégé au Département de physique, de génie physique et d’optique de l’Université Laval. Il s'intéresse aux données, notamment à celles que l'on fournit à nos algorithmes d'apprentissages, et aux infrastructures et à l'architecture des données massives.
Nous avons abordés avec lui plusieurs thèmes.
Notons: 1. La bête est mal nourrie: Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner? 2. Oui, je le veux! Le consentement (à l’utilisation de données). Commentconcevoir un système de production de données en recherche qui tient compte du consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), et plus pérenne? 3. Camarades, debout! Les idéaux à atteindre en production de données. Philippe explique les principes FAIR ( Facile à (re) trouver, Accessible, Interopérables, Réutilisables)
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Épisode 3 - Debriefing (Philippe Després) - Nourrir la bête
00:50:05
Retour sur l'entrevue de Philippe Després.
JF, David et Fred discutent de l'entrevue et des thèmes abordés par Philippe Després.
1. La bête est mal nourrie. Comment « nourrir la bête» (AI)? Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner? Les IA sont à l’image des données fournies. Si les données sont «toutes croches», les AI seront «toutes croches» puisqu’elles apprennent à partir de ces données. Pour Philippe, la bête est mal nourrie. Les données disponibles à la tonne, mais la qualité n’est pas là. Comment créer les infrastructures qui permettront de produire de façon pérenne et efficace des données à partir desquels ces AI pourront apprendre.
2. Le consentement (à l’utilisation de données). Les GAFA (Google, Amazon, facebook et Apple) de ce monde ont accès à des tonnes et des tonnes de données, et cela, avec un consentement que plusieurs hésitent à qualifier de «libre» et «éclairé». Comment concevoir un système de production de données en recherche qui tient compte de ce consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), plus pérenne.
3. Les idéaux à atteindre en production de données. On tente de comprendre les principes FAIR, mentionnés par Philippe en conclusion :
o Facile à (re) trouver : identifiant unique et pérenne, indexé, langage commun o Accessible : Facile à accéder et, lorsque possible, des données ouvertes (et via des protocoles qui permettent aux machines de communiquer entre elles) o Interopérables : ??? o Réutilisables : données qui peuvent être réutilisées
Darwin a fait son doctorat à l'université Laval en génie civil et sa maîtrise en ressources hydrauliques à Université Nationale de Colombie. Son expertise combine intelligence artificielle, data sciences, génie civil, apprentissage machine et hydro-informatique. Il est entrepreneur et consultant en AI. Il a aussi créé la compagnie Apox, une compagnie de service conseil en AI.
Nous avons abordés avec lui plusieurs thèmes.
Notons:
Prédire le futur (hydraulique): Utilisation des AI et de l'apprentissage machine (machine learning) dans la modélisation des prédictions météorologiques et hydriques
Le hasard et la nécessité. Stochastique et probabilisme (contingence et nécessité): Comment les nouveaux modèles en IA permettent-ils de faire le pont entre des phénomènes qui sont stochastiques (fruit du hasard) à petite échelle et qui sont donc imprévisibles, mais qui deviennent prévisibles dès lors que des patterns peuvent être identifiés à grande échelle par des outils mobilisant de l'intelligence artificielle.
Outils d'aide à la décision et imputabilité. Darwin explique le rôle des AI, et leurs limites, dans l'accompagnement de la prise de décision des décideurs.
Bonne écoute! Et merci encore, Darwin!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Épisode 5 - Un nouvel hiver en Intelligence artificielle? Retour sur l'entrevue de Darwin Brochero.
01:01:34
Retour sur l'entrevue de Darwin Brochero.
JF, David et Fred discutent de l'entrevue et des thèmes abordés avec Darwin.
1. «L'intelligence artificielle n'existe pas» (Luc Julia) . Vraiment? Pourquoi tant de malaise à se désigner comme «chercheur en IA» ? Pourquoi finance-t-on l'IA si personne n'en fait vraiment. Avant de nier l’existence d’une chose, du moins avec une approche philosophique, il faut d’abord la définir.
2. Donner du sens au chaos. Stochastique et probabilisme.. Contingence et nécessité. «Hasard et la nécessité » (Jacques Monod). Les nouveaux modèles en IA permettent de faire le pont entre des phénomènes qui sont stochastiques (fruit du hasard) à petit échelle, mais qui sont régis par des paterns lorsqu’on les observe à grand échelle. Nos modèles scientifiques classiques nous ont permis de mieux comprendre, mieux prévoir et de mieux prédire. Et les nouveaux modèles en IA permettent d’accroître encore davantage, en précision et puissance, ce pouvoir prédictif.
3. De l'éducation. De quelle éducation avons-nous besoin pour saisir, dans leurs intégralités, les problèmes éthiques et sociétaux associés à l'intelligence artificielle? Les universités sont-elles conçues pour résoudre de tels problèmes? Quoi faire pour s'assurer, que bien en amont, les enjeux éthiques et moraux soient mieux pensés par ceux et celles qui conçoivent les applications AI de demain?
4. Croissance et décroissance (un nouvel hiver en IA?). Le champs de l'intelligence artificielle n'est pas né de la «dernière pluie». On se rappellera d'une grande vague d’enthousiasme envers l’IA dans les années 70 (financé par le DARPA aux USA), et que cette vague s’est estompée dans les années 80. On avait nommé «hiver» cette période de stagnation des travaux et du financement en IA. Or, le financement en IA ne cesse de croître. Si «l'hiver s’en vient», pour reprendre cette maxime des peuples du Nord (Game of Thrones), nous avons encore quelques belles saisons.
Épisode 6 - Le Noël de Timnit Gebru - Nos prix Lovelace et IArk (partie 1)
01:02:36
Le concept: Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk.
Le concept est simple. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace (évidemment en l'honneur d'Ada Lovelace).
La contrepartie, ce sera nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sera nos prix citrons, nos navets et nanars, nos prix IgNobel. Ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!
C’est le concept.
Essayons-le ! --- Dans cet épisode:
Pour David:
Prix Lovelace à Timnit Gebru dans l’affaire Timnit Gebru vs Googliath
Prix IArk à Google (et jeff Dean AKA Le vilain) dans la même affaire
Pour Ève:
Prix Lovelace au projet de Loi C11
Prix IArk à Google dans l'affaire Timnit Gebru vs Google
Autre thème abordé:
La place de l'éthique en AI - et le rôle de l'éthicien au sein des compagnies qui développent ces applications AI.
Épisode 7 - Le Bye Bye d'Element AI - Nos prix Lovelace et IArk (partie 2)
00:49:02
Deuxième partie de nos prix Lovelace et IArk.
Rappelons le concept. Une fois par trimestre, peut-être deux, on enregistre un épisode dans lequel nous ferons une forme de revue de l’actualité. Et nous donnerons des prix: les prix lovelace et les prix IArk.
Les prix Lovelace. On choisit nos meilleurs (articles scientifiques, évènements, congrès, prouesses techniques) du trimestre. Et les plus dignes et méritants recevront nos prix Lovelace.
La contrepartie: nos prix IArk. Inspiré d'un jeu de mots dégoutant, ce sont des articles scientifiques, événements, congrès, prouesses techniques, qui nous font dire I. A, rk!
--- Dans cet épisode:
Pour Frédérick:
Prix Lovelace à Timnit Gebru (encore!). Fred résume deux de ses contributions à la réflexion sur les enjeux éthiques et sociaux de l'intelligence artificielle.
Prix IArk à «La réponse Google AI (et Jeff Dean ) dans l'Affaire Gebru vs Google, et parce qu'il mérite bien un deuxième prix IArk.
Pour JF:
Prix Lovelace à Deepmind, le laboratoire d’Alphabet (mère de Google). Le laboratoire s’est servi des algorithmes d’AlphaFold (Le jeu de Go : une pierre "blanche" dans l‘histoire de l’AI) pour résoudre un problème insoluble depuis 50 ans: la prédiction de la forme exacte des protéines.
Prix IArk à «la vente d’Élément AI au développeur de logiciels californien la compagnie ServiceNow».
Épisode 8 - Justine Dima - Dis-moi qui tu embauches, et je saurai qui tu es!
00:50:56
Quelques mois avant le début de la pandémie au Québec, nous recevions, dans nos studios, une force montante de l'intelligence artificielle: Justine Dima.
Justine était alors étudiante au doctorat en management à l’Université Laval. Son sujet de thèse: « Le bon et le mauvais côté de l’intelligence artificielle : ses effets sur les travailleurs et les équipes de travail ». Dans ses travaux, Justine souhaite « Déterminer comment les travailleurs perçoivent les effets de l’utilisation de l’intelligence artificielle, quelles sont les stratégies que les travailleurs mettent en œuvre pour faire face à ces effets et quels sont les conséquences positives et/ou négatives liés à l’utilisation de l’intelligence artificielle». Rien de moins!
Nous avons abordé avec elle plusieurs thèmes.
Notons:
Mobilisation des IA en ressources humaines. Sélection de cv pertinents lors du processus d’embauche. Recherche de candidats. Analyse de cv pour le candidat et l'employeur.
Des difficultés d'intégration des IA dans le monde du travail et des ressources humaines.
Biais psychosociaux, processus d'embauche et reproduction (intensification) des biais via l'intelligence artificielle.
Bonne écoute! Et merci encore, Justine!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine
00:51:44
Voyage dans le temps. L'épisode a été enregistré en septembre 2020. Ève, David et moi discutons de notre rencontre avec Justine Dima et des thèmes abordés avec cette dernière.
Thèmes abordés:
- Une IA humaine, trop humaine.
Les IA sont éduquées en fonction de ce que nous sommes, et non en fonction de ce que souhaiterions être. En effet, on les éduque en leur demandant d’apprendre de nos décisions et jugements passés. Or, ces décisions et jugements passés sont empreints de nos failles, erreurs, défauts, préconceptions, préjugés, tendances, biais psychosociaux. Les décisions et jugements résultants de ces algorithmes risquent de ressembler à ceux d’un homme avec ses failles et misères. Ces IA risquent de devenir humaines, mais trop humaines.
- Les biais psychosociaux.
Plusieurs biais à l'œuvre en AI. Quelques distinctions: les biais d’accentuation inter-catégorielle (ou effet de contraste), les biais d’homogénéisation intra-catégorielle (ou effet d’assimilation).
- Une IA qui reflète la morale et la culture des maîtres.
Les IA sont éduquées en fonction d’une conception occidentale de la morale. Imaginons des IA qui plaquent leur comportement et leur jugement sur les comportements et jugements attendus d’un régime chinois ou sud-coréen? Souhaiterait-on être jugés, évalués, sélectionnés, étudiés par des IA éduqués dans un tel contexte?
- Une IA difficile à intégrer au monde du travail.
La technologie ne semble pas adaptée à la réalité organisationnelle. Justine Dima le rappelle: « 70-80% des changements IA en organisation échouent parce qu’on n'a pas pris en compte les facteurs humains, parce que les résistances humaines ne sont pas prises en compte ». Il existe des barrières personnelles, humaines et psychologiques qui font en sorte que les individus peuvent être plus réfractaires à l’intégration des IA dans le monde du travail. Quelles sont les pistes de solutions?
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu.
Dans cet épisode:
Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.
David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.
Jean-François un outil d'aide à la décision en matière d'éthique des données massives: le Data Ethics Decision Aid (DEDA).
Les articles cités sont ici:
Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001
Épisode 11 - Cécile Petitgand - L'intelligence artificielle dans les établissements de santé
00:37:20
Nous avons enregistré cet épisode à l'automne 2020. Superbe rencontre avec cette experte en AI qui a fait le saut sur le plus périlleux des terrains: dans nos établissements de santé!
Sur le cv de Cécile Petitgand on lit : « Mon objectif est de mettre mon expertise et mes compétences en recherche et gestion au service de l'intégration responsable de l'innovation et de l'intelligence artificielle dans les établissements de santé».
Nous avons abordé avec elle plusieurs thèmes.
Notons:
Le potentiel de l'AI en santé
Les craintes (fondées ou non) associées à l'AI en santé
Les principaux enjeux éthiques et sociaux de l'AI en santé
Les biais
La déclaration de Montréal
Les attentes (parfois démesurées en AI)
Bonne écoute! Et merci encore, Cécile!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Épisode 13 - Véhicules I.A.utonomes - Premières analyses et réflexions
00:57:12
Dans cet épisode, nous souhaitions partager avec vous nos premières réflexions et premières enquêtes sur les applications AI dans le domaine des voitures et véhicules autonomes. Ce sujet encapsule, peut-être encore mieux que tous les autres, la hauteur de nos ambitions en AI, mais aussi nos peurs et nos craintes. Plusieurs enjeux éthiques, sociaux, techniques, juridiques sont associés à cette technologie. Et quoi de mieux que prendre un exemple concret, appliqué, autour duquel on peut ajouter nos réflexions et questions. Du moins c’est le programme que David et moi nous vous avons préparé dans cet épisode. Thèmes:
Défis techniques
Enjeux éthiques
Le dilemme du tramway (trolley problem) et sa version moderne proposée par le MIT
Des voies classiques d'argumentation morale (déontologisme et conséquentialisme) et de leur transpostions possible (ou non) aux VA.
Production et animation: Jean-François Sénéchal, Ph.D Collaborateur: David Beauchemin, M. Sc.
Épisode 14 - No fault! Daniel Gardner - De la responsabilité des véhicules IAutonomes
00:45:14
Un grand pouvoir engendre de grandes responsabilités, nous disait ce vieux Ben Parker. Dans cet épisode d’IA Café, nous recevons un expert du droit qui se passionne depuis quelques années pour les véhicules autonomes, l‘intégration d’IA dans ces véhicules et la notion de responsabilité (imputabilité) dans un contexte : M. Daniel Gardner.
Au programme:
De la définition de «véhicule autonome»- De la Google car aux navettes Keolis
Du «no fault» - Problème réglé?
De la responsabilité civile (au Québec) - La cadre normatif est-il prêt?
De la responsabilité (ailleurs dans le monde)
Quelques mythes entourant les véhicules autonomes
Production et animation: Jean-François Sénéchal, Ph.D Collaborateur: David Beauchemin, Ève Gaumond Invité: Daniel Gardner, Ph.D.
Épisode 15 - Carl Maria Mörch - AI, suicide, santé publique et santé mentale
00:51:05
Dans cet épisode d’IA Café, nous recevons, et vous vous apprêtez à prendre un café avec Carl Maria Mörch
Et si l'AI nous servait d'outil de prévention et de surveillance de la santé mentale de la population et des comportements suicidaires? Quelles seraient les balises éthiques nécessaires pour encadrer de tels outils? C'est ce dont nous discutons avec Carl Maria Mörch!
Carl-Maria Mörch est titulaire d'une maîtrise en psy. (EPP-ICP, France) et d'un doctorat en psychologie communautaire (UQÀM, Canada). De façon générale, il s’intéresse au développement responsable des technologies dans la société, en santé et en psychologie. Ses recherches sont orientées vers la création d’outils en éthique de l’IA. Ses sujets préférés : la prévention du Suicide, le Dark Web, le Big Data, l’Intelligence Artificielle.
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon Invité: Carl Maria Mörch, Ph.D.
Épisode 17 - Erobotique, AI et sexbot - Entrevue avec Dave Anctil
00:45:50
Sujet assurément le plus «sexy» de notre saison 1. Rassurez-vous, le débat restera hautement philosophique.
Pour cet épisode d’IA Café, nous avons pris un café avec chercheur qui se passionne d’AI et de robotique, mais qui s’intéresse aux enjeux sociaux et éthiques des interactions érotiques entre les humains et les machines, l’érotisme-robotique ou érobotique: Dave Anctil.
Plusieurs sujets:
De la difficulté du sujet de recherche (et du rôle de chercheur)
De l’AI dans ces agents erobotiques? vraiment?
Le potentiel de l'AI en érobotique
Les craintes et peurs (fondées, ou non!)
De la coévolution de la technologie et de l’homme
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon
Épisode 18 - Grandeurs et misères de la recherche interdisciplinaire en AI - Des nouvelles de nous!
01:00:25
Au début de cette aventure qu'est ce podcast sur la recherche en AI, parce que vous aviez accepté de nous suivre dans nos enquêtes sur la recherche sur les enjeux sociaux et moraux en AI, nous vous avions promis de vous confier les grandeurs et misères de jeunes chercheurs qui tentent d’arrimer leurs propres expertises avec ce «nouveau» champ qu’est la recherche en IA. Dans cet épisode, nous vous donnons des nouvelles de nous!
Ève nous parle:
de ses projets d'écriture
de son projet de mémoire
des difficultés et défis de la recherche en droit
des défis techniques de la recherche qualitative #Nvivo
David nous parle:
de son projet de recherche sur l'utilisation du NLP pour décortiquer l'intelligibilité des contrats d'assurances
de l'avenir de la recherche universitaire dans un contexte où la recherche en AI se fait essentiellement à l'extérieur des universités
JF nous parle:
de la recherche sur les enjeux éthiques en AI
du développement d'un système de trophées, badges et récompenses, inspiré de la culture des jeux vidéos, pour stimuler l'engagement des étudiants en classes
du mouvement SoTL (Scholarship of teaching and learning) consacré à la recherche sur l'enseignement
du rôle du chercheur, et des multiples tâches qui accompagnent ce rôle!
Épisode 19 - Nos prix Lovelace et I.A.rk - Été 2021
00:56:26
Ils sont là: vos prix I.A.rk et Lovelace - édition été 2021. Je vous rappelle le concept, on donne des prix pour le meilleur et le pire de l'IA!
Les prix Lovelace à nos meilleurs articles, articles scientifiques, évènements, congrès, prouesses techniques, dignes de la mention du prix Lovelace (en l'honneur d'Ada la pionnière).
Et la contrepartie, ce sont nos prix I.A.rk. Ce sont nos prix citrons, navets et nanars, nos prix IgNobel. Ce sont des articles scientifiques, événements, congrès, prouesse technique, mais qui nous font dire «yark»!
C’est le concept.
Nos prix, cet été vont à...
David:
Lovelace: Dynabench et Dynaboard
Lovelace: David Victor Rodriguez et les applications de GPT3 à l’évaluation de plumitif (résumés légaux)
Ève:
Lovelace: Atlas of AI, Kate Crawford
IArk: Les chercheurs en IA - et l'absence d'application concrète à partir des résultats de recherche en IA pour détecter la COVID.
JF:
Lovelace: Quatre chercheurs québécois parmi les plus influents au monde en AI. Ils sont du MILA (Le Mila est l'Institut québécois d’intelligence artificielle, anciennement Montreal Institute for Learning Algorithms) o Yoshua Bengio (UdeM), o Joëlle Pineau (McGill), o Jian Tang (HEC Montréal) et o Aaron Courville (UdeM),
IArk: Clearview et Gendarmerie royale du Canada: utilisation illégale de reconnaissance faciale et violation de la vie privée.
Épisode 20 - Collaborateurs et collaboratrices recherché(e)s !
00:02:23
Aimez-vous nous accompagner dans notre enquête au cœur de la recherche sur les enjeux éthique et sociaux de l’intelligence artificielle? Aimeriez-vous faire un pas de plus?
Nous nous cherchons de nouveaux collaborateurs pour le podcast IA Café. Il est en effet temps d’enrichir notre équipe!
Nous cherchons idéalement des collaborateurs de l’extérieur «de» Québec (Montréal, Toronto, etc.) mais aussi de l'extérieur «du» Québec au coeur de la francophonie mondiale en AI (France, Maroc, Belgique, Algérie, etc.). Je le sais que vous nous écoutez de là bas...
Est-ce que ce genre d’aventures vous tentent: apprendre à faire et produire des podcasts, discuter avec d'autres experts du domaine AI, expérimenter dans un cadre amical et collégial la vraie transdisciplinarité, transformer vos propres recherches et lectures en contenu audio.
Faites-nous signe! Écrivez-moi.
Sinon, partagez et parlez-en autour de vous.
Allez. Bon été.
De retour à l'automne pour la deuxième saison d'IA Café!
Épisode 21 - Sexe et AI - «Désolé Dave, I’m afraid I can’t do that»
00:45:33
Retour sur notre rencontre avec Dave Anctil et les applications AI en ero-botique. Plusieurs thèmes jadis abordés avec lui: les robots, l'AI, les bots et la sexualité, les enjeux sociaux et éthiques des interactions érotiques entre les humains et les machines, l’érotisme-robotique ou érobotique. Assurément notre entrevue la plus sexy de la première saison.
Dans cet épisode, nous revenons donc sur le contenu de cette entrevue pour explorer quelques zones d'ombre qui avaient peut-être été trop peu mises en lumières. Vous verrez notamment que ce n'est pas parce que ça parle de sexe que ça ne vole pas haut. Bien au contraire! Nous avons exploré plusieurs thèmes lors de cette discussion.
Notons:
De l’absence relative des applications sexuelles dans le portrait AI.
Du technosolutionnisme.
Des intérêts sociaux économiques associés aux applications AI.
Du besoin potentiel d'une philosophie morale de la sexualité pour guider l'AI en érobotique.
De la nécessaire accointance idéologique entre l’érobotique et l’industrie de la pornographie.
De la coévolution de la technologie et de l’homme.
De l'humanisation de la technologie et de la réhumanisation de l'éros humain.
Bonne écoute!
Production et animation: Jean-François Sénéchal, Ph.D Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon
Améliorez votre compréhension de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle avec My Podcast Data
Chez My Podcast Data, nous nous efforçons de fournir des analyses approfondies et basées sur des données tangibles. Que vous soyez auditeur passionné, créateur de podcast ou un annonceur, les statistiques et analyses détaillées que nous proposons peuvent vous aider à mieux comprendre les performances et les tendances de I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle . De la fréquence des épisodes aux liens partagés en passant par la santé des flux RSS, notre objectif est de vous fournir les connaissances dont vous avez besoin pour vous tenir à jour. Explorez plus d'émissions et découvrez les données qui font avancer l'industrie du podcast.