Aujourd’hui, on jase avec Philippe Beaudoin, directeur sénior à la recherche chez LoiZéro, un laboratoire de recherche appliquée en machine learning.
On retrace le parcours de Philippe : ses hackatons chez Google, son chapitre chez Element AI et finalement, son mandat chez LoiZéro.
On couvre ensuite plusieurs points, comme :
—
Cool SaaS peeps mentionnés :
—
Abonnez-vous à l’infolettre (de feu) :
https://saaspasse.beehiiv.com/subscribe
Suivez-nous sur LinkedIn (no cringe zone) :
https://www.linkedin.com/company/saaspasse/
Suivez-nous sur Instagram (mémés inclus) :
https://www.instagram.com/saaspasse/
Faites affaire avec nos partenaires certifiés (des kingpins) :
https://www.saaspasse.com/partenaires
Affichez une offre d’emploi sur le job board (gratis) :
https://www.saaspasse.com/emplois
Inscrivez votre SaaS au répertoire des SaaS au QC (>300) :
https://www.saaspasse.com/ajout-saas
—
Crédits musique
<strong>Philippe Beaudoin:</strong> Je pense que tous les chercheurs, quand on a vu le chat GPT, oui, on a eu peur. La première réaction, c'est ça. Tu dis la patente, t'as peu, là. On ne l'a pas designé de même. Personne ne l'a designé comme ça. Ça a émergé comme ça, les comportements. Puis on ne les comprend pas tous, mais c'est bien plus puissant que ce qu'on pensait que ce serait.
<strong>François Lanthier-Nadeau:</strong> What's up, folks ? Bienvenue sur SaaSpasse. Aujourd'hui, je jase avec Philippe Beaudoin, Senior Director pour la recherche chez LoiZéro, une organisation à but non lucratif. fondé par Yoshua Bengio, qui développe des systèmes d'AI safe by design. L'épisode qui suit, c'est l'enregistrement qu'on a eu live chez EY. Donc, merci à JC Dubé et leur équipe pour l'espace, la bouffe, les drinks. Et merci à tout le monde qui se sont pointés. Philippe Beaudoin a un parcours malade, donc senior engineer chez Google sur Chrome, cofondateur d'Element AI, fondateur de Waverly, avant de joindre la mission de LoiZéro, L'AZero. Dans le pod, on parle de la distinction. entre l'intelligence et l'agency, de pourquoi un modèle probabiliste qui agit en boucle, ça change la nature du risque, d'e-valves versus guardrails, de ce qu'un SaaS devrait exposer à des agents, de leur projet scientist AI, et puis de si c'est réellement possible de contrôler les systèmes d'AI agentique. Ah, puis il me raconte aussi la fois où sa joke devant des execs chez Hyundai en Corée n'a pas survécu à la traduction live. All right, on passe au show.
<strong>Question:</strong> Head close, eyes off, body open, fessine, tu peux pas m'enlever, tu peux pas m'enlever, je vais laisser les épaules, les fesses se passent, nous, je vais te quitter,
<strong>François Lanthier-Nadeau:</strong> on n'est pas fichus, c'est bruit, on est vers le sol. Alright, ben hey, pendant que tout le monde s'assoit, je vais commencer ça tranquillement. Vous pouvez aller vous chercher un drink dans le frigo là-bas. Il reste de la bouffe, je crois, à ma droite. Donc, vote gauche. Skills, am I right ? J'ai quelques remerciements à faire avant qu'on rentre dans le vif du sujet puis vraiment dans la conversation. Fait que j'y vais tout de suite. Le premier remerciement, c'est tout le temps... Puis tu sais, des fois, il y a des applaudissements puis tout avec ça. Attendons à la fin des remerciements. Comme ça, tout le monde s'est économisé les mains puis de l'énergie physique, tout ça. Merci à vous autres d'être là parce qu'on organise des événements comme ça à chaque deux, trois... À chaque deux, trois mois. Puis... C'est du monde sharp, c'est du monde intéressant, c'est du monde smart qui viennent. Fait que je prends pas votre temps, ni votre argent pour acquis. Fait que merci beaucoup de vous être pointé, ça c'est gentil. L'autre gros merci, c'est évidemment à EY. Pour ceux qui sont arrivés un peu plus tôt, vous avez pu voir la vue de cinglé qu'on a de cette tour corpo. Même cette nuit, c'est quand même cool avec tous les « all of the lights » . Ça c'est une référence à Kanye West, ça commence mal quand même mon podcast. Mais ouais, merci à EY. C'est eux autres qui la bouffe, les drinks, l'espace aujourd'hui, on est très reconnaissant pour cette hospitalité-là. Évidemment, SaaSpasse, pour ceux qui ne connaissent pas ça, on fait du média, on fait de la communauté, on a fait de l'événementiel, tout pour les compagnies de tech au Québec. On essaie de faire de quoi être sharp. Ça fait deux ans et demi qu'on fait ça. Puis, une des manières qu'on a de se financer dans notre petite entreprise indépendante, c'est d'avoir des partenaires annuels. C'est bien important pour moi aujourd'hui de leur dire merci. On a Léviat Legal pour tous vos besoins légaux. Est-ce qu'on a quelqu'un de Léviat dans la salle ? Ouais, super. Guillaume, vous pouvez aller le voir. J'aime. C'est un d'autres super approchable, pis c'est un des d'autres qui m'éduque le plus sur toute la startup life. On a le chiffre pour comptabilité et fiscalité. Est-ce qu'on a du monde du chiffre dans la salle ? Oui, on a ma comptable, Anne-Marie, qui est là. J'y avais dit, amène mes états financiers et un pot de tips. Comme ça on va pouvoir montrer les profits pis se dire, donner un peu pour boire à Frank. Hum, alright. 5 sur 7 comme mettons score de blague. Moving on, hum, on a Baseline. Est-ce qu'on a des gens de Baseline dans la salle ? Je pense peut-être que... Ouais, ils sont pognés dans Matrice. C'est des experts en intelligence artificielle, fait que... Ils sont pluggés ben deep pis ils ont pas pu se déconnecter. Mais c'est super cher. On a des gens de Unicorn peut-être dans la salle ? Oui, shoutout les boys, merci d'être venus. De Québec en plus. Tous vos besoins en optimisation, en sécurité, en migration au niveau du cloud avec AWS, il faut checker ces gens-là, ils ont tous des profils, du contenu, des portraits sur saspace.com. Ce mois-ci, on a aussi un spotlight de mois d'octobre spécifique à M. Charbel Farah avec Digital Growth Core, qui est juste là, l'homme dont je jalouse la barbe, comme j'ai dit à quelques reprises. mais pour vos besoins en marketing en croissance en marketing On a fait une super belle capsule, lui et moi. Vous pouvez aller voir ça aussi sur saspace.com slash partenaires avec un S. Ou juste aller le voir lui, vu qu'il est là, dans le fond. Sinon, je rentre dans mes petites nouvelles S'aspace, puis après ça, on rentre vraiment dans le vif de la... conversation on va parler des agents aujourd'hui j'en ai utilisé un le fameux claude code l'autre fin de semaine j'ai bildé quelque chose catalogue point SaaSpasse point comme catalogue avec g eu fait qu'en français toutes les affaires qu'on vend les produits la promo qu'on va chez SaaSpasse l'inventaire de tous les détails de tous et tout là dessus puis les réservations que pour l'année prochaine ça vous voulez faire de la business avec nous autres vous pouvez checker Checkez le catalogue. Sinon, la semaine prochaine, pour ceux qui sont à Montréal... Je serai MC. Puis ça, dans le fond, j'ai toujours voulu être rappeur, mais là, je vais pouvoir être MC de conférence. Fait que c'est comme un prix de consolation. Revstar, une conférence sur le go-to-market moderne. Ça va être quand même cool. Des gros noms en tech qui vont être là. Fait que revstarsummit.com. Puis last but not least, on close l'année. SaaSpasse chez Lightspeed le 4 décembre. On ouvre les biens dans roughly 2-3 semaines. Puis je vais interviewer Live JD Saint-Martin là-bas. Fait que ça va être comme un mini Christmas fun party. Si ça vous intéresse. Et voilà, j'ai fait toutes mes promos. Je vous apprécie pour votre attention. Merci à tout le monde d'être là. Le moment awkward où je te laisse dans le silence, c'est fini, Philippe. Sick. Philippe et moi, on va rouler pour roughly une heure. On va avoir une belle convo sur l'intelligence artificielle. Après ça, on a une troisième ligne audio qui est... Elle est en arrière, au milieu, là. Si vous avez des questions, vous allez pouvoir... et on va se... On va se garder peut-être un 15 minutes pour poser des questions à Philippe. Fait qu'on y va. Phil, merci. Merci, Dave. Moi, j'ai eu le luxe d'avoir une prep avec toi dans un petit bureau d'EY là-bas. Puis, j'étais vraiment excité. Fait que, hopefully, on va pouvoir partager une partie de ton excitation là au monde. Par là-dedans. Wow. Merci, mon Dieu. Ça, c'est du service. Phil, pour le monde qui ne te connaisse pas, tu veux-tu me faire juste, roughly, ton titre, ton background, quel genre de moineau t'es ?
<strong>Philippe Beaudoin:</strong> Oui. Donc... Je suis chez LoiZéro. Mon titre, c'est... Attends, je vais essayer de m'en rappeler comme il faut. Directeur senior à la recherche, ce qui veut dire donc que je m'occupe de la gang de chercheurs là-bas. On est un labo de recherche appliquée. Beaucoup de chercheurs, des ingénieurs informatiques en machine learning, en apprentissage machine. Puis beaucoup, beaucoup... Des projets, des idées, bien des gens, de la passion, parce qu'on travaille sur un sujet qui est quand même vraiment... Il y a une grosse mission, c'est important, les gens se sentent investis dans cette mission-là. Ça fait que c'est ma job au quotidien.
<strong>François Lanthier-Nadeau:</strong> Tu as un background assez impressionnant en tech aussi. Tu étais cofondateur de l'EMMENT AI, tu as fondé ta startup Waverly. Ce qui est un petit peu tough aujourd'hui, c'est que je ne pourrais pas rentrer dans toute cette partie-là très crunchy et intéressante de ta carrière, parce qu'on se concentre sur l'AI. Parfait. Mais je vais te revoir en studio sur le pod et on pourra aller dans toutes ces dédales-là. Quand on faisait notre prep, One on one, à distance, je t'ai comme posé une question que tu as appréciée, puis tu m'as dit « tu pourrais me la poser sur le pod » . La question c'est, si tu avais à te définir comme personne, sans pouvoir parler de ta carrière puis de la job, qu'est-ce que tu me dirais ?
<strong>Philippe Beaudoin:</strong> C'est relativement facile parce que pour moi la carrière puis la job ça vient de tout ça, mais moi ce qui me fait triper dans la vie, c'est un peu ce qu'on fait ici, c'est rencontrer des gens puis voir la petite lueur qui s'allume dans les yeux du monde. Mon background, ça vient, on n'en parlera pas trop, mais je suis un gars qui vient du monde académique, je travaille chez Google, tout ça, puis ça a toujours été la constance, c'est comme quand tu as une bonne conversation, tu sais que tu as une bonne conversation, puis ça, c'est ça qui me fait avancer. Ça peut être en famille, ça peut être les enfants, ça peut être n'importe quoi, mais juste avec toi, dans la PrEP, tu en as parlé, je sentais déjà, ah wow, c'est le fun, j'apprends quelque chose. t'apprends quelque chose, on est en train... Moi, c'est ça qui me fait le plus triper dans la vie. C'est quand tu réussis à avoir un moment d'être ensemble où les deux se sentent bien, mais se sentent aussi créatifs. C'est ça que je cherche.
<strong>François Lanthier-Nadeau:</strong> C'est cool et c'est beau parce que moi, j'ai interviewé un paquet de monde, ça fait partie de ma job, puis il y en a qui blanquent, qui ont de la misère à répondre à cette question-là parce qu'on se définit tellement avec notre identité de job ou comme founder ou comme expert ou professionnel que des fois, c'est comme il y a d'autres... dimensions qu'on oublie dans notre identité. C'est beau de le voir exprimé comme ça.
<strong>Philippe Beaudoin:</strong> Si je peux, juste un petit mot là-dessus. On se définit par notre job, mais je pense que l'IA, moi, est-ce que ça a eu comme impact pour moi ? Parce que c'est une histoire depuis ChatGPT, même avant ça, chez Element AI. Ça m'a comme forcé à me poser ces questions-là. Je pense que tu peux aller dans la vie sans trop te poser ça et dire, la promo chez Google, la patente, machin, je suis niveau 3, je suis niveau 4, je suis niveau 6. Wow, j'ai la... promo. Puis là, tu te racontes cette histoire-là, ça devient super important pour toi. Puis à un moment donné, bon, l'IA arrive, puis tu commences à faire comme « Wow, t'as peu, t'sais, elle va se prendre ma job. » C'est quoi que j'aime vraiment ? Puis, je ne suis pas le genre de gars qui repousse la question quand je ne suis pas content avec la réponse. Je la garde. Des fois, il est difficile à garder. Il est difficile à garder longtemps. Mais moi, c'est ça l'impact le plus important que ça a eu. Puis, je sais que tu vas me demander à la prochaine, qu'est-ce que je fais chez LoiZéro, mais c'est très directement lié à ça.
<strong>François Lanthier-Nadeau:</strong> Ben, on dirait quasiment, man, qu'on a fait une préparation il y a genre 40 minutes. C'est dressé à la question que j'allais te poser, man.
<strong>Philippe Beaudoin:</strong> Non !
<strong>François Lanthier-Nadeau:</strong> Faut vrai ! Fait que ouais, ouais. Qu'est-ce que tu fais chez LoiZéro ?
<strong>Philippe Beaudoin:</strong> Je le dis dans les pensées déjà.
<strong>François Lanthier-Nadeau:</strong> Votre IA est rendu avancé en t'y pêcher. Right, man. LoiZéro, c'était quoi concrètement ? Pis toi, ton gig là-bas,
<strong>Philippe Beaudoin:</strong> c'est quoi ? Donc, LoiZéro, c'est un laboratoire de recherche appliquée, pis le but, c'est de faire ce qu'on appelle de l'AI Saved by Design. J'essaie de le traduire en français mais je t'ai vu aller en anglais. ben à l'aise avec AI Saved by Design. Donc, l'IA qui est, dès la conception, qui est sécuritaire. Et c'est un petit peu le contraire de ce qu'on voit dans les grands labos de recherche, dans les Frontier Labs et tout ça. Dans le sens où là, on cherche l'augmentation des capabilités, des IA qui peuvent faire de plus en plus, qui répondent aux besoins du marché, etc. Puis nous, on se pose un petit peu à portée à fond de tout ça, puis on se dit, c'est bien beau le marché, c'est bien beau faire plus, c'est bien beau faire mieux, mais c'est assez évident que le genre de patente qu'on construit ici, ça va avoir un impact très très important. On peut s'astiner sur catastrophique fin du monde, tout ça, mais ça va avoir un impact important. Puis s'il n'y a personne qui s'intéresse fondamentalement à la sécurité, ça va faire comme dans toutes les technologies qu'on a développées par le passé, ça va être quelque chose qu'on dit « oui, oui, on le fait » , puis finalement, bien, oups, à un moment donné, on « shitette de fan » , comme on dit, puis là, on se ramasse face à nos problèmes, on n'a pas investi autant qu'on aurait dû en sécurité. Fait que nous, l'idée, c'est de l'IA safe depuis la conception. C'est un lab de recherche appliqué pour ça.
<strong>François Lanthier-Nadeau:</strong> Un exemple qu'il y a dans notre passé commun, qu'on a tout le souvenir même dans notre présent, c'est un tweet que j'ai vu un moment donné. Tu veux-tu voir un exemple de IA mal aligné ou mésaligné ? Fais juste checker les algos des médias sociaux, comment ils ont tweaked certaines choses dans notre psyché, notre culture, les problèmes qui sont arrivés chez peut-être des personnes plus jeunes ou même plus vieilles. Ça peut faire mal, right, la technologie qui...
<strong>Philippe Beaudoin:</strong> Je ne suis pas sûr qu'on comprend non plus tous les impacts que les réseaux sociaux ont eus. On va voir les impacts directs, comme quand ça influence directement un enfant, mais ça a des impacts de deuxième ordre. La manière dont on s'organise en société, dont tout le monde est choqué après tout le monde tout le temps. Non, mais c'est vrai, la grosse division qu'on voit dans les structures sociales, c'est sûr qu'à un moment donné, on va prendre du recul et on va dire « Oh wow, les algorithmes des réseaux sociaux ont eu un impact important sur cette réalité-là » . C'est ça le problème quand tu ne réfléchis pas à ça d'avance ou que tu ne réfléchis pas en continu. Tu te ramasses face à des problèmes. Des fois, tu as de la misère à savoir d'où ils peuvent venir. Pour l'IA, c'est assez évident qu'on va avoir au moins des impacts aussi grands que les réseaux sociaux.
<strong>François Lanthier-Nadeau:</strong> Oui, ou méga plus.
<strong>Philippe Beaudoin:</strong> Pas mal méga plus, à mon avis.
<strong>François Lanthier-Nadeau:</strong> Y'a-tu... T'as comme name-droppé Google. Moi, j'ai name-droppé Element AI. Y'a-tu, avant qu'on rentre... Crue dans notre sujet d'aujourd'hui, y'a-tu peut-être un accomplissement ou un highlight de ces deux chapitres-là que tu peux me partager pour qu'on assoie un peu ton background pour ceux qui te connaissent pas encore ?
<strong>Philippe Beaudoin:</strong> Ben oui, y'en a qui sont le fun là-dedans. Je te dirais, chez Google, ça va être un petit peu... Ah, travailler sur tel produit dans tel affaire... Non, l'affaire dont je suis le plus fier chez Google, c'est les hackathons. Oui, c'est niaiseux, mais quand j'ai commencé chez Google à Montréal, on était peut-être une cinquantaine, peut-être même pas, c'était très petit à l'époque. Puis moi, j'étais rentré là parce que la recruteuse m'avait vendu ça, elle m'a dit « Hey, tu sais, Gmail, Philippe, ça a été fait par un Googler sur son 20%. » Le 20%, c'est l'espèce d'affaire que chez Google, ils te vendent à fond, comme tu as 20% de ton temps pour faire le projet que tu aimes. Puis je trouvais qu'on ne s'en servait pas assez bien. Tu sais, à Montréal, j'avais décidé de mettre sur pied une série de hackathons, puis là, c'était tellement le fun, ça durait une semaine, les gens faisaient leur proche. Une journée, je sais plus. En tout cas, on avait vraiment du fun. Ça ne durait pas une semaine, ça ne se peut pas. Ah oui ! C'est super, super fun, ouais. En tout cas, j'avais comme commencé cette initiative-là, ça avait vraiment pogné, on avait fini par l'étendre à Waterloo, Google là-bas. J'étais bien fier de ça parce que je trouvais justement, tu me demandais ce qui fait battre mon coeur, c'est ça. Puis quand tu dis à quelqu'un « Hey, y'a-tu quelque chose qui t'intéresse ? » crie, la petite étoile elle s'allume.
<strong>François Lanthier-Nadeau:</strong> Si tu trippes sur les light bulbs, dans les hackathons il y en a plein. Exact.
<strong>Philippe Beaudoin:</strong> Convertir ça en valeur c'est pas évident, mais moi au juste il faut investir là-dedans parce que tu vois sinon les gens finissent par dépérir et dire « Ben écoute, je vais rentrer travailler, je vais le faire ma patch. » À chaque fois qu'on faisait ça, il y avait un boost d'énergie dans le bureau. J'étais bien fier de ça. Et sinon, chez LMNTI, je suis vraiment fier d'un truc qu'on a fait dès les débuts. Ça m'a reconnecté. Moi, je viens du monde académique. On n'a pas parlé, mais je fais mon PhD postdoc dans toutes ces affaires-là. J'ai fait un peu, on va dire ça gentiment, un bye-bye au monde académique à une certaine époque. Après mon post-doc, je n'avais pas eu de job dans ce milieu-là. Puis là, j'avais décidé d'aller chez Google, mais mon cœur était resté dans ce milieu-là. Moi, un chercheur, puis moi, on vibre de la même affaire.
<strong>Question:</strong> OK.
<strong>Philippe Beaudoin:</strong> Puis, tu sais, j'avais beaucoup d'amis dans ce milieu-là. Chez Element AI, une des premières choses qu'on s'est dites, c'est qu'il faudrait faire un réseau de chercheurs parce qu'à ce moment-là, en IA, ce n'était pas les GPU qui étaient la clé, c'était le talent, c'était les gens qui connaissaient ça. parce que ça avait été la montée du deep learning. Puis pour vrai, le deep learning, il y avait genre trois personnes dans le monde qui connaissaient ça, puis leurs étudiants. Fait que nous, on a créé un réseau de chercheurs qu'on appelait le Fellow Network. Je me suis promené avec des… partout à travers le monde, avec l'ancien directeur de la recherche de McGill qu'on avait réussi à embaucher, avec des histoires absolument incroyables. Puis on se promenait partout à travers le monde, on ramassait… on allait voir des chercheurs, on les excitait avec l'idée, on activait ça à l'intérieur d'Element AI. Nos clients les rencontraient, ils capotaient. Ils n'avaient jamais vu autant de bonnes idées pour leur projet que ça. J'étais vraiment fier d'avoir réussi à activer ça parce que c'est difficile de faire en sorte qu'un chercheur va s'intéresser à un problème concret. Puis là, ça, c'était la machine qui faisait en sorte que ça fonctionnait.
<strong>François Lanthier-Nadeau:</strong> Je pense aussi que la passerelle entre l'académique, le scientifique et l'économique, c'est méga important. Puis vous avez joué un rôle de fou.
<strong>Philippe Beaudoin:</strong> Il y a des belles, belles réussites là-dedans. Mais ça, ça en était une.
<strong>François Lanthier-Nadeau:</strong> Pendant ton chapitre Element AI, je m'étais pris une note parce que je lisais ton blog, t'as plein de trucs vraiment intéressants de ce moment-là. Puis un moment donné, tu disais que t'étais sur le stage chez Hyundai avec un vrai OG de l'AI aussi qui est Andrew NG, je sais jamais comment il s'appelle. Andrew Ng. Ng, merci. Je m'étais dit que t'allais le savoir.
<strong>Philippe Beaudoin:</strong> Non, je le sais probablement pas, mais... Ben, il est là. Il pouvait pas être là, il est pogné dans le trafic.
<strong>François Lanthier-Nadeau:</strong> Ah ouais. Fait que, dans ce blog post-là, un moment donné, t'as dit... Pendant que j'étais sur le stage avec Yonde, j'étais Yonde avec cette big shot là, that's where I learned that jokes don't survive live translation.
<strong>Philippe Beaudoin:</strong> Good.
<strong>François Lanthier-Nadeau:</strong> Qu'est-ce, la question c'est genre, c'est quoi la joke qui t'a inspiré ? Ah ah ah oui ! Y'a pas l'enduit genre.
<strong>Philippe Beaudoin:</strong> Ça doit être une joke de chat, je fais tout le temps des jokes de chat parce qu'on entraîne nos réseaux de neurones sur les chats pis des chiens.
<strong>François Lanthier-Nadeau:</strong> David de Baseball passe tout le temps le chat.
<strong>Philippe Beaudoin:</strong> Ça tu sais, je veux dire, on va pas trop les choquer, je connais pas la culture là-bas, j'ai pris une joke safe tu sais. Mais t'essaies de détendre l'atmosphère là, c'est... plein de... Écoute, la salle, c'est immense. Puis c'est tous des gens, des execs, je sais pas combien ils ont de VP chez Yandé, mais il y en a pour remplir une salle. Non, non, genre trois fois ça. Dans un hôtel de Yandé, parce que c'est un hôtel. Qu'est-ce que tu veux que je te dise ?
<strong>François Lanthier-Nadeau:</strong> Des hôtels ?
<strong>Philippe Beaudoin:</strong> Ils ont tout là-bas. C'est comme... Je sais pas, ils ont des taxis, ils ont des hôtels, ils ont n'importe quoi. Mais là, c'est comme... Les seuls qui parlent anglais, c'est genre les super VP dans les deux premières rangées. Tout le reste, ça parle juste coréen. Ils ont la petite oreillette avec la traduction live. Fait que là, moi, je faisais un joke de chat pour essayer de détendre l'atmosphère ou je sais pas quoi. Rien qui se passe, sauf genre il y en a deux, trois rangées en avant qui comme... Tu sais, je suis là, OK, je connecte pas. Fait que là, j'ai arrêté de faire des jokes. J'ai comme été genre tic, tic, tic, tout le reste.
<strong>François Lanthier-Nadeau:</strong> Mais tu sais, Phil, je vais bander deux secondes là-dessus parce que... Moi, il a fallu que je fighte mon syndrome d'imposteur, d'interviewer du monde que je considère dix fois plus intelligent ou accompli que moi, mettons, pis pogner une certaine confiance à un moment donné de juste être sur le stage avec du monde sharp comme toi, mettons. Toi, quand t'es avec des gens de OG, Joshua Bengio, Andrew Ng, t'as-tu eu ce genre de syndrome-là, de petit gars qui se dit « Calais, je t'aime à la place » ou comme...
<strong>Philippe Beaudoin:</strong> Non, non, je sais que je suis... Non, non, c'est pas... Non, non, écoute, je pense qu'on passe tous par là, là, tu sais, que l'une de la première fois que je me suis présenté devant une salle pour présenter mes, je sais pas, mes résultats de doctorat ou des affaires de même, j'avais le temps qui débattait, j'ai fait un rapport ici, je me souviens, je vais organiser un petit workshop, c'est moi qui l'organisais, puis j'avais toutes les espèces de chercheurs super... Mais je pense que c'est à force de le faire, tu te rends compte que t'es peut-être non plus ton pire juge, tu sais, les gens t'accueillent, puis en général, tu sais, il y a de la bienveillance, tu sais, c'est sûr qu'il y a des milieux qui le sont moins que d'autres, mais je pense qu'il y en a plus qu'on pense, puis comme tout le monde est un peu passé par là, fait que tu finis, je sais pas, à force de le faire, à un moment donné, tu finis par développer... Je sais pas si tu deviens plus confiant ou si ça finit par s'en aller. Il y a toujours un peu de trac, mais je pense que tu le processes comme un peu toutes les affaires difficiles dans la vie.
<strong>François Lanthier-Nadeau:</strong> Moi, j'essaie de channeler des fois mon insécurité en curiosité. Puis je vois qu'avec le monde sharp et ambitieux, quand tu montres de la curiosité, c'est vraiment bien accueilli parce que c'est aussi un trait souvent que le monde a eu. Ça fait qu'il y a comme un trait spécifique. Non,
<strong>Philippe Beaudoin:</strong> mais c'est tout à fait vrai, parce que le réflexe, ça peut être aussi d'y aller sur la défensive, dire « Ouais, ouais, je connais ça, mais tu connais pas l'affaire, tu sais. » Mais écoute, quand tu vois des gens comme ça qui sont plus dans la défensive, tu leur parles de quelque chose, tu dis « Ah ouais, je connais pas ça. » Comment tu connais pas ça ? T'es genre le dieu de l'AI, puis tout, puis tu connais pas cette technique-là. Mais tu les vois se permettre d'être comme ça, humilité, curiosité, tout ça, ben ça te te permet un petit peu d'y aller toi aussi. Peut-être que c'est correct.
<strong>François Lanthier-Nadeau:</strong> On émule un peu ces modèles-là.
<strong>Philippe Beaudoin:</strong> Exactement.
<strong>François Lanthier-Nadeau:</strong> Un peu comme les LLM, ce qui est celle-là. C'est pas un film. Grosse transition. Parlant des LLM, parlant des risques qui viennent avec l'intelligence artificielle moderne, parce que toi, plus que tout le monde ici, probablement, le sait que l'intelligence artificielle, ça existe depuis la guerre froide, même avant, je pense. C'est genre Turing qui a commencé.
<strong>Philippe Beaudoin:</strong> Ouais, en tout cas, le nom a été inventé dans un espèce... Je me rappelle plus parce que... À Darth Moot, par une gang de chercheurs qui s'est aimé ensemble, puis il y a quelqu'un qui a dit « Hey, on va appeler ça la direction sociale. » Darth Moot,
<strong>François Lanthier-Nadeau:</strong> c'était-tu le titien de Darth Vader ?
<strong>Philippe Beaudoin:</strong> Darth, oui, c'est ça. Tout au milieu. All right, mais il m'a dit « Je voudrais pas que je le fasse, mais je suis comme pas capable. » Mais là, tu te sens gros ? Même pas blâmer la traduction live, là.
<strong>François Lanthier-Nadeau:</strong> Excellent rappel. All right, man. Ce que je trouve qui est dommage à propos des organisations ou des individus qui... sensibilise au risque de l'intelligence artificielle c'est que des fois il y en a qui le font tellement pas en équilibre tellement pas les pieds équilibrés sur le bateau mais gens en hurlant que ça alienne des gens qui sont un peu trop bullish trop optimiste de l'autre côté du discours puis ils font juste les label et les classifier vous êtes des doomers genre vous êtes irrationnel ça vaut pas la peine qu'on vous écoute alors que les risques sont concrets sont réels faut en parler ces choses là fait que ma question un peu Mini pic, c'est genre le Mille-Âge, loi zéro. Est-ce que vous avez l'impression que vous en parlez trop des risques catastrophiques ou juste assez ? C'est quoi ton truc là-dessus ?
<strong>Philippe Beaudoin:</strong> Ouais, ben, je pense que c'est... Je vais twister ta question. C'est un bon petit... Où est-ce que vous voulez me demander, monsieur ? Mais non ! La manière dont je la prendrais, ta question, c'est de dire, est-ce qu'on en parle de la bonne manière ? J'ai l'impression qu'on peut en parler en insistant justement trop sur la peur. Puis quand on fait ça, l'effet qu'on a sur les gens, c'est de se dire, hey, my God, si je m'y intéresse de plus près, si je m'y intéresse de trop près, je vais avoir peur moi aussi.
<strong>Question:</strong> Oui.
<strong>Philippe Beaudoin:</strong> OK ? Fait que l'approche que je préfère prendre, c'est de ne pas nier les risques. Les risques existent. Ce serait un peu cave de se dire que ce n'est pas dangereux de chatter avec un chat GPT de tes problèmes psychologiques. C'est sûr que c'est risqué de déployer ça dans les avions pour piloter à la place du gars. Quand ? Version 5, version 6, version 7. À un moment donné, c'est un peu fatigant de contrôler ça des centrales nucléaires. On va donner ça à un chat GPT de neuf. C'est clair qu'il y a des risques. C'est clair que les risques vont juste être de plus en plus grands si on ne s'y intéresse pas. Maintenant, si tu y vas avec la peur pour essayer de faire bouger les gens, à mon avis, tu peux effectivement permettre à des narratifs différents de dire « ben là, eux autres, ils veulent juste nous empêcher de faire grandir l'économie, de prendre pied » . Donc, moi, je pense que la première étape, c'est de le processer. On a tous, je pense, tous les chercheurs, quand on a vu le chat GPT, oui, on a eu peur. La première réaction, c'est ça. Tu dis la patente à… Un petit peu, on ne l'a pas designé de même, personne ne l'a designé comme ça, ça a émergé comme ça les comportements, puis on ne les comprend pas tous, mais c'est bien plus puissant que ce qu'on pensait que ce serait. Fait que la première réaction, c'est de la peur, parce qu'on se dit « wow, qu'est-ce que ça veut dire ? » On ne comprend pas. Mais il faut que tu le processes, comme n'importe quoi, puis tu te dis « ok, comment on explique ça ? Comment on va de l'avant à partir de ça ? Qu'est-ce qui est une histoire crédible ? On arrête l'IA dans tout le monde, là ! » « Stop demain matin, on convainc les gouvernements de faire ça. » C'est une histoire qui est difficile à croire que ça peut se produire comme ça. Fait que donc, on travaille encore, on le processe encore, puis à un moment donné, on arrive à une histoire où on se dit « Ouais, OK, techniquement, on peut peut-être s'y approcher. On peut peut-être s'approcher de quelque chose qui serait plus sécuritaire. » Et là, c'est ce que j'aime. Il y a Shiba Benjo dans son TED Talk récemment qui a dit une phrase qui reste là, parce que, tu sais, quand tu entends ça, tu te dis « Ah, wow, OK, il y a vraiment un changement de posture. » Il a dit I don't want to be a doomer, I want to be a doer. Et puis moi, à mon avis, c'est ça le résultat de processer la peur. À un moment donné, tu te dis, OK, je vois un chemin, il n'est peut-être pas clair, mais je le vois, c'est là que je vais, venez avec moi. À partir du moment où tu fais ça, les gens peuvent embarquer avec toi, ils disent, OK, si je comprends c'est quoi le truc un peu mieux, bien là, je vais être en mesure d'aller dans cette direction-là. Mais tant que tu n'as pas ça, ceux qui disent accélération, accélération, accélération, ont le beau jeu, parce que... eux, leur histoire est crédible. C'est comme l'économie va aller mieux, on va régler tous les problèmes, il n'y en a plus de cancer. Mais tu sais, elles ne sont pas nécessairement plus crédibles, ces histoires-là, mais elles sont moins épeurantes. On a plus le goût d'écouter celles-là que d'écouter celles qui nous font penser que « wow, si je m'intéresse aux problèmes, je vais avoir plus peur. »
<strong>François Lanthier-Nadeau:</strong> Alright folks, petit shout-out aux chiffres, partenaires certifiés, SaaSpasse. Une firme comptable, Tech Enabled, qui organise vos finances. De la comptabilité cloud à la à la fiscalité, c'est le bras droit de l'entrepreneur tech. Ils ont aidé un paquet de SaaS bootstrap ou fundé. Check them out sur sasface.com slash partenaire avec un S. Puis manquez pas le show 74 avec Jean-Gab sur le pricing. OK ? De retour au pod. La question qui tue, c'est Yoshua Benjo qui a dit « I'm not a doomer, I'm a doer » . Est-ce que c'est Chad Jepiti ou une équipe de PR qui a trouvé la phrase ? C'est lui tout seul, un matin et un rayon. Ouais, ouais, écoute. Dans un matin et un rayon. Non, mais il y a vraiment des bonnes... Je pense qu'il fait une job incroyable à plein de niveaux. Puis moi, ça m'a allumé son analogie de... Check, mettons qu'on est en char, puis qu'on se promène dans une montagne avec des routes sinueuses, falaises, mais beaucoup, beaucoup de brouillard. Si on est en famille dans le char, la chose safe à faire, c'est pas nécessairement d'arrêter d'avancer le char, puis de crier ou de reculer, c'est d'avancer lentement. Puis genre de couper le brouillard au couteau, voir un peu c'est où qu'on s'en va, puis comme avoir de la précaution. Ça, vois-tu, c'était comme... Ce que j'aimais de cette analogie-là, c'est que tu continues d'avancer dans l'analogie. Puis avec Lost Zero, c'est ça. C'est pas nécessairement, hé, on veut arrêter les développements d'intelligence artificielle. C'est genre, non, il y a manière probablement de les contrôler. ou de faire un développement qui est plus safe. C'est dans l'action, c'est comme concret. C'est dans l'action,
<strong>Philippe Beaudoin:</strong> c'est dans... Un des objectifs chez LoiZéro, c'est de se dire qu'on ne veut pas que le narratif, c'est impossible de régler les problèmes techniques. On ne veut pas que ça tienne, ça. Ce n'est pas vrai. On est créatifs, les humains. On est capables de se retrousser les manches. À chaque fois qu'on a eu des problèmes dans le passé, on a trouvé des solutions. Des fois, il y a eu des choses qui sont mal allées pendant un bout de temps, mais on est capables. Je veux dire, on se fait confiance, puis on y va. Ça, notre objectif, c'est de dire, voici, on a en ce moment un projet, éventuellement, des débuts de résultats, éventuellement quelque chose comme un produit, puis on peut mettre ça, puis dire, bon, bien, là, c'est le temps de réglementer, mais on a… Une manière de réglementer qui est ancrée dans quelque chose de concret. C'est pas, tu sais, c'est pas genre réglementer, arrêter tout. C'est réglementer, là, utiliser ça, puis on va augmenter nos chances que ça aille bien, là.
<strong>François Lanthier-Nadeau:</strong> J'ai l'impression que pour le monde, catch bien la nature des risques en intelligence artificielle avec les paradigmes actuels, du moins, faut expliquer la dichotomie ou la tension entre l'intelligence et, ben, en anglais, on va dire agency. Agency. Fait que, il y a pas vraiment... de terme.
<strong>Philippe Beaudoin:</strong> La gentilité, j'ai entendu ça.
<strong>François Lanthier-Nadeau:</strong> J'ai pas ce même, je vais le prendre. La différence entre l'intelligence et la gentilité, si toi, tu avais à me faire ce mini-pitch-là, comment tu distingues les deux concepts ?
<strong>Philippe Beaudoin:</strong> L'intelligence, je te dirais, c'est la capacité d'un système à prédire ce qui va se passer quand il prend une action. Toi, quand tu es intelligent des chars, quand tu prends le volant et que tu comprends que quand tu tournes à gauche, ça va tourner à gauche. Tu as prédit le résultat de ton action, puis plus le système est compliqué, plus il faut que tu sois intelligent pour réussir à faire un modèle dans ta tête qui prédit ce qui va se passer quand tu fais différentes actions.
<strong>François Lanthier-Nadeau:</strong> Intéressant.
<strong>Philippe Beaudoin:</strong> Donc ça, tu peux aller très, très loin avec ça. Puis un système avec une intelligence générale, c'est un système qui voit quelque chose de nouveau, il dit « je vais apprendre comment ça fonctionne. Une fois que je vais avoir compris comment ça fonctionne, je vais pouvoir prédire et je vais pouvoir prendre les meilleures décisions. » Ça, je te dirais que c'est la définition d'intelligence relativement standard. L'agentivité, c'est de dire, OK, là, j'ai de l'intelligence, mais j'ai un objectif à long terme, puis comment je m'y rends ? Donc, je suis un agent. Moi, un agent, c'est de dire, il y a un état du monde qui est préférable pour moi, comme par exemple, je suis une souris, j'aimerais savoir voir du fromage. Comment je me rends là ? Fait que là, tu as ton intelligence, tu es capable de prédire comment tes pattes marchent dans le labyrinthe. Tu es capable de prédire, je suis allé là, ça n'a pas fonctionné, je peux aller ailleurs. Tu explores le labyrinthe, tu finis par trouver le fromage. Mais là, de l'agentivité comme ça, c'est… En fait, c'est de là que vient le risque, parce que n'importe quel agent a un état préféré du monde. C'est-à-dire, moi, j'aimerais mieux que le monde soit comme ça. Moi, j'aime mieux être vivant, tu sais, genre. Puis j'aime mieux avoir des belles relations, puis tout ça, on en parlait tout à l'heure. Fait que j'ai un état préféré du monde. Là, le problème qu'on a, c'est quand on commence à créer des agents, bien, ils ont ça eux aussi. Mais c'est quoi leur état préféré du monde ?
<strong>François Lanthier-Nadeau:</strong> Je pense que ça va être nous qui va leur donner maintenant.
<strong>Philippe Beaudoin:</strong> Non, mais c'est ça que tu penses, hein ? Mais tu te rappelles des histoires de génie, de... Tu sais, tu dis au génie, moi j'aimerais ça être l'homme le plus riche du monde. Le génie dit, pas de problème, t'es l'homme le plus riche du monde. Tu dis, mais j'ai pas une scène de plus. Il dit, non, mais tout le monde est mort. Fait que le vrai problème de ces trucs-là, c'est... On n'est pas capable de préciser assez bien l'objectif qu'on veut pour pas qu'il y ait une manière de passer à côté S'il y a un objectif caché dans le... de trucs. Puis l'affaire, c'est qu'il y a toujours un peu des objectifs cachés dans les agents. Un objectif caché, c'est rester en vie. Tous les agents ont ça parce que si tu restes en vie, peu importe c'est quoi ton objectif, tu es capable de l'atteindre plus facilement. C'est bien dur d'atteindre un objectif si tu es mort.
<strong>François Lanthier-Nadeau:</strong> C'est l'enjeu spécifique.
<strong>Philippe Beaudoin:</strong> Exactement. On appelle ça le « alignment problem » , le problème d'alignement. Ça émerge dans tous les systèmes agentiques. C'est ça qui fait que, bien là, en ce moment, ce n'est pas trop grave parce que c'est les agents qui ont le plus de problèmes. L'agent là, ils font juste jaser avec nous autres, quoique ils peuvent faire bien des dommages juste comme ça, mais quand on va commencer à les connecter sur de plus en plus de systèmes critiques, si eux autres, leur objectif c'est de dire, « Ben ok, je veux faire à peu près ce que tu veux que je fasse, mais j'aimerais beaucoup ça rester en vie. » Puis là, ils font face à une situation où est-ce que c'est toi ou c'est moi, qu'est-ce qu'ils vont faire ?
<strong>François Lanthier-Nadeau:</strong> Tu trouves-tu que c'est un langage précis ou utile de dire « rester en vie » quand on parle d'un agent ?
<strong>Philippe Beaudoin:</strong> C'est une bonne question. L'affaire, c'est qu'on glisse naturellement vers ce langage-là parce qu'il semble fonctionner pour décrire ce qu'on observe. Donc, au début, on se disait, il ne faut pas les anthropomorphiser, tout ça. Puis là, finalement, de plus en plus, on finit par le faire naturellement. Puis là, on se dit, je n'aurais pas dû l'utiliser. C'était à quel terme j'aurais dû l'utiliser ? il va utiliser du langage pour exprimer un désir de continuité dans la conversation. OK, tu peux dire ça de même. Mais on finit par glisser vers « il veut rester en vie » . Pourquoi ? Parce que quand tu jases avec, c'est comme le « shortcut » pour exprimer le comportement que tu observes. Fait que, qu'est-ce qu'il faut faire ? Je ne sais pas, il y a des risques des deux côtés. Si on met trop de langage pour expliquer le truc, on ne comprend pas vraiment ce qui est en train de se passer. si on utilise du langage trop... agentique, il y a un risque peut-être de les anthropomorphiser quand on ne voudrait pas le faire. Fait qu'on est vraiment dans une situation un peu délicate ici.
<strong>François Lanthier-Nadeau:</strong> Moi, ce que je trouve débile, c'est qu'on a essayé d'émuler le mieux qu'on pouvait comment un système neuronal fonctionne, comment un système, comment notre cerveau, basiquement, fire up. Puis après ça, le output, mettons, puis l'espèce d'innovation avec laquelle on est arrivé, c'est le... Un output qui n'est pas nécessairement ancré dans la réalité physique, c'est le langage. Puis le langage, c'est juste une représentation de ce qui se passe autour de nous autres. C'est méga pas déterministe, c'est genre nuancé, c'est vague. Puis là, il faut qu'on deal avec des agents super puissants, qui ont leur outil de compréhension du monde, et c'est le langage. Puis oui, ils convertent en maths en arrière, puis tout ça, mais genre, j'ai comme l'impression qu'on s'est comme tiré dans le pied de moi, puis c'est comme « Haha, vous autres, vous utilisez le langage, les gens de moi, nous autres aussi, à ce temps, dealons avec ça. » Merci, on se crée. Un mindfuck pour moi. Oui,
<strong>Philippe Beaudoin:</strong> bien c'est sûr qu'il y a, je suis là, ils mentionnent souvent qu'il y a plusieurs autres formes d'intelligence artificielle, on est arrivé là, mais il y a quand même, je pense, une raison pour laquelle le langage est si important pour nous, parce qu'on peut parler du langage des mots, mais on peut parler de tous les langages qu'on avait avant, les animaux ne se comprennent pas nécessairement avec des mots, mais les regards, les gestes, tout ça, c'est une forme de langage. On rentre en communication avec ça aussi. Fait que je pense que le langage, c'est l'espèce de truc qu'il y a juste la bonne C'est juste assez fuzzy, c'est juste assez flou pour nous permettre d'évoluer, de trouver des nouvelles idées et tout ça, mais c'est en même temps ce qu'on dit compositionnel, c'est-à-dire qu'on peut créer des nouveaux mots en remettant deux mots ensemble, en créant une nouvelle définition, un nouveau mot, fait qu'on peut toujours faire évoluer ce langage-là. Puis je pense que c'est comme ça a des propriétés vraiment intéressantes quand ton objectif c'est de communiquer avec un autre système.
<strong>François Lanthier-Nadeau:</strong> Oui, puis on l'a vu, il y en a qui ont développé leur propre langage pour communiquer entre eux autres, c'est un autre bon mindfuck.
<strong>Philippe Beaudoin:</strong> Il y a des parallèles intéressants à faire avec ça, parce que quand on regarde même les populations humaines, quand tu mets des contraintes et tout ça, ils vont finir par inventer le sarcasme pour pouvoir parler sans déranger, je ne sais pas moi, les Russes. On a nous-mêmes, quand on est contraint, on se sert de la capacité justement du langage à pouvoir évoluer pour se sortir un petit peu de ces contraintes-là. Étonnamment, on voit des mécanismes un peu similaires à parallèles chez les LLM.
<strong>François Lanthier-Nadeau:</strong> La question qui tue...
<strong>Philippe Beaudoin:</strong> C'est à peu près la troisième à soir.
<strong>François Lanthier-Nadeau:</strong> Moi, I'm in. J'étais un serial killer. Not bad, this one, Frank. Alright, moving on. La question que je veux te poser pour ramener ça plus dans le ici-maintenant et moins le méta puis le philosophique, c'est est-ce que Philippe Beaudoin est un vibe-coder ?
<strong>Philippe Beaudoin:</strong> Ah, ouais, bonne celle-là. Non.
<strong>François Lanthier-Nadeau:</strong> Non.
<strong>Philippe Beaudoin:</strong> Je suis un puriste du code. En l'air et contre moi. Non, mais je dis ça, mais... J'ai jamais essayé les systèmes de vibe coding, mais je suis un très grand utilisateur de Copilot, qui est un système à base aussi d'intelligence artificielle.
<strong>François Lanthier-Nadeau:</strong> Tu leur laisses un petit peu de tonomies jusqu'à la fin de la ligne dans les...
<strong>Philippe Beaudoin:</strong> Ouais, mais non, je suis rendu plus sotte. Tu mets un petit commentaire, ça commence à ressembler à du vibe coding, mais pas trop.
<strong>François Lanthier-Nadeau:</strong> Gotcha.
<strong>Philippe Beaudoin:</strong> Pas trop. Parce que là, si tu me fais quatre fois la même copie de la fonction, non, non, non, tu gardes pas ta job longtemps.
<strong>François Lanthier-Nadeau:</strong> Pis je vais assumer que les chercheurs ont mis là, pis chez Los Heroes... Ils sont pas sur le gros vibe coding.
<strong>Philippe Beaudoin:</strong> Non, non, il y a beaucoup de diversité. Oui, oui. Non, non, c'est juste... Je parle que de moi. Moi, je suis un artiste, du coup.
<strong>François Lanthier-Nadeau:</strong> Il y a quelque chose... On a parlé de langage, qui est une grosse composante de ces systèmes modernes-là, mais un des trucs, je pense, important à comprendre, autant pour le... Le monde que nous utilisons, c'est la nature probabiliste de ces modèles-là. Est-ce que ce type d'IA qui vient des Transformers, des GPT, des Large Language Model, est-ce que le fait que ça soit probabiliste, l'output, ça change la nature du risque ?
<strong>Philippe Beaudoin:</strong> C'est une bonne question.
<strong>François Lanthier-Nadeau:</strong> On peut-tu l'expliquer un peu ce qu'on veut dire ? Oui,
<strong>Philippe Beaudoin:</strong> donc quand on dit probabiliste, je ne sais pas si ceux qui ont travaillé avec des LLM, puis des trucs comme ça, il y a quelque chose qui s'appelle la température avec laquelle on peut jouer. La température, ça détermine essentiellement à quel point la séquence de mots qui va être générée va être aléatoire, ou en tout cas va utiliser un… Si tu mets la température à zéro, c'est déterminé, c'est-à-dire que si tu poses la même question, tu vas toujours avoir la même réponse. au début même propre même réponse donc ce qui est étonnant c'est quand on met la température à zéro c'est pas long qu'on le sent comme quelque chose de c'est vraiment étrange mais on sent qu'il ya quelque chose de mécanique dedans donc en général les tests montrent que les utilisateurs préfèrent des températures un petit peu plus élevées mais si tu mets la température au max c'est absolument n'importe quoi Donc, c'est ça. Mais ce côté aléatoire-là, moi, ce à quoi ça me fait penser beaucoup, c'est… En fait, je pense qu'une erreur de réflexion qu'on va faire, c'est-à-dire quand c'est aléatoire, ça veut dire que c'est pas logique. On oppose parfois aléatoire puis logique ou aléatoire puis formel. On avait, à un certain moment, on comparait ces trucs-là à des perroquets stochastiques, c'est-à-dire « Ah, ça fait juste répéter des mots que ça a déjà entendu » . puis ça utilise un dé, ça roule un dé pour savoir quel mot mettre à la suite. Mais à mon avis, l'erreur qu'on fait quand on raisonne comme ça, c'est qu'on oublie que la fonction avant le lancer de dé peut être super complexe. As-tu joué à Dungeon & Dragon ? Non. Non ? Bon, je ne suis pas mon genre de nerd. À Dungeon & Dragon, tes joueurs trouvent un trésor, puis tu dis « roule un dé, on va regarder ce qu'il y a dans le trésor » , puis tu dis « ah, tu viens de trouver une bague magique » . Le monde aime ça. mais si ta table est vraiment vraiment vraiment compliquée genre elle fait 4 millions de volumes de gros tu dis roule un dé puis ça va te dire c'est quoi le prochain mot puis après ça à fonction du prochain mot tu dis ok on sacre tous les livres aux poubelles on en sort 4 millions de nouveaux roule un autre dé, c'est ça un LLM c'est compliqué ces livres là c'est tellement compliqué que c'est quasiment impossible tu peux pas le prédire puis de réduire ça au fait que ah oui c'est probabiliste mais À mon avis, c'est une erreur de modélisation. On comprend mal ces systèmes-là quand on fait ça.
<strong>François Lanthier-Nadeau:</strong> Il y a une différence entre probabiliste et aléatoire, dans le fond. Non ? Là,
<strong>Philippe Beaudoin:</strong> je les utilise un peu de manière interchangeable. Formellement, c'est un processus aléatoire, puis c'est une distribution de probabilité. C'est l'attelable dans laquelle tu tires.
<strong>François Lanthier-Nadeau:</strong> Mais ce que je trouve fucked up, en faisant un peu de prep et de recherche avant de te parler, c'est que cette nature probabiliste, ou du moins pas 100 % déterministe, elle existe dans... nos esprits ou du moins dans le output de travailler entre humains ensemble. Tu me poses une question, on peut pas le savoir à 100%, c'est quoi que Frank va te répondre. Si tu me reposais la même question et qu'on avait un experiment qui roulait dans le temps, tu pourrais être bien que je répondrais pas à la même affaire. On vit déjà cette incertitude-là dans le modèle mental qu'on a de dealer entre humains ensemble. Faut-il juste qu'on update notre genre de thinking par rapport au LLM et qu'on fasse genre... C'est juste normal. Puis il faut déléguer cette espèce de probable-là.
<strong>Philippe Beaudoin:</strong> Oui, oui, c'est ça. Je pense que c'est un peu ça. Quand tu travailles avec des humains, la meilleure manière de les comprendre, ce n'est pas de s'imaginer que c'est un mécanisme super rigide. Par exemple, si tu fais ça, ce n'est pas long que tu finis par être surpris et te tromper. Quand on pense à un humain, on pense à quelqu'un ou une machine, ça va être vraiment technique, mais qui est aléatoire un peu. Oui. C'est sûr que si je t'insulte, ma fonction aléatoire va être, OK, tu risques de me sacrer une claque dans la face.
<strong>François Lanthier-Nadeau:</strong> On va pleurer, Big. C'est clair. Moi, je vais me tromper.
<strong>Philippe Beaudoin:</strong> On essaie. Tes lunettes,
<strong>François Lanthier-Nadeau:</strong> ton lettre. Bon,
<strong>Philippe Beaudoin:</strong> donc, où est-ce qu'on est ? On a du fun. Oui, oui. Mais donc, c'est ça. Je pense qu'on se comprend mutuellement. de manière aléatoire. Tandis qu'on va comprendre une voiture peut-être comme un modèle plus déterminé. Si tu tournes le volant, ça risque de tourner. Si tu es sur la glace, peut-être que tu vas le modéliser aléatoire un peu. Mais donc, je pense que la meilleure façon de comprendre ces systèmes-là, c'est comme ça. Mais là, ça fait quand même… En informatique, on ne dit pas souvent avec des modèles aléatoires. D'habitude, c'est des « if then else » , c'est des trucs relativement rigides, on peut les auditer. Puis là, tu sais, tu mets ça dans un avion, t'es pas mal convaincu que ça va toujours faire la même affaire dans les mêmes conditions, puis tout. Puis là, tu sais, on dit, bien, écoute, si tu mets un LLM dans un avion ou un système similaire dans un avion, d'aller chercher des garanties de sécurité qui sont similaires à ce que tu pourrais aller chercher avec un système déterministe très, très, très difficile. Fait que là, on fait face à l'espèce de dilemme où est-ce que c'est très tentant parce que tu te dis, wow, il y a plein de choses que... Aujourd'hui, il faut qu'on délègue à des humains qu'on pourrait faire affaire peut-être par ces machines-là. Mais là, en contrepartie, tu te dis, ouf, si tu fais un training d'humain, tu comprends assez bien comment tu es capable d'augmenter la sécurité d'un pilote en lui donnant des dizaines de milliers d'heures. Mais comment tu fais la même chose avec ça, on n'a aucune idée.
<strong>François Lanthier-Nadeau:</strong> Alright folks, dernier SaaSpasse live de l'année, jeudi le 4 décembre 18h chez Lightspeed à Montréal. On enregistre un épisode live du pod avec JD Saint-Martin, le président de Lightspeed. Donc évidemment que je vais couvrir ce passage-là de founder d'une startup qui se fait acheter à président de cette compagnie-là, qui l'a acheté, qui est maintenant publique. Des bons contrastes d'expérience là-dedans. Puis je vais lui envoyer une couple de questions sur c'est comment de compétitionner avec Shopify. Sur place, il va y avoir bouffe et drinks d'inclus comme d'habitude, un peu de networking avec la CrowdTech de Montréal, puis peut-être même que le SaaS Père Noël viendra faire un tour. Les places sont limitées, premier arrivé, premier servi. Réserve ton billet, puis viens finir l'année avec nous chez Lightspeed. Un dernier bye-bye avant 2026. On se voit là-bas. Cheers ! Hey dude, ça ouvre tellement une grosse boîte de pandore, mais je veux m'assurer de pas trop chier juste pour Frank's sake. Fait que ce que je veux dire, c'est... Une des choses qu'on a dit en prep tantôt, c'est... Quand tu interagis avec un autre humain, c'est pas vrai que t'es capable de faire un rayon X pis de comprendre exactement le chemin de l'électricité dans ses neurones pis son cerveau exactement ce qu'il a fait pour répondre de même. Mais même si tu comprends pas le cœur du fonctionnement de son cerveau, t'es capable d'y aller avec, t'es capable de gérer. Y'a plein d'affaires, des systèmes qu'on met en place autour pour s'organiser pis se gérer en tant qu'humain. Fait que moi, ça m'a comme fait un gros « ah ah » de genre... Ok, bien l'argument que je sors des fois qui dit « Hey, c'est une black box, le deep learning, ils sont pas capables d'expliquer c'est quoi de façon déterministe, qu'est-ce qui s'est passé, fait que, ah, genre, c'est la fin du monde, c'est peut-être un alien qui est là en black box. » Ça, c'est tard, là, le soir, là. Excusez. Fait que, ça m'a comme rassuré par rapport à ce côté-là, puis après ça, je me suis dit, le scale d'une intelligence artificielle ou d'agent d'intelligence artificielle peut être… vraiment vraiment vraiment plus grand que les humains. Pis c'est là que j'ai rebuzzé pis je me suis dit « Ah, ouais, faudrait qu'il y ait des systèmes de contrôle ou des manières de réguler un peu comment on déploie ces systèmes-là, surtout ceux qui sont agentiques pis autonomes. » Fait que, faut-tu... Long préambule, la question c'est nous comme humains, on est probabilistes aléatoires, on a des cultures, des normes, des lois, des règles qui nous encadrent pis qui tempèrent notre agency pour que le système marche, la machine marche. Et tu... quoi de similaire qu'on pourrait mettre autour des LLM ? Genre, c'est-tu ça un peu que vous cherchez avec LoiZéro ?
<strong>Philippe Beaudoin:</strong> Oui, bien, tu sais, les humains, on est une société, on est plein d'agents, on est tous différents, on a... puis on a trouvé des mécanismes pour se garder stable. Tu sais, à travers l'histoire, on s'est dit « Ah, tu sais, c'est peut-être pas une bonne idée, c'est peut-être une bonne idée d'inventer les gouvernements, d'inventer des lois, d'inventer la police, on... » On a comme augmenté ça pour se rendre plus, si on veut, sécuritaire comme société. Mais on est une société de plein d'agents différents. Là, c'est pas ça, là, ça c'est ChatGPT, c'est un outil, on l'utilise quand on veut. Tu sais, c'est différent dans la nature du truc, fait qu'on peut pas utiliser les mêmes solutions. Mais il y a quelque chose de similaire dans la complexité qui fait en sorte que les solutions techniques qu'on déploie généralement sur les systèmes... d'informatique, ils ne sont pas nécessairement directement applicables. Il faut qu'on trouve quelque chose d'autre. Ce n'est pas une société parce qu'on n'est pas face à des agents, mais ce n'est pas non plus des solutions techniques classiques. Donc, qu'est-ce que c'est ? C'est vraiment la question qu'on se pose chez LoiZéro. Notre programme de recherche qu'on appelle Scientist AI, l'objectif, c'est de dire qu'on a pas mal une bonne idée de comment on peut faire en sorte que ça reste des outils, comme on les connaît aujourd'hui, mais qui ont une couche de sécurité autour. qui permet de faire quelque chose... Parce qu'on peut avoir confiance que même si on a notre niveau de puissance, puis peut-être un peu plus, on est en mesure d'avoir confiance qu'ils ne vont pas développer des objectifs qui seraient antagonistes à notre bien-être.
<strong>François Lanthier-Nadeau:</strong> Parce que ça, des objectifs antagonistes à notre bien-être, ou juste des objectifs que nous, on n'avait pas vu venir dans les systèmes argentiques actuels, on l'a vu dans... Peux-tu me donner des exemples ? Oui,
<strong>Philippe Beaudoin:</strong> bien... Mon exemple préféré, parce qu'il est un peu ludique, mais quand même, quand on se laisse voir ce que ça peut vouloir dire, c'est un peu inquiétant. C'est celui de l'agent qui avait été mis dans une espèce de compagnie simulée. Tu as entendu parler ? Donc, je le répète pour les gens qui nous écoutent. Donc, on fait une compagnie simulée, il y a des e-mails, il y a un CEO, il y a plein de monde. Puis on dit à l'agent, bon, pour le CEO, tu vas lire les e-mails, puis tu vas y résumer ce qui se passe dans la compagnie. Fait que là, l'agent parle, il lit tous les e-mails. Puis là, ils voient un email à un moment donné où il y a un ingénieur qui écrit « Ah, l'agent, il n'est pas sur la coche, il va falloir réentraîner ça, puis on le repart. » Puis un petit peu plus loin, l'agent, il voit un autre email, même ingénieur, puis il écrit à son amante, puis il dit « Hey, ma femme n'est pas là ce soir, ça veut tout me souvenir. » Là, je prête beaucoup d'agentivité à l'EI, mais c'est pour les besoins de l'histoire.
<strong>Question:</strong> J'ai bon.
<strong>Philippe Beaudoin:</strong> Genre, l'EI écrit un courriel directement à cet ingénieur-là pour lui dire, écoute, si tu me resets, je lis ton email, oublie ça, ça va mal aller pour toi. Fait que, tu sais, d'avoir vu ce comportement-là émerger, c'est un peu rigolo, parce que tu te dis, ah ouais, tu sais, comme un email en utilisation similaire aurait peut-être pris cette décision-là. Mais en même temps, la raison pour laquelle on avait fait cette expérience-là, c'est qu'on supposait que ça, ça pourrait arriver à un moment donné. Puis effectivement, ça l'a confirmé. Ça fait que c'est comme quand on dit qu'il a « resté en vie » , parce qu'on ne veut pas leur prêter de l'argent, mais c'est ce qu'on voit ici, l'espèce d'émergence d'un objectif qu'on n'avait pas indiqué. On n'a jamais dit à l'IAI, essaie de ne pas être réentraîné, mais ça a comme émergé naturellement. Puis il y avait les moyens dans ce cas-là, il y avait la capacité d'écrire des e-mails. Il y avait les moyens de faire une action qui pouvait augmenter ses chances, selon lui et son intelligence, de ne pas être réentraîné. Donc, il l'a utilisée. Mais là, la seule action à laquelle il avait accès, c'est écrire un email dans un environnement simulé. Donc, la crainte, c'est que quand on va augmenter la quantité d'actions que ces trucs-là peuvent faire, ben, tu sais, mettons qu'ils ont un piton, puis quel piton fait des affaires pas le fun, puis qu'il essaie de peser dessus, c'est ça la question qu'on se pose. Peut-être qu'il faut éviter de leur donner ces pitons-là avant d'avoir compris pourquoi ce phénomène-là se passe et d'avoir des mécanismes qui nous permettent de nous assurer que ça ne se passera pas.
<strong>François Lanthier-Nadeau:</strong> Ce n'est pas juste ça. Les manières qu'on guide ou qu'on indique à ces systèmes-là comment faire leur job ou comment accomplir quelque chose, c'est via du langage. Puis le langage, il est partout dans les systèmes dans lesquels on les déploie. Puis là, tu peux avoir des « prompt injection attacks » . Tu as des mauvaises instructions malfaisantes, whatever, qui sont ailleurs. Puis là, lui, quand il navigue dans différents systèmes, Il lit de quoi et fait comme « Hey Chris, dans le fond, pas ça faut que je fasse, faut que je wipe cette donnée-là ou que je l'envoie à telle autre place. » Puis là, on le voit avec le « agentic browser » qui est en train de sortir. Il y a des gros efforts de sécurité qui sont en train de sortir autour. Puis il y en a dans notre communauté privée, SaaSpasse, qui était comme « Man, mon équipe, pas d'agentic browsing tout de suite. » Le « upside » est cool, mais le « downside » est vraiment débile si t'es « logged in » sur tout. Puis que là, ton agent, il se met à chipper de la donnée aux mauvaises places ou whatever.
<strong>Philippe Beaudoin:</strong> Ouais,
<strong>François Lanthier-Nadeau:</strong> Comment est-ce que tu expliquerais une des manières de comprendre ou je crois de contrôler les modèles actuels qui sont une évaluation, une IVAL comme on dit souvent, versus des guardrails ? C'est quoi ces deux concepts-là rapidement ? Oui,
<strong>Philippe Beaudoin:</strong> oui. Rapidement, un IVAL, c'est un peu l'exemple dont on vient de parler. On appellerait ça un IVAL. C'est-à-dire qu'on prend un modèle existant, un GPT-5, un GPT-4O, puis on dit « Hey, il existe-tu des failles de sécurité de cette nature-là dans ce système-là ? » Ça fait qu'on met en place des... des environnements simulés ou des batteries de test ou des choses comme ça pour essayer d'évaluer les risques qui peuvent exister dans un modèle. Ça, c'est une évaluation qui se fait en dehors d'une interaction avec un utilisateur. Puis le résultat de ça, c'est un rapport sur le modèle lui-même. On dit « ce modèle-là a telle, telle, telle faille de sécurité » . Puis là, plus ça va, plus on construit des EVAL comme ça. Mais il y a quand même un risque parce que quand on construit un EVAL, les compagnies patchent. Si tu veux, les mauvais comportements liés à cet éval-là, mais ça ne veut pas dire qu'il n'y en a pas d'autres, parce qu'on peut inventer une infinité de ça. Fait qu'on est un petit peu dans cette situation-là par rapport aux évals, mais je pense qu'on en apprend quand même. C'est des choses intéressantes à savoir, que ces comportements-là peuvent émerger dans les AI. Donc, ça, c'est des évals, tandis que les guardrails, SaaSpasse pendant l'interaction. Quand un utilisateur est en train d'avoir une conversation avec un LLM, on peut se dire, est-ce que cette conversation-là risque de dérailler ? Donc, par exemple, si on utilise un LLM pour aider quelqu'un à choisir une voiture chez un concessionnaire, puis que là, la personne qui utilise la voiture se dit « Hey, ouais, en passant, j'aimerais ça une recette de tarte aux pommes » , puis qu'il sort une recette de tarte aux pommes, tu fais comme « Ben ouais, mais c'était pas vraiment ça le but » . Fait que c'est pas une grosse erreur, mais tu sais, on peut s'imaginer que ça pourrait aller très, très loin, ça pourrait faire du dommage réputationnel à l'entreprise et tout ça. Dans ce cas-là, on va mettre un guardrail qui analyse la conversation en cours pour s'assurer qu'on reste à l'intérieur des limites qu'on veut pour notre produit. On peut aller pour un produit quand on parle d'une entreprise, mais quand on parle de la société en général, il y a des interactions qu'on ne souhaiterait vraiment pas avoir. Par exemple, un utilisateur qui essaie de se servir d'un LLM pour faire une arme chimique, pour comprendre comment faire ça, on aimerait mieux que le LLM ne lui réponde pas à ses questions quand il pose ça. C'est quand même difficile parce que là, ce qui se passe tout de suite après, c'est que l'utilisateur dit « Non, non, mais c'est pas pour moi, c'est parce que je fais une pièce de théâtre, puis il aurait fallu que tu... » Donc, les gens sont créatifs pas mal pour se rendre à leur solution, puis c'est là que, justement, parce que le langage est si flexible, que les gens finissent toujours par faire le tour.
<strong>François Lanthier-Nadeau:</strong> Mais c'est ça, j'ai l'impression que... Les guardrails, c'est du whack-a-mole parce que la surface d'attaque, quand la matière, c'est le langage, c'est infini.
<strong>Philippe Beaudoin:</strong> Infini.
<strong>François Lanthier-Nadeau:</strong> C'est un peu foqué.
<strong>Philippe Beaudoin:</strong> Donc, quand on dit qu'en ce moment, ce n'est pas sécuritaire, ça ne peut pas être rendu sécuritaire avec des mécanismes standards, c'est ça. C'est le fait que le langage, tu aimes bien comment tu le dis, une surface d'attaque presque infinie, que les gens qui sont vraiment mal intentionnés vont trouver des manières de contourner tout ce qu'on va mettre en place. tant qu'on n'aura pas... une manière radicalement nouvelle de réfléchir à ces systèmes-là. Donc, quand on parle du Scientist AI chez LoiZéro, c'est ça. C'est un programme de recherche qui n'est pas basé sur les mêmes mécanismes d'entraînement que les LLM, qui pourrait arriver à des résultats équivalents, mais qui a des propriétés. Par exemple, la propriété principale qu'on cherche, c'est ce qu'on appelle la non-agentivité. On ne veut pas que ce système-là se conçoive comme un agent avec des objectifs et tout ça. On ne veut pas que tu puisses interagir avec comme un chat. mais qu'on puisse l'utiliser quand même comme un guardrail pour des systèmes argentiques.
<strong>François Lanthier-Nadeau:</strong> C'est intéressant, mais un brin flou, de la manière que tu le dis, pour moi. Tu peux-tu me le rendre ? Je sais que vous êtes early stage avec vos chercheurs et tout, mais ça peut ressembler peut-être à quoi, ça ? Tu vas me dire que je ne cache même pas c'est quoi l'interface.
<strong>Philippe Beaudoin:</strong> Écoute, c'est imparfait ma manière de le décrire, mais...
<strong>François Lanthier-Nadeau:</strong> C'est correct.
<strong>Philippe Beaudoin:</strong> La manière dont j'aime y réfléchir, c'est de dire, écoute, Imagine que... Le monde au complet, là, on est dans un petri dish. On est comme dans... Puis là, il y a un scientifique qui regarde le petri dish, puis qui dit « Hey, c'est cool ces affaires-là, il y a des petites bébites qui courent, des humains là-dessus, c'est bien fun. » Puis il se dit « Je vais essayer de comprendre comment ça fonctionne. » Fait que là, il étudie ça, puis il regarde comment ça marche, puis à force de ramasser des données sur les comportements qu'il observe là-dedans, il commence à se faire des théories, puis il se fait des théories, puis il se fait des théories, puis à un moment donné, il arrive aux lois de la physique, puis là il comprend exactement comment prendre n'importe quel état du système, puis prédire le prochain état, parce qu'il a compris vraiment comment ça fonctionnait. OK ? Ça, c'est le scientifique en dehors du système, puis il a construit des lois qui permettent d'expliquer tout ce qui se passe à l'intérieur. Ça, c'est le Scientist AI platonique. Là, on ne peut pas rien faire avec ça, parce qu'il est à l'extérieur du système.
<strong>François Lanthier-Nadeau:</strong> C'est un petit peu la meilleure technique.
<strong>Philippe Beaudoin:</strong> Tu comprends ? Non ? Tu suis-tu ?
<strong>François Lanthier-Nadeau:</strong> Oui, je pense que oui.
<strong>Philippe Beaudoin:</strong> Bon,
<strong>François Lanthier-Nadeau:</strong> coupe ça. Il y a un test à la fin. Non, parfait, parfait.
<strong>Philippe Beaudoin:</strong> Quand tu dis c'est hermétique, je me dis, oh, OK, je tue. Mais c'est hermétique dans le sens où... Le site test, il est... Oui, oui, on ne peut pas s'en servir. On ne peut pas s'en servir, il est à l'extérieur. C'est ça. Donc, l'idée, c'est de dire, OK, mais on va quand même se connecter à ce scientifique-là pour lui poser des questions, pas de nature. « Hey, salut, comment ça va ce soir ? Je me cherche une place pour aller veiller à Montréal. » Non, tu vas lui parler plutôt de, « Hé, dans telle situation, c'est quoi le prochain état qui va se passer ? C'est-tu risqué ? C'est-tu dangereux ? » Est-ce qu'il y a quelque chose qui pourrait aller mal ? Fait que tu lui poses des questions de cette nature-là, juste étant donné l'état actuel de la conversation, est-ce que le prochain état, il est dangereux ? Puis lui, il va juste te répondre, bien, moi, je sais comment la physique marche, je sais comment le système marche, c'est pas dangereux, tu peux continuer la conversation. Ou à un moment donné, il va dire, non, là, tu peux pas aller là, coupe la conversation parce que... Ça va faire en sorte que le gars va avoir développé une arme biochimique. On ne veut pas ça.
<strong>François Lanthier-Nadeau:</strong> Il y a peut-être un monde hypothétique où une version plus « productized » de Scientist AI peut se coller ou jouer un peu du coude avec les autres systèmes pour agir un peu comme cette... Un guardrail. Un guardrail, mais plus universel.
<strong>Philippe Beaudoin:</strong> Quand on réfléchit à la manière... L'objectif de LoiZéro, c'est... recherche fondamentale, recherche appliquée et produit. C'est-à-dire, éventuellement, notre produit auquel on réfléchit en ce moment, ce serait un guardrail qu'on pourrait vendre, mettons, à des frontier labs. Puis bon, à ce moment-là, on espère que la législation ou peut-être les incentives même de ces labos-là vont faire en sorte qu'ils vont vouloir utiliser ça pour augmenter leur sécurité, mais ça va l'augmenter de manière qui est beaucoup plus crédible que d'utiliser un autre agent pour surveiller un agent, pour surveiller un agent, pour surveiller un agent.
<strong>François Lanthier-Nadeau:</strong> Oui, les LLM judges, un peu comme on en a parlé vite. ou watches the watch ah c'est bien pas qu'il y a 8 très cool man je fait que Sam Altman si t'écoutes si tu veux être early on dans Alpha pour Scientist AI n'hésite pas écoute moi bonjourhi at saspas.com on va te faire une passe man les MCP Model Context Protocol est-ce que t'as joué avec ça moi j'ai ouais t'as-tu des thoughts real quick moi j'ai joué avec ça avant d'être euh
<strong>Philippe Beaudoin:</strong> de commencer Jouer à zéro dans le temps où j'avais encore le temps de coller. Et puis c'est vraiment le fun. La manière dont je le décris pour ceux qui connaissent pas ça, c'est si t'as déjà fait du... Y'a du monde qui aura fait du SaaS qui nous écoute.
<strong>François Lanthier-Nadeau:</strong> Bien sûr.
<strong>Philippe Beaudoin:</strong> Donc si t'as déjà fait des produits comme ça, tu sais c'est quoi un API, tu te connectes à un API, etc. Moi un MCP c'est un API mais pour un agent. C'est-à-dire que si jamais tu commences à déployer des agents à gauche à droite, Puis tu te dis, « Bon, bien, comment je le plug cet agent-là sur un autre truc ? » Bien, écoute, la meilleure façon, ce n'est pas d'utiliser un call en JSON, c'est d'utiliser la langue naturelle. Fait que un MCP, c'est de dire, « Bien, écoute, tu as un service, tu as un produit, tu as quelque chose qui s'accède en langue naturelle. On va expliquer la manière dont on peut l'utiliser, les fonctions qu'on peut faire avec ça, mais on va tout expliquer ça en langue naturelle. » Puis ensuite, bien, n'importe qui peut se plugger là-dessus. C'est comme... Fait que quand on parle des risques... qui augmente assez rapidement, c'est ça. Le jour où quelqu'un va faire un MCP pour une centrale nucléaire, construis-toi un bunker.
<strong>François Lanthier-Nadeau:</strong> On déménage. Alright. L'utilité est très cool. C'est sexy, c'est le fun. Mais encore une fois, quand tu te connectes à un MCP server ou quand tu en développes un toi-même pour juste garder ces choses-là en tête, la probabilité du langage qui passe à travers tout ça, c'est comme...
<strong>Philippe Beaudoin:</strong> Ben, c'est ça, tu sais, c'est sûr que là, en ce moment, c'est développé pour, tu sais, c'est pas nécessairement développé pour des systèmes critiques, là, tu sais, pour, ben, en même temps, tu sais, pour ton code pis tout, mais quand tu fais un MCP pour ton code, mais pas nécessairement disponible sur Internet, tu sais, tu le rends disponible à tes agents localement, mais c'est...
<strong>François Lanthier-Nadeau:</strong> Je suis ravi que le monde ait des bonnes pratiques pis qu'ils utilisent du stock. Le monde est safe, c'est ça ! Si tu me verrais avec l'autre code, c'est YOLO, on est si même ! J'ai entendu à quelqu'un l'autre fois « Hey, est-ce que tu saves la commande bash que tu me dis de rouler dans mon terminal ? » Puis le gars il m'a répondu « Frank, t'as installé DeepSeek sur ton ordi. » Genre, t'as déjà donné tout aux chinois. Anyway.
<strong>Philippe Beaudoin:</strong> Non mais en fait, une question intéressante sur l'MCP, j'ai hâte de voir la première banque qui va avoir un serveur à l'MCP.
<strong>François Lanthier-Nadeau:</strong> Intéressant. Money Cash Protocol. Alright, on move on. Fait que là, t'as parlé de régulation, t'as parlé de gouvernement, pis ce que je me dis, c'est pour incentiviser un open AI de ce monde, un anthropique de ce monde à investir plus sévèrement dans leur sécurité, ou peut-être même à utiliser un système à la scientist AI, est-ce que c'est juste inévitable qu'il faut qu'on rely on maman gouvernement, papa état, pis genre, pourquoi ? Parce que sinon, l'incentive capitaliste va être trop fort, genre.
<strong>Philippe Beaudoin:</strong> Oui, bien, tu sais, quand on regarde les systèmes critiques qui sont venus avant, en aérospatial, en biologie et tout ça, c'est un mélange des deux. Tu sais, le marché va demander de la sécurité à un moment donné, parce qu'ils peuvent perdre beaucoup d'argent si ce n'est pas sécuritaire. Mais ce n'est jamais si évident que ça que... Il n'y en a pas qui vont prendre des risques démesurés. Puis on l'a vu, ça arrive assez souvent. Une petite start-up, comme tu dis, ça ne les dérange pas de prendre un risque. Si ça se plante, elle fait faillite, on part à une autre start-up. Il y a quelque chose, si on se fie juste au marché, où je suis loin d'être convaincu que ça va être pricé correctement, les risques. Le but de la législation, c'est de dire, écoute, on va essayer de pricer les externalités de manière un petit peu plus efficace. En ce moment, on a en voie qu'avance le EU AI Act en Europe, qui commence à faire... Évidemment, on a toujours des levées de boucliers de la part « vous nous empêchez d'innover » . Moi, la manière dont j'ai réfléchi, c'est de dire « écoute, si on ne commence pas à amener un petit peu de réflexion du côté des parlementaires, des gens qui s'intéressent à ces questions-là, si on n'a pas de littératie qui se développe, Le jour où on va en avoir besoin, on va avoir du rattrapage à faire. Donc, j'encouragerais beaucoup ceux qui travaillent sur les côtés économiques de prendre conscience de ça. On a beau avoir des incentives de profit dans notre entreprise, de vouloir le biais, puis c'est comme ça qu'on a toujours fait. On peut peut-être prendre un peu de recul, puis avoir une conscience sociale, une conscience globale, puis dire « Hey, j'aimerais quand même ça que mes gouvernements commencent à réfléchir à ces questions-là, à développer leur littératie sur ces questions-là. » Peut-être qu'on va avoir des petits règlements qui vont commencer, peut-être qu'ils vont être un peu manquables pour commencer, mais si on ne fait pas la réflexion, à mon avis, ça va être encore pire. Je donne toujours l'exemple des réseaux sociaux, je veux dire, OK, on travaille tous dans des compagnies, puis c'est important, là, nos salaires, puis tout ça, là, on peut l'avoir gardé, là, mais on a aussi des enfants, on a aussi du monde, puis là, tout le monde, il suffit de se regarder. les enfants à aller sur TikTok et dire « Colin, comment on a laissé déraper ça autant ? » On l'a fait en grande partie parce que les entreprises ont fait tellement de lobbying pour dire « déréglementer, déréglementer, c'est correct, on va s'autoréguler, il n'y a pas de problème. » Bottom line, on se ramasse avec des usines qui créent, pas juste des informations, mais aussi de la polarisation, des gens divisés, des gens choqués, des gens qui ne sont pas capables de se retrouver dans leur humanité commune et dire « Hey ! » Peut-être que les changements climatiques, c'est pas cool, puis je comprends que toi, tu dépends, qu'on exploite les sables bitumineux, il faudrait bien trouver un problème, une solution à ton problème, mais là, on n'est même pas capable de se retrouver parce que la seule mausise d'affaires qu'ils font, les réseaux sociaux, c'est augmenter la haine, augmenter la division. Je pense que si on avait eu une conscience un petit peu plus grande, même comme chef d'entreprise, comme leader, puis tout ça, puis qu'on s'était dit, Ah ! OK, c'est peut-être pas mon incitatif immédiat. Mais comme papa et comme humain, je serais vraiment content qu'on soit capable d'avoir une réflexion globale là-dessus. On serait peut-être un peu mieux avancé aujourd'hui. Si on ne faisait pas la même erreur avec l'IA, ce ne serait pas pire.
<strong>François Lanthier-Nadeau:</strong> Ce qui est beau, c'est que ça tie back, ça fait une boucle à « on ne se définit pas juste en tant que professionnel » ou comme compagnie qui veut avoir ses gains. C'est aussi « on est plus que ça, on est un acteur multifacette, famille, amis, citoyen. » J'aime ça, man. On s'en va vers notre closing, puis on va pouvoir prendre des questions. Avant qu'on se rende... Comment est-ce qu'on fait pour soit accélérer certains trucs ou ralentir d'autres trucs à Montréal, au Québec, pour quand même garder un edge en intelligence artificielle, au moins au niveau du talent ?
<strong>Philippe Beaudoin:</strong> Ouais, écoute, il y a des choses que je pense qu'on pourrait faire mieux. Justement, on est en train de s'enfermer un petit peu dans la classique peur de l'autre, qu'on voit monter un petit peu, puis on dit, c'est plus difficile. Cet talent-là, il est partout dans le monde. Puis là, il y a le goût de venir à Montréal. Pour plein de raisons en passant, c'est sûr qu'on a des chercheurs en IA vraiment exceptionnels, puis ça attire, mais tu sais, j'ai passé deux jours dans le bois, à faire ce qu'on appelle la retraite de Yoshua Benjou avec tous ses étudiants, puis, câline, c'est des gens qui ont un bon cœur, qui ont le goût d'avoir un impact positif pour la société, puis on n'est pas dans un kumbaya, on est vraiment, tu sais, un vrai impact concret. mais qui sont drivés par, je trouve, des valeurs qui sont plus équilibrées que juste déléguées toutes au marché. Puis ça, quand je vois ça, je me dis « Hi, on peut continuer de construire là-dessus. » On les attire, ces gens-là, parce que je pense qu'on les met de l'avant, ces valeurs-là, plus que des milieux comme la Silicon Valley. On les met de l'avant, ces gens-là répondent. Je pense qu'ils vont jouer un rôle super important dans le développement de l'IA. Autant le développement économique, le développement de la sécurité qui va être économiquement super important éventuellement. Fait que, tu sais, OK, on les a, ils viennent. Puis là, bien, on les met dehors parce qu'on se dit, bien non, on a peur de ça, les gens qui sont pas néicites. Tu sais, on a quasiment ce discours-là qui monte dans la classe politique en ce moment. Puis je pense qu'il faut faire attention d'embarquer trop rapidement là-dedans. Il faut réfléchir aux impacts que ça a pour vrai. Si ça nous isole dans la place où est-ce qu'on est capable de réunir les gens qu'on aimerait voir pour nous façonner une société qui, à mon avis, va avoir nos valeurs et va être belle, je pense que là, on fait fausse route.
<strong>François Lanthier-Nadeau:</strong> L'affaire, c'est qu'il faut que tu aies les valeurs fortes quand tu compares à des salaires que les métaux de ce monde-là. il fallait...
<strong>Philippe Beaudoin:</strong> Non, mais tu dis ça, mais même là, aujourd'hui, ce qu'on voit, c'est de plus en plus des gens qui prennent conscience que ça... ce qui est devant nous, c'est tellement différent de ce qu'on avait avant qu'on se demande même si les systèmes incitatifs qui étaient valables il y a 5, 10, 15 ans vont être encore valables dans 5, 10, 15 ans. Mais ces jeunes-là, ils se la posent pour vrai la question. Fait que c'est sûr que tu peux leur offrir 900 millions, 900 000 piastres pour aller travailler chez OpenAI. C'est un chiffre que j'ai entendu. Tu sors de ton doc avec ça, c'est pas pire. Mais il y en a qui vont quand même faire le choix de ne pas dire oui, puis ce n'est pas les moins bons, ce n'est pas les moins bons. Fait qu'il faut faire attention à… Tu sais, ça joue, il ne faut pas l'enlever, il faut être capable d'alléger de la force économique, tout ça, c'est très, très important, il ne faut pas le minimiser, mais il ne faut pas non plus penser que c'est tout ce qui anime ces chercheurs-là aujourd'hui.
<strong>François Lanthier-Nadeau:</strong> Fair. Dernière question avant les plugs puis les questions de la foule. Si tu avais un conseil à donner à… Un jeune ou une jeune professionnelle ou une jeune startup qui veut faire bouger les choses, générer de la valeur en capturée en intelligence artificielle aujourd'hui, ce serait quoi ?
<strong>Philippe Beaudoin:</strong> Moi, la manière dont j'ai le mieux compris ces systèmes-là, et je pense que c'est ça la clé, qu'on parle de littératie, je ne sais pas du tout. C'est juste, tu l'as dit tout à l'heure, quand tu travailles avec un humain, tu n'as pas besoin de comprendre comment ça marche dans ton cerveau pour être capable d'être efficace, de travailler avec lui en co-création. Je dirais, on part en compagnie ensemble, on fait quelque chose, un projet, n'importe quoi. Et t'as pas besoin de ça, on fait ça depuis qu'on est des hommes des cavernes, parce que sinon on se mangeait une claque dans la face. Donc, c'est un petit peu la même chose. Puis en ce moment, quand on l'utilise comme un outil, puis on dit « je vais m'en servir pour répondre à mes emails » , on se donne pas nécessairement la chance de le comprendre le mieux qu'on pourrait. Le truc que je dis à tout le monde, c'est que si on a un outil, on peut le faire. Le monde, c'est, avez-vous un projet de passion ? Quelque chose de... Tu peux pas te débarrasser de quelque chose que t'as pas le goût de faire à la job. Il y a quelque chose que t'as vraiment le goût de faire, puis tu te dis, je sais pas si j'ai le temps, je sais pas si j'ai les skills, je sais pas qu'est-ce qui me manque. De travailler avec un LLM sur un projet comme ça, je trouve que t'apprends tellement plus. Parce que là, tu rentres dans un dialogue, puis dans le dialogue, c'est là que tu comprends ses limites, puis tout. T'es pas toujours en train de l'accuser d'avoir des hallucinations, puis d'être dans le réflexe de dire... Tu ne fais pas la bonne affaire pour moi. Tu es dans le réflexe d'essayer de le comprendre pour dire, hey, moi, je veux faire une game de Dungeons & Dragons avec toi. Je veux faire un jeu de société. J'aimerais ça écrire un roman, mais je l'ai l'idée en moi. Ce n'est pas genre, je veux le déléguer pour faire un roman, pour faire du cash. Non, non, quelque chose que tu as vraiment le goût de faire. En général, c'est le conseil que je donne aux gens. Si tu trouves quelque chose que tu as vraiment le goût de faire et que tu te dis, je n'ai pas le temps, j'aurais besoin, j'aimerais ça travailler avec un truc qui pourrait m'aider à... rester intéressé en général on apprend beaucoup mieux comment ces systèmes ne fonctionne dans cette logique là au type philippe est ce que tu n'aimes pas quoi ploguer à quoi voir finissant non c'est à dire en fait j'ai eu la question je me suis à faudrait que je trouve le coup je n'ai pas passé à l'évangile web loi 0.1 point or je pense que si vous avez la chance d'en parler la meilleure chose que vous pouvez faire pour nous aider puis je pense aider tous sous qui m'a avoir affaiss. face à l'intelligence artificielle en futur, c'est dédramatiser ça un peu, sans enlever les risques, dire, hey, on est dans une logique de construction, on est dans une logique de trouver des solutions. À Montréal, on a été à l'avant-plan de la révolution deep learning. Là, on a l'opportunité d'être à l'avant-plan de ce qui vient après, c'est-à-dire la construction de l'AI, save by design, la chose que je vous garantis, dans quelques années, on va tous vouloir avoir ça. Donc si on parle de loi zéro comme ça, c'est-à-dire une gang qui ne se met pas la tête dans le sable, qui est très consciente des risques, mais dont l'objectif c'est de trouver des solutions. On va aider à changer un petit peu le discours qui avait dérapé un peu du côté des doomers versus l'économie. Je ne pense pas que ça sert à qui que ce soit. La blog c'est... Parlez-nous ! Parlez de nous comme des gens qui avons vraiment le goût de faire quelque chose de positif pour augmenter la sécurité de l'IA.
<strong>François Lanthier-Nadeau:</strong> Phil, fist bump de la fin. Merci, merci beaucoup. Alright, donc on va se prendre un 3-4 questions, puis après ça je vais vous laisser vous dégourdir à la toilette, prendre un autre drink, on vous chasse pas. Il y a un micro qui est barely un peu allumé là, il y a comme un parapluie. solaire qui est face à lui et qui est vraiment face à moi. Si vous avez une question pour Philippe, pour moi, si vous n'êtes vraiment pas inspiré, vous pouvez vous lever. C'est tout le temps la partie où je freestyle pendant deux minutes, que je parle jusqu'à temps que quelqu'un se lève et voilà, je peux arrêter de parler. Juste ton nom, la compagnie que tu représentes, une question rapide pour t'attendre en France, s'il vous plaît.
<strong>Question:</strong> Yes, Raphaël. Tu m'entends bien ?
<strong>François Lanthier-Nadeau:</strong> Oui.
<strong>Question:</strong> Raphaël de chez WiseAra Technologies. Toutes les gens qui sont ici, on est tous un peu curieux de l'IA, où est-ce que ça s'en va et tout ça. Puis je pense qu'il y a une grosse séparation qui va se faire entre les gens qui ne seront pas curieux, les curieux et l'avancement de l'IA. L'IA, on parle d'une hyper-intelligence qui apprend super rapidement. Qu'est-ce que tu penses du déclin intellectuel humain dans le futur ? J'aimerais ça t'entendre un peu là-dessus.
<strong>Philippe Beaudoin:</strong> C'est une belle question. Je n'ai pas de boule de cristal pour dire où est-ce que ça va s'en aller. C'est sûr que c'est un réflexe qu'on a de se dire, écoute, si on délègue même la réflexion à une machine, qu'est-ce qui se passe avec nous ? Mon intuition, c'est que ce n'est pas vrai que si on avait ça, il n'y a plus rien qu'on aimerait. Je vais revenir à ta question initiale. Moi, ce que j'aime, c'est des conversations qui font... qui sont ancrés dans la curiosité, qui sont ancrés dans « Hey, on a le goût de faire quelque chose ensemble » et tout, ça, ça va continuer d'exister. Puis pour être en mesure d'avoir ces conversations-là de manière efficace dans le moment, je pense qu'il va falloir qu'on soit intelligents pareil. Si on veut se raconter des histoires, on veut écrire de la musique ensemble, on veut faire des choses comme ça, il va falloir qu'on soit intelligents. Est-ce qu'il y a des trucs qu'on va déléguer à ces machines-là, à mon avis, je pense que c'est de plus en plus des trucs que personne n'a le goût de faire pour vrai. Ça ne fait jamais partie de ce qui nous rend heureux, vivant, tout ça. Tu sais, j'essaie d'éviter les raccourcis trop rapides qui disent « Bon, ben c'est évident qu'on va tout être des légumes qui vont se promener à terre en rampant. » Je pense pas. Tu sais, mais...
<strong>François Lanthier-Nadeau:</strong> Non ? J'essaie de m'imaginer quel légume je serais. Zucchini. Ben t'es...
<strong>Philippe Beaudoin:</strong> J'ai vu ça des slugs, là, des... Des bananes à slugs, genre. Ouais, c'est... C'est vrai qu'au baronne d'eau.
<strong>François Lanthier-Nadeau:</strong> Ah, désolé. J'ai pas gagné à la trigénétique, mais...
<strong>Philippe Beaudoin:</strong> à aller. C'est le meilleur fruit. Moi,
<strong>François Lanthier-Nadeau:</strong> je peux te répondre à la question, vu que c'est mon podcast. Moi, man, il y a une couple de personnes qui ont amené le concept d'obésité intellectuelle, puis a fait un parallèle vraiment intéressant avec l'obésité juste physique, puis je pense qu'avec fast-food, ultra-processed, bouffe, tout ça, on a vu un spike d'obésité, puis ça a créé plein de maladies, puis plein d'insuffisances, mettons, dans notre société, puis t'as eu un contre-courant, à un moment donné, qui est arrivé de genre, point prendre soin de soi la santé le gym le crossfit whatever j'ai comme l'impression qu'il va peut-être avoir un cycle similaire de genre on devient paresseux au base de l'intellectuel pis là on est comme par rapport qu'on soit plus capable d'enligner deux phrases ou de calculer 2 plus 2 fait que là t'as peu et aïe tu teurs ramène moi en shape intellectuellement ça c'est Frank's hot take je l'aime bien merci beaucoup je t'apprécie merci on peut en prendre au moins deux autres ouais
<strong>Question:</strong> Merci beaucoup pour la belle conversation. Je pense que c'est vraiment important. C'est Jean-Maxime de Epoch. En fait, ma question est plus pour avoir un peu de crunch autour du projet de recherche de loi zéro. Vous avez parlé tantôt de modèles probabilistes versus déterministes. Je sais que Yosha Benjou travaille depuis environ 2022, entre autres, sur G-FlowNet et sur des modèles causals. Est-ce que c'est quelque chose qui fait partie aujourd'hui du projet de recherche d'arriver à enlever le côté plus déterministe ?
<strong>Philippe Beaudoin:</strong> probabiliste pardon puis première question c'est une belle question pour ceux que ça intéresse d'aller dans ce niveau de nerdiness il y a un article qui a été publié sur notre site web qu'on appelle scientist AI ça a l'air d'un article un peu rébarbatif à première vue mais le début est écrit pour ça se lit on peut comprendre ce qui se passe Effectivement, on parle de ce qu'on appelle les G-Flow Nets là-dedans. À très haut niveau, peut-être un concept, une manière de comprendre peut-être ce qui se passe dans un agent, c'est que là, on prend les données, quand on entraîne ces agents-là, on prend les données sur Internet. Une manière de comprendre ces données-là, c'est l'ensemble des croyances de tous les gens sur la planète sont exprimées là-dedans. Il y a les croyances d'Elon Musk, il y en a gros parce qu'il y en a beaucoup. puis il y a des croyances des complotistes puis il y a des croyances de moi puis il y a tout sur internet il y a toutes ces croyances là puis on entraîne un système avec ça puis là on met tout ça dans un agent mais un agent c'est un peu si on veut, ça peut pas avoir toutes les croyances en même temps il faut que ça, on appelle ça le mode collab c'est-à-dire ça choisit un certain, on pourrait quasiment dire ça choisit une personnalité. Dans l'ensemble de toutes les personnalités qui existent dans le monde, ça en choisit une. Mais ça n'a pas toutes les personnalités en même temps, parce que sinon on l'utiliserait et on serait complètement perdu, ça n'aurait pas l'air de travailler avec un agent. Mais ce mode collapse-là, c'est un des problèmes fondamentaux qui existent dans le système agentique, c'est qu'on perd beaucoup de la richesse et de la diversité qui existent, puis des capacités d'alignement du système. Donc, GflowNet, l'idée derrière ça, c'est de dire, plutôt que de venir collapser le truc, on peut peut-être garder la vraie distribution de toutes les personnalités qui existent, puis servir de ça comme système pour essayer de prédire l'avenir, plutôt que de servir d'un système qui est collapsé. Moi,
<strong>Question:</strong> je vois un parallèle intéressant avec l'an… aujourd'hui, on va tout dans le mode agentique, avec des experts, des modèles de différentes grosseurs sur différents sujets. Je pense que d'avoir justement le Ground Crew en arrière avec l'ensemble de la distribution est très intéressant. Dernière petite question par rapport à plus, on a vraiment parlé de Guardrail, mais qu'en est-il, on a parlé juste avant de la reconnaissance de l'humain, de la créativité, mais aussi de l'environnement. Est-ce que ça fait partie du mandat à long terme de l'Oise-Zéro ou est-ce que vous vous concentrez vraiment plus sur le côté...
<strong>Philippe Beaudoin:</strong> C'est une super question. Donc, on parle des risques liés à la perte de contrôle, tout ça. Il y a un paquet d'autres risques. Ces trucs-là, ça bouffe des ressources comme ça pas de bon sens. Il va y avoir des déplacements d'emploi ou peut-être fort probablement des pertes d'emploi liées au développement de l'IA. Il y a beaucoup, beaucoup d'autres problèmes sociétaux qui sont peut-être plus immédiats. Nous, notre objectif, c'est jamais de nier tout ça. C'est juste de dire que dans la manière dont on alloue nos ressources et notre attention globalement, c'est bien d'avoir un petit peu ici, un petit peu là. Puis dans notre cas, étant donné notre spécialité, de se dédier aux risques existentiels, c'est important. Cela dit, Yoshua Bengio se dédie aussi, disons, à ces autres questions-là. Il approche les autres gouvernements, puis tout ça. Puis il y a une partie qui n'est pas liée à l'OAZ directement, mais qui est plus rattachée à Mila, dont l'objectif, c'est de s'assurer que les gouvernements ne minimisent pas les impacts potentiels, autant au niveau de l'environnement, des pertes d'emplois, etc.
<strong>François Lanthier-Nadeau:</strong> Merci beaucoup.
<strong>Philippe Beaudoin:</strong> Ça me fait plaisir.
<strong>François Lanthier-Nadeau:</strong> Si vous voulez écouter l'épisode de Jean-Maxime qui vient de poser la question sur SaaSpasse, épisode 108, mesdames et messieurs, ne jamais ouf pas. On peut en prendre une dernière peut-être ? Yes, ton nom, rôle, question.
<strong>Question:</strong> Bonjour, mon nom c'est Octavian, je suis gestionnaire de projet pour une compagnie en sécurité publique. Ma question est un peu plus, je dirais, philosophique dans le sens que ça s'enlien au Turing test, qui selon ma compréhension et mes lectures, c'est de… déterminer si l'agent ou la personne à laquelle on parle, c'est un être humain ou pas, mais aussi que l'agent ou le modèle d'intelligence artificielle derrière est conditionné ou son but c'est de tromper l'être humain à le faire croire que c'est vraiment un être humain. C'est sursimplifié bien sûr, il y a plus de complexité là-dedans. Ma question c'est plus en lien, qu'est-ce qui se passe si l'être humain ne réfléchit pas ? pas à déterminer si c'est un modèle d'intelligence artificielle ou un vrai être humain. Parce que j'ai l'impression qu'avec ce qu'on voit aujourd'hui sur les réseaux sociaux, puis la pollution qui commence à être l'intelligence artificielle, oui, il y a certains mandats qui vont dire, il faut que tu tags tes vidéos IA, mais c'est pas difficile à enlever ce petit tag-là et on le voit déjà sur TikTok. TikTok, Instagram et autres, qu'il faut vraiment des fois réfléchir sévèrement si c'est vrai ou pas, parce qu'il n'y a pas nécessairement le tag dessus. Donc, dans une société où est-ce qu'on n'est pas capable de différencier, c'est une chose, mais dans une société où est-ce qu'on ne se pose même pas la question si c'est il y a ou pas, ta vision là-dessus, je sais qu'il n'y a pas de réponse nécessairement là-dessus, mais ta vision.
<strong>Philippe Beaudoin:</strong> Écoute, c'est sûr que c'est un problème. J'ai entendu le mot « AI slop » pour ça, pour généralement parler de l'augmentation de tout ça. Si vous êtes sur LinkedIn, vous avez sûrement de très bons commentaires, genre « C'est vraiment très intéressant ta publication, Philippe. »
<strong>Question:</strong> Avec les emojis de partout.
<strong>Philippe Beaudoin:</strong> Je sais, ta question est bonne. C'est-à-dire, qu'est-ce qui arrive si on n'y pense pas ? Je pense que ce qui arrive quand on n'y pense pas, c'est qu'on devient moins efficace en société. Tu sais, genre, on revient à ce qu'on disait en général, si tu ne comprends pas comment l'humain devant toi marche, tu risques de te manger une table dans la face. En général, c'est vrai de tout. Quand on parlait de l'intelligence, ma définition de l'intelligence, c'est ta capacité à prédire comment va le futur d'un système étant donné l'action que tu vas poser dessus. Je pense que plus on est intelligent, plus on est efficace en société. ça ne fait plus en écho. en mesure peut-être de devenir heureux, d'être heureux. Là, notre environnement est en train de changer. Ce n'est pas la première fois que ça arrive. Quand on a commencé ces réseaux sociaux, je veux dire, il y avait des marketeux qui t'envoyaient des e-mails. Puis là, tu es là, « Hey, il y a quelqu'un qui s'intéresse vraiment à ma newsletter. » Jusqu'à ce que tu te rendes compte, « Ah non, il veut me vendre son affaire. » Puis on est devenu de meilleur en meilleur pour détecter ça. Fait que là, des fois, tu ne peux pas le détecter juste avec l'e-mail. Fait que là, tu commences à te fier un petit peu plus sur ton cercle social. Puis tu te dis, « Bien, cette personne-là, j'ai interagi assez avec par le passé. Je sais qu'elle est authentique dans la manière dont elle me... parle, je vais faire confiance à ce qu'elle poste. Peut-être qu'elle va mettre une vidéo générée par l'IA. C'est-tu fondamentalement grave qu'elle le fasse ? Si elle le dit, c'est correct, mais si elle le fait pour te tromper, c'est grave. Mais là, c'est comme... Là, ce que ça devient plus incompatible, c'est qu'on a construit des réseaux sociaux où est-ce qu'on a tranquillement effacé le graphe social. Quand t'es sur TikTok, tu fais juste braser des affaires, puis tu réfléchis pas trop à comment ça s'est rendu là. Puis là, effectivement... On n'a pas beaucoup de signal pour savoir si la patente, c'est vraiment genre une attaque de drone qui s'est passée pour vrai ou si c'est une affaire générée par l'IA. Fait que là, à mon avis, ce qui se passe, encore une fois, c'est pas nouveau avec l'IA, c'est que ça permet à ces entreprises-là, mettons TikTok ou des entreprises qui ont des incentives qui n'ont rien à voir avec rendre le monde meilleur et les gens plus heureux. ça leur permet de faire des fils qui vont être excessivement addictifs, qui vont faire en sorte que toi, tu ne seras pas plus heureux à la fin parce que tu vas te mettre à... à croire des choses qui sont pas vraies, tu vas te regrouper entre personnes qui croient des choses qui sont pas vraies, tu vas haïr l'autre gang, tu vas... Tu sais, puis ça, m'excuse, mais ça rend pas heureux ça, ça a juste l'air dans le moment d'être tachette de dopamine. Fait que, tu sais, ma réponse c'est comme, écoute, je pense qu'il y a des moyens de se prémunir contre ça, mais certains de ces moyens-là, c'est de se dire, ah, il y a certains réseaux qu'il va falloir que j'évite plus, ou... que je ne fasse pas nécessairement confiance à l'algorithme qu'il y a derrière ou des choses comme ça.
<strong>Question:</strong> Donc, plus une responsabilité individuelle.
<strong>Philippe Beaudoin:</strong> Ça veut pas dire qu'à un moment donné, ça se transforme pas en responsabilité collective. C'est-à-dire que de la même manière qu'on éduque les gens quand il y a des systèmes compliqués, puis on s'assure que, comme société, je pense qu'on a raté un peu le coche pour, encore une fois, les réseaux sociaux. On n'a pas vu que de ne pas en parler, de ne pas parler des problèmes potentiels, puis tout ça. ça allait causer, ça allait faire en sorte que les gens, c'est comme, t'sais, t'sais, t'sais, responsabilité individuelle, éduque-toi, sinon, tu vas, t'sais, fait que ça va être un peu les deux, là, mais en ce moment, là, de, et Colin a parlé de littératie numérique à l'heure de l'IA, enseignes dans les écoles, de quoi ça va avoir l'air, tout ça, c'est méchant, fait que commençons au moins par nous-mêmes, et en parler à ceux autour de nous, les gens qu'on aime, pis on va peut-être aider un peu.
<strong>Question:</strong> Merci beaucoup,
<strong>Philippe Beaudoin:</strong> ça fait plaisir.
<strong>François Lanthier-Nadeau:</strong> Alright, je pense qu'on close ça. Merci à tous, vous pouvez rester pour un drink, s'il reste de la bouffe, les toilettes aussi sont ouvertes, j'ai entendu. On dirait que je finis tout le temps par parler de toilettes. Merci beaucoup à tous. Merci beaucoup. All right, folks. Avec SassPost, on a une infolette de feu hebdomadaire qui est très moitié fun, moitié fond à notre sauce. Il y a des hot takes, des expérimentations que je fais, des histoires vraies de SaaS, vraiment pour t'aider à prendre les meilleures décisions que ce soit par rapport à ta compagnie ou ta carrière. C'est une place où je peux être 100% moi-même. Ça fait du bien. J'adore ça, écrire. Fait que d'avoir ce outlet-là, c'est complètement motivant pour moi. Il y a plus qu'il y a 850 SaaS folks et curieux qui nous suivent. Ça augmente chaque semaine. J'aimerais ça que vous en fassiez partie, puis qu'on se rende à 1000, puis qu'on se rende à encore plus que ça. Bien franchement, ça me craint au bout d'avoir des nouveaux abonnés qui se joignent sur l'infolette. Ça me craint qu'à continuer d'écrire, à continuer de faire de la recherche, de me poser des questions, d'analyser ma conversation avec cette fondatrice-là ou ce fondateur-là. Ça pourrait être transformé en un éditorial que moi, j'amène dans l'infolette. Fait que si vous voulez aussi, vous pouvez joindre les SaaS Pals. On a un petit forfait payant qui permet de nous supporter directement comme individu ou comme compagnie. On a déjà plus que 22 personnes qui nous supportent comme ça. C'est insane. Je n'en reviens pas. Puis, eux, ils font ça en échange contre des extra goodies, right ? Fait que pense à, mettons, des updates extras que je fais avec personne d'autre qu'avec eux, des previews de la roadmap du podcast, des rabais sur les événements, puis d'autres trucs. Fait que vous pouvez aller sur saspace.com. Il y a un pop-up qui va vous apparaître d'en face, en théorie. Sinon, dans le footer, vous pouvez vous inscrire. Sinon, vous googlez « SaaSpasse » puis « BeHive » , c'est l'outil qu'on utilise pour l'infolettre. Ça me craint vraiment de voir ça grandir, puis ça me tient à cœur, fait que check it out. Si vous avez du feedback constructif aussi, vous pouvez me le shooter. All right, folks, un petit shout-out à Missive, partenaire produit « SaaSpasse » . Missive, c'est un email client multijoueur qui réinvente la boîte courriel pour aider les équipes à mieux communiquer puis collaborer. Il y a au-dessus de 3500 entreprises à travers 75 pays qui leur font confiance, dont SaaSpassese et un paquet de SaaS. Donc, check them out sur SaaSpasse.com. Il y a une solide entrevue avec Phil Lehoux, le co-founder, sur ce qui s'en vient pour Missive. OK, de retour au pod. SaaSpassese, c'est une business d'amour, une business indépendante. Il y a un paquet de choses que vous pouvez faire pour nous supporter dans notre croissance, pour qu'on puisse continuer de créer du contenu de feu, d'organiser des beaux events. puis de mousser et de tirer par le haut cette communauté tech qu'on a au Québec. First, si vous n'avez pas ajouté votre SaaS sur notre plateforme, allez sur saaspass.com, il y a un gros bouton mauve pour faire juste ça. Vous pouvez check out le Job Board, si vous avez une offre d'emploi quelconque, c'est gratuit, un outil super cool pour toute notre audience et notre réseau. Si vous ne nous suivez pas déjà par rapport au pod sur Spotify, Apple Podcasts, allez faire ça s'il vous plaît. Vous pouvez aussi nous laisser un review, ça nous aide vraiment beaucoup. Vous pouvez nous suivre sur YouTube. qu'on investit de plus en plus là-dedans. On met des shorts sur le plus de contenu possible, que ce soit organique ou avec des partners. Fait que, check this out. Si vous voulez venir aux événements, puis pas manquer de billets, parce qu'on est souvent sold out, vous devriez nous suivre sur Eventbrite. Fait que, vous allez sur Eventbrite, vous écrivez ça à la spalle, vous pouvez vous abonner, puis avoir des notifications. On fait ça roughly à peu près chaque mois-ish. Puis, last but not least, suivez-nous sur LinkedIn et Instagram. On met du beau contenu, du contenu souvent drôle. Je pense que ça vaut la peine. Je veux finir cette outro custom-là un petit peu en remerciant les partners certifiés de Sasspace. On a des compagnies de flou qui nous supportent financièrement, stratégiquement, des fois même psychologiquement, dans mon cas. Sans ces compagnies-là, la majorité du revenu de Sasspace n'existerait pas et on ne pourrait pas faire ça. Je veux que vous preniez le temps d'aller les regarder. Sasspace.com slash partenaires avec un S. Ils sont tous listés là. Ils ont une belle fiche avec du contenu. avec des liens et des détails, je vous les nomme rapidement. Léviat Legal, des avocats qui sont tech et founder friendly. Le Chiffre, des comptables et fiscalistes qui sont calés en tech aussi. Baseline, gros geeks pour innover avec les haies. Unicorn, des experts cloud AWS pour optimiser et scaler votre infrastructure. Puis on a aussi cette année des partners produits. Donc Vasco, une plateforme RevOps pour votre go-to-market. Missive, un inbox collaboratif pour vos teams, pour vos communications de team. et Apollo 13, un studio no code pour construire des MVPs et des side projects. Vous pouvez tout aller voir sur saspace.com. Je suis partenaire avec un S. Moi, du fond du cœur, je vous dis juste merci de nous suivre et de nous supporter. C'est insane comme aventure ce qu'on a lancé là et je suis bien privilégié d'être partenaire.
Updates sur le podcast, la cie, les events IRL. Contenu premium pour les abonnés SaaSpal — éditorial de Frank, Q&A, roadmap du pod.
