Aujourd'hui, on jase avec David Beauchemin, directeur général chez Baseline, une firme d'accompagnement en intelligence artificielle.
Baseline c’est 15 employés, 5 ans,
On retrace le parcours de David : Ses études (actuariat, informatique), la fondation de son propre tattoo shop, et finalement la création de Baseline.
On couvre ensuite plusieurs points, comme :
Dave c'est de loin notre entrepreneur & expert pref pour jaser IA. D'ailleurs, on prend le temps d'expliquer comment les non-techies peuvent l'utiliser efficacement dans leur quotidien!
—
Cool SaaS peeps mentionnés :
—
Abonnez-vous à l’infolettre (de feu) :
https://saaspasse.beehiiv.com/subscribe
Suivez-nous sur LinkedIn (no cringe zone) :
https://www.linkedin.com/company/saaspasse/
Suivez-nous sur Instagram (mémés inclus) :
https://www.instagram.com/saaspasse/
Faites affaire avec nos partenaires certifiés (des kingpins) :
https://www.saaspasse.com/partenaires
Affichez une offre d’emploi sur le job board (gratis) :
https://www.saaspasse.com/emplois
Inscrivez votre SaaS au répertoire des SaaS au QC (>300) :
https://www.saaspasse.com/ajout-saas
—
Crédits musique
<strong>David Beauchemin:</strong> Je ne pense pas encore que je vais voir mon père commencer à faire des agents pour automatiser sa job. On est loin de ça. Mais est-ce qu'il y a des gens dans cette entreprise-là qui vont être capables de dire, « Moi, je vais prendre la technologie et je vais automatiser les étapes de sa job. » What's up,
<strong>François Lanthier-Nadeau:</strong> folks ? Bienvenue sur SaaSpasse. Aujourd'hui, je jase avec David Beauchemin, directeur général chez Baseline, une firme d'accompagnement en intelligence artificielle. On parle des évolutions majeures dans l'écosystème IA depuis notre dernier pas dans août 2023. On parle aussi de bases de données vectorielles. J'essaie de vous expliquer comment ça marche. De agent swarms, du passage des preuves de concept au système en production, de comment les SaaS peuvent vraiment exploiter l'IA pour avoir un edge compétitif. Dave, c'est de loin mon entrepreneur slash expert préféré pour jaser l'IA. D'ailleurs, dans cette show-là, on prend la peine d'expliquer comment les non-techies peuvent utiliser ces outils-là dans leur travail en général. Puis on a aussi un solide Matrix Moment. avec Chad GPT, live en studio. Fait que, manquez pas. All right, on passe au show. Let's go.
<strong>David Beauchemin:</strong> David Beauchemin, bienvenue sur SaaSpasse. Salut.
<strong>François Lanthier-Nadeau:</strong> Comment ça va ?
<strong>David Beauchemin:</strong> Ça va bien toi ?
<strong>François Lanthier-Nadeau:</strong> On commence à se parler en même temps, c'est parfait ça. C'est la même longueur d'onde, buddy. Pour le monde qui ne te connaisse pas déjà, écoute, Baseline, firme d'accompagnement d'intelligence artificielle. Exact. Partner certifié officiel de Salesforce depuis Day One. Yes. Fait que moi, je suis un gros fan de mon bord. Mais tu étais sur le pod épisode 41, c'était une mabeuse quand même early. On est rendu à 130+. S'il y en a qui ne l'ont pas écouté, qui n'ont pas checké toute la capsule contenu qu'on a fait ensemble, mettons, t'es qui toi dans la vie ?
<strong>David Beauchemin:</strong> Moi, je suis qui ? Je suis un gars technique. J'ai fait un bac en actuariat, maîtrise en informatique. Je suis en train de finir mon doc en informatique. Je n'ai vraiment pas aimé l'actuariat, donc je me suis tourné vers plus le software. C'est ça qui m'a intéressé finalement. En cours de route, je décide de fonder une entreprise. J'avais déjà de la fibre pas mal. Moi, j'avais un tatouche à l'époque. puis c'est ça qui m'a amené là-dedans. T'avais un tatoucheur ? Ouais. Je te répète,
<strong>François Lanthier-Nadeau:</strong> c'est sur l'autre.
<strong>David Beauchemin:</strong> Black Diamond Studio.
<strong>François Lanthier-Nadeau:</strong> Black Diamond Studio ?
<strong>David Beauchemin:</strong> C'est horrible. C'est son premier tattoo.
<strong>François Lanthier-Nadeau:</strong> C'est... Je me fais complètement crouer les jambes.
<strong>David Beauchemin:</strong> Je t'ai déstabilisé.
<strong>François Lanthier-Nadeau:</strong> Le PhD en IR, il avait un tattoo chouette.
<strong>David Beauchemin:</strong> Ouais, ouais. Ça, mes chums, j'ai fait un peu en suture à l'époque. Ah, ouais ? Ouais, je me cherchais.
<strong>François Lanthier-Nadeau:</strong> C'est bien correct.
<strong>David Beauchemin:</strong> Pas mal. Puis c'est un doute que je suis vraiment chum avec. Puis il avait le goût de faire ça. J'avais de l'argent. On a fait comme go, on essaye. Ça peut être bête. Ça, c'est son premier tattoo. Là, il a mis une studio. Ça, ça doit être son cinquième. Son troisième, j'allais sur le chest. Ça paraît pas. Il est lettre. Il est vraiment horrible. C'est pas lui qui a fait tous mes tattoos partout.
<strong>François Lanthier-Nadeau:</strong> Incroyable. Êtes-vous encore... Vous vous parlez-vous encore ? Non. Non, vous avez...
<strong>David Beauchemin:</strong> On se laisse, on se laisse. On se laisse, raison d'affaire, puis personnel, puis tu sais, je suis tendre derrière. J'ai encore des parts là-dedans, mais je ne veux jamais vraiment... taper dans mes dividendes.
<strong>François Lanthier-Nadeau:</strong> Incroyable. Incroyable l'histoire, man. C'est tellement un monde à l'autre, le tatouage à l'aide des chanteurs du ciel. Sick, man. Puis Baseline, moi, je l'ai comme pitché grossièrement, mais si toi, t'avais à le faire puis dropper une couple de chiffres aussi pour situer le monde sur quel genre de compagnie, ça ?
<strong>David Beauchemin:</strong> Ouais, bien, entreprise spécialisée en IA. Donc, on est vraiment dans l'accompagnement, dans les détournées d'opportunités, formés, mais aussi faire développement de logiciels. Donc, on a une équipe de 15. Là-dedans, il y a du DevIA, il y a un petit peu de back-end pour supporter, il y a du cloud pour pouvoir faire des applications puis s'assurer que ça se déploie puis que ça fonctionne bien.
<strong>François Lanthier-Nadeau:</strong> Ce n'est pas juste des chercheurs.
<strong>David Beauchemin:</strong> Non, exact. Moi, souvent, ce que je dis, c'est que si on avait voulu faire des tripes techno, des chercheurs, on serait resté à l'université. On n'est pas là pour ça. On est là pour prendre la techno, l'emmener puis faire les solutions d'affaires. Ça fait cinq ans. Cette année, on fête nos cinq ans. En fait, aujourd'hui, cette année, le 19 février, ça fait cinq ans officiellement. Bonne fête. Merci, merci. peut-être. Oui.
<strong>François Lanthier-Nadeau:</strong> Malade. Puis vous êtes une quinzaine, c'est ça ? Exact. La dernière fois que tu es venu sur le pod, c'était en 2023, comme je disais, early, puis tu me parlais d'une espèce de... Parce que vous êtes distribué en ce moment à Baseline, c'est un node central de bureau ou whatever. Tu me disais, j'ai un projet d'habitation puis en coop, c'est une coopérative d'habitation et aussi de bureau pour des entreprises puis tout, tu m'as appris en question. T'en es rendu où ?
<strong>David Beauchemin:</strong> La construction est rendue où ? La construction est rendue où ? T'es encore dans ma tête. J'ai manqué de temps, en fait. No joke, il y a des gens qui... Quelqu'un m'avait écrit dans la boîte courriel, qui avait un terrain, une bâtisse qui aurait pu fonctionner pour ça. J'ai dit, écoute, du coup, j'ai pas le temps de regarder ça. Puis, ben, tu sais, j'ai osé donner une autre, genre, un mois, deux mois, trois mois. On a eu d'autres discussions avec une autre personne aussi qui était intéressée à l'opérer dans la dernière année, mais... Quand je regarde ma boîte courriel, je me dis que je n'ai peut-être pas le temps de m'embarquer dans un projet comme ça pour l'instant. Puis, je discutais présentement, récemment, avec le monde dans l'équipe. Il n'y a pas tant de monde qui ont voulu venir dans le bureau, finalement. C'est encore très présent de vouloir rester chez soi et de travailler avec son ordi.
<strong>François Lanthier-Nadeau:</strong> Le next best thing, c'est que tu déménages à Québec. Oui. SaaSpasse pour vrai ?
<strong>David Beauchemin:</strong> SaaSpasse pour vrai.
<strong>François Lanthier-Nadeau:</strong> Ça s'en vient, genre ?
<strong>David Beauchemin:</strong> C'est la fin de semaine où est-ce qu'on se parle.
<strong>François Lanthier-Nadeau:</strong> Ah ouais ? Ouais. C'est malade, man. C'est cool, hein, Chris ? En plus, les deux dernières semaines, on s'est full vus plus souvent. C'est vrai. Fait que souvent, on va avoir plus de serendipity puis se croiser plus souvent.
<strong>David Beauchemin:</strong> Je le suppose, oui.
<strong>François Lanthier-Nadeau:</strong> All right, man. J'ai l'impression que je veux pas faire l'espèce de phrase cliché de... Ah, il y a deux ans, on se parlait d'IA, c'est comme deux décennies. Ha, ha, ha, tu sais, à cause... On le sait tous, là, si ça avance vite, on voit le changelog puis les releases sur Twitter ou whatever donc d'OpenAI et des autres. Mais ma première question, c'est dans ces deux années-là, mettons, qui se sont passées, y'a-tu des trucs, que ce soit des outils ou des stacks qui sont sortis, qui t'ont surpris ? Pas nécessairement qu'on était comme, c'est sûr que ça va arriver ou whatever.
<strong>David Beauchemin:</strong> Très bonne question. Pour moi, il y a deux ans, quand on parlait de l'ALM, j'y croyais pas autant. C'est une technologie qui fait quand même longtemps que ça existe.
<strong>François Lanthier-Nadeau:</strong> Large Language Models.
<strong>David Beauchemin:</strong> Excusez pour le terme technique, Large Language Models. Tous les chachetis de ce monde. C'est une technologie qui venait d'apparaître pas mal dans les mains de tout le monde, qui avait effectivement un boss qui apparaissait. Mais moi, depuis 2018, à peu près un petit peu avant ça, j'avais déjà joué avec des outils comme ça, mais ce n'était pas accessible autant que ça. Puis le tour de fort, je pense que c'est vraiment passé. Un, ils l'ont rendu vraiment accessible au grand public, mais la performance, c'est vraiment... au-delà de ce qu'on avait avant. Puis, ça restait quand même que la techno, qui n'est pas déterministe, mais qui est probabiliste, puis de plus en plus, les progrès, on voit qu'on arrive à chercher de la qualité. Moi, c'est vraiment un outil qui m'a vraiment surpris. Ça a pris du temps avant que je l'utilise moi-même de mon bord.
<strong>François Lanthier-Nadeau:</strong> C'est intéressant. Puis,
<strong>David Beauchemin:</strong> j'étais comme, ça a l'air d'être juste un trip techno, puis on nous vendait de l'hyperbol, comme quoi ça allait changer le monde, etc. On entend ça plein de fois historiquement. Quand j'ai vraiment commencé à jouer et qu'on a commencé à déclencher sur c'est quoi qu'on peut faire avec, c'est là que le paradigme est vraiment venu intéressant. Pour moi, il y a trois choses qui sont vraiment intéressantes avec ça. Un des peintres qu'on avait avant, c'est que tu veux faire un projet de Zia, ça prend des gens comme moi qui venaient avec, moi j'appelle ça le bâton pèlerin, qui se promènent dans les données et qui essaient de trouver de la valeur là-dedans. C'est long, ça coûte cher, et tu ne sais pas si tu vas arriver à la fin et qu'il va en coûter. C'est intéressant. Fait que tu veux essayer de te dire, ah j'aimerais ça améliorer telle affaire, telle affaire, t'es comme ouais mais c'est un projet de 300 000 juste pour regarder s'il y a quoi à faire, t'es comme... ça se peut que je ne sois pas accessible pour tout le monde.
<strong>François Lanthier-Nadeau:</strong> Il y a un founder que je n'aimerais pas qui est venu sur ce pod-là et qui m'avait expliqué avant qu'il y ait les gros releases et l'adoption de masse d'OpenAI et Anthropique, j'ai spendé un demi-million pour une preuve de concept IA.
<strong>David Beauchemin:</strong> Je sais qui tu parles et j'ai eu la chance de parler aussi. Il n'y a rien eu.
<strong>François Lanthier-Nadeau:</strong> Une couple de mois plus tard, c'était accessible aux consumers et aux businesses avec des subscriptions.
<strong>David Beauchemin:</strong> Exact. On me remet à l'époque de faire ça, j'aurais dit exactement que c'était un demi-million et on commençait à parler de quelque chose. Premièrement, c'est très, très dispendieux, difficile et pas accessible à tous. Puis, cette technologie-là, ce qu'elle apporte, c'est que c'est difficile d'extraire la valeur dans les données textuelles parce que c'est non structuré. On sait qu'il y a quelque chose, mais on ne sait pas c'est où, c'est quoi, il faut efférer de l'information, il faut faire plein de choses que c'est encore pleinement réservé à l'humain. Cet outil-là, il est capable de pouvoir dire, voici du tech, j'extrais les trucs pertinents, je te fais un résumé avec, puis tu peux le prendre, puis au pire, le mettre dans un système normal, traditionnel, logiciel, puis en faire de la valeur. Extraire des trucs de facture ou de whatever, puis comprendre ce qu'il y a dans la facture. Cette nouvelle opportunité-là, c'est aussi un nouveau paradigme pour les gens qui peuvent travailler par API avec ces solutions-là, extraire quelque chose, chose qui n'était pas possible avant ou qui était très complexe à aller chercher. On a vraiment un nouveau paradigme parce que t'as Avant, tu entraînes un modèle, tu regardes des résultats, tu joues avec, tu fais ça. Tu en as peut-être pour un mois, deux mois, trois mois avant de voir quelque chose. Maintenant, des fois, je peux te faire une preuve de concept en deux semaines. C'est insane. C'est insane en termes de débit et de rythme à quel point on peut produire de la valeur.
<strong>François Lanthier-Nadeau:</strong> Ce qui t'a surpris, je suppose, c'est justement l'accessibilité, à quel point ça a été vite, mais aussi la performance. Quand tu dis performance, ce n'est pas juste... La rapidité, mettons, d'interaction dans le système, dans le put-input.
<strong>David Beauchemin:</strong> Pas le plus la qualité de la réponse.
<strong>François Lanthier-Nadeau:</strong> Exactement.
<strong>David Beauchemin:</strong> La qualité de suivre des tâches, la qualité de faire des choses qui sont typiquement réservées à l'humain.
<strong>François Lanthier-Nadeau:</strong> All right. Puis, y a-tu quelque chose, au moment où on se parle, puis on tape, on est quoi, genre mi-avril, roughly, 2025, y a-tu quelque chose qu'on peut pas encore faire avec l'IA générative, entre autres ? Peut-être qu'il nous avait été promis ou qu'on espérait,
<strong>David Beauchemin:</strong> mais non. Il faut avoir trop confiance.
<strong>François Lanthier-Nadeau:</strong> Chris. C'est une boîte noire, mais on peut ouvrir un peu. Je suis 100 % d'accord. Ça, c'est vraiment fucked up, dude. Parce que le UX, de poser une question, recevoir une réponse, est extrêmement similaire au UX que tu vas vivre dans, mettons, un logiciel cloud, un search engine. Lui, il va aller fetcher un mot-clé précis. Tu es habitué que quand tu... input, requête, reçoit réponse.
<strong>David Beauchemin:</strong> La réponse, elle est bonne.
<strong>François Lanthier-Nadeau:</strong> Exact. Factuelle. Mais là, man, c'est en arrière. C'est pas de la même manière que la réponse est générée. Puis, monsieur, madame, tout le monde catch pas ça des fois. Puis, ils se fâchent, tu sais, avec ça. Fait que, ouais, c'est un aussi bon point, man.
<strong>David Beauchemin:</strong> Pour moi, c'est encore l'élément le plus dangereux de la techno qu'on nous vend comme quoi. un niveau de doctorat, le prochain modèle de JPT, je mets mon bémol là-dessus. Je comprends qu'on peut s'y rendre, mais il y a du travail à faire encore. Le problème, c'est que oui, le fact-checking, maintenant, on le rajoute avec une recherche web, on rajoute plein d'affaires. Hier, je demandais à... Nous autres, on est beaucoup sur Google, Gemini, la solution Deep Search. J'étais comme, ça existe-tu un outil qui fait telle affaire ? J'ai demandé de faire une recherche sur le web. Moi, je ne trouvais rien d'intéressant avec une petite recherche. Ils me présentent des solutions, et les solutions qu'ils me présentent, je suis comme, même pas ça que je veux faire. Il y a encore de la difficulté à apprendre des trucs. Il y a des tâches, effectivement, à plus faible complexité que, oui, on peut vraiment faire de quoi tu parles intéressant, mais il y a encore du travail à faire, à y faire pleinement confiance. C'est comme souvent, je dis aux gens, mettons que tu prends un rapport annuel de 500 pages ou un rapport de je ne sais pas quoi, fais-moi un résumé de ça. Tu dis, je ne veux pas lire, je vais avoir un bon résumé. Tant que tu ne l'as pas lu, tu n'as aucune idée si c'est de la bullshit. Tu n'as aucune idée. Si tu te mets à être obligé de lire pour dire, « Est-ce que tu as un bon résumé ? » Tu n'as pas sauvé de temps, ben ben. C'est pour ça qu'il y a encore des tâches, des fonctions qu'il faut faire attention. Mettons que tu es comme, voici 100 articles, je ne vais pas les lire les 100 anyway, je veux juste voir c'est quoi les tendances. Probablement qu'il ne va pas se tromper, tu vas être correct. C'est pour ça qu'il y a des spots que la valeur est super nice, mais il y en a beaucoup que ça donne l'impression que c'est hot, tu vas chercher le 80 % super vite, mais le 20 % qui reste pour faire un vrai software qui a de l'allure, il te reste du travail à faire.
<strong>François Lanthier-Nadeau:</strong> Soit il faut que tu fasses du code custom ou soit il faut que tu fasses de l'inférence ou de la réflexion humaine, Customs.
<strong>David Beauchemin:</strong> Exact. Faut que tu mettes de la logique d'affaires, faut que tu mettes encore des trucs très traditionnels.
<strong>François Lanthier-Nadeau:</strong> Je pensais à ça d'autre quand je m'en venais ici, parce qu'on a eu une assez bonne discussion aussi cette semaine sur comment passer d'une preuve de concept à des trucs en production. Puis on va en parler un peu plus tard dans le pod, puis on a une capsule là-dessus, etc. On la mettra dans les show notes. Mais genre, la notion de ne pas lui faire confiance à 1000%, comme tu viens de dire, je pensais à ça dans le char en m'en venant, puis j'étais là, man, je me frustre moins quand je travaille avec Claude ou Chad GPT, quand je le perçois comme... un collègue junior ou intermédiaire que je dois encadrer et corriger et entraîner et lui dire, t'es-tu sûr, buddy ? T'es-tu trompé ? Double-check ça. D'où que t'as sorti ça, juste pour le fun ? Puis quand je suis dans ce mindset-là et que je suis pas en mode genre prop dégueulasse, ramène-moi le coup le plus vite possible pour que ça marche, on dirait, man, que je suis comme plus zen. Genre, ça va mieux, man.
<strong>David Beauchemin:</strong> Moi, c'est exactement ce que je recommande, c'est de le voir comme un stagiaire. Ça, ça veut dire trois choses. Faut que tu sois prêt à répéter, à répéter, puis à répéter.
<strong>François Lanthier-Nadeau:</strong> C'est vraiment bien dit, le gars.
<strong>David Beauchemin:</strong> Puis contrôle qualité aussi et vraiment garder en tête. Si, mettons, tu dis, mon stagiaire, je veux écrire des posts Facebook, je fais une faute, il faut me rompre une couple de fois, c'est pas dramatique. C'est pas critique. Mais si tu dis, je vais baser finalement des résumés pour ma plateforme de professionnels de la santé, là, plus de travail à faire pour être certain.
<strong>François Lanthier-Nadeau:</strong> Même ton rapport aux investisseurs. Il y en a qui sont savis en crise. Si l'LLM, il hallucine un petit peu.
<strong>David Beauchemin:</strong> Il prend un postant au lieu d'un. Tout ce qui est les chiffres, il faut faire encore plus attention. C'est souvent pas bon.
<strong>François Lanthier-Nadeau:</strong> J'ai beaucoup parlé de Chad Jepiti, Open AI, Claude Piantropik aussi. On considère-tu que c'est encore les leaders dans le marché pas mal ? Y'a-tu au top de la montagne qui est là ? Qu'est-ce qui se passe ?
<strong>David Beauchemin:</strong> C'est une très bonne question. Là, ça dépend, c'est quoi les critères qu'on se base pour mesurer la performance de ces systèmes-là. Souvent, il y a comme différentes tendances qu'on va voir. En termes d'accessibilité, pour moi, je pense qu'encore le plus facile d'accès, c'est GPT et compagnie. Tous les modèles d'OpenAI, les différentes variances, sont tellement... Ils ont tellement réussi leur coût marketing qu'ils sont encore là. En termes de... Est-ce que les gens apprécient encore pleinement leur... de performance des modèles qu'ils utilisent, ça va être mix, mettons, les feelings. Claude donne aussi quelque chose de super intéressant. Les feedbacks que je reçois souvent des gens, c'est que Claude va moins essayer de dire de la bullshit, va plus essayer d'être aidant, alors que JPT, il va juste dire whatever qui a du sens pour supporter ce que tu fais comme affirmation. Il y a un petit peu l'impression de ça. Maintenant, mettons que tu prends des leaderboards, des benchmarkings, tu regardes les meilleurs, à chaque semaine, on dirait que ça change. C'est le DeepSea, c'est un nouveau qui s'est racheté dans le décor. Tu as Alibaba, des excellents LLM open source en passant, sont vraiment solides. Rapport qualité-prix en termes de grosseur, performance, sont souvent très bons dans les tops des leaderboards. Ça dépend des tâches aussi. Par exemple, pour mon doctorat, moi, je m'intéresse beaucoup à l'assurance, à l'application d'assurance, puis GPT, présentement, c'est les meilleurs. Et de loin. Et de loin. Mettons, les meilleurs modèles ont appris une performance sur le test que je fais. 50 à 60 %, mettons, des questions repos sont bien répondus, alors qu'avec O1, on est à 77 %. C'est une grosse différence.
<strong>François Lanthier-Nadeau:</strong> À Cério, ça change de quoi pour vrai ? J'ai commencé à faire du business de vrai.
<strong>David Beauchemin:</strong> Ça fait une grosse différence.
<strong>François Lanthier-Nadeau:</strong> Encore une fois, le parallèle est peut-être un petit peu boiteux, mais si tu donnes à ton employé, ton stagiaire, plus de temps, pour réfléchir et accomplir une tâche, il y a plus de chances que ce soit Sharps qui te chip.
<strong>David Beauchemin:</strong> Ça coûte plus cher, par contre.
<strong>François Lanthier-Nadeau:</strong> Ça coûte plus cher, ouais. Fair. Elle t'a parlé de ton doctorat, puis j'ai flashé. Je suis comme, Christ, arrête de dire la première question que je te pose pour te troller. Il y a deux ans, tu complétais ton doctorat. T'es rendu où, Biggie ?
<strong>David Beauchemin:</strong> Il y a deux ans, je disais que j'étais à six mois. Là, je dis que j'étais à un chapitre. C'est bon.
<strong>François Lanthier-Nadeau:</strong> C'est qualitatif.
<strong>David Beauchemin:</strong> C'est une impression qualitative. J'étais un chapitre de le finir. Il faut que j'aille finir cette année parce que je suis rendu que je mets peut-être moins d'heures que j'ai de doigts. C'est ça qui devient difficile de plus en plus.
<strong>François Lanthier-Nadeau:</strong> Y a-tu d'autres... outils ou stacks qui sont privilégiés par les SaaS avec lesquels tu travailles déjà comme client ou avec qui tu jases et que tu échanges des connaissances. Autre que, genre, les API d'OpenAI ou les API d'Anthropic.
<strong>David Beauchemin:</strong> Quand même pas mal. Un truc, je vais passer, mettons, nous à l'interne, tout ce qui est les assistants de code, copilots, cursor, on est 100% là-dedans. Nous, ce qu'on a remarqué, c'est qu'un développeur senior, je veux dire, c'est à peu près 20 à 30% de gain de productivité que ça va lui donner. Pourquoi ? Parce qu'il a la capacité de pouvoir dire non, non, non, c'est pas bon qu'est-ce qu'il va me faire. Fait qu'il est capable de vraiment pouvoir l'utiliser, dire non, non, ici, rajoute-moi une fonction, fais-moi telle affaire. Tout ce qui est de partir du code de zéro pour construire de quoi, des solutions comme Lovable, c'est super le fun, tu peux partir quelque chose de bien. Bon, après ça, des fois, en termes de respecter les bonnes pratiques, t'es pas toujours là, le code, il est pas très bien segmenté. Il y a comme des petites failles un petit peu comme ça qui font en sorte qu'à plus long terme, c'est difficile à maintenir. Mais des projets qu'on va partir, mettons, on veut un petit UI pour juste montrer qu'est-ce que la solution fait. c'est parfait. Il n'y a rien qui va battre ça en termes de coûts. Maintenant, pour du junior, on est plus mitigé en termes de c'est quoi le gain de performance. J'ai remarqué de plus en plus, et je pense que ça s'applique à d'autres secteurs aussi, les avocats ont le même feedback, les architectes, d'autres professionnels. Soit que c'est vraiment pas un outil qui les aide, ils ne sont pas capables de bien l'utiliser, le gain de performance n'est pas là, ou ils vont prendre tout ce qu'ils disent pour du cash et ils vont faire de quoi qui n'est pas nécessairement de qualité. Puis tu en as une autre catégorie qui est super embarquée là-dedans. Puis là, ils vont vraiment loin. Puis là, le gain de productivité est souvent supérieur à un senior parce qu'il n'a pas la capacité des fois de tout de suite commencer à challenger. Ça fait qu'il va beaucoup l'utiliser comme un levier. Puis là, on va avoir un gros grain de positivité. Est-ce que la qualité est aussi bonne qu'un senior ? Reste à voir. Donc, c'est encore une très grande inégalité au niveau de la performance, de comment tu utilises l'outil. Puis pour moi, c'est beaucoup savoir comment communiquer. Si tu comprends comment communiquer adéquatement ton idée, partir de ta tête puis de l'envoyer là-dedans pour lui dire les instructions à faire, ça va être super bon. Sinon, ça va probablement être vraiment mauvais.
<strong>François Lanthier-Nadeau:</strong> Oui, man. Il y a un terme ou un paradigme, qu'est-ce que je veux dire ? Un modèle, framework, c'est modèle en français ? Il y a un framework que j'entends de plus en plus, même dans les pods, sur Twitter ou ailleurs, qui est comme, on s'enligne dans une allocation economy. Ou est-ce que tu as... tellement de ressources computationnelles et d'intelligence artificielle qui est au bout de tes doigts, que ton skill set qui va avoir le plus de levier, c'en est un qui ressemble au rôle de manager. Où est-ce que tu alloues des ressources.
<strong>David Beauchemin:</strong> Un directeur de visite.
<strong>François Lanthier-Nadeau:</strong> Exact. Un bon manager, pour faire écho à ce que tu viens de dire, c'est genre, ça communique très bien. C'est l'intention. Tu dois le contexte, ça encadre la personne de la bonne manière pour qu'elle parte et s'en aille dans la bonne traque.
<strong>David Beauchemin:</strong> Une vision d'affaires.
<strong>François Lanthier-Nadeau:</strong> une vision d'affaires. Mais tout ça, ça passe par du français ou de l'anglais. Si tu n'as jamais travaillé ces skills-là du tout, c'est sûr que ça va être dur d'enligner l'LLM dans le bon chemin.
<strong>David Beauchemin:</strong> C'est pour ça que souvent, ce qu'on va voir, c'est que les gens ont souvent le réflexe, on le voit souvent dans les SaaS, mettons, le réflexe « Ah, je vais prendre l'LLM, je vais faire un chatbot qui va faire ça dans ma plateforme, etc. » OK, fine, c'est une proposition de valeur qui a de l'allure, mais en fait, souvent, la valeur, c'est plutôt de dire « OK, C'est quoi que mes utilisateurs font souvent ? Avant, je n'étais pas capable d'automatiser avec du software traditionnel. Là, je ne suis pas automatisé avec ça. Mon client va souvent me demander de faire tel genre de rapport, tel genre d'affaires, tel genre de trucs. Il veut me sortir tel genre d'insides, tel genre d'affaires. Si j'y laisse faire le prompting, ça se peut qu'il va juste faire la merde. Il n'arrivera pas à se rendre à la fin et de faire ce qu'il veut. Peux-tu déjà faire les prompts, aller chercher ça, et juste lui donner un nouveau bouton qui est comme, fais-moi de l'insides sur ça. J'ai tout dit dans une newsletter, dans n'importe quoi. Puis là, tu peux essayer de monétiser ça. Tu peux essayer d'aller chercher de quoi. Parce que si tu ouvres un chat ouvert, ça va coûter cher vite. Puis tu ne sais pas qu'est-ce que tu vas réussir à monétiser de tout ça. Puis ça va être difficile, d'après moi, des fois, de montrer la pleine valeur. Fait que le chat, il est intéressant si tu vas avoir des bêtas testeurs pour voir c'est quoi les questions qui se posent. Tu t'en sers comme ton voice of customer. tu pognes ça, tu transformes ça en feature puis tu redéploies ça par la suite pour que tout le reste soit bon.
<strong>François Lanthier-Nadeau:</strong> C'est tellement bien dit, Doud, parce que, OK, dans une interface utilisateur, t'as des conventions de design, puis t'as une hiérarchie de l'information qui agit comme contrainte et qui guide l'utilisateur vers l'accomplissement d'une tâche donnée. Si tu fais juste ouvrir un fucking chatbot, man...
<strong>David Beauchemin:</strong> Il sait pas ce que c'est que ça.
<strong>François Lanthier-Nadeau:</strong> Une contrainte, il y a aucun guide. Il saura pas quoi faire. Là, man, ça part. C'est comme un peu une paralysie décisionnelle. Genre, il y a tellement de choix, tellement de possibilités, je sais même pas... Alors qu'un GUI, le gros bouton qui brille pour générer mon rapport, il est là. Je suis pas mal sûr que c'est là qu'il faut que je clique. Mais c'est vraiment bien dit que les plus savis, t'es alpha, beta, power tester. Eux,
<strong>David Beauchemin:</strong> ils vont vouloir la personnalisation, ils vont vouloir avoir plein de pouvoirs, mais les autres, probablement pas.
<strong>François Lanthier-Nadeau:</strong> Puis, il y a la suite, la G Suite, le genre de suite où Google fait des trucs quand même cool avec les I, mettons, dans Google Sheet. Tu sélectionnes de quoi.
<strong>David Beauchemin:</strong> Il va te proposer des insights.
<strong>François Lanthier-Nadeau:</strong> Genre, souvent, je clique et j'ai un peu ou beaucoup de value genre quick. Puis ça, c'est vraiment cool parce que ça ne met pas la charge cognitive de comment utiliser l'IA sur moi. Ça m'utilise l'IA pour moi. Ça, c'est vraiment bien quand tu le formules. On est-tu game de faire un statement, un énoncé du genre les LLM sont rendus assez robustes pour être core ? dans la livraison de valeur d'une compagnie technologique comme un sage, d'avoir un rôle core et pas juste en marge ? De plus en plus.
<strong>David Beauchemin:</strong> Il y a encore un petit peu de travail pour certaines affaires. En fait, c'est surtout une question de gérer. Si on est dans un chat ouvert, un des grands enjeux, c'est la form injection. Tu ne sais pas ce qu'il va dire comme bêtise. Tu n'es pas capable de faire le contrôle de la qualité. Dans le domaine médical, Tu veux utiliser un questionnaire ou de l'information, un meeting, whatever, un carway, mettons, comme qu'est-ce qu'ils font. Tu fais des notes, puis là, tu veux sortir de la valeur de ça. Le problème que tu as, c'est que c'est difficile de t'assurer que tous les éléments pertinents ont bien été extraits. Comment tu mesures ta performance ? C'est complexe. De plus en plus, les modèles vont réussir à le faire. Mais si, mettons, ça aurait été juste un chatbot ouvert pour poser des questions médicales, c'est encore plus compliqué. Parce que tu n'as pas de contrôle sur la question de ton initiateur. Tu vas être certain de penser à tous les edge cases. Et de penser à tous les edge cases, ça coûte cher. ça prend du monde ça prend du temps etc fait que si tu le transformes tout en feature pis que là tu mesures la performance spécifique de ta feature souvent tu vas voir plus vite la valeur mais t'es peut-être moins sexy que de laisser une boîte ouverte comme ça pour ça à la place faut que t'aies des voice of customers pour que tu puisses leur poser des questions ouais alright
<strong>François Lanthier-Nadeau:</strong> folks petit shout out aux chiffres partenaires certifiés SaaSpasse une firme comptable tech enabled qui organise vos finances de la comptabilité cloud à la paye à la fiscalité c'est le bras droit de l'entrepreneur tech ils ont aidé un peu. paquets de SaaS bootstrapped ou fondés. Check them out sur saspass.com slash partenaire avec un S. Puis manquez pas le show 74 avec Jean-Gab sur le pricing. OK ? De retour au pod. Ça fait 10 ans, man. J'ai comme l'impression que c'est dur à suivre pour M. et Mme Tout-le-Monde, mais c'est même dur à suivre pour les founders techniques, dude. Parce qu'il y a tellement de tooling qui se développe, les modèles évoluent, il y a des nouveaux joueurs qui arrivent dans le marché, puis... il y a des petites bulles de hype qui explosent sur les médias sociaux.
<strong>David Beauchemin:</strong> Des psychs, mettons. Oui,
<strong>François Lanthier-Nadeau:</strong> exact. Puis là, mettons que tu es founder, ce n'est pas vrai, man, que tu as quatre jours dans ta semaine où tu peux expérimenter tranquille avec tous les nouveaux outils qui viennent de sortir.
<strong>David Beauchemin:</strong> Quand même à ton équipe.
<strong>François Lanthier-Nadeau:</strong> Et même si c'est pour ton équipe aussi, genre tu es busy as fuck, man. Tu essaies de lever du financement, tu essaies de faire des embauches, tu essaies de closer les gros dégâts.
<strong>David Beauchemin:</strong> Punt grow.
<strong>François Lanthier-Nadeau:</strong> Exact. C'est pour ça que je trouve ça cool, moi, d'avoir une business comme la vôtre qui comme à côté ou prêtes à aider, mais même la même pression est là pour tâter ma tweet.
<strong>David Beauchemin:</strong> Comment est-ce qu'on se maintient à jour ?
<strong>François Lanthier-Nadeau:</strong> C'est ça. Vos autres vies, vous avez des mandats clients. Il faut que tu shippes.
<strong>David Beauchemin:</strong> Moi aussi, je les ai financières faibles.
<strong>François Lanthier-Nadeau:</strong> Je n'ai pas le choix. Il faut que je close. Comment tu fais ?
<strong>David Beauchemin:</strong> C'est une bonne question. Les méthodes qu'on a utilisées avant fonctionnaient bien, puis le rythme s'accélère de plus en plus. Ta question que tu m'as posée en avant ? parce que tu prépares tes questions. Vraiment, faites réfléchir et je vais revenir à ça après. Qu'est-ce que je vois mon excès pour ça ? Nous, présentement, ce qu'on fait, c'est classique. On monite une couple de newsletters de ci, de ça. Moi, je les lis à peu près tous les matins. Je prends un 10-15 minutes pour lire Info Bref, par exemple, des affaires de la même sur la techno. On fait juste partager ça entre nous autres et on a du temps qu'on s'alloue un peu là-dessus. Mais il y a une limite. On ne parle pas de quatre jours. On parle en termes d'une demi-heure, une heure. Mettons, les team leads. On a un team lead. lui, c'est sûr qu'il faut que ça fasse partie de sa tâche. Avressons les chars à nous autres, puis on fait des monthly sur des trucs techniques. Que genre, on share de la connaissance.
<strong>François Lanthier-Nadeau:</strong> Ton collègue me l'avait dit, il est venu sur le pod.
<strong>David Beauchemin:</strong> Très possible.
<strong>François Lanthier-Nadeau:</strong> C'est un partage de connaissances, genre un peu un lunch and learn. Exact.
<strong>David Beauchemin:</strong> C'est ça. L'avant-midi qu'on fait, on a d'autres sujets qui vont se mener à table aussi. Mais tu sais, à un moment donné, c'était comme, c'est quoi un RAC ? C'est quoi ces affaires-là, etc. Comment on va évaluer ça ? ce genre de réflexion-là, en même temps aussi qu'on a une réflexion, mais aussi sur la techno. Puis là, récemment, avec le rythme qui augmente, puis le bruit, et puis c'est que c'est un bon exemple, que ça a vite fait du bruit, c'est tombé ce matin, j'ai regardé ça, je suis allé voir l'article scientifique, puis je me suis fait comme, OK, c'est ça les contributions pertinentes, une couple de personnes que je suis aussi, on regarde, de chaque notion, ça m'a fait une tête. Mais je... les outils technologiques tombe moins souvent des fois sur mon radar. On dirait que je les vois moins passer souvent. C'est plus comme des gros boss techno. Comment réussir à faire ? Tu m'as parlé de Manus l'autre fois. J'ai fait, je pense que je vais me faire un processus de monitoring et de vigie avec une affaire de même. Voici des sites que je vais surveiller. Voici des bons clés que je vais te surveiller. Fais-moi un rapport à toi et whatever la fréquence. Je veux que ce soit des points de forme. Je veux juste quick. J'ai essayé de trouver une solution. Ce que je cherchais en deep search que je t'expliquais tantôt aussi. que j'ai demandé à Gemini de me faire, comme de trouver une solution, ça, ce qu'il pourrait faire ça pour moi. Je n'en ai pas trouvé. Puis les réponses qu'il me donnait n'étaient juste pas bonnes en plus. C'était vraiment, il me donnait plein d'autres affaires sur de la vigie, d'autres affaires, le truc. Mais je n'ai pas encore trouvé de quoi. Sûrement qu'il y en a qui existent qui pourraient me permettre de le faire. Parce que là, il faut que je fasse des proms, etc. Pour moi, je vais me le faire moi-même finalement. Mais de faire la vigie, c'est encore beaucoup d'efforts. Je n'ai pas vu de quoi qui me permet de quickly, juste comme... consommer, genre, « Hey, voici l'avable, voici de l'affaire, voici ce qui est sorti dans les trois derniers mois, puis comme, voici la proposition de valeur, voici comme qui est derrière ça, puis ce genre de détails-là aussi, parce que des fois, il y a des outils historiques, t'es comme, « Ah, c'est un proto-produit, puis on n'est pas là. » « Firefly, quand ça sortit, c'était le fun, mais toi, t'étais pas là au complet. » Pouvoir faire cette vie-là, puis de comme le revisiter aussi dans six mois, un an, juste comme « Ça a-tu bougé ? Est-ce quelque chose de pertinent ? » Récemment, quelqu'un m'a parlé de fixeur. Vraiment le fun, j'ai testé, j'ai joué avec. Deux premières semaines, c'était une lune de miel. Je te dirais que je suis un peu fort tombé.
<strong>François Lanthier-Nadeau:</strong> Fixer.ai, c'est un peu un assistant pour ta boîte de courriel et ton calendrier où est-ce qu'il va lire tes courriels entrant puis générer des drafts, par exemple, dans ton inbox que tu peux juste approuver puis envoyer. Il va aussi te proposer des slots parce qu'il voit ton calendrier quand il détecte que dans la spèce de...
<strong>David Beauchemin:</strong> On parle dans la récon, quelque chose comme ça.
<strong>François Lanthier-Nadeau:</strong> C'est vraiment cool. C'est Antoine de Lashdisk qui en a parlé au début.
<strong>David Beauchemin:</strong> Ce que j'ai trouvé, c'est que les features, on dirait qu'ils essaient de te vendre mon tête-dessus. C'est genre un Calendly, une autre affaire. T'es comme, c'est pas ça que je veux. On dirait qu'ils ont essayé de faire plein d'autres affaires connexes parce que sûrement qu'ils voulaient essayer d'aller chercher plus de clients. J'ai déjà ces autres tools-là ailleurs. Moi, j'ai l'impression qu'ils vont se faire acheter dans pas long et se faire intégrer. C'est ce que je m'attendrais dans ce genre de fonctionnalité-là. C'est une fonctionnalité, ce n'est pas un software en soi pour l'instant, j'ai l'impression. C'est fait,
<strong>François Lanthier-Nadeau:</strong> oui. Une très belle fonctionnalité. Même dans l'onboarding, t'es comme, that's it ? J'ai juste 4-5 toggles à faire. C'est tout le système. Toute ma value, c'est juste une feature dans mon Gmail.
<strong>David Beauchemin:</strong> C'est ça, exact. Pour 40$ US par mois. Ouais,
<strong>François Lanthier-Nadeau:</strong> exact. Moi, c'est ça que je te disais offline. J'ai eu un haha moment. Oh Chris, c'est trois drafts qui sont faits à des courriels. Je peux littéralement juste faire send. Mais c'est ça, man. Des fois, c'est de la marde. Des fois, c'est de la marde. Puis aussi, ça ne s'intègre pas dans mon workflow, dans mes cifs. Puis moi-même, mes courriels, puis ma collab est dans mes cifs. Puis j'ai des tags, j'ai des labels. Je partage avec Joe, avec Gérald, des affaires. Tu sais, c'est là que je veux gérer mes comms. Fait qu'on s'était dit justement qu'on allait checker pour les AI rules dans mes cifs.
<strong>David Beauchemin:</strong> C'est exactement ça que je vais regarder. Je n'ai pas eu le temps de le faire parce que l'avantage de Fexio, c'est que tu rentres direct dedans et puis t'as le fait la classification est quand même le fun j'ai appris ça mais comme Clairement, je suis arrivé au bout de deux semaines, trois semaines, de comme, ah, j'ai pas ce que je veux. J'ai pas... Je vois le potentiel, mais j'ai trouvé même que ça a dégradé récemment en termes de... Parce que je suis plus critique, peu importe, que je vais avoir plus de contrôle et je pense que Missy va plus ça, moi aussi.
<strong>François Lanthier-Nadeau:</strong> C'est le même pattern avec tellement de trucs en AI que genre, ah, je suis presque là, mais il reste ce 20 %-là que je suis pas insatisfait.
<strong>David Beauchemin:</strong> C'est ça, c'est ce 20 %-là que tu veux.
<strong>François Lanthier-Nadeau:</strong> Mais juste pour revenir à genre... je vais peut-être me builder un tool pour faire de la veille un peu sur ce qui sort puis me faire des rapports courts et précis en fonction de ma business et de mes clients, pas juste genre du IP. Ben, tu checkeras, je voulais qu'on s'en parle un peu de ça, mais l'INDY c'est genre des AI agents, si on sent que c'est quelque chose qui est des AI swarms, où est-ce que tu peux déployer une chier d'agents qui vont travailler en parallèle sur l'exécution d'une tâche connexe, mais qui a comme des... Tu sais, avec un... si tu essaies de faire un gros projet avec de multiples tâches dans un thread, mettons, sur un charge PT de ce monde, souvent, il va commencer à... C'est pas grave,
<strong>David Beauchemin:</strong> il va être détenu, il va faire n'importe quoi.
<strong>François Lanthier-Nadeau:</strong> Le context window, tu le dépasses ou je ne sais pas quoi. Fait que, supposément que ça règle ça. Je ne l'ai pas utilisé encore, disclaimer, si le monde écoute et qu'ils sont comme ça, je vais l'utiliser ça tout de suite. Mais je suis pas mal convaincu, même qu'avec les cursors replit lovable bolt de ce monde plus, genre, un petit workflow d'AI Agents dans l'Indie, tu pourrais avoir de quoi de nickel.
<strong>David Beauchemin:</strong> Très probablement.
<strong>François Lanthier-Nadeau:</strong> Dès que tu es un minimum technique ou curieux, genre, tu sais, ça se build. Puis ça, c'est une autre affaire qui doit faire shaker certains sasses, c'est que, call this, man, si je ne suis plus capable de builder, genre, 90 % de tes fonctionnalités en un week-end, genre... Après ça, ton Edge,
<strong>David Beauchemin:</strong> c'est ta distinction,
<strong>François Lanthier-Nadeau:</strong> puis ta brand, c'est plus genre à tech.
<strong>David Beauchemin:</strong> Je pense de moins en moins que c'est la technologie, le Edge, c'est plutôt la commercialisation. Je pense que, après ça aussi, j'avais une discussion, je ne sais plus avec qui, mais justement, nous, on est tellement en techno qu'on a l'impression que tout le monde est bon en techno.
<strong>François Lanthier-Nadeau:</strong> Sim de Workly, Sim Domaine, il disait, je ne me rappelle plus ce qu'il disait dans la communauté privée, mais genre, moi, j'étais là, qu'est-ce que c'est pour ça que les SaaS, whatever, puis il a juste commenté. Ah, le good old tech eco-chamber. Oui, oui. Parce qu'on est tellement... Hein, man ? Qu'on est comme genre... Tu fais « fuck, ça va changer » . Ça t'en vient demain,
<strong>David Beauchemin:</strong> puis il y a plein d'autres mondes extérieurs qui sont comme « quoi, chat GPT ? » .
<strong>François Lanthier-Nadeau:</strong> Oui, oui, exact. Moi, ça a pris deux ans avec ma blonde et ma mère quand on s'est allé l'utiliser plus pour de vrai. Tu sais, chat GPT, puis ça faisait deux ans que j'en parlais. Fait que tu sais, de façon générale, l'IA générative, ça s'est amélioré beaucoup. Est-ce que ça a changé comment toi t'accompagnes des business comme des SaaS ou d'autres compagnies, vous accompagnez pas juste des SaaS. De façon générative. Soit dans tes process ou dans ce que tu conseilles.
<strong>David Beauchemin:</strong> Un mix de tout. Présentement, tout le monde veut faire de l'IA générative. Ils vont dire l'IA, mais ils vont parler de l'IA générative finalement.
<strong>François Lanthier-Nadeau:</strong> Ils ne parlent pas de computer vision.
<strong>David Beauchemin:</strong> Exact. Souvent, ce qu'on va voir, c'est que c'est une bonne porte d'entrée. Parce qu'un des avantages de l'IA générative, j'en ai parlé, c'est de pouvoir extraire des données non structurées. J'ai plein de factures, j'ai plein de contrats, j'ai plein d'ops de services, j'aimerais ça accélérer. Fouiller dans mes offres de services historiques, par exemple, pour trouver qui parle de ça, pour en faire une nouvelle plus rapidement avec ça. Ah, bien, OK, oui, on va utiliser un génératif pour faire ça. Mais, hey, regarde aussi si tu préfères. Puis là, on leur parle d'autre chose par la suite. Mettons, dans du manufacturier, c'est pas mal comme ça qu'on va le faire.
<strong>François Lanthier-Nadeau:</strong> Est-ce que parce que l'espèce de mode un peu old my beer, je te donne l'info crissement vite des LLM, c'est un genre de time to value quand même vite. C'est comme un « wow » vite, pour le client. Ça l'ouvre leur esprit.
<strong>David Beauchemin:</strong> C'est facile à expliquer aussi que je te dis « voici une régression et ici, on va prédire ça. »
<strong>François Lanthier-Nadeau:</strong> Même moi... Tu m'as l'expliqué longtemps.
<strong>David Beauchemin:</strong> C'est pour ça que c'est tellement plus facile. En fait, moi, c'est que ça a simplifié mon travail en termes de montrer la valeur. On peut aussi montrer la valeur tellement vite pour le client. Dans le processus agile, tu veux livrer vite, tu veux faire la plus petite itération possible. Tu es tellement capable de te coller là-dessus. Montrer de quoi. Après ça, le challenge qu'on a fait de face, pour être super transparent, c'est que tu crées tellement la valeur vite que les gens ont l'impression que tu te rends 80 % juste avec Chargpt. C'est comme, moi, pourquoi j'ai besoin de whatever le nombre de dollars pour faire le 20 % restant ? Là, tu as le droit de paraître tôt à 30 dedans. Une couple de fois qu'on a fait des démos, c'est comme, mets-moi ça tout de suite en place. Ça va me coûter 5 piastres, genre whatever le prix que ça t'en fait. T'es comme, oui, mais non. C'est l'autre bout que, des fois, on ne l'a pas eu à cause de ça. Oui. On t'aimait le garde-auto du coup.
<strong>François Lanthier-Nadeau:</strong> C'est fucked up, man. C'est comme si... C'est comme si tu te montrais... J'ai une analogie boiteuse dans la tête, man. C'est pas allé très fort.
<strong>David Beauchemin:</strong> On va m'ouvrir.
<strong>François Lanthier-Nadeau:</strong> Mais je comprends. All right, man. Là, récemment, on s'est parlé sur une capsule de comment la donnée qui était manipulée par des LLMs opérait. où elle était storée, de quelle manière et tout ça. Tu m'en avais expliqué. Oui, c'est ça. Fait que là, dans le fond, tu m'as expliqué grosso modo des bases de données vectorielles, comment ça fonctionnait dans notre capsule, puis je l'avais entré dans les show notes. Mais là, après ça, j'étais là, je pense que j'ai compris, mais je prends une marche genre quatre fois par semaine dans mon hood. Fait que je suis parti à marcher, puis je n'avais pas le goût d'écouter un pod, je n'avais pas le goût d'écouter de musique. J'ai juste fait, je me suis mis un shortcut, man, sur ce bouton-là que ça pop open tout de suite, genre le voice assistant de Chad Jepiti. Je peux tout de suite commencer à parler à Chachipiti. J'ai dit, « Hey man, je vais essayer de t'expliquer comment ça marche les bases de données vectorielles. » J'ai posé des questions, puis il m'a corrigé une couple d'affaires pour essayer de cimenter l'éducation. J'ai fait un gros...
<strong>David Beauchemin:</strong> Un gros cintre de champ pour te dédouaner que tu ne l'auras peut-être pas.
<strong>François Lanthier-Nadeau:</strong> Exactement, man. OK. Une base de données vectorielles, pour bien comprendre son utilité et comment ça fonctionne, d'abord, il faut que tu comprennes que la donnée... qu'on manipule, qu'on transforme, puis qu'on régurgite via des LLMs, c'est mostly, principalement, du texte. Du texte, c'est très nuancé comme information. Ce n'est pas des zéros puis des uns, ce n'est pas des chiffres puis des équations mathématiques qu'on le sait que ça égale ça ou ça n'égale pas ça. Ça fait que ce texte-là, pour bien le comprendre, on doit le segmenter en différents... appelons ça des poules en différents nuages de sens. Autour d'un bout de mot donné ou d'un mot donné, il va y avoir, proche de ce mot-là, un paquet d'autres mots qui sont sémantiquement proches. Proche de chat, il va y avoir félingue, par exemple. Ensuite, quand on a fait cette espèce de mapping-là, de sémantique, on peut couper des bouts de mots et les convertir en chiffres. Une fois qu'on a converti ces chiffres-là ensemble, on est capable de voir que cette série de chiffres-là est proche de cette autre série de chiffres-là. Puis là, c'est là que je vais avoir de la misère. Mais grosso modo, avec ces chiffres-là, quand tu les enlignes ensemble, Tu peux voir, ça peut créer comme sur un graphe, un vecteur comme on voyait au secondaire, dans les maths ou au cégep, dans les maths, que moi, je n'étais pas bon. Puis, tu as littéralement une représentation physique et mathématique du sens ou de la proximité du sens de ces mots-là. Puis là, tu peux prendre une décision sur, OK, bien là, si j'ai une requête que c'est ce cosinus-là ou cette courbe-là, puis que moi, je pensais y envoyer... si tu as comme réponse et que la courbe est proche de l'autre, j'ai beaucoup de chance que ça soit exact.
<strong>David Beauchemin:</strong> Oui. Les vecteurs sont similaires.
<strong>François Lanthier-Nadeau:</strong> Les vecteurs sont similaires. Je me suis-tu chié ou ça fait quand même du sens ? Je suis quand même content, man. Parce que ça fait un bout que je sais... C'est quoi le fucking exemple que tu fais tout le temps que tu as sur le bout des doigts ?
<strong>David Beauchemin:</strong> Roi. Tu prends le concept de roi, tu enlèves homme, tu rajoutes femme, ça fait rien. C'est la relation sémantique entre les mots. Pour ça, mon exemple Tout le monde comprend l'imaginaire. L'alternative à ça, c'est j'ai cherché les mots-clés. Une base donnée textuelle, c'est ça. Elasticsearch, par exemple, c'est un bon exemple. C'est un contrôle F que tu fais. Tu cherches les mots-clés. Si tu cherches le mot chat, tu ne trouveras pas le mot félin. Sémantique, tu vas trouver félin. Mais 100% sémantique, tu vas aussi des fois avoir des comportements qui ne sont pas toujours intéressants. En fait, tu as les mots-clés, puis tu as le sémantique, puis tu as l'hybride entre les deux. Mettons, OpenAI, la solution À ce temps-là, j'ai pété, c'est juste du sémantique. des fois tu vas vouloir aussi le rattacher à la vérité de dire comme il m'a parlé de chat je veux vraiment sortir tous tes textes qui parlent de chat parce que clairement ces textes là doivent être importants fait que là tu vas aller chercher un petit peu ton mot-clé pis tu vas faire une pondération entre les deux pis c'est souvent là que tu vas t'enlever les meilleurs ou du moins une plus grande stabilité dans tes résultats pis une cohérence fait
<strong>François Lanthier-Nadeau:</strong> que je pense que ce que j'avais dit dans la capsule c'est genre quand tu utilises une base de mots-clés une base de données plus textuelle c'est ça que t'as dit ? excuse pas, non vectorielle tu cherches ton commande F tu cherches pour des faits ou des instances genre Aziz. Oui, exact. Mais quand tu as une base de données vectorielle et que tu cherches là-dedans, tu cherches pour du sens.
<strong>David Beauchemin:</strong> Du sémantique sens, exactement. On est plus là-dedans. OK,
<strong>François Lanthier-Nadeau:</strong> parfait. Chris Mann, je suis quand même fier.
<strong>David Beauchemin:</strong> Tu as passé ton examen.
<strong>François Lanthier-Nadeau:</strong> J'ai passé mon examen. Parlant de ça, as-tu l'impression que si on avait à donner des conseils aux gens, soit aux moldus ou aux juniors qui commencent en tech et qui ne sont pas nécessairement des programmeurs hardcore, sur comment bien utiliser l'IA générative spécifiquement, est-ce que ce serait d'abord de comprendre ce que je viens de dire là, de ne pas trop leur faire confiance ? Est-ce que tu as des conseils à donner ?
<strong>David Beauchemin:</strong> Comprendre la base de données vectorielle, pas tantôt. Je ne pense pas que c'est vraiment tout moche. Je pense que pour moi, tu as dit la meilleure chose tantôt sur justement de ne pas trop y faire confiance et de le voir comme si c'était un junior ou un stagiaire ou un peu importe. Pour moi, c'est la racine de la meilleure chose. Ça veut dire qu'il faut que tu sois prêt à lui répéter. il va probablement pas te donner la bonne réponse, tu vas devoir reformuler, tu vas devoir essayer de faire du contrôle qualité et de jouer avec. Puis on l'a dit plusieurs fois, c'est de la communication de la compétence à développer. Fait que si t'apprends pas à bien communiquer avec ces outils-là, ça marchera pas. Puis pour moi, je pense qu'il y a un paradigme qui est une hypothèse. L'humain, quand on communique, on va utiliser du physique, on va aussi des fois faire des raccourcis, puis toi, tu vas être capable d'inférer, tu vas essayer de comprendre ce que je veux dire. on se connaît, on a un historique, on a quelque chose qui nous permet des fois de communiquer de manière encore plus compressée. Le langage est déjà une compression de mon esprit, qu'est-ce que j'essaie de faire. Fait que si je ne suis pas bon ou que je fais trop de raccourcis comme ça dans ma communication, l'IA va nécessairement ne pas être capable de capturer tout ça et ne va pas me donner le résultat que je veux. Fait que plus que tu es clair et précis dans ce que tu lui demandes, plus tu vas obtenir des réponses, des éléments qui vont être proches de ce que tu veux.
<strong>François Lanthier-Nadeau:</strong> Je pense que l'inception ici que je vais dire comme conseil, c'est « Man, si tu n'es pas certain de comment communiquer avec ton LLM, demande-y.
<strong>David Beauchemin:</strong> Oui. Nous, on a une métaprompte pour nous demander de faire moi une prompte pour être capable de faire ça, puis il nous fait une prompte pour après ça, prompter un autre système.
<strong>François Lanthier-Nadeau:</strong> Exact. C'est ça. Puis pour au niveau de la confiance, un truc que j'aime bien, c'est soit je vais ouvrir deux tables qui ne sont pas sur le même modèle nécessairement d'OpenAI, et ou j'ouvrirai peut-être une troisième table avec Claude, carrément. Puis souvent, je vais faire les mêmes prompts as is dans ces trucs-là pour voir, hey, Qu'est-ce qui sort ? Y'a-tu une grosse variance dans les réponses qu'on me retourne ? Si oui, je le sais que là, mon esprit d'éditeur pis d'aller valider doit être plus fort, plus présent. Si c'est pas mal, genre, straight up la même affaire, je suis comme, OK, c'est pas mal vers là que la réponse s'en va. Fait-tu du sens,
<strong>David Beauchemin:</strong> ça ? Je disais, ça m'a fait penser à quelque chose. Récemment, sur Bédette, j'avais vu un post de quelqu'un qui disait « Les Milleniaux, on est probablement la seule génération qui est capable de naturellement arriver sur un site web pour savoir s'il y a du scam ou non. » Parce que nous, on a vécu la création du web. Nos parents n'étaient pas dedans. Toi et moi, MySpace, le web, on l'a vécu à fond. Je pense qu'on a des outils ou des mécanismes ou des réflexes qu'on a qui, pour nous, semblent vraiment ambieuses de détecter de la fraude, détecter des affaires de la même, que les autres générations qui ont juste embarqué dans le web dans sa forme qui est moderne aujourd'hui, n'ont pas eu la chance vraiment de développer ces outils-là et ces réflexes-là de communication. J'ai hâte de voir eux, par contre, qui vont faire face à l'IA d'une autre manière, qui peut-être vont leur amener un autre skill set. Je n'ai aucune idée dans le futur. Mais pour nous, c'est une espèce de sens de comprendre que ce qu'on me dit, je ne pense pas bon. Je pense aussi qu'il est beaucoup basé sur notre expérience avec le web. Moi, tu regardes un site web, tu es comme, ce n'est pas crédible comme source. Rapidement, je suis capable de faire ce discernement-là. Oui,
<strong>François Lanthier-Nadeau:</strong> c'est intéressant. C'est intéressant et on l'a comme offloadé ou délégué. cette confiance-là ou cette analyse de... C'est-tu légitime ou pas ? On l'a délégué souvent à des moteurs de recherche comme Google. Exact. Qui, genre, eux autres, s'assurent de ne pas mettre du spam. Sauf que quand on ne passe pas par un point d'entrée dans le web comme Google, bien là, man...
<strong>David Beauchemin:</strong> Mais nous, on l'a passé avant Google. Oui. On l'a vécu. On l'a vécu. Fait que, tu sais, je suis capable de voir... Pour moi, instinctivement, je vois un site web, je suis capable de savoir si ça va être crédible ou non. On dirait que j'ai cette capacité-là de le faire. Je ne peux pas dire pourquoi j'arrive à faire ça. Est-ce que d'autres gens plus jeunes que moi arrivent à le faire ? Je ne le sais pas, mais naturellement, j'ai passé dans LimeWire. There than that, tu vas avoir les quelques, tu vas avoir un scam, puis ça ne va pas du tout être la chanson que tu as demandé.
<strong>François Lanthier-Nadeau:</strong> C'est Chris Mangiard qui sort, mais j'ai fait un épisode avec Raphaël Steinman de Maxa AI, qui est co-CEO de ça. Je suis sûr que ça va t'intéresser, mais on parlait beaucoup des systèmes 1 versus systèmes 2. Si jamais tu as... Merci. J'haïsse recommander des livres au monde parce que tout le monde est bien baisé. Même moi, quand je me fais recommander des livres, je suis comme... Thinking, Fast and Slow de Daniel Kahneman. Je ne sais pas comment ça se prononce. Un genre d'économiste psychologue qui a un paquet d'affaires. C'est un malade. Lui, il parle du système 1 et du système 2. Il dit que ton système 2, c'est ta compétence cognitive très consciente, très after the fact. Il s'est passé une chose, j'ai eu tous les inputs sensoriels ou d'informations, puis là, je réfléchis là-dessus, je me fais une tête et je communique à propos de ça. Ça, c'est ton système 2. Ton système 1, c'est toute l'intuition qui s'est construite et qui s'est peaufinée à travers des années, ce n'est pas des décennies d'expérience dans un domaine donné. L'exemple qu'il donne au début du livre, je pense, c'est genre, OK, tu as une couple de pompiers qui éteignent un feu dans un building. Tout semble éteint, tout semble sous contrôle. Puis à un moment donné, ils sont dans un salon, je pense, de ce building-là, puis le chef de pompier, que ça fait des décennies qu'il fait ça, il pogne un moment, puis il dit, « Hey, il faut qu'on sorte right now, crissez votre camp, évacuez le building right now. » Puis genre, des secondes après, le plancher a collapse au complet. Puis ça, c'est son système 1. C'est que ça fait tellement longtemps, man, qu'il vit dans l'environnement de building en feu, rescue du monde, puis tout, que son instinct a comme...
<strong>David Beauchemin:</strong> développer des réflexes, des trucs, de la compréhension, des affaires qui sont difficiles à expliquer.
<strong>François Lanthier-Nadeau:</strong> Difficile à expliquer, mais qui est souvent exact. C'est ton intuition. C'est comme si nous, on a tellement baigné dans le web que notre système 1 est comme, tu es capable de faire « Ah man, ça a l'air shady. » Sans que j'aille checker le code source ou sans que j'aille lire tout ce qui est écrit ou checker les backlinks. Tu es juste capable de faire « Ah ouais. »
<strong>David Beauchemin:</strong> J'ai l'impression que pour jouer avec un outil comme ça, on a vraiment un bon skill set. C'est ça qu'il faut développer. La capacité de... critiquer de dire qu'est-ce qui est dit et de ne pas le prendre pour de l'argent. À même titre que TikTok, c'est un bon exemple. On fait un autre paradigme. Il y a beaucoup de jeunes qui ont consommé, qui se sont éduqués sur TikTok pour des affaires qui sont complètement aberrantes. Sur la fiscalité, sur les revenus, sur la manière de fonctionner en société.
<strong>François Lanthier-Nadeau:</strong> C'est complètement aberrant,
<strong>David Beauchemin:</strong> dans le fond. Il y a des affaires qui sont dites, par exemple, des gens qui disent que le système des positions marche de même, de même, de même. La personne a dit de manière tellement claire dans TikTok, c'est tout ce que je veux dire. Elle dit des choses comme, c'est comme ça que ça marche. Je t'ai comme... Non, Pas comme ça, pas en tout que ça marche. C'est pas aberrant dans le sens sur ce qui peut être tenu comme propos.
<strong>François Lanthier-Nadeau:</strong> C'est comme la précision de tout ça.
<strong>David Beauchemin:</strong> Exact.
<strong>François Lanthier-Nadeau:</strong> Une des choses que je fais dans mon utilisation d'IA personnel, le plus c'est critique la tâche que j'essaie d'accomplir avec mon LLM, le plus je vais le faire, c'est lui demander s'il a inventé des choses, lui demander s'il a estimé, deviné, prédit des affaires, ou si... tout ce qu'il me dit est basé dans les documents que je lui ai fournis ou une recherche crédible qu'il a faite sur le web ou ça vient d'où dans ton dataset, dans le fond ? Puis ça arrive souvent, mettons, qu'il va me dire « Ouais, tu sais, ça, il y avait comme un trou dans le fond sémantique. » « Je veux t'aider. » C'est le même principe pour revenir au stagiaire, de challenger un peu ton stagiaire puis de faire comme « Hey, man ! » « T'es-tu sûr de ça ? Explique-moi par où t'es passé pour arriver là. » Ah, puis là, tu peux le corriger. Puis dire « Hey man, prochaine fois que je te demande de faire telle tâche, oublie pas de passer par tel chemin parce que ça, ça fonctionne pas pour moi. » Puis ça se peut que tu aies besoin de le répéter, puis c'est frustrant de répéter. Au même titre que répéter à un humain, c'est frustrant. Moi, tantôt, j'ai un style particulier quand j'écris. Puis moi, je veux que des fois que Chad Gpt soit un peu mon executive assistant puis me génère du content pour répondre vite à des affaires parce que mes DM débordent et tout ça. Il fallait que je répète trois fois, man. C'est comment je capitalisais mes lettres majicules, moi, François, quand j'écrivais. Ça a pris trois fois avant qu'il le pogne. Puis là, son memory a été updaté. J'étais tellement man aussi. J'étais allé voir ma memory. C'est-tu la bonne affaire ? Fait que, ouais, anyway. Répéter, s'assurer qu'il n'est pas en train de te gaslighter, le challenger beaucoup, utiliser différents outils, puis être patient, man. Être patient parce que...
<strong>David Beauchemin:</strong> C'est un learning curve.
<strong>François Lanthier-Nadeau:</strong> C'est un learning curve. C'est une nouvelle manière de travailler. Puis tu peux pas juste penser que... C'est pas parce que tu les vois, les caractères, se développer... T'as l'impression que la magie est tout de suite, que c'est instantané. Tout est bon. Mais non, man. Pour lui, c'est l'enfer la plus facile du monde, man. Chier du texte, genre.
<strong>David Beauchemin:</strong> C'est juste ça que ça fait. Exact.
<strong>François Lanthier-Nadeau:</strong> Fait que toi, c'est ta job de l'enligner puis de catcher.
<strong>David Beauchemin:</strong> Ce qui va être tough, c'est qu'il y a des gens qui ont peut-être pas la compétence pour ça. On a la limite de nos compétences, on a notre savoir. Fait que si tu manques quelque chose qui est quand même à ta zone de confort... Exact. C'est la procédure de challenger. On a quoi de marketing à Chagipiti ? Je ne sais pas comment le challenger. Je peux le challenger sur l'essence, l'idée de comme moi, non, ce n'est pas ça mon entreprise, d'affaires comme ça, mais est-ce que c'est bon ? Qu'est-ce qu'il y a de neuf à faire ? Oui.
<strong>François Lanthier-Nadeau:</strong> C'est pour ça que les... Ça va nous partir sur autre chose, mais c'est la tragédie des juniors qu'on est en train de voir parce que le 5 à 20 % d'incertitude que tu vis dans le output, dans une science qui n'est pas la tienne, comme le marketing, ou comme moi, quand je fais de l'analyse financière, par exemple. Comment je fais pour closer ce gap d'incertitude-là ? Je vais voir des experts. Je vais voir la fille au chiffre que si elle a fait 500 business comme la mienne, ça ne la stresse pas. Elle va me le dire. Ça, ça, ça, Frank, ça ne marche pas comme dans ton flou de trésorerie. Ce n'est pas même que ça marche. Si tu as le 80% de la job qu'un junior ferait de fait, dans mon cas, un LLM, et que pour le 5% à 20%, il faut juste des experts, où est-ce que ça laisse nos juniors ?
<strong>David Beauchemin:</strong> Toutes les services, d'autres. les entreprises de services, avocats, comptables, nous, même à faire. On a la même réflexion que si tu es dans une game de billing présentement.
<strong>François Lanthier-Nadeau:</strong> De billing à l'heure ou de billing par mandat.
<strong>David Beauchemin:</strong> Ça va changer. Il y a beaucoup, je disais un article récemment, un article scientifique, les gros cabinets d'avocats aux États-Unis sont beaucoup en train de repenser leurs valeurs. C'est beaucoup une game de billing, c'est débiler des gros taux, des 900 piastres de l'heure, des whatever là-dessus. Puis là, avant, c'était une armée de juniors qui fait l'exécution. À la place des juniors, on peut rentrer Merci. plein d'IA peut-être qui vont réussir à le faire. Le client va-tu nous dire, je sais que tu n'as plus autant de staff. Comment tu amènes ton client à comprendre que ce que tu offres, c'est de la valeur et non juste un taux ? Il y a toutes ces réflexions-là. Pour moi-même, au niveau des employés aussi, ça vaut-il encore la peine de payer un employé à l'heure ? S'il y a plein d'outils pour être capable de produire beaucoup de choses, est-ce que je le paye pour dire, maintenant, tu vas faire trois jours par semaine et je te paye le même salaire ? parce que tu arrives tellement à produire.
<strong>François Lanthier-Nadeau:</strong> Ou tu payes au résultat, si c'est une autre affaire qu'on a.
<strong>David Beauchemin:</strong> Mais t'es tough, il y a un changement de culture qu'il faut qu'il s'opère à travers ça.
<strong>François Lanthier-Nadeau:</strong> T'as raison, dude. All right, folks, le spotlight partenaire du mois, c'est YAK, une boîte de cybersécurité spécialisée en sécurité offensive. Test d'intrusion, scan de vulnérabilité, red team. Ils ont tout ce qu'il faut pour vous gentiment vous hacker. Que vous soyez rendu à obtenir une certification comme SOC 2 ou ISO 27001. à lever du financement ou juste à vouloir prévenir les cauchemars de sécurité, YAK peut vous aider à sécuriser votre app. Tu sais ce qu'on dit, quand ta sécurité est pas affectée, t'as mille petits problèmes en SaaS, mettons. Mais quand ta sécurité est affectée, t'en as juste un problème, pis il est pas petit. Fait que check out ma conversation avec Cindy Feltz, où on jase de tout ça et de plus sur saspass.com slash partenaire avec un S slash YAK, Y-A-C-K. saspace.com slash partenaires avec un S slash yak sinon vous pouvez les checker la boîte leur service la gang directement sur yak.one y-a-c-k point o-n-e yak.one ok de retour au pod pis pour ramener ça aux juniors là comment qu'on conseille ces juniors là comment qu'on les aide à genre Soit être les pilotes de feu de ces LLMs-là et ces outils-là ou aller chercher l'expertise qui va les placer dans ce 5 à 20 %-là que le monde va vouloir les s'y calmer et travailler avec eux. C'est tough, man. Oui.
<strong>David Beauchemin:</strong> Je ne sais plus à qui je discutais. Je pense que c'est cette semaine. Je discutais avec quelqu'un que j'ai... Il n'y a pas si longtemps, les gens qui craignaient pour leur job le plus, c'était tous les gens en usine pour l'automatisation, la robotisation. Turns out, c'est compliqué de faire des robots. On s'attendait que ça allait se faire. On a rapidement pogné un pic. Puis là, on a redescendu. Puis là, ça a remonté. Puis là, présentement, ce sont tous les jobs d'information qu'on a fait. Hey, finalement, c'est plus facile d'automatiser l'information que des robots.
<strong>François Lanthier-Nadeau:</strong> Des bits et des mots.
<strong>David Beauchemin:</strong> Exactement. Après ça, la valeur, l'insight est toujours bonne. On peut en discuter, tout ça. Mais on est en train d'accepter probablement l'automatisation de certaines tâches. Combien de temps ça va prendre ? Qu'est-ce qui va changer ? Tout ça, c'est encore incertain. mais c'est Je pense que quelqu'un qui est à la croix des chemins disait, j'aimerais-tu mieux aller à une job à construction ou une job en information ? C'est encore une très bonne question à avoir. Avec quelqu'un au secondaire, l'espoir va dans votre temps d'informatique. En quelque sorte,
<strong>François Lanthier-Nadeau:</strong> les conditions, la figure.
<strong>David Beauchemin:</strong> Exact, c'est ça. C'est une réflexion qui a encore beaucoup de sens. Maintenant, ceux qui sont déjà en place, je ne suis pas en train de dire, allez-tout dans la construction. Ce n'est pas ça que je suis en train de dire non plus. Ou non plus, ne pas y aller non plus. Mais plus, je pense qu'il va falloir qu'on ait... moi y compris c'est quoi ma valeur qu'est-ce que je peux faire là j'ai l'avantage d'avoir de l'expérience sur le marché chose qu'un junior n'a pas mais présentement tout ce qui est des stages et des juniors je reçois des CV ça n'a juste pas de sens non stop puis ça va même partout sur le marché parce que c'est le gars de Nexap qui me disait je sais pas s'il veut je dis ça Joe de Nexap ils ont reçu des milliers de CV l'année passée j'en reçois des milliers pas des milliers mais j'en reçois des centaines de partout partout à travers le monde points aussi. Ma boîte courriel, avant, je leur répondais. Maintenant, c'est... « Sorry, tu ne peux pas. Je ne peux pas continuer. » À l'Université Laval, il y avait 400 étudiants en informatique pour 80 stages. Ils ont été obligés de faire deux stages obligatoires pour avoir leur diplôme. Ça va être tough.
<strong>François Lanthier-Nadeau:</strong> Moi, je pense que ce que je dirais, c'est genre, trouve ce que tu aimes foncièrement et qui te fait triper plus que tout le reste et qui a une valeur sur le marché du travail, au pfouli, puis utilise l'AI pour apprendre plus là-dessus. pis faire plus de ça pis comme crunch the fuck out crunch the fuck out of ces itérations-là pis genre out apprend pis out travaille les autres man en t'assistant de l'IA je dis ça pis je me dis un autre conseil que j'aimerais c'est genre faut que t'ailles au moins les bases si t'as pas les bonnes bases tu vas construire sur des affaires qui genre parce que Tu sais, moi, mon système d'écriture, il est bien développé. Quand Liam me splurge de quoi, genre un brouillon pour mon infolette ou whatever, je suis tout de suite, je suis quand même...
<strong>David Beauchemin:</strong> Ça n'a pas de sens, ça ne fait pas bien.
<strong>François Lanthier-Nadeau:</strong> Je ne sais pas. Puis là, je suis capable de le prompter et lui dire une couple d'affaires. Souvent, ça finit que j'aurais écrit tout en main parce que je suis vraiment têteux. Mais genre, si je n'avais pas eu les milliers de reps d'articles de blog, de posts dans les réseaux sociaux, de emails, de destesques que je faisais, je n'aurais pas ça. Fait qu'il faut quand même, somehow, que tu crunches à travers des... des reps à quelque part. Anyway, on ne trouvera peut-être pas la réponse sur le pod live, mais ça ouvre un beau débat ou une belle conversation, du moins. J'ai le goût qu'on se parle aussi des agents en AI. C'est all the rage, il y a encore full hype là-dessus. Je pense que la première question que je pourrais te poser, c'est comment, grossièrement, tu définirais ça un agent AI ?
<strong>David Beauchemin:</strong> Ça fait déjà un bout qu'on voit les agents. Tu parles d'un chat-feed de ce monde, il ne peut pas faire d'accent, il ne peut pas faire de quoi, il peut résonner sur quelque chose. L'agent, c'est juste que tu vas pouvoir, en plus, faire des actions. Mettons, le function calling commence à être considéré dans la catégorie agent parce que là, tu peux dire, voici une fonction, mettons, un appel à un API, un appel à n'importe quoi ou un calcul mathématique ou n'importe quoi. Puis, tu vas te donner des paramètres, puis je vais te demander de ces données-là d'extraire ce qu'il faut, puis de l'appeler, puis de pouvoir me retenir une réponse en JSON à partir de là. L'idée de ça, c'est de pouvoir commencer à transformer ton paradigme, ton LM en quelque chose qui peut prendre des actions, faire des choses et prendre des décisions aussi, ultimement, si tu veux. Une façon, c'est de reproduire des fonctions de l'humain. L'humain est capable de prendre un texte, extraire l'information, en faire un résumé. Ça avait déjà été fait, mais ce que je te résume là maintenant, je peux dire, plutôt que de faire un résumé, je vais sortir c'est quoi la température dans un rapport météo, sortir deux, trois affaires, boum, boum, boum, rentrer ça.
<strong>François Lanthier-Nadeau:</strong> L'envoyer à quelqu'un.
<strong>David Beauchemin:</strong> L'envoyer à quelqu'un. Faire l'action de l'envoyer ou à partir d'un rapport météo, de dire, on est deux degrés en dessous de ce qu'il faut, je vais faire ça. Bon, est-ce qu'on pourrait le faire avec du soft-froids traditionnel ? Probablement, ça reste à déterminer tout ça. Mais l'idée est vraiment de dire des fonctions qui étaient difficiles à reproduire en software, je peux le faire. Là, la promesse commence beaucoup à apparaître, c'est de dire, puis que les gens disent que c'est probablement pour ça qu'il y a des SaaS, beaucoup de SaaS qui vont disparaître, c'est de dire, si on a ça à nos mains, on a-tu vraiment besoin d'une plateforme SaaS qui va être très compartimentée et m'emmener dans le suivi ? C'est un peu l'idée du no code, low code, parce que je peux intégrer tout ce que je veux, je peux faire tout ce que je veux, mais là, en plus, je peux faire des actions, puis je peux inférer On est comme monté d'un autre niveau là-dedans. L'idée, c'est de pouvoir dire, je vais avoir toute cette armée de robots-là qui pourraient automatiser les tâches dans mon entreprise. Mais souvent, du moins, quand ce que j'observe, il y en a des tâches où tu peux le faire avec un software traditionnel, tu peux le faire avec ci, tu peux le faire avec... Tu as beaucoup d'alternatives. Pour l'instant, je n'ai pas vu tant des robots qui étaient siottes. ceux qui arrivent vraiment à sortir de la peine de valeur, c'est ceux qui sont textes à la vie. Les messieurs, madame, tout le monde ne pensent pas encore que je vais voir mon père commencer à faire des agents pour automatiser sa job. On est loin de ça. Est-ce qu'il y a des gens dans cette entreprise-là qui vont être capables de dire, moi, je vais prendre la technologie et je vais automatiser les étapes de sa job ? Peut-être. Après ça, c'est le modèle économique aussi. Présentement, ce n'est pas cher parce qu'ils veulent aller chercher du marché. Mais j'ai hâte de voir comment ça va se passer dans le futur.
<strong>François Lanthier-Nadeau:</strong> Exact.
<strong>David Beauchemin:</strong> Ça va monter vite. Ça coûte cher, les relèves.
<strong>François Lanthier-Nadeau:</strong> Ça coûte cher. Es-tu capable, selon toi, d'expliquer la différence entre un Zapier et les nouveaux qu'on voit aller, genre Gumloop, Lindy, puis l'autre, c'est quoi ? N8N ?
<strong>David Beauchemin:</strong> Zapier, c'est la promesse de Zapier à la base, c'est-à-dire on va créer tous les Zapiers, j'exagère, mais beaucoup des Zapiers de ce monde vont être à quelque part dans notre environnement. Tu vas pouvoir prendre un beau petit UI, connecter les entrants des paramètres de l'API, ton autre API que tu veux connecter, puis faire le flow de l'anglais. C'est toute la proportion de valeur. Bon, facile à dire, plus compliqué à opérer. Pourquoi ? Parce que tu as beaucoup d'API out there. Puis, ça fait en sorte que des fois, il y a des choses que tu n'as peut-être pas envie ou la logique à capturer est vraiment complexe. Par exemple, récemment, je voulais... connecter notre QuickBook avec notre outil de gestion de projet TeamWork et dire que quand je crée un projet, je veux que tu me fasses un projet dans mon TeamWork et un projet dans mon QuickBook. Pas d'intégration pour ça avec le HubSpot. Je vais partir de mon HubSpot et l'envoyer à tout. Pourquoi ? Parce que la logique de créer le projet est complexe. Il y a des paramètres à mettre, il y a beaucoup d'autres choses. Si je veux le faire, il faut que je le code. Là, tu es comme moi, c'est un peu plat. L'idée avec l'agent ou des trucs comme ça, c'est que là, tu pourrais dire, mon agent, je vais dire, voici les pierres, voici la doc. voici la fonction, voici les paramètres, arrange-toi pour que ça marche. C'est un peu l'idée d'ailleurs qu'on veut faire. Est-ce que ça va être possible ? On verra bien. Est-ce que ça va toujours être bon ? On verra bien.
<strong>François Lanthier-Nadeau:</strong> Mon manque est trop bas. Un petit peu, c'est bon.
<strong>David Beauchemin:</strong> Je vais faire un peu de SMR.
<strong>François Lanthier-Nadeau:</strong> Right. Écoute, moi, je n'ai pas encore assez testé. J'ai essayé à Nuiten, puis je me suis fâché parce que je ne suis pas patient et je ne suis pas assez technique. Il y a Lindy qui a des belles promesses. Il y a une couple de monde dans la communauté qui l'a utilisé. Je vais essayer de faire du contenu avec ce monde-là et juste voir où ça m'amène. Je pense que la promesse est vraiment intéressante.
<strong>David Beauchemin:</strong> Reste à Deliver.
<strong>François Lanthier-Nadeau:</strong> Oui, exact. Flo, le CEO de Lindy, j'ai vu une démo qu'il faisait sur le truc de Greg Eisenberg, Startup Ideas Podcast. J'étais comme, dude. Ça n'a pas de sens. Lui, évidemment, il baigne là-dedans, puis il comprend ça de A à Z, comment déployer ce système-là. Puis la quantité de choses qu'il automatisait, c'était époustouflant. Puis dans l'Indie, tu as comme une possibilité de toujours mettre un... Dis-moi si tu as besoin d'une approbation humaine à différentes étapes du workflow d'automatisation. Fait que mettre tes human in the loop. Ça enlève tout le stress de... Ça va-tu se mettre à générer des affaires fuckées ? Ça... bouquets des billets d'avion, ça faisait des follow-up automatiques avec des candidats, ça me raisait des funds.
<strong>David Beauchemin:</strong> Des classes d'adjoints, adjointes administratives, c'est épouvantable comment ça peut bien fonctionner. C'est probablement que pour un équipe qui ne veut pas trop grossir ou qui avait besoin d'une équipe d'admins quand même assez importante, des outils comme ça, on est probablement les meilleurs candidats pour faire disparaître ça. Maintenant, tout le reste du marché, des autres entreprises, peut-être moins. Il y a du travail à faire pour ça.
<strong>François Lanthier-Nadeau:</strong> J'ai entendu la théorie, je ne pense pas que c'est avec toi que je parlais de ça au Speed Founders, mais... T'as-tu déjà entendu la théorie que 40% des jobs dans notre économie, c'est ce qu'on appelle des bullshit jobs ? Tu l'as déjà entendu ? Oui, oui. Que genre, au final, il y a une tâche qui est à accomplir, puis les jobs qui ont été créés, puis les process qui ont été créés pour que la tâche soit accomplie, n'ajoutent aucune valeur, mais donnent une job, man. Puis genre, de l'argent, puis un salaire, puis une identité des fois même aux gens, parce qu'au moins ils ont une job, puis ils ont l'impression de faire de quoi. pertinent.
<strong>David Beauchemin:</strong> On n'a pas encore pris le temps de l'automatiser parce qu'on a un backlog de choses à faire.
<strong>François Lanthier-Nadeau:</strong> Exact, comme dans les compagnies, basically. Mais c'est fucked up. J'ai vu un double take là-dessus que le gars sur le pod disait « Dans le fond, on a peut-être déjà le universal basic income, puis c'est tous ces bullshit jobs-là. »
<strong>David Beauchemin:</strong> C'est un take intéressant.
<strong>François Lanthier-Nadeau:</strong> C'est un hot take.
<strong>David Beauchemin:</strong> C'est un take intéressant.
<strong>François Lanthier-Nadeau:</strong> Anyway, c'est intéressant. Les founders SaaS avec lesquels tu travailles là ou avec lesquels tu as des discussions, ils vont vivre l'espèce de stress dont j'ai parlé plus tôt qui est comme, hey man, il y a beaucoup, beaucoup de possibilités. Je peux sûrement retirer de la valeur et en générer pour mes clients, mais ça bouge tellement vite que genre, est-ce que si je prends cet outil A là, jour 1, dans deux mois, six mois, il va y avoir un outil B qui est dix fois mieux. Puis moi, je vais avoir orienté toute ma stack via l'outil A. Puis mon compétiteur qui arrive, lui, il va pogner l'outil B. Puis genre, je vais me chieuter. Je vais me laisser grossir. Mais genre, comment tu fais pour conseiller ces personnes-là ?
<strong>David Beauchemin:</strong> C'est vraiment une bonne question. Tu sais, c'est... C'est comme n'importe quel choix technologique. Tu décides de faire ton application dans le stack A ou le stack B. C'est sûr qu'ils génèrent moins de langage de programmation que de technologie. Mais après ça, à un moment donné, c'est aussi des considérations. Ton objectif, c'est d'aller vite sur le marché. Ton objectif, c'est d'avoir toujours la meilleure techno. Pour moi, c'est plus de le ramener à des décisions d'affaires comme c'est quoi la direction qu'on veut prendre. Oui, tu peux décider de toujours suivre chacun des prochains shiny objets qui apparaissent en arrière de l'autre. ça se peut que ça va fonctionner, comme ça se peut que ça marche pas. Comme l'autre personne qui peut apprendre toujours à la dernière minute, ça se peut que finalement son compétiteur va tellement le capturer vite qu'il arrivera pas à rentrer finalement pour aller chercher ce qu'il veut. C'est vraiment tough, pis on a pas de shiny ball qu'on peut essayer de voir dans le futur, pis essayer de le faire. À même titre qu'on a fait des choix technologiques, on a pris tel serin, pis finalement on est comme, ouais, c'est de la marde. C'est beau le petit logo orange, mais c'est pas ce que j'ai besoin finalement à plus longtemps. Ça reste... ça reste quand même difficile. Maintenant, les gens souvent vont dire « Ah,
<strong>François Lanthier-Nadeau:</strong> as-tu quelque chose ? » Oui, parce qu'il y a de quoi de différent, par exemple, que j'ai oublié de mettre dans ma prémisse avec les outils d'IA, c'est que, mettons que tu prends un outil d'automatisation avec des AI agents, l'évolution des modèles en dessous, en théorie, est supposée continuer.
<strong>David Beauchemin:</strong> Puis toi, ça devrait être agnostique pour toi, à ce niveau-là.
<strong>François Lanthier-Nadeau:</strong> Idéalement, exact.
<strong>David Beauchemin:</strong> Exactement. Si tu n'arrives pas sont prêts tes modèles.
<strong>François Lanthier-Nadeau:</strong> Là, t'es plus locked in.
<strong>David Beauchemin:</strong> Exactement. la performance des LLM mettons souvent tu vas partir on a plein de solutions qu'on a faites on a pris je sais pas GPT 3.5 4 whatever on a monté à stack autour de ça on a tout fait les choix boum il y a un autre beau modèle qui apparaît tu vas dire ah oui je vais-tu swapper tout de suite la performance c'est déjà bonne avec ce que tu as à quel point ça vaut la peine d'aller chercher l'autre parce que ça vaut pas souvent tu vas vouloir avoir aussi un cadre qui va te permettre d'évaluer la performance de ton système de genre J'y pose, je sais pas, j'ai 100 questions que j'y pose, je m'attendrais à tel type de réponse, tel type de produit recommandé, tel type d'affaires de whatever, qu'est-ce que je fais ? Parfait, j'ai construit ça, c'est ça qui est important à construire en fait aussi. J'ai ça, j'ai un nouveau LM, je regarde, je regarde la performance, ah, il est meilleur, bon, choix,
<strong>François Lanthier-Nadeau:</strong> clac. Fait que c'est probablement moins rigide que ce que j'ai dans la tête, tu sais. L'espèce de stress dont je parlais dans le début de ma question, il est peut-être moins pire que ce que je l'imaginais.
<strong>David Beauchemin:</strong> Je sais que ça se base sur une grosse techno, mettons, SaaS ou tel framework pour faire ton rack et l'ing-chain ou telle affaire ou tel chose. Là, ça se peut que tu aies plus de lock-in ou que tu aies du travail à repaire. Mais changer un LM pour changer un LM,
<strong>François Lanthier-Nadeau:</strong> ce n'est pas compliqué que ça. Parce que c'est ça que j'ai le précédent. Mon biais, c'est aussi de penser à les stacks un peu plus classiques de genre, OK, tu es en C-sharp dans ton back-end. Genre, man, si ça fait cinq ans que tu roules dans ton C-sharp, dans ton back-end, tu ne peux pas juste swapper le back-end. Exact. Aussi facile que ça, tu es locked-in, ça influence ton embauche, ça influence ta dette technique, etc.
<strong>David Beauchemin:</strong> Exact. Est-ce qu'à un moment donné, on va voir apparaître peut-être des compétences plus spécifiques sur certains LLM, sur certains paradigmes ? Peut-être, peut-être. Mais tu sais, c'est relativement agnostique. Tu vas avoir des différences un petit peu différentes entre Cloud, mettons, puis entre quel autre modèle, mais tu es capable de te débrouiller avec à peu près. C'est assez standardisé. Leur API aussi, je veux dire. La plupart, en Python, c'est à peu près toute l'API d'OpenAI. Tu fais juste changer ton URL puis ta clé.
<strong>François Lanthier-Nadeau:</strong> Ce qui est cool aussi, c'est que les tools qu'ils buildent par le CDLLM, pis qu'il y a, mettons, l'Indie, je voyais ça que genre, tu sais, grosso modo, soit tu laisses le tool décider ou tu peux décider toi-même que pour tel type de tâche, je vais prendre tel petit modèle ou tel modèle peu coûteux, mettons, parce que genre, il fait juste que je m'y mêle. Ça n'a pas besoin d'être tes trois hauts qui viennent sortir, mettons, le modèle en arrière. Fait que ça, je trouve ça intéressant pis ça revient un peu genre, si on parallélise avec les stagiaires, c'est comme... Traduire l'email, ça peut être genre Johnny Boy qui vient de rentrer. Il est correct. Mais s'il faut faire un suivi avec trois tierces parties différentes puis booker un hôtel, peut-être que tu vas le donner à Simon... Simon... Je ne sais pas quoi. Je réinvente des noms. J'ai parlé des coûts un peu à travers ce que je viens de barouetter. T'as-tu l'impression, mettons, que la structure de coûts d'utiliser des LLM est en train de changer, évolue ? Parle-moi de ça un peu. Oui.
<strong>David Beauchemin:</strong> Présentement, il y a deux modèles de pricing. Je veux avoir la réponse dans l'immédiat. Donc, tu payes le plus cher et tu es en batch process parce qu'on va te le processer dans les 24 prochaines heures. C'est ça l'idée. Il y a beaucoup de cas. Justement, on en parlait, les gens ont souvent le réflexe d'aller vers un chatbot et de mettre ça dans leur SaaS. C'est le modèle le plus cher que ça va te coûter. Après ça, tu te dis, je veux faire un résumé de ça, je peux y envoyer dans les 24 prochaines heures. Prends le batch process, c'est 50 % moins cher. Ça paraît quand même. Présentement, les gros joueurs sont très en train de se faire une compétition sur les prix. Puis là, ces joueurs-là vont vouloir établir un marché, puis après ça, probablement, commencer à augmenter les prix. Parce que des psychs, c'est impossible qu'ils font de l'argent. Qu'est-ce qu'ils chargent ? Puis OpenAI, c'est sûr qu'ils brûlent de l'argent aussi. Ça va venir, ça va augmenter. Mais je pense que tu l'as bien dit, que des fois, on a 10 choix de modèles, les mini, les whatever que tu vas pouvoir prendre. Teste donc le mini ou ça quelque part dans le processus. Commence par le meilleur, check c'est quoi la performance. T'es comme, je suis à 70% de performance avec le meilleur modèle. ça va être tough. Tu arrives à atteindre 95 %, je suis capable de descendre mon modèle pour sauver mon coût et le rendre économiquement plus viable. Il faut jouer avec ce genre de truc-là aussi.
<strong>François Lanthier-Nadeau:</strong> Mais de façon générale, dans ce que tu as vu, le genre de coût par jeton, token,
<strong>David Beauchemin:</strong> whatever,
<strong>François Lanthier-Nadeau:</strong> ça a-tu augmenté ou diminué dans les dernières années ?
<strong>David Beauchemin:</strong> Les modèles de reasoning ont significativement augmenté.
<strong>François Lanthier-Nadeau:</strong> Explique, c'est quoi un modèle de reasoning ?
<strong>David Beauchemin:</strong> Un LM, c'est juste prédire le prochain mot le plus probable. Si tu poses une question, il va juste dire un prochain mot. Avec le reasoning, ce que tu veux faire, c'est que tu vas te laisser un moment de faire un raisonnement, puis après ça, je vais expliquer les différences stratégiques. Finalement, ce que tu demandes, ça ne paraît pas dans le visuel de la chat GPT. Tu vas demander de générer un jeton qui va s'appeler reasoning, puis après ça, il va y avoir un petit peu plus de temps pour réfléchir, avant de créer sa réponse finale. Souvent, après ça, on va reprendre ce reasoning-là, on va leur donner un LLM, on va dire, donne ta réponse, ou un plus petit LLM, on va lui donner ça, puis on va lui dire, mettons, GP3 mini. Maintenant, voici un gros modèle de reasoning qui te dit, voici comment je vais raisonner la tâche, voici whatever les trucs importants. Toi, le plus petit, prends-le et donne ta réponse. C'est un peu jouer avec ces contextes-là. Un haut de mémoire, il est quelque chose comme 150 fois plus cher que le modèle en bas. O1 ? Oui, ça je vais dire O1, merci. Ça paraît quand même, on est au 15 $, mais de mémoire, c'est 15 $ du million de jetons. Alors que l'autre est plus autour d'en bas d'une pièce. Ça paraît quand même pas mal. en input et output quand tu génères ton texte. Fait que c'est un pensée-y-bien. Fait que si ta tâche est très complexe, ça va donner une meilleure performance, mais aussi, ça va te coûter beaucoup plus cher. Après ça, ça, c'est du serverless. Fait que ça, c'est vraiment, tu payes quelqu'un pour pouvoir outiller son modèle. Bien sûr, tu pourrais décider de le hoster toi-même, prendre des modèles open source, etc.
<strong>François Lanthier-Nadeau:</strong> L-Lama. L-Lama.
<strong>David Beauchemin:</strong> O-Lama. O-Lama, avec O-Lama, effectivement, qui te permet de déployer un serveur pour ça. Tu en as vraiment beaucoup des modèles, sauf qu'il y a une complexité à faire ça. Tu fais une preuve de concept, je ne te recommande pas Prends les modèles open source, ajoutez les modèles avec un API serverless. D'un coup que vous avez ça, vous avez commencé à voir la performance, à quel point les gens l'utilisent. Là, il y a un flip un moment donné que tu veux commencer à déployer ton infra. Parce que ça coûte 1000$ par mois d'avoir ça. Puis après ça, il faut que tu mettes de l'expertise pour le déployer, le maintenir, t'assurer que tu vas les changements. C'est un coût un peu plus important. Puis même, ça peut aller beaucoup plus vite qu'un 1000$ par mois. Il faut que tu t'en penses, c'est bien. Pour une preuve de concept, c'est cher. pour pas grand-chose.
<strong>François Lanthier-Nadeau:</strong> Puis, entraîner des modèles, c'est-tu quelque chose qui coûte de plus en plus cher, de moins en moins cher ? Comment ce bout-là fonctionne ? C'est un petit peu obscur pour moi. Bon.
<strong>David Beauchemin:</strong> Comment est-ce qu'on entraîne ces modèles-là ? Je vais donner un exemple, mettons, avec l'AMO1 que je connais bien. L'AMO3, c'est 8... C'est pas plus que 8 milliards de paramètres. Mettons, t'as le 8... Non, c'est pas vrai. T'as le 7... Puis un 401, une affaire de la même chose.
<strong>François Lanthier-Nadeau:</strong> Les paramètres ici, ça veut dire quoi ?
<strong>David Beauchemin:</strong> Bon, c'est une grosse... Comment ça calcule ces éléments-là ? C'est que tu prends le mot à l'entrée, on va le tokeniser, on va dire, ben, ça, c'est le jeton 1, 2, 3, 4, 5, ça va être un dictionnaire, grosso modo. Donc, le jeton 4, c'est, je sais pas, patate. Boom, voici le vecteur pour ça. Tu prends ça, ta phrase, tu la tokenises de même, tu prends tous ces chiffres-là puis tu rentres ça dans une grosse matrice. Fait qu'un gros chien Excel, grosso modo, le clean shift. On en a pour des milliards et des milliards de chiffres. Puis là, tu fais plein de multiplications mathématiques. C'est ça qui est long à faire. Pourquoi les GPU sont vraiment bons pour faire ça ? C'est qu'ils ont été construits pour faire la représentation d'images des jeux vidéo, par exemple, parce que tu as beaucoup de ces calculs-là à faire pour faire afficher des choses. Naturellement, c'est très bon pour du calcul matriciel, qu'on appelle, donc des matrices, un fichier Excel, que tu es capable de faire ce calcul-là. Les modèles, quand on parle de 8B, 12B, whatever, c'est le nombre de chiffres comme ça qui sont. C'est gros ce calcul-là à faire. Si tu veux rentrer dans un modèle, tu as deux choix. Je prends cette grosse matrice-là, puis chacun des chiffres, j'y passe du texte, je fais une tâche à la fin, puis je vais tout modifier ces chiffres-là pour pouvoir dire, pour améliorer la performance à la fin. Puis quand tu fais ça, on appelle ça une fonction de perte. Par exemple, tu as du chiffre. tu as une phrase, tu enlèves des mots, tu dis « Trouve-moi les bons mots qui vont adresser à cette place-là. » Le chat boit du, peut-être il va dire lait, eau, whatever. Puis toi, à la fin, tu vas regarder ce qu'on appelle la perplexité, qui est une fonction de perte. Là, je rentre dans les trucs très techniques tout de suite. La perplexité, finalement, c'est à quel point le modèle était, on va faire un jeu de mots un peu, mais comme perplexe sur le mot qu'il pensait dire. Donc, il a dit un mot, à quel point il était confiant sur si c'était ça le bon mot. Plus que le chiffre est bon, moins tu vas modifier tes poids parce qu'il y avait la bonne réponse. Là, je te dis, le chat boit du lait. Vraiment que sa perte d'excité est très, très bonne. Donc, tu ne fais pas beaucoup de modifications de tes poids. Les poids ? Les poids, excuse-moi, les weights.
<strong>François Lanthier-Nadeau:</strong> Oui, ça, c'est…
<strong>David Beauchemin:</strong> Je t'ai expliqué le terme francophone, excuse-moi.
<strong>François Lanthier-Nadeau:</strong> Non, non, c'est…
<strong>David Beauchemin:</strong> C'est la grosse matrice.
<strong>François Lanthier-Nadeau:</strong> OK, c'est bon.
<strong>David Beauchemin:</strong> La grosse, grosse matrice.
<strong>François Lanthier-Nadeau:</strong> C'est bon. Fait que dans les billions, milliards de paramètres… Je mange tout ça. Il y a des poids là-dedans ?
<strong>David Beauchemin:</strong> Bien, les paramètres, c'est ça.
<strong>François Lanthier-Nadeau:</strong> Excuse-moi,
<strong>David Beauchemin:</strong> j'ai fait… Les paramétres, c'est des poids. tout ça, puis là, tu changes tous tes chiffres demain. Faire changement sur 8 milliards de chiffres, c'est très, très long. Ça coûte cher, je parle d'un point de vue informatique, de le faire. Donc là, on a fait « Ouais, c'est trop compliqué. Quand on est en train de nouveau modèle, ça a du sens. Mais des fois, je ne veux pas tout les changer parce que mes représentations des mots sont bonnes, mes affaires sont bonnes. Il y a peut-être juste des petites places que je vais faire des petits changements juste pour dire, au lieu qu'il me dit « Le chat boit du lait » , il me dit le chat boit de l'eau, mettons. ce n'est pas très loin, je ne veux pas faire des gros changements comme ça où je veux qu'à la fin, plutôt, au lieu de me dire des mots, ils me retournent, je ne sais pas, des classes. Patate, pomme, chien, whatever, tout ça. Là, il y a quelqu'un qui est arrivé avec une bonne idée. Il a dit, en fait, on va cibler certains poids dans l'architecture. Puis là, on va dire, c'est juste ces poids-là qu'on va modifier. Puis on va racheter une autre matrice par-dessus, plus petite. On va tout multiplier ça ensemble et on va donner le résultat à la fin. OK. Ça s'appelle QLower. C'est vraiment l'algorithme. LoRa pour l'eau, Optical, Ranking, du reste. quelque chose comme ça de mémoire. Puis le Q, c'est juste que c'est une autre affaire technique que j'exprime. Mais la longueur du nombre de décimales que tu veux garder à la fin du chiffre. Donc, au lieu de se rendre jusqu'à un certain nombre de décimales, un flow de 32, pour ceux qui connaissent bien l'informatique, bien là, tu vas faire un 4 bits. Fait que tu vas garder, mettons, 6 chiffres après la virgule au lieu d'en garder, mettons, 200. Parce qu'on s'entend-tu que le 12e chiffre après la virgule, tu t'en coller ça un peu probablement.
<strong>François Lanthier-Nadeau:</strong> Dans ce cas-ci.
<strong>David Beauchemin:</strong> Dans ce cas-ci. Donc, on coupe demain. 8 milliards de paramètres à optimiser, t'en as peut-être 1 million, 2 millions. Fait que là, au lieu de prendre une itération qui va prendre peut-être 15 minutes à faire, va peut-être te prendre 1 minute. Fais ça des centaines et des centaines de fois, tu viens de passer d'un entraînement qui va durer 1 an à peut-être une journée, un mois, quelque chose comme ça.
<strong>François Lanthier-Nadeau:</strong> Est-ce que ces deux types d'entraînement-là ont un nom différent ?
<strong>David Beauchemin:</strong> Oui, ça, c'est du continuous learning. Ça, c'est juste de l'entraînement tout court. C'est du causal, le terme technique.
<strong>François Lanthier-Nadeau:</strong> OK. Alright, pis ces coûts-là, de façon générale, ont baissé ou pas ? Avec Qloa,
<strong>David Beauchemin:</strong> ils ont significativement baissé. Significativement. Vraiment, vraiment. Mettons que j'ai un ordinateur pour faire ça, 50 000$, je peux entraîner des modèles de même. L'autre, ça me prend un super cross-tool qui coûte 500 000$ ou 1 million. Grosse explication pour dire oui. Oui, ça a baissé.
<strong>François Lanthier-Nadeau:</strong> C'est christian intéressant d'autres. J'ai genre... J'entendais « weights and biases » , j'entendais « paramètres » partout, puis je n'avais jamais même fait ce lien que les paramètres, c'était comme des poids. Exact.
<strong>David Beauchemin:</strong> Il y a une différence. Les paramètres, c'est ça. Les paramètres, c'est les weights et les biases.
<strong>François Lanthier-Nadeau:</strong> Weights and biases.
<strong>David Beauchemin:</strong> Parce que tu as le weight, puis tu as le biais aussi qui se rajoute. Bref, tu multiplies et tu rajoutes un biais. Fait que tu fais, mettons,
<strong>François Lanthier-Nadeau:</strong> le chiffre que tu as. Le biais, ça ne se rapporte pas avec la perplexité, ça ? Non.
<strong>David Beauchemin:</strong> Non, OK. La perplexité, c'est la fonction de perte à la fin. OK. C'est comment tu sais si tu as fait quelque chose de bon et que tu peux améliorer tes poids. à quelle intensité tu vas améliorer tes poids.
<strong>François Lanthier-Nadeau:</strong> C'est pour ça qu'ils ont appelé ça perplexity, le tool, dans le fond. C'est sûrement un jeu de mots.
<strong>David Beauchemin:</strong> C'est une bonne question pourquoi ils l'ont appelé comme ça. C'est une métrique très connue, donc c'est très possible que ce soit ça.
<strong>François Lanthier-Nadeau:</strong> Puis, comment on devrait réfléchir à la taille des milliards de paramètres ? Tu sais, sais-tu, plus il y a des milliards de paramètres, plus l'outil est capable de résonner loin et de faire des trucs sophistiqués, ou plus il va vite, ou comment on devrait réfléchir à ça ?
<strong>David Beauchemin:</strong> Il ne va définitivement pas plus vite et plus long à processer. OK. Ce qu'actuellement les tendances nous démontrent, c'est que plus qu'ils sont gros, plus qu'on peut, on commence à faire des modèles de reasoning avec vraiment intéressant. Les psychs, c'est un bon exemple. Ce qu'ils ont fait, c'est qu'ils ont fait un giga modèle. Ils ont dit, toi, on va t'entraîner d'une certaine manière, on ne parlera pas de l'algorithme, mais bref, on t'en a dit d'une certaine manière à... Être capable de respecter le processus ou la structure pour faire du raisonnement. Donc, je veux que tu structures ton information d'une certaine manière, puis je veux que tu sois vraiment bon à faire ça. Mais tu ne seras plus capable de super bien écrire des phrases, mais ce n'est pas grave. Je veux juste que tu respectes ces instructions-là. Je veux que tu respectes mes instructions le plus possible. Là, on l'a pris, on l'a fait. Tu es super bon pour faire ça. Maintenant, on va prendre un plus petit modèle. Là, on veut que tu apprennes, toi, très rapidement à faire du reasoning, mais aussi bien à rester capable de faire de l'écriture dans le sens du monde. Donc là, lui, ça va peut-être juste faire 32,5. paramètres au lieu de 400 ou 700 ou whatever le chiffre. On est capable de quantisation, souvent qu'on va appeler avec ça, de prendre un gros modèle, de faire du teacher, puis d'être capable d'apprendre ça à un plus petit modèle. C'est là vraiment que ça devient super intéressant. Parce que t'es capable d'avoir de la bonne performance en termes de rapidité d'exécution, mais aussi en termes de les métriques que tu mesures. Par exemple, mettons, des fois tu peux prendre un 8B, un 14B, puis avoir de la performance qui est à peu près similaire à un modèle de GPT 4.5 qui était estimé à 200 milliards de paramètres. OK. En termes de coût d'inférence, tu peux le rentrer presque sur un CPU. Tu peux le rentrer dans une barrette mémoire.
<strong>François Lanthier-Nadeau:</strong> Puis l'inférence, c'est le temps et l'énergie que ça prend au modèle pour générer une réponse à partir de la donnée ?
<strong>David Beauchemin:</strong> Exactement. Un peu ? Exactement.
<strong>François Lanthier-Nadeau:</strong> Super. Vendredi PM, c'est beaucoup de stock pour ma petite tête de linotte. Les LLM jouent un gros rôle dans l'IA. Évidemment, on le voit aller, on en parle depuis tantôt. Est-ce que tu les vois devenir un petit peu comme un point de rassemblement ou un chef d'orchestre pour les autres types d'intelligence artificielle ? Donne-moi quelques exemples des autres types dont on avait déjà parlé.
<strong>David Beauchemin:</strong> Je disais que l'IA générative a un petit avantage, c'est d'extraire de la donnée pour pouvoir faire d'autres choses. Par exemple, tu pourrais avoir un système déjà en place c'est... qui est l'idée d'une droite dans un plan. Tu fais des points, puis tu mesures la droite. Tu en as fait ça en maths au secondaire. Tu fais plein de points, puis tu traces une ligne, celle qui passe au centre de tous les points. C'est une droite de régression, finalement. Ça, c'est des algorithmes prédictifs qui vont permettre de dire, selon la tendance que j'observe avec des variables, comme mon âge, mon genre, mon poids, voici quelque chose que je prédis.
<strong>François Lanthier-Nadeau:</strong> La carrière d'assurance, c'est beaucoup plus tard.
<strong>David Beauchemin:</strong> C'est un excellent exemple, effectivement. Tu prends les caractéristiques des gens, puis tu essaies de prédire une prime. À quel point tu vas nous coûter de l'argent ? quand tu vas se mâcher ton char. Grosso modo, c'est ça.
<strong>François Lanthier-Nadeau:</strong> Moi, ça reste en eux. C'est plus ma ligne.
<strong>David Beauchemin:</strong> Ta ligne est forte. Par contre, mettons, c'est un très bon exemple que tu as pris. C'est un très bon exemple. Parce que, mettons, je vais ramener un petit peu de technique, mais de l'assurance, l'actuarial du gros processus, c'est de calculer des réserves. Combien d'argent qu'on doit mettre de côté dans notre petit coffre pour faire en sorte que si j'ai des... pour respecter mes obligations financières futures qui s'en viennent.
<strong>François Lanthier-Nadeau:</strong> Les réclamations, mettons.
<strong>David Beauchemin:</strong> Exactement. Donc... tu pars, la personne va te donner une prime, mettons, je ne sais pas, 100$ par mois, il y a 10$ qu'on met de côté dans un petit coffre. C'est des obligations, il y a des normes, il y a plein d'affaires autour de ça. Pour être certain que si tu as un accident ou que quelqu'un d'autre a un accident, je peux payer et je peux respecter mon obligation financière. Un des enjeux qu'il y avait beaucoup, c'est que si j'ai un claim, j'ai une réclamation qui arrive, je veux rapidement savoir, ça va-tu me coûter 10 000, 100 000, 1 million ? Je veux savoir à quel point ça va me coûter cher pour tout de suite allouer mon capital et être capable de tout de suite Ce client-là, ça va être une réclamation d'un million. Je vais commencer à chercher plus d'argent parce que je n'aurais peut-être pas assez d'argent pour réussir à le payer tout de suite. Donc, gérer mon risque financier finalement. C'est une grosse partie du travail en actuariat qu'on fait. Sauf que prendre une note de sinistre, par exemple un rapport de police, puis rentrer ça dans un modèle de régression, dans un plan par exemple, pour essayer de prédire combien ça va me coûter, ça ne marche pas. Ça ne fait pas. Je ne peux pas rentrer des nombres, je veux dire des mots dans ça. Je suis convaincu. Je pourrais prendre un LM, prendre ce texte-là, lui donner un score, je ne sais pas, 15 ou quoi, rentrer ça dans mon modèle que j'avais avant déjà qui fonctionnait bien, puis là, améliorer la performance de la manière que je construis ma réserve.
<strong>François Lanthier-Nadeau:</strong> Il joue ce rôle d'humain-ish.
<strong>David Beauchemin:</strong> Exactement. Il ne va pas venir un orchestrateur que je pense plutôt qu'il va empower beaucoup de modèles traditionnels qui autrefois n'étaient pas capables de capturer pleinement l'information, que là, on peut lui donner cette information-là pour aller plus loin.
<strong>François Lanthier-Nadeau:</strong> Qu'est-ce qui se passe ? J'ai quasiment le goût de faire une démo live, parce que je suis un peu... T'as-tu le goût que je fasse le quoi ? Je sais pas si ça va marcher, on le coupera au montage. C'est bon. Fait que là, dans le fond, j'ouvre Chad GPT, puis salut mon chat, c'est le voice assistant. Puis là, je vais ouvrir la vision, mettons, de caméra. Puis là, je vais te regarder. Tu me regardes comme un deer in the headlights. OK, Chad, dis-moi donc, c'est quoi que tu vois, mettons, en ce moment ? Doud, il y a une personne en face de moi, man. Tu la vois pas ?
<strong>David Beauchemin:</strong> Je vois pas ça.
<strong>François Lanthier-Nadeau:</strong> Là, tu te dis que tu es en train de crumble.
<strong>David Beauchemin:</strong> Tout est crumble. Pourquoi il y a des chiffres ?
<strong>François Lanthier-Nadeau:</strong> Ils nous ont tellement déstabilisés. Peut-être qu'ils ont des trucs qu'ils ne peuvent pas scanner d'autres humains.
<strong>David Beauchemin:</strong> T'avais-tu déjà essayé avant ?
<strong>François Lanthier-Nadeau:</strong> Je l'avais essayé, mais en marchant au lac. J'étais comme, qu'est-ce que tu vois en ce moment ? J'étais avec mon barbecue. Comment ça marche ? Ils comprenaient tout. Ils me disaient tout ce qui se passait. Ma question pour toi, c'était juste, est-ce que le Est-ce que c'est autre chose qu'un LLM qui est en train de voir les choses, mais c'est le LLM qui explique ce qu'il voit ? C'est quoi le lien entre ce qu'il voit et ce qu'il me dit ? C'est ça ma question.
<strong>David Beauchemin:</strong> Ça, c'est les VLLM, les... VLM, qu'est-ce que je vais avoir ? Vision. Vision, c'est ça, merci. Je cherchais le mot, j'avais vidéo, mais c'était bon. Vision, LLM, finalement, c'est que tu as pris le même paradigme, mais tu rajoutes la fonction de pouvoir voir. OK. Fait que tu rajoutes un autre input. Parce que t'sais...
<strong>François Lanthier-Nadeau:</strong> Mais c'est une boutte-là, c'est une remarque. C'est des pixels. C'est des pixels.
<strong>David Beauchemin:</strong> C'est un code d'application de la vision par ordinateur. C'est pas, OK. Exactement. La vision par ordinateur, en fait, la vision par ordinateur, ça fait plus longtemps qu'on l'atteint de la maturité. Pourquoi ? Parce que c'est déjà des pixels, c'est déjà des nombres. En fait, toi, c'est juste une couleur de pixel. Donc, le rouge, le bleu, le vert. Puis finalement, ce mélange-là de pixels fait en sorte que tu es capable de donner ça en input à un modèle qui va être capable de faire de quoi. Ça fait déjà beaucoup plus longtemps. qu'on est capable de faire la reconnaissance des caractères, c'est une application de la vision par ordinateur, plein de choses. Ce que tu peux faire, c'est que tu fais du multimodal. J'ai du texte, la voix, whatever, parce que c'est ultimement du texte, et une image qui sont des pixels. Je mets tout ça ensemble. Fais-moi quelque chose avec ça.
<strong>François Lanthier-Nadeau:</strong> Lui, dans le fond, le modèle, quand il opère en mode vision, lui a été entraîné sur une chier d'images et de vidéos. Il y a des algos et des humains qui ont dit... Quand tu vois telle affaire, c'est telle affaire. Quand tu vois telle affaire, c'est telle affaire. C'est ça qui fait qu'il comprend, entre guillemets, ce qu'il voit. Ensuite, il me le dit avec son voice LLM. Je ne sais pas quoi. Je suis encore complètement buzzé par ce qui vient de se passer.
<strong>David Beauchemin:</strong> C'est-tu sûr que j'existe ?
<strong>François Lanthier-Nadeau:</strong> Hey man, ça ne se peut pas.
<strong>David Beauchemin:</strong> Voyons donc. Ce n'est pas simple peut-être qu'ils l'ont bloqué face aux personnes peut-être.
<strong>François Lanthier-Nadeau:</strong> On le laissera offline aussi. Peut-être. On va le faire sur Johnny. Johnny, qu'est-ce qui se passe ?
<strong>David Beauchemin:</strong> C'est un rêve.
<strong>François Lanthier-Nadeau:</strong> c'est un rêve il est encore dans Snipcard
<strong>David Beauchemin:</strong> T'as pas menti pour vrai ? It's all fake, man. SaaSpasse,
<strong>François Lanthier-Nadeau:</strong> ça existe pas. Demain, gros, tu vas écrire un blog post.
<strong>David Beauchemin:</strong> Mais t'as même pas été CEO. T'es juste un entraîneur. T'es juste un stagiaire, man.
<strong>François Lanthier-Nadeau:</strong> C'est Il va falloir que je réussisse à poser des questions sérieuses. C'est précis, apparemment. Je suis content de ta joke. C'est une bonne. Tu as le droit d'être fier. Pour ceux qui n'auraient pas écouté la capsule de passer d'une preuve de concept à un système en production, je vais te shooter un exemple. Tu vas me donner des trucs et astuces sur Comment ajouter de la rigueur et de la confiance dans ta fonction IA qui vit dans ton SaaS, par exemple ? Je me suis noté de quoi il fait du sens. Je suis un SaaS SIRH. Je veux implémenter une fonction d'IA qui est disponible dans un chatbot où l'utilisateur peut demander à mon système « Sors-moi les scores de satisfaction d'expérience employée des dernières années juste pour les cadres ou juste pour les stagiaires. » puis généralement un rapport. Là, il y a différentes manières de faire une preuve de concept de ce qu'on vient de dire là. Mais après ça, si tu déploies ça à genre, mettons Workleap, ils ont je ne sais plus combien, puis tu leur as parlé, c'est ça.
<strong>David Beauchemin:</strong> Très bon exemple,
<strong>François Lanthier-Nadeau:</strong> oui. Bon, tu déploies ça à des centaines de milliers d'utilisateurs, des grosses compagnies qui te payent des gros dollars. Tu ne peux pas juste fuck up. Si ça hallucine, il faut que tu saches c'est quoi que le modèle de réponse, s'il réussit à accomplir la tâche, puis tout. Par mois, du genre de stack que tu vas utiliser vite fait, mettons, pour une preuve de concept, puis des genres d'outils ou de bonnes pratiques que tu vas avoir quand tu es vraiment rendu à le chipper en production, mettons.
<strong>David Beauchemin:</strong> Oui, mais tu sais, les outils souvent qu'on va avoir, c'est des language chains, c'est une librairie en Python qui te permet de faire un RAG, qui est ton Retrieve Augmented Generation. Ce que tu vas être capable de faire, c'est que si tu prends ton LLM, tu vas juste dire, « Hey, voici des questions, réponds. » Bien, ce serait le fun qu'il réponde avec les données d'entreprise. Puis pour ça, tu as besoin d'y ajouter du contexte, C'est là que l'architecturant a commencé à apparaître, de pouvoir dire, je veux contrôler son comportement, je veux avoir une system prompt qui va se rajouter finalement, en plus de la prompt de la requête de l'utilisateur. Je vais le connecter à des données, puis je vais donner les données, le vector store par exemple, la base de données vectorielle, que je vais aller chercher les documents qui sont pertinents, puis je vais lui demander de choisir à travers ça, puis de faire une belle réponse à mon utilisateur.
<strong>François Lanthier-Nadeau:</strong> C'est bon. Il y a des tools qui t'aident à faire ça vite.
<strong>David Beauchemin:</strong> J'aide à faire ça plus vite. Genre LinkedIn, c'est un très bon exemple pour pouvoir faire ça. L'enjeu avec cette librairie-là, c'est qu'elle a beaucoup d'abstractions et elle a beaucoup de choses qu'elle va te cacher, qui va faire en sorte que si tu veux développer une compétence dans ton organisation à développer des outils comme ça, tu ne le feras pas. Tu vas juste plutôt prendre un outil tel quel, tu vas fermer les yeux, tu vas cliquer sur une bouton. Quand il est temps de le mettre en prod, des fois, ça finit un peu short finalement, ces outils-là. t'as un assistant GPT qui fait aussi la même chose, etc. C'est très bon pour jouer, explorer, faire des petits cas simples. Mettons, voici des questions sur RH, sur comment je devrais me déconnecter ou me connecter à partir d'un autre outil, etc. Ça marche bien. Des facts, ça marche super bien, mais des trucs plus complexes où est-ce que tu vas aller peut-être faire des requêtes dans une BD pour sortir des rapports, là, c'est plus compliqué pour ce genre d'outil-là à réussir à le faire fonctionner. Là, on va vouloir peut-être réimplémenter certains éléments. Au bout de ligne, ce qu'on fait, dans ce genre de cas-là, on étant l'entreprise qui va le faire, c'est que Tu réimplémente une partie du code de l'Inkshank, c'est juste que tu contrôles mieux ton abstraction puis tu la comprends. C'est ça qui est super important. Donc là, d'un coup que tu as ça, tu fais ta première porte, tu n'es pas connecté à ces données, tu as peut-être un CSV des données clients, tu as une couple de PDF, tu joues un petit peu avec ça. Là maintenant, c'est dire, j'ai besoin d'accéder à ces données-là en temps réel puis de gérer tout ça. C'est là que c'est de la complexité software qui embarque en ligne de compte.
<strong>François Lanthier-Nadeau:</strong> Tu vas créer du logique.
<strong>David Beauchemin:</strong> Exactement. Exactement. Ce qui m'avait beaucoup dit JR, c'est que c'est réinventer les permissions. Comment bien gérer les permissions ? Parce que là, tu donnes dans les mains à quelqu'un un outil qui pourrait dire, je ne sais pas, une conseillère RH, mais je n'ai pas accès à tel type d'informations et que la permission a mal été gérée. Soudainement, j'ai accès à ça et je fais une requête. Pouf, je tombe sur le dossier, mais je ne suis pas supposé avoir accès à ça. Ce n'est pas super le fun pour la relation de client, mettons. C'est un autre parti qui est vraiment, vraiment complexe de s'assurer que les permissions sont bonnes. Ils vont avoir le gros complice cristal à gérer là, comment pipler la donnée comme il faut pour la rentrer dans le système, puis de t'assurer que, justement, il ne va pas dire n'importe quoi. Puis comment qu'on gère ça, qu'il ne dira pas n'importe quoi ? Prompt engineering.
<strong>François Lanthier-Nadeau:</strong> Prompt engineering.
<strong>David Beauchemin:</strong> Exactement. Donc, tu fais des bons prompts, tu les structures, tu tests. Souvent, nous autres, ce qu'on recommande, c'est de faire des case studies un peu dans le sens que tu vas partir, tu vas dire, voici un cas. Voici une question qu'il pourrait me demander. Ce serait quoi la réponse typique que je m'attendrais ? Il m'a retourné le document, il m'a retourné ici Faites une phrase qui ne parle pas de ça. Tu fais des cas, tu es happy pat, puis tu fais tes wrong pat, mettons. Il est dit, il m'a répondu vraiment n'importe quoi. Tu te crées une espèce de série de tests que tu peux grosso modo être capable de tester. Comment tu vas évaluer ça ? Tu vas demander à un autre LLM, un juge souvent qu'on va appeler, qui va dire, est-ce que c'est une réponse qui semble bonne par rapport à la question initiale ou par rapport à mon point de référence qui dit, je me serais attendu à avoir telle ou telle affaire. Est-ce que tu retrouves ça dans les documents ou dans la réponse ? Oui, parfait, on va dire que c'est bon. C'est un score entre 0 et 1. C'est capable d'avoir finalement une base dans laquelle évaluer si la performance du système semble être adéquate. Après ça, il n'y a rien comme l'avoir dans le wild pour savoir ce qui se passe vraiment avec ça. Commencer avec une bêta, prendre une couple de premiers early adopters, leur dire c'est une bêta, je veux que tu me donnes, je te la donne gratuite, mais je veux que tu me donnes du feedback et je veux savoir ce qui n'a pas bien marché.
<strong>François Lanthier-Nadeau:</strong> JR, il nous avait fait une démo AI dans une communauté et il y avait un tool qu'il utilisait pour faire un peu comme...
<strong>David Beauchemin:</strong> Phoenix.
<strong>François Lanthier-Nadeau:</strong> Phoenix, explique ce que ça fait de Phoenix. Phoenix,
<strong>David Beauchemin:</strong> parce que l'enjeu que tu as avec juste la stack qu'on vient de parler, c'est que toi tu es ton développeur, il y a de l'information que tu vas aller collecter pour déboguer ça pour savoir qu'est-ce qui se passe bien ou qu'est-ce qui ne se passe pas bien. Donc tu veux, mettons que ton utilisateur fasse une requête, tu voudrais savoir c'est quoi tous les documents qu'il est allé utiliser pour faire sa réponse, les données qu'il est allé piger, c'était quoi la requête initiale de l'utilisateur, quel prompt il a utilisé pour faire ça, parce que ça se peut que des fois tu vas avoir une cinquantaine de prompts qui va être utilisé à différents moments ou différents contextes. Finalement, finis ce qu'il fait. C'est une solution un peu open source. Tu déploies, tu rajoutes une couple de places parce qu'il va collecter le data à ta place. Puis après ça, tu peux faire toute la trace de ce qui s'est passé pour savoir pourquoi ça a bien été ou pourquoi ça n'a pas bien été.
<strong>François Lanthier-Nadeau:</strong> Fait que, es-tu basically en train de refaire une suite un peu de tests unitaires, tests fonctionnels, puis c'est quoi le log tracing ou...
<strong>David Beauchemin:</strong> Exactement, tout ça.
<strong>François Lanthier-Nadeau:</strong> En programmation déterministe, tu peux genre dire, le code fonctionne si...
<strong>David Beauchemin:</strong> J'ai une moyenne de deux nombres, ça me donne la moyenne des deux nombres, une moyenne de zéro, puis un, ça me donne 0,5. Fait que tu as des cas que tu connais. Tu sais c'est quoi la réponse parce qu'elle est déterministe. Dans le cas d'un LLM, elle n'est pas déterministe.
<strong>François Lanthier-Nadeau:</strong> Tu penses-tu qu'ils vont sortir du... Parce que tu as parlé de juge aussi. Ça, c'est un concept intéressant. Explique-le rapidement. C'est quoi un juge LLM ?
<strong>David Beauchemin:</strong> Pour ce mot-là, l'idée est assez méta dans le sens que c'est comme « Hey, on ne sait pas comment évaluer un LLM » . On a deux choix. On demande à un humain de regarder la réponse. On lui dit « voici un échelle pour l'évaluer » . Puis si tu bosses,
<strong>François Lanthier-Nadeau:</strong> c'est pas bon.
<strong>David Beauchemin:</strong> Ça coûte cher, ça ne se cale pas. Donc, à chaque fois que tu le refasses, à chaque fois que tu fais un commit, tu vas faire ça, ben, ça marche pas. Fait que là, tu te dis, OK, est-ce que mes LLM sont assez bons pour pouvoir remplacer cet humain-là ? Fait qu'on a mis l'hypothèse que oui. Puis finalement, on va prendre un autre LLM qui n'est pas plus petit ou différent ou whatever. Tu vas prendre un cloud. Tu vas peut-être en prendre deux, trois. Jusqu'à un moment donné, ça te coûte cher en fait l'inférence. Puis là, tu vas lui donner différents éléments. Tu vas dire, la réponse a-tu du sens ? Puis il va dire oui ou non, ou peu importe ce qu'il va donner comme élément. Ça pourrait être aussi un chiffre. et par-dessus ça, tu vas dire, je fais confiance à cette arme-là pour me dire que c'est bon. Il y a des LLM qui ont commencé à spécialiser pour des jeux.
<strong>François Lanthier-Nadeau:</strong> Oui, c'est ça.
<strong>David Beauchemin:</strong> Ils ont une bonne corrélation avec le jugement humain. Donc, ce que l'humain dit comme réponse, ils disent en moyenne à peu près la même chose. Donc, avec ça, tu es capable d'évaluer à différents moments ton LLM.
<strong>François Lanthier-Nadeau:</strong> Malade.
<strong>David Beauchemin:</strong> Mais ça coûte cher. Oui.
<strong>François Lanthier-Nadeau:</strong> C'est sûr qu'il va y avoir du tooling et des plateformes qui vont se développer autour de ça. Comme tu dis, il y a des LLM qui se spécialisent comme jouer le rôle de juge.
<strong>David Beauchemin:</strong> Puis Phoenix, c'est juste ta solution logicielle pour être capable de faire ça et avoir des automatisations autour de ça.
<strong>François Lanthier-Nadeau:</strong> Il y a tellement d'avancées, même, en intelligence artificielle qui sont actionable, que c'est pas juste dans les nuages. C'est genre, si tu prends une fin de semaine et que tu essaies de changer ton workflow, automatiser un workflow, générer des choses que tu n'aurais pas généré par le passé, tu peux générer plus de valeur pour toi ou ta compagnie ou tes clients, peu importe. Il y a comme... C'est dans le réel. On ne pèle pas des nuages, mais j'ai comme l'impression qu'à cause de notre... bulle d'écho chamber en tech, nous, on se dit genre, ben là, si le monde ne le font pas, ça, ils vont perdre aux changes. Tu sais, on est-tu... J'ai comme l'impression même que je ne sais jamais quand peser sur le gaz de juste les opérations qui sont dans l'état où elles sont en ce moment, puis genre, je sais que si je fais A, ça va générer B, puis comme on continue de faire ça, puis la courbe, elle monte, versus OK, là, c'est le temps de peser sur le frein. de juste les opérations dans leur état actuel. C'est le temps de préviser sur le gaz de l'expérimentation, puis la recherche, puis les prototypes. Penses-tu que ceux qui trouvent l'équilibre entre ça vont dépasser de des milles à la ronde ceux qui ne prennent même pas le temps de checker parce qu'ils sont comme, ça bouge trop vite, je ne suis pas sûr, c'est un peu prédictif, il ne faut pas y faire confiance à 100 %. Moi, j'ai l'impression que oui, mais c'est peut-être juste mon biais de tech brawl.
<strong>David Beauchemin:</strong> C'est une bonne question. Très mal fait. Non, je comprends ce que tu veux dire. Est-ce que cette technologie va vraiment deliver autant encore à long terme ? C'est beaucoup un peu, je pense, la première question dans le sens que présentement, ce qu'on a en main, tu fais juste dire je le prends, je le mets en place, ça ne bouge plus, ça a quand même des avantages. 100 %. Mais pour que ce soit continuellement intéressant, c'est qu'il faut que ça continue à augmenter parce que sinon, je te dis, à un moment donné, mon compétiteur va attendre, va l'intégrer et on va être à la même étape.
<strong>François Lanthier-Nadeau:</strong> Oui.
<strong>David Beauchemin:</strong> Je pense que pour moi, il y a deux approches. Il y a beaucoup d'entreprises qui sont plus lentes à absorber de la technologie, que ce soit par différents facteurs, la culture, etc., tout ça. Mais je pense qu'un des gros éléments pour moi, c'est la culture aussi, à quel point on est prêts. Peut-être que la technologie, on est plus habitué d'être confronté à du changement, nouvelles technos, mais aussi nouveaux langages, nouvelles pratiques. C'est quelque chose qui bouge vite, qui donne l'impression de bouger plus vite. Donc, peut-être qu'on est plus friands de ça, peut-être, d'une certaine façon, mais encore, il y a plein d'organisations que j'entends que... Alors, les développeurs ne sont pas nécessairement des friands du changement ou des choses comme ça. Je pense que pour moi, l'avantage de dire je passe en mode opération puis exploration, c'est de voir si ma culture est capable de supporter ces changements-là aussi.
<strong>François Lanthier-Nadeau:</strong> Très hot.
<strong>David Beauchemin:</strong> Je pense que c'est beaucoup plus ça.
<strong>François Lanthier-Nadeau:</strong> Très cool.
<strong>David Beauchemin:</strong> Parce que, bien sûr, tu vas peut-être tester dans cette fin de semaine un outil qui va être cool, qui va te sauver, je ne sais pas, 15 %, voilà l'argent que ça te sauve. Peut-être que dans un mois, il y a un nouveau tool qui va être encore meilleur que tu vas vouloir mettre en place, mais si tu as mis une bonne culture à ce changement-là, ça se peut que tu vas vouloir bien s'intégrer. Mais ça se peut aussi que non. Il y a un pas aussi à la gestion du changement et à la culture du changement, tu as tout le temps l'impression de missing out, de vouloir faire des changements. Il y a comme une boucle incessante aussi qui peut être difficile. Bref, je pense que c'est un équilibre à trouver. Je pense que ceux qui vont réussir à le trouver pour leur organisation, parce que je ne pense pas que c'est un one-size-fits-all, c'est là que ça a probablement du sens après ça Est-ce que ça va donner un aide sur le marché ? Très probablement. Je ne suis pas un devin non plus,
<strong>François Lanthier-Nadeau:</strong> mais...
<strong>David Beauchemin:</strong> Est-ce que je suis réel ? Je ne sais pas.
<strong>François Lanthier-Nadeau:</strong> Je m'en retiens pour pas rire depuis tantôt d'autres. J'ai hâte que le pod finisse pour qu'on en reparle.
<strong>David Beauchemin:</strong> C'est ça pour dire, je pense que moi, il y a une technologie intéressante avec ça, mais il faut toujours regarder en tête qu'il y a encore du software bien normal qui fonctionne super bien aussi. La bonne tech, ça existe, c'est important. Il n'y a personne qui a un problème d'IA. Vous avez un problème d'affaires, puis on... on pense que l'IA peut le résoudre.
<strong>François Lanthier-Nadeau:</strong> 100 %. Rapidement, parce que je suis invité sur un podcast dans pas tant longtemps, je viens de voir là. Je t'ai envoyé une couple de questions en mitraille pour qu'on close notre pod, que je voulais ton opinion dessus. Est-ce que tu as l'impression qu'il y a un domaine ou une verticale en particulier qui va bénéficier le plus de l'IA ou ça va exploser le plus dans les 12 prochains mois ?
<strong>David Beauchemin:</strong> Les comptables et avocats pour moi. Toutes les jobs de service, le même. C'est beaucoup d'informations à traiter, beaucoup de... de trucs à faire, très répétitifs. Puis la valeur, pour moi, est beaucoup plus, et pas dans la tenue de l'île, mais plutôt dans la capacité de comprendre ton état financier puis de bien sortir l'information comptable de ça. Donc, pour moi, c'est beaucoup une place que je m'attends à ce qu'il y aura du changement. Le droit est probablement le plus ciblé actuellement. De tout ce que j'entends, c'est qu'ils sentent un peu que la valeur n'est pas toujours là, ou c'est beaucoup les entreprises avec le contexte américain du common law ou des anglophones. Le Québec a besoin de faire sa propre technologie pour réussir à atteindre ce qu'ils veulent. Pour moi, c'est deux secteurs où il y a beaucoup de jeu. Après, c'est vraiment les ingénieurs et les génies qui risquent d'arriver aussi. Les procédés, les trucs comme ça, les transformations, ça risque d'arriver. Ça fait que c'est pour moi deux secteurs très primaires qu'on va toucher rapidement.
<strong>François Lanthier-Nadeau:</strong> Tu as parlé du Québec, ça fait que je vais bander là-dessus pour une autre question. Raphaël, explique-moi rapidement à quel point on dépend de l'infra et de la tech américaine pour nos opérations, qu'elles soient logicielles ou de tous les jours au Québec.
<strong>David Beauchemin:</strong> Il n'y a pas beaucoup de ça, ce que j'ai parlé, qui m'ont dit qu'ils n'étaient pas sur GCP, AWS ou Azure.
<strong>François Lanthier-Nadeau:</strong> Google Cloud Platform.
<strong>David Beauchemin:</strong> Exact. On est beaucoup, beaucoup, beaucoup sur l'environnement. Pourquoi c'est tellement plus facile d'accès ? On a essayé, nous autres, par exemple, de travailler avec d'autres joueurs québécois. Puis là, c'est comme, il faut passer votre infra de telle affaire. On ne supporte pas Terraform, on ne supporte pas Docker, on ne supporte pas des technos qu'on est très habitués de travailler. C'est comme, OK, finalement, mon projet, c'est un projet de juste faire le flip vers vous. Fait que là, mon client, il faut que je le convainque en plus à l'ELR. C'est comme on est pris dans le tordeur un peu finalement. Fait que oui, ça nous amène une grande dépendance. Bon, maintenant, Anthropique, ça reste une compagnie française. Fait que DLLM, il y a Coveo qui développe la technologie là-dedans aussi. Il y a un autre que j'ai oublié de nom à l'instant. Mais bref, Courier qui développe d'autres DLLM, d'autres technologies. Fait qu'il y a des joueurs qui essaient de se placer, mais c'est sûr qu'on a une certaine dépendance non négligeable.
<strong>François Lanthier-Nadeau:</strong> Si, il tournait la champlure du cloud, Là, demain, on est fuck, là. effectivement bon fait que tu penses-tu que c'est réaliste de viser pour un cloud souverain au Canada ou au Québec ou c'est genre je pense que c'est de plus en plus stratégique stratégique mais pas nécessairement réaliste réaliste oui mais il y a du travail à faire pis ça prend du cash ça prend du cash mais c'est pas plus compliqué que ça moi j'en ai pas j'étais encore stagiaire chez Snipcard t'as-tu un SaaS que tu faisais à l'interne chez Baseline qui vous fait triper qui vous amène du bonheur un peu on a parlé
<strong>David Beauchemin:</strong> Fixer pour moi c'est lui qui m'a fait le plus triper dans le dernier mois. vraiment mais j'ai clairement c'est pas ton CRM c'est pas moi non effectivement cursor c'est en centre ben gros là c'est plus un IDEA qu'un SaaS c'est directement mais ça reste le software qu'on utilise par abonnement par abonnement aussi moi le next thing que je veux vraiment qu'on regarde c'est GetUp Copilot Plus Pro ou whatever comment tu appelles ils ont comme développé un nouveau set de fixtures entre autres tu peux mettre un IA dans ton PR qui fait déjà moi j'étais comme « Je veux ça pour les plus juniors. » Nous, la crainte, c'était à quel point le junior va comprendre si c'est un bon commentaire ou non, d'avoir le discernement pour le faire, et qu'on ne va pas plutôt lui faire perdre du temps à tourner en rond sur quelque chose. C'était pas bon, on s'en oublie ça. On est là-dedans, on essaie de tester. Moi, c'est les deux trous que j'utilise le plus. C'est pas mal ça,
<strong>François Lanthier-Nadeau:</strong> je pense. Fair enough, man. Écoute, Dode, je vais en parler avec toi, c'est toujours un petit plaisir. J'ai du fun, puis j'apprends. Je suis toujours reconnaissant du temps qu'on a ensemble. Avant qu'on finisse, la dernière question classique, c'est si tu as des shameless plugs. Je sais que David Beauchemin sur LinkedIn, si le monde a des questions, il y a.
<strong>David Beauchemin:</strong> Avec ma grosse face.
<strong>François Lanthier-Nadeau:</strong> Avec ta grosse face. Si n'importe qui, en fait, en SaaS ou en tech, veut faire des projets d'IA, allez voir Baseline. Je le recommande chaudement. Mais tu t'embauches-tu ? As-tu des trucs à promouvoir à part ce que je viens de dire là ?
<strong>David Beauchemin:</strong> On n'embauche pas tout de suite. On a déjà des gens qui nous intéressent, qu'on a déjà ciblés, qu'on regarde pour les prochaines embauches. Mais tu sais, nous autres, c'est nos cinq ans. Cet été, on va faire un petit party. Let's go. Si il y en a qui s'en intéressent.
<strong>François Lanthier-Nadeau:</strong> On va partager ça avec SaaSpasse, of course.
<strong>David Beauchemin:</strong> Exact. qu'on va faire un petit coup de... Je ne sais pas ce qui va se passer, mais on s'est fait notre propre bière. On va se faire une bière avec notre propre étiquette. Parfait. On va donner de la bière.
<strong>François Lanthier-Nadeau:</strong> Je vais amener mon eau.
<strong>David Beauchemin:</strong> C'est vrai. On va te faire une bière sans alcool. Juste pour toi. On va te faire du kombucha.
<strong>François Lanthier-Nadeau:</strong> Écoute, je suis content que tu existes pour vrai dans le réveil. Puis c'est toujours un plaisir, mon vieux.
<strong>David Beauchemin:</strong> C'est un plaisir, man. Merci à vous.
<strong>François Lanthier-Nadeau:</strong> It's a wrap. All right, folks. Avec SaaSpasse, on a une infolette de feu hebdomadaire qui est très moitié fun, moitié fond à notre sauce. il y a des hâte takes, des expérimentations que je fais, des histoires vraies de SaaS, vraiment pour t'aider à prendre les meilleures décisions, que ce soit par rapport à ta compagnie ou ta carrière. C'est une place où je peux être 100% moi-même. Ça fait du bien. J'adore ça, écrire. Fait que d'avoir ce outlet-là, c'est complètement motivant pour moi. Il y a plus qu'il y a 850 SaaS folks puis curieux qui nous suivent. Ça augmente chaque semaine. J'aimerais ça que vous en fassiez partie, puis qu'on se rende à 1000, puis qu'on se rende à encore plus que ça. Bien franchement, ça me craint au bout d'avoir des nouveaux abonnés qui se joignent sur l'infolette. Ça me craint qu'à continuer d'écrire, à continuer de faire de la recherche, de me poser des questions, d'analyser ma conversation avec cette fondatrice-là ou ce fondateur-là, ça pourrait être transformé en un éditorial que moi, j'amène dans l'infolette. Fait que si vous voulez aussi, vous pouvez joindre les SaaS Pals. On a un petit forfait payant qui permet de nous supporter directement comme individu ou comme compagnie. On a déjà plus que 22 personnes qui nous supportent comme ça. C'est insane. Je n'en reviens pas. Puis eux, ils font ça en échange contre des extra goodies, right ? Fait que pense à, mettons, des updates extra que je fais avec personne d'autre qu'avec eux, des previews de la roadmap du podcast, des rabais sur les événements puis d'autres trucs. Fait que vous pouvez aller sur saspace.com. Il y a un pop-up qui va vous apparaître d'en face en théorie. Sinon, dans le footer, vous pouvez vous inscrire. Sinon, vous googlez saspace puis Beehive. C'est l'outil qu'on utilise pour l'infolettre. Ça me craint vraiment de voir ça grandir. pire. Ça me tient à cœur, fait que check it out. Pis si vous avez du feedback constructif aussi, vous pouvez me le shooter. All right, folks, un petit shout-out à Missive, partenaire produit SaaS'Passe. Missive, c'est un email client multijoueur qui réinvente la boîte courriel pour aider les équipes à mieux communiquer pis collaborer. Il y a au-dessus de 3500 entreprises à travers 75 pays qui leur font confiance, dont SaaS'Passe, et un paquet de SaaS. Donc check them out sur SaaSpasse.com slash partenaire avec un S. Il y a une solide entrevue avec Phil Lehoux, le co-founder, sur ce qui s'en vient. pour mes cives. OK, de retour au pod. SaaSpasse, c'est une business d'amour, une business indépendante. Il y a un paquet de choses que vous pouvez faire pour nous supporter dans notre croissance pour qu'on puisse continuer de créer du contenu de feu, d'organiser des beaux events puis de mousser puis de tirer par le haut cette communauté tech qu'on a au Québec. First, si vous n'avez pas ajouté votre SaaS sur notre plateforme, allez sur saspass.com. Il y a un gros bouton m'ouvre pour faire juste ça. Vous pouvez check out le job board si vous avez une offre d'emploi quelconque. C'est gratuit, un outil super cool pour toute notre audience et notre réseau. Si vous ne nous suivez pas déjà par rapport au pod sur Spotify, Apple Podcasts, allez faire ça s'il vous plaît. Vous pouvez aussi nous laisser un review, ça nous aide vraiment beaucoup. Vous pouvez nous suivre sur YouTube, qu'on investit de plus en plus là-dedans. On met des shorts sur le plus de contenu possible, que ce soit organique ou avec des partners. Check this out. Si vous voulez venir aux événements et ne pas manquer de billets, parce qu'on est souvent sold out, Vous devriez nous suivre sur Eventbrite. Vous allez sur Eventbrite, vous écrivez « SaaSpasse » , vous pouvez vous abonner et avoir des notifications. On fait ça à peu près chaque mois. Last but not least, suivez-nous sur LinkedIn et Instagram. On met du beau contenu, du contenu souvent drôle. Je pense que ça vaut la peine. Je veux finir cette outro custom un petit peu en remerciant les partners certifiés de « SaaSpasse » . On a des compagnies de fous qui nous supportent. financièrement, stratégiquement, des fois même psychologiquement dans mon cas. Sans ces compagnies-là, la majorité du revenu de Sassport n'existerait pas et on ne pourrait pas faire ça. Je veux que vous preniez le temps d'aller les regarder. Sassport.com, slash partenaire avec un S. Ils sont tous listés là. Ils ont une belle fiche avec du contenu, avec des liens, des détails. Je vous les nomme rapidement. Léviat Legal, des avocats qui sont tech et founder friendly. Le Shift, des comptables et fiscalistes qui sont calés en tech aussi. Baseline, gros geeks pour innover avec l'AI. Unicorn, des experts cloud AWS pour optimiser et scaler votre infrastructure. On a aussi cette année des partners produits. Vasco, une plateforme RevOps pour votre go-to-market. Missive, un inbox collaboratif pour vos communications de team. Apollo 13, un studio no-code pour construire des MVPs et des side projects. Vous pouvez tout aller voir sur saspace.com. Je suis partenaire avec S. Moi, du fond du cœur, je vous dis juste merci de nous suivre et de nous supporter. C'est insane comme aventure ce qu'on a lancé là. Je suis bien privilégié d'être là.
Updates sur le podcast, la cie, les events IRL. Contenu premium pour les abonnés SaaSpal — éditorial de Frank, Q&A, roadmap du pod.