07:52 <entwanne> > De nos jours, je les utilise plutôt pour brainstormer et valider de nouvelles idées, pour m'assurer que ce que je pense est correct
07:52 <entwanne> Comment s'assurer que quelque chose est correct avec un outil qui ignore tout de l'exactitude ?
09:42 <discord_afpy> <Andy K (boss dreamer ou pas)> Salut
09:51 <discord_afpy> <Andy K (boss dreamer ou pas)> tu écris super bien français, tu as grandi en France ? Désolé ma question est un peu bizarre mais je suis curieux, sachant que tu as dis que tu faisais ton post doc en Allemagne
09:55 <discord_afpy> <dancergraham> Je suis sur le meme parcours
09:56 <discord_afpy> <indrashisdas> Merci pour votre question. Je suis originaire d'Inde, plus précisément de Calcutta, à l'est du pays. J'ai récemment obtenu un master à l'université de Fribourg, et non un post-doctorat. Je travaille actuellement dans une entreprise à Fribourg, en Allemagne.
09:56 <discord_afpy> <dancergraham> Les LLM ont un impact très heterogene sur ma pratique de code - parfois ils accelerent beaucoup mon travail, parfois je perds un temps fou a débugger une hallucination
09:56 <Mindiell> ouais, le bridge il fonctionne par intermittence je crois :D
09:57 <entwanne> je crois que c'est toujours un problème lié aux trop longs messages
09:58 <discord_afpy> <dancergraham> J'utilise plutot pour ouvrir les pistes, trouver d'autres solutions auxquelles je n'avais pas pensé, ou a contredire mes idées plutot que de les valider
10:00 <discord_afpy> <amine_horseman> Je dirais que comme toute technologie ça a des avantages et inconvénients, faut le voir comme un outil et l'utiliser quand ça peut fournir une valeur ajoutée
10:00 <discord_afpy> <dancergraham> J'aime bien le conseil de faire mentir le modele le plus tot possible. Ca augmente les chances de traiter les réponses suivantes avec scepticisme.
10:00 <discord_afpy> <amine_horseman> C'est comme la voiture, ça polue, c'est super utile dans certains cas, et dans d'autres vaut mieux prendre le vélo
10:02 <discord_afpy> <amine_horseman> J'ai utilisé un LLM sur un code legacy avec des centaires de fichiers et sans documentation, ça a généré un bon overview des modules les plus importants et des patterns utilisés
10:02 <entwanne> Je ne pense pas que ce soit comparable (mais ça le deviendra peut-être ☹), si la voiture individuelle occupe un segment si important c'est parce que la société lui a offert toute cette place en prenant sur le reste. Tâchons de ne pas faire la même chose avec les LLM
10:06 <discord_afpy> <amine_horseman> C'était une métaphore pour dire que c'est juste "un outil" de plus
10:07 <discord_afpy> <amine_horseman> Je pense qu'à termes les LLMs seront utilisés et que comme la révolution industrielle du 18eme siècle on poura pas empêcher la société de se tourner vers ça
10:08 <entwanne> Et justemetn je n'aime pas du tout cette relativisation « c'est juste un outil » qu'on lit partout. Non ce n'est pas juste un outil. Pour faire quoi ? On ne sait pas trop, on verra plus tard à quoi ça peut bien servir. Mieux que ce qu'on sait déjà faire (de meilleure qualité ou plus rapidement) ? Pas vraiment mais on espère que ce sera le cas plus tard. Pour quel coût ? On ne sait pas vraiment, on verra plus tard.
10:08 <entwanne> https://eev.ee/blog/2025/07/03/the-rise-of-whatever/
10:10 <entwanne> Je pense qu'on atteint surtout un plafond avec les LLM, en se rendant compte que malgré la puissance de calcul toujours plus grosse qu'on leur donne ils ne répondent pas mieux aux demandes et ne peuvent pas corriger leurs problèmes intrinsèques (hallucinations, sources)
10:10 <entwanne> qu'on se retrouve juste à en voir être imposés un peu partout par effet de mode mais que ça ne simplifie aucune démarche
10:11 <discord_afpy> <dancergraham> c'est sur qu'il y a beacoup d'outils qui mettent de features AI en amont et beaucoup d'utilisateurs en ont marre
10:12 <discord_afpy> <dancergraham> Sur aussi que beaucoup d'utlisateurs trouve une vraie utilité dans ChatGPT / cursor / perplexity AI / claude Code et sont prets a payer pour
10:13 <discord_afpy> <dancergraham> On peut choisir de dire qu'ils sont cons et ils se trompent mais ils connaissent mieux leur vie et leur cas d'usage que nous
10:13 <discord_afpy> <dancergraham> Sur qu'il y aura un gros crash a venir - beaucoup de mauvais startups et features vont disparaitre
10:14 <discord_afpy> <dancergraham> mais les LLMs vont rester, et ils continuent d'évoluer avec les outils autour de trimestre en trimestre alors je ne les vois pas disparaitre
10:15 <entwanne> On verra bien
10:16 <discord_afpy> <amine_horseman> C'est sûr google et co n'ont pas investit des milliards pour abandonner le projet de sitôt, après bon, ça permet aux RH d'envoyer des emails automatiquement sans lire nos CVs 😂😅
10:17 <asyd> j'ai du mal a voir comment ça peut disparaitre
10:17 <discord_afpy> <amine_horseman> Si je compte nombre d'emails que j'ai reçu ou on sentait le gros LLM derrière 😅
10:18 <entwanne> Je ne m'avencerais pas trop là-dessus, Google qui abandonne des gros projets c'est assez courant, ils doivent pas être trop impactés par le biais des coûts irrécupérables
10:18 <entwanne> j'ai du mal à voir comment les LLM peuvent se généraliser en dehors de leur bulle actuelle
10:19 <discord_afpy> <amine_horseman> Je pense que d'ici 3 ans en tout cas ils ne vont pas l'abandonner, tant que toute les entreprises s'y mettent
10:20 <discord_afpy> <dancergraham> C'est tout a fait possible que Google, OpenAI, Meta, Anthropic vont perdre des milliards la-dessus mais les LLMs Llama par exemple resteront. il y a des modeles, datasets et pipelines en full open qui permettront a n'importe qui de reprondre pour pas chere
10:23 <discord_afpy> <amine_horseman> Après bon, genIA c'est pas juste des LLM, côté digital twin et génération des environnements de simulation pour la robotique c'est extrêmement utile
10:52 <discord_afpy> <bronxae> Waow, sublime article
10:56 <discord_afpy> <bronxae> La conclusion
10:56 <discord_afpy> <bronxae>
11:05 <Mindiell> bah les LLM et cie c'est comme le nucléaire : c'est trop bien vendu, l'utilité réelle est pas terrible, ça pollue comme 15 et c'est pas la solution.
11:05 <Mindiell> Mais bon, ça fait tourner le pognon alors...
11:08 <discord_afpy> <bronxae> Gloabalement, dans les discussion AI/LLM on parle beaucoup des aspects pratiques, de l'avancée technologique, de l'exactitude, des biais, de l'impact écologique démesuré, de l'impact sur nos cerveaux individuels, mais on oublie qu'on vit dans des sociétés et que ça a un impact sur :
11:09 <discord_afpy> <indrashisdas> Honnêtement, les LLM ne font qu’optimiser le temps nécessaire pour trouver des solutions à des problèmes, comparé à un humain qui essaierait de faire la même chose.
11:09 <discord_afpy> <indrashisdas> Cependant, cela se fait au prix d’informations manquantes ou incorrectes.
11:53 <Mindiell> indrashisdas: et des coûts exorbitants, ecologiques et sociaux (car ce sont des petites mains qui travaillent derrière ce qu'on appelle l'IA en ce moment)
11:53 <Mindiell> et j'aimerais bien savoir quel genre de "solution" a été sortie jusque là qui mérite un tel prix
12:24 <discord_afpy> <chadys> Je suis d'accord, j'aime beaucoup l'article même si je ne suis pas d'accord avec tout. Ce paragraphe notamment résume parfaitement pourquoi je n'utilise ?pas? l'IA (et que chaque fois que j'ai testé ça m'a fait perdre du temps).
12:25 <discord_afpy> <chadys> Est-ce que ton temps est vraiment si optimisé que ça si tu dois repasser derrière ?
12:38 <discord_afpy> <saturn7694> l'IA ce n'est pas que les LLM. Et même dans les LLM on plein d'application possible. Donc je ne suis pas d'accord pour dire que c'est une technologie dont on ne sais pas quoi faire. Pluis généralement la reconnaissance d'image à de nombreuses applications: surveillance, imagerie médicale, etc... Les LLM en ont aussi même si l'efficacité et plus contestable.
12:40 <discord_afpy> <saturn7694> Par contre vouloir quelque chose de précis et original de la part d'un outil qui fait un genre de moyenne de nombreux paramètres ne me semble pas judicieux
12:49 <Mindiell> si une application c'est la surveillance, je m'en passerai bien, merci
12:50 <Mindiell> l'imagerie médicale, on a des experts pour ça. Et vu les hallucinations : non merci
12:50 <discord_afpy> <chadys> oui effectivement il y a un abus de langage IA ≠ LLM
12:52 <discord_afpy> <chadys> Alors non pour le coup la reconnaissance automatisée fait mieux que les experts (selon le domaine, on a pas encore tout couvert) et il n'y a pas de concept d'hallucination sur ce type de modèle. On peut avoir du faux-positif et faux-négatif mais ça c'est le cas de n'importe quel test et il y aura toujours un humain derrière pour vraiment valider.
12:53 <discord_afpy> <chadys> mais les IA spécialisé sont capable de reconnaitre des patterns très difficilement détectable, même par un expert, c'est plutôt fiable et ce ne sont pas des IA très gourmande. Donc c'est vrai qu'il faut faire la distinction avec les LLM
12:55 <discord_afpy> <chadys> Pour les LLM spécifiquement c'est rigolo (et déprimant) de comparer le discours marketeux des boites qui vendent ces outils et les résultats... très modérés on va dire, des quelques études sérieuses qui commence à apparaitre sur l'analyse de "l'efficacité" de ces modèles
13:10 <entwanne> Personnellement je n'ai évoqué que les LLM depuis le début de la discussion, aucune confusion
13:11 <discord_afpy> <saturn7694> Mindiell ils ont fait des essais sur des images médicales et le taux d'échec est supérieur chez les expers qu'avec l'IA. Bien entendu il faut reproduire mais c'est assez prometeur. Pour la surveillance le bien fondé de celle-ci est un autre débat.
13:15 <discord_afpy> <saturn7694> entwanne oui c'est vrai. Mais c'est important qu'on fasse la distinction et le traitement des médias n'aide pas à la faire. Les LLM ont leur utilité aussi, bien que je sois un peu plus réservé.
13:17 <entwanne> Les LLM sont en effet les IA qui ont le vent en poupe (et celles qui sont le plus à même d'interagir directement avec les gens aujourd'hui), pour autant je ne leur trouve aucune utilité réelle (ne résolvent pas mieux ni plus rapidement les problèmes qu'on savait résoudre avant, par contre on peut générer plein de trucs fades avec)
13:17 <discord_afpy> <saturn7694> oui c'est clair...
13:18 <discord_afpy> <saturn7694> La traduction automatique, faire des résumé d'un ensemble de données des trucs comme ça. Faut voir à l'usage... Mais comme d'habitude les médias alimentés par le marketing font le buzz autour de ça...
13:19 <discord_afpy> <saturn7694> En fait la vrai révolution c'est plus l'IR je pense mais c'est confondu avec les LLM
13:20 <discord_afpy> <saturn7694> dans les médias par exemple. On parle de chatGPT puis des résultat en imageire médicale. ça aide pas...
13:21 <discord_afpy> <saturn7694> Donc perso oui je pense que je vais m'interesser de près aux reseaux de neuronnes dans le futur par contre les LLM bof...
13:28 <discord_afpy> <chadys> D'ailleurs, l'un des meilleur traducteur sur le marché (à ma connaissance), c'est du réseau de neurones mais c'est pas un LLM (bien que certaines techniques bas-niveau utilisées soit communes) https://www.deepl.com/en/blog/how-does-deepl-work
13:29 <discord_afpy> <chadys> l'IR ?
13:48 <discord_afpy> <saturn7694> image recognition ?
13:48 <discord_afpy> <saturn7694> je sias pas si c'est officiel...
13:49 <discord_afpy> <saturn7694> ah je savias pas que deepl c'étati pas du LLM
14:11 <discord_afpy> <amine_horseman> Deepl existait bien avant les LLMs, mais oui y a bcp d'applications IA qui ne sont pas des LLMs mais méconues car le hype médiatiques touche plus les applications du genre chatbot
14:13 <discord_afpy> <amine_horseman> Tout le monde s'en fou du tri postal automatisé, les détection de fraudes bancaires, l'imagie médicale et satellitaite, les prévisions météo, l'optimisation combinatoire...
14:14 <discord_afpy> <amine_horseman> Où plutôt les médias s'en foutent, car ça fait pas le buzz d'en parler, donc on ne parle que de ce qui peut devenir viral
14:16 <entwanne> Y a de ça, et le fait qu'on essaie de nous vendre les LLM comme l'IA consciente généraliste fantasmée par la SF, là où les autres exemples cités sont des IA spécialisées (une IA d'échecs ne sera pas adaptée aux prévisions météo)
14:19 <misc> ah purée, les discours sur l'AGI, je sais pas qui balance ça et ou, mais parfois, ça parle sur HN de ça, et wow
14:20 <discord_afpy> <amine_horseman> Ouais, même des chercheurs s'y mettent parfois, je me rappelle un sondage y a quelques années ou certains chercheurs IA avaient prédit l'IA générale en 2027, alors que d'autres avaient dit, c'est plus vers 2036, et d'autres vers 2090, au fait c'était des réponses plus au feeling 😂
14:21 <discord_afpy> <amine_horseman> Le sujet de Singularité avait fait le buzz y avait quelques années puis ça s'est calmé (ou detourné peut être ? )
14:23 <discord_afpy> <amine_horseman> Mais ce que j'avais retenu comme leçon c'était que tu peut être un super chercheur IA super calé en technique, ça te permet pas forcément de prédire les avancées de ton domaine
14:24 <discord_afpy> <amine_horseman> Même les chercheurs d'OpenAI avaient avoué qu'ils ne s'attendaient pas à ce que ChatGPT soit aussi populaire lorsqu'ils l'ont rendu disponible au public
14:41 <alain_afpy> AFPy - https://mamot.fr/@AFPy/114823292815727711
15:10 <discord_afpy> <saturn7694> L'imagerie médicale c'est assez mis en avant justement. Mais c'est fait sans discernement.
15:12 <discord_afpy> <saturn7694> bref il y a de la hype comme tout ce qui est nouveau et des racourcis comme tout ce qui est complexe
15:13 <discord_afpy> <saturn7694> Je sais pas tu fais remonter les LLM et deepL quand. Parce que les deux sont arrivés récemment j'ai l'impression
15:14 <discord_afpy> <saturn7694> Et si on fait remonter les LLM a la comletion de phrase c'est assez vieux en fait
15:16 <entwanne> Chaînes de Markov ♥
15:17 <discord_afpy> <saturn7694> c'est sympa ça et dans un but créatif c'est presque mieux
15:25 <discord_afpy> <amine_horseman> Je classe les LLMs à partir de l'apparition des premiers modèles GPT qui traitaient d'assez gros volumes de texte, genre à partir du GPT2.5 ou 3.
15:25 <discord_afpy> <amine_horseman> Bon après oui le terme LLM lui-même est assez vague, quelle est la limite de "Large"
15:26 <entwanne> Large c'est quand c'est plus gros que petit
15:29 <discord_afpy> <amine_horseman> Pour ma machine 1To données c'est très large, mais pour OpenAI si tu mets pas 500To et 20 GPUs ça passe pas 😂
15:29 <misc> c'est vrai que je me demande ce que ça donne d'entrainer un LLM sur un corpus plus petit
15:30 <misc> genre 1G, est ce que tu va obtenir quelque chose ?
15:39 <discord_afpy> <amine_horseman> Théoriquement le modèle ne va pas pouvoir généraliser, ça va se transformer en un algorithme à mémoriser ton texte
15:40 <discord_afpy> <amine_horseman> L'equivalent en traitement d'images par exemple, c'est que si tu te laisse pousser une moustache ou que tu fermes les yeux le modèle ne va pas te reconnaître
15:41 <discord_afpy> <amine_horseman> Car il ne généralise pas et mémorise chaque pixel d'entrée
15:42 <discord_afpy> <amine_horseman> Sinon, y a des LLMs dont le but justement est d'être entrainés sur des petites bases de données de texte comme Deep Seek qui a donné de bons résultats, mais "petit" dans ce domaine ça va dans les 50 Go
15:43 <debnet> Dans mon taf actuel on fabrique des mini modèles à 1 ou 2b.
15:43 <debnet> On s'en sert pour des tâches spécialisées dans des corpus très spécifiques.
15:45 <discord_afpy> <amine_horseman> Oui quand t'as besoin de reponses ultra spécialisées, tu peux réduire les données d'entrée, mais pour un LLM généraliste qui doit répondre aux questions du grand public sur tout et n'importe quoi, il faut mettre plus de data
15:46 <discord_afpy> <amine_horseman> Et sinon les modèles entrainnés en interne pour des tâches spécialisés c'est généralement des modèles déjà pré-entrainné par OpenAI ou Google, et puis on leur remet une petite couche d'entraînement sur des données plus spécialisées
15:48 <discord_afpy> <amine_horseman> Aujourd'hui rares les entreprises qui ré-entrainent les modèles à partir de zéro, ça coûtera très cher en ressources et ça donnera pas forcément de résultats meilleurs que si tu repart d'un GPT 3 pré-entrainné que tu spécialise
15:49 <discord_afpy> <amine_horseman> Même en traitement d'images on fait souvent ça
15:50 <discord_afpy> <amine_horseman> Tu peux voir ça comme un fork d'un modèle existant au quel on rajoute quelques couches de données spécifiques
16:01 <misc> en fait, je me pose la question des modéles plus petits, parce qu'une des discussions qu'on a eu au taf sur la question de ce qui fait qu'un modéle est libre, c'est aussi la capacité à l'entrainer ou pas
16:01 <misc> et c'est quand même dépendant de la taille du modéle, mais du pognon
16:01 <misc> est ce qu'un truc qui coute 1 milliard aujourd'hui et 200€ dans 40 ans, sans aucun changement, ne va plus être vu comme libre ou pas libre sur la base du prix des GPU ?
16:01 <asyd> ouais un modèle libre c'est un vaste sujet
16:02 <misc> (l'argument était que si les gens en pratique ne peuvent pas entrainer le modéle, c'est pas libre)
16:06 <discord_afpy> <amine_horseman> C'est quoi la différence entre Libre et Open dans le contexte des LLMs?
16:07 <misc> la discussion, c'etait dans le contexte de la definition de l'OSI
16:08 <misc> et de savoir justement ce que ça serait un llm libre ou opensource ou whatever
16:08 <discord_afpy> <saturn7694> Donc Open du coup
16:08 <discord_afpy> <saturn7694> libre c'est pas opensource
16:09 <discord_afpy> <amine_horseman> Y a plusieurs modèles entrainés qu'on peut télécharger gratuitement et les re-entrainnés sur nos propres données
16:09 <discord_afpy> <amine_horseman> Et y en a où l architecture est publiés sur les articles de recherche donc on peut les récreer
16:09 <discord_afpy> <amine_horseman> Ça peut être considéré comme Libre du coup?
16:09 <discord_afpy> <saturn7694> c'est de l'open data
16:10 <discord_afpy> <saturn7694> je sais pas si on peut voir ça comme du code
16:10 <discord_afpy> <saturn7694> enfin bon ça se discute...
16:10 <misc> les différences entre opensource selon l'osi et libre selon la FSF sont négligeables d'un point de vue juridique
16:13 <discord_afpy> <saturn7694> pour moi GPL c'est libre et le reste sont des licences open source
16:13 <misc> au final, c'est juste un clash dans les 90s entre RMS et ESR, et à part perpetuer une discussion entre 2 personnes qui sont relativement discrédité dans le mouvement, une activité que je trouve quand même assez stérile, je suis pas sur de voir le but
16:13 <discord_afpy> <saturn7694> ça impose des obligations à l'utilisateur
16:13 <misc> donc python n'est pas libre ?
16:13 <discord_afpy> <saturn7694> pas au sens de la FSF
16:13 <misc> c'est pas la question que j'ai posé
16:13 <entwanne> Mais on s'en fout un peu de leur avis :)
16:14 <misc> bah surtout que c'est pas l'avis de la FSF
16:14 <discord_afpy> <saturn7694> c'est quoi leur avis du coup ?
16:15 <misc> https://www.gnu.org/licenses/license-list.fr.html#GPLCompatibleLicenses
16:15 <misc> https://www.gnu.org/licenses/license-list.fr.html#Expat "C'est une licence de logiciel libre"
16:18 <discord_afpy> <saturn7694> oui c'est vrai
16:18 <discord_afpy> <saturn7694> les autres elles sont pas copyleft
16:18 <misc> ah bah content de savoir que l'AGPL est pas copyleft
16:20 <misc> la CDDL a aussi un copyleft toujours d'aprés le même
16:21 <discord_afpy> <saturn7694> oui ok
16:24 <discord_afpy> <saturn7694> moi je faisais la distinction copyleft/pas copyleft mais effectivement c'est ce qu'ils retiennent. ça a quand même une importance pour une entreprise.
16:26 <misc> ça dépend des entreprises, je pense que la mienne n'accorde pas d'importance tant que ç'est libre
16:28 <discord_afpy> <saturn7694> En principe le code qu'elle produit doit être open source alors. non ?
16:29 <misc> oui, sauf exception
16:29 <misc> (genre, le code qu'on rachéte et qui est pas encore libre et je pense les trucs à utilisation purement interne qu'on vends pas)
16:31 <discord_afpy> <saturn7694> Ce que je veux dire ce qui peut être génant c'est ce copyleft . Je me souviens que les OS de pas mal de matériel réseau sont des surcouche de BSD pour cette raison par exemple.
16:32 <discord_afpy> <saturn7694> bon je suis content que leur site soit up à nouveau en tout cas (il était down hier...)
16:33 <misc> y a eu pas mal de FUD venant de feu l'équipe OSPO de Google sur l'AGPL (et donc les licenses GPL adjacentes)
16:34 <discord_afpy> <saturn7694> je comprends pas trop leur document. Ils disent en préambule:
16:34 <discord_afpy> <saturn7694> > We classify a license according to certain key criteria:
16:34 <discord_afpy> <saturn7694> >
16:34 <discord_afpy> <saturn7694> > Whether it qualifies as a free software license.
16:34 <discord_afpy> <saturn7694> > Whether it is a copyleft license.
16:34 <discord_afpy> <saturn7694> > Whether it is compatible with the GNU GPL. Unless otherwise specified, compatible licenses are compatible with both GPLv2 and GPLv3.
16:34 <discord_afpy> <saturn7694> > Whether it causes any particular practical problems.
16:34 <discord_afpy> <saturn7694> et ensuite ils liste des licence non copyleft c'est un peu contradictoire
16:36 <discord_afpy> <saturn7694> tu veux dire faire peur au entreprise avec le copyleft ?
16:37 <discord_afpy> <saturn7694> Orange c'est fait condamner pour ça je crois
16:37 <misc> https://opensource.com/article/17/8/patrick-mchardy-and-copyright-profiteering
16:38 <misc> y a aussi eu des cas comme ça
16:38 <misc> y a eu gpl-violations.org, de haralt Welte, mais son but n'etait pas de tirer du pognon, mais juste de faire publier le code sur un ftp
16:38 <misc> Mc hardy a été plus loin, et ça n'a pas plus à tout le monde
16:40 <misc> https://lwn.net/Articles/752485/
16:40 <misc> https://lwn.net/Articles/769982/
16:42 <discord_afpy> <saturn7694> oui mais ça c'est un gars qui clame un copyright pour le code qu'il produit sur un projet open source . (J'ai pas tout lu tu me diras si je me trompe)
16:42 <misc> bah, ça a aidé au FUD également sur la GPL
16:43 <misc> en pratique, satisfaire la GPL, c'est pas spécialement dur si des volontaires y arrivent...
16:43 <discord_afpy> <saturn7694> apparemment il a pas gagne
16:43 <misc> (genre la majorité des distros linux)
16:45 <discord_afpy> <saturn7694> Les distros package des softwares et crée des scripts qui doivent être open source. elles sont conformes en principe. Elle n'ont pas le droit d'avoir du code closed source. Je sais pas si elle respect tous ça mais en tout cas c'est ce qu'elles doivent faire
16:46 <discord_afpy> <saturn7694> Tiens d'ailleurs je me susi commandé un Tuxedo avec l'OS et je me suis posé la question justement. J'ai hésité un moment avant de choisir leur OS...
16:47 <discord_afpy> <saturn7694> Au pire je le virerai
19:49 <alain_afpy> refonte mobilizon instances - https://linuxfr.org/users/steph1978/journaux/refonte-mobilizon-instances
21:19 <discord_afpy> <chadys> Oui Orange s'y est fait prendre
21:19 <discord_afpy> <chadys> https://www.entrouvert.com/actualites/2024/orange-et-violation-de-la-licence-libre/
21:20 <discord_afpy> <saturn7694> bien fait il faudrait leur faire un procès pour imposer SOAP à leurs "partenaires" aussi
22:59 <discord_afpy> <saturn7694> ah ah c'était intéressant
23:01 <discord_afpy> <chadys> j'ai vécu soap. Puis j'ai vécu bien pire que soap. Il faut faire attention à ses vœux haha
23:02 <discord_afpy> <saturn7694> c'est vrai que ça à lintérêt d'être structuré, parfois vaut mieux ça qu'une api rest mal foutue.
23:04 <discord_afpy> <saturn7694> en vrai c'était assez carré c'est juste qu'il changeait leur api une fois par an. et python pour le SOAP ça a jamais été très fourni. (surtout avec python3)
23:05 <discord_afpy> <saturn7694> très intéressant le récit de la procédure. beaucoup aurait laché l'affaire...
23:18 <discord_afpy> <chadys> yes ils se sont bien accroché, en plus ils étaient vraiment tout petit au début
23:19 <discord_afpy> <chadys> le pire que j'ai eu c'est un échange FTP de ficher xml dans un format jamais respecté et avec aucune gestion d'erreur ou environnement de test. 1 an et demi d'aller-retour pour avoir un truc qui fonctionne 1/3 fois. Mais ouais soap en python c'est galère
23:20 <discord_afpy> <chadys> (FTP avec 0 sécurité en plus évidemment)
23:20 <discord_afpy> <saturn7694> oui j'ai connu ça aussi
23:21 <discord_afpy> <saturn7694> c'est pour ça je jette pas trop la pierre a orange... eux au moins c'est documenté
23:21 <discord_afpy> <chadys> ça les met déjà au dessus de la norme haha
23:22 <discord_afpy> <saturn7694> le sousci c'est qu'il faut une armée de devs pour suivre leur évolutions
23:23 <discord_afpy> <chadys> ah c'est sûr que sans version...
23:23 <discord_afpy> <chadys> marrant, ils devraient avoir un truc un minimum stable depuis le temps
23:24 <discord_afpy> <saturn7694> Je sais pas peut être ça s'est amélioré avec le temps
23:24 <discord_afpy> <saturn7694> ça fait 6ans que j'ai quitté les télécom
23:25 <discord_afpy> <chadys> ils ont peut-être plus de soap alors qui sait ^^ Les télécom j'en ai fait 6 mois il y a quelques années ça m'a suffit xD
23:27 <discord_afpy> <saturn7694> ça s'est bien stabilisé je pense. les acteurs ont fusionné se sont spécialisé etc...
23:32 <discord_afpy> <saturn7694> dès que il y des trucs a aller chercher qqpart en général c'est le bordel. faut avoir des resources pour faire une api bien documentée et souvent ça passe en dernier la doc.