04:21 <alain_afpy> ERROR www(2) timed out
        04:24 <alain_afpy> INFO www fixed
        11:04 <cyp_work> rapide sondage suite a un débat entre moi et jpcw
        11:04 <voileux> je suis pour cc cyp_work jpcw
        11:05 <cyp_work> by_pub_impact.sort(key=lambda pub: pub['value']) et by_pub_impact.sort(key=operator.itemgetter('value')) le quel est le plus lisible ?
        11:06 <feth> le second, pour moi
        11:06 <jpcw> la question est plutôt pour un débutant
        11:06 <haypo> cyp_work: operator.itemgetter est plus rapide
        11:06 <jpcw> les guss qui savent faire du Python depuis 10 ans savent lire les lambdas
        11:06 <feth> le second n'implique pas de comprendre ce qu'est une lambda expression
        11:07 <jpcw> haypo: oui oui c'est ce que je lui ai dit
        11:07 <jpcw> vire ta lambda
        11:07 <serge_sans_paill> marrant j'aurais dit le contraire : on apprends les lamabdas avant de connaitre le module operator
        11:07 <jpcw> c'est pas lisible, et de toute façons  ça rame
        11:07 <cyp_work> haypo: yep je connaissais pas mais ça portait plus sur la lisiblilité
        11:07 <cyp_work> serge_sans_paill: idem
        11:07 <haypo> cyp_work: le plus lisible est : def sort_func(obj): return obj['value']; by_pub_impact.sort(key=sort_func), nan ?
        11:07 <serge_sans_paill> mais le nivellement par le bas n'est pas une solution :-)
        11:08 <jpcw> 200 ms sur 1 seconde
        11:08 <feth> serge_sans_paill: aucune importance, on comprend ce que fait operator.itemgetter sans lire la doc
        11:08 <jpcw> juste 20 %
        11:08 <jpcw> feth: +1
        11:08 <jpcw> c'est exactement ça
        11:08 <haypo> si vous voulez des votes, perso j'utilise toujours lambda pub: pub['value']
        11:08 <haypo> j'ai la flemme de sortir le module operator
        11:08 <cyp_work> haypo: idem
        11:08 <haypo> je m'en fous un peu des perfs :)
        11:09 <jpcw> ben ça dépend
        11:09 <cyp_work> mais parce que je ne connaissais pas operator
        11:09 <serge_sans_paill> sinon tu ferais pas du python ;-)
        11:09 <haypo> et oui, je trouve lambda plus lisible, vu que c'est écrit ce que ça fait
        11:09 <cyp_work> et j'aime bien les lambda
        11:09 <jpcw> et comme je disais à cyp_work lambda a faili ne pas être dans python3
        11:09 <haypo> pas besoin de sortir la doc "ah oui, c'est pareil que lambda pub: pub['value']" :-)
        11:09 <haypo> serge_sans_paill: HA HA HA
        11:09 <haypo> serge_sans_paill: moi je fais du cloud, monsieur
        11:09 <haypo> serge_sans_paill: c'est pas moi qui paie l'électricité
        11:09 <feth> haypo: utilise map, alors
        11:10 <haypo> feth: quoi ?
        11:10 <feth> si tu fais du cloud, il faut utiliser map reduce
        11:10 <feth> peu importe l'opération que tu veux faire, faut mettre des callbacks et map reduce
        11:10 <yota> has been map reduce
        11:10 <feth> (c'est bon pour l'emploi)
        11:10 <haypo> feth: hum, je bosse à l'étage en dessous, IaaS (Infrastructure As A Service)
        11:10 <haypo> feth: mais dans l'idée, OpenStack est très distribué
        11:11 <haypo> feth: si c'est lent, tu spawnes une nouvelle instance du démon (n'importe où), et OpenStack se débrouille pour lui donner du travail
        11:11 <haypo> feth: map reduce c'est plutôt pour les problèmes qui ne tiennent pas dans un seul serveur
        11:11 <feth> haypo: tu veux pas proposer un atelier "booter openstack pour trier une liste en fonction de l'attribut 'value'" ?
        11:12 <haypo> feth: à ce que j'ai entendu, les serveurs qu'on utilise c'est genre +20 coeurs et +50 Go de RAM
        11:12 <haypo> feth: non je veux pas
        11:12 <feth> ah oui, faut pédaler vite pour les alimenter. ça en fait des Robert
        11:12 <yota> c'est mort Openstack, faut faire du Mesos !
        11:13 <cyp_work> haypo: on peut fournir l'infra pour l'atelier
        11:13 <yota> le monde bouge ma bonne dame
        11:13 <haypo> yota: tiens, j'étais au KVM Forum. à côté y'avait une conf Mesos. j'sais même pas ce que c'est :)
        11:13 <feth> haypo: si cyp_work fournit l'infra, je fournis le pycon
        11:16 <haypo> yota: y'a pas de virtualisation dans Mesos? 
        11:16 <jpcw> feth: ben u peux partir acheter du pycon alors
        11:17 <jpcw> et si tu veux être proportionnel à l'infra
        11:17 <jpcw> il va te faloir un cadie
        11:17 <feth> jpcw: j'attends que haypo donne son accord là
        11:17 <jpcw> caddie
        11:17 <yota> haypo: en gros, Mesos transforme N machines (10, 100, 1000, 100000...) un une seule «grosse» machine
        11:17 <cyp_work> jpcw: un transpal
        11:17 <haypo> yota: ouais, j'ai lu la plaquette commerciale :) mais techniquement, ils utilisent quoi pour isoler les applications ? (pour la sécurité)
        11:18 <haypo> au début, j'pensais qu'un datacenter c'était 1 million de serveurs physiques. à priori, c'est plutôt 100 ou 200 serveurs en général. j'suis déçu, ça fait moins rêver
        11:18 <haypo> enfin, je parle des déploiements OpenStack
        11:18 <yota> au taff on doit etre a 500
        11:18 <haypo> après y'a des déploiements à plus de 1000 serveurs
        11:18 <yota> plus AWS qui monte en puissance
        11:19 <haypo> mais c'est pas aussi hallucinant que je pensais
        11:19 <haypo> après, c'est des gros serveurs
        11:19 <haypo> yota: 500 serveurs physiques ? tu bosses pour qui ?
        11:19 <yota> pour Dieu
        11:20 <haypo> yota: ?
        11:20 <cyp_work> yota: 500 physique juste pour la prod ou toute l'infra ?
        11:21 <EthPyth> cyp_work: déjà si c'est juste l'infra c'est énorme
        11:21 <EthPyth> ^^
        11:21 <yota> toute l'infra
        11:21 <yota> y
        11:21 <yota> y'a des grosses babasses, du fusion-io, etc
        11:25 <haypo> bon, là je lis un article où ils ont lancé 75.000 VM sur 350 serveurs physiques
        11:26 <haypo> (de petites VM qui branlent rien je pense)
        11:26 <haypo> ça fait plus de 200 VM par serveur physique
        11:26 <haypo> avec docker, il doit avoir moyen de spawner encore beaucoup plus de containers par serveur physique
        12:01 <yota> tout netflix est sur mesos je crois
        12:02 <feth> ils ont toujours leur chaos monkey dedans ?
        12:50 <misc> il semble aussi que netflix a son propre scheduler pour remplacer celui de mesos 
        13:36 <jpcw> feth: you've got a mail
        13:50 <feth> jpcw: récotcot
        13:50 <feth> répondu (haha.)
        14:04 <yota> propre schedluer ? le principe de mesos est d'écrire un scheduler selon tes besoins
        14:04 <yota> tu en as 4 en OSS
        14:04 <yota> mais tu peux faire le tiens
        14:09 <jpcw> feth: merci
        14:09 <jpcw> mais du coup vous vous arangez, vous modifiez votre texte si besoin et vous nous dites s'il faut unifier les slots
        14:09 <jpcw> bref vous gérez le truc quoi
        14:09 <jpcw> :D
        14:10 <jpcw> feth: il y a aussi un détail, toi en tant qu'admin tu vois les deux confs
        14:10 <jpcw> pas sur qu'Alex voiy le contenu de la tienne etc
        14:11 <feth> j'ai pas été voir la sienne /o\
        14:11 <feth> je t'ai cru sur parole moi
        14:12 <jpcw> nan mais sur le appier c'est différent
        14:12 <jpcw> l'idée est d'éviter des redites
        14:12 <jpcw> et faire un truc continu ça a du sens
        14:12 <jpcw> voire à deux
        14:12 <jpcw> as you like
        14:13 <feth> vous avez flaggé ma conf comme "pour débutant"
        14:13 <feth> perso c'est pas comme ça que je la vois :)
        14:13 <feth> je pense qu'elle sera compréhensible par des débutants
        14:13 <feth> mais pas spécialement juste pour eux
        14:14 <jpcw> euh on a rien flagué du tout
        14:14 <feth> cyp: a dit "un truc pour les nouveaux c'est bien" :)
        14:15 <cyp_work> aaaaaaaaah oui
        14:15 <cyp_work> ok compris
        14:16 <cyp_work> feth: oui c'est comme ça que je l'avais compris 
        14:17 <cyp_work> mais j'ai peut être eu tord
        14:17 <feth> tu as compris ce que j'ai écrit
        14:17 <feth> je n'ai peut-être pas écrit ce que je pensais :)
        14:45 <cyp_work> feth: dans le planning en plus on t'as mis en python++
        14:45 <cyp_work> :)
        14:45 <jpcw> en rose fluo si tu veux tout savoir
        14:47 <feth> ça veut dire quoi ?
        14:48 <jpcw> python++ ben c'est pas débutant
        14:48 <feth> ah
        14:48 <feth> je comprends plus rien mais je crois que c'est pas grave
        14:49 <jpcw> c'est le départ de JV Placé qui te perturbe
        14:51 <jpcw> http://rue89.nouvelobs.com/2015/08/28/les-britanniques-preferent-python-francais-leurs-enfants-260953
        14:53 <feth> Bah bien sûr, ça m'attriste
        14:54 <misc> 'une entreprise qui a besoin de codeurs pas cher incite le gouverement à produire des codeurs pas cher plutot que des gens capable de partir bosser à l'étranger" 
        14:55 <misc> mais c'est pour ça que je suis pas journaliste 
        14:55 <jpcw> :D
        14:55 <feth> pourquoi, tu voudrais pas partir à l'étranger pour pas cher ?
        14:55 <jpcw> moi c'st la phase c'est meiux le python que d'apprendre le français
        14:55 <misc> feth: bah, j'y suis à l'etranger pas cher 
        14:55 <feth> Perso j'ai appris l'anglais et la programmation en même temps, je vois pas la contradiction
        14:56 <feth> C'est un peu comme apprendre à boire ou à manger. Faudrait choisir
        14:56 <jpcw> lors qu'ils auraient pu vouloir que des français viennent leur apprendre le python; et du coup c'était two in one
        14:58 <cyp_work> y a une conf a la pycon apprendre le français et le python
        14:58 <cyp_work> comme quoi
        14:58 <misc> j'aime aussi quand même le clickbait de mettre "le francais" plutot que "des langues etrangeres" 
        15:41 <haypo> jpcw: marrant de confronter python au français :)
        16:34 <feth> jpcw: les présentations auront lieu l'une derrière l'autre
        16:35 <jpcw> oui
        16:36 <jpcw> quand il y a des thèmes communs comme ça on les groupe
        16:36 <jpcw> ah ok
        16:36 <jpcw> feth: je t'ai lu trop vite
        16:36 <jpcw> très bien
        16:37 <jpcw> nickel
        16:37 <jpcw> c'est noté merci