Intéressant : analyse de la campagne présidentielle avec les nombreuses données récoltées (notamment sur les réseaux sociaux).
Il y a aussi des analyses, interprétations, brèves. C'est sérieux, d'ailleurs c'est réalisé en partie par le CNRS.
Excellente analyse du vote britannique. Passé le couplet sur l'erreur médiatique qui consiste à dire que les jeunes payent la décision des vieux, il y a plein d'éléments d'études sur le Brexit qui sont sourcés et décortiqués ici. Brillant.
Super la page de Captain Train pour décrire les cookies utilisés. Pas mal d'humour là-dedans, même si je déplore tout ce tracking externalisé dans les GAFA. D'autant plus qu'ils utilisaient Piwik avant.
Au passage, une anecdote intéressante sur la structure de la page d'accueil (grâce à Google Analytic…)
Owwww. Un nouveau projet Apache (Top-Level s'iouplait) pour la gestion du données. Une sorte de micro-batching, mais sans sérialisation / désérialisation. Et donc, visiblement plus rapide.
À tester donc.
Une comparaison de R et Python pour l'analyse de données. Ça me laisse un peu pantois : on sait déjà tous un peu ça, et les faits ne facilitent pas le choix. J'crois qu'il faut simplement apprendre les deux…
Très bon article sur les données “molles”. Concept qui recouvre plusieurs choses : les méta-données, la psychologie, et notamment dans la mesure, etc.
Dans un monde de data, c'est important d'avoir ça en tête, parce qu'il faut sortir de la donnée stricte qui peut être hyper trompeuse.
10 points d'analyse statistique à respecter. Intéressant.
Article intéressant, à classer dans mes liens "statistiques probabilités sondages" (il s'avère que c'est un sujet qui m'intéresse beaucoup et un peu mon métier)
En résumé : quelques pièges à éviter (que les manipulateurs exploitent à fond) pour faire de l'analyse de données (il en manque pas mal d'autres, mais c'est un bon début)
Pour faire suite à ça : http://foualier.gregory-thibault.com/?4eiatQ
D'autres métadonnées laissées transparentes par la DGSE et services liés. Par Jean-Marc Manach.
Je suis pas vraiment étonné de voir qu'en 2007 il y a eu une utilisation massive de Matlab (ou d'autres composants Mathworks, mais ça tourne toujours autour de la même brique)
Un jour, j'écrirais un article à propos de Matlab et de l'excellent et performant outil qu'il est (et dont j'ai eu un usage assez intense aussi)
Notamment, il faudra que je parle de l'optimisation de code, notamment via l'API.
Apparemment, Piwik va pouvoir rivaliser vraiment avec Google Analytics. En plus, ils ouvrent un système de plugin, c'est la clé de leur succès. La force du nombre.
Je me réjouis de voir que le travail communautaire arrive toujours (même avec un temps de retard) à s'attaquer aux marchés des grosses boîtes. Une note d'espoir donc.
Une rubrique transcrite de France Culture : pourquoi les métadonnées intéressent autant les services de renseignements (et les autres, c'est à la mode) ?
L'analyse comportementale nécessite de calculer et confronter des patterns. Or, ces "patterns" représentent non pas les contenus, mais bien les interactions au sens large.
On ne le dira jamais assez : l'analyse des métadonnées en dit souvent aussi long que le contenu même.
Ici, exemple appliqué avec brio et patience par le blog "zonedinteret". Où l'on apprend tout ce qu'achète la DGSE, comment sont structurés les services, quels sont les besoins, etc. Donc aussi ce qu'ils sont capable de faire.
Le contre-espionnage à de l'avenir.
via : @Zythom sur Twitter
Ouah, du beau boulot. Un bel exemple de data vizualisation à partir des données de "Le Bon Coin"
Et tout ça, avec les détails techniques je vous prie.
via : http://www.rue89.com/2013/09/09/carte-france-bon-coin-245546