Campagne Infolab.

Campagne Infolab.

Développer une "culture de la donnée" au service des entreprises et des acteurs du territoire.


Blog de Campagne Infolab.

  •  

    Le mardi 17 décembre 2013 avait lieu à la Cantine numérique rennaise la 4e rencontre du groupe national Infolab dont l'objectif était de parfaire le prototypage d'un Infolab. L'un des ateliers participatifs proposé était la co-rédaction d'une charte.


    Pourquoi une charte pour les Infolabs ?

     

    L'objectif de la charte est de définir les contours et caractéristiques d'un Infolab afin de rendre le concept accessible. Par la précision des modalités d'actions et des moyens mis en œuvre, l'adhésion à une charte par les organisations souhaitant devenir Infolab permet d'assurer un cahier des charges et des méthodologies communes, gages de développement cohérent et de soutien aux futures initiatives Infolab.


    Less is more

     

    L'atelier participatif de Rennes proposait aux participants de définir les termes les plus révélateurs de leur conception et expérience d'un Infolab. La compilation des qualificatifs sous des catégories communes a permis de rédiger un texte concis révélant l'essence d'un Infolab et présenté ci-bas.

    Parmi les débats, mentionner les typologies de lieux pouvant devenir Infolabs (CCI ou cantines par exemple) a été jugé trop restrictif pour être présent dans la charte et relevant de l'illustration. La question de “continuité” des animations Infolab n'a pas non plus suscité l'adhésion. Une rencontre mensuelle est-elle suffisamment continue et permanente ou faut-il de l'hebdomadaire ? Les avis variaient selon les structures imaginées pour le portage d'un Infolab.

    Les éléments n’ayant pas suscité l’adhésion générale ont été systématiquement retirés de la charte pour l’épurer et ne garder que les éléments reconnus par tous.

     

     

     

    Introduction à la Charte des Infolabs

     


     

     

    Au coeur de la révolution numérique, les données décrivent et quantifient tous les pans de notre environnement : par exemple, par des hauteurs, durées, vitesses, poids, températures, localisations, usagers, pulsations cardiaques, horaires, prix, concentration, matériaux, opinions, votes, évaluations, etc., etc.

    De nombreuses actions de notre quotidien sont rendues possibles ou contraintes par des données, tel que se déplacer dans la ville grâce à un GPS. Comprendre et agir avec les données est désormais l’affaire de tous et les Infolabs sont un moyen d’y parvenir.

     

     

     

    aef 111.png            

     

    Version alpha charte Infolab soumise à modifications



     

    A partir de cet essai de charte, nous ouvrons aujourd'hui la seconde étape de co-rédaction. Vous êtes libres de proposer des modifications en commentant cet article jusqu’au 30 mars. Une seconde version de la charte sera alors rédigée en prenant en compte les retours et présentée sur de futurs ateliers.




     

     

  • Le 13 février 2014 a eu lieu la seconde rencontre Infolab sur le territoire girondin et l'agglomération bordelaise. Ce deuxième atelier fut l'occasion d'approfondir et continuer les réflexions sur l'empreinte écologique, l'Open Data et les collectivités territoriales.

    Les participants ont travaillé à la création de scénarios d'usages innovants autour des données pour prototyper des projets utiles au territoire. Les 8 grandes thématiques étaient :

    • Comment baisser la consommation énergétique liée aux usages numériques ?

    • Comment sensibiliser à la non-utilisation du plastique jetable ?

    • Comment optimiser les ramassages des déchets et rendre leur collecte plus intelligente ?

    • Comment augmenter l’usage des flottes de véhicules partagées ?

    • Comment optimiser les trajets pour réduire la pollution ?

    • Comment rendre compte de l’empreinte écologique des bâtiments publics ?

    • Comment optimiser la consommation de fournitures et de consommables des organisations ?

    • Comment améliorer l’agrégation de données produites par les services de la Région, du Département, de la CUB et des services de l’Etat ?

    Les participants ont réussi à faire émerger 4 scénarios d'usages intéressants qui feront l'objet de nouvelles réflexions lors du prochain atelier :

      1. Dori
      2. Interflotte
      3. Glou Glou Geek
      4. Les poubelles gagnantes

    Retrouvez ci-dessous les slides de la journée.


    Pour se joindre à la prochaine et dernière session de cet Infolab (le 05 mars 2014), veuillez contacter Thierry Marcou ! 

  • Intervention au congrès de la société française d'informatique – Poitiers – Février 2014

     

    La question des données en entreprises n’est pas un sujet neuf… Depuis l’informatisation des entreprises, le développement des intranet, des ERP, du knowledge management, etc., la question de la production / de la circulation / du partage / de la protection des informations dans les organisations se pose. Mais ce qui change aujourd’hui et revisite ces anciens sujets, c’est :

    -        d’une part l’afflux exponentiel des données et l’exploitation automatique de celles-ci par les machines ;

    -        d’autre part le périmètre d’actions des entreprises ou, pour le dire autrement, l’écosystème d’interdépendance dans lequel elles évoluent et qui s’est considérablement étendu ;

    -        Et enfin le caractère « co-produit » inhérent aux données, mais aussi au système intelligent, aux traitements algorithmiques qui agrègent des données de provenance variée.

     

    Les analystes s’accordent pour considérer les  données comme un nouvel actif économique (en 2013, le Boston Consulting Group en estimait le potentiel économique à 8% du PIB européen d’ici 2020). Mais il est encore peu fait cas des incidences sociales possibles, que la gestion des données dans les organisations va faire naître.

     

    La manière dont demain nous allons gérer, agréger, analyser, partager, ouvrir ou au contraire fermer, protéger les données, va avoir des conséquences sur tout un écosystème d’acteurs internes/externes aux organisations : les décideurs, les cadres, les employés, les partenaires, les co/sous-traitants, les prestataires, consultants, les clients, les contributeurs, les usagers : soit autant d’individus qui participent à la chaine de valeur.

     

     

    • LES DONNEES, UNE NOUVELLE "REALITE" A TRAITER POUR LES ENTREPRISES

     

    A quoi ressemble l’entreprise du 21e siècle ?

    image

     

    > Qu’elle soit très grande ou très petite, l’entreprise du 21e siècle est une organisation connectée (98% des entreprises).

    Même les très petites structures sont connectées, et agrègent des contenus dématérialisés : des mails, des listings de clients, des stocks. Les professions manuelles, ou centrées sur la relation humaine ont des pratiques de plus en plus interfacées par des écrans : les infirmiers, les boulangers, les transporteurs routiers, les aides aux personnes âgées, ... Or tout device informatique génère de la donnée, des traces d’usages, qui peuvent être récupérées, et qui alimentent – plus ou moins explicitement – des formes de reporting : analyse de la pratique, de la performance, du bien-être, etc.  

     > Avec des individus majoritairement connectés

    L’entreprise du 21e siècle est composée d’individus connectés. C’est le fruit de la montée de l’équipement personnel. Le taux d’équipement varie en fonction du poste (avec de fortes inégalités), mais les pratiques de BYOD, ou de BYON se multiplient et obligent les entreprises à composer avec une pluralité d’équipements. (60 % des sociétés autorisent déjà une stratégie BYOD selon Forrester). Les solutions de cloud personnel sont en train d’arriver sur le marché. Tout cela présage des tensions à venir sur la sécurisation des données, mais aussi sur leur confidentialité, leur propriété, le partage de la valeur qu’elle engendre...

    > Elle est aussi étendue, virtuelle

    L’entreprise qu'elle soit là encore très grande ou très petite, est insérée dans un écosystème dense de partenaires, co-traitants, experts, conseillers. L’entreprise étendue – ou virtuelle – est celle capable de puiser dans des ressources extérieures le moment venu, pour faire face aux besoins d’agilité, de réactivité, d’adaptabilité des marchés. Or au sein de cet écosystème, les données se multiplient, s’échangent.

     > Elle se compose de chaînes de production toujours plus automatisées

    Les chaînes de production sont de plus en plus automatisées, et monitorées par des capteurs, de façon à ce que les machines elles-mêmes puissent vérifier en temps réel les fonctionnements, contrôler le bon déroulement de la production,  constamment optimiser les process.

     

    L’informatisation s’est depuis étendue à toutes les fonctions de l'entreprise et organise l’intégralité des processus. L’effet d’outillage multiplie la production de données mais surtout il tend à considérer comme des “données” à enregistrer et analyser toutes sortes de faits, de phénomènes et d’actions qui ne semblaient jusqu’ici pas le mériter, ou que l’on ne savait tout simplement pas voir. 

     

     

    • QUELS USAGES DES DONNEES

     Dans un premier temps la profusion des données est abordée sous l’angle technique : on cherche surtout à établir les réseaux, à récupérer, stocker, analyser, diffuser, archiver. Et cela provoque des problématiques techniques denses : comment analyser de grosses quantités de données ? Doit-on faire circuler ces mastodontes ou développer des softwares venant puiser les données là où elles sont ? Est-il opportun de chercher à les stocker et les archiver quand leur cylce de vie est de deux ans à peine… ?

    image

     

     

    Mais de véritables champs d’usages thématique, tout à fait stratégiques pour l’activité de l’entreprise, se développent aussi. En voici 4 d’entre eux, qui adressent des questions tout à fait politiques à l’entreprise.  

    > Augmenter la productivité par la mise en place de systèmes intelligents se passant  de l’intervention humaine

     Toute l'activité devient mesurable au travers d'indicateurs de performance, et sujette à optimisation. Les machines, capables de gérer des systèmes de plus en plus complexes, d’apprendre de leurs erreurs, et de traiter de très grandes quantités de données, supplantent petit à petit l’humain dans la gestion des tâches cognitives (c’est l’âge de la substitution homme-machine, décrite par Brynjolfsson et MacAfee dans leur ouvrage Le Deuxième âge des machines). Parmi les multiples conséquences de cette évolution :

    -        La suppression continue d’un certain nombre d’emploi : ce qui questionne la manière dont la valeur produite par les machines sera partagée entre les individus, pas toujours « insérables » dans l’emploi, mais participant en partie à la création de valeur par les données;

    -        La multiplication des effets d’informatique « boîte noire » dont ceux observés dans le champ de la finance (High frequency trading) ne sont pas très rassurants…

     Qui aura la main sur les systèmes intelligents ? Une DSI renforcée, ou une plus large communauté ? Quelle capacité d’interrogation des machines et d’intervention sur celles-ci aurons-nous ?

    > Générer des tableaux de bord internes, des analyses prévisionnelles, piloter l’activité au quotidien

     Ce qui était avant réservé à la business intelligence se complexifie par les effets de big data mais surtout il s’étend – potentiellement - à chaque service, à chaque direction. Tout employé peut être à même de piloter son activité, par les données qu’il génère au quotidien, voire de développer des analyses prévisionnelles. Il doit pour cela avoir accès aux données, disposer des compétences nécessaires à leur traitement et disposer d’outils adéquats.

    La profusion de données et la possibilité de faire émerger des données prédictives peut conduire soit à une concentration accrue du pouvoir dans l’entreprise (les DSI, les décideurs) soit au contraire contraindre à l’élargissement de l’analyse de l’activité et des prises de décisions. Faut-il outiller les services d’outils de gestion de données de manière beaucoup plus volontaire ? Faut-il faire monter en compétences les employés sur l’exploitation des données ? Et quelles sont ces compétences ? Faut-il mettre à disposition des compétences internes pour aider les services : data officier mobile dans l’entreprise ?

     

    > Améliorer la connaissances des cibles clients / usagers

     Le propre des données est de faire éclater les frontières : entre les données brutes, leur contexte de production, leur trajectoire sinueux de traitement-retraitement, enrichissement-croisement, il devient vite difficile de savoir « quoi » appartient « à qui ». Une partie des données gérées par les organisations sont les données produites ou co-produites par les partenaires / cotraitants / clients / usagers / contributeurs.

    Est-ce que les données co-produites doivent l’être de manière beaucoup plus explicite et assumée ? Comme le suggèrent les analystes Crawford et Schultz , est-ce que les services qui utilisent des Big Data doivent informer les gens des sources de données qu’ils récoltent, des formes de prédictions qu’ils font ? Est-ce qu’une information doit être fournie aux usagers quand leurs données ont été traités par un algorithme qui explique les données considérées et la méthodologie employée… ?

    C’est là un champ entier de transformation de la relation aux partenaires-co-traitants d’un côté, aux clients-usagers-contributeurs de l’autre.

     

    > Alimenter les ressources humaines

    De plus en plus, et particulièrement dans les entreprises qui ont développé des intranets, des réseaux sociaux d’entreprises, les données deviennent aussi du matériau alimentant les ressources humaines. Les applications de « reporting social » commencent à arriver sur le marché, fournissant à la GRH des données nouvelles sur les risques psycho-sociaux encourus, ou sur les possibles fuites de talent (les RH prédictives, façon People Analytics de Google). Des données nouvelles – aujourd’hui non discutées par les parties prenantes - rentrent en ligne de compte dans l’évaluation de la performance ou du bien-être des individus au travail. Cela amènera-t-il à revoir en conséquence les formes de dialogue social dans l’entreprise ?

     

     

    • EXPLORER DES PISTES D'ACTIONS

     Si à ce stade, les questions sont plus nombreuses que les réponses, certaines expéditions ou campagnes que nous menons à la FING relatives aux données (Infolab, Mes Infos) tentent d’explorer des pistes d’actions.

     

    > L’Infolab, ou comment développer une culture des données et des raisonnements algorithmiques au sein des organisations

    La campagne Infolab, lancée depuis un an, questionne les formes de médiations à développer sur les territoires pour qu’un plus grand nombre d’acteurs (privés, publics, associatifs, particuliers) soient en capacité d’exploiter des données pour leur projet.

    Pour cela il s’est agi de questionner les compétences nécessaires à l’exploitation des données. Quelles sont les compétences mises en œuvre ? statistiques, juridiques, informatiques, de culture numérique… Peut-on former à la logique algorithmique ? Comment s’y prendre pour faire acquérir les briques de base manquantes aux individus ? Doit-on passer par la formation continue, l’apprentissage par le faire, le elearning ?

    image

     

    C’est un axe de réflexion que nous continuerons à explorer durant l’année 2014.

     

    > L’infolab ou la mise en place de cellule de médiation, et d’accompagnement des projets « data » dans les organisations

    Les médiations aux données peuvent être multiples : techniques (outils), documentaires (méthodologies, retour d’expériences, partage de pratiques), humaines (accompagnement, formation…). Les entreprises devront peut-être, demain, générer en leur sein, des services d’aide, d’accompagnement voire d’incubation de projet datas : associer les compétences d’un expert data aux compétences d’un expert métier pour tirer parti des données au quotidien.

     image

     

    > MesInfos, ou réinventer la relation clients à partir du partage des données

    L’expérimentation MesInfos, lancée en octobre 2013, consiste à redonner aux clients-usagers les données que les entreprises possèdent sur eux. A travers une plateforme test, 300 panelistes, et des entreprises partenaires (grande distribution, secteur bancaire, assurance, opérateur télécom), des usages, des services font être expérimentés, afin d’explorer la valeur, à la fois économique et sociale, du partage des données personnelles : quels impacts sur la confiance, la relation client, le développement de services, la connaissance de soi, de nouveaux pouvoirs d’agir des clients-contributeurs, etc.

     image

     

    > Les données : un nouvel objet du dialogue social dans les entreprises ?

    S’il ne fait pas de doutes que la manipulation de données va devenir une compétence différenciante pour les employés, il ne fait pas de doute non plus que l’exploitation des données va générer des besoins de renouveau du dialogue au sein des organisations. Parce que l’accumulation de données et d’informations ne livrera pas un sens plus objectif de la réalité, parce que le point de vue de chaque expert « métiers » se révèlera indispensable pour naviguer dans l’infobésité, et parce que les données et les traces d’usage ne traduiront jamais complètement la réalité des pratiques de travail (la pertinence, l’efficience, la créativité, les capacités d’innovation), de formes nouvelles de débat, de dialogue social devront voir le jour, mettant les données en débat. Ce que nous essayerons d’approfondir dans le cadre de la campagne Digiwork.

     

    image

     

     

    Les données deviendront-elles un nouvel « objet social » dans l’entreprise ? Dans tous les cas, quel que soit leur devenir, la question de la médiation scientifique et du développement d’une culture des données sera centrale pour les organisations.   

     

    (Le bidendum "travail", cc Yoan Ollivier, Plausible-Possible)

     

     

  •  

     

    •  1 - « Crowdsourcing », de quoi parle-t-on ?

     

     

    La co-production de données par les foules ? Pourquoi - en quoi cela peut-il être intéressant pour un projet, une organisation ? Comment s’y prendre ?

    Le crowdsourcing (littéralement “la production de données ou d’informations par les foules”) est un des phénomènes marquants du web2.0, et particulièrement de la dynamique d’Open Data. Il consiste en une mobilisation des compétences ou des connaissances distribuées au sein de la foule. Il peut se développer dans la sphère non-marchande et relative au bien commun : ainsi dans le champ de la santé (sickweather), de la généalogie (Genbecle), de l’alimentation (Open Food Facts), de la cartographie (OpenStreetMap), du handicap (HandiMap), de la recherche scientifique, de la connaissance (Wikipédia) ; mais aussi dans le champ marchand, concurrentiel, voire de l’emploi (mechanical Turk), Humangrid, etc.

    Les initiatives de co-production volontaire de données par des individus ou des communautés informelles, ne sont pourtant pas si nombreuses. C’est que le “crowdsourcing” ne se décrète pas : il ne s’impose pas aux foules. ll peut arriver qu’il soit spontané ou non conscient (ReCaptcha), mais il est le plus souvent “incité”. Certaines démarches de co-production n’hésitent d’ailleurs pas à emprunter des biais ludiques (décryptage de l’ADN) ou financiers (Innocentive) pour se rendre attractives.

     Quel est le potentiel de coproduction de données d’un projet ? Quelle stratégie mettre en oeuvre pour le favoriser ? Les dispositifs Infolab seront probablement amenés à aider des publics à construire, déployer une démarche de coproduction de données aussi bien pour des publics citoyens que pour des entreprises.

    L’atelier proposé le 17 décembre à la Cantine de Rennes consistait à faire vivre une expérience d’évaluation du potentiel de coproduction de données d’un projet, et à élaborer une stratégie adéquate

     image

    • 2 – Cartographier les pratiques maraîchères des habitants de l’agglomération de Rennes : pour quoi faire ?

    S’inspirant d’un projet développé par le collectif citoyen Open Data Rennes en 2012, la proposition de l’atelier était de construire une cartographie de la production maraîchère chez les habitants de Rennes et son agglomération. Quelles sont les habitudes en la matière ? Font-ils pousser des fruits, des légumes, des herbes aromatiques, sur leur balcon, dans leur jardin ? Echangent-ils leurs productions ? Existe-t-il des réseaux de partage de denrées locales ?

    Un tel projet permettrait par exemple d’évaluer le caractère « vert » d’une ville en prenant en compte les potagers privés ; ou repenser un modèle de développement et d’auto-subsitance d’une population (locavorisme - consommer des produits locaux) ; ou encore  travailler à la protection de l’environnement, tout en créant du lien social, etc.

     image

     

    • 3 - DEROULE DE L’ATELIER

    Comment réaliser ce projet ? Est-il nécessaire de co-produire des données ? Pour répondre, nous avons suivi la méthodologie élaborée dans le cadre de la campagne Infolab (« parcours d’évaluation du potentiel data pour mon projet »).

     

    a) Quelles données existent déjà sur ce sujet ? « Wanted Data List »

    La première étape consiste à créer une liste idéale de données utiles : par exemple l’orthophoto de Rennes Métropole, la liste des jardins familiaux, un annuaire déclaratif des personnes pratiquant le maraîchage privé.

    Voici quelques-unes des idées qui sont ressorties de cette première phase de brainstorming.

    - Données des associations environnementales

    - Données “clients” des AMAP ?

    - Enquêtes comportementales, pratiques des ménages

    - Données cartographiques du territoire

    - Données du cadastre : parcelle, bâti

    - Cartographies des espaces verts

    - Orthophotographie

    - liste des jardins ouvriers, des lieux de cueillettes, des réseaux d’AMAP

    - liste des producteurs locaux

    - existence de statistiques sur les “grainiers”

    - carte des composteurs individuels et collectifs détenus par les Villes qui accompagnent les habitants dans la démarche 

     

    b) Evaluation et recherche des données existantes / Prise de contacts avec des producteurs de données

    Par la suite chaque élément de cette liste est classé selon son degré de pertinence, et le format envisagé. En effet, il s’agit d’évaluer le potentiel de ré-utilisation de chaque jeu de données. Une donnée de qualité bien renseignée dans un format ouvert et disponible sous une licence permettant sa réutilisation aura un potentiel utile bien plus important qu’une donnée de mauvaise qualité et disponible en pdf par exemple.

    Nous avons donc pris le temps d’évaluer, avec les participants, 3 jeux de données via le prisme de leur format, de leur qualité et donc de la faisabilité de leur coproduction collective dans le cas où elles ne répondraient pas à des critères qualitatifs nécessaires à leur réutilisation.

     

    L'orthophoto (open data Rennes Métropole) :

    Cette donnée permettrait par exemple, via un traitement de télédétection, de faire ressortir les jardins dans lesquels on pratique du potager privé. En réalité, cela demande certaines compétences et la résolution à 20cm proposée en open data n'est pas suffisante pour identifier ce qui pousse dans un jardin !

    Une idée de crowdsourcing serait d'utiliser des drones privés pour prendre des prises de vue aérienne.

    Cet exemple radical nous a permis de rappeler que l’utilisation de drone était réglementée…, mais aussi et surtout qu’il devait exister une prise avec une meilleure résolution. Dès lors, contacter le producteur est une piste méthodologique essentielle dans le processus d’évaluation de faisabilité d’une coproduction. Dans beaucoup de cas, la donnée peu renseignée ou absente existe sous d'autres formes chez un acteur proche de la thématique. Il est souvent préférable de passer du temps à négocier une autre version ou bien à faire évoluer les conditions de réutilisation, plutôt que de se lancer dans un montage complexe d’une coproduction de la donnée.

     

    Les jardins familiaux (open data Rennes métropole):

    Cette donnée semble revêtir tous les atouts d’une bonne base pour travailler la question des potagers privés. Malheureusement, la donnée manque de renseignement, pas de surface, pas d'adresse, pas de coordonnées géographiques…

    Là encore, il est fort probable que des informations supplémentaires existent au sein des collectivités ou des associations. Dans ce cas encore, influer auprès des acteurs concernés reste la priorité avant de se lancer dans une campagne de crowdsourcing. Dans le cas où cette information complémentaire serait réellement absente, il est nécessaire d'associer les collectivités dans la démarche de coproduction, car elles pourraient être intéressées par les données produites pour un usage métier interne.

     

    Ces données collent parfaitement à la thématique, en revanche elles sont disponibles uniquement sous la forme d'un kml (format de données géographiques, propriétaire de Google). De fait, comment extraire ces données et les traiter ? Contacter le producteur originel est une bonne piste, car elle nous a permis d'obtenir les données dans un format exploitable.

    Parallèlement, ce dernier exemple a introduit d'autres aspects stratégiques lors de la définition d'une campagne de coproduction de données. Lors de la campagne initiale (collectif open data Rennes), les choix méthodologiques ont été de récolter les informations sur une courte période et sans outil technique de récolte et de mise à jour de la donnée. Une méthode qui permet d’obtenir rapidement des données exploitables, mais qui est insuffisante sur le long terme.

     

    C) Construire une stratégie de coproduction de données


    Les suite et fin de l'atelier se sont axées sur les choix stratégiques d'une campagne de coproduction des données. Comment faire pour toucher des réseaux ? Comment publiciser, faire connaître la démarche et inciter les habitants à s’auto-déclarer ? Faut-il monter un événement de lancement de la démarche ? Faut-il animer des réseaux sur le long terme ?

     

    Une série de lieux, de réseaux a été alors évoquée :

    - les bourses aux échanges de plantes, de graines

    - les événements de type “Les incroyables comestibles”

    - les maisons de quartier

    - les lieux de compostage collectif

    - les Lieux de marché

    - les grandes surfaces (Jardiland, Truffaut, etc.).

    - les jardins ouvriers

     

    Plusieurs pistes comme une stratégie de communication sur le long terme avec des relances trimestrielles, le développement d'outil permettant l'alimentation à tous moments et la formation à des solutions existantes comme OpenStreetMap pour les données géographiques seraient essentielles à la création d'une base de données coproduite. La co-production de données peut aussi développer des approches ludiques pour donner envie de participer et tendre à gommer l’aspect “rébarbatif” de la démarche. Il est même envisageable d’inciter financièrement, rémunérer (à l’instar des projets Mechanical Turk, Humangrid, Designenlassen.de, Wilogo, Innocentive…)

     

    • 4 - LES ENSEIGNEMENTS METHODOLOGIQUES

     

    Un dispositif Infolab doit pouvoir aider des porteurs de projet dans la mise en place d’une démarche de crowdsourcing, en commençant par initier une réflexion sur les données existantes, et sur la pertinence d’une co-production. L’option de crowdsourcing ne peut être considérée comme la « solution clé en main » d’un projet. Il excite plusieurs étapes à respecter et des ressources susceptibles de requalifier les stratégies de coproduction d'une donnée.


    Pour récapituler, voici les grandes étapes à prendre en compte :

     

    a) Rechercher les données qui existent déjà sur le sujet ? « Wanted Data List »

    b) Evaluer la pertinence et prioriser celles-ci

    c) Prendre contacts avec des producteurs de données déjà existantes : ils peuvent avoir d’autres choses « en magasin » que ce qui est connu ou publié.

    d) Evaluer de la qualité des jeux de données trouvés  

    f) Définir les données manquantes à co-produire

    g) Construire une stratégie - aux moyens diversifiés - de mobilisation des foules

    h) S’appuyer sur les réseaux “physiques” déjà existants (ex . assos, marchés, foires) pour faire connaître le projet, trouver des moyens d’incitation à la production (manifestation, publicité, serious game, etc.).


    par Jérémie Valentin & 
    Amandine Brugière

  • Les 21 et 22 janvier se sont tenues les premières sessions d'atelier Infolab sur le territoire girondin et l'agglomération bordelaise. Les villes de Bourg sur Gironde et Cenon accueillaient les participants, venus nombreux (plus de cinquante personnes !) découvrir l'univers des données, et les impacts - actions possibles sur la thématique de l'empreinte écologique. 

    Retrouvez ici les slides de la journée. 

    Pour se joindre au groupe de travail, et participer aux prochaines ateliers (le 13 février), veuillez contacter Thierry Marcou ! 

     

     

  • La Ville et l'agglomération de Rennes, la Cantine rennaise, le LabFab nous accueillaient le 17 décembre pour tenir la 4e rencontre du groupe national. 

    Une journée remplie de discussions, d'ateliers, de "data", de bricolages numériques et d'innovations ascendantes... 

    9H30 : L'Infolab, où en est-on ? Que savons-nous ?

    11H30 : Visite du LabFab de Rennes

    14H30 : Ateliers "Infolab" : Charte, Programmation, Incubation de projets, Crowdsourcing, Dataviz 

    18H30 : Ouverture de la Cantine Rennaise transformée en Infolab

     

     

    Retrouvez la présentation ci-dessous, et les photos de la journée : 

    http://storify.com/schignard/rencontre-infolab-a-rennes

    Ils en parlent aussi : 

    Arthur de Logilab http://www.logilab.org/blogentry/196685 

    Ben du Master 2 Information-Communication Rennes 2 http://m2pranet.wordpress.com/ 

     

     

  •  

    Nous déployons quotidiennement des pratiques personnelles de gestion et d'exploration des données : comprendre un sondage entendu à la radio, lire les résultats d’analyses biomédicales, analyser son relevé de banque en ligne, manipuler une liste de contacts, un fichier de tableur, etc. Ces pratiques reposent sur des savoirs et savoir-faire qui passent souvent inaperçus ou qui ne sont pas suffisamment formalisés. La plus part du temps, ils ne sont pas du tout identifiés, comme le prouvent ces quelques expressions glanées au fil de discussions “Avec Google, j’ai réponse à toutes mes questions”, “Aujourd’hui tout le monde sait se servir d’Excel”, “Une visualisation pertinente, c’est une belle visualisation”, “Je n’ai rien à cacher, pourquoi je le ferais ?”, “Devant une data visualisation, le lecteur n’a pas à lire, il comprend plus vite”... 

     

    Or, nous sommes loin d’être tous égaux dans la manipulation des données : dans la compréhension de statistiques, dans la prise en main d’un fichier tableur un peu costaud, dans le bidouillage d’une base de données, dans la compréhension des enjeux... Les compétences requises mêlent à la fois un savoir geek (informatique), expert (statistique), critique (sciences humaines - travailler les corrélations), parfois juridique...

     

    LES COMPETENCES : ENTRE SAVOIRS ET PRATIQUES

    Mais, au juste, qu’est-ce qu’une compétence ? Une compétence désigne un savoir mobilisé en situation dans une logique de capacitation. La compétence ne résulte pas seulement de l’expérience ou de la pratique, mais elle émerge de l’activité, c’est-à-dire d’une action concrète et maîtrisée. Ainsi, c’est la qualité d’une activité et du résultat obtenu que désigne cette notion de compétence ; en cela, on peut souligner qu’une compétence n’est pas stable, au contraire, elle évolue au fil du temps et des situations. La compétence fait le lien entre le savoir et la pratique : elle consiste en la mise en situation opérationnelle de connaissances.

    Considérant que nous sommes aujourd’hui immergés dans un monde de données (sans en avoir toujours bien conscience d’ailleurs), y a-t-il des compétences minimales requises pour mieux agir au quotidien, assumer sa place de citoyen, être plus efficient au travail ? 

    Peut-on passer d’une posture - passive - de consommateurs de services à une posture - active - de co-production, manipulation et réutilisation de données ? 

     

    image

     

    Ce sont ces sujets que nous avons explorés collectivement au cours de deux ateliers Infolab (pendant le Connecteur Recherche à Futur en Seine, “Peut-on démocratiser une culture de la donnée”, et pendant l’Open Data Week à Marseille, lors de l’atelier “Les compétences de la “Data Culture”).

    Il en est ressorti plusieurs niveaux d’analyses que nous vous livrons ici, détaillant des types de pratiques, et des compétences associées.

     

    NIVEAUX DE PRATIQUE ET CHAMPS DE COMPETENCES

    Nous avons identifié, en atelier, 4 niveaux de pratique dans l’expérience quotidienne des données  : 

    • La réception : je lis un sondage, je prends connaissance d’un graphe de données statistiques... Je m’appuie sur la consultation des données pour me faire un avis, pour m’informer ;
    • La (ré)utilisation : j’identifie des jeux de données, je sais les récupérer, les manipuler... Je suis en mesure de constituer de nouvelles données par le croisement et l’analyse de l’existant ;
    • La production : je sais utiliser les outils pour produire et récupérer des données, les combiner, les structurer, les anonymiser, pour programmer des requêtes, des services... ; 
    • La diffusion : je documente mes jeux de données, je facilite leurs accès et réutilisation en explicitant les droits de réutilisation (statut juridique, licence), je maîtrise leurs outils de design, de graphisme pour les rendre lisibles et accessibles… 

    ainsi que 7 champs de compétences mobilisées  : 

    • Lecture-écriture (-> sens critique et culture visuelle), 
    • Culture numérique (-> maîtrise TIC et machine informatique), 
    • Information-documentation-communication (-> sens critique et techniques documentaires, stratégies), 
    • Droit (-> identification du statut juridique des données, des licences liées à la consultation, aux réutilisations)
    • Statistique (-> calcul et traitement des données), 
    • Informatique (-> programmation)
    • Design, graphisme (-> mise en forme et lisibilité, ergonomie des interfaces techniques)

     

    1 - LA RECEPTION, les fondamentaux

     Culture numérique : “J’ouvre mon navigateur et consulte les actualités”. >>> Maîtriser les bases d’une machine informatique, d’un navigateur, d’une fenêtre de recherche.

     

    Lecture-écriture : “Je trouve les résutats des dernières éléctions présidentielles sur mon moteur de recherche et comprends la carte de France les relatant”. >>> Rédiger des requêtes dans un moteur de recherche associant des mots clés. Trouver l’information pertinente (des tableaux de données, une datavisualisation). Savoir la lire, comprendre les données et mobiliser une culture visuelle.

     

    Information-documentation-communication : “Je me méfie des sondages généralistes et cherche toujours à connaître le panel et les conditions de production du sondage”, “Lorsque je fais mes courses, je décrypte les étiquettes, compare les produits (graisses, sels, additifs, allergènes etc.) et trouve des produits similaires plus sains”. >>> Vérifier la validité et la fiabilité de l'information, à partir d’un sens critique, de la conscience des enjeux, l’analyse des sources. Estimer les risques liés aux modes de production des données (intentionalité, généralisation). Appréhender et exploiter le cycle de vie de l'information. 

     

    image

     

     

    2 - (RE)UTILISATION, Approche de la construction des données

     Culture numérique : “Je sais extraire du logiciel d’inscription en ligne la liste des inscrits à un événement et ouvrir le fichier csv dans un format xls sur mon ordinateur” “Je sais télécharger un jeu de données d’un portail open data et l’ouvrir sur ma machine”. >>> Maîtriser les outils de bureautique courants et les bases techniques de l'information et de la communication (composants matériels, logiciels et services courants, traitement et échange de l'information, caractéristiques techniques, fichiers, documents, structuration de l'espace de travail...).

     

    Information-documentation-communication : “Je comprends l’arborescence thématique d’un portail open data”, “Je m’adresse à une bibliothécaire pour indexer et publier des ressources bibliographiques en format numérique”. >>> Identifier des ressources humaines et techniques. Comprendre la structuration des contenus, les systèmes d’information.

     

    Statistiques : “Je sais calculer des pourcentages”, “j’applique les règles de probabilités à des données pour prévoir la récurrence d’un événement ”, “Je sais réaliser une compression sur un très grand jeu de données en utilisant un algorithme particulier”, “je sais réaliser une inférence statistique pour induire les caractéristiques inconnues d’un jeu de données à partir d’un échantillon représentatif”. >>> Comprendre la nature des données, et savoir les interpréter, explorer les corrélations, les causalités, connaître les règles de probabilités. Extraire des analyses et de l’information nouvelles.  

     

    Informatique : “Pour analyser les retours d’une enquête terrain, je crée une récupération automatique des données contenues dans des fichiers tableur qui les agencent dans un fichier maître”. “J’extrais des données d’OSM, je ne garde que les lieux naturels, enlève les dessins vectoriels pour ne plus avoir que les coordonnées GPS d’un point donné.”  >>> Nettoyer un jeu de données. Structurer une base de données. Rédiger des requêtes simples. 

     

    Droit : “Je comprend que la licence Open Data Base License (ODbL) d’un jeu de données m’autorise à partager, modifier, réutiliser librement les données tout en maintenant ces mêmes libertés pour les autres”, “Quand je réalise une datavisualisation à partir de données ouvertes, je sais que je dois citer les sources des données - noms des producteurs, lien hypertexte vers le site ou le catalogue, et la date de mise à jour”, “je suis un délégataire de service public qui produit des données publiques, mais dont la base de données afférente est soumise au droit d’auteurs, je sais organiser l’accès aux données en conséquence”. >>> Apprécier le statut juridique d'un document numérique, d’une base de données, des droits de réutilisation des données. Comprendre les différentes licences.

     

    Design, graphisme “Je cherche à produire un rendu visuel des données chiffrées sur la consommation d’eau par régions à la fois de manière fixe (un diagramme), et de manière interactive (les usagers peuvent faire varier un paramètre)”. >>> Maîtrise des outils de graphisme et de visualisation. Former à la représentation. Connaitre la sémiotique visuelle et graphique. 

     

    image

     

     

    3. PRODUCTION, Manipulation et production des données

    Droit : “Je n’autorise pas ce site à accéder, lors de mon inscription, à mes profils publics, ma liste d’amis, mes adresses électroniques et mes anniversaires”, “Je choisis une licence pour les données que je produis et laisse accessible en ligne
    >>> Conditions de production des données : Gérer et maîtriser des données personnelles et stratégiques. Exploiter des données de manière éthique, citoyenne et sécurisée. 


    Information-documentation-communication : “Je structure mon catalogue de données à la manière d’un thesaurus et documente les méta-données
    >>> Structuration des données : Posséder une rigueur scientifique, assurer la conduite éclairée : documentation (Thesaurus), métadonnées, agencement logique, contextualisation, anonymisation.


    Informatique : “J”utilise des techniques de test-itération différentes et complémentaires afin d'atteindre le taux de détection de 95% des anomalies pour assurer un niveau de sécurité “suffisant”, “Une organisation choisit de rendre accessibles ses données uniquement par le biais d’APIs”, “Je crée une interface capable de requêter les données de plusieurs bases de données liées”.
    >>> Programmation : Analyser des données (extraction et transformation), Connaitre les modes de transformation des fichiers et des formules : requête, modélisation, test-itération. Bâtir des architectures pérennes. 


    Statistiques : “Je construis un modèle algorithmique d’apprentissage supervisé, par le biais de boucles de rétroaction, pour cibler les interventions manuelles sur la base”
    >>> Traitement élaboré de données (repérage des variables, rédaction d’algorithmes), maîtrise de l’intelligence du système applicatif. 


    Design, graphisme : “La convivialité de l’interface du portail de données permet à des non-informaticiens de construire visuellement une requête dans la base”, “Nous avons ajouté au portail une couche de datavisualisation interactive
    >>> Représenter l’information, les résultats de requêtes (design de l’information), Construire des interfaces facilitant l’utilisation de la plateforme de données et optimisant l’expérience utilisateur. 

     

    image

     

     

    4. DIFFUSION, Diffusion des données, câblage de publics clés, marketing de l'information, maîtrise des réutilisations

    Informatique : ”Je modifie le code source de mon site pour pouvoir intégrer le code html de google map”, “Je ne donne accès aux données que nous la forme d’API afin de maîtriser les réutilisations
    >>> Design d’interface : Conception de portail, plate-forme. Langage HTML, programmation informatique d’API


    Information-documentation-communication : “J’anime mon territoire par le biais de concours, de hackathon qui nécessitent beaucoup de communication locale”, “Le service communication de la collectivité se charge de la communication politique autour de l’ouverture du portail par le biais d’articles dans la presse”, “Les réutilisateurs de nos données peuvent nous signaler des améliorations possibles, corriger et enrichir directement les données, grâce à un système de workflow adapté”
    >>> Publicisation, communication politique, constitution et animation de communauté, conception d’un processus d’amélioration continue. 


    Statistiques : “J’analyse les statistiques de consultation et de téléchargement des différents jeux de données” 
    >>> Stratégie : Evaluer l’impact économique de la réutilisation données, Produire des données prédictives et prendre des décisions. 


    Droit : “Selon le type de données mises à disposition, nous avons décliné des licences différentes : ouverte, avec authentication,  avec redevance...” 
    >>> Choix des licences. Protection des données, volonté de maîtrise des usages, ou volonté d’ouverture et de liberté

     

    image

     

     

     

    La complexité des tâches et la diversité des compétences sous-jacentes montrent combien la manipulation de données n’est pas une mince affaire. D’ailleurs elle est majoritairement la chasse gardée des professionnels. Certes, le “learning by doing”, “learning by failing”, le “Do it your self”, chers à la philosophie des bidouilleurs-geeks restent possibles, pertinents, efficaces, comme le prouvent les succès des coding-goûter de Mozilla, l’appétence vis-à-vis des FabLabs. 

    Mais l’apprentissage par le faire constitue l’une voie d’apprentissage, parmi d’autres, et s’appuie de toutes façons sur les briques de compétences détenues par les individus. “S’exprimer en algorithmes” nécessite des savoirs sous-jacents, vis-à-vis desquels il reste à se questionner sur les modes et les lieux d’apprentissage.  

    Quels seraient les leviers pour faire montée en compétences un plus grand nombre d’acteurs et de citoyens dans cet univers des données et des algorithmes ? Comment spécifier les compétences en fonction des modes de formation ? 

    Entre formation initiale, formation continue et diplômante, espaces de médiation, dispositifs d’éducation populaire, les modes d’apprentissage pourraient se réaliser différemment. 

    Par Faustine Bougro, Sarah Labelle, Amandine Brugière

    RMQ : Merci aux participants des différents ateliers pour leurs apports et points de vue critiques affûtés ! Continuez à réagir et commenter, cela constitue la base des réflexions à venir, à mener collectivement. Prochain rendez-vous 20 septembre à Bordeaux

    Retrouvez l'infographie globale 

     

  •  

     

    Bonjour à tous, 

    Nous avons le plaisir de vous inviter à la 4e rencontre du groupe national Infolab, qui se tiendra à Rennes le mardi 17 décembre prochain de 9h30 à 21h à la Cantine numérique rennaise, 46 boulevard Magenta à Rennes (35).

    Après les rencontres de ParisMarseille et Bordeaux, nous vous proposons de mettre en pratique les premiers enseignements de la campagne et de prototyper un Infolab grandeur nature, qui sera matérialisé et ouvert au public le soir de notre rencontre. 

    La journée se déroulera en trois parties :

     

    1. La matinée : D’un Lab à l’autre, Infolab et LabFab

    9h30: Accueil-café à la Cantine numérique rennaise
    10h: Que sait-on de l’Infolab ? Présentation d’un bilan d’étape par l’équipe Infolab
    11h: Transfert vers le 
    LabFab de Rennes
    11h30 - 14h: Présentation du LabFab et pause déjeuner in situ (sur inscription)

     

    2. L’après-midi : Faire l’Infolab (ateliers pratiques)

    De 14h30 à 18h, nous vous proposons d’assister à 2 ateliers d’1h30 chacun, à choisir parmi les thèmes suivants:
    - Représenter et visualiser des données,
    - Collecter, saisir, nettoyer des données en mode crowdsourcing,
    - Incuber un projet « Data » : de l’idée au prototype,
    - Définir la charte et la programmation possibles d’un Infolab

    Les ateliers pratiques sont proposés dans une optique réflexive et font la part belle à des méthodologies clé en main, conçues et documentées dans le cadre de la Campagne.

     

    3. Le soir : l’Infolab ouvre ses portes !

    De 18h30 à 21h30, l’Infolab ouvre ses portes au public !


    La Cantine numérique rennaise se transforme, le temps d’une soirée, en un premier prototype d’Infolab ouvert au public. Au programme de cette soirée, la présentation de plusieurs pôles d’un possible Infolab: “DataViz” (représentation des données et lecture critique), “Projet Data” (parcours d’accompagnement et d'incubation des projets), “Ils produisent de la donnée” (démonstration d’objets connectés), … Mais aussi beaucoup d’autres choses à découvrir et à construire...

    Les places sont limitées, merci de vous inscrire en précisant les moments de la journée auxquels vous souhaitez participer.

     

    Au plaisir de vous retrouver le 17 décembre, 

     

    L'équipe Infolab 

     

    Organisations invitées : Alcatel-Lucent, l'ANACT, Aquitaine Europe Communication (AEC), les Arpenteurs, Arsenic, l'Association Les Petits Débrouillards, l'Association Pénombre, la Caisse des dépôts et consignations (CDC), le cabinet Chronos, les Communautés urbaines de Bordeaux (CUB), de Rennes (Rennes Metropole), de Nantes (Nantes Métropole), et de Lyon (Grand Lyon), les Conseils généraux de la Gironde, de Loire-Atlantique, de la Manche, de la Saône-et-Loire, la CNIL, les collectifs Open Data de Rennes - Tours - Poitiers, Créatif, Data Publica, Décider ensemble, le CRIJ Poitou-Charentes, Etalab, le Groupement français des industries de l'information (GFII), Gemalto, INRIA, l'Institut de la Méditerranée, la Fonderie, le groupe La Poste, Libertic, Logilab, Mediagraph, l'OpenKnowledgeFondation France, OpenDataSoft, OpenStreetMap, Orange Labs, QUNB, Regards citoyens, la Région Ile-de-France, la Région Pays-de-la-Loire, la Région PACA, Silicon Sentier, Solidatech-Ateliers du Bocage, Suez Environnement, l'Université de Paris 13, les Villes de Montpellier et Paris, VisualDecision.fr, Without Model, et les Grands partenaires et adhérents de la Fing.

     

    La campagne Infolab lancée en avril 2013 entend développer une culture des données au services des acteurs et des entreprises des territoires. Elle est soutenue par les partenaires suivants : 

  •  

     

    Aujourd’hui, collectivités, entreprises, associations et individus peuvent disposer à moindre coût d’outils d’aide à la décision et de fouille de données pour optimiser leur gestion, campagne de communication, évaluation de performance... Un panel de différents outils décisionnels contribue à changer les pratiques, les métiers et à créer de nouvelles tensions. L'objectif de l'atelier Infolab du 27 juin lors de l'Open Data Week Marseille, était de se pencher sur le rôle que les données peuvent jouer dans le domaine décisionnel et les approches décisionnelles.

    Les interventions de collectivités: Thomas Eisinger (Région Provence-Alpes-Côte d'Azur) et d'associations : Hervé Paris (AlterCarto) ont permis de réaliser un état des lieux et une remise en perspective des outils decisionnels et de leur évolution du fait de l’émergence des données.


    L'usage des données est à la base du développement d'indicateurs, d'outils de simulations, d'infographie et « datavisualisations », etc. Autant d'outils décisionnels pour mieux gérer, prévoir et optimiser ressources et stratégies des organisations. Si les outils d'aide à la décision semblaient jusqu'alors réservés aux grandes entreprises et administrations, aujourd'hui tableaux de bord et autres outils d'enregistrement et d'analyse de données sont consultés, produits et alimentés par tout un chacun.

    Dans les jeux vidéo, en particulier ceux de stratégies (par exemple les city builders), les « gamers » doivent gérer intelligemment leurs tableaux comportant de multiples indicateurs, pour pouvoir progresser. Dans la vie quotidienne, les exemples de personnes qui trouvent dans la mesure de paramètres biomédicaux (santé, sport) un moyen d'avoir prise sur leur angoisse (comme ces parents) ou d'améliorer leur hygiène de vie (comme le raconte Emmanuel Gadenne) se multiplient. Les outils de traçage, de management des données deviennent monnaie courante et peuvent être utilisés par le plus grand nombre (comme Klout, Graph Search...).


    Cependant, les modes de calcul et la nature des résultats ne sont pas forcément explicites et accessibles.

    Historiquement, ce sont les administrations qui ont créé des outils de classement qui permettaient de rationaliser l'accès à l'information, de structurer les données pour mieux prévoir et mieux définir leurs actions. Avec le web des données, le nombre de données à traiter augmente, les modalités de calcul se diversifient, se complexifient. L'accès d'un plus grand nombre de personnes à ce nouvel indice qu'est la donnée modifie sans aucun doute la manière dont des décisions sont prises.

    Qu'est-ce qui se transforme exactement ? Qu'est-ce que ces nouvelles « métrologies » offrent comme nouvelles possibilités ? Qu'est-ce qu'elles rendent plus visible, lisible, ou au contraire, qu'elles permettent d'évacuer ?


    L'aide à la décision, telle qu'elle est développée dans le champ de la « Business Intelligence » ou la statistique publique, est une activité qui mobilise plusieurs acteurs : elle se fonde sur le choix d'informations qui permettent de répondre à des questions posées, qu'elles soient d'ordre prospectif ou analytique. Notons que les acteurs impliqués doivent échanger et déterminer ensemble les objectifs du processus de décision. Dans ce processus, le choix des données et des informations est donc crucial, tout comme le seront les outils mobilisés.


    Il s'agissait donc, à travers cet atelier, de confronter plusieurs champs d'aide à la décision : une grande entreprise ayant recours au service du BI, le service de contrôle de gestion d'une grande collectivité, une démarche de consultation publique des citoyens...


    Ces différentes interventions ont mis en évidence plusieurs problématiques:


    • D'une part, l'accessibilité large des données et l'élargissement des dynamiques de « data-driving » questionnent non seulement la manière dont les décisions sont prises, mais aussi la manière dont les métiers et les compétences individuelles sont amenées à évoluer. L'usage de MailChimp par l'équipe de la Cantine de Rennes est une excellente illustration de la professionnalisation marketing de l'équipe associative. Ou encore la démarche de mécénat d'outils de gestion de données pour les associations, et les formations associées, animés par les Ateliers du Bocage - SolidaTech / Emmaüs France, en lien avec SAP .

    • La présentation d'Hervé Paris portait sur une plate-forme de données cartographiques sur la santé et sur le territoire de Lyon.     Plusieurs actions ont été menées parallèlement : l'équipement de différents services d'outils statistiques territorialisés, la mise en place d'ateliers de débat. L'usage de     cette plate-forme visait à ce que les données deviennent des     instruments de dialogue entre les services et d'implication des     citoyens et des associations dans les processus de décision.     L'enjeu est à la fois citoyen et décisionnel : est-ce que     l'usage des données peut renouveler la manière de fabriquer les politiques publiques ? L'enjeu est que les espaces de décision soient fermés. Au contraire, par l'accès aux données, il devient possible de redistribuer la parole et de redessiner les processus de décision.

    • Également, la nature des outils mobilisés joue un rôle déterminant dans l'interprétation des données collectées et mobilisées, cela influence les conditions du débat. Les outils utilisés ne sont pas dénués de « visions stratégiques » (de considérations sur la manière dont on manipule au mieux des données à des fins     décisionnelles). Quelle est la marge de liberté laissée aux acteurs qui les utilisent ? Les outils sont-ils « boîte     noire », c'est-à-dire des machines à calculer dont il est difficile de comprendre les équations ou les modèles qui arrangent et redistribuent les données? 

     

    Par Sarah Labelle et Claire Gallon 

  • Les données – et particulièrement les données ouvertes, ou personnelles - constituent des sujets de plus en plus médiatisés (=dont la presse parle).

    • C’est la 3e édition de l’ODW en France.
    • Chaque année, de nouvelles collectivités ouvrent leurs données, des collectifs citoyens émergent dans les villes de France,
    • Des ateliers hackathon, cartopartie, scrapathon, openbidouille, codinglunch, coding weekend se multiplient…

    Malgré cela, chaque année, nous faisons le constat que les datas sont un sujet de geeks qui restent entre les mains des geeks. Qu’est-ce que cela traduit ?

     

    1) Savoir manipuler des données reste un exercice difficile :

    /// Cela nécessite une certaine culture des données et de compétences techniques :

    • développement informatique (manipulation d’une base de données)
    • de connaissances statistiques (règles d’analyse de grosses quantités de données)
    • des connaissances algorithmiques
    • voire ensuite d’infographie.

    Notons aussi, que le plus souvent, les réutilisateurs de données travaillent en équipe, en collectifs : outre le besoin de compétences techniques, c’est le besoin de partager les points de vue, les analyses, de construire collectivement le sens à extraire des données.

     

    /// Cela nécessite aussi une conscience du « pouvoir » des données

    Conscience de l’existence de données (données personnelles, données publiques ouvertes, données crowdsourcées) et des enjeux sous-jacents (politiques, économiques) ; et conscience des connaissances nouvelles que leur traitement peut faire naître.

     

    2) les solutions

    La solution la plus simple serait que nous devenions rapidement « tous geeks ». Cela passe par le développement de l’enseignement du code, des mathématiques, de l’algorithmique, de la statistique à l’école. Ce type de réflexions gagne du terrain. La Ministre française Fleur Pellerin l’a évoqué récemment. Mais concédons que cela peut prendre un certain temps : une à deux générations.

    Une deuxième solution serait que l’accès à des ressources « outils » mais surtout « ressources humaines » soit facilité. Il existe aujourd’hui beaucoup d’outils en ligne – accessibles gratuitement (je vous renvoie au recensement que nous avons commencé dans le cadre de la campagne Infolab), mais qui sont tous d’un niveau d’usage difficile.

    En dehors de quelques start-up big data, et des moments collectifs de type hackathon, il n’existe pas de ressources humaines, de compétences accessibles. En France, 1, 2, peut-être 3 espaces publics numériques commencent à proposer des formations dans ce sens. Mais rien d’autre.

     

    3) La Campagne Infolab

    La FING a lancé en avril une « campagne » (like recherche-action / R&D) Infolab : en partenariat avec plusieurs collectivités territoriales (Région Paca, les agglomérations de Rennes et Bordeaux, le département de Gironde, la Ville de Paris), l’Etat (Etalab), l’INRIA – organisme de recherches, l’Université Paris 13, les groupes Alcatel-Lucent, la Poste, l’association OKFN

    Le terme Infolab reprend volontairement la métaphore des FabLab : est-ce qu’il est envisageable et « utile » de développer des espaces de bidouilles de la donnée ?

    Quelle autre forme de médiation / intermédiation faut-il développer pour sensibiliser et accompagner un plus grand nombre de public dans la manipulation de données ? entreprises, associations, organismes publiques, citoyens.

    C’est la question que l’on se pose au sein d’un groupe de travail inter-territorial, et à travers des expérimentations terrain.

    A ce stade des réflexions on ne sait pas encore au sein de quel type de structures des infolab pourraient voir le jour (ni comment cela pourrait être financé), mais nous identifions déjà plusieurs missions à remplir :

     

    • Développer des formations « techniques » aux outils existants, et pourquoi pas, de la sensibilisation aux sciences algorithmiques et statiques ;
    • Développer de l’« éducation populaire » (un terme consacré en France : il existe une tradition d’éducation populaire – centres culturels et sociaux, etc.), : sensibilisation et dialogue avec les citoyens autour des enjeux politiques et économiques des données ;
    • Développer des dispositifs d’incubation et d’accompagnement de projets à base de data à des coûts accessibles aux petites structures – entreprise, associations – ou aux petits collectifs ;
    • Stimuler les usages de co-production de données : de production collective de données, car les données publiques ouvertes ne suffiront pas. On le voit par exemple dans le domaine du développement durable ;
    • Proposer des espaces libres ouverts à la « bidouille », et équipés d’outils et de compétences adéquates ;
    • On peut même imaginer que des infolabs accompagnent des démarches de concertation publique (aménagement urbain), de démocratie participative.

     

    Cela commence à mettre en lumière le besoin de métier nouveau : data-scientist, data-artisan, data-community manager… ?

     

    Les Infolabs nous apparaissent utiles en particulier dans leur dimension collective :

    • les données en appellent au développement d’une culture de la collaboration (apprendre à faire avec : d’autres compétences, d’autres données que les siennes).
    • Elles en appellent aussi – paradoxalement - au développement d’un sens critique vis-à-vis de la quantification du monde : les données ne sont pas toujours synonyme d’objectivité, de rigueur et d’impartialité. Or c’est dans la mise en discussion des données que cela se révèle.

     

    Concevoir des espaces de co-élaboration du sens, favoriser les usages collectifs des données, développer une culture des données voilà la mission des Infolab. Les – futurs - Infolabs seront d’autant plus nécessaires que les usages prédictifs des données se développeront. L’avenir se construit à plusieurs. 

    Nous vous invitons à vous joindre aux deux ateliers Infolab qui se tiendront demain : le matin sur le thème des approches décisionnelles, l’après-midi sur le thème des compétences. 

     

     

    //////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////

     

     

    Data – especially open or personal data – has become quite a hot topic in the media.

    • This is the third annual ODW here in France;
    • each year more and more local governments are opening up their data;
    • while, across France, citizen data collectives continue to emerge; and
    • the number of hackathons, data scrapathons, coding lunches, mapping weekends, coding weekends and open DIY workshops continues to grow.

     

    Despite this momentum, data remains ‘geek-specific’. What does this imply?

    1) Wrangling data is still challenging.

    >>  Data wrangling requires a specific technical skill set, and a certain degree of data-related knowledge:

    -       IT development skills (for database manipulation)

    -       Some understanding of statistics (the rules for large-scale data analysis)

    -       A basic familiarity with algorithms

    -       even some graphic design skills

    It is also interesting to note that, usually, data re-users work in teams or as collectives: so apart from the need to share technical expertise, viewpoints and analyses must also be shared, and the meaning extracted from the data is therefore also collectively constructed.

    >> This requires that data re-users have an informed sense of the “power” of data

    An awareness of the existence of data (personal data, open public data, crowdsourced data) and the underlying issues surrounding it (political, economic); plus an awareness of the range of new knowledge data manipulation may give rise to.

    2) Solutions

    The simplest solution would be for us all to become “geeks” as soon as possible.  This could be achieved by adding coding, maths, algorithm and statistics courses to school curricula: an idea that is gaining some traction. In fact, French Minister Fleur Pellerin actually mentioned this very notion recently.

     

    Realistically, this level of implementation would take 1-2 generations to bear fruit.

    Another solution would be to facilitate public access to the necessary tools and resources, and especially “human resources”. There are already many freely available, online tools (have a look at the overview published during our Infolab campaign), but these are all relatively difficult to use. Apart from a few big data startups, and collective efforts like hackathons, no actual human expertise is currently available. There are only maybe 3 public digital centres in France that have begun to offer training of this nature – but that is all.  

    3) The Infolab Campaign

    In April, FING initiated an Infolab action research campaign, in partnership with a number of local authorities (Region Paca agglomerations, Rennes and Bordeaux, the department of Gironde, the City of Paris), the State (Etalab), the INRIA - research organization, the University of Paris 13, Alcatel-Lucent, the French National Post office, and OKFN.

    The term Infolab intentionally adopts the FabLab metaphor: is it possible and is it "useful" to develop publicly accessible “DIY data” spaces?

    What other forms of mediation/intermediation should be developed to educate and support the data manipulation efforts of the general public?

    companies, civil society organisations, government agencies, citizens.

    We are investigating these questions within an inter-territorial workgroup, and through field experiments.

    At this stage, we have yet to identify the organisational structure that could best support the emergence of Infolabs (nor how they might be financed), but we have already identified several tasks they should perform:

    • Develop "technical" training for existing tools, and (why not?) teach the fundamentals of algorithms and statistics;
    • Develop France’s "popular education" (popular here means “of the people”, a notion that implies the education of the general population via social and cultural community centres): which means awareness-raising and dialogue with citizens about the political and economic issues surrounding data and its manipulation;
    • Develop platforms for the incubation and support of data-based projects led by smaller organisations–small businesses, civil society organisations– or small collectives;
    • Stimulate the development and use of co-produced data: especially the collective production of data, as public open data has its limitations. This approach has been adopted in the field of sustainable development, for example;
    • Offer free, open "hack" spaces, equipped with adequate tools and staffed with individuals holding the right sets of skills;
    • Infolabs could even act as vectors for public consultations (urban development), and a participatory democracy.

    These ideas highlight the need for a new class of professionals: call them data-scientists, data-artisans, community data managers… ?

    To us, Infolabs seem especially useful in terms of their collective aspect:

    • Data wrangling calls for the development of a collaborative culture (learning by doing, with “others”: other skills, data other than what is personal, other people).
    • It also – paradoxically – calls for the development of a critical perspective on the quantification of our world: data is not always synonymous with objectivity, thoroughness and impartiality. When data is discussed in a group setting, its ambiguous nature is revealed.

     

    The aim of the Infolabs campaign is to create spaces that foster the collaborative uses of data, where meaning can be co-created, and where data culture can be developed and expanded. The - future - Infolabs will be all the more necessary as more uses for predictive data are developed. The future will be built by many.

    We invite you to join us for the two Infolab workshops taking place tomorrow: the morning session deals with decision-making approaches, and during the afternoon session we will focus on skills.

     

     

     

Conception & réalisation : Facyla ~ Items International

Plateforme construite avec le framework opensource Elgg 1.8

Feedback

Vous avez une remarque à faire, de nouvelles idées à proposer ou un bug à signaler ? Nous serions ravis d'avoir votre retour.
Humeur :  

A propos de :  

 

» Afficher les précédents feedbacks