SPALLIAN : Une alternative française/européenne de la maîtrise du Big data/Geodata.
Spallian est une société européenne de gestion et analyse de données créée en 1998. L’université Jean-Moulin Lyon 3 accueillait le jeudi 20 novembre dernier son Président, Monsieur Renaud Prouveur, pour animer une conférence autour du Big data et de la sécurité humaine.
La conférence a permis aux invités de se familiariser avec un domaine encore obscur en France: celui du Big data.
La notion de « Big Data » signifie littéralement « gros volume », autrement dit gros volume d’informations. Elle fait référence aux données disponibles sur l’ensemble du cyberespace tout en maintenant une différence cependant entre deux catégories d’informations :
– Les informations libres, accessibles par tous
– Les données sécurisées, ayant un accès restreint et contrôlé
L’entreprise Spallian possède 600 clients en France et ailleurs, parmi eux, on recense plus de 70 villes. Spallian accompagne les villes pour la réorganisation des politiques de sécurité. Elle a 50 collaborateurs répartis sur la France, une agence à San Paulo et une à New York. Elle est donc présente sur 3 continents.
Grâce à la révolution digitale, nous avons un accès libre aux données de certaines ONG ou organisations étatiques c’est ce qu’on appelle les informations libres ou open data. Il faut cependant savoir maitriser ces données.
Pouvoir accéder à tout un ensemble de données permet en effet d’améliorer les politiques de sécurité d’un Etat ou d’une entreprise.
Le domaine de la cartographie et donc de la diffusion des données est un domaine sous entière emprise américaine. Les 5 leaders mondiaux sont Microsoft, Apple, Google Map et ESRI.
Spallian se veut comme une alternative à ces cinq grands groupes. Elle se veut plus éthique et cherche à remettre la sécurité humaine au centre des préoccupations.
A cet égard, l’entreprise a créé un outils informatique nommé CORTO. Une carte qui assure une sécurité complète des données puisqu’elle n’est pas connectée à internet et est propriété des entités avec lesquelles Spallian travaille. Le logiciel croise des données pour analyser des réalités.
Spallian a notamment été appelé pour cibler quelles bouches de métro étaient les plus sensibles dans la ville de Paris. Grâce aux données obtenues sur le métro parisien ils ont pu analyser quelles stations étaient les plus critiques et à quelles heures. Alors que les policiers pensaient que l’horaire la plus sensible étaient 22h car les actes les plus violents y étaient recensés. L’entreprise nota que c’était à 10h et à 17h que les bouches de métro subissaient le plus d’actes criminels. Cela a permis une mobilisation des effectifs policiers plus efficace.
L’entreprise a également développé un système de filtrage des données. Pour les actes de pirateries maritimes par exemple il est possible de restreindre nos recherches à l’aide de mots clefs comme speed boat ou prise d’otage.
La cartographie sert également aux entreprises. Une entreprise est en effet soumise à la politique de responsabilité sociétale : elle ne peut pas exposer son personnel à des risques importants. Des entreprises peuvent donc faire appel à Spallian pour savoir si telle ou telle ville présente un risque élevé de pollution, de criminalité, de risque sismique.
La maitrise du Big data devient alors un enjeu intéressant pour améliorer les politiques publiques ainsi que pour faciliter la gestion d’une entreprise.
Les bases de données libres proviennent très souvent d’ONG ou de ministères des affaires étrangères (principalement des américains). Les Etats-Unis libèrent complètement leurs données. Cette libéralisation excessive des données peut provoquer des phénomènes de ghettoïsation.
En effet les investisseurs informés par ces données n’investiront pas dans les zones sensibles. Un lobbying négatif peut alors provenir de l’accès à ces données.
(En France les données ne sont présentées qu’à un échelon départemental. Cela n’empêche pas d’autres abus comme la falsification de statistiques pour rassurer la population. En effet, toutes les atteintes aux personnes sont sous évaluées. On ne connaît que 20% de la réalité délinquante. )
Le traitement de la Big data est donc un enjeux extrêmement noble pour améliorer les politiques de sécurité, s’adapter, connaître ce dont on a besoin, trouver la bonne contre mesure (qui peut être une réponse de prévention, architecturale et pas forcément policière).
Mais il peut également devenir un outil extrêmement dangereux. Le traitement de Big data peut ainsi entacher l’image d’un territoire ou ghettoïser un territoire. Un travail de vérification des données est nécessaire car il arrive que de fausses données soient lancées sur internet pour entacher l’image d’un pays.
C’est pourquoi Renaud Prouveur préfère parler de Smart data plutôt que de Big data. Les Smart data sont des données intelligentes. Les données doivent être protégées et réservées à des autorités compétentes. « Tout doit rester au niveau de l’intelligence humaine. »
Aujourd’hui le traitement des données, le Big data n’est pas généralisé, chacun travaille de son côté.
L’enjeu pour Renaud Prouveur et les partisans d’une meilleure maitrise du Big data est que nos pays européens ne soient pas à la traine. « La plupart des données viennent de systèmes américains. Il faut savoir conserver nos savoir faire. Il faut que l’intelligence reste humaine et avoir une vision plus pragmatique et plus nuancée de la Big data. »
Questions / Réponses :
- Comment êtes-vous organisé pour rassembler les données ? Comment savoir si une donnée est vraie ?
« C’est un vrai travail de renseignement appliqué sur la donnée de 10 veilleurs. Un travail d’analyse et de contrôle de ces différentes bases de données. Par exemple toutes les données sur les interventions américaines en Afghanistan sont très sensibles.
On va cribler la donnée selon les principes de renseignements. Si la source est Wikileaks elle n’est pas fiable on va alors la vérifier. Le niveau de détail de cette donnée, la cohérence avec le niveau de langage utilisé, prendre 1000 faits au hasard et les croiser et voir si ça marche sont des outils pour vérifier qu’une donnée est véridique.
Aujourd’hui si une donnée est très précise avec des détails pointilleux elle est exploitable. Mais demain avec la libéralisation de ces données il faut s’attendre à ce qu’il y ait des fausses données même bien détaillées. »
- Comment procéder pour trouver les sources ? » « A quelle fréquence sont-elles mises à jours ?
« 1er format : l’open data avec data.gouv
2ème format : sources venant des administrations (négocier des partenariats)
3ème format : un réseau social citoyen mondial appelé « tellmycity »
Ce réseau consiste pour les citoyens à faire des suggestions, dénoncer les choses qui ne vont pas, féliciter leur ville. Il permet de donner des visions sur ce que les personnes déclarent. »
- Et au point de vue éthique, comment sélectionnez-vous vos clients ?
« Spallian a refusé de travailler avec la Chine car l’utilisation de cet outil avait pour but de repérer les opposants politiques. Donc oui il y a une sélection des clients.
Mais cette question nous pose un véritable problème. En effet, nous travaillons avec des sociétés américaines.
Il y a encore un retard en France sur l’intérêt qu’on porte à cet outil. Il n’y a plus d’investisseurs étatiques ou semi étatiques. Les organes publics français aident des start-up ou des sociétés qui ont passé le cap des 20 millions d’euros.
Il y a un vrai problème culturel de fonds en France, pas de culture autour du software, de l’innovation. »
- Quelle limite à la prédictibilité dans l’analyse ?
« On fait du prédictible dans le domaine des risques majeurs.
Centre de recherche contre le cancer (CRCC) de Montpellier mécénat il compare la théorie de l’évolution et l’apparition de nouvelles formes de cancer. L’objectif est de construire un modèle prédictif.
Le prédictif dans le monde criminel c’est de la bêtise. 80% de la population carcérale souffre de troubles mentaux. Comment fait-on pour dire que ces gens là vont passer à l’acte ?
On peut également faire du prédictif dans l’aménagement du territoire.
Mais il y a une interdiction de croisement de données qui bloquent certaines prédictions et analyses en France. »
Alex POMMATEAU
Étiquettes : big data, criminalité, cyberespace