postheadericon Munich, Londres et Paris en tête des pôles européens en matière de TIC

Selon une étude de la Commission européenne publiée le 14 avril, Munich, suivie de Londres et Paris arrivent en tête des pôles concentrant le plus de ressources en matière de technologies de l’information. Fondée sur l’analyse de 42 indicateurs – nombre de centres de recherches, d’universités de réputation internationale, facilités de financement, emplois et entreprises liées aux TIC, internationalisation… – dans les 1303 régions européennes au sens de la Commission(NUTS 3) , cette étude constate que « la majeure partie de l’activité dans le domaine des TIC se concentre dans 34 régions réparties dans 12 pays ».

Pour la France, si des points de concentration apparaissent au gré des cartes thématiques, notamment sur Bordeaux, Lyon, Grenoble, Marseille, Nice, Rennes et Toulouse, seule Paris et les départements des Hauts de Seine et des Yvelines figurent dans le top 100 des pôles d’excellence européens. Un classement qui n’est pourtant pas réservé aux très grandes agglomérations puisqu’on y trouve également des villes-régions comme Darmstaadt (All.), Louvain (Belg.) ou Edimburg (RU). Si les critères sur lesquels sont fondés cette étude sont contestables (et notamment l’approche départementale pour la France) ce rapport montre clairement qu’avant de se comparer à San Francisco ou Bengalore, la concurrence des métropoles françaises en matière d’attractivité TIC se joue d’abord en Europe.

Les prochaines moutures de cette étude seront peut être l’occasion de mesurer l’impact du label FrenchTech sur les statistiques de Bruxelles. En attendant, les métropoles trouveront peut être des indicateurs intéressants pour constituer leur dossier de candidature au label.

postheadericon Des administrations invitées à faire davantage confiance aux start-up pour leurs besoins informatiques

Tarik Krim, fondateur de la société Jolicloud, a remis récemment au gouvernement un rapport intitulé « les développeurs, un atout pour la France« . Un rapport qui rappelle que les « codeurs » français ont été à l’origine de nombreux succès industriels comme la carte à puce, la CAO ou encore TCP/IP mais dont le savoir-faire bénéficie désormais essentiellement à des sociétés étrangères comme Google, HP, Linkedin… faute d’un cadre propice à l’accueil de leur créativité.

Tarik Krim déplore notamment la frilosité des administrations à travailler avec des start-up. Au paragraphe convenu sur la rigidité et la complexité des marchés publics pour les PME, il ajoute les réticences des administrations à passer par des stratégies SAAS (hébergement dans le cloud), « mobile first » ou encore au modèle Freemium (usage gratuit avec fonctionnalités payantes) « alors qu’elles sont le fondement des modèles des start- up disruptives ». Il souhaite que les administrations sortent « d’une position passive d’attente de propositions en provenance des PME et des start-up et accepter d’expérimenter régulièrement des nouvelles solutions, sans attendre une validation du marché ». Il déplore également que certains secteurs comme la santé, l’énergie ou l’éducation soient préemptés par les grands groupes, les PME ayant au mieux le statut de sous-traitant. Il stigmatise aussi des besoins déconnectés des évolutions technologiques, prenant l’exemple des espaces numériques de travail dont l’architecture, qui date de 1999 « n’a pas été pensée pour la nouvelle génération d’usages mobiles ».

Il plaide pour un Etat exemplaire recourant aux méthodes agiles, à l’innovation ouverte et qui opte pour d’autres méthodes de sélection de ses prestataires informatiques comme l’organisation de concours. Il estime qu’il faut revoir la feuille de route gouvernementale sur le numérique pour« synchroniser la politique industrielle (mobile, objets connectés, cloud), la modernisation de l’action publique (MAP) et les stratégies numériques sectorielles ». Il plaide enfin pour un “Github” Français – qui mixe l’approche des forges de logiciel libre et les fonctionnalités des réseaux sociaux – « permettant aux services de l’Etat, des collectivités locales et de leurs partenaires de structurer l’ensemble des librairies et briques technologiques essentielles de la France, accessibles aux développeurs » et pour la nomination de développeurs « aux postes de responsabilité pour la conduite des projets numériques ».

 

postheadericon Un démonstrateur sur l’éclairage intelligent à Bordeaux

L’éclairage public recèle un grand potentiel d’économies pour les grandes villes. Progressivement les lampes à incandescence sont remplacées par des modèles moins énergivores comme les LED ou les lampes fluo-compactes. Pour maximiser les économies, plusieurs villes testent aussi l’adaptation de l’éclairage aux besoins réels : luminosité, présence de passants ou de véhicules etc. Bordeaux a ainsi récemment lancé un démonstrateur dans le cadre du projet européen LITES.

Le pilote concerne une cinquantaine de lampadaires dans le quartier des Jardins de Carreire. Ces lampadaires sont dotés d’ampoules LED et de capteurs qui, dès qu’ils détectent une présence, déclenchent la mise en lumière des trois lampadaires précédents et suivants, dans un rayon de 150 m autour du piéton, du vélo ou du véhicule détecté. Le quartier n’est pas pour autant dans le noir : une intensité lumineuse minimale, dite « sécuritaire » est maintenues pour rassurer les populations

Ce test vise à s’assurer que la technologie fonctionne mais aussi à vérifier l’acceptabilité du système par les habitants. S’il peut permettre 70% d’économies sur la facture d’électricité, il est – pour le moment – 60% plus cher à l’acquisition qu’un lampadaire classique.

 

 

postheadericon Big data : les données mobiles intéressent les métropoles

Appels et SMS reçus et émis, changements d’antenne (hand over) et d’aire de localisation, périodes d’inactivité… Les opérateurs mobiles collectent des milliards de données au travers leurs réseaux d’antennes relais. L’analyse de ces données, dans une logique « big data », permet de connaître les concentrations d’utilisateurs et les trajectoires des téléphones mobilesL’opérateur Orange propose désormais une offre big data  aux collectivités  avec des applications très concrètes. 

La prévision du trafic automobile fait partie des usages les plus évidents. Autoroutes du Sud de la France (ASF) et Orange ont ainsi mis en place depuis 2010 un dispositif d’analyse du trafic automobile sur la métropole toulousaine qui compile les données d’ASF, celles issues de capteurs sur la voirie et les données de connexion au réseau d’Orange. Compilées, ces données fournissent une analyse du trafic en temps réel et permettent d’anticiper les encombrements.

Le secteur du tourisme a également beaucoup à apprendre des données mobiles. Dans les Bouches du Rhône et dans la perspective de Marseille Provence 2013, les données mobile ont permis de mieux connaître les flux touristiques, les lieux fréquentés et le profil des touristes puisque le mécanisme du roaming fournit la nationalité du porteur de mobile. Ces analyses débouchent sur des conclusions très opérationnelles comme une aide au positionnement des bornes WiFi dans les lieux publics (le roaming est coûteux pour les touristes)  ou encore la planification des visites en langues étrangères. Depuis cette expérience, un partenariat entre Rn2D et Orange a permis d’ouvrir ce service à tous les comités départementaux de tourisme qui peuvent observer 5 à 10 zones infra-départementales.

A Rennes, l’expérience avait vocation à matérialiser  les mouvements d’individus à l’échelle d’un quartier. Pendant cinq semaines (octobre-novembre 2013) ont été analysées les traces de géolocalisation laissés par les téléphones d’une quarantaine d’habitants volontaires. Avec pour résultat une analyse jugée très utile par les urbanistes pour mieux évaluer les besoins en équipements commerciaux, culturels et de loisirs,  savoir quand ils sont utilisés dans la journée ou la semaine et déterminer les parcours de mobilité. Une analyse qui pourrait encore être affinée si les aménageurs avaient accès au profil des utilisateurs (retraité, élève, salarié…) mais qui pose de sérieuses questions sur la vie privée. Du reste l’expérience a suscité un enthousiasme modéré de la part des habitants : Orange pensait pouvoir convaincre 200 volontaires et n’en a eu que 40… 

La CNIL suit de près ces expérience et a encadré l’offre « flux vision » d’Orange. Elle a en effet imposé l’usage de données complètement anonymes, sans connaissance du département d’origine par exemple, et interdit les analyses sur moins de 50 mobiles.

Les pistes pour accélérer le secteur des« big data »
Le « big data » fait partie des 34 plans industriels. Des premières pistes évoquées par le groupe de travail planchant sur ce thèmes on retiendra la nécessité d’ouvrir les données des grands industriels aux start-up : Orange, EDF, Veolia, SNCF, Carrefour… pour favoriser l’innovation dans un secteur jugé extrêmement porteur pour la ville intelligente, la santé, les assurances ou encore la distribution. Le pré rapport insiste ensuite sur la nécessité de former des « data scientists » pour que la France soit en pointe sur ce sujet. Enfin il souhaite la création d’une exception au principe de finalité de la loi informatique et liberté. La démarche Big Data vise en effet à exploiter et croiser des dizaines de données sans que l’on sache exactement ce que l’on va trouver…

 

postheadericon Fusions dans les télécoms : vers une remise à plat du plan THD ?

Après un feuilleton aux nombreux rebondissements, Vivendi a tranché en faveur de l’offre de Numéricâble, jugée plus attractive et moins risquée pour le groupe que l’option Bouygues, soutenue par le gouvernement et les représentants des collectivités. Ce rachat va avoir de multiples incidences sur le marché des télécoms. Il est fort possible que ce rapprochement ne soit que la première étape d’une restructuration en profondeur du marché des télécoms. Les rumeurs d’’un rapprochement entre Free et Bouygues Telecom pour faire face aux deux poids lourds, Orange et SFR-Numéricâble vont en effet bon train.

A court terme cependant les questions sont d’ores et déjà nombreuses. On peut par exemple s’interroger sur le devenir de l’accord de mutualisation dans le mobile entre SFR et Bouygues Telecom. Mais c’est surtout sur le très haut débit que la situation ne peut qu’évoluer. La location de fibre optique de Numéricâble à Bouygues sera-t-elle maintenue ? Free et Bouygues vont-ils se mettre enfin à investir dans la fibre ou Orange va-t-il rester le seul opérateur à opter pour le tout FTTH ? Quid des engagements de SFR dans les zones AMII qu’il a préempté, en particulier dans les communes ou Numéricâble a d’ores et déjà investi dans des réseaux câblés de dernière génération (norme DOCSIS 3.0) ? Pour les mêmes raisons, on peut s’interroger sur le devenir de la société SFR-collectivités qui est aujourd’hui un partenaire important des collectivités construisant des RIP ? En tant que FAI, le nouvel opérateur « montera-t-il » d’ailleurs sur les RIP ? Enfin, ce processus de fusion risque de retarder encore un peu plus le chantier de l’extinction du cuivre, sur lequel SFR était jusqu’à maintenant l’opérateur le plus motivé…

Au-delà des situations locales – qui risquent de se traduire a minima par un ralentissement des travaux – c’est le choix de la technologie FTTH, jusqu’alors privilégiée par le gouvernement, qui semble remis en question. Car le très haut débit de Numéricâble est fondé sur la technologie FTTLA – « last amplifier », i.e. en pied d’immeuble, les derniers mètres étant en cuivre - qui reste pour les défenseurs du tout fibre moins performante que FTTH. Mais surtout,  Numéricâble n’a pas pour le moment pas d’obligation d’ouvrir son réseau aux autres opérateurs… ce qui ne l’incite guère à passer aux FTTH.

Autant de questions qui sont sur la table d’Arnaud Montebourg, ministre désormais en charge du numérique, qui a dit qu’il « redoublerait de vigilance » et des régulateurs, autorité de la concurrence et Arcep. Ces derniers vont devoir analyser en profondeur l’impact de ce rapprochement avant de donner leur accord d’ici fin 2014. Il y aura sans doutes des mesures compensatoires sur le THD qui ne manqueront pas d’être examinées de près par les collectivités engagées dans des stratégies THD.

postheadericon Les basses fréquences au service de la ville intelligente

La fibre et la 4G sont souvent citées comme le corollaire incontournable de la ville intelligente. C’est ignorer qu’il existe d’autres technologies de communication qui peuvent être tout à la fois être plus rapides à déployer, moins onéreuses et adaptée à la transmission de données peu volumineuses, comme celles issues de capteurs.

Plusieurs solutions existent (ZigBee, On-Ramp…) mais – parce qu’il s’agit d’une start-up française qui vient d’avoir un financement de la BPI – on évoquera ici la solution proposée par Sigfox, basée à Toulouse. Son système utilise la fréquence 868 MHz, fréquence libre qui a pour particularité de transmettre des données à bas débit (100 bits/s) et d’être adaptée aux applications de communications dite « machine to machine » (MtoM). La technologie associe une faible puissance d’émission,  une portée de 30 à 40 kilomètres et l’utilisation d’un protocole de communication sécurisé. Les objets à connecter sont équipés de mini- modems alimentés par des piles longue durée. En d’autres termes, les objets à connecter n’ont pas à être reliés à un réseau télécom classique et/ou à une source d’énergie. La capacité de communication est limitée à 140 messages de 12 octets par jour et par objet, mais suffit pour de multiples applications (transports, , énergie, sécurité, santé, agriculture, industrie…).

Des caractéristiques qui en font la technologie de prédilection de des territoires connectés : compteurs – et notamment ceux qui n’ont pas de connectivité native comme les réseaux d’eau et de gaz – mobiliers urbains, capteurs se stationnement, feux de signalisation… Cette solution est du reste d’ores et déjà utilisée par plusieurs opérateurs de transports ou gestionnaires de mobiliers urbains, comme Clear Channel (plus de 12 000 panneaux équipés) et 90% du territoire français serait ouverts à la technologie proposée par Sigfox.

Le modèle économique est fondé sur une facturation fonction du nombre d’objets connectés et du volume de données transmises. Si le système est aujourd’hui concurrent de système GSM/GPRS, il se veut complémentaire des offres des opérateurs télécoms en étant dédié à l’internet des objets et en particulier à ceux qui sont peu accessibles ou qui communiquent peu de datas mais régulièrement.

postheadericon FrenchTech : le processus de labellisation précisé

Une quinzaine d’agglomérations planchent actuellement sur leur dossier de candidature au label FrenchTech. Ce label sera décerné aux territoires faisant valoir un écosystème dynamique réunissant une forte concentration d’entreprises à forte croissance, des accélérateurs (financement, accompagnement…) et au moins un lieu étendard. L’ambition de la « French Tech » est donner une visibilité globale aux investisseurs et entrepreneurs innovants en construisant une « dream team » française représentant l’Hexagone à l’international. Une sorte de navire amiral – qui n’empêche pas l’existence d’une flotte… – qui pourra rivaliser avec Londres, Shanghai, Tel Aviv ou San Francisco pour attirer investisseurs et talents.

La mission FrenchTech est venue préciser devant une vingtaine les représentants des grandes villes le processus de sélection des dossiers.

  1.   le dossier de candidature est à déposer dès que la collectivité qui le porte l’estime suffisamment solide. Ce dossier doit être considéré comme une base de discussion, il n’est pas nécessairement complet (certaines statistiques demandées sur l’économie locale s’avèrent par exemple très difficile à trouver).
  2. Le dossier est examiné par la mission FrenchTech sous un mois. Un interlocuteur DGCIS est désigné pour la collectivité candidate.
  3.   S’en suit une série d’aller-retour pour affiner et compléter le dossier avec une visite de la mission FrenchTech sur place.
  4.   Quand la mission estime que le dossier est finalisé, il est soumis à un comité d’experts – qui sera composé de dirigeants d’entreprises, de personnalités qualifiées, d’entrepreneurs implantés à l’étranger… – qui rend un avis sur le dossier.
  5. La labellisation définitive sera donnée par l’Etat.

L’objectif de la mission est de dévoiler les premiers territoires labellisés cet été. Au total une dizaine de territoires devraient être labellisés pour une durée de trois ans renouvelables. Les principaux bénéfices du label seront pour  les entreprises à fort potentiel de croissance d’accéder à des facilités en termes de financement, d’accompagnement et d’accéder à un réseau international pour favoriser leur développement.

Quelques précisions

  • La notion de territoire/métropole labellisé est à apprécier au sens large : il est possible d’associer par exemple des partenaires frontaliers. Ce qui compte c’est la cohérence du projet et la réalité mesurable des coopérations
  • Il y aura des métropoles mais aussi des projets French Tech « partout en France »
  • Les entreprises concernées sont celles à forte croissance, et la notion de start up dépasse largement celui des entreprises du web
  • Une vision du projet à échancre de 5 ans à 10 ans doit être présentée
  • Les accélérateurs doivent comporter au moins un financeur privé et une structure d’accompagnement de jeunes entreprises
  • Parmi les partenaires, la présence de la DIRECCTE est indispensable tout comme d’entrepreneurs emblématiques qui seront les ambassadeurs du territoire FrenchTech.

postheadericon OpenDataFrance œuvre à la généralisation de l’ouverture des données des collectivités

On compte désormais 43 collectivités engagées dans une politique d’ouverture de leurs données. Une démarche motivée par deux objectifs principaux : améliorer la transparence de leurs actions tout en contribuant à soutenir l’économie locale. Avec des résultats tangibles : une dizaine d’applications sont nées dans les territoires et un portail comme celui de Montpellier génère 4000 téléchargements mensuels. S’il est difficile de mesurer précisément l’impact économique de ces politiques, les « externalités positives » sont nombreuses : gain de temps, facilité à compiler les données, développement de l’économie sociale et solidaire…

Fondée en octobre dernier à Toulouse, OpenDataFrance* est née du souhait des collectivités les plus avancées de réfléchir ensemble à la valorisation des données publiques et sur la mutualisation des pratiques et des outils. En formant une association, présidée par un élu, OpenDataFrance est aussi un interlocuteur pour les pouvoirs publics (EtatLab, SGMAP) à même de mener un travail de lobbying.

L’association mène aujourd’hui des travaux dans plusieurs directions :

  • la normalisation des modèles de données, en particulier en matière de transports, domaine jugé prioritaire par les collectivités
  • l’accompagnement des collectivités souhaitant se lancer dans l’Open data
  • la mise en place d’actions communes de communication sur l’open data et la réutilisation des données publiques
  • des réflexions sur les moyens de favoriser l’accès du plus grand nombre au données (citoyens, chercheurs, start-up) tout en évitant les phénomènes de « cannibalisation » par des acteurs monopolistiques.
  • l’ouverture des données des grands opérateurs de services publics nationaux et l’évolution des contrats avec les délégataires de services publics pour faciliter l’accès des collectivités à ces données.

L’association propose des tarifs d’adhésion attractifs (400 à 800 euros selon la taille de la ville) pour permettre à toutes les collectivités de participer à son action. Elle propose l’accès à des groupes de travail, à différentes ressources( et à une veille qui est aussi publiée via Twitter (#OpenDataFrance / #Opendata) et cette page scoop-it .

Rappel des grands principes pour une démarche opendata réussie
- implication indispensable du DG et de l’exécutif
- prévoir une animation/ communication, poste qui représente l’essentiel du budget
- faire de la gratuité la règle, de la redevance l’exception
- choisir entre les deux licences les plus utilisées (ODBL ou ouverte)
- utiliser une plate-forme permettant le téléchargement et la visualisation des données (EtatLab propose une publication gratuite des données sur sa plateforme)

*Membres de l’association : Toulouse/ Toulouse Métropole ; Nantes Métropole/Nantes ; Rennes Métropole/,Rennes, Montpellier, CUB/ Bordeaux, Grand Lyon, Paris, région PACA ; CG Saône-et-Loire ; CG Gironde ; CG Loire Atlantique ;; Digne les Bains ; Brocas ; Balma. Bientôt rejoints par : Nice, l’AggloPau, Strasbourg, Angers, Loire Métropole, les régions Normandie et Île-de-France

postheadericon Des controverses numériques à partager avec les nouveaux élus

Le numérique crée t il de l’emploi ? Le « datamonde » source d’émancipation ou d’aliénation ? Tout le monde doit il apprendre à coder ? Internet détruit-il le lien social ? Le Big data crée t il plus de problèmes qu’il n’en résout ? Les compteurs intelligents sont-ils la voie royale vers une énergie verte ? La sécurité publique justifie-elle la surveillance systématique ?

Voici quelques unes des questions soulevées par la fondation internet nouvelle génération (FING) dans l’édition 2014-2015 de ses « controverses numériques », un cahier d’enjeux et de perspectives qui dresse un panorama des sujets auxquels la société (française) est ou va être confrontée. Un document d’une centaine de page coordonné par la FING avec la collaboration de plus de 400 participants issus de la recherche et de grandes écoles (Sciences-po, Telecom ParisTech, l’Ensad)

Les controverses sont représentées sous formes de cartographies organisant par grandes familles les principaux arguments et contre-arguments avec un panorama de la situation actuelle et ce qu’il pourrait advenir d’ici 10 à 20 ans. A chaque fois sont présentés la problématique, les principaux acteurs et des ressources documentaires pour aller plus loin dans le « controversarium ».

Un exercice tout à fait intéressant pour des questions qui sont hélas rarement abordés dans le débat public.

Exemple : Les efforts en matière de THD sont ils justifiés ?

La controverse s’articule autour de quatre questions : la technologie actuelle/ améliorée par la montée en débit  n’est elle pas suffisante ? L’argent public est il investi à bon escient ? La fibre optique doit-elle être prioritaire par rapport à d’autres infrastructures pour les territoires ? Les choix technique en matière d’architecture des réseaux sont-ils justifiés ? Cette controverse dresse ainsi un état des lieux des positions des acteurs (Arcep, RIP, acteurs des usages, Géants du Net…)… Est ensuite développée la question de la gouvernance des réseaux : projet de développement au-delà de l’infrastructure technique, rôle des acteurs publics, neutralité du Net, implication des utilisateurs… En quatre pages sont ainsi résumés l’ensemble des débats : un document à mettre en les mais de l’ensemble des nouveaux élus.

 

postheadericon La donnée va faire son entrée dans le code du patrimoine, la mutualisation encouragée

L’avant projet de loi relatif aux patrimoines* comporte un important volet sur les archives numériques. Aujourd’hui la législation en vigueur est basée sur la notion de document papier, terme source de confusion dans la sphère numérique ou le support se confond avec le contenu de l’information. Le nouveau texte va donc introduire le terme de « données » dans la définition même des archives, afin de « de donner toute leur lisibilité aux archives dans l’environnement numérique » mais aussi de renforcer la cohérence avec les textes européens et ceux relatifs aux données personnelles et aux données publiques.

Le texte va ensuite étendre les possibilités de mutualisation, aujourd’hui possibles pour les archives courantes et intermédiaires, aux archives définitives. L’étude d’impact du texte souligne en effet que la « maintenance des services d’archivage électroniques nécessitent du personnel dédié de haute technicité et une veille technologique constante. Les coûts matériels et humains sont difficilement soutenables en l’état par chacun des services publics d’archives, et, de fait, leur équipement en la matière en est encore à ses balbutiements, alors que tout retard dans ce domaine porte un risque fort de pertes de données potentiellement importantes pour la justification des droits des usagers et l’histoire de la Nation ». L’ambition de créer une vingtaine de centre d’archivage régionaux. Parallèlement, le texte va sécuriser le dispositif permettant d’externaliser l’archivage en introduisant des sanctions pénales en cas d’externalisation chez un prestataire non agréé ou d’externalisation d’archives définitives.

Le projet de loi va enfin simplifier les conditions d’accès aux archives en clarifiant les délais de communicabilité, difficiles à comprendre par l’usager et à mettre en œuvre concrètement par les services concernés notamment dans la perspective d’un accès par internet. Ainsi le délai de 25 ans après le décès de l’intéressé et le délai de 100 ans pour les mineurs, jugés « inapplicables dans les faits et/ou présentant de sérieux inconvénients », seront supprimés. Le principe d’incommunicabilité permanente pour certains sujets (nucléaire, armes chimiques…, qui empêche toute recherche concernant ces sujets sera en outre supprimé.

* révélé par la revue Contexte

 

TIC*