L’édition 2012 du Consumer Electronic Show a consacré une tendance que l’on percevait déjà : l’innovation jaillit de l’électronique grand public pour se répandre dans les systèmes d’information d’entreprise.
Le CES (Consumer Electronic Show) qui a lieu tous les ans en janvier à Las Vegas est l’occasion unique de prendre conscience et d’évaluer ce qu’est et ce que sera l’ampleur de l’évolution du système d’information d’entreprise dans les prochains mois et les prochaines années. Tant il est évident que l’innovation technologique naît dans l’électronique grand public pour immédiatement se propager à l’entreprise et à son système d’information par le phénomène dit de « consumérisation ».
Son impact est tel que cette intégration devient un marqueur de la pertinence de toute stratégie SI. Certains DSI et responsables marketing d’entreprises françaises l’ont bien compris, que l’on voit déambuler dans les allées du CES afin de s’imprégner des tendances et des nouveautés qui sont de nature à avoir un impact sur les produits et services de leur entreprise et sur leur mode de relation avec leurs prospects, clients, utilisateurs.
Qu’entend-t-on par « consumérisation » de l’informatique ?
Il s’agit du phénomène actuel d’émergence dans le grand public de quasiment toutes les nouvelles technologies et de la nécessaire prise en compte de ces technologies par l’informatique d’entreprise avec des cycles de plus en plus courts, à tous les niveaux : poste de travail, mobilité, réseau, serveurs, applications… Par extension, la problématique qui est posée est celle de l’intégration des équipements grand public des individus par l’entreprise et son système d’information.
Une des composantes de cette tendance, connue sous le sigle BYOD (« Bring Your Own Device »), couvre la prise en charge et l’utilisation des équipements achetés par l’utilisateur (smartphone, tablette, portable, PC), potentiellement financés ou cofinancés par l’entreprise, et leur intégration comme composantes (« devices ») du système d’information.
Dans un même ordre d’idée, le recours au cloud computing ou aux réseaux sociaux fait aussi partie intégrante de cette même évolution. Contrairement à une idée répandue, la consumérisation de l’informatique ne touche donc pas que les « devices », mais aussi le réseau, les serveurs, les applications, les données. Par effet induit, cette consumérisation oblige la DSI à se préoccuper de domaines qui sont jugés moins importants en grand public, mais qui sont majeurs en entreprise, comme la sécurité, l’administration, la disponibilité.
Smartphone, tablette et ultrabook
Au niveau des équipements personnels, le CES a marqué la prééminence des smartphones de type Android sur l’iPhone et Windows Phone 7, au moins en termes de parts de marché. Il semble bien que les jeux soient faits autour de ces deux, voire trois, environnements. Pour les autres, au premier rang desquels RIM et son BlackBerry, les jours difficiles sont devant eux, dus à un manque de R&D, donc d’innovation.
Au plan matériel, des processeurs quadricœurs, des grands écrans (5,5 pouces) et des résolutions atteignant 1280 x 729 pixels, donnent à ces machines des puissances qui sortent de l’ordinaire. Même constat pour la tablette, dont le succès est essentiellement dû à l’iPad2 d’Apple pour le moment, l’ensemble des opérateurs attendant de voir ce que sera l’impact d’Android, mais aussi du nouveau Windows 8 (en démonstration au CES) qui propose un pont entre PC et tablette, donc potentiellement une certaine « récupération » de la bibliothèque applicative du PC par la tablette (et vice-versa), et demain une convergence possible entre les trois terminaux : smartphone, tablette et PC. Il est maintenant évident que les smartphones, qui sont des « PC qui téléphonent », voient leur succès basé, comme la tablette, sur la disponibilité d’une énorme bibliothèque d’applications publiées dans les « stores ».
Et pour toute entreprise, chaque client étant demain encore plus qu’aujourd’hui potentiellement équipé de ces outils, la seule question qui se pose est « Comment mon entreprise doit-elle apparaître, être présente, sur le smartphone » ? Sachant que les performances et les fonctionnalités offertes par ces équipements continuent à évoluer de façon explosive et ouvrent des possibilités applicatives très novatrices : caméra HD, GPS, boussole numérique, connexion Internet WiFi, 3G et bientôt 4G, mais aussi demain intégration de capteurs de type MEMS (Micro Electromechanical Systems) qui permettent de détecter la chute, de mesurer la pression sanguine, de réaliser un électrocardiogramme…
Il apparaît par ailleurs évident que la convergence de ces équipements va encore démultiplier leurs capacités fonctionnelles : les nouveaux « ultrabooks », portables « ultra compacts et ultra puissants » (clonés sur le fameux Mac Air), en intégrant certaines fonctionnalités de la tablette (écrans tactiles), les tablettes en intégrant celles des eBooks, les smartphones en intégrant celles de l’appareil photo, de la caméra, du baladeur musical, du GPS automobile… À noter l’apparition, pour l’instant discrète mais sans doute significative, d’imprimantes 3D grand public, permettant par exemple de réaliser des jouets en trois dimensions à partir de fil de plastique.
Affichage, Internet box et TVC
Les technologies d’affichage continuent leur fuite en avant : grands écrans (55 pouces), qualité (AMOLED) et ultra haute définition (le « 4K » soit 4096 x 2160), avec apparition sans doute en 2012 de tablettes à écran 2560 x 1600 (iPad3 ?), mais une stagnation certaine des affichages « 3D » qui manifestement ne convainquent pas les consommateurs. On s’interroge sur l’emphase mise par les constructeurs sur les téléviseurs connectés (TVC ou Smart TV) dont les offres évoluent de façon non standardisée autour de téléviseurs « gonflés » et d’accords avec des diffuseurs de logiciels et de contenus : processeurs bi- et quadricœurs intégrés, connexion WiFi, le tout tournant sous Android, mais avec des interfaces différentes, des accords avec de multiples opérateurs et la présence chez certains depuis plus de trois ans de Google TV qui n’arrive pas à s’imposer. Il se murmure que le marché est tétanisé par l’annonce imminente de Apple TV et un potentiel tsunami à l’image de celui des iPhones et iPad.
On peut néanmoins s’interroger sur l’intérêt de ces développements qui en quelque sorte doublonnent avec les services apportés par la « box Internet » ou certaines consoles de jeux, à l’image de la XBOX 360 de Microsoft qui est maintenant proposée par de nombreux opérateurs majeurs comme box Internet. Il est néanmoins évident que pour tous les constructeurs de téléviseurs, l’enjeu est de taille : la « consommation» de programmes sur les téléviseurs classiques est en chute libre depuis trois ans au profit de celle sur des mobiles et des tablettes.
Les interfaces : reconnaissance et gestuelle
Les interfaces utilisateurs connaissent également une évolution impressionnante : les reconnaissances faciales et vocales surprennent par leur efficacité et leur diffusion, ne serait-ce que pour piloter à la voix son téléviseur ou être reconnu par lui dès que vous apparaissez dans le champ de vision de la caméra intégrée afin qu’il vous propose votre chaîne favorite. Dans le sillage de Kinect de Microsoft, les interfaces gestuelles (sans manette donc) se sont multipliées et améliorées. Les premières applications professionnelles de Kinect dans les domaines de la robotique et de la santé sont déjà prêtes.
La pico-projection fait elle aussi des progrès très marqués, de même que les claviers virtuels (projetables sur une surface plane) : ils devraient prochainement faire leur apparition dans certains smartphones, les transformant en véritables PC (grand écran et clavier projetés) avec néanmoins quelques contraintes (consommation électrique).
Réseaux, au-delà du giga
La domotique et les besoins en bande passante « locale » des équipements familiaux (par exemple la connexion du téléviseur HD à la box Internet) boostent l’émergence du standard 802.11 ac, à savoir le WiFi au-delà du 1 Gbit/s. De même, la connectivité au domicile continue à évoluer à travers des écosystèmes tels que ZWave, HomePlug, ZigBee et le courant porteur.
Tout cela ouvre progressivement la voie à de nombreuses applications dans tous les domaines : santé, énergie, sécurité ou éducation et permet de supporter le fameux «M2M » (Machine à Machine) et l’Internet des objets, à savoir des objets communiquant entre eux sans intervention humaine et connectés au Net pour bénéficier de fonctionnalités avancées.
Serveurs et Big Data dans le Cloud
Comme on peut l’imaginer, la multiplication d’applications dans tous les domaines ayant recours à de la puissance centralisée pour le téléchargement, l’exécution, le stockage et comptant leurs utilisateurs par millions a un impact fort sur les besoins au niveau des datacenters et fait évoluer les technologies de serveurs, stockages, virtualisation… Même si le CES n’est pas le lieu d’exposition de ces technologies, il en était question dans toutes les discussions et les conférences qui accompagnent le salon.
Certaines évolutions, à ce niveau, sont surprenantes, comme la percée de Nvidia dans les cartes graphiques pour serveurs, celles-ci étant utilisées pour leurs performances en calculs statistiques dans certains domaines comme la finance. Côté applications, il faut être en mesure de fournir un service 24 heures sur 24, sept jours sur sept, et de supporter une charge fortement variable en fonction de critères non directement maîtrisables (brusque afflux de connexions lié à un évènement imprévu, par exemple).
Mais c’est surtout au niveau du stockage et des données que les perspectives sont énormes : tous les équipements « grand public » seront pour leurs utilisateurs un support de services, mais devraient aussi permettre de collecter et de gérer des volumes de données considérables, sans aucune commune mesure avec ce qui a été fait jusqu’à présent. Se posent alors des questions majeures sur les problématiques de stockage, de manipulation et d’extraction de résultats pertinents de ces masses d’informations. La manipulation des « Big Data » va nécessiter de nouvelles plates-formes, de nouvelles structures de données (d’où l’émergence des bases de données NoSQL), et de nouveaux outils de business intelligence.
e-Health, e-Car, e-Energy
L’application de ces avancées technologiques était d’ores et déjà illustrée dans plusieurs secteurs présents au CES (santé, automobile, énergie…) sous la forme de journées de conférences sur la e-Health, d’un véritable salon de l’automobile connectée où étaient présents tous les grands constructeurs, et de présentation de solutions d’économies d’énergie et de smartgrid.
La santé a toujours été un domaine dynamique en Amérique du Nord où ces problèmes préoccupent, en particulier la progression de l’obésité et de son corollaire le diabète, avec comme seule solution la prévention et le traitement de masse. Or, le développement technologique va pouvoir apporter des éléments de solution : capteurs mesurant en temps réel certains paramètres vitaux au niveau de la montre par exemple, transfert sans fil, stockage de proximité et analyse en temps réel au niveau du smartphone avec déclenchement d’alerte en cas d’urgence, transfert périodique des données sur un datacenter, sont des solutions d’ores et déjà implémentées. Avec une problématique déjà évoquée : comment va-t-on stocker et traiter cette masse de données collectées ? Et un espoir, voire une certitude : l’utilisation de ces données à titre préventif va faire énormément progresser la qualité des traitements.
L’automobile a elle aussi intégré l’ensemble des technologies nouvelles : processeurs et systèmes d’exploitation, GPS, Internet, services, électronique de bord… Le secteur de l’automobile est un des rares où Microsoft garde une certaine emprise avec « Windows Embedded », utilisé par Ford, Fiat et d’autres. BMW avait acquis une avance très visible en matière de e-Véhicule innovant depuis plusieurs années, la plupart des solutions proposées aujourd’hui s’inspirant fortement des développements du constructeur allemand depuis maintenant cinq à dix ans, ne serait-ce qu’au niveau du « joggle » (molette rotative et à pression) même si certaines interfaces tactiles font leur apparition : aide à la navigation, informations trafic, anticipation des embouteillages en mode dynamique et prédictif, météo, connexion aux services Internet, aux réseaux sociaux, à une communauté voyageant sur le même itinéraire, audio, vidéo, projection « tête haute » sur le pare-brise, détection de proximité (360° Sensing), de ralentissement, de changement de direction, monitoring de l’ensemble des composants mécaniques du véhicule (moteur, transmission, freinage, consommation, remplissage du réservoir) avec alerte assistance, connexion automatique de tous vos équipements dès que vous êtes à bord (téléphone, tablette, PC, jeux…), caméras avant, arrière et latérales, reconnaissance vocale et faciale (plus de clé). Mais aussi développement de la capacité de détection (avec freinage ou évitement automatique) des obstacles, cyclistes et piétons pour peu que ceux-ci soient équipés d’un smartphone, iPad, iPod, intégrant un composant électronique spécial (standardisation V2X – Vehicle to X et V2V : Vehicle to Vehicle).
L’énergie n’est pas en reste, avec l’apparition, au-delà du compteur intelligent raccordé au réseau Internet pour le relevé de consommation, de ce qui reste le véritable objectif : la collecte de données locales et le pilotage de l’ensemble des équipements de l’habitation à des fins d’optimisation de la consommation d’énergie. Ici aussi se repose la question des capacités de stockage et de calcul nécessaires pour piloter une population. Mais les enjeux sont colossaux : la capacité de « couper » le chauffage de 100 000 foyers à bon escient (heure de pointe) pendant un quart d’heure (on ne s’en aperçoit pas compte tenu de l’inertie thermique du bâtiment) permettrait d’économiser une tranche de centrale nucléaire !
La consumérisation induit l’innovation
Comment exploiter ce foisonnement lorsque l’on est DSI d’une entreprise, quel que soit son secteur d’activité, qu’il soit B2C ou B2B ? Il y a plusieurs bonnes questions à se poser : comment doit-on exploiter ces nouveaux vecteurs pour informer, communiquer, faire des affaires avec les prospects, clients, fournisseurs, collaborateurs ? Comment doit-on faire évoluer les services offerts par l’entreprise pour rester en adéquation avec la demande, la sociologie, les besoins de ces mêmes interlocuteurs ? Comment faut-il intégrer certaines de ces technologies aux produits et outils offerts par l’entreprise ? Est-ce bien le rôle de la DSI ? La réponse est clairement positive car c’est la DSI qui est la mieux placée pour comprendre et suivre les évolutions de ce secteur des nouvelles technologies de l’information et des télécommunications, tenir informés ses collègues sur la novation apportée afin d’innover, et bien sûr intégrer cette même innovation dans les services informatiques de l’entreprise.
Car c’est bien de cela qu’il s’agit : le nouveau rôle de la DSI est de participer et d’impulser l’innovation « informationnelle et numérique » dans l’entreprise. Il ne s’agit en aucun cas de se substituer aux forces de recherche et développement qui sont en charge de l’innovation de référence en biologie, mécanique, produits financiers ou d’assurances, mais de leur apporter une veille éclairée sur un secteur particulièrement dynamique.
Et il faut bien reconnaître par ailleurs que cette évolution arrive opportunément au moment où du fait de l’externalisation et du cloud computing, la DSI va se voir décharger d’une grande partie de ses tâches de production…
Cet article a été écrit par Bernard Laur, consultant (Synthèse Informatique).