dimanche 24 mars 2013

Big Data Plus Predictive Analytics Can Close Sales Lead Gap

A lire sur:   http://www.atelier.net/en/trends/articles/big-data-plus-predictive-analytics-can-close-sales-lead-gap

By L'Atelier - Paris March 22, 2013 Ventes et marketing

Big Data coupled with predictive technologies are now able to forecast what has not been possible up to now: buyer intent. This should help reduce the gap between Sales teams’ need for customer leads generation and what their Marketing colleagues currently actually deliver.
Companies in all sectors have been setting higher revenue targets recently, but this optimism seems to have been somewhat misplaced. In 2012, less than two thirds of all sales people made their quotas and less than 57% of companies hit their targets. A survey carried out by CSO Insights, a leading sales and marketing effectiveness research firm, among more than 1,200 corporate and sales executives worldwide, has now shown that using a combination of Big Data and predictive analytics to help firms increase revenue could be the way to go. Using these technologies, firms should manage to bridge the 70% lead generation gap between sales and marketing, reckons CSO Insights. Progress has been made over the last two years in aligning sales with marketing, but there’s still a long way to go. Barry Trailer, co-founder of the research firm, believes that “Big Data has the potential to begin closing this gap by providing Sales and Marketing people with buying signals they may not even know exist.”

Predicting buyer intent

Predictive analytics technology, together with marketing automation, enable data collection from both internal sources, such as CRM and purchase history, and external sources, including social media. Once the data has been analysed, firms can quickly predict which customers and prospects have the greatest propensity to buy. Big Data therefore seems to be a more promising tool than those which have been used so far by companies’ Marketing departments. Survey results show that at a large number of firms, despite investment in CRM, the Marketing department supplies only 30% of the leads. Shashi Upadhyay, CEO of Lattice, a US-based provider of predictive analytics tools, believes that “Big Data and predictive analytics are the next frontier for marketing,” i.e. these are the technologies which should be used when looking for new prospects.

Quality and quantity of leads needs improvement

Some 65% of those surveyed identified new customer acquisition as their top priority, yet 68% reported struggling to generate enough leads. They blame Marketing for not providing enough quality leads despite investments made in marketing tools and nearly half believe that the quality and quantity of Marketing-generated leads needs improvement. The study finds that “Sales reps at some organisations are carrying out their own ‘rogue’ activities, including lead generation with one-off email campaigns, building micro-sites and leading webinars.” It’s no real surprise this is happening, because 42% of sales reps feel they do not have the right information before making a call. They therefore waste an estimated 20% of their time doing their own research when they are supposed to be selling.

« Pour structurer le Big Data, il faut en donner les moyens aux différentes communautés»

A lire sur:  http://www.atelier.net/trends/articles/structurer-big-data-faut-donner-moyens-aux-differentes-communautes

Par L'Atelier - Paris 22 mars 2013 Conférence

En plus de poser un problème de stockage, le Big Data manque encore cruellement de structure et n'est donc, par conséquent, pas exploité au maximum de son potentiel.
Interview de Ludovic Dubost – PDG et fondateur de  XWiki SAS– interrogé dans le cadre de son intervention à l'Enterprise 2.0 Summit sur l'adaptation des Big Data aux entreprises.

L'Atelier – Malgré la multitude d'outils proposées, la gestion du Big Data reste un problème pour les entreprises. Pourquoi ?

Ludovic Dubost – Aujourd'hui, analyser les Big Data coûte cher et n'est pas fait correctement. C'est normal, car les contenus, les discussions, les informations etc. sont mal structurés et ne peuvent donc pas être exploités à leur maximum. Créer des groupes, des communautés de discussion ou autres c'est bien, mais savoir quoi faire des données après cela, c'est mieux. Lorsque quelqu'un arrive sur une plate-forme de discussion – au sein d'une entreprise ou ailleurs – il ne sait pas où aller et il n'est pas aidé. Pourtant, les gens savent ce qu'ils veulent, et ce qu'ils veulent c'est ne pas perdre de temps.

Il y a donc deux cas, celui des particuliers et celui des employés ?

Oui, prenons deux exemples. D'un côté, on a des particuliers qui recherchent un hôtel pour partir en vacances. Lorsqu'ils veulent avoir une information précise sur l'hôtel (le prix ou l'emplacement ou autre) ils doivent lire tous les commentaires car ces données ne sont pas structurées. C'est pareil pour les employés d'une entreprise. Lorsqu'ils veulent une information précise sur leur société, ils ne savent pas où aller, ni comment chercher. Les entreprises devraient donc passer plus de temps à s'occuper des petites équipes – ou communautés – et à leur donner les moyens de créer les bons outils. Car finalement, en faisant un outil pour tout le monde, en fait on ne le fait pour personne.

En créant XWiki vous avez donc voulu structurer ces big data ? Comment ça marche ?

Oui. X-Wiki est un wiki dit « de nouvelle génération » qui structure l'information. Par exemple, vous vendez des produits. Pour améliorer la vente de ces produits il est intéressant de faire des fiches techniques sur eux qui classent les informations de manière structurée (le prix, la couleur, la style etc.). De plus, ce qui intéressant avec les wiki, c'est que les utilisateurs peuvent faire ces fiches eux-mêmes et savent donc comment répondre précisément aux demandes des autres utilisateurs.

Vous pensez que les entreprises doivent tendre vers ce modèle ?

Absolument. Les entreprises ont pour l'instant intégrer l'idée de la discussion mais pas encore l'idée que l'utilisateur va participer à la création de l'information. Soit dit en passant, les entreprises technologiques utilisent plus le wiki que les autres entreprises. Chaque équipe d'employés possède des données qu'elle met dans des fichiers Excel ou Word et qui ne sont, par la suite, pas assez exploitées. Les gens organisent leurs fichiers, leurs dossiers etc., mais ils ne font pas d'applications car ils ne possèdent pas les outils pour. C'est aux entreprises de le leur fournir.

Des robots enfin capables d'imiter les émotions humaines

A lire sur:  http://www.atelier.net/trends/articles/robots-enfin-capables-imiter-emotions-humaines

Par L'Atelier - Paris 21 mars 2013 robot with feeling

Plusieurs chercheurs anglais ont mis au point un visage numérique qui simule les expressions humaines avec un taux de réalisme inégalé. Une possibilité qui permet d'envisager de nombreuses applications dans le domaine du numérique.
Il sera dorénavant possible de recréer numériquement toutes les expressions humaines sur une interface humanoïde. Zoé, ainsi l'ont prénommée ses concepteurs de l'Université de Cambridge au Royaume-Uni, est un visage numérique qui imite, selon les chercheurs, le visage humain avec un réalisme sans précédent. Auparavant, répliquer ces émotions demeurait l'une des difficultés techniques principales mais, pour ces chercheurs, la réussite réside principalement dans le fait de recréer une large gamme de sentiments visuels – mouvements du visage, associée à une intonation de voix qui varie en fonction de l'émotion représentée.

Imiter l'être humain

Ce visage numérique, contrôlé depuis un ordinateur, se module selon six émotions différentes : la joie, la tristesse, l'affection, la colère, la peur et en dernier lieu la neutralité. Néanmoins toutes les émotions ne sont pas exacerbées : il est aussi possible de choisir l'intensité de la frustration ou de la joie exprimée par le visage numérique. Afin de parvenir à ce résultat, les chercheurs ont fait appel à une actrice, Zoé Lister et ont enregistré pendant plusieurs jours toutes les expressions de son visage. Ils ont aussi compilé des milliers de phrases, et de cette manière l'interface peut recréer à la demande une infinité de combinaisons. Par ailleurs, l'efficacité de ce système et de ces applications a été testé via un appel à crowdsourcing

Une recherche renforcée par le crowdsourcing

Les volontaires ont en effet été enregistrés, et les émotions répliquées par l'interface numériques, calquées sur le visage du volontaire, ont été soumises à identification par 20 autres personnes. Pour ceux qui n'avaient que la vidéo sans le son, les volontaires ont été capable de reconnaître dans 52% des cas l'émotion répliquée. Lorsque le son était ajouté à la vidéo, les volontaires ont reconnu le sentiment dans 77% des cas. Les concepteurs prévoient diverses applications pour cette interface numérique, dont les messageries en ligne, la lecture ou encore le jeu vidéo. En tout cas, cette prouesse technique n'est pas sans rappeler la découverte de chercheurs américains, qui sont parvenus à faire détecter par des robots des similarités ethniques.

Pour l'Arcep, le secteur des télécoms n'est "ni dynamité, ni dévasté, ni sinistré. Au contraire"

A lire sur:  http://www.zdnet.fr/actualites/pour-l-arcep-le-secteur-des-telecoms-n-est-ni-dynamite-ni-devaste-ni-sinistre-au-contraire-39788479.htm#EREC-103

Analyse : Lors de son point annuel, le régulateur a dressé chiffres à l'appui un paysage des télécoms à mille lieux de celui décrit par les opérateurs et les parlementaires depuis l'arrivée de Free Mobile, évoquant une croissance forte et un emploi stable. L'Autorité est également revenue sur son rôle dans un contexte de fortes critiques.
Dans quel état est le secteur français des télécoms ? La question mérite une nouvelle fois d'être posée tant les perceptions et les déclarations divergent. En effet, depuis l'arrivée de Free Mobile, la plupart des acteurs multiplient les déclarations dramatiques : baisse de revenus, conséquences massives sur l'emploi, chutes des investissements, année noire...
Un paysage noir repris d'ailleurs à l'envi par de nombreux rapports parlementaires, dont le dernier rédigé par les députés Erhel et de la Raudière faisant état d'un secteur "crispé" où les opérateurs subissent une baisse des prix qui entraîne "une destruction de valeur". La régulation en prend également pour son grade, accusée d'avoir trop privilégié le consommateur sans étudier l'impact économique d'un nouvel entrant.
On s'était presque habitué à ce discours alarmiste justifiant les différents plans sociaux des opérateurs et des distributeurs annoncés en 2012 et début 2013. Mais pour l'Arcep, le régulateur des télécoms qui faisait ce jeudi son point presse annuel, tout cela relève du fantasme.
"Illusion d'optique"
"On est très loin d'un secteur dynamité, dévasté, sinistré. Beaucoup de pronostics ont été déjoués, il n'y a pas eu d'effet dévastateur suite à l'arrivée de Free Mobile", lance Jean-Ludovic Silicani, président de l'Autorité.
Et de poursuivre : "L'investissement est resté exceptionnel, les revenus sont en hausse et l'emploi est stable. L'animation concurrentielle a maintenu l'activité à un niveau élevé. Certes, la situation est différente mais elle est solide".
Chiffres à l'appui, l'Arcep entend prouver son constat. Si les revenus des opérateurs ont quasiment tous baissé en 2012 (de -5% pour France Télécom à -9% pour BouyguesTel pour une baisse moyenne globale de 3,5% à 41 milliards d'euros), il s'agit d'une "illusion d'optique", souligne le président.
"En excluant les effets de la baisse des terminaisons d'appel [prix de gros que se payent entre eux les opérateurs pour acheminer les appels, NDLR], les revenus globaux des opérateurs sont stables : +0,1%". 
"Ce n'est pas un miracle, nous sommes entrés dans un nouveau modèle économique avec de nouveaux gains de productivité. Le secteur n'est pas mâture, il est au contraire en pleine croissance. Les Cassandres annonçaient un désastre, or le PIB du secteur des télécoms s'est accru de plus de 6% en volume", poursuit Jean-Ludovic Silicani.
Stabilité de l'emploi
Du côté de l'emploi, le constat est le même. "On nous annonçait jusqu'à 60 000 destructions de postes,  nous mêmes tablions sur 10 000 emplois en moins. La réalité est proche de zéro", assène le président. De quoi calmer les cris d'orfraie des opérateurs ? Les chiffres de 2013 seront peut-être bien différents...
"L'emploi est stable à environ 129 000 postes chez les opérateurs et il y aura même une petite croissance en 2012. Les centres d'appel ont vu leurs revenus augmenter de 4% donc je ne vois pas pourquoi il y aurait un impact sur l'emploi. Quant à la distribution, les suppressions sont localisées et résulte des choix stratégiques des opérateurs de réintégrer une partie de cette activité", souligne le président de l'Autorité.
Enfin, concernant l'investissement, l'Arcep a voulu là encore contester une perception sous-entendant une baisse des dépenses. Le régulateur évoque un "niveau record" qui dépassera les 9 milliards d'euros contre 8,2 milliards en 2011.
Rappelons néanmoins que ces sommes incluent le paiement des licences 4G et quelques tour de passe-passe de certains opérateurs. Le rapport Erhel/de la Raudière estime ainsi que "Free Mobile privilégie l'investissement dans les boxes au détriment des équipements de réseaux ou de la modernisation des infrastructures".
L'achat de box peut-il être considéré comme un investissement ? L'Arcep promet de regarder ça de près à travers son Observatoire des investissements.
Bref, l'Arcep a tenu à briser le pessimisme ambiant, justifiant indirectement son rôle et ses actions. Il faut dire que l'Autorité est régulièrement critiquée et la fuite dans la presse d'un document de Bercy prévoyant de retirer la quasi totalité de ses prérogatives a confirmé cette hostilité.
Pour autant, ce document provisoire qui a fait grand bruit "ne reflète absolument pas la position du gouvernement. Le cabinet du Premier ministre me l'a confirmé personnellement", assure Jean-Ludovic Silicani. "Il s'agit d'un document de travail et le rapport final ne reprendra pas les propositions évoquées ni les critiques infligées à l'Arcep".
Le gouvernement est-il passé maître dans l'art du grand écart ? On en saura plus à la publication de la version définitive mais une chose est sûre, l'Arcep est convaincue de son action et n'entendra pas être diluée sans combattre...
Skype, Free/YouTube, SFR et la neutralité
L'Arcep a également évoqué certains sujets d'actualité récente. Dans l'affaire Skype, l'Arcep "ne comprend pas" pourquoi le service refuse de se déclarer en tant qu'opérateur de communications alors que "manifestement, Skype propose un service de téléphonie". "Ils refusent de respecter la loi, c'est un délit", lance Jean-Ludovic Silicani qui assure par ailleurs ne pas avoir subi la pression du gouvernement qui souhaiterait que le service soit "écoutable".

Concernant le dossier Free/YouTube, l'Autorité indique que la procédure se poursuit même si la "qualité de service semble s'être améliorée". "Mais nous n'avons pas encore tous éléments pour tirer des conclusions".  L'Arcep planche toutefois sur la mise en place d'un standard afin d'interdire toute gestion de trafic discriminatoire.

Enfin, dans le dossier SFR, accusé de violer la neutralité du Net en tripatouillant le code source des pages Web affichées sur les écrans de ses abonnés mobiles, l'Arcep indique avoir pris connaissance du problème et a écrit à SFR. "Nous aviserons en fonction de ses réponses", assure-t-elle.

Big data ou big confusion ?

A lire sur:  http://www.distributique.com/actualites/lmi/lire-big-data-ou-big-confusion-19997.html

Si beaucoup d'entreprises veulent faire du big data ou plus exactement de l'analytique en temps réel et de la prédiction, elles se trouvent confrontées à un marché en pleine phase de croissance. Variété des offres et difficulté à recruter des spécialistes sont les principaux freins au développement du big data.
La notion de big data a retenu l'attention du club de la presse informatique B2B avec une interrogation sur le fait qu'aujourd'hui il règne un certain big bazar sur ce marché. Sur la partie définition, les intervenants à la table ronde s'accordent sur la distinction entre les données structurées qui connaissent une croissance forte et surtout les données non structurées issues de plusieurs sources (réseaux sociaux, vidéos, images, audio, Machine to Machine).

Mouloud Dey, directeur Business Solution chez SaS, parle même de dark data qui sont des informations peu ou mal utilisées comme les logs par exemple et qui représenteraient selon IDC deux tiers des données des entreprises. Sébastien Verger, directeur technique chez EMC France rappelle qu'un des premiers aspects du big data réside dans le stockage, quelles données sauvegarder, la capacité allouée, etc.

Une diffusion du big data dans toutes les couches du SI
Pour autant, les intervenants constatent que derrière le concept de big data les réponses apportées s'apparentent à une jungle. Michel Brulay, responsable marketing EMEA chez Terradata donne l'exemple de Linkedin qui lors d'une présentation a expliqué que pour répondre à sa problématique de données volumineuses, la société avait 12 solutions disponibles. Il faut dire que les technologies évoluent avec des solutions comme Hadoop et se diffusent dans plusieurs branches du système d'information. L'infrastructure utilise de l'analytique, tout comme la sécurité pour faire du prédictif. Michel Brulay cite le cas de Barclays qui a utilisé Hadoop pour du stockage low cost. La banque propose à ses clients de consulter jusqu'à 12 ans d'historiques. Les 4 premières années sont sur des plateformes de stockage rapide, les 4 autres années sont sur une infrastructure designée pour une moindre sollicitation et enfin les 4 dernières années ont été placées sur un noeud Hadoop low cost.
Pour confirmer cette diffusion dans toutes les couches du SI, Intel a annoncé sa propre distribution Hadoop pour les environnements x86. L'objectif est de donner des informations pertinentes en un minimum de temps aux divisions métiers. Fabien Esdourubail, directeur du marché Entreprise pour l'Europe de l'Ouest chez Intel explique qu'aujourd'hui « nous sommes capables de traiter 1 To de données en 7 minutes au lieu de 4h ».

Une pénurie de compétences sur les données
Autre frein au développement de solutions big data, la pénurie d'analystes des données. « C'est une vraie souffrance pour les entreprises », prévient Valérie Perhirin, responsable France de l'offre Big Data & Analytics chez Capgemini. Trouver un « data scientist » relève du parcours du combattant, « il s'agit de trouver le mouton à 5 pattes » constate Jean Paul Alibert, VP Innovation & Big Data chez HP France. Il ajoute qu'il doit « à la fois être statisticien, spécialisé dans les mathématiques, développeurs et avoir des compétences métiers ».

A défaut de trouver ses perles rares, Valérie Perhirin a trouvé une solution « mettre en place une équipe combinant ces différentes compétences ». La fin de la prééminence des analystes des données interviendra peut être avec l'automatisation des processus dans le big data. Le cloud pourra être une première approche, mais tous les intervenants constatent que les offres sont à construire et qu'il faut casser les silos organisationnels des entreprises pour avoir une approche transverse du big data.



jeudi 21 mars 2013

[5 Plus City Forum] "La réalité mixte permettra la création de villes par et pour les individus"

A lire sur:  http://www.atelier.net/trends/articles/5-plus-city-forum-realite-mixte-va-permettre-de-creer-villes-gens-gens

Par L'Atelier - Paris 21 mars 2013 Marius Preda

Le 5 Plus City Forum, qui se déroule actuellement à Issy-Les-Moulineaux, met en avant le rôle de plus en plus important du citoyen vers le développement des villes intelligentes. La réalité mixte fait partie des outils utilisés pour ce développement.
A l'occasion de la première journée du 5 Plus City Forum, Entretien avec Marius Preda, Professeur associé à Telecom Business School  et Président du MPEG 3D Graphics Group.

L’Atelier : Actuellement, on parle énormément de réalité augmentée, mais qu’en est-il de la réalité mixte ?

Marius Preda : La réalité mixte est un concept plus large que celui de la réalité augmentée. Comme son nom l’indique, elle se veut de mixer le monde physique, que l’on maîtrise en grande partie, et le monde numérique, que l’on commence à connaître. Cette technologie qui permet à un utilisateur de smatrphone de scanner l’espace l’entourant parvient à recueillir un grand nombre d’informations. Ces informations sont récupérées par trois biais : le contexte temporel, le contexte spatial et les préférences des utilisateurs. On peut par exemple, en entrant dans une pièce, scanner l’espace et savoir le nombre de personnes qui se trouvent dans la pièce mais également avoir des informations sur leurs profils (via une connexion aux réseaux sociaux).

Cette technologie a d’abord été développée via les jeux. Vous en avez d’ailleurs créé un spécialement pour le forum…

En effet, les jeux représentent un vecteur important de développement pour les technologies. Le but du jeu créé pour cet événement est de remporter des « Loov », une monnaie virtuelle que l’utilisateur pourra échanger contre une boisson dans le monde physique. Une fois l’application téléchargée, il suffit de repérer dans le forum les photographies sur lesquelles des Loov apparaissent. Après avoir scanné l’image, à l’aide de son smartphone, le joueur remporte le nombre de Loov indiqué. L’objectif est de créer un lien direct entre une action numérique et une action physique. Mais cela permet surtout de contrôler les flux de circulation. En effet, pour inciter les joueurs à aller dans un espace en particulier, on créera de la valeur en plaçant davantage de Loov à remporter.

Au quotidien, quels vont être les bénéfices de cette technologie pour les villes et leurs citoyens ?

A terme, tous les objets des citoyens seront connectés. Grâce au recueil des données, l’utilisateur va pouvoir personnaliser l’information et répondre à ses besoins plus efficacement. Il lui suffira de scanner l’espace qui l’entoure pour trouver les magasins qui se situent à proximité, ou encore voir le niveau de pollution ou d’où vient le vent. Les choses que l’on perçoit, que l’on sent mais que l’on ne voit pas vont devenir visibles. Le citoyen va avoir un rôle majeur dans le chemin qui mène aux villes intelligentes car il a maintenant le désir d’être acteur de sa ville. Le champ d’exploitation des données va alors être infini. Cette technologie de réalité augmentée va permettre de « voir » les choses en amont. Les dirigeants des villes vont alors pouvoir discuter du futur en faisant participer leurs habitants. En fait, la logique d’aujourd’hui est de créer les villes pour les gens et par les gens.

Dans le cadre du 5 Plus City Forum, on imagine quelle sera la ville dans 5 ans, qu’en sera-t-il de sa relation avec la réalité mixte ?

La réalité mixte est LA nouvelle révolution technologique. Pour les années 50, on parlait de « TV », pour les années 80 de « www », aujourd’hui, on parle de « RA » (réalité augmentée). Les taux d’équipement de smartphones vont être encore plus élevés et sociologiquement, avec l’arrivée des générations dite numériques, la population est prête. Il existe encore quelques contraintes techniques mais les équipements tels que les lunettes connectées parviendront à les résoudre. La vraie question est finalement de savoir qui saura accaparer et exploiter cette technologie en premier.

[Enterprise 2.0 Summit] Les entreprises doivent avant tout considérer le salarié comme un utilisateur

A lire sur:  http://www.atelier.net/trends/articles/enterprise-20-summit-entreprises-doivent-considerer-salarie-un-utilisateur

Par Kathleen Comte 21 mars 2013 employee as user

Si les employés sont le cœur d'une entreprise, comprendre leurs besoins en tant que consommateurs et utilisateurs de produits numériques devient une priorité. Et pour cela, il faut innover.
« L'employé doit désormais être regardé comme un utilisateur ». C'est ainsi que Claude Super, consultant en Social Business, décrit la nécessité pour les entreprises de revoir leur intégration des mécanismes propres au numérique, tels que l'usage des réseaux sociaux, pour l'adapter au salarié. C'est d'ailleurs pour cette raison que les organisateurs du Enterprise 2.0 Summit ont choisi de consacrer la première journée de l’événement à ce thème crucial. Pour l'occasion, Richard Collin, professeur de l'École de Management de Grenoble et directeur de l'Institut de l'Entreprise 2.0, nous a confié que, selon lui, « la solution à toute cette complexité est la complicité ». Entendons par là, le dialogue entre les entreprises et leurs employés, et entre les employés eux-mêmes. Ce dialogue doit nécessairement passer aujourd'hui par les réseaux sociaux internes, qui ont dépassé le stade d'adoption et doivent maintenant être innovés, et de nouvelles méthodes de travail comme les digital workplace.

De l'employé 2.0...

Concernant les réseaux sociaux d'abord : largement adoptés par les employés une fois chez eux, ceux-ci ne sont pas encore assez répandus au sein des sociétés. Et quand ils le sont, l'engouement n'y est pas obligatoirement. Alors certaines entreprises choisissent de s'adapter. C'est le cas par exemple d'EDF qui propose VivreEDFonline, une combinaison entre un intranet à la fois communautaire et collaboratif et un réseau social. Alors que la plupart des entreprises ont séparé les deux fonctions, EDF a choisi de les lier. La raison ? Les salariés étant habitués à l'intranet, ils se retrouvent dans un cadre favorable pour communiquer entre eux et reprennent les mécanismes liés à leur utilisation personnelle des réseaux sociauxn mais cette fois dans le cadre du travail. Pour Carine de Usatorre, Mission Marketing RH et Communication sociale, la combinaison des deux outils est « structurellement décloisonnant et permet davantage de proximité entre les gens. » D'ailleurs, cela fonctionne puisque, « 90 000 profils existent d'ores et déjà sur le réseau, et 130 communautés ont vu le jour ».

… vers l'entreprise 2.0

Mais le fait de considérer le salarié comme un utilisateur n'est pas nouveau. Ainsi, Claude Super rappelle l'intérêt de proposer aux salariés de travailler à distance. « Les employés sont de plus en plus nombreux à travailler hors de chez eux, ce qui les rend d'ailleurs plus efficaces » explique-t-il. Mais ce concept mériterait d'être amélioré puisque « tout le monde ne peut pas télétravailler, tous les profils ne sont pas compatibles. Il faut un accompagnement qui permet aux employés de gérer leur emploi du temps ». Donc, permettre aux employés de travailler différemment, et améliorer la communication au sein des sociétés pourraient porter leurs fruits. Et pour cela, la meilleure manière pour les entreprises d'appréhender les nouvelles technologies serait de faire preuve d'imagination. D'après Richard Collin « les entreprises doivent comprendre que le seul moyen de s'adapter est de sortir du cadre strict des processus. Il faut mettre de la conversation dans ces processus. »