vendredi 28 octobre 2011

Le gouvernement veut rafistoler la copie privée via une procédure accélérée


Le gouvernement veut rafistoler la copie privée via une procédure accéléréeLégislation - Prévue depuis 2008, la réforme de la copie privée (rustine ?) va finalement se faire fin 2011 dans le cadre d’une procédure accélérée. Les professionnels ne seront toutefois pas exonérés d’office, mais pourront prétendre à un remboursement. Les ayants droit voient eux leurs revenus protégés. Industriels et distributeurs s'insurgent.
Mise à jour : Distributeurs et constructeurs sont vent debout contre le texte du gouvernement. Fevad, Fédération Française des Télécoms, GITEP TICS, SFIB, Alliance TICS, SECIMAVI, SIMAVELEC et SNSII ont signé un communiqué commun dénonçant le projet de loi.

Les organisations critiquent le dispositif envisagé par le gouvernement pour réformer, sous contrainte du Conseil d’Etat, le régime de la copie privée. Ainsi, hormis dans le cadre de conventions signées avec les ayant-droits, les professionnels ne bénéficieront pas d’exonérations de copie privée, mais de remboursements, sous conditions toutefois, et « par le biais d’un mécanisme particulièrement complexe et coûteux. »

Mais les industriels s’insurgent aussi contre la prolongation des barèmes pourtant censurés par le Conseil d’Etat. Celui-ci avait donné 6 mois pour les réviser, soit jusqu’en décembre 2011. Le projet du gouvernement prévoit une conservation de ces barèmes pour 24 mois supplémentaires.

« Une telle prorogation vient pénaliser les consommateurs qui pouvaient espérer que le nouveau barème vienne compenser seulement un manque à gagner pour les ayants droit du seul fait des actes de copie privée licite » critiquent industriels et distributeurs.

« Plutôt que de tenter de pallier artificiellement les nombreux dysfonctionnements de la rémunération pour copie privée, l’urgence est à la rénovation profonde d’un système devenu totalement inadapté à l’ère numérique » concluent-ils.
La réforme du régime de la copie privée (189 millions d’euros en 2010) était inscrite au programme du Plan numérique 2012, défini en 2008. Le gouvernement aura finalement attendu la fin 2011, et sous la contrainte du Conseil d’Etat et de la Cour de justice européenne, pour entreprendre ce chantier.
Pour cela, le ministère de la Culture a déposé une proposition de loi le 26 octobre. Celle-ci sera examinée dans le cadre d’une procédure accélérée. Cette procédure permet au gouvernement de limiter les discussions parlementaires à un seul passage devant chaque chambre, contre deux habituellement.
Les barèmes provisoires, dénoncés, ne disparaissent pas
Pourtant, la proposition de loi défendue par le ministère de la Culture ne devrait pas faire l’unanimité, et la procédure retenue susciter donc la critique. La commission copie privée pourra en effet toujours définir des barèmes provisoires (très contestés) avant la réalisation d’études d’usage, obligation rappelée par le Conseil d’Etat.
Concernant les supports professionnels, dispensés du paiement de la rémunération, l’évolution proposée par le gouvernement prévoit non pas une exonération totale, mais un système de remboursement – des remboursements exigibles seulement à compter de l’entrée en vigueur de la présente loi.
Ce remboursement de la copie privée s’appliquera « aux personnes acquérant des supports d’enregistrement dont les conditions d’utilisation ne permettent pas de présumer un usage à des fins de copie privée. Il s’agit en particulier des supports acquis à des fins professionnelles. »
Des remboursements à justifier par les professionnels
« Afin d’alléger les procédures, notamment au profit des acquéreurs institutionnels et des grandes entreprises, l’article 4 ouvre la possibilité de conclure des conventions d’exonération » précise toutefois la proposition de loi.
Quant aux particuliers, il est prévu qu’ils soient informés du montant de la rémunération pour copie privée appliqué aux supports qu’ils acquièrent. Les modalités de cette obligation d’information (déjà prévue dans une autre loi...), et les sanctions en cas de défaut, restent cependant à préciser.
Afin de préserver les revenus issus de la copie privée, le gouvernement prévoit dans l’article 5 de sa proposition de loi que soient conservés « les barèmes applicables aux supports assujettis dans la décision n° 11 pendant un certain délai. »
Or c’est justement cette décision 11 de la commission copie privée qui a été censurée par le Conseil d’Etat en juin. Ce dernier avait cependant précisé que cette annulation n’était pas rétroactive et accordait un délai de six mois pour les réviser.
Une rustine pour préserver les revenus des ayant-droits
Le ministère de la Culture accorde donc un nouveau répit. Il justifie ce délai et la préservation des barèmes par le temps nécessaire à la réalisation des études sur la base desquelles les nouveaux barèmes seront définis, « tout en évitant un arrêt temporaire des versements au profit des titulaires de droits. »
En intégrant le remboursement aux professionnel, le gouvernement estime ainsi « assurer le respect de la chose jugée par le Conseil d’État eu égard aux motifs de la décision du 17 juin 2011. »
la finalité reste toutefois d'abord d’empêcher des redevables de contester devant la justice les sommes à verser et « obtenir l’annulation des factures émises à leur encontre ou le reversement de la rémunération acquittée. »
Qualifié d’effet d’aubaine par le ministère de la Culture, cela aurait eu pour effet de priver les ayant-droits « de la rémunération à laquelle ils ont légitimement droit. »

 http://www.zdnet.fr/actualites/le-gouvernement-veut-rafistoler-la-copie-privee-via-une-procedure-acceleree-39765190.htm#xtor=EPR-100

OPA sur Rue du commerce

Gauthier Picquart, Patrick Jacquemin, actionnaires managers, et Apax Partners (actionnaire de RueduCommerce au travers du FCPR Apax France V et de la société cotée Altamir Amboise) ont conclu un accord avec la société Altacom, aux termes duquel cette filiale d’Altarea Cogedim s’est engagée à acquérir un bloc représentant 24,13 % du capital social, pour un prix en numéraire de 9 euros par action. Altacom a pour projet de lancer, pour le compte d'Altarea Cogedim, un projet d’offre publique d’achat sur les actions RueduCommerce.

L'acquisition du bloc de 24 % des actions de RueduCommerce est soumise à la condition suspensive de l’obtention de l’autorisation de l’Autorité de la concurrence au titre du contrôle des concentrations. Les Actionnaires Managers qui ont souhaité accompagner Altarea Cogedim dans la reprise de RueduCommerce, se sont engagés à apporter en nature 250 000 actions RueduCommerce chacun à Altacom, sur la base d’une valeur de 9 euros par action, sous la condition suspensive notamment de la réalisation de l’acquisition visée ci-dessus. Au résultat des opérations d’acquisition et d’apport en nature, Altacom détiendra 28,64% du capital social de RueduCommerce.

RueduCommerce a été informée de l’intention d’Altarea Cogedim d’acquérir, par le biais d’Altacom, la totalité des actions restantes de RueduCommerce au prix de 9 euros par action et prend acte du
dépôt prochain par Altacom d’un projet d’offre publique d’achat sur les actions de RueduCommerce qu’elle ne détiendra pas à la date d’ouverture de l’Offre (le « Projet d’Offre »). Dans le cadre de cette opération, Apax Partners cèdera l’intégralité de sa participation dans RueduCommerce, après avoir accompagné la société pendant plus de 10 ans, depuis sa création en 1999, en passant par son introduction en bourse en 2005, et jusqu’à sa mutation d’un site de ecommerce à une place de marché en ligne (la Galerie).

Une réunion du Conseil d’administration de RueduCommerce sera convoquée dès le dépôt du Projet d’Offre, aux fins notamment de procéder, conformément aux dispositions de l’article 261-1 du
Règlement général de l’AMF, à la désignation d’un expert indépendant. Le Conseil d’administration se réunira ultérieurement afin de rendre un avis motivé sur l’Offre, au vu du rapport de l’expert indépendant.

Une réunion d'information est prévue ce 28 octobre, à la première heure.
 
 http://www.itrnews.com/articles/124849/opa-rue-commerce.html?key=862d53eea2c1d2fe

iOS génère plus de 60% du trafic numérique, hors ordinateur

En Europe de l'Ouest, les smartphones et tablettes génèrent près de 5% du trafic numérique. iPhone, iPod Touch et iPad en tête...

Au second trimestre, 91,4 millions d'abonnés mobiles des pays d'Europe disaient utiliser un smartphone. C'est 46% de plus que l’année précédente. Bien que Symbian détienne toujours la part la plus importante du marché des smartphones, son audience parmi les téléphones portables et supports connectés (en usage) a récemment été dépassée par celle de l’iOS d’Apple.

iOS (qui est exploité sur l'iPhone, l'iPad et l'iPod Touch) représente actuellement 30,5% de tous les téléphones portables et supports connectés (hors ‘feature phones’ et ‘e-readers’) en circulation au sein des pays de l’Europe des 5. Avec 28,7%, Symbian arrive en seconde position ; suivi de la plateforme Google Android avec 23,5% ; de RIM avec 8,1% et de Microsoft avec 5,5%. comScore fait d'ailleurs remarquer que près de la moitié de la part de l’iOS est liée à l’utilisation d’iPad et iPod Touch. Les tablettes représentent, quant à elles, seulement 16% de la plateforme Android.


Au final, iOS d'Apple génère plus de 60% du trafic, hors ordinateur. Et bien qu'ils comptent pour moins d'un quart des supports iOS en circulation, 43% de ce trafic total reviennent aux iPad. Android se classe 2ème avec 20,9% du trafic, suivi de RIM (8,5%) et de Symbian (2,7%) en nette perte de vitesse.


Publié le jeudi 27 octobre 2011
 
 http://www.itrmobiles.com/articles/124836/ios-genere-plus-60-trafic-numerique-hors-ordinateur.html?key=862d53eea2c1d2fe

Les réseaux sociaux : nouvelles sources de productivité des entreprises Par Damien Douani, Social media expert chez blueKiwi

jeudi 27 octobre 2011
Pourquoi changer de mes habitudes, comme l’e-mail ? « Mais pourquoi devrais je passer aux réseaux sociaux dans mon entreprise ? Ca marche très bien comme cela ! ». Certes. Mais, sans tomber des arguments classiques et laudatifs pour le progrès technique à tout prix, la réponse me paraît être assez simple : car une entreprise est un organisme vivant, devant s’adapter aux évolutions de son écosystème ET devant sans cesse trouver de nouvelles manières d’améliorer sa productivité.
Les deux éléments sont liés, mais ne répondent pas à la même échelle : l’un est macro et s’impose à l’entreprise (pression exogène), tandis que l’autre est géré au niveau micro par l’entreprise (opportunité endogène).

Toute la question pour une entreprise est de savoir tirer partie des deux au mieux, ce qui n’est pas forcément toujours simple à coordonner. Or la « révolution sociale » opérée par le web est une chance inouïe pour les entreprises de reconfigurer leur modèle en s’appuyant sur les compétences de leurs salariés tout en tirant partie de l’appel d’air global du marché. C’est en fait l’occasion d’aligner l’interne et l’externe de l’entreprise.

Les technologies de collaboration ont ouvert l’entreprise

Historiquement, tout part du poste de travail. Cet espace de travail fermé, « propriétaire », s’est trouvé transformé par l’apport de la mise en réseau et de la messagerie, il y a 30 ans. Cela a permis de créer les premiers réseaux « pairs à pairs » entre salariés, et d’inaugurer certains travaux en groupes. C’est, à ce jour, l’usage encore prédominant dans les entreprises.

Les innovations suivantes – espaces collaboratifs, wiki, blogs – n’ont pas réussi à imprimer une marque aussi forte en entreprise que l’e-mail. Mais ils donnent le sens de l’histoire : encore plus d’ouverture et de collaboration.

Les réseaux sociaux sont un nouveau tournant, aussi fort que ne l’a été la messagerie, car ils sont la parfaite synthèse des connexions individuelles (pairs à pairs) et collectives (collaboration). De plus, ils ont pour eux d’être « crédibilisés » par le marché tout entier, qui fait de ces outils des best-seller mondiaux (cf Facebook ou LinkedIn). Ce qui, paradoxalement, peut aussi être un objet de méfiance pour les entreprises : est ce que ce succès grand public peut m’être adapté ? C’est oublier que les salariés sont aussi utilisateurs de ces réseaux, et y ont leurs habitudes.

Une nouvelle source de productivité : le savoir

La productivité est le fait de pouvoir faire plus vite, mieux, pour moins cher certaines tâches. C’est lié à une action de traitement manuel (sur une chaine de montage, dans un secrétariat…). Or, le gisement « rapidité » a quasiment atteint sa limite physique. Il faut désormais passer sur un autre « filon » : le savoir.
« Si HP savait ce que HP sait, nous serions 3 fois plus profitables »
Lew Platt – ancien PDG de HP

Cette tendance est liée à un phénomène exogène : la dématérialisation des flux informationnels, lié à la numérisation globale du monde économique.

Le savoir permet à l’entreprise d’avancer plus vite en mobilisant les bonnes compétences et expertises au bon moment. Se pose alors deux problèmes :
- Le trop plein d’informations, qui provoque des pertes de temps et frustrations : les managers passent 2h/jour à rechercher de l’information à 50% inutile, et disent à 53% qu’elle n’a pas de valeur.
- Le manque d’exploitation de l’information, cette nouvelle donne n’est pas compatible avec les outils actuellement en place au sein de l’entreprise.

Savoir exploiter cette nouvelle richesse

Le savoir est partout, dans chaque partie et salarié de l’entreprise. Il faut de fait mettre en place une manière de récupérer cette connaissance, l’exploiter, et permettre de retrouver « qui sait quoi » à tout instant : ce sont les qualités d’un réseau social d’entreprise.

En contextualisant les échanges (qui dit quoi à quel sujet), en les exposant à toute un groupe de personnes (des communautés), et en répertoriant les expériences de chacun, vous créez une sorte de réseau informel structuré pouvant être sollicité à tout instant.

Charge ensuite à l’entreprise, en fonction des objectifs qu’elle se donne, de choisir le bon degré de sollicitation :

- La collaboration douce (mise en relation, co-production…)
- La gestion des connaissances (partage d’expertise)
- La circulation de l’information (veille et alertes internes et externes)
- Le networking (synergies et animation de communautés)
- La relation client (écoute clients et co-innovation)

Outre une richesse de connaissances pouvant aider l’entreprise à tout instant dans sa vie (réponses à appels d’offres, problème technique à trouver, gestion de crise, capitalisation sur des résultats déjà existants…), McKinsey hiérarchise les 6 bénéfices concrets des réseaux sociaux internes sur la productivité :

- Un accès plus rapide à l’information
- Une réduction des coûts de communication
- Un accès aux experts internes
- Une réduction du « time to market »
- Un accroissement de l’innovation
- Un accroissement des revenus

Pas mal pour un outil qui a maintenant à peine 5 ans…

 http://www.infodsi.com/articles/124806/reseaux-sociaux-nouvelles-sources-productivite-entreprises-damien-douani-social-media-expert-chez-bluekiwi.html?key=

TOP 50 des cabinets de conseil Une confiance sous surveillance

jeudi 27 octobre 2011
Malgré le climat difficile depuis le début de la crise, les cabinets de conseil ont abordé l’année 2011 avec confiance. Focalisation sur des compétences clés pour les nouveaux entrants comme pour les structures établies, raréfaction des grands opérations de rapprochement ou de scission, déploiement vers les pays émergents, telles sont les grandes évolutions actuelles que met en lumière le classement des 50 premiers cabinets de conseil tiré de la 10e édition du Guide des cabinets de conseil en management (voir article dans la lettre du jour).

Le conseil en management est un marché très éclaté. Selon l’analyse de Jean-Baptiste Hugot, auteur du Guide, les 5 premières firmes réalisent moins de 30 % du chiffre d’affaires global évalué à 5,1 milliards d’euros. Ce chiffre est obtenu en additionnant les 105 cabinets recensés qui représentent un chiffre d’affaires de 4,6 mds€ auquel il faut ajouter celui des cabinets de moins de 30 consultants, soit 200 cabinets supplémentaires pour un chiffre d’affaires (environ 400 M€ et 2000 consultants) et des indépendants (1000 pour un CA de 100 M€.

Un peu de méthodologie

Le Conseil en management regroupe l’ensemble des activités de « conseil externe destinées à améliorer l’organisation, la gestion et le développement des entreprises et organisations et à en faciliter la transformation. Par contre, en sont exclus, les activités connexes telles que le recrutement, la formation, les études économiques ou marketing, l’audit et l’expertise comptable, le conseil juridique ou fiscal, les services informatiques, l’externalisation/BPO/Infogérance.

Au sein de ce classement, les filiales de sociétés américaines sont très largement représentées avec 8 compagnies dans le Top10,  et 2 non américaines avec Logica Business Consulting, filiale de la britannique Logica et Capgemini Consulting, filiale de Capgemini.

Parmi les cabinets à dominante systèmes d’information qui, fait remarquer Jean-Baptiste Hugot, sont souvent des émanations de SSII ou d’éditeurs de logiciels on peut citer outre les deux cabinets déjà cités (Logica et Capgemini), Accenture, Atos Consulting, CSC, IBM Global Services, Solucom, Steria, BearingPoint…


TOP 50 DES CABINETS DE CONSEIL  

Rang
Sociétés CA10 Nb salariés
1 Accenture 550 2 330
2 CSC 410 2 300
3 Capgemini Consulting 230 860
4 Ernst & Young Advisory 230 700
5 KPMG Conseil 230 1 100
6 IBM Global Business Services 220* 1 400
7 McKinsey & Company 220* 280
8 Logica Business Consulting 215 1250
9 BearingPoint 160 900
10 Boston Consulting Group 160 345
11 Kurt Salmon 122 750
12 Oliver Wyman 120* 200
13 Solucom 108 758
14 Bain & Company 98 230
15 Altedia 94 700
16 Deloitte Conseil 91 640
17 BPI 90 630
18 PwC Consulting 88* 550
19 Roland Berger Strategy Consultants 80* 195
20 Atos Consulting 65 400
21 Eurogroup Consulting 65 340
22 Aon Hewitt 50 300
23 AT Kearney 45* 120
24 Oresys 38 240
25 SIA Conseil 38 245
26 Towers Watson 32* 150
27 Steria 30 190
28 Weave 30 170
29 CVA 29 60
30 Equinox Consulting 29 150
31 Algoé Consultants 27 165
32 Mars & Co 26* 40
33 Advancy 25* 60
34 Booz & Company 25* 50
35 Bernard Julhiet Group 23 100
36 Kea & Partners 23 104
37 Estin & Co 21* 55
38 Axys Consultants 20* 150
39 LEK Consulting 20* 50
40 Aedian 18 140
41 Alpha (Groupe -) 18 130
42 Hay Group 18 70
43 Colombus Consulting 17 130
44 Solving Efeso 16 95
45 Exton Consulting 15 70
46 OC&C Strategy Consultants 15 55
47 Stratorg Ylios 14 60
48 Vertone 14 86
49 Greenwich Consulting 13 50
50 Alexander Proudfoot 12* 40
50 AlixPartners 12* 40
50 Renault Consulting 12 60
50 Simon-Kucher & Partners 12 47
50 SterWen 12 58
* : Estimation
(Source : Guide des cabinets de conseil en management de Jean-Baptiste Hugot  (juillet 2011 10e édition)
NB : les chiffres d’affaires indiqués ont été contrôlés et, le cas échéant, retraités pour ne conserver que les activités de conseil en management (stratégie, organisation, améliorations opérationnelles, RH, SI, etc.

Finances : Orange a recruté 35,3 % des nouveaux abonnés ADSL


 Soit près de 100 000
Finances - Sociétés

France Télécom (Orange), malgré un chiffre d’affaires relativement stable, continue d’augmenter son nombre de clients. Hors MVNO, il en compte désormais 221 millions à travers le monde, soit tout de même une croissance de 13 millions de clients en un an. Du côté de l’ADSL en France, Orange a réalisé un troisième trimestre très performant, puisqu’il annonce avoir capté 35,3 % des recrutements. C’est sa meilleure part de conquête haut débit depuis 2009.

Orange

Voici tout d’abord quelques résultats financiers pour Orange concernant son troisième trimestre 2011 :
  • Chiffre d’affaires : 11,280 milliards d’euros (-3 %)
    • dont CA en France : 5,569 Mds (-4,7 %)
    • dont CA en Espagne : 1,039 Md (+4,8 %)
    • dont CA en Pologne : 899 M (-7,6 %)
    • dont CA dans le reste du monde : 2,222 Mds (-3,1 %)
« Le 3ème trimestre 2011 enregistre, pour sa part, une diminution de 0,5% à base comparable et hors mesures de régulation (impact de -188 millions d’euros) » note Orange. « Celle-ci reflète le recul des ventes de terminaux mobiles par rapport au 3ème trimestre de l’année dernière dont le niveau avait été très élevé, notamment en France et en Belgique. La baisse des ventes de terminaux mobiles au 3ème trimestre 2011 trouve sa contrepartie dans la diminution des coûts commerciaux. Hors les ventes de terminaux mobiles, le chiffre d’affaires du Groupe reste stable au 3ème trimestre 2011 par rapport à l’année précédente. »

Du côté des abonnés, Orange compte donc 221 millions d’abonnés à travers le monde (+6,3 %). Voici tous les détails :
  • Abonnés mobiles : 162,1 millions (+12,9 M)
  • dont France : 26,588 millions (+323 000)
  • dont Espagne : 12,339 millions (+719 000)
  • dont Pologne : 14,614 millions (+473 000)
  • dont Afrique et Moyen-Orient : 70,4 millions (+11 M)
     
  • Abonnés haut et très haut débit : 14,215 millions (+731 000)
  • dont France : 9,478 millions (+392 000)
    • dont 9,368 millions abonnés ADSL
    • dont 82 000 abonnés FTTH
    • dont 27 000 abonnés satellites et autres
  • dont Espagne : 1,225 million (+135 000)
  • dont Pologne : 2,332 millions (+63 000)
  • dont autres pays européens : (+8 000)
  • dont pays d’Afrique et du Moyen-Orient : (+113 000)
France : les bons résultats de l'ADSL, le bilan médiocre du FTTH

Si l’on se fie aux chiffres des précédents trimestres, Orange pourrait bien être l’opérateur numéro 1 ce trimestre en termes de recrutement avec plus de 107 000 nouveaux abonnés haut et très haut débit, dont 96 000 abonnés ADSL et 9000 abonnés FTTH. Notez qu’Orange compte toujours 190 000 abonnés bas débit (-71 000 en un an).

On remarquera qu’Orange ne compte que 82 000 abonnés à la fibre optique, alors qu’il annonce pouvoir en connecter 903 000. Son taux de pénétration est donc ridicule (9 %) et surtout, Orange a donc recruté plus d’abonnés ADSL en un trimestre que d’abonnés à la fibre dans toute son histoire…

fibre optique gpon france telecom orange 


Concernant les bons résultats en Afrique et au Moyen-Orient du côté d’Internet, ils sont principalement liés à l’Égypte (+35 000), et à la prise en compte de la Tunisie (58 000 abonnés). Et la récente acquisition de CCT en République Démocratique du Congo aura forcément un impact positif sur le nombre de clients d’Orange dans cette région.

Du côté du mobile, Orange précise que 58 % de ses ventes brutes de terminaux sont des smartphones, contre 50 % il y a six mois et 34 % début 2010. À ce rythme, les trois quarts des ventes seront des smartphones à la fin de l’année prochaine.

Toujours dans le mobile, son taux de churn, c’est-à-dire les départs des abonnés, est passé de 20 % au début de l’année à 14,3 % le deuxième trimestre et 15,2 % ce trimestre. Ses ventes nettes de contrats ont par contre explosé, passant d’une chute de 86 000 au début de l’année (grâce à la hausse de la TVA) à +127 000 au trimestre suivant et +229 000 ce trimestre. Il s’agit cependant des abonnements. Du côté des clients prépayés, Orange affiche un fort recul. Au final, Orange France a donc perdu 68 000 clients mobiles.

Rédigée par Nil Sanyas le jeudi 27 octobre 2011 à 18h22
Source de l'INformation : Orange

 http://www.pcinpact.com/actu/news/66685-orange-adsl-mobiles-ftth-recrutements.htm

HP: We're keeping the PC unit

By Larry Dignan | October 27, 2011, 1:07pm PDT
Summary: HP CEO Meg Whitman decides the PC business isn’t so bad after all.
Updated throughout: HP said it will keep its personal systems group and that it will continue to sell PCs.
The company added that its strategic review indicated that the supply chain and procurement hit was too much. Meanwhile, HP’s PC unit performs well.
When Meg Whitman took over as CEO she promised a quick decision on the PC division. She delivered.
Overall, HP’s move makes sense—at least in the short term. Keeping the PC unit removes a lot of uncertainty for corporate technology buyers who were likely to go with vendors such as Lenovo and Dell. By eliminating that uncertainty, HP can move ahead.
HP’s PC unit is profitable, but analysts noted that the business has imploded. In other words, HP couldn’t sell the PC division and a spin-off wouldn’t have been a boon to shareholders in its current state.
Jefferies analyst Peter Misek said in a research note this week:
In our global travels we have heard time and time again how your PC business has virtually imploded since the spin-off decision. Local managers in Asia, Latin America, and Europe are powerless to fight the competitive message, and customers fear that you are not committed to the business and therefore are going elsewhere (primarily Lenovo and Dell). We suggest either 1) immediately announce a commitment to the PC business (e.g., multi-year onsite warranties, partner with local banks to finance), or 2) have a private equity firm buy a stake in the company.
On a conference call with analysts, Whitman said she looked at the costs of a spin off as well as startup costs. Once the numbers were crunched, it was clear that HP had to keep the PC business. “PSG benefits from HP’s global scale and innovation,” said Whitman. “It would be very challenging for a new PC company to build such a strong brand.”
Related: HP making another run at Windows 8 tablets
CFO Cathy Lesjak said that annual synergies between PSG and HP lead to operating synergies of $1 billion a year.
The reasons to keep the PC unit boiled down to the following:
  • The PC unit is too intertwined with HP.
  • It would cost $1.5 billion to spin it off in startup costs.
  • HP would lose supply chain scale that would hurt other units.
  • The PC unit would struggle without HP’s channel relationships and brand.
In the long run, HP’s decision to keep the PC unit isn’t a slam dunk. PCs are still a low-margin commodity business and it’s unclear whether the unit can deliver cutting edge designs, navigate the tablet market and generate consumer buzz. When former HP CEO Leo Apotheker announced plans to escape the PC business, most of the criticism revolved around the delivery and communication not the end goal.
The challenge for HP is to boost its margins while still playing in the PC market. For the third quarter, HP’s PC unit was 31 percent of revenue. Whitman acknowledged that there will be margin pressure, but the company will work on its supply chain and design PCs that appeal to both consumers and the enterprise. HP executives acknowledged that HP took a competitive hit from rivals. Whitman added that customers told her that “uncertainty is not your friend here” and were holding off on orders.

Whitman said in a statement:
HP is committed to PSG, and together we are stronger.
Whitman’s review revolved around how PCs fit into the supply chain. Removing the PC business could mean that HP would lack the scale to get good component deals for its servers.
In a statement, HP said:
The data-driven evaluation revealed the depth of the integration that has occurred across key operations such as supply chain, IT and procurement. It also detailed the significant extent to which PSG contributes to HP’s solutions portfolio and overall brand value. Finally, it also showed that the cost to recreate these in a standalone company outweighed any benefits of separation.
Going forward, HP’s Todd Bradley, who runs the PC unit, said the company is committed to the PC and intends to improve the business. Bradley’s comments on the conference call sounded like any other PC company. The plan is to become more efficient, design better PCs and focus on emerging markets.
Keeping the PC business eliminates uncertainty, but key questions still remain for the unit.
Among the key items:
  • How should HP organize its design teams? Misek suggested that HP should separate its design team from the bureaucracy. Better designs would help HP battle Apple and generate enterprise sales as consumerization takes hold?
  • Does HP have to dangle carrots in front of IT buyers? HP may have to boost warranties and use aggressive pricing to fend off deals with Lenovo and Dell.
  • What’s the mobile plan? HP still doesn’t have a mobile plan and it needs to partner with Microsoft of Google. The WebOS is a dead end due to the ecosystem. Whitman said WebOS plans are being evaluated and that HP will get into the tablet market again.
Here’s where HP stands in the PC market.

Related:
 http://www.zdnet.com/blog/btl/hp-were-keeping-the-pc-unit/62081?tag=nl.e589

jeudi 27 octobre 2011

Etude Cloud Computing : Veille soutenue des entreprises encore en phase d’évaluation

Le 26 octobre 2011 (15:34) - par La rédaction
En partenariat avec LeMagIT, NotezIT vient de sortir sa première étude consacrée au marché du Cloud Computing en France. L’occasion de vérifier un engouement certain et une bonne maitrise des sujets de la part des DSI, mais également de relativiser l’impact du Cloud public et l’intérêt unique pour la réduction des coûts, tout en mesurant le poids des écueils liés à la sécurité et à la protection des données.
Au-delà du buzz, Le Cloud Computing s’impose désormais comme une évolution crédible à moyen terme des systèmes d’information. C’est l’une des conclusions de l’étude menée par NotezIT au cours du printemps et de l’été 2011 et qui a conduit la société de sondage en ligne à éditer un document complet, permettant d’évaluer la pénétration dans les entreprises d’un paradigme intégrant l’ensemble des couches informatiques à travers ses sous ensembles PaaS, IaaS et SaaS. Un panorama des acteurs clés du secteur y est également dressé. Une trentaine d’entre eux ont été passés au crible et classifiés selon un prisme particulier entre Leaders, Challengers, Pure Players et acteurs locaux.
Se procurer l’étude Cloud Computing 2011 – 2012
Côté tendance, alors qu’il propose une nouvelle convergence entre les fournisseurs de services, les concepteurs d’infrastructures, les opérateurs télécoms et les éditeurs de logiciels, le cloud computing suscite pour l’heure dans les entreprises, selon NotezIT, plus de curiosité que d’engouement spectaculaire. Comme le montrent les résultats de l’étude, la veille et la prise d’information sur l’ensemble des dimensions du Cloud Computing l’emportent aujourd’hui sur la mise en place de projets d’envergure dans l’esprit des décideurs IT.
Une veille attentive orientée vers le Cloud privé et la recherche de performance
Le Cloud privé, voire hybride, sont largement en tête dans l’intérêt déclaré de décideurs qui ne s’intéressent finalement que très peu au Cloud public. Alors que ce dernier est le plus médiatisé, il compte encore trop de zones d’ombre pour être considéré comme une alternative globale. Si les décideurs ont donc fait leur choix quant à la limite qu’ils souhaitent se poser en termes de mutualisation des infrastructures hébergées, ils sont cependant très peu nombreux à avoir véritablement sauté le pas en 2011, l’année certes symbole du décollage médiatique mais un exercice relativement faible en termes de projets. Plus de 2 décideurs sur 3 estiment, selon NotezIT, que moins de 10% - voire aucune pour la majorité d’entre eux – des infrastructures et applications de leur SI pourraient être hébergées en mode Cloud Computing à fin 2011.
Se procurer l’étude Cloud Computing 2011 – 2012
Une approche plus centrée sur le besoin métier que sur l’économie à tout prix
Contrairement à une idée répandue, l’étude de NotezIT montre en outre que la recherche d’un nouveau modèle économique – au niveau du coût ou du mode d’affectation des dépenses – n’est pas finalement la priorité absolue. Pour les DSI et leur comité de direction, le Cloud Computing est avant tout perçu (pour 35%) comme une manière efficace de délivrer de nouvelles applications Internet et collaboratives auprès des collaborateurs de l’entreprise. L’objectif est donc d’abord centré sur le métier et la création de valeur supplémentaire. La dimension économique existe cependant, et les réductions de coûts sont surtout attendues dans les infrastructures et les budgets liés au déploiement de technologies web et d’applications métiers.
Une vision pointue des enjeux
L’étude permet également d’observer quels sont les freins à une accélération des déploiements dans les entreprises. Récupération des données, localisation des données et aspects réglementaires et juridiques sont ainsi perçus par les décideurs informatiques comme les principaux obstacles à une plus grande pénétration du Cloud Computing. Si l’hypothèque de la sécurité diminue peu à peu, l’intérêt sur la manière dont le Cloud Computing sera protégé demeure. L’hébergement des données et le cadre réglementaire le régissant sont aujourd’hui les principales faiblesses perçues dans la sécurisation du Cloud Computing (selon un décideur sur cinq). La réversibilité de l’infrastructure, la sécurité juridique des données et leur récupération sont également citées parmi les écueils.
Se procurer l’étude Cloud Computing 2011 – 2012

 http://www.lemagit.fr/article/saas-cloud-computing-etude-paas-iaas/9762/1/etude-cloud-computing-veille-soutenue-des-entreprises-encore-phase-evaluation/?utm_source=essentielIT&utm_medium=email&utm_content=new&utm_campaign=20111027&xtor=ES-6

Antennes-relais : les maires ne peuvent pas bloquer les implantations


Antennes-relais : les maires ne peuvent pas bloquer les implantationsJuridique - Les maires n’ont pas la compétence pour réglementer de façon générale, par arrêtés, l’implantation des antennes relais de téléphonie mobile. La décision du Conseil d’Etat tombe à point nommé alors qu’opérateurs, ministre et mairie de Paris s’affrontent sur les implantations parisiennes.
En plein bras de fer entre les opérateurs de téléphonie mobile, la ville de Paris et le ministre du numérique Eric Besson, la décision du Conseil d’Etat promet de redistribuer les cartes. Ce dernier vient en effet de rendre une décision défavorable aux maires.
Saisi par des opérateurs, le Conseil d’Etat s’est prononcé sur la légalité de trois arrêtés pris par les maires de Saint-Denis, Pennes-Mirabeau et Bordeaux visant à réglementer de façon générale l’implantation des antennes de téléphonie mobile sur ces communes.
Ministre, Arcep et ANFR, seules autorités compétentes
Les municipalités justifiaient « leur intervention sur le fondement de leur compétence de police générale, au nom du principe de précaution. » Mais selon le Conseil d’Etat, le législateur n’accorde pas aux mairies ce pouvoir de régulation.
Selon lui, seules les autorités de l’Etat désignées par la loi sont compétentes dans ce domaine, c’est-à-dire le ministère chargé des communications électroniques, l’Arcep et l’ANFR (Agence nationale des fréquences).
« Il appartient à ces autorités nationales, qui peuvent s’appuyer sur une expertise non disponible au plan local, de veiller, dans le cadre de leurs compétences respectives, à la limitation de l’exposition du public aux champs électromagnétiques et à la protection de la santé publique » écrit le Conseil d’Etat.
Les mairies peuvent intervenir pour des antennes précises uniquement
Et les maires ? Il est prévu par le législateur qu’ils soient informés, à leur demande, de l’état des installations radioélectriques exploitées sur le territoire de leurs communes. Le principe de précaution, consacré à l'article 5 de la Charte de l'environnement, ne constitue donc pas un moyen permettant « à une autorité publique d’excéder son champ de compétence et d’intervenir en dehors de ses domaines d’attributions. »
Si un maire ne dispose donc pas de la compétence nécessaire pour réglementer de façon générale l’implantation des antennes relais de téléphonie mobile, il n’est toutefois pas sans autorité sur cette question tient à préciser le Conseil d’Etat.
Cette décision ne préjuge « ni de la légalité des règlements nationaux applicables ni de l’éventualité de décisions individuelles de police municipale que les maires pourraient prendre, notamment en cas d'urgence, concernant une antenne relais déterminée, au regard de circonstances locales exceptionnelles. »
La suspension à Paris remise en cause
Les opérateurs ne manqueront certainement pas de lire avec attention le jugement rendu par le Conseil d’Etat. Celui-ci était sans doute même attendu par les acteurs de la téléphonie mobile dans le cadre de la renégociation de la charte avec la mairie de Paris.
Des négociations actuellement dans l’impasse. Cet échec tient selon la ville de Paris à la volonté des opérateurs d’augmenter le seuil maximum d’exposition aux ondes électromagnétiques pour atteindre 10 voire 15 V/M, contre 2 auparavant.
Constatant l’échec des discussions, la mairie de Paris a annoncé qu’elle suspendait l'implantation d'antennes-relais sur les toits des bâtiments municipaux. Les opérateurs peuventt compter sur le support d’Eric Besson, dont le ministère est une des trois seules autorités d’Etat compétentes pour réglementer de façon générale les implantations d’antennes relais.
« La réaction intempestive d’Éric Besson est en réalité une tentative de masquer l’immobilisme du gouvernement, qui n’a pris aucune décision deux mois après les conclusions du comité opérationnel sur l’exposition aux ondes radios (COMOP) et trois ans après le Grenelle des Ondes. Les citoyens doivent se contenter d’un communiqué de presse et de la création du COPIC (Comité Opérationnel Issu du Comop) » a réagi la ville de Paris, au centre des ambitions de l’UMP pour 2014. Elle attise déjà des rivalités internes.

 http://www.zdnet.fr/actualites/antennes-relais-les-maires-ne-peuvent-pas-bloquer-les-implantations-39765161.htm#EREC-103

Paul Amsellem, dg Nokia France : "Le lancement de nos Windows Phone sera le plus grand jamais réalisé"

par Olivier Chicheportiche , ZDNet France. Publié le 26 octobre 2011
Stratégie - Dans le cadre du Nokia World 2011, le nouveau directeur général de Nokia France, Paul Amsellem, revient sur le lancement des deux premiers Windows Phone, sur sa feuille de route et, surtout, sur les relations avec les opérateurs.
Envoyé spécial à Londres - Dire que Nokia est très attendu avec le lancement de ses deux premiers Windows Phone (Lumia 800 et Lumia 710) est un euphémisme. Offensive de la dernière chance dans le secteur ô combien stratégique des smartphones ? Peut-être pas mais le fabricant est attendu au tournant. Tout comme Microsoft qui compte sur Nokia pour enfin faire décoller sa plate-forme.
"Si le couple Microsoft-Nokia ne fonctionne pas en Europe, il ne fonctionnera pas ailleurs", s'inquiétait il y a quelques jours Yves Maitre, vice-président en charge des terminaux chez Orange. Autant dire que la pression est forte, pour les deux firmes.
Windows Phone est une plate-forme intéressante et les Nokia sont connus pour leurs hardwares réussis, reste que les problèmes restent nombreux pour le couple.
Après avoir interrogé Laurent Schlosser, nouveau directeur Mobilité et Opérateurs de Microsoft France, BusinessMobile.fr a profité de ce Nokia World 2011 pour rencontrer Paul Amsellem, nouveau directeur général de Nokia France (bien connu du secteur puisqu'il a fondé Cellcast et Phonevalley).
BusinessMobile.fr - Au-delà du produit, la vraie guerre va se jouer chez les distributeurs. Jusqu'à aujourd'hui, Windows Phone est peu visible, cela va-t-il changer avec Nokia ?
Paul Amsellem - Nos deux premiers Windows Phone seront lancés en novembre dans six pays européens clés avec 31 partenaires. Nous sommes venus avec des armes lourdes, notamment le budget de lancement le plus important de l'histoire de Nokia, notamment en termes de publicité à 360 degrés.
En contre-partie, nous leur demandons un engagement de volume, de formation des vendeurs. Près de 30 000 vendeurs sont actuellement en formation autour de ces produits. Il y a un vrai engagement de leur part.
La situation a donc changé car les opérateurs proposent rarement Windows Phone en première intention...
C'est vrai mais encore une fois il y a un engagement de leur part. Un partenaire comme Orange n'est pas un philanthrope, ils nous font confiance, ils parient sur nous, lancent nos produits dans plusieurs pays même si le scepticisme de départ est compréhensible. L'objectif est de permettre la prise en main du produit par le client, ce qui est une première étape essentielle.
Par ailleurs, les opérateurs sont conscients qu'il leurs faut une alternative. Apple impose des conditions difficiles pour eux, Android est très fragmenté et devient fragile à cause de ces histoires de guerres de brevets. Nous entendons prendre cette place de troisième OS avec les meilleurs form-factor et le meilleur OS du marché.
Enfin, nous proposons une politique tarifaire agressive. Le Lumia 800 sera certainement proposé à 50 euros avec forfait et offres de remboursement. 
Nokia lance deux produits, deux seulement diront certains... Quelle est la feuille de route ? Allez-vous proposer des produits présents sur plusieurs gammes ?
Notre stratégie court sur deux ans, il y aura beaucoup de nouveautés dès l'année prochaine. Le Lumia 800 sera notre porte-étandard et de nouveaux terminaux graviteront autour de lui. Ils se positionneront sur toutes les gammes avec des design différents. Mais pour le moment, nous entendons capitaliser sur les deux premiers modèles.
A quel moment pourra-t-on parler de succès ?
Sur un segment donné, on peut considérer que si l'un de nos produits atteint 15/20% de parts de marché, nous serons satisfaits.
Nokia propose des services exclusifs sur ses Windows Phone comme Drive et Music. Il s'agit donc d'un partenariat privilégié ?
Les relations entre Microsoft et les fabricants sont les mêmes pour tous. Mais c'est vrai que notre force de frappe permet peut-être de lancer des choses en premier. Reste que Windows Phone permet à chaque fabricant d'apporter des éléments de différenciation. Nous apportons les nôtres, les autres le feront aussi.
Orange semble avoir décidé de mettre le paquet autour de ces nouveaux Nokia mais estime que leur succès en Europe sera déterminant pour la suite. C'est votre avis ?
Orange est en train de mettre en place les leviers marketing et de formation de sa force de vente pour favoriser l'adoption des Nokia sous Windows Phone. Ils ne sont pas sceptiques, mais ils attendent de voir. Et les premiers retours de leur part semblent très satisfaisants. Encore une fois, ils sont ravis de pouvoir proposer une alternative à leurs clients.
L'écosystème des développeurs est également déterminant. Quelle est votre stratégie ?
On accompagne, on forme, on incite. Mais les éditeurs doivent aujourd'hui faire une choix : quelle plate-forme soutenir aux côtés d'iOS et Android ? Nous pensons que la place de troisième est pour nous.
De l'autre côté de la chaîne, nous continuons à mettre l'accent sur la qualité plutôt que sur la quantité même si nous venons de passer le cap des 30 000 applications disponibles. Enfin, nous bouclons actuellement les accords pour généraliser le paiement des applications via la facture des opérateurs. C'est un point essentiel pour faire décoller les usages.

http://www.businessmobile.fr/actualites/paul-amsellem-dg-nokia-france-le-lancement-de-nos-windows-phone-sera-le-plus-grand-jamais-realise-39765162.htm#xtor=EPR-10010

Android Market prêt à dépasser Appstore : 500.000 applications publiées

Android Market prêt à dépasser Appstore : 500.000 applications publiées Le challenger Android Market croît plus vite que l’Appstore : 500.000 applications auront été publiées depuis le lancement d’Android. Confirmant ses prédictions de août 2011, Research2Guidance estime que Android dépassera l’Appstore à la fin de l’année. D’après leurs sources, en septembre 2011, Apple propose 600.000 applications et Android Market 500.000.
Un bémol pour Android : 37% des apps ont été désactivées depuis 2008. Par comparaison, Apple a désactivé 24% des apps sur l’AppStore, et Microsoft 13% de Windows Phone Marketplace.
Comment croiser ces informations ? Le site Appstore Metrics recense sur Appstore :
  • Total Apps Approved for US App Store: 632,929
  • Total Active Apps (currently available for download): 495,516
  • Total Inactive Apps (no longer available for download): 137,413
L’Appstore lui-même indique mi-octobre “over 500.000 apps”. De son côté, le site Androlib liste 355.707 applications Android, dont 15,2% de jeux, et 348.607 applications téléchargées :
Download Android market
Concrètement, que faire à l’approche des fêtes ? Faut-il choisir un iPhone pour Appstore ou un Samsung pour Android Market ? Le site CNET.com trouve 5 bonnes raisons pour rejoindre lécosystème Android :
Mais la première raison n’est pas valide en Europe, et le même site expliquait il y a un an pourquoi il fallait acheter l’iPhone 4 !
Au delà de la querelle de chiffres et des arguments plus ou moins justes, nous allons faire 4 commentaires :
  • On imagine déjà le monde de demain : un duopole Apple et Google, et 2 offres d’applications, ce qui réduit potentiellement l’offre (-).
  • L’argument du nombre d’applications disponibles disparait, et l’on peut maintenant comparer objectivement les matériels (+) !.
  • Android offre un monde beaucoup plus ouvert que Apple (+).
  • Les développeurs vont pouvoir se concentrer sur 2 offres qui vont avoir tendance à se ressembler (+).
Mais rien n’est jamais écrit, et une personne au moins se battra jusqu’au bout pour avoir encore son mot à dire (lire à partir de 18’20″) !
Quel est votre avis ? Plutôt Android Market ou Appstore ?

 http://fr.locita.com/actualite/android-market-pret-a-depasser-appstore-500-000-applications-publiees/

Les puces NFC débarquent

Source : Numerama.com, licence CC
On entend de plus en plus parler du NFC, cette technologie de transfert sans contact, qui permet par exemple de payer avec son téléphone portable. D'après un rapport d'In-Stat, les puces NFC vont envahir le marché d'ici quelques mois, jusqu'à équiper 30 % des téléphones mobiles de la planète en 2015...
Le NFC (Near Field Communication) est l'une des technologies sur lesquelles mise une grande partie des constructeurs de téléphones portables. Une étude montre que plus d'un milliard de puces devraient être sur le marché en 2015.
La technologie de transfert sans contact NFC a le vent en poupe. De nombreux constructeurs intègrent ces puces à leurs téléphones, poussés par Google qui tente d'imposer Google Wallet, son portefeuille électronique. Si tous ne sont pas encore d'accord sur la façon de l'intégrer, personne ne doute de son succès dans les prochains mois.
La technologie NFC permet de payer directement avec son téléphone portable.
La technologie NFC permet de payer directement avec son téléphone portable. © Feuillu, Flickr CC by nc 2.0
Le NFC va envahir notre quotidien
In-Stat, cabinet réalisant des études de marché, vient même de publier un rapport prévoyant que plus d'un milliard de puces NFC seront livrées d'ici 2015. Cette même année devrait voir les puces NFC équiper 30 % des appareils mobiles de la planète. « À mesure que le coûts des puces baissent et qu'elles sont intégrées à d'autres composants des appareils, le coût d'intégration du NFC sera largement couvert par les revenus générés » explique Allen Nogee, directeur de recherche chez In-Stat.
Enfin, si l'on évoque le paiement comme principale application pour le NFC, il ne faut pas oublier les usages marketing. Des puces équiperont bientôt les panneaux d'affichage, permettant de recevoir des informations en fonction de la publicité affichée. Android intègre également la compatibilité avec NFC dans Ice Cream Sandwich, sa dernière version. Beam permet en effet d'échanger des fichiers entre deux téléphones équipés du système d'exploitation mobile de Google. À Toulouse, on teste cette technologie pour perfectionner les services de location de voitures. L'application Autopartage @Toulouse peut guider le client vers son véhicule garé dans un immense parking. Si les problèmes de sécurité sont résolus – on peut en effet pirater une voiture à distance par ce genre de moyen –, les puces NFC pourraient bien devenir d'un usage banalisé.

 http://www.futura-sciences.com/fr/news/t/technologie-1/d/les-puces-nfc-debarquent_34237/#xtor=EPR-17-[QUOTIDIENNE]-20111027-[ACTU-les_puces_nfc_debarquent]

Un internet du futur pour les Smart Grids


http://www.bulletins-electroniques.com/actualites/68045.htm
L'organisme de recherche de Siemens (Corporate Technology) est devenu le coordinateur technique du projet européen FINSENY (Internet du futur pour l'énergie intelligente), dans lequel des experts en énergie et en technologies de communication recherchent comment les nouvelles exigences des smart grids sont susceptibles de faire évoluer l'Internet. Un objectif est de fournir aux opérateurs de réseaux électriques à faible et à moyenne tension un accès bon marché et fiable aux réseaux de communication - une exigence clée, étant donné que les énergies renouvelables sont appelées à jouer un rôle plus important dans le mix énergétique. Les premières applications pilotes sont prévues pour être mises en place en 2013.

Parce qu'il est peu coûteux et disponibles quasiment partout dans le monde, l'Internet est un réseau idéal non seulement pour les télécommunications, mais aussi pour de nombreuses applications industrielles. Cependant, les normes Internet, qui dans certains cas ont presque 40 ans, sont souvent inadéquates du point de vue technologique. Et les smart grids sont un exemple de nouveau domaine d'application à fort potentiel par et pour lequel l'internet devrait se moderniser. Ces réseaux intelligents, couplant transfert d'énergie et d'informations liées à sa gestion, ont pour objectif d'assurer un approvisionnement énergétique stable, renouvelable et abordable. Cela n'est seulement possible que si tous les acteurs sont parfaitement coordonnés les uns aux autres. En cas de temps ensoleillé par exemple, le système utilisera automatiquement l'énergie solaire pour recharger les batteries des voitures électriques venant se raccorder temporairement au réseau. Par conséquent, il est essentiel que non seulement le transfert d'énergie, mais aussi de communication des données, soit fiable. Dans les réseaux intelligents actuels, les lignes électriques sont déjà souvent utilisées pour transmettre des données de contrôle aux systèmes à basse et moyenne tension. Toutefois, les lignes électriques ne sont pas appropriées pour la transmission de grandes quantités de données sur de longues distances. Et la communication par l'Internet actuel n'est pas encore une solution satisfaisante, puisque les technologies existantes ne garantissent pas toutes des niveaux suffisamment élevés de fiabilité ou de sécurité. Par exemple, lorsque la charge de la ligne est élevée, la transmission des informations de contrôle pourrait être retardée ou perdue. Une autre difficulté actuelle réside dans le fait que les protocoles de l'Internet actuel ne sont pas capables de fournir une sécurité adéquate contre les attaques des hackers sur la fourniture d'énergie.

Moderniser les technologies de l'Internet pour pouvoir contrôler les réseaux intelligents d'une manière fiable, tel est l'objectif du projet porté par Siemens. Les organisations industrielles qui traitent de questions liées aux réseaux intelligents et / ou d'énergie peuvent soutenir le projet FINSENY en devenant membres du groupe Smart Grid. 

 Sources : " Internet of the Future for Smart Grids", dépêche idw, communiqué de presse de Siemens - 23/10/2011 - http://idw-online.de/pages/en/news447149

Rédacteurs : Charles Collet, charles.collet@diplomatie.gouv.fr - http://www.science-allemagne.fr          

Origine :BE Allemagne numéro 545 (27/10/2011) - Ambassade de France en Allemagne / ADIT - http://www.bulletins-electroniques.com/actualites/68045.htm

L'intérieur des immeubles bientôt visible sur Google Street View

Google a décidé d'emmener son outil cartographique encore plus loin. Alors qu'il permettait déjà de voir le monde vu du ciel, puis des rues où l'internaute pouvait se déplacer et admirer les façades des immeubles, il permettra bientôt de rentrer -du moins virtuellement- dans ces derniers.
La firme avait déjà évoqué cette nouveauté au mois de mai. Des panoramiques à 360 degrés de l'intérieur de magasins seront ajoutés à Street View, avait-elle annoncé.
L'application devient donc un outil marketing, où les marques pourront montrer leurs intérieurs et leurs étalages. Les organisations intéressées doivent remplir un formulaire de demande auprès de Google, qui les approuvera ou non. En cas de réponse positive, un rendez-vous sera fixé avec un photographe missionné par Google pour immortaliser les locaux. L'entreprise de Mountain View se réserve la propriété des droits des clichés, et pourra les laisser en ligne même contre l'avis de son client. Si des passants se retrouvent malgré eux sur une image, leurs visages seront floutés.
Google aurait déjà collaboré avec plusieurs milliers de boutiques pour la réalisation de telles prises de vues. Les clichés seront affichés sur Google Street View, et sur la page Google du commerce.
Ces photographies pourraient-elles être utilisées par des cambrioleurs pour préparer des casses ? C'est en tous cas une inquiétude que l'on voit poindre sur le Net. Le concept sera-t-il aussi décliné aux demeures des particuliers ? A suivre...

 http://www.linformaticien.com/actualites/id/21960/l-interieur-des-immeubles-bientot-visible-sur-google-street-view.aspx

Mobile et RFID facilitent le lien entre événement réel et réseau social

Publié le 27 octobre 2011 ,  A propos de... L'Atelier BNP Paribas - Paris
Pour permettre aux marques d'accroître leur communauté sur Facebook, MyCheck Experience propose aux individus présents lors d'une initiative dans le monde réel d'envoyer du contenu sur le réseau social.
Afin de viraliser plus facilement sur les réseaux sociaux un évènement qui se déroule dans le monde réel,  MyCheckExperience propose d'organiser un jeu concours en parallèle avec l'évènement principal, et au cours duquel les actions des participants seront publiées sur leurs murs Facebook. Cela, grâce au mobile ou à des puces RFID. Pour Vincent Herman, co-fondateur de la start-up, "la gamification est le meilleur moyen d'attirer un grand nombre de participants". Le but étant ensuite de les fidéliser, si l'on veut qu'un tel procédé ait du sens. Pour cela, la compagnie propose également de gérer les retombées Facebook de l'évènement.

Une gestion de l'évènement en amont et en aval de celui-ci

A la fois avant (création de pages Facebook spécifiques...) pendant et après celui-ci (remise des cadeaux du jeu concours, mise en ligne de l'ensemble des photos de l'évènement...). Pour Vincent Herman, "il s'agit de faire le lien entre évènements réels et campagne de promotion virtuelle. Ce qui apporte une réelle plus-value, de par l'engagement dans le temps des consommateurs que cela permet". Sur le terrain, le lien entre les participants et le réseau social sera assuré par des hôtesses. Ces dernières inviteront les participants à se faire prendre en photos au cours du jeu concours. Celles-ci seront alors automatiquement publiées sur les comptes Facebook de ces personnes, en scannant le code-barres ou la puce RFID reçus lors de l'inscription (par portable pour les premiers, sous forme de goodies pour les secondes).

Un dispositif évolutif et sécurisé

A noter que la première méthode sera privilégiée lorsque le nombre de participants, et donc le coût d'équipement de chacun d'entre eux en puces RFID se révèlera trop important (lors d'un concert par exemple). Pour information, côté sécurité, lors de l'inscription, un mail de confirmation sera envoyé au participant. Via un lien contenu dans ce mail, il sera possible de désactiver instantanément le lien entre la puce/le code-barre et le compte Facebook, en cas de perte ou de vol par exemple.

 http://www.atelier.net/fr/articles/mobile-rfid-facilitent-lien-entre-evenement-reel-reseau-social

Les managers veulent plus de flexibilité dans les logiciels

Publié le 27 octobre 2011 ,  A propos de... Mathieu Paumard
Les responsables estiment que, souvent, les solutions logicielles qui leur sont proposées ne sont pas aptes à supporter les évolutions du marché. En cause notamment, une trop grande rigidité, et des coûts trop élevés.
Les managers seraient, en grande majorité, peu satisfaits des logiciels et applications utilisés au sein de leurs entreprises. Selon un sondage réalisé par UNIT4 Business Software auprès de 307 professionnels, dans le cadre d'un projet de recherche international mené par le Technology Evaluation Centers (TEC), les trois quarts des personnes interrogées les jugeraient inaptes à supporter les changements et évolutions du marché. On peut évoquer l'apparition de nouvelles régulations et infrastructures ou des évènements comme les fusions et acquisitions de sociétés. En tête des reproches à l'origine de cette frustration, on peut citer la rigidité du système (21%).

Des griefs multiples

Mais aussi la dépendance de l'entreprise vis-à-vis d'un fournisseur ou développer externe (12%), les coûts trop élevés pour changer de logiciel (10%) et le manque de fiabilité des produits proposés (8%). Contrairement à ce que l'on pourrait penser, ce phénomène de mécontentement ne frappe pas uniquement les multinationales qui ont un besoin critique en programmes adaptables mais également les firmes comptant entre 100 et 1 000 employés : 46% des managers de ces sociétés sont insatisfaits des solutions matérielles existantes dans le cadre d'un changement au sein de l'entreprise.

Des solutions rendues inefficaces, faute d'investissement

"Le manque de flexibilité de ces systèmes paralysent de nombreuses compagnies et ne doit pas être sous-estimé", explique P. J. Jakovljevic, analyste chez TEC. Bien souvent, les entreprises doivent opérer des changements au niveau du code des applications pour demeurer compétitives. Un phénomène coûteux, laborieux et qui reposent en grande partie sur les compétences et le bon vouloir de prestataires indépendants. Les logiciels ne seraient donc, dans la plupart des cas, pas modifiés et deviendraient rapidement obsolètes, incapables de répondre aux changements incessants du marché. Les sociétés doivent faire un choix : développer leurs propres plates-formes évolutives ou accepter de dépenser beaucoup d'argent en frais de fonctionnement, dans l'espoir d'observer un rapide retour sur investissement.

 http://www.atelier.net/fr/articles/managers-veulent-plus-de-flexibilite-logiciels

Google+ s’impose en France

Selon les dernières analyses publiées par l’institut Nielsen-Médiamétrie, le réseau social de Google aurait enregistré plus de 3 millions de visiteurs au mois de septembre.

Lancé officiellement le 28 juin dernier dans une version à accès limité et ouvert au public le 21 septembre, Google+ semble séduire les internautes français. À en croire les chiffres de Nielsen-Médiamétrie, le nombre de visiteurs uniques du réseau social n'a cessé de progresser ces derniers mois. Estimé à 421 000 en juillet 2011, puis à plus de 600 000 au mois d'août, il a dépassé en septembre, mois de l'ouverture du réseau au grand public, la barre des 3 millions. À titre de comparaison, en septembre dernier, Twitter, le service de microblogging, a enregistré 2,98 millions de visiteurs uniques (les connexions par mobile et via des applicatifs comme Seesmic ou Echofon ne sont pas comptabilisées) et Facebook un peu plus de 27 millions.

Google+
Proposé par Google pour concurrencer Facebook, Google+ (dites « G+ ») est un outil appartenant à la famille des réseaux sociaux. Il offre à ses utilisateurs un espace qu'ils peuvent utiliser pour y agréger des informations et les partager. Très complet, G+ permet de d'administrer des images de toute sorte, des vidéos (Youtube) et de communiquer notamment grâce à une messagerie instantanée (chat) gérant les échanges audio et vidéo et apte à accueillir jusqu'à 10 personnes en simultané. Quant à la gestion des contacts, elle s'opère de manière simple en créant des groupes de personnes (symbolisés par des cercles) auxquels sont attribués des droits d'accès.
Frédéric Dempuré
 http://entrepreneur.lesechos.fr/entreprise/tendances/actualites/google-s-impose-en-france-10014737.php?xtor=EPR-1500-[LEE_quotidienne]-20111027-[s=461370_n=6_c=608_]-