jeudi 28 juin 2012

Les internautes, plutôt pacifiques lorsqu'il s'agit de collaborer en ligne

A lire sur:  http://www.atelier.net/trends/articles/internautes-plutot-pacifiques-lorsqu-agit-de-collaborer-ligne

Par L'Atelier - Paris 28 juin 2012 online collaboration
Pour qu'une collaboration fonctionne, il est nécessaire que toutes les parties s'entendent. Mais est-ce si facile que ça en ligne ? Si l'on prend l'exemple de Wikipédia, on pourrait le penser.
Près de 99% des articles sur l'encyclopédie libre Wikipédia sont rédigés en collaboration dite "douce" : c'est-à-dire sans animosité entre les différents contributeurs concernant le contenu de ces articles. Ceux-ci se contenteraient simplement de corriger des erreurs mineures jusqu'à l'émergence d'un article consensuel, plutôt que de se lancer dans des "guerres d'édition". Un signe révélateur pour les chercheurs de l'Université de technologies et d'économie de Budapest que la collaboration est possible dans les nouveaux médias sociaux, créant ainsi nombre d'opportunités pour le traitement de tâches de taille et de complexité singulières. Pour en venir à une telle conclusion les chercheurs ont analysé un échantillon de pas moins de 233 000 articles et pages de discussion associées disponibles à la lecture en janvier 2010. Pour déterminer le nombre d'articles sensibles, ceux-ci ont pris en compte deux critères différents.

A la recherche des articles révoqués

Tout d'abord, la longueur des pages de discussion qui est révélatrice d'un conflit lorsque celles-ci sont très fournies. Puis dans un second temps, les chercheurs ont en effet analysé le nombre de révocations par article. Une révocation étant le fait d'annuler la contribution d'un auteur, soit un ajout soit un retrait. Ils sont partis du principe que plus l'article a été remanié plus il est susceptible d'être controversé. Mais cela ne suffisait pas : en effet, bien que les modérateurs de Wikipédia essayent au mieux de limiter ce genre d'actions par un code de conduite et des exclusions, certains articles sont « vandalisés » par des internautes à l'aide de spam et de bot. Les articles particulièrement lus étant des cibles propices, il n'est pas étonnant de trouver des révocations fréquentes. Donc, pour affiner un peu plus la recherche, ils se sont limités aux articles possédant une récurrence de révocations concentrées sur 2 personnes. A partir de ces résultats, ils ont découvert que sur les 233 000 articles de départ sélectionnés, moins de 100 d'entre eux ne présentaient ces caractéristiques et donc pouvaient s'apparenter à des "guerres d'édition".

Culture et autres évènements

Et parmi les similarités entre ces articles controversés, on retrouve notamment les sujets sensibles, tels que l'homosexualité (en particulier pour la page Wikipedia anglophone), la religion, les conflits, comme c'est le cas avec la page sur les îles Liancourt Rocks, un territoire réclamé aussi bien par la Corée que le Japon... Mais pas seulement, les chercheurs ont également constaté des conflits sur des sujets moins épineux comme la citrouille ou Benjamin Franklin. Et ceux-ci diffèrent également en fonction des différentes cultures. Ainsi, les pages espagnoles seraient particulièrement virulentes concernant les articles en rapport avec le football. Et les Allemands ainsi que les Hongrois n'utiliseraient pas du tout les pages de discussion pour commenter les erreurs dans les articles. Enfin selon les chercheurs, la majorité des "guerres d'édition" feraient leur apparition lorsqu'un événement nouveau en rapport avec le thème de l'article surgirait plutôt qu'en cas de désaccord avec le texte de départ.

Capteurs et codes à barres optimisent le fret

A lire sur:  http://www.atelier.net/trends/articles/capteurs-codes-barres-optimisent-fret

Par L'Atelier - Paris 28 juin 2012Fret
Pour optimiser le remplissage des camions, trains et cargos, un moyen est d'identifier chaque chargement afin de pouvoir les tracer et de pouvoir les ajouter au dernier moment à un moyen de transport.
Comment optimiser le remplissage des camions, trains et cargos qui sillonnent l'Europe ? En effet, selon les fondateurs du projet Euridice, beaucoup circuleraient souvent sans être chargés. Ce qui provoque des pertes tant économiques qu'écologiques. Le projet, fruit d'un consortium d'une vingtaine d'entreprises, d'universités et d'instituts de recherche a mis au point un système coopératif permettant de rendre le "fret intelligent". L'idée ? Rendre chaque marchandise indépendante en indiquant son contenu, son contexte (destination, heure d'arrivée...) et faire circuler l'information aux personnes impliquées dans la chaîne de transports.

La technologie au service de la logistique

Cela, en combinant codes à barres sur les chargements, réseaux de capteurs, et système de communication sans fil. Chaque paquet est pourvu d’une ID sous forme de code barre unique, permettant à l’opérateur de l’entrepôt de déterminer son contenu et demander une palette ou un containeur. Grâce à l’ID, il peut accéder aux informations du propriétaire de la marchandise et déterminer son itinéraire. Ainsi, il serait possible de savoir où se trouvent les cargaisons, où elles vont, à quelle heure elles doivent arriver, qui intervient dans les entrepôts et comment se déroule le transport. Le but ? Eviter les retours à vide en optimisant les déplacements des transporteurs. Les responsables d'acheminement, via un système central, pourraient ainsi être capables d'identifier chaque contenu déplacé, sa situation.

Une logistique toujours plus connectée

Mais aussi de s'adapter en fonction des situations et tenir informés les acteurs du processus (entrepôts, opérateurs, destinataires, fournisseurs...). Le but est aussi de trouver de la place dans un camion qui passerait à proximité sans chargement, connaître sa position, tenir informés les destinataires et estimer l'heure d'arrivée des marchandises. A noter que pour optimiser le remplissage des containers, il existe d'autres systèmes comme JOC Exchange, une plate-forme en SaaS permettant d'échanger sur internet de la capacité de stockage de conteneur maritime.

Google dévoile des lunettes, une tablette et un ordinateur sphérique

A lire sur: http://www.ictjournal.ch/fr-CH/News/2012/06/28/Google-etoffe-son-application-de-partage-social-Google.aspx

28.06.2012 17:07  | Mise à jour 28.06.2012 17:39  (Yves Bonzon)
Conférence I/O
NexusLa nouvelle sphère Google Nexus Q.
Google continue d’égrener ses nouveautés à l’occasion de sa conférence annuelle I/O, qui outre certains éléments de hardware comprennent de nouvelles fonctions pour Google+.
Google continue d’égrener ses nouveautés à l’occasion de sa conférence annuelle I/O.
S’agissant du hardware, le géant a présenté comme prévu sa première tablette Nexus7. Conçue pour donner accès aux différentes applications multimédia de Google, dorénavant centralisées sur un portail cloud Google Play, cette dernière mesure sept pouces, dispose d’un écran haute résolution et d’une caméra frontale pour la téléconférence.
Autre nouveauté hardware, Nexus Q est un boitier sphérique - piloté par un smartphone ou une tablette Android - que l’on connecte à des haut-parleurs ou un téléviseur. Cet équipement permet par exemple à plusieurs utilisateurs de diffuser sur un téléviseur commun des films hébergés dans le cloud, selon le principe du «social streaming».  Enfin, Google a présenté des lunettes munies d’une mini-caméra, développées dans le cadre du Project Glass.

Elargir les options de partage de Google+

S’agissant des nouveautés software, Google a présenté la fonction Google Now, qui permettra de contextualiser toutes les requêtes des utilisateurs en fonction de leur localisation, de l’heure de la journée, ou encore de leur historique de recherches.
Par ailleurs, Google lance deux nouveautés liées à Google+, son application de partage social. Tout d’abord, une version Google+ adaptée pour les tablettes Android est désormais disponible, alors que la sortie prochaine d’une version pour l’iPad est annoncée. D’autre part, Google lance Google Events, une nouvelle fonction qui doit permettre aux participants d’un évènement de partager entre eux toutes sortes de contenus comme des photos ou des vidéos.

Web, SaaS, Cloud et BYOD : les technologies de l’entreprise 2.0

A lire sur:  http://www.bluekiwi-software.com/fr/2012/06/25/web-saas-cloud-et-byod-les-technologies-de-lentreprise-2-0/

 
Les réseaux sociaux d’entreprises (RSE) sont l’évolution logique des outils actuels tels que l’e-mail. Et ils posent question aux entreprises, tant d’un point de vue organisationnel que technologique. La rupture est en fait double : outre une évolution des usages qui pousse les salariés à se détourner de leur Outlook, la quasi-totalité des solutions de RSE reposent sur les mêmes socles technologiques, posant ainsi de nombreux questionnements aux DSI.
Si je devais résumer le « pourquoi » des RSE, je dirais : « Partager l’info et la travailler avec les bonnes personne, où que je sois, via le plus de terminaux possible ». Cette promesse fonctionnelle – qui n’a de sens que si elle apporte un confort équivalent ou supérieur à l’existant – ne peut se réaliser qu’à l’aide d’un tryptique : Web, SaaS et Cloud.

Le SaaS devient la norme

Même s’il n’est pas très aimé par les DSI – qui y voient un manque de contrôle sur les applicatifs – le SaaS (Software as a Service) a le vent en poupe pour les RSE. On comprend pourquoi : mise à jour régulière des outils, disponibilité totale et évitant les bugs liés à des versions hétérogènes de l’OS des ordinateurs installés, facilité d’accès, coûts allégés (abonnements au lieu de licences)…
De fait, les RSE excluent les logiciels installés en local déployés sur les tous les ordinateurs des salariés : la seule et unique fenêtre applicative devient celle du navigateur internet. Et c’est là que le premier bât blesse.

Internet Explorer 6 proscrit

En effet nombre d’entreprises utilisent encore l’antédiluvien Internet Explorer 6 (IE6 pour les intimes), or si certaines RSE sont encore compatibles le poids du passé pose des freins : par exemple, le Javascript ne passe pas, ce qui procure moins de confort d’utilisation des RSE (pas de glisser déposer par exemple).
Une solution « évidente » serait de migrer vers une version ultérieure de IE, voire un de ses concurrents come Firefox ou Chrome, mais le coût de redéveloppement de certaines applications métier freine cette migration. Mais la pression exercée par les autres utilisations du web en entreprise pousse à l’éradication à terme d’IE6. De fait, si vous désirez vous équiper d’un RSE, prévoyez plutôt un autre navigateur.

Le Cloud comme hub universel des données

Le Cloud est la troisième clé des RSE : aucune information n’est stockée en local, tout est dans les nuages. Disponibilités totales et synchronisation des données, redondance des sauvegardes, le Cloud est un hub universel  si tant est que l’on ait accès à une connexion réseau de temps en temps…
La connectivité  est, de fait, la pierre angulaire de l’ensemble : sans connexion, le RSE perd de son sens excepté via des technologies comme le HTML5 qui pourra sauvegarder de l’information locale. Mais c’est un faux procès : quelle entreprise peut se passer aujourd’hui d’avoir des salariés connectés ? ne serait ce que pour accéder aux mails, voire à certains documents de l’entreprise en situation de mobilité.

BYOD en embuscade

Reste l’épineuse question des terminaux et de la tendance du Bring Your Own Device (BYOD) dans les entreprises : le SSO (Single Sign On) utilisé sur les intranets est supporté par les RSE via les ordinateurs « classiques », mais comment faire dès qu’il s’agit d’utiliser une tablette ou un smartphone ? C’est tout l’enjeu des applications (iOS, Android, Windows Phone…), qui vont à terme fusionner du code natif avec une gestion de la connectivité et des informations disponibles.

Webifier l’information, la nouvelle frontière de l’entreprise

L’enjeu des RSE est de socialiser la connaissance au sein de l’entreprise, ce qui nécessite une universalité d’accès à celle-ci, donc de « webifier » l’information où qu’elle soit. Facebook le fait aujourd’hui très bien, et c’est cette structure informationnelle et technologique qu’il faut reproduire en l’adaptant aux impératifs des acteurs de l’informatique d’entreprise.
Merci à Christophe Routhieau (Co-fondateur et Directeur produit de blueKiwi) pour ses éclairages technologiques et usages.
Article initialement publié ici par le même auteur dans une version plus courte.

L’Open Source à l’avant-garde d’une nouvelle révolution économique

A lire sur:  http://www.lemagit.fr/article/economie-opensource-red-hat/11368/1/l-open-source-avant-garde-une-nouvelle-revolution-economique/?utm_source=essentielIT&utm_medium=email&utm_content=new&utm_campaign=20120628&xtor=ES-6

Le 27 juin 2012 (18:01) - par Valery Marchive

Pour Jim Whitehurst, Pdg de Red Hat, l’Open Source est à l’origine d’une révolution d’une ampleur comparable à celle de l’industrialisation et de la standardisation... de la production de boulons, au début du XIXe siècle. Une vision que ne renierait pas Paul Cormier, le vice-président exécutif de l’éditeur en charge de l’ingénierie.
L’Open Source à l’avant-garde d’une nouvelle révolution économique
L’Open Source n’a rien d’anecdotique. Jim Whitehurst et Paul Cormier n’ont pas manqué d’insister là-dessus en ouverture de la conférence annuelle de Red Hat qui vient de s’ouvrir à Boston, dans l’état du Massachusetts. Pour le Pdg de Red Hat, le monde est entré dans une économie de l’information : «nous avons passé le point où les actifs informationnels comptent plus que les actifs physiques.» Et ce de l’agriculture - avec l’ingénierie végétale - aux industries de pointe en passant par la banque, les services financiers, et le commerce. Pourquoi ce point d’inflexion est-il désormais franchi ? «Parce que nous disposons désormais de composants standardisés» pour manipuler l’information. Une évolution que Jim Whitehurst compare à l’automatisation de la production de vis et de boulons standardisée au début du XIXe siècle : «c’était la plus grande innovation du monde industriel - des pièces standardisées. Et aujourd’hui, 60 ans après l’invention de l’ordinateur, nous abordons une phase comparable de composantisation de l’informatique, avec le Cloud Computing. L’informatique devient une commodité.» Comme d’autres avant elle. Le Pdg de Red Hat reconnaît (rapidement) que ce type de transformation ne se fait pas forcément sans douleur, chaque domaine d’activité cherchant à profiter de cette évolution pour réduire ses coûts; il évoque notamment la disparition de la chaîne Blockbusters, icône des années VHS et DVD : «ce n’était qu’un coût transactionnel; il y en aura d’autres qui disparaîtront; les coûts transactionnels vont imploser.»
Eviter toute captivité 
2012 40Mais pour que le Cloud Computing commence à tenir ses promesses, c’est grâce à l’Open Source, soulignent tant Jim Whitehurst que Paul Cormier. Pour ce dernier, c’est l’IT qui est ainsi en pleine mutation : «le Cloud est construit sur l’Open Source; et les applications sont construites dans le Cloud.» D’ailleurs, pour le vice-président exécutif de Red Hat en charge de l’ingénierie, les DSI vont devoir faire un choix, «un choix critique, peut-être le plus important de la décennie : comment aller vers le Cloud.» Et de détailler trois voies pour cela : partir de zéro; «ajouter un silo Cloud à l’infrastructure - c’est ce que VMware veut que vous fassiez [...] parce que c’est à peu près tout ce qu’ils savent faire », lance-t-il à l’assistance - ; ou déployer un Cloud hybride ouvert. Et pour cela, Paul Cormier met naturellement en avant l’Open Source et, surtout l’offre de Red Hat : «pour cela, il faut un environnement applicatif cohérent de bout en bout [...] Et il n’y a que deux éditeurs à savoir le faire - Microsoft et Red Hat. À vous de choisir entre un monde propriétaire ou ouvert.»
L’autre combat : les brevets
Pour Jim Whitehurst, le choix est bien sûr celui de l’Open Source. Il souligne d’ailleurs que, dans le monde du Big Data, selon lui, «toutes les innovations majeures sont ouvertes et Open Source. Et ce n’est qu’un début [...] parce que ce qui compte, ce ne sont pas les composants standardisés, c’est ce qu’un développeur quelque part dans le monde en fera ». Ainsi, la standardisation des composants peut bousculer des chaînes de valeur existantes, c’est surtout, pour Jim Whitehurst, le point de départ «d’une explosion de l’innovation ». Dès lors, pour le Pdg de Red Hat, si l’Open Source est parvenu à devenir une option aussi sérieuse que le logiciel propriétaire, tout n’est pas joué : «la prochaine bataille sera celle des brevets. Si quelqu’un avait breveté les boulons, nous n’aurions pas de moteurs à réaction.»

Le goûteur High Tech, testeur de toxicité

A lire sur:  http://www.bulletins-electroniques.com/actualites/70410.htm

Lors de ses grands banquets dans la ville de Kitai Kubilaï, Grand Khan du puissant empire mongole utilisait des baguettes taillées dans l'os de l'avant-bras d'un gibbon parce qu'elles noircissaient au contact de nourritures empoisonnées.

L'empoisonnement volontaire de la nourriture fut de tout temps le moyen le plus discret d'éliminer un ennemi; ainsi tout roi à la cour de France disposait d'une armée de goûteur testant chacun de ses plats. Mais loin des plans machiavéliques ourdis dans les plus grands palais, l'intoxication alimentaire reste une réalité quotidienne: nourritures périmées, avariées ou ayant subi une rupture de la chaine du froid.

Dans cette optique, le prof. Yosi Shacham-Diamand, vice-recteur de la faculté d'ingénierie de l'université de Tel Aviv et le prof. Shimshon Belkin de l'institut de biologie de l'université Hébraïque de Jérusalem ont associé leurs savoirs pour créer un bio-capteur d'un genre nouveau capable de détecter toute forme de toxicité dans un aliment. Leurs travaux ont été publiés entre autres dans le journal "Electrochimica Acta and Sensors and Actuators". Ce système révolutionnaire, répondant au nom de "Dip Chip" contient des microbes génétiquement modifiés qui réagissent en présence de toute trace d'élément toxique. Cette réaction est ensuite traduite en un signal électrique.

Cette conversion fit l'objet d'une longue recherche: "Dans mon laboratoire, nous développons une méthode pour communiquer avec les microbes, convertissant leurs réponses biologiques en signal électrique" explique le prof. Yosi Shacham-Diamand. Le système qui s'apparente à une jauge, immobilise les microbes proches d'une électrode. Lors d'un contact entre ces microbes et une substance en question, ces derniers produisent un signal chimique converti en courant électrique par un appareil capable d'interpréter ce signal, et de produire un diagnostique binaire : toxique ou non-toxique.

La puissance de cette innovation réside dans sa capacité à détecter la toxicité et non l'élément toxique. "Il y a déjà de très performants détecteurs qui identifient un élément toxique spécifique" explique le prof Shacham-Diamand. Le Dip Chip par contre alerte l'utilisateur d'une toxicité générale causée par n'importe quel élément toxique, y compris ceux qui n'ont pas été découverts ou inventés!"

Le prof. Shacham-Diamand prédit une application commerciale permettant de connecter le Dip Chip à n'importe quel smartphone ou tablette et d'en faire ainsi un système portable et grand public. Le Dip Chip montre un excellent taux de réussite durant les tests auquel il est soumis et semble promis à un bel avenir.

Pour en savoir plus, contacts : Prof. Yosi Shacham Diamand - Faculty of Engineering, Tel - Aviv University, Ramat-Aviv, Tel-aviv, Israel - email address : yosish@eng.tau.ac.il

Code brève,  ADIT : 70410

Sources : http://www.aftau.org/site/News2?page=NewsArticle&id=16549

Rédacteurs : Benjamin Kupfer, VI Chercheur à l'université Bar-Ilan           

Origine : BE Israël numéro 79 (27/06/2012) - Ambassade de France en Israël / ADIT - http://www.bulletins-electroniques.com/actualites/70410.htm

Google va lancer des « smart-lunettes »

A lire sur:  http://www.lesechos.fr/entreprises-secteurs/tech-medias/actu/0202144680570-google-va-lancer-des-smart-lunettes-338610.php?xtor=EPR-1500-[nl_8h]-20120628-[s=461370_n=3_c=304_]-409905656@1

Par Les Echos | 28/06 | 06:54 | mis à jour à 08:58

Le groupe américain a dévoilé des lunettes proposant caméra et Internet intégrés. La commercialisation est prévue d'ici 2014.

En bourse
AFP
AFP
Le géant de l'internet Google a présenté mercredi à San Francisco la première génération d'une paire de lunettes futuristes avec caméra et internet intégrés, dont la commercialisation auprès du grand public est prévue dans un peu plus de deux ans.
Le co-fondateur de Google, Sergey Brin, a détaillé le plan de lancement de ces lunettes devant des développeurs --les créateurs d'applications pour appareils informatiques --réunis en conférence annuelle à San Francisco.
Des parachutistes ont fait la démonstration du nouveau produit en filmant et diffusant en direct, avec leurs lunettes, leur vol puis leur atterrissage sur le toit du Centre de Convention de San Francisco.
« Je suis tellement heureux que cela ait marché. Je ne m'y attendais pas », a déclaré M. Brin avant de présenter sur scène un exemplaire « Explorer » des Google Glass, que les développeurs peuvent acheter pour 1.500 dollars.

« Idée folle »

Ce modèle de première génération sera disponible début 2013, avant la commercialisation, un an plus tard, d'une version pour le grand public. « Google Glass Explorer est encore une ébauche », a précisé M. Brin. Elle est destinée aux passionnés qui veulent participer aux balbutiements d'une nouvelle technologie, a-t-il dit.
« C'est une nouvelle technologie et nous voulons vraiment que vous y preniez part », a-t-il lancé aux développeurs.
Les Google Glass sont équipées d'une caméra intégrée, d'un micro et peuvent se connecter à l'internet par wifi ou par Bluetooth. Des mini-écrans sur les verres permettent d'afficher des textos ou des courriels.
« C'est ce genre d'idée folle qui finit par devenir réelle », a affirmé M. Brin. « Le fait de pouvoir vous jeter dans le vide tout en faisant partager votre expérience (avec des lunettes posées sur le nez) rend l'usage d'un smartphone ou d'un ordinateur portable vraiment bizarre », a-t-il ajouté.
Le co-fondateur de Google a précisé qu'il portait un prototype des Google Glass la plupart du temps, alors que l'équipe qu'il dirige au sein du groupe, le X Lab, peaufine cette nouvelle technologie.
AVEC AFP

Google casse les prix dans les tablettes

A lire sur:  http://www.lesechos.fr/entreprises-secteurs/tech-medias/actu/0202143066713-google-lance-sa-tablette-a-199-dollars-338378.php?xtor=EPR-1500-[nl_8h]-20120628-[s=461370_n=3_c=304_]-409905656@1

Par Maxime Amiot | 27/06 | 19:45 | mis à jour à 21:09

Google a annoncé, à l'occasion de sa conférence annuelle des développeurs, la sortie prochaine de sa propre tablette tactile, baptisée Nexus7.

En bourse
DR
DR
Google passe à l'offensive sur les tablettes. A l'occasion de sa conférence des développeurs, qui se tient actuellement en Californie, le géant de l'Internet a confirmé mercredi le lancement de sa tablette tactile, le Nexus 7. Dotée d'un écran de 7 pouces (contre 10,1 pour l'iPad), elle intègre un processeur Tegra 3, avec une version Android 4.1.
Le tout pour un poids plume (340 grammes). Elle sera commercialisée via sa boutique en ligne Google Play et sera disponible dès jeudi aux Etats-Unis, au Canada, en Angleterre et en Australie, pour n'être livrée qu'à partir de la mi-juillet. L'appareil sera fabriqué par le groupe taïwanais Asus.
Cette sortie ne débouchera pas forcément sur un marché de masse. Dès 2010, Google avait lancé son premier smartphone, le Nexus One, fabriqué par HTC, avant de réitérer l'année suivante avec le Nexus S. Deux lancements qui avaient surtout servi à mettre en avant le système d'exploitation du groupe, Android et ses potentialités. D'ailleurs, la Nexus 7 sera équipée du tout nouveau système d'exploitation du groupe, dévoilé mercredi : « Jelly Bean ».

199 dollars pour la version 8Go

La Nexus 7 pourrait néanmoins bousculer le marché grâce à son prix. La tablette sera ainsi commercialisée à partir de 199 dollars (pour la version de 8 Go), et jusqu'à 249 dollars (pour la 16Go). Soit un prix bien inférieur à l'iPad d'Apple (499 dollars pour 8 Go), et équivalent à celui de la Kindle Fire, sortie en novembre dernier aux Etats-Unis, et dont l'écran mesure également 7 pouces. Selon les informations du site Internet Cnet, la seconde génération du Kindle Fire d'Amazon devrait voir le jour fin juillet. Le prix devrait resté à 199 dollars.
Google se place ainsi clairement sur le terrain de jeu de la tablette d'Amazon. D'autant que le géant de l'Internet a renforcé son offre de contenus Google Play, via une série de partenariats (ABC, Sony Studios, Disney et Paramount entre autres), qui renforceront son offre de vidéos, de musique, mais aussi de magazines (Condé Nast).
Preuve des ambitions du géant sur l'« entertainment », Google a également dévoilé mercredi un « media player », le Nexus Q. Cet appareil, en forme de boule, permettra de streamer ses contenus audio et video sans fil d'un écran à l'autre. Cette réponse à Apple et à sa technologie Airplay sera commercialisée uniquement aux Etats-Unis, à 299 dollars.
Écrit par Maxime AMIOT

Google sort sa tablette, la Nexus 7

A lire sur:  http://www.lecho.be/actualite/entreprises_technologie/Google_sort_sa_tablette_la_Nexus_7.9207993-3059.art?utm_medium=email&utm_campaign=MORNING_COMMENT&utm_source=SIM

plus d´informations dans Technologie

Google commercialisera à la mi-juillet sa Nexus 7, sa première tablette numérique. Avec son prix de 199 dollars et sa taille de 7 pouces, la tablette de Google vise directement à concurrencer le Kindle Fire d'Amazon, qui rivalise actuellement sur ce marché avec l'iPad d'Apple.

Google s'est lancé dans la guerre des tablettes électroniques en dévoilant mercredi sa Nexus 7, une porte d'accès aux ventes de films, livres ou films sur le magasin en ligne du géant de l'internet, destinée à concurrencer le Kindle Fire d'Amazon et, dans une moindre mesure, l'iPad d'Apple.

La nouvelle tablette coûtera à l'achat 199 dollars, soit moitié moins que le leader du marché, l'iPad d'Apple, et augmente l'arsenal de Google dans sa bataille contre le fabricant à la pomme et le géant des logiciels Microsoft.

Dotée d'un écran de 7 pouces (près de 18 centimètres) cette tablette, équipée d'une caméra frontale, pèse 340 grammes, soit à peu près autant qu'un livre de poche.

Elle fonctionnera avec la dernière génération du système d'exploitation du groupe, Android, et sera fabriquée pour Google par le Taïwanais Asus, selon le chef de la branche Android de Google, Hugo Barra.

"Nous voulions rassembler le meilleur de l'expérience Google, optimisé autour du contenu disponible sur Google Play", le magasin en ligne du groupe, a ajouté M. Barra en présentant la tablette à l'ouverture de la conférence annuelle "Google I/O" des développeurs du géant informatique à San Francisco (ouest des Etats-Unis).

Les tablettes Nexus sont d'ores et déjà disponibles sur commande en Australie, au Canada, en Grande-Bretagne, et aux Etats-Unis sur le magasin Google Play, au prix de 199 dollars, pour être expédiées à la mi-juillet, a détaillé Barra.

Les tablettes seront livrées avec un bon d'achat de 25 dollars pour Google Play.
MISER SUR LE DIVERTISSEMENT AVEC GOOGLE PLAY
Google a également présenté un appareil sans fil fonctionnant sous système Android, Nexus Q, pour visionner des films ou écouter de la musique en flux sur des téléviseurs ou par des haut-parleurs.

Parallèlement, le groupe va développer Google Play pour proposer plus de divertissement: le magasin en ligne recense désormais "plus de 600.000 applications et jeux plus de la musique, du cinéma et des livres", a fait valoir Google sur son blog.

"Tout est externalisé ("cloud-based"), ce qui veut dire que tous vos contenus sont toujours disponibles sur tous vos appareils", ajoute-t-il.

Pour les films, les internautes auront le choix entre la location et l'achat. Des magazines des groupes Hearst, Conde Nast et d'autres groupes de médias seront disponibles.

Le groupe décrit Nexus 7 comme une "nouvelle tablette puissante", qui fait tout, y compris les jeux vidéos, extrêmement vite".

Le développeur pour le système Android Chris Yerga a jugé que le Nexus 7 était "une véritable console de jeux".

Google a également annoncé le lancement d'une nouvelle version de son système d'exploitation Android pour appareils mobiles, "Jelly Bean," qui est une amélioration du système actuel, "Ice Cream Sandwich", et qui devrait rendre tout "plus fluide et plus rapide".

"Le clavier est plus intelligent et précis, il prédit votre prochain mot. La dictée vocale est plus rapide et fonctionne même lorsque vous n'avez pas de connexion", ajoute-t-il.

Si Android s'est hissé au sommet du marché des téléphones mobiles, Apple continue à dominer celui des tablettes et détient autour de 62% du marché contre 36% pour les tablettes sous système Android, d'après le cabinet de recherche IDC.

Google dévoile la Nexus 7 une semaine après que Microsoft a présenté sa propre tablette, Surface, qu'il prévoit de mettre sur le marché plus tard cette année pour lui aussi tenter de s'attaquer à la suprématie d'Apple.

Amazon : une nouvelle tablette dévoilée en juillet ?

A lire sur:  http://pro.clubic.com/entreprises/amazon/actualite-498626-amazon-tablette-devoilee.html

Partager cette actu
Kindle Fire
Le Kindle Fire premier modèle
Amazon pourrait dévoiler de nouveaux produits le 31 juillet prochain, selon une source proche de l'entreprise consultée par CNET. En ligne de mire, une nouvelle génération de Kindle Fire.

Alors que la tablette Nexus 7 de Google pourrait être annoncée cette semaine – voire ce soir ? – lors de la conférence I/O, et que des spécifications fuitées la présente comme intéressante aussi bien côté performance de côté prix, Amazon serait déjà sur le point de contre-attaquer.

C'est tout du moins ce qu'explique CNET, qui tiendrait même d'une source proche de la firme de Jeff Bezos une date d'annonce, à savoir le mardi 31 juillet. Une information à prendre avec des pincettes, Amazon ayant annoncé ses précédents produits un mercredi – le 28 septembre 2011 précisément. Néanmoins, l'arrivée de nouveaux produits au cœur de l'été pourrait concorder avec celle de l'ouverture de l'Appstore Amazon en Europe, qui pourrait elle-même être suivie par l'arrivée d'une tablette tactile dans ces mêmes contrées.

CNET ajoute le Kindle Fire nouvelle génération serait doté d'un capteur photo/vidéo et d'un bouton physique pour régler le son – de quoi répondre à une critique de nombreux utilisateurs, qui reprochent au Kindle Fire de n'avoir que des réglages à l'écran. C'est à peu près tout dans l'immédiat, même si le site Digitimes évoquait de son côté il y a quelques jours une tablette 7 pouces dotée d'une définition de 1280 x 800 pixels.

Amazon ne devrait par ailleurs pas s'arrêter là et dévoiler une ou plusieurs nouvelles liseuses. Néanmoins, le commerçant ne devrait pas proposer un nouveau Kindle a plus bas prix que l'entrée de gamme actuelle, soit 79 dollars : il devrait en proposer un similaire, mais amélioré, au même prix.

Il n'y a plus qu'à attendre pour savoir si Amazon fera parler de lui dans les prochaines semaines, ce qui ne serait sans doute une surprise pour personne, aux Etats-Unis comme en Europe.

mercredi 27 juin 2012

Google fabrique un cerveau artificiel qui reconnaît les chats

A lire sur:  http://www.linformaticien.com/actualites/id/25415/google-fabrique-un-cerveau-artificiel-qui-reconnait-les-chats.aspx

Le titre de cet article semble farfelu, et pourtant... L'idée développée par les chercheurs du Google X Lab l'est au moins autant ! Ils ont en effet connecté plus de 1000 ordinateurs en réseau pour donner vie à une sorte de cerveau artificiel, capable d'apprendre.
Après les lunettes à réalité augmentée, le Google X Lab dévoile un autre de ses projets secrets et délirants. Ses chercheurs se sont employés à créer un réseau fait de 1000 ordinateurs reliés entre eux, soit un total de 16000 processeurs !
Les machines ont été assemblées selon un schéma reproduisant l'architecture d'un cerveau humain et de ses neurones.

"Il a inventé seul le concept de chat"

L'expérience fut un succès : le "cerveau" a été capable d'apprendre à reconnaître les chats dans les images qu'on lui présentait. Si les scientifiques de Google l'ont aiguillé, ils expliquent ne jamais lui avoir dit "ceci est un chat". Le réseau aurait même "inventé seul le concept de 'chat'".
En fait, les machines ont été exposées à 10 millions de thumbnails YouTube (les miniatures des vidéos) choisies au hasard, et ce, pendant trois jours. Puis, le "cerveau" à reçu un échantillon de 20000 images, elles aussi sélectionnées au hasard. Et là, il a commencé a reconnaître les matous présents sur les clichés, grâce à un algorithme assez complexe, qui ne contenait aucune suggestion ou information sur les félins, mais à force d'en voir...
En effet, a aucun moment le "chat" n'a été défini au "cerveau". Les machines de Google n'avaient reçu aucune information à propos des images qu'on allait leur soumettre, mais leurs 16 000 coeurs, en exécutant un logiciel qui simulait le fonctionnement d'un cerveau biologique et de son réseau de neurones fait de près d'un milliard de connexions, sont parvenus à appréhender le concept.

Les chats, rois du Web

Il faut dire que nos amis à moustache sont très présents en ligne, surtout sur YouTube, où un nombre incroyable de vidéos leur sont consacrées. Cette popularité a permis au cerveau artificiel de les reconnaître.
Le "Google Brain" a rencontré des résultats très positifs : il a réussi à identifier les images de chat avec 74,8% d'exactitude. Quant aux êtres humains, il les a identifiés correctement à 81,7% pour leurs visages, et à 76,7% pour diverses parties de leur corps.
Cette performance dépasse de 50% celles précédemment obtenues avec toutes les autres machines capable d'apprentissage, selon les spécialistes.
Le réseau d'ordinateur de Google fait partie d'un projet encore plus large de recherche sur l'apprentissage des machines. Le géant de la recherche espère pouvoir utiliser ces technologies pour l'aider avec ses systèmes d'indexation, mais aussi avec la traduction.
Les chercheurs du X Lab ont été les premiers surpris par les bons résultats obtenus par leur bébé. Ceux-ci ont démontré qu'il était possible d'apprendre sans être guidé.
Nous en saurons plus après la présentation officielle de ces découvertes lors de la Conférence Internationale sur l'Apprentissage des Machines qui se tient actuellement, et jusqu'au 1er juillet, à Edimbourg.
Dans les jours à venir, le projet va sortir de l'espace confiné du X Lab pour être dispatché dans d'autres unités de l'entreprise. A suivre...

Smartphone cameras will crash the cloud, smother the Internet

A lire sur:  http://www.itworld.com/cloud-computing/282363/smartphone-cameras-will-crash-cloud-smother-internet?source=ITWNLE_nlt_saas_2012-06-27

Gartner: Consumers will embrace cloud (then smother it with LOLcats and 'funny' pictures)


By Kevin Fogarty  
A study released by Gartner, Inc. yesterday shows definitively that by 2016 the IT infrastructure of the entire world will be jammed so full of duckfaces, LOL(ish) cats, Like!-able kids and giant libraries filled withmultiple copies of the same mislabeled music files that the flow of actual information will slow to a stop.
Worse, so much of that data will be stored in the public cloud that it will become common for huge chunks of data-cloud to break off the main body of the cloud like gargantuan icebergs splitting from the Arctic glacial sheets and floating away to melt.
Except, chunks of cloud won't float away. They'll crash to Earth, setting off user-complaint shrieks the likes of which you have never heard, spraying entire metro areas with party-pick shrapnel crushing unimaginable numbers of smartphone users too intent on finding a good signal so they can upload their latest pics to see their ironically appropriate doom plunging toward them.
It really is a pretty dramatic story, if you read between the lines a bit.
If you only read the lines that are actually present, prospects for the future are much worse:
In 2011 consumers worldwide could claim only 329 exabytes of data. By 2016 that number will have grown to 4.1 zettabytes (3,728,924,999.68 terabytes, of which 1,342,407,966.72 terabytes will be stored in the cloud).

Why is it a disaster that consumers are willing to use the cloud?

The apocalypse that will destroy us all will have nothing to do with having our sweetbreads gnawed by zombies, being ray-gunned by aliens or following dinosaurs toward the giant museum-display-case in the sky after a giant meteor strike.
No, humanity won't meet its fate with a bang, or even a CRASH, zzzaappp or nom, as the case might have been.
We will smother under choking piles of poor photography and mountainous examples of poor data management.
"As we enter the post-PC era, consumers are using multiple connected devices, the majority of which are equipped with cameras. This is leading to a massive increase in new user-generated content that requires storage," according to Shalini Verma, principal research analyst at Gartner, who was chosen to break the bad news to the rest of us about the bad-data apocalypse, but apparently spoke his lines without screaming or panic as the rest of us would have.
"With the emergence of the personal cloud, this fast-growing consumer digital content will quickly get disaggregated from connected devices," Verma said.
In this case "disaggregated" means people with cameras on every little digital thing will take pictures, record audio and send everything they've ever stored into the cloud, then forget where it is, how (or whether) to delete it and why they shouldn't put up another copy of the same set of files to an account they created because they forgot the username on the first one.

Astounding numbers (with silly names): Disastrous results from consumer empowerment

In 2011 only seven percent of the data consumers hoard was stored in the cloud. By 2016, 36 percent of consumer data will be stored in the cloud, Gartner predicts.
That's an increase in percentages of 514 percent.
I admit, using the percent-change between two percentages is a pretty lame way to describe the shift in technical awareness, online resources and ubiquitous data-access that will allow ordinary people to store so much data in the cloud.
Unfortunately, the legitimate way to describe it – using the specific numbers Gartner used to project the result in five years of current trends in consumer-data storage – is far more ridiculous because of the unbelievable quantities of almost-entirely useless data involved.
(It's also ridiculous because once you get past exabyte, which sounds kind of silly, you're into measurements units like zettabytes, yottabytes, xonabytes and vundabytes, all of which are perfectly legitimate and sound exactly like words made up by toddlers who figure the bigger the word they use to ask for it, the more candy they'll eventually get.)
Right now consumers worldwide own, store or vaguely recognize a total of 329 exabytes of data stored on PCs, smartphones, tablets, hard disk drives, external storage devices and cloud-based storage services, according to Gartner's estimates.

How to waste money, storage and space in the clouds

That's not the same as a giant corporation holding 329 exabytes of data. Corporations pay for their storage, whether it's in the cloud or not.
They also actually care (sometimes) about the quality of the data in those files, how many of them are duplicates or obsolete or corrupt or have the potential to become evidence in really expensive lawsuits.
So corporations will occasionally delete a file, limit the number of lottabytes employees are allowed to store, or move big chunks of those files off hard drives, servers and clouds and onto nice, cheap DVD or tape storage.
Consumers just put files "up" in the cloud and leave them there on the assumption they'll eventually find a use for a video of someone's dog lip-syncing Who Let The Dogs Out, and will need to access it using whatever device they have on hand, brushing aside the objections of every single person within earshot who is asking not to be subjected to that particular video again because every single one of them have their own copies, also up in the cloud, also duped from old user accounts they can no longer find.
By 2016, Gartner predicts with hardly a quaver of fear (or disgust) in its voice, that only 64 percent of all consumer data will be in any kind of on-premise storage.
In 2011, 93 percent of all consumer data was stored in actual objects under the consumer's control, occupying the consumer's own personal space, and forcing consumers to buy, organize and keep track of all the devices and media on which they stored all their data. True, all that storing and organizing prompts many consumers to wish there was one place they could put it all where they could just search rather than have to look around the real world for the device, flash drive or DVD with the video they want.
That should have tipped the rest of us off to the danger, rather than having to wait for Gartner to point it out.
Of course, we didn't notice. We were too busy taking bad photos of our cats or stuffing our DropBox with pictures of the kids (now graduating high school) as toddlers sticking Cheerios to their faces to amuse us (before we got too busy posting pictures online that we kind of lost track of that particular kid).

Smothering the future in congealed grease

Wasting storage space isn't as big a sin as most, of course. You can always delete a file to make more room and re-use the same space on the disk.
You might. Most consumers won't, even if they can find the file or account.
Cloud providers can do it, with stricter storage limits or fewer free cloud-storage accounts. They can't teach consumers discipline and evangelize the whole cloud thing at the same time, though. Cloud providers want consumers to use their clouds, even use them badly if the money is good enough.
Storage providers would be cheering Gartner's prediction of disaster, if their throats were not already hoarse from cheering the last several waves of clouditization, virtualization, multi-devicilization and BYODity that have been driving sales nearly hard enough to make storage interesting.
No one is talking about the downside of all that data weighing down the global IT infrastructure and threatening what we hope will become our way of life.
Instead of flying cars and jetpacks (which would have finally become real if they weren't killed-by-bytes of consumer data), or screaming-fast quantum computers that let us play video games faster than ever, we'll be dealing with the digital version of arteriosclerosis.
Giant deposits of consumer data will clog the wide-open pathways of the intertubes, slow every legitimate data transfer and take back every big leap in bandwidth by slowing us back to 2012 speeds.
Every cloud provider will be driven to distraction (or bankruptcy) by the constant need to upgrade; storage vendors will waste gas and pump more global-warming gasses into the atmosphere driving to the bank over and over and over, laughing hoarsely all the while.
Even enterprise IT budgets will be strained by employees who manage to disguise personal files as "real" data.
Unfortunately, no matter how bad the larding of consumer data onto the Internet becomes, the picture will not be as darkly satisfying as I suggested.
Chunks of gangrenous cloud will die and fall away from the main body, but they won't drop onto the heads of the consumers whose data hoarding caused the problem in the first place.
The epidemic of bad photography, "funny" videos and elaborately obvious PhotoShops labeled "totally legit" will do nothing to crush the perpetrators, in fact. It will crush only those who have to pay for all the storage, maintain all the hardware and networks crowded with dreck and those hoping a transaction or email or TV show will complete quickly so they can go on with the rest of their lives.
Hopes will be crushed. Time schedules will be crushed. Support staffs will be worn down to faint signs of past erosion.
So will the hopes of technologists, entrepreneurs and scientists who imagined humanity would advance if it were given the right tools, access to the right information – art, literature, law, news, education. Instead, Humanity will clog what could have been the neural pathways of a connected planet with LOLcats, blurry photos of co-workers and five-year-old copies of videos that are no longer funny even now.
It's a tragic picture that Gartner paints, though neither Verma nor the other Gartners quoted in various publications seemed to realize it.
They seemed to see the rampant growth as evidence consumers – non-technical civilians who will never know where the actual "cloud" is or whether it involves mist or not – are improving their lot, making their lives more convenient using the newest generation of information technology.
No one is under that particular chunk of falling cloud right now. By the time it hits the ground, though, a lot of us certainly will be.
Read more of Kevin Fogarty's CoreIT blog and follow the latest IT news at ITworld. Follow Kevin on Twitter at @KevinFogarty. For the latest IT news, analysis and how-tos, follow ITworld on Twitter and Facebook.
Photo Credit: 
icanhascheezburger.com

France : de nouvelles fréquences 4G en perspective ?

A lire sur:  http://www.zdnet.fr/actualites/france-de-nouvelles-frequences-4g-en-perspective-39773395.htm#EREC-103

France : de nouvelles fréquences 4G en perspective ?Réglementation - L'Arcep, le régulateur des télécoms, plancherait sur la conversion des fréquences allouées à la 2G en 4G. L'avantage serait double : diminuer le problème des nouvelles antennes et permettre à Free Mobile de plus rapidement se lancer dans le très haut débit mobile.
On pensait le dossier de l'attribution des licences 4G bouclé. Ce n'est peut-être pas encore le cas. Fin 2011, l'Arcep a distribué ces sésames aux opérateurs après une série d'enchères.
Deux types de licences ont été distribuées : dans la fréquence des 2,6 Ghz (Bouygues Telecom, Free, Orange et SFR en ont obtenu une) et dans les 800 Mhz, les fameuses 'fréquences en or' où Free Mobile n'a rien obtenu.
Or ce sont ces fréquences qui sont les plus pertinentes grâce à une couverture bien plus importante. Si Free a obtenu un "droit à l'itinérance" avec SFR, il pourrait finalement aller plus vite que prévu.
Selon Les Echos, le régulateur plancherait sur la conversion en 4G des fréquences de 1800 Mhz actuellement utilisées pour la 2G. Moins qualitative que le 800 Mhz, cette bande est néanmoins plus efficace que les 2,6 Ghz.
Implanter de nouvelles antennes est très compliqué
L'Arcep serait sur le point de lancer une consultation publique sur la question afin d'organiser cette réallocation. Pour autant, rien n'oblige les opérateurs qui exploitent actuellement le 1800 Mhz à vendre des bouts à son concurrent, surtout dans le contexte actuel.
Les Echos rappellent néanmoins que "l'Europe exige que « soient respectés le principe d'égalité et les conditions d'une concurrence effective » entre opérateurs. Traduction : l'Arcep peut donner un coup de pouce à Free Mobile (qui n'existait pas à l'époque où le 1800 MHz a été attribué) si elle juge que l'avantage concurrentiel offert à ses concurrents est trop important". Reste la question du prix et du calendrier.
Cette réallocation n'est par ailleurs pas seulement destinée à favoriser Free. En basculant les 1800 Mhz de la 2G à la 4G, les opérateurs pourraient exploiter leurs réseaux d'antennes 2G déjà existant pour proposer de la 4G.
Or, on sait bien que le déploiement de nouvelles antennes se révèle de plus en plus compliqué, notamment à Paris qui selon tous les acteurs du mobile est très en retard. En mettant en place cette solution, le régulateur enlèverait une sacré épine dans le pied des opérateurs.

mardi 26 juin 2012

MRAM, PRAM, ReRAM : l’avenir de la mémoire

Un ordinateur sans mémoire est aussi utile qu’une bicyclette sans roues. Même si on s’intéresse moins volontiers à elles qu’aux microprocesseurs, les diverses technologies mémoire conditionnent intégralement la structure et l’utilisation d’un ordinateur moderne. Je vous propose donc un petit aperçu de l’avenir proche en la matière.
Vous utilisez couramment une demi-douzaine de mémoires très différentes. Prenons un ordinateur lambda, il renferme en général :
  • Deux ou trois types de mémoire cache dans le processeur.
  • De la mémoire vive : la RAM.
  • De la mémoire Flash si vous avez un SSD ou un disque hybride.
  • Un type d’EEPROM pour stocker le BIOS ou divers firmware.
  • Un disque dur.
  • Éventuellement un lecteur graveur de DVD, etc.
Chacun de ces types de mémoire possède ses spécificités. Ici, il sont rangés par vitesse décroissante en l’occurrence. Le stockage magnétique par exemple est très peu cher (au Go), mais très lent, on peut y stocker énormément de choses, mais mieux vaut y accéder le moins possible. La RAM est bien plus rapide, mais plus chère et volatile, elle ne conserve pas les informations qu’elle contient sans électricité. Elle est aussi bien trop lente pour suivre la cadence du processeur. D’où l’utilité des mémoires caches, ultra-rapide mais hors de prix, et tout aussi volatile que la RAM.
Bientôt la fin ?
Quant à la mémoire Flash, elle conserve les informations sans courant et elle est aussi potentiellement plus rapide qu’un disque dur. Seulement, elle est aussi bien plus chère et bien moins rapide que la RAM standard. En plus, elle s’use. Au bout de 10 000 cycles de lecture – écriture en moyenne, une cellule de mémoire flash devient inutilisable.
Vous l’aurez compris, le fait que l’on ne possède pas de « Mémoire Universelle » nous complique bien la vie.
Imaginez le rêve : des modules mémoire non-volatiles, ultra rapides et peu chers qui pourraient remplacer à la fois la RAM, le disque dur ou le SSD et qui rendraient caduque la notion même de mémoire cache. Nous aurions des ordinateurs de conception bien plus simples : un processeur et un espace mémoire immense complètement unifié.
À la clef, des ordinateurs débarrassés des multiples goulets d’étranglement qui les ralentissent aujourd’hui. Plus besoin de « booter » votre ordinateur, il s’allume et s’éteint aussi vite qu’une ampoule électrique tout en conservant exactement votre session de travail.
Un rêve ? Oui, en l’état actuel de la technologie, cette mémoire miracle n’existe pas encore. Pourtant, les choses pourraient changer dans un avenir pas si lointain. Rappelons le cahier des charges :
  • Basse consommation.
  • Énorme bande passante, au moins autant que la S-RAM des mémoires cache.
  • Compacité et robustesse (pas de mécanique, mais du « Solid State »).
  • Très haute densité, on veut remplacer les disques durs quand même…
  • Fabrication possible en très grande quantité (on évite d’utiliser du platine ou d’autres terres rares…).
  • Longue durée de vie.
Ça fait beaucoup, voyons voir les candidats.
La Mémoire Flash
On la connaît depuis longtemps et on l’aime bien. Elle est omniprésente dans nos tablettes, nos Smartphones, nos clefs USB. Elle est non volatile et suffisamment rapide pour surclasser les disques durs. Son prix au Go ne cesse de baisser. Mais comment fonctionne-t-elle ?
Sommairement, elle est basée sur un type particulier de transistor au silicium : le transistor à porte flottante. Dans un transistor classique, le passage du courant entre la source et le drain est piloté par la « porte de contrôle », comme un simple interrupteur.
Pour stocker un bit (0 ou 1) dans une cellule de mémoire flash, c’est l’état de cet interrupteur qui est « figé ». La porte flottante peut ainsi être maintenue ouverte ou fermée. Une deuxième porte, dite « de contrôle » est juxtaposée à la porte flottante. Les deux sont séparées par une couche d’oxyde qui peut emmagasiner plus ou moins d’électrons.
Pour écrire, on applique une charge à la porte de contrôle, les électrons s’accumulent alors de l’autre côté de la couche d’oxyde. Cet excès de charge « ferme » la porte flottante. La population électronique ainsi modifiée, et donc l’état de porte (ouvert ou fermé) se conserve même sans courant. Pour lire le bit, on mesure simplement le courant qui passe par le transistor, s’il y en a suffisamment, c’est un 1, sinon, ce sera un 0.

L’écriture est une opération plus compliquée que la lecture, ce qui se vérifie tous les jours avec les clefs USB où les vitesses de lectures et d’écritures sont bien différentes. C’est que les mémoires flash ne peuvent s’effacer que par blocs et demande pour ça de recourir à des tensions relativement élevées qui sont souvent générées directement par la puce.
Divers types de cellules existent. Principalement les SLC (1 bit par cellule) et les MLC (plusieurs bits par cellule). Ces dernières sont les plus courantes car les plus denses.
Les SSD montrent bien les avantages et les inconvénients des mémoire flash: rapide, mais cher !
Les mémoires flash se dégradent néanmoins avec le temps. Ou plutôt, avec le nombre d’utilisations. L’oxyde qui se situe entre la porte flottante et la porte de contrôle peut, au fur et à mesure, faire de la rétention d’électrons. Cela va fausser légèrement les mesures de tensions qui déterminent l’état de la cellule. Dans le cas des MLC en particulier, où on utilise plusieurs niveaux de tension seuil afin de stocker plusieurs bits par cellule, ces imprécisions peuvent devenir très gênantes de manière relativement rapide (quelques milliers de cycles).
La mémoire flash manque ainsi de vitesse, de longévité et reste très onéreuse face au stockage magnétique. L’avenir verra sans doute de notables améliorations, mais les puces flash sont des circuits intégrés assez proche des processeurs du point de vue de leurs processus de fabrications, et ils sont soumis aux mêmes limitations. La finesse de gravure des transistors est prépondérante pour la densité et la consommation (et donc la chauffe) des puces. Or, on sait que graver des circuits de plus en plus petits se révèle de plus en plus ardu. Si Intel semble confiant jusqu’au 11nm pour les 5 ans à venir, aller au-delà reste du domaine de la recherche fondamentale.
Or, d’ici là, les mémoires flash pourraient se faire doubler par d’autres technologies fort prometteuses.

Les RAM Magnetorésistive : MRAM
On considère l'électron comme un petit aimant.
Le domaine de la RAM non volatile est en pleine ébullition. Les technologies magnetorésistives sont de type « spintronique ». Elles sont basées sur l’utilisation du « spin » des électrons. Le spin est un phénomène quantique assez étrange relatif (entre autres) aux propriétés magnétiques. Chaque particule possède un spin, comme elle possède une masse ou une charge, sauf que le spin est quantifié, il ne peut pas prendre n’importe quelle valeur. Quoi qu’il en soit, le spin donne un moment magnétique qui fait qu’une particule peut aussi être vue comme un petit aimant.
Un aimant ayant deux pôles, un électron va avoir une orientation (comme un aimant a un « nord » et un « sud ») que l’on peut modifier.
Pour simplifier, une mémoire MRAM est constituée d’une grille de ces minuscules aimants dont on fait varier l’orientation. La lecture se fait en envoyant un courant sur la grille, il sera perturbé par les polarisations magnétiques des « bits » qui pourront ainsi être retrouvés.
Diverses techniques raffinent le processus, dont le STT pour « Spin Torque Transfer » qui permet d’envisager de hautes densités en utilisant moins de courant pour l’écriture, une opération normalement assez couteuse avec la MRAM.
Schéma simplifié d'une cellule de MRAM. L'orientation de la couche libre (en rouge) peut varier.
Des recherches sur ces technologies sont menées depuis 1995 par les plus gros acteurs du marché, IBM, Motorola, Infineon, puis Sony, Toshiba, Hynix, Samsung etc.
La MRAM a des propriétés intéressantes :
  • Non volatile.
  • Faible consommation, inférieure à la mémoire flash car elle ne requiert pas de hauts voltages pour la réécriture.
  • Temps de lecture et écriture équivalents et bonnes performances (temps d’accès de 1 ns, quasi comparables à celles de la SRAM, la mémoire cache des processeurs !).
  • Pas de durée de vie limitée.
  • Résistance aux hautes températures et aux radiations.
Cette dernière qualité rend les MRAM particulièrement attrayantes pour les militaires et l’aérospatiale.
Alors, la MRAM est-elle la mémoire idéale ? Presque, mis à part leur densité, et donc leur prix, elles ont tout pour plaire. Les MRAM sont d’ailleurs une réalité commerciale depuis 2006 grâce à Freescale. Ces mémoires sont encore particulièrement chères (25$ les 4Mbits !) et se destinent à une clientèle très spécifique.
Les choses évoluent vite néanmoins, la STT-RAM est une réalité depuis 2009. En 2011, des Allemands ont annoncé avoir atteint un temps d’accès de 0.5 ns ! Tout récemment, la MRAM devrait faire son entrée comme cache dans des SSD de Buffalo.
En réalité, l’effort de recherche dans ce domaine est considérable et il est possible que la MRAM devienne la mémoire « quasi idéale » de la prochaine décennie. Car c’est tout de même une technologie très nouvelle qui fait face à des produits raffinés par une bonne trentaine d’années de savoir-faire. Elle mettra donc inévitablement du temps à faire son trou… si elle n’est pas supplantée par une autre concurrente novatrice : la PRAM.

La Mémoire à Changement de Phase : la PRAM ou PCM
Le changement de phase est aussi à l'oeuvre dans les DVD-R.
PCM pour “Phase Change Memory”.
Autant le côté magnétique de la MRAM pouvait rappeler la technique utilisée dans les disques durs, autant la PRAM pourra faire penser à celle employée dans les graveurs de DVD.
Le but est ici de stocker un bit en codant l’état (la phase) d’une substance. Disons que 1 correspondra à un état cristallin (atomes organisés), et le 0 à un état amorphe (atomes en bazar).
Une puce de PRAM est divisée en cellules contenant une petite « poche » de verre « Chalcogène ». En faisant varier sa température, on peut le faire passer de son état cristallin, où il est plutôt bon conducteur à son état amorphe où il est résistant. Encore une fois, l’opération de lecture est simple : si le courant passe, on a un 1, sinon un 0.
Un graveur de DVD utilise un laser pour faire fondre de petites portions du disque et ainsi changer sa phase ce qui modifie son indice de réfraction. La substance utilisé est d’ailleurs aussi un verre Chalcogène !
La PRAM est assez rapide et on n’a pas de pénalité à l’écriture comme avec la flash. Elle se dégrade également beaucoup moins vite que cette dernière (dans les 100 000 fois !). Elle est aussi très dense, mais globalement, elle reste pour le moment plus lente que notre bonne vieille RAM.

Pour le moment, car la recherche va bon train. IBM, Samsung, Micron et de nombreuses universités sont sur le coup.
Trouver la bonne substance est crucial pour faire une PRAM compétitive, il faut qu’elle cristallise vite, mais pas à trop basse température. Tout dernièrement, des vitesses de cristallisation de 0.5 ns ont été atteintes à Cambridge. Un module de PRAM aussi rapide pourrait sans problème remplacer simultanément la RAM et les SSD de nos machines. On est quand même encore loin d’une production industrielle, la stabilité du processus doit encore être vérifiée.
Un prototype de PRAM en 90nm de 128 Mbit fait par Intel et ST en 2008.
C’est tout ?
Bien sûr que non. Vous vous rappelez des memristors ? J’en avais parlé il y a quelques mois. Ce sont des composants électroniques théorisés en 1971, mais qui n’ont été réalisés que l’année dernière par HP. Grossièrement, ce sont des résistances variables. On peut donc stocker des informations en fonction de la valeur de cette résistance. C’est le principe de la ReRAM pour « Resistive RAM ». Une découverte importante vient d’ailleurs d’être réalisée par des étudiants de UCL (University College London).
Intrigués par le comportement instable d’un oxyde de silicium destiné à fabriquer des LED, ils décident d’en étudier les propriétés électriques et découvrent qu’on peut en faire un excellent memristor. La vitesse à laquelle la résistance du composant change est bien entendu cruciale, et celui découvert à UCL est très rapide (presque 100x les performance d’une RAM traditionnelle) et très économe en énergie. Pour le moment, on est à peine au stade du prototype. Lequel reste d’ailleurs très “gros”, il devra être miniaturisé un bon million de fois avant de prétendre éradiquer les mémoires flash, mais un grand pas vient d’être fait.
Le prototype de mémoire résistive réalisé à UCL.
Mieux encore, le memristor ne se contente pas d’encoder un 0 ou un 1, il peut avoir de multiples états. Une puce à base de memristor peut même être programmée, comme un microprocesseur ou même… comme un cerveau, à l’image du concept de puce « neuromorphe » d’Intel.
 

Et c’est pour quand ??
Précisément… difficile à dire. Mais il y a des chances que d’ici dix ans, les ordinateurs soient bien différents de nos machines actuelles et pas simplement au niveau de la puissance brute. L’objectif est clair : la quête de la mémoire universelle est en cours, et des candidats prometteurs sont d’ores et déjà mis à l’épreuve. Nous allons donc à moyen terme vers une simplification des hiérarchies-mémoire, une disparition possible des mémoires volatiles et avec elles de la notion même de « boot ». Peut-être qu’à plus long terme, on assistera à une convergence entre mémoire et processeur à l’image même du cerveau dans lequel il n’y a pas à priori de « zones de stockage » et de « zones de traitement » séparées. Mais la puce neuromorphe théorique d’Intel n’est sans doute pas encore pour demain, le neurone spintronique proposé n’existant pas encore.

Wi-Fi gratuit dans le métro parisien : 48 hotspots ouverts par Gowex

A lire sur:  http://www.zdnet.fr/actualites/wi-fi-gratuit-dans-le-metro-parisien-48-hotspots-ouverts-par-gowex-39773423.htm#xtor=EPR-100

Wi-Fi gratuit dans le métro parisien : 48 hotspots ouverts par GowexMobilité - La société espagnole Gowex, spécialisée dans les solutions de connexions sans-fil dans les transports publics, a activé ce matin ses hotspots dans le métro parisien. Couloirs RATP, sortie de station, quais de métro et RER, 48 points d’accès sont disponibles dès à présent.
C’est donc bien Gowex qui a décidé de permettre aux franciliens de surfer dans le métro. La société espagnole a dévoilé ce matin la liste des stations de bus, métro, RER dans lesquelles le réseau Gowex Free WiFi est disponible. Pour délivrer ce service, Gowex exploite les installations de Naxos, la filiale de la RATP.
S’il était déjà établi que les connexions ne seraient pas possibles dans les rames en mouvement du métro parisien, la rumeur courait que les hotspots seraient uniquement placés sur les quais des transports souterrains. On sait désormais que seuls quelques quais seront couverts par Gowex. En contrepartie de nombreux « espaces d’échanges » (comprenez couloirs de métro) et arrêts de bus sont de la partie.
Jusqu’à 1 Mbit/s
Pour avoir accès au Wi-Fi gratuit, la méthode est simple. D’abord, télécharger l’application depuis le portail de Gowex (ou depuis GooglePlay et l’AppStore). Après avoir renseigné une adresse mail, un numéro de téléphone et une date de naissance, l’utilisateur recevra un SMS contenant son mot de passe temporaire qu’il pourra modifier à sa guise.
Il suffira ensuite de passer par l’application pour se connecter depuis les hotspots présents dans les transports en communs parisiens, puis d’utiliser son navigateur habituel pour entamer la navigation. Le test que nous avons effectué ce matin en gare RER d’Auber était plutôt concluant.
Depuis un Samsung Galaxy S2, la connexion au réseau Wi-Fi s’est effectuée facilement et une fois les informations rentrées, le débit maximal de 1 Mbit/s promis par Gowex était quasiment atteint. En somme, la navigation était très fluide.
Seulement le Wi-Fi n’est pas la technologie la plus adaptée à l’itinérance. Aussi, en toute logique, la couverture du réseau à une station donnée n’est pas équivalente suivant que l’on se trouve à une extrémité de la station ou à une autre. Pour rappel, un émetteur Wi-Fi couvre une surface d’un rayon moyen de 30 mètres.
Par ailleurs, les stations ne disposent pas toutes d’antennes en souterrain. C’est le cas par exemple de la station St-Lazare où il est possible de capter le Wi-Fi uniquement depuis  la sortie de la bouche de métro. Cette dernière n’étant pas forcément très bien abritée, en temps de pluie (comme en ce mardi matin de juin…) il n’est pas très agréable de surfer en extérieur.
Des financements encore flous
Gowex propose déjà des services comparables dans 60 villes partout dans le monde, notamment à Bordeaux, depuis le mois de mars. Ainsi l’identifiant unique délivré sur l’application assurera à l’utilisateur une couverture Wi-Fi dans toutes les villes où Gowex est installé.
Dans ces différents pays, Gowex a établi des partenariats avec des annonceurs pour effectuer des campagnes de publicité géolocalisée. Aucune campagne similaire n’a été lancée en France pour l’instant.
Un mystère demeure donc, celui du financement. En effet, à part les quelques publicités présentes sur le portail de Gowex, et un hypothétique bandeau publicitaire affiché dans l’application (évoqué lors de la présentation presse mais absent lors de notre test), les sources de revenus de la firme espagnole semblent très incertaines.
Karim Bouchfanj, directeur de Gowex France, a tout de même évoqué la possibilité de voir arriver des « offres complémentaires » dans les semaines à venir. Des services premium payants ne sont donc pas à exclure totalement.
Enfin il est bon de rappeler que cette opération n’est qu’un projet pour Gowex. La société espagnole se donne 9 mois pour observer l’attrait des franciliens pour le Wi-Fi dans les couloirs de métro.




10 development technologies that refuse to die

A lire sur:  http://www.techrepublic.com/blog/10things/10-development-technologies-that-refuse-to-die/3296?tag=nl.e055

Takeaway: Even as new tech drives IT forward, certain systems and languages keep the past alive. Here are 10 technologies that will be with us for a while.
The world of software development has a strange irony to it. On the one hand, technology is changing so quickly that developers are forced to constantly learn new tricks to stay current. On the other hand, existing projects and code are so hard to replace, systems can stay in maintenance mode for decades, slowly being significantly rewritten but never actually replaced. These 10 technologies are ones that software developers will be using for a long, long time, even if some are past their heyday.

1: COBOL

COBOL is all over the place and probably always will be. There are millions of lines of COBOL code out there powering banks and insurance companies and other mission-critical systems that handle massive amounts of data. Many of these systems will be in services for decades if not centuries without replacement.

2: VBA

A lot of systems that use VBA, VBScript, or VB6 (all related technologies) are outdated. But VBA is still the macro language for Microsoft Office, and plenty of people depend upon it to do their jobs. As miserable as it is to work in VBA (it has collections but does not allow you to check if a value exists in them?), it will be around for quite a while unless Microsoft somehow comes up with a suitable alternative.

3: .NET WinForms

When Microsoft came out with .NET, developers used WinForms to make Windows applications with it. WinForms was a thin veneer on top of the Win32 API, and for VB6 and MFC developers, it felt very comfortable. For better or worse, Microsoft is replacing WinForms with XAML; first in Silverlight and WPF, and now with Metro. All the same, the fast rise of .NET meant that tons of WinForms applications were built — and they will be maintained for a long time, just like the VB6 applications out there.

4: Flash

A few short years ago, it was impossible to even imagine a Web without Flash. It was everywhere. While Flash still is everywhere, HTML5 threatens to push it out of its spot for rich Web development. Even so, there will be existing Flash work out there for ages, and it will be maintained and extended. HTML5 still can’t replace Flash for some things, either.

5: C

Until fairly recently, C was enjoying a graceful, slow drift away from actual application development and being relegated to the roles of hardware driver and operating system development. And then the iPhone (and later, iPad) were released, causing a massive surge in use of Objective-C, which is a superset of C. Now, thousands upon thousands of developers have learned C in the last few years and used it to write hundreds of thousands of cutting-edge applications. Talk about a comeback! The popularity of iOS will ensure that C will be used for application development for some time to come.

6: FORTRAN

If languages were people, FORTRAN would be regarded as COBOL’s fuddy-duddy spinster aunt. But like COBOL, FORTRAN was the language of choice for certain industries and sectors, a pile of code got written in it, and replacing that code is basically impossible. Where COBOL runs the banks, FORTRAN runs things like weather prediction.

7: SQL

SQL is a strange case. On the one hand, databases that use SQL are still all over the place, and SQL is often the only way to work with them. So it is no surprise that the SQL language itself is out there in spades. What is a surprise is how many developers are still writing a lot of SQL code. With all the various database abstraction systems out there, such as the ORMs (Hibernate, Entity Framework, etc.) and other systems (Active Records, LINQ), why in the world does anyone actually write SQL into their applications? It should be the (very rare) exception, not the norm, yet many developers find a need to write SQL. Even if everyone stopped writing SQL by hand tomorrow, though, systems would be automatically generating it anyway.

8: ASP.NET WebForms

When ASP.NET was first released, WebForms had the unenviable task of trying to make Web development feel as familiar as possible to traditional desktop application developers. To make it even more of a challenge, it carried over and extended many of the technologies from Classic ASP, while completely changing the overall model. WebForms clearly suffered from serving too many masters, and less than 10 years later, Microsoft was pushing ASP.NET MVC’s streamlined model in its place. Like WinForms, the WebForms’ similarities to previous systems led to rapid adoption, so WebForms Web applications will be around for quite some time.

9: Java

Java is nowhere near being close to a decline. It is still a strong, vibrant ecosystem. But if and when the day comes that people start referring to it as “legacy,” it still will have many, many years left. It is no surprise that Java is often called “the modern day COBOL” by industry observers. It has a combination of traits (like running on *Nix servers and mainframes) that makes it attractive to the same industries that COBOL appeals to. Java has made impressive inroads into those areas, and even if the flashier uses of Java (like Web development) go away, it will still hold a prime spot in the world of Big Iron.

10: HTML

It is hard to believe, but at one point, the Web was little more than a way of posting documents online so that you could easily access one document from another. About 20 years later, and HTML is now a wildly popular development system that has enabled an unimaginable revolution in how computers are used. And the funny thing is, up until HTML5, it was never deliberately designed to fulfill the role it was filling. It is hard to imagine a computing world without HTML (or one of its descendants) in the future.

Other persistent technologies?

What languages and systems do you think will be hanging around for the foreseeable future? Share your predictions with fellow TechRepublic members.