Intel fait partage de ses perspectives de l’expérience utilisateurs lors du forum IDF
mar, 14/09/2010 - 11:23
La société Intel tient son forum des développeurs à San Francisco du 13 au 15 septembre. Les Intel Labs organisaient hier un briefing médias pour présenter leurs actions de recherche et leurs perspectives pour l’expérience utilisateurs des technologies de l’information et des communications (TIC).
Intervention plénière de Genevieve Bell : « All you need is Love : l’avenir de l’expérience informatique »
Elaborer les expériences TIC de demain qui plairont au public commence par la compréhension de ce que celui-ci apprécie dans la vie quotidienne aujourd’hui. Dans cette première intervention, Genevieve Bell, Intel Fellow et directrice de la division Interaction & Experience Research, a évoqué l’approche adoptée par son équipe pour aménager des expériences attractives qui alimenteront la prochaine vague des progrès techniques. Elle a ainsi montré en quoi la vie réelle s’inspire de l’innovation de sorte que les technologies futures s’adaptent à nos modes de travail et de vie, et les améliorent.
Intervention plénière de Horst Haussecker : « Concrétiser les futures expériences informatiques »
Horst Haussecker a présenté un survol des activités de l’Experience Technology Lab de la division Interaction & Experience Research des Intel Labs. Récemment créé avec la mission de « préparer les technologies qui seront au cœur de l’expérience future », l’Experience Technology Lab met en œuvre des expériences conviviales grâce à l’innovation technologique. Horst Haussecker a ainsi mis en exergue la philosophie qui sous-tend l’approche d’Intel en matière de développement technologique et présenté brièvement toute la gamme des compétences techniques et des processus pour intégrer les technologies expérientielles à la plate-forme Intel®.
Les projets de recherche suivants sont axés sur une amélioration de l’expérience utilisateur avec les TIC. C’est des résultats actuels de ces projets dont il a été fait la démonstration.
Intitulé du projet : Cloud computing et Ray-tracing pour les jeux
Lieu : Intel Labs à Santa Clara (Californie)
Responsable du projet : Daniel Pohl (Demo Developer) et Bill Mark (Ray Tracing Team Manager)
Descriptif : Cette démo montre en quoi les serveurs de cloud computing basés sur une architecture Intel® peuvent améliorer les futures expériences vidéoludiques sur terminaux nomades. Les chercheurs des Intel Labs ont ainsi montré une démo inédite (Wolfenstein: Ray Traced) qui ajoute de nouveaux effets spéciaux à un jeu grâce au Ray Tracing en temps réel pour le rendu. Côté serveur, la démo exploite une batterie de machines fondées sur la plate-forme de développement d’architecture Knight’s Ferry (Intel® Many Integrated Core, MIC). Ces serveurs assurent le rendu des images et les diffusent sur un client léger (petit PC de bureau) derrière lequel se trouve le joueur.
Objectif : Création d’applications 3D photoréalistes et interactives (jeux, par exemple) grâce au développement de moteurs de Ray Tracing en temps réel pour les plates-formes Intel.
Technologies : Le Ray Tracing en temps réel est traité de manière parallèle sur des machines massivement multi-cœurs. C’est un moyen d’effectuer le rendu des graphiques qui exploitent les caractéristiques physiques de la lumière pour dessiner une scène et produire des ombres, des reflets et autres effets d’éclairage très réalistes. Le Ray Tracing a déjà été employé pour les images fixes et des films hollywoodiens, où les images sont crées par avance, mais ce n’est que depuis peu qu’il est possible de traiter les images en temps réel pour des applications telles que les jeux. La seconde technologie s’appelle Knight’s Ferry. Il s’agit d’une plate-forme MIC (Many Integrated Core) qu’Intel développe pour les applications de calcul intensif. Quatre serveurs Knight’s Ferry sont ainsi utilisés pour générer un futur « nuage » de ressources de calcul qui diffuse des images sur un terminal nomade.
Intitulé du projet : OASIS
Lieu : Intel Labs à Seattle
Responsable du projet : Beverly Harrison
Descriptif : Le projet OASIS (Object-Aware Situated Interactive System) associe des algorithmes de vision informatique en temps réel, des caméras 3D et des micro-projecteurs pour la reconnaissance et le suivi rapide des objets physiques et gestes du quotidien. Cette démo fait intervenir des écrans projetés sur certaines surfaces d’une maison pour créer des « îlots » interactifs à destination des applications domestiques. Elle est facile à appliquer à n’importe quelle maison ou appartement, n’importe quelle pièce et presque n’importe quelle surface horizontale ou verticale. Ce projet anticipe de nouvelles capacités pour la maison du futur et sa concrétisation au travers des applications et fonction d’un serveur domestique.
Objectif : Il s’agit d’un exemple de l’emploi de la reconnaissance 3D des objets et de l’interaction gestuelle en environnement domestique. Cette technologie peut s’appliquer à différentes applications, par exemple les jeux et jouets, etc.
Technologies : On se sert actuellement d’une caméra 3D, d’un micro-ordinateur et d’un projecteur. On estime que ces composants logeront dans un appareil de la taille d’un téléphone mobile au fur et à mesure qu’ils seront plus économiques, plus puissants et plus performants. C’est là qu’intervient la prochaine génération des puces Intel, puissante mais économes en énergie, qui, reliées à l’Internet, fixées sous les éléments de la cuisine, utilisées avec les objets du quotidien, sur les surfaces du quotidien et avec les gestes du quotidien, ouvriront de nouvelles perspectives.
Intitulé du projet : Classmate Assist
Lieu : Intel Labs à Hillsboro (Oregon)
Responsable du projet : Richard Beckwith
Descriptif : L’avènement de la « classe numérique » (1:1 computing) permet aux enseignants d’individualiser l’enseignement pour leurs élèves qui ont une large gamme d’intérêts et de compétences. La technologie Classmate Assist emploie la vision artificielle et la projection d’images pour assister les élèves en contexte de « classe numérique » en les aidant à accomplir des tâches par leurs propres moyens et à leur rythme, tout en permettant aux enseignants de rester informés de leurs progrès.
Objectif : Il s’agit d’un exemple d’utilisation en classe de la « réalité augmentée ».
Le projet montre aussi que les outils de renforcement des performances peuvent être utiles dans un contexte éducatif. C’est également un exemple de réalité augmentée sur netbooks dotés du processeur Intel® Atom™.
Technologies : La principale technologie est ici la vision artificielle. La démonstration montrait la gestion d’un ordinateur de catégorie netbook avec une caméra qui peut être dirigée sur le pupitre entre l’utilisateur et l’écran.
Intitulé du projet : Mobile Augmented Reality
Lieu : Intel Labs à Santa Clara (Californie)
Responsable du projet : Yi Wu
Descriptif : Il s’agit de la démonstration de l’application Mobile Augmented Reality World Browser sur plate-forme équipée du processeur Intel® Atom™. Le « navigateur mondial » enrichit la compréhension du monde qui entoure l’utilisateur, sur un terminal doté de cette puce. L’utilisateur peut ainsi accéder instantanément à un immense réservoir d’informations sur le Net, en appuyant simplement sur le déclencheur de l’appareil. Le système identifie à la volée les points de repère (monuments, etc.) à l’aide d’une recherche visuelle fortement consommatrice de calcul allié à des capteurs économes en énergie, exploitant à fond les avantages des plateformes Intel® Atom™.
Objectif : Il s’agit d’un exemple de la nouvelle vague de « réalité augmentée », où la reconnaissance des objets sert à fournir une précision supérieure à celle de simples données GPS. Cette démonstration met également en évidence la manière dont le traitement local ou dans le nuage peut servir à enrichir l’expérience utilisateur.
Technologies : Les principales technologies en démonstration étaient la reconnaissance d’objets sur un terminal de catégorie nomade et le calcul client/cloud computing.
Autres supports multimédias : http://software.intel.com/en-us/videos/mobile-augmented-reality/
Intitulé du projet : TV Reinvented
Lieu : Intel dans l’Oregon
Responsable du projet : Jay Melican
Descriptif : Gérée sur processeurs médias Intel® CE3100 et CE4100, cette démonstration montre une nouvelle interface télévisuelle avec un mur en mosaïque et une molette de défilement des chaînes, qui guide le téléspectateur entre les émissions télé, l’Internet et ses contenus personnels.
Objectif : Ce domaine de recherche vise à définir l’avenir de la télévision en mettant en évidence son intégration aux contenus haut débit, grâce à une interface utilisateurs 3D originale, qui conserve ce que les téléspectateurs apprécient dans la télévision et l’enrichit pour profiter aussi des contenus numériques.
Technologies : Ce projet emploie un décodeur équipé du processeur Intel médias CE3100, relié à un téléviseur HD. Le décodeur exploite le modèle de référence OpenGL.
Intitulé du projet : Multi-app Framework for TV
Lieu : Intel dans l’Oregon
Responsable du projet : Daria Loi
Descriptif : Cette démonstration présente trois interfaces utilisateurs distinctes pour l’Intel® Multi-App Framework. Chaque interface correspond à une manière différente de classer, d’accéder et de naviguer dans les applications sur le téléviseur. Ces interfaces proposent également des expériences utilisateurs 2D et 3D conviviales et riches ; ainsi que des schémas de navigation tout à fait novateurs.
Objectif : La démo vise à montrer, au travers de plusieurs interfaces gérées par une même technologie de base, comment exécuter simultanément plusieurs applications sur un téléviseur tout en résolvant les problèmes de gestion des ressources et de conflits matériels que causent plusieurs applications tournant en même temps.
Technologies : La démo emploie un décodeur équipé du processeur Intel médias CE4100, relié à un téléviseur HD. Le décodeur exploite les trois modèles de référence OpenGL.
Intitulé du projet : Context-Aware Vehicle
Lieu : Intel Labs à Hillsboro (Oregon)
Responsable du projet : Vu Nguyen
Descriptif : Le nombre des terminaux et de services embarqués à bord des véhicules a rapidement augmenté ces dernières décennies. Il est ainsi désormais possible de passer un coup de téléphone, d’enclencher le régulateur de vitesse automatique et de piloter un système de navigateur et bien d’autres choses encore, tout en conduisant. Cette situation conduit cependant à un problème de sécurité, car le conducteur passe plus de temps à lire des menus et à appuyer sur des boutons, ce qui lui occupe les mains et les yeux et le détourne de sa tâche principale : conduire. Le recours à un système embarqué qui a conscience du contexte est tout particulièrement important pour améliorer la sécurité du conducteur et des passagers.
Objectif : La démonstration présente l’algorithme de reconnaissance faciale d’Intel et les composants d’informatique embarquée qui donnent accès à l’infrastructure du véhicule et identifient les comportements dans l’habitacle à l’aide de caméras et de capteurs, pour ainsi procurer des services transparents de sécurité au conducteur et aux passagers.
Technologies : Cette démonstration emploi un logiciel de reconnaissance faciale, un moteur de contexte, des capteurs environnementaux et des préférences personnelles pour renforcer la sécurité et le confort au volant.
Intitulé du projet : Facial Recognition
Lieu : Intel Labs à Seattle
Responsable du projet : Jeff Hightower
Descriptif : Les algorithmes de vision et de perception artificielles, comme ceux de reconnaissance des visages en temps réel, peuvent se mettre en œuvre sur terminaux mobiles équipés du processeur Intel® Atom™, par apprentissage automatique, connectivité économe en énergie et parallélisation dans le nuage.
Objectif : La démonstration met en évidence les gains de performances et les économies d’énergie qu’il est possible d’obtenir en exploitant les capacités des processeurs Intel Atom et en choisissant intelligemment les parties des calculs de vision artificielle à l’en décharger pour les confier au nuage.
Technologies : Les principales technologies en démonstration étaient la reconnaissance faciale sur un terminal nomade et le calcul client/cloud computing.
Autres supports multimédias : http://software.intel.com/en-us/videos/low-power-mobile-computer-vision/
<object id="player1" name="player1" width="425" height="355" classid="clsid:d27cdb6e-ae6d-11cf-96b8-444553540000" codebase="http://fpdownload.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#ve...">
<param name="flashvars" value="file=http://software.intel.com/media/videos/0/c/9/e/b/b/2/RAID_Branislav_Kvet..."/>
<param name="movie" value="/common/swf/mediaplayer.swf" />
<param name="allowfullscreen" value="true" />
<param name="fullscreen" value="enabled" />
<param name="wmode" value="transparent" />
<embed id="player2" name="player2" src="/common/swf/mediaplayer.swf" width="425" height="355" bgcolor="#FFFFFF" type="application/x-shockwave-flash" pluginspage="http://www.macromedia.com/go/getflashplayer" flashvars="file=http://software.intel.com/media/videos/0/c/9/e/b/b/2/RAID_Branislav_Kvet..." allowfullscreen="true" wmode="transparent" />
object