Une des nouveautés majeures de Windows 7 est le support des interfaces tactiles. Nous découvrons comment mettre en oeuvre les API afin de construire des applications qui obéissent au doigt et pas encore à l'oeil.
Un écran tactile est un périphérique qui combine les fonctionnalités d'affichage d'un écran classique aux fonctionnalités d'un périphérique de pointage comme une souris. Sous Windows, les impulsions électriques émises par une souris sont transformées par le système en messages postés à l'intention de l'application concernée. Lorsque l'application reçoit ces messages, un mécanisme fait que pour chaque message, une fonction de rappel dite procédure de fenêtre est invoquée de manière asynchrone. C'est dans cette procédure de fenêtre que l'application réagira à ces messages. Puisqu'un écran tactile est lui aussi un dispositif de pointage, le principe reste avec lui identique, même si l'on se doute que la teneur des messages et leurs traitements sont un peu plus complexes. L'API proposée par Windows 7 pour travailler avec tout cela est constituée de deux parties. Une partie "Gesture" (ou geste, ndlr) qui ne saura gérer les touchers que d'un ou deux doigts, mais saura déduire quels gestes ont été effectués par l'utilisateur, et une partie "Touch", qui supporte autant de points de contact que le périphérique peut en fournir, mais demandera plus de travail au programmeur qui devra déduire quels ont été les mouvements effectués. Une application travaille avec l'une ou l'autre de ces parties, jamais avec les deux simultanément.
Frédéric Mazué