Joseph Paradiso

« Viscéralisation » des capteurs

Nan Zhao, Halo. Photo : Aguilera Williams

Les réponses urbaines aux enjeux environnementaux se polarisent entre tenants d’un retour à/de la nature et promoteurs des solutions technologiques de la smart city, autour des capteurs et de la data. Joseph Paradiso, directeur du Responsive Environments Group du MIT étudie les interactions entre individus et informatique. Il explique comment des capteurs électroniques portables, les wearable, permettent l’accès à un ensemble de données qui modifient notre expérience de l’espace et impactent en profondeur le bâti. Les interfaces électroniques détermineront de façon autonome nos besoins, permettant d’optimiser le confort et les consommations énergétiques. Il voit un monde de l’information s’établissant dans le monde réel, articulant en direct les wearable avec l’infrastructure numérique générale. Porter avec une nous cette bulle virtuelle fera évoluer la notion même d’individu. Les rôles du virtuel et du réel lui semblent également voués à changer, accompagnant une « viscéralisation » des capteurs et du numérique, source d’une montée en puissance de nos capacités sensorielles.

Qu’est-ce que le Responsive Environments Group, et à quels sujets vous intéressez-vous ?

Au sein du Responsive Environments Group du MIT Media Lab, nous travaillons sur la façon dont les individus se connectent au système nerveux de capteurs qui recouvre la planète. Je pense que l’un des véritables défis pour quiconque s’intéresse de près aux interactions humaines et à l’informatique réside dans le fait de savoir comment les individus sont transformés par ces deux domaines. Je travaille sur l’internet des objets depuis l’époque où nous parlions d’« informatique ubiquitaire », il y a bien quinze à vingt ans de cela. Nous nous penchons maintenant sur ce qui arrive aux individus lorsque nous les connectons à des informations issues de capteurs d’une manière précognitive et viscérale – c’est-à-dire autrement qu’avec de simples systèmes d’affichage projetant du texte ou des informations. Comment est-ce que cela transforme les individus ? Où se situe la limite de l’individu, où s’arrête le « je » ? Nous en percevons déjà les débuts. Les individus sont tous socialement en interaction via les médias numériques, et ils sont connectés aux informations de manière très étroite ; mais une fois que cela se rapproche vraiment de nos corps en prenant la forme d’un accessoire vestimentaire électronique, ou « porté connecté » – wearable, en anglais –, nous entrons dans une autre dimension. Qu’en sera-t-il lorsque cela deviendra implantable, ce qui est l’extrême de ce que nous sommes à ce stade en mesure de prévoir en termes d’interface utilisateur ? Où s’arrête le cloud et où commence l’humain, et inversement ? Comment allons-nous y être connectés et comment serons-nous « augmentés » de son fait ? Il s’agit là de questions fascinantes.

Sur quels sujets spécifiques travaillez-vous, notamment en ce qui concerne le bâti ?

Nous réalisons des projets qui sont clairement en train d’impacter le bâti, inspirés par les changements qui y sont induits par la technologie. Au-delà, nous sommes également extrêmement intéressés par la façon dont les individus agissent de différentes manières dans les milieux naturels. Nous nous penchons en quelque sorte sur les deux questions à la fois. Nous avons réalisé il y a six ou sept ans un projet où nous contrôlions le chauffage avec des boîtiers de commande individuels mis au point par Mark Feldmeier, à l’époque mon élève. Nous avions fabriqué un wearable porté au poignet à la manière d’une smartwatch. Le dispositif était en mesure de suivre votre activité en consommant très peu d’énergie. Il mesurait également la température et l’humidité ambiante toutes les minutes et déterminait votre localisation par ondes radio. L’un des capteurs à venir, qui viendra véritablement changer notre expérience d’un espace, concernera cette géolocalisation dans un bâtiment. Nous serons en mesure de situer les individus au centimètre près, ce qui ouvrira des perspectives phénoménales en termes d’interaction utilisateur. Dans notre projet, nous étions à même de connaître votre condition du moment parce que nous en mesurions les paramètres à même le corps. Nous savions donc en substance comment contrôler le climat intérieur sur la base de capteurs et en fonction de votre confort personnel. Il ne s’agit désormais plus de contrôler la température avec un simple thermostat, mais de déterminer précisément votre niveau de confort.

Je pense que c’est en gros ce à quoi ressemblera l’interface du futur. Nous n’aurons plus à dire aux systèmes techniques du bâtiment ce que nous souhaitons, ils détermineront tout seuls nos besoins. Nous devrons certes indiquer une première fois nos préférences, mais ces systèmes seront en mesure d’extrapoler sur cette base. Cela remonte au travail précurseur de Michael Mozer, dans les années 1980, quand il faisait contrôler sa maison par un réseau de neurones artificiels, les commutateurs ne servant foncièrement plus qu’à des fins de renforcement de l’apprentissage. Nous pouvons maintenant faire passer cela à un tout autre niveau.

Avant ce projet de contrôle climatique intérieur intelligent, nous avons beaucoup travaillé sur les interfaces utilisateurs, les capteurs sans fil et les capteurs en « porté connecté », sans nous soucier directement du bâti. Plus récemment, nous nous sommes intéressés à l’éclairage. Cette dimension nous interpelle parce que nous contrôlons maintenant le moindre ensemble de lumières ou d’huisseries dans un bâtiment moderne : on peut même rééquiper un bâtiment avec des luminaires en liaison Bluetooth. Mais comment fait-on interface avec cela ? Ce n’est pas clair. Nous sommes actuellement dans une sorte de Far West. Nous avons donc entrepris des projets qui permettent de caractériser la puissance des luminaires. En modulant chacun d’entre eux à l’aide d’un code unique, on peut alors déterminer l’apport de chaque éclairage à l’aide d’un petit capteur très simple. Sur le contrôleur, il me suffit de composer mon éclairage comme je le souhaite et il sera rendu de manière optimale en n’utilisant que la lumière nécessaire à partir des luminaires situés à proximité. Cela pourrait s’incarner dans un wearable au poignet, ou des lunettes connectées qui serviront de système de contrôle d’éclairage général. 

Frontières entre l’Homme et la technologie

Étant donné toutes ces technologies, quelle est votre vision de notre vie quotidienne d’ici dix ans ? 

Je pense que nous en reviendrons à ce que nous avions envisagé dès le début des années 1990, quand l’informatique ubiquitaire est apparue pour la première fois dans des endroits comme le Xerox PARC à Palo Alto, avec des chercheurs comme Mark Weiser et les tous précurseurs en la matière. Ils portaient l’idée que l’infrastructure informatique se généraliserait et, presque selon un principe socialiste, que nous partagerions cette infrastructure. À cette époque, il n’y avait pas de téléphones portables et les écrans étaient des choses précieuses, généralement couplés à un ordinateur donné. Je pense que nous allons vers une époque où le monde de l’information sera une plaque tournante passant continuellement du wearable à l’infrastructure. L’information nous atteindra de différentes manières : elle nous sera projetée directement dans les yeux et les oreilles ou sera issue d’écrans et d’enceintes. Dans ce monde, des flux montants de données issus de capteurs placés un peu partout et des flux descendants d’informations contextuelles viendront nous guider dans ce que nous faisons, mais aussi guider les choses « numériques » à proximité. Ce n’est pas comme si nous sortions un téléphone : je pense qu’il y aura très peu de choses de
ce type, où il faudra exécuter une application et faire des choses
qui détournent notre attention. Le monde n’est pas une app,
et, dans le cadre d’une informatique ubiquitaire, les utilisateurs ajouteront des capacités en connexion permanente au lieu de télécharger des programmes.

Il s’agira simplement de nous-mêmes, centrés sur ce que nous faisons : le numérique se manifestera de la bonne manière autour de nous, et nous vivrons environnés par cette infrastructure mutualisée. D’une certaine manière, le rêve des premiers chercheurs en informatique ubiquitaire sera devenu réalité. Et oui, l’apprentissage automatique fait d’immenses progrès : nous n’en percevons actuellement que les prémices. Le contexte a toujours été quelque chose de difficile parce que le monde réel est saturé de bruit. Prendre une décision fiable sur ce que nous devons faire est donc difficile. Les choses se sont cependant améliorées, car nous disposons de nouvelles informations : il y a tout simplement davantage de données. Et nous arrivons de mieux en mieux à apprendre des algorithmes, à utiliser l’apprentissage profond, le deep learning, par des approches connexes et des équipements qui sont optimisés pour ce genre de chose. Cela sera mis à contribution de manière beaucoup plus prononcée. Nous ne continuerons pas longtemps à toucher des écrans du doigt.

Comment cela impactera-t-il la façon dont nous concevons les maisons, les bureaux, etc. ?

C’est une excellente question. Je ne suis pas architecte, mais je soupçonne que la dichotomie publique/privé est déjà en train de changer. Prenez un bureau moderne par exemple : il est en grande partie ouvert, avec des personnes qui travaillent dans des environnements ouverts. Je pense que les individus souhaitent naturellement pouvoir travailler également dans des environnements privatifs. Nous avons une tension entre ces deux pôles. Cela dépend de ce que fait l’équipe et de la dynamique en place. Mais je pense qu’il y aura différentes façons de s’isoler au sein d’un environnement public – les dispositifs de type wearable en sont un exemple. Il y aura aussi une révolution dans la façon dont nous nous connecterons aux autres dans des environnements publics et privés : d’autres personnes pourront être virtuellement en notre présence de beaucoup de manières différentes, et pas seulement par vidéoconférence. Je suspecte qu’à terme ce type d’infrastructure changera la nature de l’espace perçu : il y aura des affichages publics, des transferts de tous types d’informations, aussi bien personnelles qu’esthétiques, en lien avec l’espace. L’éclairage sera complètement dynamique : tout sera mis en réseau.

Imaginez un bâtiment au sein duquel vous disposez d’un ordinateur wearable. À quoi cela ressemblera-t-il ? C’est une idée intrigante. Certaines personnes ont exploré cette question au travers de la science-fiction et des romans de fantasy, mais nous n’en sommes désormais plus très loin. Nous bidouillons actuellement un HoloLens de chez Microsoft, avec tout un paysage extérieur qui se peut se manifester sur une simple table. Quand on le porte, on est immédiatement projeté dans un splendide paysage où l’on peut circuler virtuellement, voir des informations de capteurs se manifester, pointer vers eux et interagir avec. Cela a longtemps été du domaine de l’imaginaire, mais nous sommes désormais en train de le construire. Les rôles du virtuel et du réel vont changer. Ces constructions seront mobiles, et nous porterons notre bulle virtuelle avec nous lorsque nous nous déplacerons. La définition future de l’individu est tout aussi fascinante. Quoi qu’il en soit, cela affectera probablement les espaces de travail mais aussi les espaces sociaux. Je ne sais pas exactement comment se passera le déploiement, mais des architectes très créatifs y prendront part ; ils pourront aller très loin avec cela, j’en suis certain.

Vers une réalité resynthétisée

Dans ce type d’environnement, les limites du vivant – où le naturel commence, où il prend fin – deviennent très vagues… 

Cela deviendra à terme une question de première importance. Le monde de l’information cherche à établir une présence dans le monde réel de différentes manières, et nous sommes train de flouter cette frontière. Mais nous ne passerons pas le cap de la virtualité absolue ; la majeure partie de ce qui se fait en termes de réalité virtuelle n’est d’ailleurs que de la réalité virtuelle à proprement parler, où l’on est présent dans un espace virtuel et cela s’arrête là. Ce que nous faisons, c’est mettre le monde réel aux commandes de l’environnement virtuel, et ce en temps réel. Nous parlons donc plutôt de réalité « resynthétisée », construite par-dessus ce que nous appelons cross-reality – il s’agit d’une couche supérieure distribuée qui resynthétise la réalité perçue à travers les données des capteurs.

Des gens grandiront dans ce monde-là. Nous en arrivons au point où nous n’aurons plus besoin de faire de requêtes sur le web : cela sera déterminé par le contexte et par ce que le monde numérique, ou le cloud, ou le monde virtuel pense important. Nous allons commencer par « augmenter » les humains au moyen de ces techniques et ressources. Certaines seront de l’ordre du cognitif, d’autres seront viscérales ou sensorielles. Et à terme, bien sûr, nous nous transformerons nous-mêmes et tout ce qui nous entoure avec des ciseaux à ADN – qui sait ce que nous ferons si nous allons aussi loin ? D’autres personnes travaillent sur ces aspects-là, et c’est là un futur intrigant, très discontinu.

Un autre dilemme concernant la technologie réside dans la détermination du point jusqu’auquel nous pouvons aller en termes de géo-ingénierie ou d’éco-ingénierie. Quelle est votre vision à ce sujet ?

Nous avons besoin de tous les moyens dont nous disposons parce que nous devons être préparés à agir. Au vu de l’ensemble des projections climatiques, nous arriverons bientôt au stade où nous constaterons des effets notables du réchauffement. Il est en effet possible que, tôt ou tard, en vaporisant des sulfates ou équivalent dans la stratosphère, nous puissions atténuer certains des symptômes du réchauffement sans trop d’inconvénients majeurs. Mais nous ne connaissons pas suffisamment le climat pour dire avec certitude ce qui se passera dans le détail. Nous devrons mettre au point de meilleurs modèles, mener des essais limités de ces idées, voir ce qu’il est possible de faire, évaluer si c’est efficace et faisable. Le danger est de considérer cette hypothèse comme une panacée et se contenter de dire : « Ok, il suffira de vaporiser quelque chose, continuons donc à brûler des combustibles fossiles » – il faut à tout prix éviter cela, ce serait l’issue la plus défavorable. Nous devons nous dégager des hydrocarbures, puis éventuellement utiliser des techniques de ce type pour contrôler les températures dans un proche futur, en espérant, à un stade ultérieur, si nous trouvons un moyen de capturer efficacement le dioxyde de carbone dans l’air, arriver à régler ce problème correctement en régulant vraiment le climat en tant que tel. Nous allons de toute façon devoir maîtriser le climat passé un certain cap, parce que celui-ci connaît également des cycles naturels. Le climat terrestre passe par un grand nombre de phases, et si les êtres humains survivent suffisamment longtemps pour en arriver à un stade où cela nous impacte, nous devrons probablement être en mesure d’y faire face. À moins que nous en arrivions à un point où nous ne nous préoccupions plus du climat, par exemple en nous transcendant en quelque chose d’autre, qui soit climato-agnostique. Nous ne sommes pas loin de voir ce qu’il pourrait en être. Nous vivons véritablement des temps intéressants parce que, quoi qu’il arrive, il y aura de profondes mutations, et nous nous apprêtons à les voir se manifester.

 

Cet article a été initalement publié en novembre 2017 dans la revue Stream 04.

commander la revue