« Viscéralisation » des capteurs

  • Publié le 18 novembre 2017
  • Joseph Paradiso

Les réponses urbaines aux enjeux environnementaux se polarisent entre tenants d’un retour à/de la nature et promoteurs des solutions technologiques de la smart city, autour des capteurs et de la data. Joseph Paradiso, directeur du Responsive Environments Group du MIT étudie les interactions entre individus et informatique. Il explique comment des capteurs électroniques portables, les wearable, permettent l’accès à un ensemble de données qui modifient notre expérience de l’espace et impactent en profondeur le bâti. Les interfaces électroniques détermineront de façon autonome nos besoins, permettant d’optimiser le confort et les consommations énergétiques. Il voit un monde de l’information s’établissant dans le monde réel, articulant en direct les wearable avec l’infrastructure numérique générale. Porter avec une nous cette bulle virtuelle fera évoluer la notion même d’individu. Les rôles du virtuel et du réel lui semblent également voués à changer, accompagnant une « viscéralisation » des capteurs et du numérique, source d’une montée en puissance de nos capacités sensorielles.

Qu’est-ce que le Responsive Environments Group, et à quels sujets vous intéressez-vous ?

Au sein du Responsive Environments Group du MIT Media Lab, nous travaillons sur la façon dont les individus se connectent au système nerveux de capteurs qui recouvre la planète. Je pense que l’un des véritables défis pour quiconque s’intéresse de près aux interactions humaines et à l’informatique réside dans le fait de savoir comment les individus sont transformés par ces deux domaines. Je travaille sur l’internet des objets depuis l’époque où nous parlions d’« informatique ubiquitaire », il y a bien quinze à vingt ans de cela. Nous nous penchons maintenant sur ce qui arrive aux individus lorsque nous les connectons à des informations issues de capteurs d’une manière précognitive et viscérale – c’est-à-dire autrement qu’avec de simples systèmes d’affichage projetant du texte ou des informations. Comment est-ce que cela transforme les individus ? Où se situe la limite de l’individu, où s’arrête le « je » ? Nous en percevons déjà les débuts. Les individus sont tous socialement en interaction via les médias numériques, et ils sont connectés aux informations de manière très étroite ; mais une fois que cela se rapproche vraiment de nos corps en prenant la forme d’un accessoire vestimentaire électronique, ou « porté connecté » – wearable, en anglais –, nous entrons dans une autre dimension. Qu’en sera-t-il lorsque cela deviendra implantable, ce qui est l’extrême de ce que nous sommes à ce stade en mesure de prévoir en termes d’interface utilisateur ? Où s’arrête le cloud et où commence l’humain, et inversement ? Comment allons-nous y être connectés et comment serons-nous « augmentés » de son fait ? Il s’agit là de questions fascinantes.

Sur quels sujets spécifiques travaillez-vous, notamment en ce qui concerne le bâti ?

Nous réalisons des projets qui sont clairement en train d’impacter le bâti, inspirés par les changements qui y sont induits par la technologie. Au-delà, nous sommes également extrêmement intéressés par la façon dont les individus agissent de différentes manières dans les milieux naturels. Nous nous penchons en quelque sorte sur les deux questions à la fois. Nous avons réalisé il y a six ou sept ans un projet où nous contrôlions le chauffage avec des boîtiers de commande individuels mis au point par Mark Feldmeier, à l’époque mon élève. Nous avions fabriqué un wearable porté au poignet à la manière d’une smartwatch. Le dispositif était en mesure de suivre votre activité en consommant très peu d’énergie. Il mesurait également la température et l’humidité ambiante toutes les minutes et déterminait votre localisation par ondes radio. L’un des capteurs à venir, qui viendra véritablement changer notre expérience d’un espace, concernera cette géolocalisation dans un bâtiment. Nous serons en mesure de situer les individus au centimètre près, ce qui ouvrira des perspectives phénoménales en termes d’interaction utilisateur. Dans notre projet, nous étions à même de connaître votre condition du moment parce que nous en mesurions les paramètres à même le corps. Nous savions donc en substance comment contrôler le climat intérieur sur la base de capteurs et en fonction de votre confort personnel. Il ne s’agit désormais plus de contrôler la température avec un simple thermostat, mais de déterminer précisément votre niveau de confort.

Je pense que c’est en gros ce à quoi ressemblera l’interface du futur. Nous n’aurons plus à dire aux systèmes techniques du bâtiment ce que nous souhaitons, ils détermineront tout seuls nos besoins. Nous devrons certes indiquer une première fois nos préférences, mais ces systèmes seront en mesure d’extrapoler sur cette base. Cela remonte au travail précurseur de Michael Mozer, dans les années 1980, quand il faisait contrôler sa maison par un réseau de neurones artificiels, les commutateurs ne servant foncièrement plus qu’à des fins de renforcement de l’apprentissage. Nous pouvons maintenant faire passer cela à un tout autre niveau.

Avant ce projet de contrôle climatique intérieur intelligent, nous avons beaucoup travaillé sur les interfaces utilisateurs, les capteurs sans fil et les capteurs en « porté connecté », sans nous soucier directement du bâti. Plus récemment, nous nous sommes intéressés à l’éclairage. Cette dimension nous interpelle parce que nous contrôlons maintenant le moindre ensemble de lumières ou d’huisseries dans un bâtiment moderne : on peut même rééquiper un bâtiment avec des luminaires en liaison Bluetooth. Mais comment fait-on interface avec cela ? Ce n’est pas clair. Nous sommes actuellement dans une sorte de Far West. Nous avons donc entrepris des projets qui permettent de caractériser la puissance des luminaires. En modulant chacun d’entre eux à l’aide d’un code unique, on peut alors déterminer l’apport de chaque éclairage à l’aide d’un petit capteur très simple. Sur le contrôleur, il me suffit de composer mon éclairage comme je le souhaite et il sera rendu de manière optimale en n’utilisant que la lumière nécessaire à partir des luminaires situés à proximité. Cela pourrait s’incarner dans un wearable au poignet, ou des lunettes connectées qui serviront de système de contrôle d’éclairage général.

Frontières entre l’Homme et la technologie

Étant donné toutes ces technologies, quelle est votre vision de notre vie quotidienne d’ici dix ans ?

Je pense que nous en reviendrons à ce que nous avions envisagé dès le début des années 1990, quand l’informatique ubiquitaire est apparue pour la première fois dans des endroits comme le Xerox PARC à Palo Alto, avec des chercheurs comme Mark Weiser et les tous précurseurs en la matière. Ils portaient l’idée que l’infrastructure informatique se généraliserait et, presque selon un principe socialiste, que nous partagerions cette infrastructure. À cette époque, il n’y avait pas de téléphones portables et les écrans étaient des choses précieuses, généralement couplés à un ordinateur donné. Je pense que nous allons vers une époque où le monde de l’information sera une plaque tournante passant continuellement du wearable à l’infrastructure. L’information nous atteindra de différentes manières : elle nous sera projetée directement dans les yeux et les oreilles ou sera issue d’écrans et d’enceintes. Dans ce monde, des flux montants de données issus de capteurs placés un peu partout et des flux descendants d’informations contextuelles viendront nous guider dans ce que nous faisons, mais aussi guider les choses « numériques » à proximité. Ce n’est pas comme si nous sortions un téléphone : je pense qu’il y aura très peu de choses de
ce type, où il faudra exécuter une application et faire des choses
qui détournent notre attention. Le monde n’est pas une app,
et, dans le cadre d’une informatique ubiquitaire, les utilisateurs ajouteront des capacités en connexion permanente au lieu de télécharger des programmes.

Il s’agira simplement de nous-mêmes, centrés sur ce que nous faisons : le numérique se manifestera de la bonne manière autour de nous, et nous vivrons environnés par cette infrastructure mutualisée. D’une certaine manière, le rêve des premiers chercheurs en informatique ubiquitaire sera devenu réalité. Et oui, l’apprentissage automatique fait d’immenses progrès : nous n’en percevons actuellement que les prémices. Le contexte a toujours été quelque chose de difficile parce que le monde réel est saturé de bruit. Prendre une décision fiable sur ce que nous devons faire est donc difficile. Les choses se sont cependant améliorées, car nous disposons de nouvelles informations : il y a tout simplement davantage de données. Et nous arrivons de mieux en mieux à apprendre des algorithmes, à utiliser l’apprentissage profond, le deep learning, par des approches connexes et des équipements qui sont optimisés pour ce genre de chose. Cela sera mis à contribution de manière beaucoup plus prononcée. Nous ne continuerons pas longtemps à toucher des écrans du doigt.

Comment cela impactera-t-il la façon dont nous concevons les maisons, les bureaux, etc. ?

C’est une excellente question. Je ne suis pas architecte, mais je soupçonne que la dichotomie publique/privé est déjà en train de changer. Prenez un bureau moderne par exemple : il est en grande partie ouvert, avec des personnes qui travaillent dans des environnements ouverts. Je pense que les individus souhaitent naturellement pouvoir travailler également dans des environnements privatifs. Nous avons une tension entre ces deux pôles. Cela dépend de ce que fait l’équipe et de la dynamique en place. Mais je pense qu’il y aura différentes façons de s’isoler au sein d’un environnement public – les dispositifs de type wearable en sont un exemple. Il y aura aussi une révolution dans la façon dont nous nous connecterons aux autres dans des environnements publics et privés : d’autres personnes pourront être virtuellement en notre présence de beaucoup de manières différentes, et pas seulement par vidéoconférence. Je suspecte qu’à terme ce type d’infrastructure changera la nature de l’espace perçu : il y aura des affichages publics, des transferts de tous types d’informations, aussi bien personnelles qu’esthétiques, en lien avec l’espace. L’éclairage sera complètement dynamique : tout sera mis en réseau.

Imaginez un bâtiment au sein duquel vous disposez d’un ordinateur wearable. À quoi cela ressemblera-t-il ? C’est une idée intrigante. Certaines personnes ont exploré cette question au travers de la science-fiction et des romans de fantasy, mais nous n’en sommes désormais plus très loin. Nous bidouillons actuellement un HoloLens de chez Microsoft, avec tout un paysage extérieur qui se peut se manifester sur une simple table. Quand on le porte, on est immédiatement projeté dans un splendide paysage où l’on peut circuler virtuellement, voir des informations de capteurs se manifester, pointer vers eux et interagir avec. Cela a longtemps été du domaine de l’imaginaire, mais nous sommes désormais en train de le construire. Les rôles du virtuel et du réel vont changer. Ces constructions seront mobiles, et nous porterons notre bulle virtuelle avec nous lorsque nous nous déplacerons. La définition future de l’individu est tout aussi fascinante. Quoi qu’il en soit, cela affectera probablement les espaces de travail mais aussi les espaces sociaux. Je ne sais pas exactement comment se passera le déploiement, mais des architectes très créatifs y prendront part ; ils pourront aller très loin avec cela, j’en suis certain.

Pouvez-vous nous en dire plus sur votre travail impliquant la nature et le vivant ?

L’un de nos projets concerne un paysage que nous appelons « Tidmarsh ». C’est une ancienne tourbière utilisée pour la culture de canneberges. Ce type d’exploitation a migré vers le nord du fait des mutations économiques, du changement climatique et de changements affectant les plantes elles-mêmes. Une grande partie des 240 hectares de Tidmarsh a donc été rendue à la nature. Plutôt que d’y construire un centre commercial ou un lotissement, les propriétaires souhaitent restaurer l’état originel de cette zone humide. Le site a donc été rasé, changé, et nous avons été intrigués par l’idée de saisir la globalité de ce processus. Nous avons donc construit des capteurs sans fil de faible puissance pour mesurer des paramètres de la zone humide durant sa restauration. Nous les avons disséminés de façon à obtenir des informations à granularité fine que nous rendons maintenant dans un monde virtuel. À l’image du bâtiment du DoppelLab, on peut maintenant visiter virtuellement ce paysage, flotter au travers, consulter les informations issues des capteurs via des animations. Nous avons disposé trente micros dans une partie du paysage, ce qui fait que lorsque l’on bouge, on entend le monde naturel. Les capteurs émettent aussi de la musique. Nous avons trois ou quatre compositions différentes qui sont guidées en temps réel par les données des capteurs. En principe, nous pourrions également faire cela avec une ville. Cela se transforme donc en une forme artistique nouvelle qui commence à peine à gagner en maturité.

Vous pensez à une forme de ville virtuelle ?

Au lieu de qualifier ce process de visualisation de données de capteurs, ou de virtualité des capteurs, nous parlons de « viscéralisation » des capteurs. Tout est de l’ordre du précognitif, et donc du viscéral. Nous avons préparé un cadre informatique dans lequel tout type de capteur peut être utilisé par des applications, ce qui est essentiel pour l’internet des objets. On peut ainsi l’exécuter avec HoloLens, Rift ou Vive. Nous sommes très favorables à l’idée d’une montée en puissance de nos capacités sensorielles. Nous commencerons par la bande-son : quand vous regarderez une certaine zone, nous détecterons que vous y portez votre attention et enverrons le son des microphones qui y sont placés ; les capteurs à proximité généreront une forme de son ou de musique qui y sera mêlée ; nous suivrons ainsi les mouvements de votre tête, votre localisation et une certaine idée de votre point focal sensoriel. D’une manière aussi naturelle que possible, nous verrons jusqu’où nous pourrons aller en termes d’élargissement de la perception – ce que nous appelons une « prothèse sensorielle ».

Vers une réalité resynthétisée

Dans ce type d’environnement, les limites du vivant – où le naturel commence, où il prend fin – deviennent très vagues…

Cela deviendra à terme une question de première importance. Le monde de l’information cherche à établir une présence dans le monde réel de différentes manières, et nous sommes train de flouter cette frontière. Mais nous ne passerons pas le cap de la virtualité absolue ; la majeure partie de ce qui se fait en termes de réalité virtuelle n’est d’ailleurs que de la réalité virtuelle à proprement parler, où l’on est présent dans un espace virtuel et cela s’arrête là. Ce que nous faisons, c’est mettre le monde réel aux commandes de l’environnement virtuel, et ce en temps réel. Nous parlons donc plutôt de réalité « resynthétisée », construite par-dessus ce que nous appelons cross-reality – il s’agit d’une couche supérieure distribuée qui resynthétise la réalité perçue à travers les données des capteurs.

Des gens grandiront dans ce monde-là. Nous en arrivons au point où nous n’aurons plus besoin de faire de requêtes sur le web : cela sera déterminé par le contexte et par ce que le monde numérique, ou le cloud, ou le monde virtuel pense important. Nous allons commencer par « augmenter » les humains au moyen de ces techniques et ressources. Certaines seront de l’ordre du cognitif, d’autres seront viscérales ou sensorielles. Et à terme, bien sûr, nous nous transformerons nous-mêmes et tout ce qui nous entoure avec des ciseaux à ADN – qui sait ce que nous ferons si nous allons aussi loin ? D’autres personnes travaillent sur ces aspects-là, et c’est là un futur intrigant, très discontinu.

Un autre dilemme concernant la technologie réside dans la détermination du point jusqu’auquel nous pouvons aller en termes de géo-ingénierie ou d’éco-ingénierie. Quelle est votre vision à ce sujet ?

Nous avons besoin de tous les moyens dont nous disposons parce que nous devons être préparés à agir. Au vu de l’ensemble des projections climatiques, nous arriverons bientôt au stade où nous constaterons des effets notables du réchauffement. Il est en effet possible que, tôt ou tard, en vaporisant des sulfates ou équivalent dans la stratosphère, nous puissions atténuer certains des symptômes du réchauffement sans trop d’inconvénients majeurs. Mais nous ne connaissons pas suffisamment le climat pour dire avec certitude ce qui se passera dans le détail. Nous devrons mettre au point de meilleurs modèles, mener des essais limités de ces idées, voir ce qu’il est possible de faire, évaluer si c’est efficace et faisable. Le danger est de considérer cette hypothèse comme une panacée et se contenter de dire : « Ok, il suffira de vaporiser quelque chose, continuons donc à brûler des combustibles fossiles » – il faut à tout prix éviter cela, ce serait l’issue la plus défavorable. Nous devons nous dégager des hydrocarbures, puis éventuellement utiliser des techniques de ce type pour contrôler les températures dans un proche futur, en espérant, à un stade ultérieur, si nous trouvons un moyen de capturer efficacement le dioxyde de carbone dans l’air, arriver à régler ce problème correctement en régulant vraiment le climat en tant que tel. Nous allons de toute façon devoir maîtriser le climat passé un certain cap, parce que celui-ci connaît également des cycles naturels. Le climat terrestre passe par un grand nombre de phases, et si les êtres humains survivent suffisamment longtemps pour en arriver à un stade où cela nous impacte, nous devrons probablement être en mesure d’y faire face. À moins que nous en arrivions à un point où nous ne nous préoccupions plus du climat, par exemple en nous transcendant en quelque chose d’autre, qui soit climato-agnostique. Nous ne sommes pas loin de voir ce qu’il pourrait en être. Nous vivons véritablement des temps intéressants parce que, quoi qu’il arrive, il y aura de profondes mutations, et nous nous apprêtons à les voir se manifester.

Cet article a été initalement publié en novembre 2017 dans la revue Stream 04.

Commander la revue

Bibliographie

explore

Actualité
Actualité

Art et agentivité à l'heure du wetware

9 octobre 2020

« Le concept du ‘wetware’ englobe la compréhension biologique des systèmes théoriques de la vie et estompe les frontières entre organismes et machines. » Jens Hauser, critique d’art, commissaire d’exposition et enseignant, revient sur le concept du ‘wetware’.

Découvrir
Vidéo
Vidéo

Explorer les imaginaires de la ville

Pierre Musso est philosophe, docteur d’État en sciences politiques. Il est professeur en science de l’information et la communication à Télécom ParisTech et à l’université de Rennes. Il s’est spécialisé dans la philosophie de l’imaginaire, en lien notamment avec les nouvelles technologies et l’aménagement du territoire. Ce talk est une forme d’introduction à ces concepts et à leur influence sur le travail de ceux qui conçoivent la ville.

Découvrir
Article

La ville-information

Carlo Ratti

Article

La ville-information

Un nombre toujours croissant d’acteurs économiques et institutionnels s’empare de la question de l’urbain numérique pour penser et concevoir les smart cities de demain, mais aussi programmer le virage technologique affectant les villes actuelles. À la pointe de ces recherches, le professeur Carlo Ratti nous explique la place centrale prise par l’information dans l’évolution des villes, et la façon dont elle en redéfinit la vision, la nature même et le fonctionnement quotidien. Il nous décrit les expériences de traitement de la data urbaine par son laboratoire du MIT, le SENSEable Lab, qui aboutissent au concept de « ville en temps réel » par la captation et la gestion de données par senseurs mais aussi « télédétection opportuniste », grâce aux comportements de ses habitants même, permettant de gérer et vivre plus efficacement la ville suivant le modèle de l’open source.

Découvrir