top of page
rochette.audrey

Programmer l'interactivité

Je vous présente Alice Sanz, ma collègue artiste médiatique et directrice technique. Nous avons commencé cette semaine à connecter nos capteurs de mouvements aux animations que j'ai créées. Voici, sous forme de vidéo-roman, les péripéties de nos recherches.

D'abord, une petite démonstration de comment fonctionnent nos capteurs. Sur l'écran on voit que nous récoltons les données de positionnement du capteur, sa "nervosité" (la petite ligne qui frétille), ainsi que ce qu'il "voit" à l'aide de son infrarouge (les carré bleus et blancs au bas de l'écran). Ces capteurs et cette interface de visualisation ont été conceptualisés par Alexandre Burton de la compagnie artificiel, avec l'aide de Samuel St-Aubin. Pour l'instant, en ce qui a trait aux animations, nous ne travaillons qu'avec l'infrarouge.

Maintenant on voit l'interface de programmation avec laquelle Alice travaille (Isadora), avec dans le coin droit en haut, mon animation. La vidéo ci-bas montre notre premier problème rencontré. Les données du capteur activaient la vidéo de l'animation "frame by frame", ce qui donnait un résultat très saccadé. Ce n'était pas ce que nous recherchions comme interaction, puisque l'idée est d'expérimenter des nuances dans la relation entre le corps et l'objet virtuel.

Nouvelle stratégie, on assigne les données à la vitesse du déroulement de l'animation. Le résultat est beaucoup plus fluide, mais le vidéo va toujours "de l'avant", c'est à dire qu'il ne recule jamais. Les plus petites valeurs du capteur (quand la main est très proche) ne font que ralentir la vitesse de lecture, et lorsque la vidéo arrive au bout, on voit la coupure du recommencement.

On essaie donc de faire un palindrome, c'est à dire que quand la vidéo arrive à sa fin, elle part de reculons. Mais étrangement, lorsque la vidéo va de reculons, c'est encore très saccadé. On en est là pour ce problème, nous ferons des recherches.

En attendant, Alice a programmé quelque chose d'assez amusant, c'est-à-dire qu'elle a superposé deux animations différentes, les données du capteur influant sur l'apparition et la disparition des deux vidéos.

Je repars avec des notes pour la suite. J'essaierai de créer des animations "fixes", c'est à dire sans rotation ou déplacement, pour voir si ça change quelque chose dans l'interaction avec l'objet virtuel. Je vais aussi essayer de changer la couleur du fond de l'animation pour un vert fluo. Ça nous permettra d'isoler l'objet virtuel (en supprimant la couleur vert), pour ne pas qu'on voit le carré de l'écran lorsqu'on le projettera.

Comments


bottom of page