OCEAN DANCE - Registro do Processo

Interact in Metaverse

Introdução

Neste texto, segue o registro do processo da série de experimentos intitulada OCEAN DANCE, que apresenta iniciativas de dança desenvolvidas no projeto SPACE-XR. Estes experimentos demonstram a captura de movimentos de dança inseridos no metaverso e convida o participante a interagir com as escalas espaciais sugeridas por Laban, que favorecem uma ampla possibilidade prática para a experimentação do corpo no espaço, a partir de diferentes percursos e dinâmicas. Trata-se de uma investigação que transpõe os movimentos performáticos da dança para o ambiente de um metaverso, o qual, neste caso, é um ambiente virtual tridimensional e multiusuário.

O desenvolvimento destes experimentos começou com sessões de captura de movimento, seguiu para o desenvolvimento visual e para a implementação em realidade virtual (VR) e na análise da experimentação.

Participaram da concepção e desenvolvimento os seguintes pesquisadores: Bernardo Alevato, Fábio Suim, Gabriel Cardoso, Jorge Lopes, Luiz Velho, Orlando Grillo, Sérgio Azevedo, Thaisa Martins e Carolina Navarro, um grupo interdisciplinar com diferentes leituras e perspectivas sobre dança, tecnologia e ambientes imersivos.

O experimento explora como poderia ser a observação de performances de dança em um espaço virtual: um ambiente tridimensional navegável que transponha o movimento captado do físico ao virtual, estimulando reflexões sobre a percepção de presença, a expressão do movimento e as relações entre o virtual e o real. As performances de dança expressam um forte elemento humano, mesmo em imagens geradas por computador. Participaram deste experimento os artistas Thaisa Martins, Helena Bevilaqua e Fabiano Nunes, cujas performances improvisadas formaram a base do estudo. A trilha sonora de duas performances foi criada por Yuri Amorim.

Alguns trabalhos anteriores que inspiraram este experimento incluem: Motion Creation from Mocap Data de Louise Roy no Visgraf [1], o trabalho Notanna de Ana Lívia Cordeiro [2] e Virtual Crossings da Cia. Gilles Jobin.[3] Também é importante mencionar a referência ao trabalho de Rudolf Laban, de maneira seminal, o que aparece nos estudos de parte do grupo, nas capturas e naturalmente na concepção, nas performances dos bailarinos e no cenário, com poliedros regulares como forma de provocar interação em tempo real dentro do ambiente.

O Fluxo do desenvolvimento do projeto envolveu a captura de movimento usando Optitrack [4], o Blender [5] para modelagem e animação e o Unity 3d [6] para implementação através da plataforma Spatial.io [7].

O experimento teve início de forma exploratória, com sessões de captura de movimento no laboratório Visgraf (Vision and Graphics Laboratory/IMPA). A captura de movimento (Motion capture ou MoCap) é uma técnica usada para gravar e analisar os movimentos de um corpo humano ou objeto, com o objetivo de digitalizar esses movimentos e aplicá-los a modelos tridimensionais em animações ou jogos. As coordenadas capturadas são estruturadas de maneira hierárquica com base em esqueletos pré-definidos. Para este fim, foi utilizado o sistema Optitrack, que, por meio de câmeras e sensores reflexivos, é capaz de distinguir os pontos no espaço e capturar através de pontos os movimentos físicos e os convertê-los em dados digitais. Esses dados foram então transmitidos em tempo real para o software Motive, onde parâmetros e a correspondência entre os pontos dos sensores e o modelo virtual são ajustados. O processo gera arquivos BVH, que são reconhecidos pela maioria dos programas de animação 3D.

MoCap (Captura de Movimento)

Fig 02. Registro da captura de movimento de Thaisa Martins (com Luiz Velho em diálogo sobre a captura em curso), em sequência, Fabiano Nunes e Helena Bevilaqua. Fotos

Após as primeiras sessões de captura com Thaisa Martins, começaram a ser idealizadas possibilidades de implementação em realidade virtual. Em seguida, os bailarinos Helena Bevilaqua e Fabiano Nunes foram convidados para a experimentação, e suas performances foram gravadas em sessões posteriores. De maneira intercalada, foram capturados improvisos e movimentos de escalas de Laban, como cubo e icosaedro.

Concepção Visual

Avatares

Para criar os modelos virtuais dos dançarinos, foi utilizado o MB-Lab, um complemento (addon) do Blender para a geração de humanoides. Para evitar questões relacionadas ao "vale da estranheza"[5] onde a representação humana mais próxima do real causa uma desagradável percepção de artificialidade, optou-se por um estilo visual minimalista, sem características realistas, mas respeitando as proporções humanas, a fim de representar o movimento de forma fiel. Esse estilo foi influenciado pelo trabalho Virtual Crossings nesse sentido, de buscar uma representação escultural não realista, assim como busca a expressividade do corpo humano nu não sexualizado, conforme conversas do grupo.

Transferência de Movimento e Correções

A transferência do movimento, contido nos arquivos BVH, foi realizada no Blender. Após a criação do modelo, ele foi estruturado para corresponder à hierarquia de movimentos e à captura dos dados, utilizando um addon do sistema Rokoko para o Blender. Alguns ajustes foram feitos na captura, especialmente com o uso de camadas de movimento no módulo NLA (non-linear animation), que permite a adição de correções sem alterar os quadros-chave registrados.

Fig. 03. Comparação entre o arquivo de captura de movimento da performance de Fabiano Nunes e o avatar em movimento no Blender.

Ambiente

Um cenário protótipo foi criado no Blender para facilitar a discussão entre a equipe. Esse protótipo permitiu explorar as possibilidades de navegação no espaço virtual, considerando as características da plataforma Spatial e os objetivos do experimento. Inicialmente representado como uma miniatura, o cenário foi gradualmente desenvolvido até se tornar um ambiente interativo, permitindo a navegação dos participantes ao redor da performance em movimento. Além disso, foram colocados poliedros regulares no cenário, sugerindo a relação com as teorias de Rudolf Laban. Rampas foram adicionadas ao ambiente para facilitar a locomoção dos participantes e proporcionar uma navegação mais fluida, oferecendo novos pontos de vista sobre a performance.

Shading

As texturas e a aparência dos modelos e cenários foram inicialmente desenhadas no Blender. No entanto, a aparência final dos materiais reflexivos só foi possível após a implementação no ambiente virtual, quando a interação com o mapa de ambiente e os cenários entrou em jogo. O conceito visual foi inspirado em salas de dança com espelhos e na integração entre o modelo/performer e o ambiente. Por isso, criaram-se materiais que utilizam a reflexão como elemento principal, gerando uma estética específica. A diferença entre o programa de animação e o motor de jogo, neste caso, se tornou um ponto de atenção, pois envolve o processo de concepção e implementação.

Fig. 04: Imagem dos ambientes conforme implementados.

Implementação

O material foi implementado na plataforma Spatial.io, um ambiente tridimensional que permite interação por meio de navegadores, aplicativos e realidade virtual. Criada com o Unity3D, a plataforma facilita a criação de conteúdo, permitindo a distribuição de arquivos de desenvolvimento para criar experiências imersivas. Por ser um ambiente conectado e multiusuário, o Spatial favorece a interação e visualização coletiva e diálogos entre os participantes. Durante a implementação, optou-se por uma escala ampliada dos modelos, com proporções muito maiores do que as humanas, criando um ponto de vista diferente. A duplicação dos modelos também foi usada em dois ambientes para destacar o aspecto gráfico e simétrico das performances.

O Unity3D é compatível com a importação de esqueletos e animações, especialmente de humanoides, o que permitiu programar interações e adicionar efeitos sonoros e mapas de ambiente ao experimento.

A implementação do experimento teve como foco a simplicidade e a usabilidade, visando um público sem experiência prévia com realidade virtual, garantindo uma interação intuitiva sem a necessidade de instruções complexas. A experiência foi desenvolvida para a visualização tridimensional, alinhada com experiências anteriores de ambientes virtuais criados pelo LAPID (Laboratório de Processamento de Imagens digitais do Museu Nacional/UFRJ), voltados para o patrimônio histórico e cultural.

Experimentação

O material produzido foi exibido durante o seminário DANCE & TECH em duas edições do evento, no Rio de Janeiro e em Porto Alegre. Durante a experimentação, foram observados comportamentos distintos entre os participantes. Alguns, provenientes do campo da dança, tentaram imitar os movimentos da performance e interagiram com os poliedros, enquanto outros simplesmente observaram a apresentação, movendo-se ao redor do modelo virtual em movimento. Também foram feitas observações sobre a transposição do ambiente e a experiência visual do movimento.

Desdobramento em peças de Comunicação Visual 

As capturas de movimento também foram utilizadas para o desenvolvimento do material de divulgação do evento DANCE & TECH. A identidade visual do evento foi criada coletivamente pela equipe, e um modelo tridimensional foi gerado a partir de dados de captura de movimento, utilizando tipografia com o nome do evento como mapa de textura.

Fig. 05: Proposta de identidade visual para o evento Dance-Tech, inspirada na performance de Thaisa Martins.

Considerações

O uso de MoCap proporciona novas possibilidades de expressão corporal em ambientes de realidade expandida. A partir da experiência, surgiram reflexões sobre a sincronicidade e a assincronicidade no uso da captura de movimento, o que pode alterar a percepção de presença no ambiente virtual. É possível vislumbrar uma disseminação maior da utilização de mocap visto que surgem novas ferramentas e técnicas de captura de movimento baseadas em vídeo, mais baratas (e menos precisas) que a utilização de sensores, como MOVE.AI e QuickMagick, tornando esse recurso mais acessível.

O movimento no espaço virtual, visto através do Headset, oferece uma experiência diferente dos outros veículos audiovisuais, pois durante a observação podem ser percebidas nuances e espacialidade, possivelmente enfatizadas pela percepção tridimensional, onde o espectador pode se aproximar ou andar em torno do modelo. A sincronicidade pode ser um talvez seja mais importante que o realismo para transmitir presença, embora este.

Essa experiência também abre possibilidades para a criação de filmes de dança em ambientes virtuais, como machinima, uma vez que vídeos das performances foram gerados em tempo real, com variações de pontos de vista e enquadramentos.

Referências

[1] https://www.visgraf.impa.br/Projects/motioncreation/
[2] https://www.analivia.com.br/nota-anna/
[3] https://www.gillesjobin.com/creation/virtual-crossings/
[4] https://www.Optitrack.com
[5] https://www.blender.org
[6] https://www.unity.com
[7] https://www.spatial.io 
[8] https://spectrum.ieee.org/the-uncanny-valley

share