沉浸式交互--Mapping"方块引擎"
3年前
713
故事起因于这 26.2144万个立方体
一群有着各自生命和运动轨迹的个体
接下来我会从 技术,交互形式,呈现方式 这几个方面开始介绍
. 技术
要在浏览器里实时渲染这26万个带光阴的个体 CUP是远远不够的 特别是每个个体游动的轨迹
所以需要shader调用GPU来运算 用rgb代替xyz 从而让算法在显卡中运算 相当于实时渲染一张512*512的图像来实时控制512*512个个体的运动
关于游走的算法和色彩的算法都用到了四维的 Noise 其中三维来控制个体的位置xyz 另一维来控制个体的生命
所以你看到的是一群有着各自生命和运动轨迹的个体
每个 命运不同 而且 永不重复
.交互形式
可以是传统的触屏 声音 文字交互.可以是手机端的重力感应或是多屏
也可以是现场的 方位 体感 表情 温度 气流 光 甚至是大数据出的情感
此次利用kinect的深度摄像头 捕捉人体动作以及手势
映射到26万个个体的运动轨迹上
.呈现方式
由于此案例是基于WebGL渲染 所以可以完全跨平台跨设备
无论是便于传播的微信H5 还是桌面程序或是线下装置都可以应对
当然还可以是 "沉浸式的交互Mapping"
于是我们搭建了一个三面的立体空间
( 墙 墙 地 )
三台投影仪 实时映射程序空间里三个摄像机画面
对于全靠程序实时渲染出的场景和画面 有别于传统的投影技术
在交互体验上可以做到随性所欲 包括空间的视角