首页> 新闻资讯> 活动创意资讯> 沉浸式交互--Mapping"方块引擎"
沉浸式交互--Mapping

沉浸式交互--Mapping"方块引擎"


故事起因于这 26.2144万个立方体 一群有着各自生命和运动轨迹的个体 接下来我会从 技术,交互形式,呈现方式 这几个方面开始介绍 . 技术 要在浏览器里实时渲染这26万个带光阴的个体 CUP是远远不够的 特别是每个个体游动的轨迹 所以需要shader调用GPU来运算 用rgb代替xyz 从而让算法在显卡中运算 相当于实时渲染一张512*512的图像来实时控制512*512个个体的运动 关于游走的算法和色彩的算法都用到了四维的 Noise 其中三维来控制个体的位置xyz 另一维来控制个体的生命 所以你看到的是一群有着各自生命和运动轨迹的个体 每个 命运不同 而且 永不重复 .交互形式 可以是传统的触屏 声音 文字交互.可以是手机端的重力感应或是多屏 也可以是现场的 方位 体感 表情 温度 气流 光 甚至是大数据出的情感 此次利用kinect的深度摄像头 捕捉人体动作以及手势 映射到26万个个体的运动轨迹上 .呈现方式 由于此案例是基于WebGL渲染 所以可以完全跨平台跨设备 无论是便于传播的微信H5 还是桌面程序或是线下装置都可以应对 当然还可以是 "沉浸式的交互Mapping" 于是我们搭建了一个三面的立体空间 ( 墙 墙 地 ) 三台投影仪 实时映射程序空间里三个摄像机画面 对于全靠程序实时渲染出的场景和画面 有别于传统的投影技术 在交互体验上可以做到随性所欲 包括空间的视角

本文由注册用户编辑发布,其观点不代表会掌柜立场。转载请联系原作者。如有侵权,请联系我们及时删除