对于基于视觉捕捉的方式来说,对硬件的要求就会高蛮多,对于一个实时交互的游戏来说,你必须保证它的实时性,如果用一个摄像头的话,你只能捕捉到二维平面上的动作,再通过一系列图像的处理来进行模式识别,从一个摄像系统获取的二维图像中确定距离信息时,人们必须依赖对于物体形态,光照条件等的先验知识.如果这些知识不完整,对距离的计算可能产生错误;对于两个摄像头的话,就是利用人眼双目立体视觉的原理.从两个多个摄像系统获取的不同视觉方向的二维图像中确定距离信息,常常要求大量的数据运算.当被测目标的结构信息过分简单或过分复杂,以及被测目标上各点反射率没有明显差异时,这种计算变得更加困难,双摄像头常用于对三维目标的识别,理解,以及用于位置,形态分析。这个得到的就是我们通常所讲的双目立体视觉,两摄像机在同一时刻观看空间物体的同一特征点,分别在“左眼”和“右眼”上获取了同一个点的图像,但是获得的图像坐标是不一样的,左相机像面上的任意一点只要能在右相机像面上找到对应的匹配点,就可以确定出该点的三维坐标。这种方法是完全的点对点运算,像面上所有点只要存在相应的匹配点,就可以参与上述运算,从而获取其对应的三维坐标。 在用视觉来处理的时候,要对摄像头进行摄像机标定,图像捕获,图像预处理和特征提取,以及后期的决策算法的提取,对硬件的要求很高。
讨论完了这两种特点之后,我就开始我的设想吧。
首先来讲基于多传感器的吧,我们的设计分为两部分,前端传感器捕捉动作及射频发射的模块实际上就是我们所谓的控制器,随着无线传输技术的各种方案的性能的提升和成熟,以及MEMS技术的飞速发展,现在的MEMS都做得很小,我们可以利用其特点将其设计成腕带一类的装备,然后分别戴在左右手腕和左右脚踝处,对于不同的游戏,我们可以选择其中的一部分,比如只需要手部运动的游戏只用戴在手上的就可以。后端的射频接收模块置于我们的FPGA的开发板上,后端的射频接收模块我们可以通过USB接口,或者串口,I2C,SPI等与vitex5的开发板上实现数据的传输。我们通过前端的传感器来捕捉玩家的动作,将数据通过ZigBee无线网络传输给接收端,接收端处理后转换为操作指令传给系统的控制端,实现对于游戏中角色的控制。
前端的的传感器的输出有模拟输出的和数字输出的,对于模拟输出的,对于数字输出的可以通过I2C,SPI等接口来控制,对于模拟接口就要进行A/D转换之后才能送到控制器里面。
我们的信号采集模块是一个多传感器系统,因此要求处理好对多传感器信息的协同运行,得到满足精度要求的快速响应输出,为了满足ZigBee无线网络传输的数据的短距离,低数据速率,低成本的特点,更好的满足其实时性,我们让传感器网络中的中间节点尽量多做些数据采集处理工作,尽量减少原始数据的发送量。
|