军工科技
时间:2023-05-22 来源: 作者:止天戈
这使得这些影片中原本的3d效果大打折扣,甚至消失,体验感受下降。如果能将这些影片的3d效果保留,并放到vr眼睛之中,甚至能够带来比拟影院甚至超过影院的观影感受,那肯定非常有市场前景。
要知道在影院中,受到位置,光线,环境的影响,你的观看体验也不相同。如果能在自己家里通过vr眼镜就能体验和在影院中一样的感受,而且还是最佳的观影位置,环境,光线。或者说根据自己的喜好,为你打造你自己专属的位置,光线,观影环境。
或者是直接在家里通过vr眼镜来一次现场看球赛,或者是现场演唱会。通过设置在看台上面的全景镜头,你能够身临其境的和旁边的球迷或者歌迷一起来实时观看这场球赛或者演唱会。
甚至还可以拉个好友一起进来创建一个专属于你们自己的包房,然后边看边交流着,绝对是一种非常棒的感受
第三百六十一章 AR增强现实技术
其实按道理来说,ar技术要比vr技术要难,但是偏偏我们在生活却常常遇到。
所谓araugntedreaity,增强现实,它是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术。
是把原本在现实世界的一定时间空间范围内很难体验到的实体信息如视觉信息、声音、味道、触觉等,通过相关技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验。
简单来说,就是将真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。
这么说可能抽象了一些,就举几个简单的例子吧。比如很多人喜欢使用的美颜相机中的饰品,通过相机识别人的面容,然后对应的在你的脸上打上卡通腮红,或者是给你带上一个围巾,帽子,眼镜之类的东西,实时显示在相机画面里面,这就是一种简单的ar技术。
再比如现在经常可以看到的,将相机对准一栋建筑,或者说特定的图案,然后在画面中闪现出来一段演绎视频,这也是一种ar技术。
再或者,很多飞机还有战斗机驾驶舱前面都会有一块绿色或者紫色的屏幕,这个屏幕叫做hud平视显示器。
简单说是把crt显像管通过透镜组成像在无穷远的虚像,而组合玻璃半透半反玻璃折转这虚像和前方真实景像叠加,使飞行员可以不耽误看前方景像的情况下看到crt显示的飞行和战术字符信息。
所以也可以把这种技术看作是一种ar技术,包括战斗机飞行员所佩戴的头盔中的头盔显示器头盔辅助瞄准系统,其实也是一种ar技术。
而在真正消费级的民用ar眼镜方面,整个市场发展的还是比较缓慢。除了最早的g歌所推出的g歌眼镜外,陆续也有几家公司所推出来了几款所谓的ar眼镜,但噱头远大于实际意义。
虽然很多公司都宣称自己研发出来了新的vr眼镜产品,但还没有一款真正意义上能够投入市场,被大众使用的产品。
很多都是在玩概念,或者说借着这个噱头来玩资本数字游戏。所以和vr一样,曾经出现了非常严重的行业泡沫。好像和这个ar这个词沾上边,就能飞起来一样,很多东西都打上了这个标签。
后来随着市场和资本逐渐冷静下来,这个行业也慢慢沉寂下来。直到最近随着技术的发展,则是慢慢的开始有了新的起色。
虽说近几年在这领域技术有了长足的进步,但想要解决ar技术上面的几个难题,将它真正的投放市场大规模商用还有些困难。
首先第一个难题显示技术,这是整个ar技术中的重中之重,可以说是整个技术的基础。
想要实现真正意义上的可穿戴ar眼镜,就必须要解决这个显示技术难题。与vr的沉浸式隔绝外界信息不同,ar与外界有这非常紧密的联系。
简单来说,那就是它的屏幕必须是透明的,使得人能够看清外界的事物,同时也能看到屏幕上所显示的虚拟画面信息。
想要实现这种效果,总共有三种方法,而目前普遍使用的只有两种。
首先第一种,那就是类似于手机摄像的方式。屏幕还是我们使用的那种普通屏幕,只不过是与摄像头进行连接,由摄像头实时拍摄外界画面,这样一来,人就可以间接看到外界的事物。
然后再在屏幕上面加入一些虚拟画面信息,这也就达到了一种真实环境和虚拟画面叠加在一起的效果。
第二种,也是大家所想象中理想状态下的方式。那就是采用透明显示屏幕技术,使得人既可以直接看到外面真实环境,也可以看到透明显示屏幕中的虚拟画面。从而叠加在一起,实现虚拟现实效果。
说简单点就是一块透明玻璃中可以显示一些虚拟画面,通过跟踪系统和移动计算技术将两个画面进行融合,从而实现增强现实效果。
至于第三种呢,目前只是在一种理论设想状态。简单来说就是通过脑机技术,将虚拟画面通过电信号直接作用到人的视神经或者说眼睛里面,这样你看到的东西天然就有了一种增强现实效果。
不过这种技术,也仅仅停留在理论阶段,目前想要实现很难。而且这种技术还有一个非常现实和麻烦的问题。
如果一旦实现了这项技术,那么人就有可能分不清哪些是真实的,哪些是虚幻的东西,从而引发一系列严重问题。
尽管想要实现这项技术还有很长的路要走,但目前已经有专家和部分人提出要禁止这项技术的研发了。所以关于这项技术,争论的人远比研发它的人要多的多。
这里不提第三种技术,就说前两种。这两种方式各有优缺点,但不管是那种目前实现起来都很困难。
第一种方式看似简单,但实际上依赖于超高的画面处理性能。而且镜头拍摄的画面永远和我们人眼看到的有区别,所以佩戴者可能会感到不适甚至是眩晕。
另外这种出来的画面与真实环境有延迟,虽然可以将这种延迟降到最低,但还是无法解决真实环境和显示画面无法最佳匹配的问题,尤其是在高速移动环境下更是如此。
第二种方式最大的难题就是在透明显示屏幕技术上面,首先要求这块屏幕必须要足够透光,也就是说不能影响人的正常视野。
其次虚拟画面显示方面,不仅仅要求屏幕的画质要清晰细腻,分辨率高。因为是透明显示,所以要在高亮度和低亮度环境下显示正常。
所谓高亮度环境下,是指在强光环境下,佩戴者还能看清楚透明屏幕上面的显示画面。这听上去容易,但实际上却很难,要知道现在的一些屏幕在强光环境下往往就看不清画面了。
所谓低亮度,是指在没有光的情况下也能看到透明屏幕的显示内容。因为是透明的,所以没法补光,这就全部依赖于透明屏幕中的像素点自发光,有点像是cd显示屏没有背光板一样。
第三百六十二章 矛盾,争议,忧虑
而且不管是强光还是黑暗环境下,都不能影响屏幕的透明性,从而影响佩戴者的视野。这要求透明屏幕必须根据环境,来调节其画面的显示强度。
增强显示画面,势必会影响屏幕的透明度,从而影响佩戴者的视野。而降低显示画面强度,又会影响画面的质量,从而影响观看体验。
这是一个对立的矛盾问题,想要解决就必须因地制宜。什么时间,那种使用场景下要增强显示画面,什么时候则需要降低显示画面强度。这不仅需要人为进行控制,也需要系统根据相关的使用佩戴环境进行智能自动调节。
除了显示技术难题以外,再有就是信息数据处理能力了,这个同样分为硬件和软件部分。
首先硬件部分,ar眼镜可不同于vr眼镜。因为使用的环境和场景不同,ar眼镜需要长期佩戴,并且适应多种环境,所以要求ar眼镜的体积和重量必须尽可能的轻便。
最理想的状态,那就是一副眼镜,或者说比眼镜大不了多少,也重不了多少,太大太重都会影响佩戴使用体验。
同样矛盾的是,如何在尽可能轻和小的情况下,放置大量的硬件设备,这对于整个硬件的集成化和整合能力都有着超高的要求。
目前普遍做的是将这些硬件设备集成安装在眼镜两端的镜架镜腿上,可即便是如此,还是非常笨重,佩戴起来很不方便。
因为体积和重量的限制,所以注定硬件设备的功率不可能太强,这也极大的限制了系统的运算处理能力。如何提高系统的信息数据处理能力,这也是研发团队必须要解决的难题。
虽然随着5g技术的推广普及,信息数据的高速传播已经不是什么问题。但是如何接收及时的处理这些海量的信息,也是一个非常棘手的问题。
单一环境下还可以,如果是在复杂环境下呢。
假设一个场景,当你走在一个繁华的十字街头,周边所有的建筑,广告牌,乃至一些设施都设置了ar演绎功能。这也就意味着你的ar眼镜要一下子接受大量的ar数据信息,并同时显示在你的屏幕画面中,这对于处理器和系统可有着极大的要求。
最后一个难题,那就是在交互系统方面。vr可以采用穿戴式手套传感器或者是手持操作柄进行控制。
ar就不行了,因为ar要适应于多种环境和场景,所以必须要有一套更加简单直接的方式才行。
目前为此想到的总共有三种方式,首先第一种眼球跟踪控制技术。
通过眼球捕捉传感器来实时的捕捉眼球的转动,眨眼,以及眼球聚焦中心来进行交互控制。这项技术目前已经实现,并在很多设备上面都有很好的应用表现。
一般情况下,这项技术也会配合头部运动传感器来进行使用。比如你抬头向上看的时候,屏幕显示内容向上滑动;低头向下看的时候,屏幕显示内容向下滑动。向左向右看的时候,屏幕显示内容也会相应的向左向右进行滑动。
当你眨眼的时候,可以进行确定选定等操作。比如眨一下眼睛是确定,两下是撤销等等,这就相当于鼠标的左右键。
而眼睛聚焦的焦点呢,也正好对应了鼠标的光标。你往哪里看,焦点就在哪里,和鼠标滑动的光标一样非常灵活。
第二种方式呢,则是采用手势控制技术,利用传感器捕捉前面手势的移动变化来进行交互控制。
比如手向上向下滑动,屏幕显示内容也会向上向下滑动,向左向右也是如此。手指拉动还可以移动屏幕位置,或者放大和缩小屏幕。手指点击确定,挥手撤销等等。
手势识别控制技术,目前发展的也很快,但想要识别高速运动的手势变化,还是有一些困难。这就要求传感器必须对手势有着精准的识别捕捉能力,同时处理器也能够快速准确将这些手势转换成相关的操作指令。
还有一点,那就是每个人的手势操作姿势都不相同,或者说每个人每次的操作手势也都不相同。哪怕是一个手势,不同时间环境场景下也都会有一些变化。
而这就给系统的捕捉识别带来了一定的困难,也因此要求系统必须要有很好的容错性。
第三种交互方式,则就看上去比较科幻了,也就是近来大火的脑机控制技术。简单来说,就是通过思维想象来控制操作。
我们人在想象一件事情或者说一个画面一个物体的时候,所释放出来的脑电波是不相同的。而脑机控制技术,就是利用我们人这些不同的脑电波来对设备进行控制交互。
比如你大脑想象一个向前运动的想法后,大脑会释放这样一种脑电波,脑机系统会识别这种脑电波然后转换成相应的电信号指令,来控制设备进行向前运动。
目前这项技术已经运用到一些领域,其中就有为高位截瘫患者所打造的这种脑机控制轮椅。患者可以通过大脑控制轮椅进行运动停止等等。
还有就是利用这种脑机控制技术,来进行文字的相关输入。据称输入速度能达到每分钟70个字,可以说十分的迅速。
虽然这项技术发展的很迅猛,也是各国各科技巨头们争相研究的热点领域。但是关于这项技术的争议同样没有停滞,甚至越发的激烈起来。
而大家讨论的一个重要核心问题,那就是这项技术安全吗首先是使用安全吗,这么长期的佩戴这种传感器来捕捉脑电波,会不会对大脑有损伤,影响智力,神经系统,还有对于健康有没有影响。
第二种,脑机设备既然能读取脑电波,这就意味着也能输入脑电波。现在互联网安全越发的严峻,万一被黑客掌握了相关技术,然后利用脑机控制技术来入侵人类大脑,那岂不是能够窃取人类大脑中的资料和秘密。
或者更严峻的,万一黑客采用这种方式来给人的大脑传输移植病毒,那怎么办难道真的要将人的大脑重启,或者说直接格式化吗。还是再在大脑里面安装一个杀毒软件,设置个防火墙
第三百六十三章 新产品上的技术瓶颈
其实说白了,不管是ar还是vr制约其发展并真正普及使用无非三个方面,硬件,系统,内容。
硬件是基础,是必须要攻克的第一道难关。只有攻克硬件上面的限制,才有可能进行软件和内容的研发和制作。
系统,这也是一款科技产品最为重要的部分。一款产品的好坏,有一半都取决于系统的优异程度。好的系统除了要求其有着超高的运算速度,超强的智能化思维,以及简单舒适的交互系统。
这个交互系统除了有ui界面外,还包括人机交互方式等等。
而内容则是一款产品能付吸引人的重中之重,前面的硬件和系统不过是为内容搭起一座人和内容之间的沟通交互桥梁罢了。
好的内容往往能带火一款产品,这就像是十几年前3和4格式音乐和电影火爆的时候,迅速带火了当时刚刚进入市场的3随身听和4播放器。
同样例子的其实还有当年吃鸡这款游戏火了之后,因为对于电脑硬件尤其是内存需求较高。所以几乎一夜之间带动了整个电脑硬件市场尤其是内存条市场的发展,使得内存条的价格短时间内翻了数倍。
再比如一些热门游戏发布后,带动相关的xbox或者s游戏机的销售业绩,这些都是以内容带动产品发展的经典案例。
所以关于内容这一块,吴浩非常重视,之前是专门成立了一个项目组来负责这方面的事情。后面林薇的微传媒成立后,他就将这方面的事情交给林薇来接手负责了。
除了大肆收购一些影视和游戏版权以外,吴浩还让林薇进军体育赛事直播方面,积极与几大足球和篮球赛事进行沟通,争取拿到这方面的直播版权。
同时呢,他们也在自己利用他们所开发出来的智能三维渲染技术来进行相关游戏和影视动漫作品的开发制作。力求在相关产品发布时候,同步拿出一些让人眼前一亮的精品游戏和影视动漫作品出来。
不过对于吴浩他们来说,目前首要任务就是完成相关项目产品的研发工作。
没错,这一次他们是将ar和vr共同列入研发计划之中,同步进行研发。这两款产品虽然有一定的区别,但在一些方面还是有很多共同点的。所以同时研发看似分散力量,实际上也算是互相促进,相辅相成。
目前两支研发团队共同面临的就是显示技术的难关了,通俗点就是显示屏幕方面的技术还没攻克。
不管是ar还是vr,都绕不开一个重要部件,那就是屏幕。虽然两者的要求各不相同,但也有很多统一的地方。
比如针对显示屏幕技术方向选择上面,两支团队很有默契的达成了一致。
猜你喜欢