刘森直接把他的智能眼镜的原有的固定脑波操作模式关闭。
然后开始直接通过多应用协同,连接上了刚刚完成的脑波数据模型。
然后开始在眼前的虚拟屏幕上进行了相关操作。
屏幕上的鼠标在QS版广播体操的图标上,他想要打开屏幕上行另一边蓝星畅聊APP 。
只见那个鼠标明没有移动轨迹,而是突然就出现在了蓝星畅聊上,然后瞬间打开了蓝星畅聊APP。
“果然出现了非常明显的变化,原来如果想要打开蓝星畅聊软件,原来在QS广播体操上面的鼠标会慢慢的移动到另一边的蓝星畅聊上面。”
“现在的操作完全更加的快捷,而且精准。”
“原来虽然也是脑波操控,但是在底层操控逻辑上,完全不一样。”
“原来的操控是通过意识中给出移动的念头,然后鼠标进行对应移动,这一切完全原先设定好的程序。这中间有一个认为转化匹配的过程,这一切操控必须是原来已经提前设置好的。”
“一旦你的命令,超出原来设置的鼠标移动动作以外,那么便不会出现对应的响应。”
像是一开始,就给一段固定的脑波进行匹配,X\u003d向左移动1厘米。
我一旦发出X脑波,电脑后台就会自动识别出,X\u003d左移动1厘米,然后鼠标开始向左移动1厘米。
一旦我发出另一个指令,想要向左上方37角度位置,移动5厘米,而这个脑波Y,却无法进行相关识别。
只有我录入相关的37%角计算方法,计算出这个位置,然后才会进行移动。
其中存在无数的计算,和提前预设。
比如更加复杂的我想要桌面上的鼠标箭头,进行向左前空翻360°左旋体两周半,然后在进行俯卧撑10个。
这个命令出来,估计接收指令的CPU都能算烧掉,都弄不明白这个玩意。
毕竟没有设计过相关指令。
但是现在的最新脑波控制,却实进行100%的匹配精确控制。
我们发出这个命令的时候,一边脑海中都会出现这么一个想象,那么那个鼠标就会立刻按照你得脑海想象,明白这个指令。
于是立刻进行动作。
这就是两个模式底层逻辑的不一样。
并且因为之前的模式,所有动作都必须要预设,因此潜力较低,很多工作无法执行。
再加上那个模式有需要进行多重计算转化指令,因此相对于这新的操作模式就存在延迟。
越是复杂的动作延迟性越大。
很多时候,这相差0.1秒,都能决定了很多事情的成败。
比如两人站立进行持枪决斗,一个人发出指令抬枪,瞄准,扣动扳机射击。
而另一个人完全在抬枪的时候就能调整枪口瞄准,等枪抬起就是瞬间射击。
这其中的差别,可能是就是生命。
就是你把指令模拟的同另一个一模一样,那么计算反应,还是需要一个时间差,就是决定生死的那瞬间。
刘森有些高兴,于是立刻进行其他的测试。
他使用了蓝星畅聊同柳颖和殷丹她们进行了聊天,询问了学校建设规划情况。
他只是一个念头闪过。