杂想。201803

nice!光场的概念不新奇,在于实现上的难度。我们人类,总是以自己的第一人称视角,来观察世界,现有的camera技术忠实记录了camera采集到的光线,并回放给眼睛。而另外一个领域,就是三维重建,站在上帝视角,去观察世界,并转换为第一人称视角,从任何角度。这个才是光场的最终含义,也是intel的truescene/google的lightingcamare/magicleap的头显,希望去解决的问题,这是未来。话说回来,google完全可以将目前的lightingcamera的拍摄方式,加入到street产品中,它本身就是通过采集车进行移动而拍摄的,那么再结合算法,可以解决视点超出小小球体拍摄范围的限制。将多个球体的视觉数据连接起来,嗯,几何上可以看成是一个管道吧,增强人类的临场感。

“这种过分谨慎的行为给道路上的其它普通汽车司机带来了很多问题”,嗯,规矩就是用来打破的,哪有那么死板呢。另外,走一步看一步,明显是更加智慧的行为,频繁的短期预测并持续调整,是更加有效的运作模式,就像游戏的fps一样。ai的算法对于其他对象的反馈考虑的太少了,而这个已经超出了机器学习目前的研究范围,属于博弈论的领域,还算空白吧。将博弈算法或者模型,更进一步来说,就是演绎推理能力,以及风险的判断,引入到ai算法中,才会让ai更加智能。

sony尝试让我们感觉到真实,即拥有触觉。力反馈的设备,是xr目前的一个技术瓶颈,那么直接玩模型如何?大的触觉有了,小的细节触觉呢?指尖触摸钢琴键的那种连续的触觉反馈,按下阻尼/下降摩擦/材质摩擦/底部停顿/释放停顿/上升摩擦/弹簧震动,哎呀,真是难以完全表达。可以说,触觉是技术上最难以解决的领域,因为我们人类正是触觉,才能感受到物理世界的多样性,而这,也才是最难以被欺骗的感官神经。

“太阳镜内部还加装了九轴 IMU 感应器,它能够结合手机上的 GPS 来塌车佩戴者的方位和朝向”,有趣和实用的设计。声音,通过骨传导在耳边播放,是让人保持注意力的好的交互方式,毕竟大部分时间,人脑会将主要的算力,用于关注重要的事情,而声音是辅助手段,为人类大脑提供不需要额外算力的信息,例如导航/日历/告警/娱乐。此时,隐秘性是必须要解决的问题。另一方面,声音在我们的物理世界中,也符合波的运动规律,利用双耳声波本身获得的数据,也可以感知很多信息,如多普勒效应来可以获得距离的变化。这样看来,智能耳机,可以更加智能,除了IMU,还可以有Wave,结合机器学习,和已知的事实数据,为人类提供超出人脑算力的即时预测,是很好的方向。BTW,产品可以只做眼镜腿,能让我安装在我自己的眼镜上即可。

“This is very much a computer science project, Candido says”,有趣的项目。从详细的描述中可以发现,气球的运动很像…跳一跳,上升到同流层外以便静止,下降到同流层内以便被风吹动。及时获得同流层的风的信息很重要,他们没有太多描述,技术上通过多气球的配合倒是可以解决,虽然复杂了些。他们也用了机器学习来建立模型,但是“和普通的模型不太一样,不是事先规划完整的路线,而是临时做出一步一步的决定,持续到目标地”,这更像生命智慧的运作形式,很有趣。

“当扫描完成后,再利用算法解析所捕获光子的传播路径”,雪崩二极管+皮秒激光探测器,硬件成本很高呀。算法也需要耗费很大运算量,需要根据反射路径估算多条光线可能的路径,从而符合发射光和接收光之间的时延数据以及角度数据。另外,发射器和墙面的角度是已知的。理论上可行,但运算量确实大,算是一种物理光线追踪的变种吧。

“就像万花筒一样,这个镜像系统可以产生同一场景的不同视角,然后同时投影到摄影机传感器上。接下来,由K-Lens开发的软件将生成光场图像”,有趣的技术。从实现上来说,估计有如下方式,或者将不同景深的图像分时记录,或者记录在不同的投影空间区域上,或者通过编码方式混淆记录在一起。不管哪种方式,监视器上看到的内容,一定要通过他们的软件处理后,才会正常。有意思,就像人类眼睛一样,会采集所有光线,然后通过大脑控制,进行动态聚焦,这就是光场。

“无论是程序错误,还是算法歧视,在人工智能的前沿领域——深度学习中,都变得难以识别”,这很讽刺,我们因为启发式规则难以满足智能算法的适配能力,而引入了机器学习,但是我们最终发现,还是要给机器学习增加启发式规则,防止机器做出让我们不安的决定。欧洲文化,现在变得,有些过于追求人与人之间的平等。所谓政治正确性,都是人类社会内部,在博弈数千年后,形成的潜规则。那么大多数人的想法,是否就是正确的?机器学习获得的结论,是否应该被调整?欧洲的法案,只是想避免出现人与人之间的纠纷,欧洲,已经丧失了主动去探索宇宙的决心。未来,强人工智能一定会出现,那么人类怎么办?我们是否要尊重其他智慧的意愿?或者,打一仗后,再说?

好吧,除了Nyoibo控制器,现在有了ThorHammer控制器,估计还会有很多…控制器。为什么不尝试用多组线性震动马达,来模拟力反馈,就像苹果的Taptic Engine?

“开发者在很多细微的环节中都做了对应的震动反馈处理:比如刷牙时左右晃动的轻微阻力、把物品放到架子上时“咯噔”一下带来的坠落感、旋转按钮时齿轮转动的卡顿感等等。而拼图完成时伴随清脆的提示音指尖传来短促的回弹,仿佛宣告着大功告成;把旧物丢回瓦楞纸箱时每一下都配合了失重感,玩家的心也跟着一下下沉到谷底”,真是用心的设计。触觉作为人体感官之一,在体验上有独特的作用,特别是作用于心理上的揣摩的感觉,真的是生命的伟大进化。因此,我们的指尖才布满了触觉神经末梢,我们才会十指连心,我们才会有“触动”这样神一样的表达。日系的设计,确实是在人性方面思考很深。这种精细的触觉控制,应该进一步扩展到更多的领域,包括自动驾驶,包括可穿戴设备,包括游戏,包括一切人类难以用其他感官(视觉/声音/味道)获得世界印象的领域。

“AR头显厂商ThirdEye Gen在他们的X1智能眼镜中设想了类似的概念。这个平台名为Omnieye,而用户能够在周围环境中以高清方式查看八个或更多的虚拟屏幕”,很好,我调代码时可以更加方便了,explorer/editor/structure/search result N/reference N/output/logout/shell/debug/breakpoint/variable/stack/memory/watch/thread…. 算了下,八个窗口真心不够呀,we need more!

算法的魅力。深度摄像头中的结构光和TOF方案,以及激光雷达的实现,都是采用额外的传感器来获得世界感知能力,而视觉则是我们人类原生的感知能力,而算法,可以让我们逐渐拥有视觉的感知,弃掉多余的传感器,并发展出能够更加深化观察的新传感器。除了人像,我们还希望能够对任意物体进行抠图,并加入任意的新对象,组合成我们心目中的世界影像。最终,我们希望,控制世界的运行。

“波长产生三个光场:近场,中场和远场。对象将显示在两个光场中,并在光场之间混合以实现深度错觉”,MagicLeap的技术确实有创新。如果我没有理解错的话,镜片上有24层波导晶片,怪不得看起来很不透光。这个设备只是物理机制,实现了近似的全息视场,而他们的软件则是关键,通过传感器控制图像生成,然后投射到光导晶片创造的三个光场中,并反射入人眼。形成动态的虚拟世界。这种方式倒是可以形成光线的遮挡,真实物理世界的光线通过camera采集后,集成进这24层波导中,可以虚拟图片遮挡住真实世界。amazing!

“这项研究的结果对于在存储阵列中实现卷积网络提供了一种节能的实现方案”,好吧,卷积。再通过lstm算法实现记忆,那么确实和大脑有些类似了。将内存划分区域,其实就是神经网络的层,实现类似于脑部的划分,脑干/小脑/海马体/皮层…. 再针对具体任务有目的地训练,可以获得一个适应能力很强的存在。这个研究和具体的人工智能技术无关,而是一种架构。

很好的材料,可惜次数太少了,1万次做成护膝的话,跑步一天,只要5公里就没了。它在监测我们的身体指标时,会包括病理指标,如血压/脉搏/心跳等,还会包括空间指标,即人体在空间中的位置。位置信息通过第三方的视觉观测点,也可以获得,这是传统数学和物理研究的问题领域。我觉得更有趣的一个方向,是和柔性外骨骼结合起来,除了能提供类似于肌肉那样的动力外,还可以实现对于力的大小的监测,并在外骨骼的应力到达临界点之前,提醒佩戴者,并适当放弃,防止外骨骼断裂。

“那么,数学已经基本全还给老师了怎么办?Python从入门到放弃了好几次怎么办?”,哈,都已经放弃好几次了么?话说回来,lisp重新被拾起来,也是有趣,语法很简洁,设计很头大,代码也很难看。不过,它倒是符合归纳的思路。也许,我们可以将神经网络的模型,转化为lisp代码,帮助我们理解黑盒。

有趣。使用现有的成熟解决方案,适配到更多的环境中,加快部署时间,降低成本。安全问题是个考验,在地面上搭建伪基站,就可以实现信息监听。再实现下行控制的话,可以远程操控了。如果弄个高功率的射频模块,有可能接入到月球的基站,那么真的是漫游了,不过漫游到地面站而已,收费和出国漫游一样的。

尽管控制器的总重量显然无法改变,但重心(以及转动矩量)却能够改变,从而影响你对握持对象形状的感知。Rosado在视频中表示,虚拟武器没有任何人工后坐力,它们的运动完全是根据Nyoibo原型的真实反馈。 我们同时看到了能够允许玩家随时随地手动切换不同姿势的变形控制器,利用物理学来创建握持更大对象幻觉的静态控制器,甚至是通过基于软件的方法来向玩家传达重量。

“利用AR来围绕真实物体设计结构和对象是一个尚未探索的处女地,而Peng表示对于AR与3D打印之间的潜能,他仅仅只是触及了皮毛”,funny。深有体会,复杂的设计结果,一直停留在头脑中,令人难受。即使通过软件工具,可以预览后期的结果,也是意犹未尽。设计过程中,真的很想触摸那半成品,并及时改进。除非是标准化的现有产品,否则创意产品的设计和研发规程,难以瀑布式开发,需要迭代。软件领域早已采用这种模式,就像git的原则一样,少量更改,大量提交。发现问题,并调整设计,将让我们更快达到目标。至于由此引入的完美主义者拖延症,那时每个人的问题,与工具无关,而这,也造就了人与人之间的差异。

“Mobileye认为,让我们今天驾驶的汽车观察前方的路况,是效率和成本效益更高的方式”,这也是更加智能的方式。世界是动态的,人类始终处于“预测并行动”的反馈循环中,不会有静止的地形,只有无尽的分析。特斯拉不用lidar,除了成本考虑外,很大的原因,在于数据的完整性。视觉数据,是我们目前最为丰富的感知数据,激光雷达的线,真的是信息量太少了。分析视觉数据,然后构建世界模型,是人类大脑做的事情,也是机械智能要去做的事情。机械可以观察到超出人类感知器官范围的信息,例如超声,但人类通过建立映射关系,可以去理解这些信息,并最终扩充自己大脑的模拟世界。从这里,我们可以发现很多机会,视觉模型的分析/数据加工的加速/传感器数据的处理,都是为了让汽车,能离开人类的时刻的精细监控,而只需要下达粗略的任务描述。

研究员研发可伸缩传感器,承受高达350%原始尺寸应变 | 映维网 - 国际影响力虚拟现实(VR)产业信息数据平台,致力于引导全球虚拟现实(VR)产业发展 Low-cost ultra-stretchable strain sensors for monitoring human motion and bio-signals - ScienceDirect