toppic
当前位置: 首页 > 价格排行 >HoloLens 2配置吓人要报警;MR Toolkit-Unity开发系列;高通PC-Win10-850

HoloLens 2配置吓人要报警;MR Toolkit-Unity开发系列;高通PC-Win10-850

VR一AR一MRcn2022-08-23 14:38:29

下一代HoloLens部分配置已敲定,听说逼格炸裂得要报警?

据了解,截至目前,微软HoloLens开发版本已在全球售出约5万份。对于主要面向混合现实开发人员、教育机构和企业售卖的开发版本来说,这样的成绩已经很不错了。


文中涉及图片均为HoloLens第一代


于此同时,下一代HoloLens的研发,也愈加引人注目。那么,HoloLens 迭代产品已经公布的组件有哪些亮点,以及它可能搭载哪些新技术呢?


下一代HoloLens确定搭载:Kinect 4+HPU+ARM芯片+光引擎


距离第一代HoloLens向开发者们出货已有两年时间,而这一时长,已经足够让硬件进行迭代了。因此,大家对下一代HoloLens的期待,也是与日俱增。下面,小编先带大家整体了解下HoloLens迭代产品已经公布的组件规格。


Kinect重出江湖:更高效的云端处理


微软在Build 2018大会上,正式宣布了Project Kinect for Azure项目,三年未更新且被微软宣布放弃的Kinect重出江湖。第四代Kinect包括多个传感器,比如飞行时间传感器、镜头传感器等。



其中,飞行时间传感器将用于HoloLens迭代产品,该传感器分辨率达到1024×1024,并且搭载了一个可以提高日光下性能表现的全局快门。同时,还具有最高的品质系数,即最高的制频率和调制对比度,而这意味着更低的功耗。




Kinect 4设备的前端可实现之前Kinect的一系列功能,后端则应用了Azure云平台的机器学习、认知服务以及IoT Edge等AI服务。基于此,Kinect 4可以更好地将下一代HoloLens集成至云端,并优化智能边缘平台。即便网络有限或无连接,系统也能获取更多的机载智能,更高效的AI,以及更有效的带宽使用和云端处理。


HPU 2.0:配AI协同处理器,实现深度神经网络


2017年,微软研究工程师道格·伯格(Doug Burger)透露:HoloLens迭代产品将集成新的定制的全息处理器单元(HPU 2.0)。该单元将配备一个AI协同处理器,能够以本地方式灵活地(以高效低耗电的状态)实现深度神经网络(DNN)。




这意味着HoloLens迭代产品,能够在本地自行分析用户所看和所听到的内容,而无需费时向云端发送任何数据,从而可以做到更快地识别物体和环境。


另外,值得一提的是,全新的AI协同处理器支持多层次运算,也可以按需定制。这个AI协同处理器能够持续运行,除了增加下一代HoloLens的续航能力之外,还可以通过手部分割实现更复杂的手部追踪功能,并且能够在不发送样本至云端的情况下进行设备语音识别。


ARM芯片:支持高效续航和LTE


除了新的HPU外,微软还证实,下一代HoloLens将弃用Intel Atom处理器,改用ARM芯片,以提高能耗效率,并支持真正移动全息计算的LTE。这意味着,HoloLens迭代产品将拥有更长的续航(之前HoloLens的续航为三个小时)和电池寿命,以及始终连接的状态。另外,下一代HoloLens将比以往更具移动性。




同时,下一代HoloLens采用的系统将变为基于WindowsCoreOS打造的全新操作系统。它是Windows10的衍生版本,专门为混合现实设备打造。


光引擎:微软正全力以赴地设计与开发


光学方面,现在的Hololens搭载透视全息镜头(配备2块高清光学引擎(16:9)镜片),使用一种高级光学投影系统,具备瞳孔距离自动校准功能,可以极低延迟、生成多维全彩色全息图,让用户在真实世界中看到全息影像。


而要获得出色的全息体验,关键是要有光点丰富的全息影像,即具有较高的全息密度,并固定到用户周围的环境。而目前HoloLens的全息密度已大于2.5k 弧度(每弧度光点,弧度和光点越多,全息影像就会变得越亮和越丰富),是基于现有硬件条件下的最佳全息密度。




据悉,针对光引擎,微软正全力以赴地在内部(不依靠第三方协助)进行设计与开发。而与第一代相比,HoloLens迭代产品最大的变化可能就是光引擎,不过这种硬件的规格很难实现。


看到这儿,大家对下一代HoloLens应该已经很期待了,不过,这并不是全部。


下一代HoloLens可能搭载:平面镜头技术+电容式传感器技术等


除了上述确定搭载的技术,从微软申请的一些专利文件中,大家或许觉得HoloLens迭代产品还有很多可提升的空间,而一些其他的黑科技也很有可能被真正应用到下一代Hololens中。


更广的视场角:FOV可能提升到70度,甚至是90


微软HoloLens有限的视场角(FOV)常常为大家所诟病。对此,微软表示,这是由于现在使用的解决方案的物理特性导致的。为了在波导镜片中呈现更好的反射角,他们不得不将其限制在35°角范围,这直接决定了用户在佩戴后的视场角。而现在,微软似乎已经找到了解这个问题的办法。  




据悉,微软已经向世界知识产权组织提交了一份专利,描述了一种能够扩大HoloLens视场角的方法——该方法涉及分割图像,通过光波导使用中间件,对两个单独的组件进行数据传输,并且组合它们。


微软发明家兼光学工程师Tuomas Vallius和Jani Tervo表示,即使每个组件仅支持35度,也能让HoloLens的FOV不低于70度。另外,这种方法还能节省高达50%的功率。


更小巧更低成本:或搭载平面镜头新技术


除了视场角的问题,HoloLens在佩戴的舒适度上也一直有所欠缺。HoloLens整体重量达到579g,虽然巧妙利用鼻托和头环来分散压力,使得带上去之后不至于太笨重,但也绝算不上轻盈。



不过,据了解,微软似乎已经为新款HoloLens设备申请了一项,带有红外发射和接收传感器的平面镜头专利。该专利全称为“可以被整合到头戴显示装置中的平面镜头影像设备与系统”。



这项技术旨在升级Hololens中类似Kinect的深度传感器组件。另外,与传统曲面光学镜头方案相比,平面镜头装置的体型可以做到更小。而由于平面镜头是基于微观表面结构的,这使得将其集成至芯片的过程变得更简洁,也就意味着成本更低。


更精准、灵敏的体验:或配眼球追踪功能


大家知道,目前HoloLens并不具备眼球追踪功能,而是依靠检测头部的位置来判断用户在看什么。不过,早在2016年,微软就申请了一项专利,该专利描述了一项有关“用于确定眼睛视线直径方向的电容式传感器”的技术。这将使头戴设备对眼球视线跟踪,更简单、更便宜以及更美观。


在专利描述文件中,提到该技术是在眼镜的镜片上,装配透明电容传感器阵列。其可以是通过眼镜框架,接到头部的非常细的丝网或导电聚合物。它能够检测到眼睛角膜的位置和距离,并以此作为用户视线方向的参照物。这项技术还具有反应快、低延迟的优点,允许传感器追踪非常快速的眼球运动。



如果这项技术能够出现在HoloLens迭代产品上,那么,毫无疑问,下一代HoloLens就能够带来非常精准的视觉体验和灵敏的操作控制。


方便触摸输入:或配置变形传感器


2017年,美国专利商标局公布的微软的专利申请中,介绍了一款未来的可变形传感器。据猜测,该传感器可能被应用在HoloLens上。该传感器可以用于检测HoloLens设备的背面压力,那么,用户无需放下手持计算设备就可以进行触摸输入。



目前,这四项技术是否会被真正应用到下一代Hololens中,还无从得知。但下一代Hololens的迭代工作,确实在稳中求进地进行着。而新一代Hololens可能带来的体积、视场角以及价格等方面得的优化,仍是很值得期待的。


Mixed Reality Toolkit-Unity开发系列—Input模块

在《Mixed Reality Toolkit-Unity开发系列—Sharing模块》中,我们首次开讲HoloLens开发神器-微软原生开发包Mixed Reality Toolkit-Unity(简称“MRTK”),并介绍了Sharing模块的相关功能及原理。MixedRealityToolkit是一个开源的开发工具,它能够帮助开发者快速的构建 Microsoft HoloLens以及Windows Mixed Reality headsets应用。随着Unity的版本升级,MRTK也发布了相应的版本进行适配。MRTK包含Sharing、InputSpatial Mapping等九大模块,今天我们继续学习的是Input模块。

Input模块的使用


Input在不同的平台表现的方式都不同,在Mixed Reality平台上有一些输入方式,首先介绍的是Input模块的使用。其中主要涉及到两个prefab(Prefab路径HoloToolkit-Input-Prefabs):

(1) MixedRealityCameraParent.prefab:

MixedRealityCameraParent.prefab是MixedRealityCamera.prefab的父物体,MixedRealityCamera.prefab中通过脚本MixedRealityCameraManager.cs对camera参数进行默认设置。例如,Clear Flags设置为Solid Color、BackgroundColor设置为Clear(0,0,0,0)、NearClip设置为0.85、QualitySetting设置为Fastest。

(2) InputManager.prefab:

InputManager.prefab用于管理HoloLens中的多种输入方式,例如手势、Xbox手柄等;以及在编辑器中通过键盘上的Shift和Space来模拟点击手势。

我们可以使用这两个Prefab来实现Input提供的功能。当然你还可以添加DefaultCursor来对游标进行控制。

Input模块的实现原理


Input是集成了目前支持的所有用户交互方式,包括Gaze(视线)、Gesture(手势)、Voice(语音)以及Motion controllers(运动控制器),用户可以通过以上的途径来操纵场景中的物体。对于用户来说,精准的交互输入是保证体验的重要标准,下面我们通过几个例子来为大家解释其中的原理 (下文使用的软件工具为:Unity 2017及Visual Studio 2017)。

Gaze(视线)
  •  Scene:GazeEvents

该场景实现IFocusable接口来响应视线进入和移出。


图 1 Ifocusable接口

如图所示,视线移入调用OnFocusEnter(),视线移出调用OnFocusExit()。在这个例子中,我们可以发现,OnFocusEvent类实现IFocusable接口。


图 2 OnFocusEvent类

在Unity中,检查该脚本所属物体的的Inspector面板,可以发现, OnFocusEnter和OnFocusExit事件都被绑定在灯光强度的控制方法上。

图 3 RightSphere的Inspector面板


Gesture(手势)


  •  Scene:InputTapTest

该场景实现IInputClickHandler接口来响应点击手势。

图 4 IInputClickHandler接口

说明:在Unity中,按住左侧的shift并点击鼠标来模拟左手点击,按住空格键并点击鼠标来模拟右手点击。

图 5 TapResponder类

在这个例子中,通过点击cube,调用OnInputClicked方法;在OnInputClicked方法中通过修改cube的localScale来增大cube的比例。需要注意的是eventData中的Use方法,该方法可以理解为将此次点击事件标记为已处理状态,防止事件的再次转发或者再次进行响应。

  • Scene:

    InputNavigationRotateTest

该场景实现INavigationHandler接口来响应导航手势。

图 6 INavigationHandler接口

上图所示命令分别代表:

(1) OnNavigationStarted :这是导航手势开始方法,对应拇指与食指的捏合手势;

(2) OnNavigationUpdated :这是导航手势更新方法,对应捏合手势以后的移动过程,可以在该方法中实现缩放、移动、旋转等功能;

(3) OnNavigationCompleted :这是导航手势完成方法,对应拇指与食指松开的手势;

(4) OnNavigationCanceled :这是导航手势取消方法,对应取消手势;

  • Scene:

    TwoHandManipulationTest

在模块最近的更新中还添加了对双手操作的支持,相较于单手对模型的移动、旋转和缩放,双手操作更加灵活方便。使用方法也很简单,只需要把你需要操作的模型中添加TwoHandManipulatable.cs脚本。

其中包括5个配置选项:

(1) HostTransform:表示要操作的对象,默认为添加改脚本的模型;

(2) Bounding Box Prefab:操作模型是显示的边框,可以自定义或者不添加;

(3) Manipulation Mode:操作模式包括Scale、Rotate、Move Scale、Rotate Scale、Move Rotate Scale五种;

(4) Constraint On Rotation:针对旋转模式,可以指定只旋转单个方向或者所有方向;

(5) One Handed MoveMent:是否支持对模型的单手移动操作;

添加完成后,就可以双手进行操作。


图 7 双手操作示意图

Voice(语音)
  •  Scene: SpeechInputSource

该场景实现ISpeechHandler 接口来进行语音控制。

图 8 ISpeechHandler 接口

其中eventData参数属于SpeechEventData类型,该类型继承BaseInputEventData ,包括两个属性:

(1) PhraseDuration 表示关键字的语音时长;

(2) RecognizedText 表示语音识别后的文字结果,该场景只是用到了这一属性;

图 9 通过语音识别结果改变颜色

从上图可以看到,识别结果通过eventData的RecognizedText属性传递给ChangeColor方法;在ChangeColor方法中对识别结果进行判断,然后改变为对应的颜色。

与上面所说的几个场景不同之处在于,该场景中InputManager和SpeechInputSource一同作为Managers的子对象。SpeechInputSource对象的SpeechInputSource.cs脚本包括多个属性:

(1) PersistentKeywords :控制语音识别实例是否会在加载新场景的时候被销毁;

(2) RecognizerStart :是一个枚举类型;

(3) public enum RecognizerStartBehavior 

{ AutoStart, ManualStart }:

该命令的作用是控制语音识别功能自动开启还是通过代码控制来开启;

(4) Keywords :是一个数组,用于加载需要识别的关键字和键盘快捷键;

  • Scene:DictationTest

该场景实现IDictationHandler 接口来进行语音识别。

图 10 IDictationHandler 接口

其中4个方法对应不同的识别阶段:

(1) OnDictationHypothesis :识别推测;

(2) OnDictationResult :识别结果;

(3) OnDictationComplete :识别完成;

(4) OnDictationError :识别错误;

使用 speechToTextOutput.text

=eventData.DictationResult; 在四个方法中都进行赋值。

方法中的参数eventData属于DictationEventData类型,该类型包括两个属性:

(1) DictationResult :字符串类型,是语音的识别结果;

(2) DictationAudioClip :AudioClip类型,是语音识别最后一条;

另外需要注意的是使用语音识别功能需要开启特定的权限,开启方法:Edit -> Project Settings -> Player -> Settings for Windows Store -> Publishing Settings -> Capabilities

Motion Controllers(运动控制器)
  • Scene:XboxControllerExample

该场景实现IXboxControllerHandler 接口通过Xbox来控制cube。

图 11 IXboxControllerHandler 接口

其中XboxControllerEventData 类型的参数eventData包括多个属性:

(1) GamePadName :表示所连接手柄的名称;

(2) XboxA_Pressed :A按钮是否按下所有按钮的点击状态;

该场景中通过Xbox的左边摇杆来控制cube的位置。

图 12 修改位置

通过Xbox的右边摇杆来控制cube的旋转:

图 13 修改角度

通过Xbox的Y按钮来重置cube的移动位置和旋转角度:

图 14 重置位置和角度

本文对Input模块的分析是基于MRTK中的demo进行的,有过微软Academy开发经验的朋友可以结合MRTK进行阅读。本篇选取了几个典型的场景Scene,其余的场景,读者可以自行运行测试。更多细节请参考MixedRealityToolkit-Unity官方文档 

Qualcomm推出面向Windows 10 PC的骁龙850移动计算平台

今日,Qualcomm Technologies, Inc. 在 2018 年台北国际电脑展览会(COMPUTEX 2018)期间举办的新闻发布会上宣布,与三星电子有限公司展开合作,在三星未来推出的 PC 产品中搭载集成了先进的骁龙 X20 LTE 调制解调器以及 Qualcomm人工智能引擎 AI Engine 的 Qualcomm®骁龙™850移动计算平台

 



Qualcomm 高级副总裁兼移动业务总经理 Alex Katouzian 表示:

 

在过去一年所推出的始终连接的 PC 产品组合基础之上,我们很高兴能与三星合作,为消费者提供真正的移动性,并与 Windows 10 的生产力和娱乐特性相结合。为了切实扩展这一品类,与诸如三星这样的移动领军企业合作,对于帮助我们向消费者提供下一代始终连接的 PC 来说至关重要。

 

骁龙850移动计算平台旨在于 PC 中支持许多备受欢迎的智能手机特性:保持 LTE 或 Wi-Fi 的始终连接,使用户能在移动状态下接收通知,并实现近乎始终的数据同步。

相较于前代产品,这种高能效的架构将支持高达 30% 的系统级性能提升,同时 AI 性能提升至高达三倍支持高达 1.2Gbps 的 LTE 连接速率,以及长达 25 小时的连续使用或在日常普通使用场景下(电池续航时间可根据设置、使用状况和其他因素不同而产生差异)支持持续多天的电池续航。



三星电子移动通信业务执行副总裁兼战略营销负责人 Kyungsik Choi 表示:

 

三星了解消费者的独特需求,并致力于打造创新产品,支持他们的‘移动’生活方式。与 Qualcomm 的合作及其骁龙850移动计算平台,将使我们能够为客户提供始终在线、始终连接的移动计算体验。


与现有的 14nm 解决方案相比,得益于 10nm 工艺节点的领先效率,骁龙850移动计算平台可支持移动领域客户打造更流线型、便携的无风扇设计。除此之外,骁龙850移动计算平台全新改进的特性可支持终端侧 AI 体验,而用户将能享受到拍摄、语音和电池续航方面的特性提升。


同时,先进的图形和高品质音频可帮助用户在观看或拍摄相关内容时最大化其娱乐体验。所有这些都将支持完整的 Windows 10 体验,包括利用微软小娜(Cortana)实现的生产力,以及娱乐与安全性。用户现在可以利用他们的始终在线、始终连接PC(需要网络连接)轻松进行创作、协作、连接和共享。


搭载骁龙移动计算平台的 Windows 10 产品预计将于今年晚些时候通过零售渠道上市。


AWE 2018回顾|新产品“百花齐放”,智能眼镜挑花了眼

美国时间5月30日至6月1日,第九届AWE(世界增强现实博览会)大会,在美国加利福尼亚州,圣克拉拉会议中心成功举办。AWE是全球VR/AR行业最大的博览会之一,每年都会有众多VR/AR公司,在大会上展示自己的新产品和技术。

那么,今年的AWE会继续给大家带来惊喜么?随小编一起看下吧。


Varjo最新VR原型机,新增AR功能


在今年的AWE上,致力于打造“人眼分辨率”级别VR头显的Varjo公司,展示了其最新款VR头显原型,并新增AR功能。


与第一代原型机相比,新原型机依旧是每眼睛配两个屏幕。其中,情景显示屏分辨率有所提高,单眼1440×1600像素;焦点显示屏分辨率则保持原有的单眼1920×1080像素。


此外,新原型机配备了一对4K摄像头,支持以每秒90帧实时捕捉视频。并且,通过使用板载处理器并优化各种软件,还可为用户带来无缝的MR体验。另外,Varjo还表示新原型机将支持Steam VR 2.0追踪系统。


RealWear展示工业用AR眼镜,支持全语音控制


在AWE大会上,RealWear展示了其第一款商用AR智能眼镜——HMT-1Z1,是全球唯一通过ATEX Zone 1安全认证的工业用AR眼镜。这款眼镜可为技术人员和工程师提供远程指导,以加速传统工业走向智能化。




通过HMT-1Z1,用户能将现场的所需信息(数据、视频、图片、图纸等),以第一视角呈现在眼前。另外,HMT-1Z1还支持全语音控制,可与标准安全帽配套使用。目前,RealWear已通过其AR眼镜,为霍尼韦尔、家乐福等企业提供工业解决方案。


Kopin推出新AR眼镜,支持手势识别和语音控制


Kopin发布新AR眼镜Kopin Golden-i Infinity,该眼镜采用模块化设计,眼镜紧凑便于携带,重量仅约43克,不会对使用者造成太多的疲劳或压力。



Golden-i Infinity专为企业用户设计,其具有854×480分辨率、20度视场角和声控缩放,配备了麦克风、扬声器和1300万像素的摄像头,可进行视频通话。此外,Golden-i Infinity可兼容Windows 10和Android设备,车载语音助理也可通过该眼镜的语音控件进行访问。


据悉,Golden-i Infinity计划在今年第三季度推出,零售价约为899美元。


影创科技发布两款全新MR智能眼镜:Action One和New Air 2


Action One,是一款双目MR全息智能眼镜。整机采用一体设计,搭载高通骁龙835处理器,视场角为45°,配备三个摄像头,可实现完整6自由度的全息效果。并且,可以使用手势操作。




此外,Action One开发者版本提供SDK和ROOT权限,而消费者版提供质保和丰富应用。据悉,开发者版售价5500元,将于本月底上市;消费者版售价6999元,将于8月底上市。


New Air 2,是New Air的迭代产品。其搭载高通骁龙845芯片,双眼1080 P分辨率,刷新率为1000Hz,视场角达60度,拥有1300万高清摄像头以及双6DOF空间定位摄像头。此外,升级到4000毫安的电池,可确保4个小时左右的持续运行,以及长达一周的待机时间。


另外,为保证用户佩戴轻便,New Air 2依然采取分体式设计,即将电池、主板以及音响设备集成于“颈挂式”的分体部分。据悉,New Air 2预计7月开启众筹。


Wikitude推出新版本AR SDK,或解决多人AR隐私问题


在AWE 2018大会上,初创公司Wikitude推出了Wikitude SDK 8测试版,新版SDK具备很多特性,例如多人AR交互、锚定点、对场景的识别等。



值得一提的是,Wikitude非常重视AR内容共享过程中的隐私问题。因此,测试版SDK提供了一个建立“micro AR cloud”的功能,可以让用户决定是否分享自己的内容,以及分享给谁,是否显示位置,共享多长时间等等。


据悉,Wikitude SDK 8可兼容iOS、Android、Windows三个平台,目前测试版已开放下载。


Lumus与Tobii合作,将其眼动追踪技术整合至DK50 AR开发套件


在本次AWE2018大会上,AR光学显示器厂商Lumus宣布,将把Tobii的眼动追踪技术整合至其智能眼镜Lumus DK50 AR开发套件中。  



据悉,Lumus DK50搭载骁龙820,分辨率为1280×720,帧速率为60fps,视场40度。此外,其拥有包括厚度小于2毫米的波导显示器OE50,以及一对同步的400万像素摄像头。

 

Lumus致力于为智能眼镜和头显,提供世界上最好的透明显示器,改变人们与现实的交互方式。通过与Tobii合作,Lumus表示:可以为OEM厂商提供极具吸引力的AR显示组合。


去年的AWE上,VR/AR公司展示了各类新产品。比如,爱普生发布了BT-350智能眼镜套件和BT-2200头戴设备;Kopin展示出小体积VR头显样机;AR 技术提供商PTC宣布了正在开发的应用Project;ChalkZapper发布了AR工具ZapWorks等。


而在与小编一起对本届AWE大会进行回顾后,相信大家也能看到,今年新产品依旧是“百花齐放”,包含新的头显、新的解决方案等,其中智能眼镜依旧有很高的出镜率。不过,大家看完可能已经感觉到了“索然无味”——新产品似乎并无突出亮点。




例如Kopin发布的AR眼镜Kopin Golden-i Infinity,分辨率只有854×480,视场角也只有20°,850美元的售价似乎并非物有所值。而Lumus DK50 AR无论从其搭载的骁龙820,还是1280×720的分辨率,或是40°的视场角来看,也都平平无奇。而Varjo的新头显尚处于原型机状态。


不过,本届AWE大会,也有让人欣喜的地方。比如,影创的New Air 2,相较而言,从参数来看似乎算不错的了。除了搭载骁龙845,摄像头配置也不错,拥有1300万高清摄像头+双6DOF空间定位摄像头。而Wikitude推出的“micro AR cloud”功能,对隐私问题的重视,也让人眼睛一亮,这也迎合了包括企业员工在内的消费者的心意。


虽然,本次AWE大会给大家带来的惊喜,似乎与其打破了往届参展记录这一点,不成正比。但也多少让人感受到VR/AR行业相关技术正处在沉淀和积累的阶段。而VR/AR产品要在日常生活中普及,真正进入普通消费者手中,还是值得期待的。只不过,小编不得不说一句“革命尚未成功”,VR/AR技术“向上求索”的道路还很长。


从LED走向Mini LED,封装环节有哪些考量?

随着OLED逐渐推出市场,以高色域,主动显示,轻薄,能够弯折等一系列显而易见的优势,迅速获得市场的认可。但同时也存在价格高昂,应用领域受限等一系列问题,而恰好传统的TFT-LCD显示与Mini LED背光源的结合将会成为很好的解决方案。目前市面上比较热门的Mini LED的研究以及应用主要集中在背光显示领域,它的出现能够弥补OLED应用领域受限以及成本高昂的缺陷。

Mini LED背光源的出现主要是基于小尺寸倒装蓝光芯片技术以及更高精度的转移技术的成熟,传统的LED光源封装厂只需要对上述封装工艺进行微创新即可将大量的固晶设备应用于Mini LED的批量化生产,凭借产能优势迅速地占领市场。目前国际、国内一线的封装厂均投入巨资进行开发,布局Mini LED未来量产化。

目前存在的主要问题在于:

1.模组厂与封装厂需要更加紧密的合作,才能突破产业瓶颈。Mini LED背光源主要需要跟模组的结构,光电特性进行客制化开发,如果没有模组厂商的配合,单靠封装厂一己之力很难将产品推向市场化。

2.需要突破巨量转移的技术,传统的固晶机在固晶精度以及速度上可以满足一部分的应用,但在未来Mini LED发展中将会愈来愈受到限制。更低功耗更小尺寸的芯片转移将会面临挑战。

3.可靠性、一致性的问题,由于Mini LED基板上有数千或者更多的芯片,保证每个芯片都能够与基板实现高可靠性的粘接,目前的技术需要进行优化,良率的问题是制约成本降低的拦路虎。 

4.光点问题的解决,由于LED是点光源,如何保证芯片正上方的显色均匀性与非芯片区域的一致性,目前各个厂家均在开发,还没有完美的解决方案。

5.Mini LED面光源的厚度问题,在便携式显示领域将会成为障碍。如何通过降低各种材料的厚度,实现在便携式显示器上的应用,需要芯片厂,基板厂以及各原材料供应链上厂商的共同努力才能实现。

鸿利智汇作为LED封装领域的技术、产能的优势厂商,一直积极关注行业新的技术动向,在Mini LED领域,公司也投入巨资进行开发。目前在巨量转移技术、大尺寸面板上已经有些突破,机会合适,集团将会对外予以通告。本次展会,我们将会带来Mini LED的相关展品,以及我们目前掌握的工艺能力,能够更好服务于广大的模组厂商。


AR眼镜开发商亮亮视野获建银国际领投亿元人民币B+轮融资

  今日,亮亮视野宣布获得亿元人民币B+轮融资,本轮融资由建银国际领投,蓝驰创投、经纬中国跟投。此前VR网曾报道过,亮亮视野获得了来自蓝驰创投领投,经纬中国跟投的千万美元级别的B轮融资。2015年获得来自经纬中国数千万人民币的A轮融资。

  亮亮视野创始人兼CEO吴斐表示:“在本轮融资之后,亮亮视野将会进一步强化在安防、工业、医疗等行业的落地优势,继续深耕AR+AI技术的核心领域及产品多样性的更迭,拓展商业版图,加快未来在各产业的全面落地。”

  在吴斐看来,亮亮视野获得资本青睐有加的原因也是基于亮亮视野规模商业化落地的应用。

  领投方建银国际表示: 亮亮视野是国内领先的智能眼镜研发企业,其第一视角交互能力为企业降本增效,在工业、安防及医疗等领域得到了有效应用,并受到众多行业头部客户认可。

  蓝驰创投执行董事曹巍表示:亮亮视野已成为AR领域的标杆落地应用样板,团队在技术创新和商业化推动上的能力领先于业界。亮亮视野在嵌入式人工智能算法和光学底层技术研发方面的成果,帮助公司建立起了更长期的综合技术壁垒。此外,业务拓展方面,工业场景已经进入到规模化放量阶段,安防场景实战效果显著,海外市场也已经开始加速拓展。

  亮亮视野成立于2014年,立足于通过AR技术驱动下的“第一视角交互“变革商业视界,实现多维度的连接、认知与协同,推动人机协作,帮助工业、安防、医疗等行业企业,实现智能化升级。目前,在光学、人工智能、交互技术等领域,亮亮视野已建设了一套完整的“技术-产品-商业”的平台。

  吴斐表示:“亮亮视野通过大量的研发、市场调研和论证,形成了清晰的产品路径设计,即通过视频、视觉和智能三个阶段的赋能,将AR第一视角交互技术从一部分人受益过度到让所有人受益。”

未完待续.....................



更多价格排行