团体标准网
(19)中华 人民共和国 国家知识产权局 (12)发明 专利 (10)授权公告 号 (45)授权公告日 (21)申请 号 202111635965.4 (22)申请日 2021.12.3 0 (65)同一申请的已公布的文献号 申请公布号 CN 114003190 A (43)申请公布日 2022.02.01 (73)专利权人 江苏移动信息系统集成有限公司 地址 210000 江苏省南京市虎 踞路59号 (72)发明人 李婕 吴利航 孙迎春 董陵  曾琦娟 王剑辉  (74)专利代理 机构 南京泰普专利代理事务所 (普通合伙) 32360 代理人 方晓雯 (51)Int.Cl. G06F 3/14(2006.01) G06V 20/20(2022.01)G06V 10/82(2022.01) G06N 3/08(2006.01) G06T 19/00(2011.01) H04N 13/128(2018.01) H04N 13/194(2018.01) (56)对比文件 EP 2355442 A1,201 1.08.10 CN 110598139 A,2019.12.20 CN 110598139 A,2019.12.20 WO 2017107 758 A1,2017.0 6.29 US 2020394819 A1,2020.12.17 CN 10871264 4 A,2018.10.26 佚名. 《MEC系统与5G网络的关系介绍》 . 《http://www.elecfans.com/to ngxin/ 201909051066097.html》 .2019, 审查员 陈雪梅 (54)发明名称 一种适应多场景和多设备的增强现实方法 和装置 (57)摘要 本发明提出了一种适应多场景和多设备的 增强现实方法和装置, 其中方法具体包括: 步骤 一、 通过信息采集设备采集实际应用场景中的原 始图像信息; 步骤二、 通过适配器将所述原始图 像信息传输中云端处理单元进行数据处理; 步骤 三、 云端处理单元通过数据传输通道将处理后的 图像信息回传至适配器中; 步骤四、 适配器将接 收到的回传数据通过数据传输通道传输给AR设 备终端进行现实世界与虚拟世界的图像数据融 合; 步骤五、 对融合后的图像数据进行可视化的 呈现。 通过将多个深度学习算法整合到一个装置 内, 增强对不同场景的适应能力, 实现用户体验 的提升。 另外, 利用5G技术, 将深度学习算法同AR 技术融合, 让AR技术摆脱设备限制的同时获得更 好的体验。 权利要求书3页 说明书8页 附图3页 CN 114003190 B 2022.04.01 CN 114003190 B 1.一种适应多场景和多设备的增强现实方法, 其特 征在于, 具体包括以下步骤: 步骤一、 通过信息采集设备采集实际应用场景中的原 始图像信息; 步骤二、 通过适配 器将所述原 始图像信息传输中云端处 理单元进行数据处理; 步骤三、 云端处 理单元通过数据传输通道将处 理后的图像信息回传至适配 器中; 步骤四、 适配器将接收到的回传数据通过数据传输通道传输给AR设备终端进行现实世 界与虚拟世界的图像数据融合; 步骤五、 对融合后的图像数据进行 可视化的呈现; 其中, 整体实现过程采用分布式布局实现, 通过划分边缘处理端和云端运算的实现过 程, 减轻边缘处理端的运算压力; 所述云端处理单元支持部署在云计算的虚拟机上, 也支持 部署在有GPU能力的硬件服 务器上; 云端处理单元中将后台管理服务器、 资源分配服务器放在了核心网一端; 将具备渲染 能力及编解码能力的应用服 务器放在了边 缘节点一端, 使其更贴近用户侧, 用于降低时延; 云端处理单元进行数据处理时, 采用深度 学习模型对获取到图像数据进行目标部位检 测和识别, 具体过程包括: 步骤2.1、 获取原 始图像数据; 步骤2.2、 对图像数据中的移动物体进行位移估计; 步骤2.3、 基于位移估计的结果进行位移补偿; 步骤2.4、 结合 位移补偿后的图像数据和当前图像数据帧的变化确定候选目标; 步骤2.5、 基于候选目标确定目标区域; 步骤2.6、 结合选定区域和原始图像数据的预处理结果, 对目标进行识别分类, 进而获 取最终的目标检测结果; 在深度学习模型中, 采用添加残差块的方式构成特征提取主干网络, 用于克服训练过 程中的过拟合问题; 在基于位移估计的结果进行位移补偿时, 采用异常值过滤的方式提高位移估计值的准 确度; 具体的, 异常值过 滤的方式为: 步骤2.3.1、 从所有原 始数据中随机 选取一个最小子集; 步骤2.3.2、 基于这个子集拟合成一个模型; 步骤2.3.3、 根据上一步求解出的模型去判断所有数据, 将数据分为外点和内点, 如果 内点太少, 则跳转至步骤2.3.1; 步骤2.3.4、 根据划分出的所有内点, 重新拟合模型; 步骤2.3.5、 根据最 新拟合出的模型, 判断内外点数目; 步骤2.3.6、 根据判断结果跳转至对应步骤并完成异常值的过滤; 所述判断结果包括: 如果达到最终要求, 则跳出循环; 如果内点太少, 则跳转至步骤2.3.1; 如果内点数目有增加 但是还没有达 到最终要求, 则跳转至步骤2.3.2; 适配器通过数据传输通道与AR设备进行数据传输, 并通过临时存储单元存储从云端和 AR设备终端传输过来的图像数据, 在数据进行传输的过程中, 采用混合加密的报文认证方 式进行认证。 2.根据权利要求1所述的一种适应多场景和多设备的增强现实方法, 其特征在于, 在采 用分布式布局实现整体分析的过程中, 进一 步为:权 利 要 求 书 1/3 页 2 CN 114003190 B 2采用基于5G架构的MEC服务器部署模式, 通过计算和渲染将实时运行结果回传到用户 一体机上; 另外, 云端处理单元在MEC架构中, 属于MEC应用层, 提供云AR渲染及编解码能力, 是基 于虚拟化平台进行部署和搭建的, 与M EC平台架构中的功能组件层提供网络 接口层服 务; 其中所述M EC表示多接入边 缘计算。 3.根据权利要求1所述的一种适应多场景和多设备的增强现实方法, 其特征在于, 所述 云端处理单元对AR设备终端传输过来的数据进 行图像数据处理 时, 采用的算法单元包含至 少两种深度学习的运 算算法, 不同的算法调用根据不同需求进行选择; 进一步的, 基于预设数值设定高分辨率、 低分辨率、 高帧率、 低帧率, 对应算法选择的条 件为: 在网络环境良好且AR设备终端硬件支持的场景 下, 选用高分辨 率、 高帧率 算法; 在网络环境良好, 同时对图像精度要求高的场景 下, 选用高分辨 率、 低帧率 算法; 在网络环境或硬件设备不支持的场景 下, 选用低分辨 率算法; 若对时延要求极低的场景, 选用低分辨 率、 高帧率的算法。 4.根据权利要求1所述的一种适应多场景和多设备的增强现实方法, 其特征在于, 所述 云端处理单元对AR设备终端传输过来的数据进行图像数据处 理时, 进一 步为: 步骤1、 通过 预先训练的深度学习模型对图像信息进行目标部位检测 和识别; 步骤2、 通过深度学习模型提取图像的特 征点; 步骤3、 将提取的特 征点和识别目标的特 征点匹配, 对检测到的目标进行 标记; 步骤4、 标记目标的三维姿态估计, 根据识别目标的特征点、 图像的特征点和摄像装置 的参数, 计算摄 像装置姿态和标记目标的变换矩阵, 从而确定标记的三维坐标; 步骤5、 在云端处理单元进行虚拟场景渲染, 并渲染结果画面传回用户终端, 所传回虚 拟场景和图像标记的三维坐标对齐, 实现虚拟和现实场景的融合。 5.根据权利要求4所述的一种适应多场景和多设备的增强现实方法, 其特征在于, 所述 深度学习模型对获取到图像数据进行目标部位检测 和识别的过程进一 步包括: 获取原始图像数据; 对图像数据中的移动物体进行位移估计; 基于位移估计的结果进行位移补偿; 结合位移补偿后的图像数据和当前图像数据帧的变化确定候选目标; 基于候选目标确定目标区域; 结合选定区域和原始图像数据的预处理结果, 对目标进行识别分类, 进而获取最终的 目标检测结果。 6.一种适应多场景和多设备的增强现实装置, 用于实现权利要求1 ‑5任意一项增强现 实方法, 该装置具体包括: AR设备终端、 被设置为 根据获取到真实场景 数据信息, 完成虚实结合场景的交 互操作; 云端处理单元、 被设置为接收AR设备终端获取到的真实场景数据信息, 并进行数据分 析 适配器、 被设置为与AR设备终端, 用于根据需求 转换信号并进行 数据传输 。 7.根据权利要求6所述的一种适应多场景和多设备的增强现实装置, 其特 征在于,权 利 要 求 书 2/3 页 3 CN 114003190 B 3

.PDF文档 专利 一种适应多场景和多设备的增强现实方法和装置

文档预览
中文文档 15 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共15页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种适应多场景和多设备的增强现实方法和装置 第 1 页 专利 一种适应多场景和多设备的增强现实方法和装置 第 2 页 专利 一种适应多场景和多设备的增强现实方法和装置 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 21:49:06上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。