CN112416123A - 基于增强现实技术的精确定位寻人设备 - Google Patents

基于增强现实技术的精确定位寻人设备 Download PDF

Info

Publication number
CN112416123A
CN112416123A CN202011241467.7A CN202011241467A CN112416123A CN 112416123 A CN112416123 A CN 112416123A CN 202011241467 A CN202011241467 A CN 202011241467A CN 112416123 A CN112416123 A CN 112416123A
Authority
CN
China
Prior art keywords
person
mobile terminal
lens
augmented reality
accurate positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011241467.7A
Other languages
English (en)
Inventor
汪菊霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202011241467.7A priority Critical patent/CN112416123A/zh
Publication of CN112416123A publication Critical patent/CN112416123A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Abstract

本发明公开了一种基于增强现实技术的精确定位寻人设备以及基于该设备的方法,使用全球定位系统结合增强现实技术,在眼镜终端中生成对应被寻人位置的虚拟图像,通过参考虚拟图像在现实场景中的位置实现对人或物的快速精确定位。其技术方案要点是:基于增强现实技术的精确定位寻人设备,包括第一移动终端、第二移动终端和眼镜终端,所述第一移动终端和第二移动终端均内置GPS定位系统,第一移动终端内置处理器、传感系统、交互系统和通信系统,所述眼镜终端设有摄像头、镜片和无线适配器,所述镜片中设有成像模块,无线适配器与第一移动终端通过无线通信技术建立连接。

Description

基于增强现实技术的精确定位寻人设备
技术领域
本发明涉及医疗护理用品领域,具体为一种基于增强现实技术的精确定位寻人设备及方法。
背景技术
增强现实(Augmented Reality),简称AR,是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标就是把虚拟场景叠加到现实场景里,将真实的环境和虚拟的物体实时地叠加到同一个画面和空间内同时存在。由于其虚实结合的特点,其在城市规划和管理中的应用越来越广泛,特别是基于地理位置定位的增强现实系统,其可根据现实场景的地理位置应用虚拟场景。
目前,GPS全球定位系统(Global Positioning System)是应用最广泛、最有效的定位技术,可用于快速寻找目标人和目标位置,但是,现有技术中仍然存在以下不足:
1.当处于人群密集、嘈杂的环境中时,即使身处于被寻人附近,也可能由于视野被遮挡、干扰因素过多导致寻找人无法快速找到被寻人。
2.当需要寻找的人是未见过面的人时,或者是长时间没有见过面的人时,即使已经定位到被寻人的具体位置,也难以快速认出所要寻找的人,不仅浪费时间,还会导致认错人的尴尬局面。
3.手持手机或平板定位寻人时,需要持续性地盯着屏幕,容易忽略障碍物导致发生危险,且只通过屏幕上的图标难以准确判断出被寻人的准确位置。
发明内容
本发明的目的是针对上述背景技术中存在的问题,提供一种基于增强现实技术的精确定位寻人设备以及基于该设备的方法,使用全球定位系统结合增强现实技术,在眼镜终端中生成对应被寻人位置的虚拟图像,通过参考虚拟图像在现实场景中的位置实现对人或物的快速精确定位。
为了实现上述发明目的,本发明采用了以下技术方案:
基于增强现实技术的精确定位寻人设备,包括第一移动终端、第二移动终端和眼镜终端,所述第一移动终端和第二移动终端均内置GPS定位系统,第一移动终端内置处理器、传感系统、交互系统和通信系统,所述眼镜终端设有摄像头、镜片和无线适配器,所述镜片中设有成像模块,无线适配器与第一移动终端通过无线通信技术建立连接。
优选的,成像模块采用偏振光束技术、波导光栅技术、波导全息技术、自由曲面技术或棱镜投射技术,以将虚拟图像叠加处理显示在所述镜片中。
优选的,摄像头包括主摄像头、深度感应镜头和动态追踪镜头。
优选的,第一移动终端还设有用于与所述交互系统相配合的触摸显示屏。
基于增强现实技术的精确定位寻人方法,采用上述的基于增强现实技术的精确定位寻人设备,包括以下步骤:
1)使被寻人携带第二移动终端,并使第二移动终端处于常开状态,寻找人携带第一移动终端;
2)寻找人根据GPS定位系统达到被寻人的附近位置;
3)寻找人佩戴眼镜终端,通过第一移动终端打开眼镜终端的摄像头和成像模块;
4)寻找人以自身为中心环视四周环境以便于摄像头捕捉被寻人位置;
5)当被寻人的位置点进入摄像头的拍摄范围中,则第一移动终端中处理器发送命令至成像模块,在镜片中对应被寻人的位置生成虚拟图像;
6)寻找人以虚拟图像在镜片中的位置为参考,朝向被寻人移动,移动过程中可以根据虚拟图像在镜片中的实时位置修正方向,直至找到被寻人。
优选的,在步骤1)后增加步骤1.1):在第一移动终端中通过交互系统预先输入被寻人的特征信息;
在步骤5)中,所述虚拟图像根据步骤1.1)中输入的特征信息而显示特定的图像。
优选的,特征信息包括性别、身高、衣着颜色、头发颜色以及被寻人附带物品;所述虚拟图像显示为与所输入特征信息对应的3D虚拟人物。
与现有技术相比,采用了上述技术方案的基于增强现实技术的精确定位寻人设备及方法,具有如下有益效果:
一、第一移动终端定位到第二移动终端的位置,通过摄像头捕捉第二移动终端所在位置,并在眼镜终端的镜片中对应第二移动终端的位置处生成虚拟图像,以便于寻找人在现实场场景中快速发现被寻人。
二、通过现有的光学成像技术,可以将虚拟图像叠加处理显示在镜片中,使虚拟图像呈现3D效果,同时保留镜片的透明性,以达到将虚拟图像投射到显示场景中的效果。
三、通过深度传感镜头和动态追踪镜头可以实时定位被寻目标的位置甚至动作,寻人时可以通知被寻找人做出特殊动作,更有利于寻找人快速发现被寻人。
四、预先输入被寻人的特征信息,可以生成与特征信息相对应的虚拟图像,在寻找未见过面或长时间未见的人时,通过对比虚拟图像便可以快速确定所要寻找的目标,降低认错人的概率,同时也增加了寻找过程的趣味性,有利于缓和寻人时的急躁情绪。
附图说明
图1为本发明基于增强现实技术的精确定位寻人设备实施例的结构示意图。
图2为本实施例中眼镜终端的结构示意图。
图3为本实施例中镜片的结构示意图。
图4为本发明基于增强现实技术的精确定位寻人方法实施例的示意图。
图5为本实施例中眼镜终端的工作方式示意图。
附图标记:1、第一移动终端;10、触摸显示屏;2、第二移动终端;3、眼镜终端;30、摄像头;300、动态追踪镜头;301、主摄像头;302、深度感应镜头;31、镜片;310、成像模块;32、无线适配器;4、虚拟图像;5、被寻人。
具体实施方式
下面结合附图对本发明做进一步描述。
如图1至图3所示的基于增强现实技术的精确定位寻人设备,包括第一移动终端1、第二移动终端2和眼镜终端3,第一移动终端1和第二移动终端2均内置GPS定位系统,第一移动终端1内置处理器、传感系统、交互系统和通信系统,眼镜终端3设有摄像头30、镜片31和无线适配器32,无线适配器32集成于眼镜中,镜片31中设有成像模块310,无线适配器32与第一移动终端1通过无线通信技术(如蓝牙、WiFi)建立连接。
成像模块310采用波导光栅技术,以将虚拟图像4叠加处理显示在镜片31 中,同时保留镜片31的透明效果,以达到将虚拟图像4投射到显示场景中的效果,即人在佩戴眼镜终端3进行观察时,虚拟图像4落在现实场景中第二移动终端2所在的位置。
摄像头30包括主摄像头301、深度感应镜头302和动态追踪镜头300,动态追踪镜头300可以实时定位被寻目标的位置甚至动作,寻人时可以通知被寻找人做出特殊动作,更有利于寻找人快速发现被寻人5;第一移动终端1还设有用于与交互系统相配合的触摸显示屏10,用以实现必要的人机交互。
如图4和图5所示的基于增强现实技术的精确定位寻人方法,采用上述的基于增强现实技术的精确定位寻人设备,包括以下步骤:
1)使被寻人5携带第二移动终端2,并使第二移动终端2处于常开状态,寻找人携带第一移动终端1;
1.1)在第一移动终端1中通过交互系统预先输入被寻人5的特征信息,特征信息包括性别、身高、衣着颜色、头发颜色以及被寻人5附带物品;
2)寻找人根据GPS定位系统达到被寻人5的附近位置;
3)寻找人佩戴眼镜终端3,通过第一移动终端1打开眼镜终端3的摄像头 30和成像模块310;
4)寻找人以自身为中心环视四周环境以便于摄像头30捕捉被寻人5位置;
5)当被寻人5的位置点进入摄像头30的拍摄范围中,则第一移动终端1 中处理器发送命令至成像模块310,在镜片31中对应被寻人5的位置生成虚拟图像4,虚拟图像4显示为与所输入特征信息对应的3D虚拟人物;
6)寻找人以虚拟图像4在镜片31中的位置为参考,朝向被寻人5移动,移动过程中可以根据虚拟图像4在镜片31中的实时位置修正方向,直至找到被寻人5。
以上所述是本发明的优选实施方式,对于本领域的普通技术人员来说不脱离本发明原理的前提下,还可以做出若干变型和改进,这些也应视为本发明的保护范围。

Claims (7)

1.基于增强现实技术的精确定位寻人设备,其特征在于:包括第一移动终端(1)、第二移动终端(2)和眼镜终端(3),所述第一移动终端(1)和第二移动终端(2)均内置GPS定位系统,第一移动终端(1)内置处理器、传感系统、交互系统和通信系统,所述眼镜终端(3)设有摄像头(30)、镜片(31)和无线适配器(32),所述镜片(31)中设有成像模块(310),无线适配器(32)与第一移动终端(1)通过无线通信技术建立连接。
2.根据权利要求1所述的基于增强现实技术的精确定位寻人设备,其特征在于:所述成像模块(310)采用偏振光束技术、波导光栅技术、波导全息技术、自由曲面技术或棱镜投射技术,以将虚拟图像(4)叠加处理显示在所述镜片(31)中。
3.根据权利要求1或2所述的基于增强现实技术的精确定位寻人设备,其特征在于:所述摄像头(30)包括主摄像头(301)、深度感应镜头(302)和动态追踪镜头(300)。
4.根据权利要求1所述的基于增强现实技术的精确定位寻人设备,其特征在于:所述第一移动终端(1)还设有用于与所述交互系统相配合的触摸显示屏(10)。
5.基于增强现实技术的精确定位寻人方法,采用上述1-4任意一项所述的基于增强现实技术的精确定位寻人设备,其特征在于,包括以下步骤:
1)使被寻人(5)携带第二移动终端(2),并使第二移动终端(2)处于常开状态,寻找人携带第一移动终端(1);
2)寻找人根据GPS定位系统达到被寻人(5)的附近位置;
3)寻找人佩戴眼镜终端(3),通过第一移动终端(1)打开眼镜终端(3)的摄像头(30)和成像模块(310);
4)寻找人以自身为中心环视四周环境以便于摄像头(30)捕捉被寻人(5)位置;
5)当被寻人(5)的位置点进入摄像头(30)的拍摄范围中,则第一移动终端(1)中处理器发送命令至成像模块(310),在镜片(31)中对应被寻人(5)的位置生成虚拟图像(4);
6)寻找人以虚拟图像(4)在镜片(31)中的位置为参考,朝向被寻人(5)移动,移动过程中可以根据虚拟图像(4)在镜片(31)中的实时位置修正方向,直至找到被寻人(5)。
6.根据权利要求5所述的基于增强现实技术的精确定位寻人方法,其特征在于:
在步骤1)后增加步骤1.1):在第一移动终端(1)中通过交互系统预先输入被寻人(5)的特征信息;
在步骤5)中,所述虚拟图像(4)根据步骤1.1)中输入的特征信息而显示特定的图像。
7.根据权利要求6所述的基于增强现实技术的精确定位寻人方法,其特征在于:所述特征信息包括性别、身高、衣着颜色、头发颜色以及被寻人(5)附带物品;所述虚拟图像(4)显示为与所输入特征信息对应的3D虚拟人物。
CN202011241467.7A 2020-11-09 2020-11-09 基于增强现实技术的精确定位寻人设备 Withdrawn CN112416123A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011241467.7A CN112416123A (zh) 2020-11-09 2020-11-09 基于增强现实技术的精确定位寻人设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011241467.7A CN112416123A (zh) 2020-11-09 2020-11-09 基于增强现实技术的精确定位寻人设备

Publications (1)

Publication Number Publication Date
CN112416123A true CN112416123A (zh) 2021-02-26

Family

ID=74780878

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011241467.7A Withdrawn CN112416123A (zh) 2020-11-09 2020-11-09 基于增强现实技术的精确定位寻人设备

Country Status (1)

Country Link
CN (1) CN112416123A (zh)

Similar Documents

Publication Publication Date Title
US10366511B2 (en) Method and system for image georegistration
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和系统
US10242454B2 (en) System for depth data filtering based on amplitude energy values
EP3149698B1 (en) Method and system for image georegistration
US9651782B2 (en) Wearable tracking device
JP5966510B2 (ja) 情報処理システム
CN102999160B (zh) 混合现实显示器中用户控制的现实对象的消失
KR102289745B1 (ko) 실시간 현장 작업 모니터링 방법 및 시스템
CN108351522A (zh) 注视方向映射
JP2010123121A (ja) シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置
KR20160094190A (ko) 시선 추적 장치 및 방법
JP2008090807A (ja) 小型携帯端末
CN110895676B (zh) 动态对象跟踪
CN114690900B (zh) 一种虚拟场景中的输入识别方法、设备及存储介质
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
US11195341B1 (en) Augmented reality eyewear with 3D costumes
CN110895433B (zh) 用于增强现实中用户交互的方法和装置
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
US20220244788A1 (en) Head-mounted display
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN112416123A (zh) 基于增强现实技术的精确定位寻人设备
Piérard et al. I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes
EP3903285B1 (en) Methods and systems for camera 3d pose determination
CN112055034B (zh) 基于光通信装置的交互方法和系统
CN117043722A (zh) 用于地图的设备、方法和图形用户界面

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20210226