CN109727317B - 增强现实系统及控制方法 - Google Patents

增强现实系统及控制方法 Download PDF

Info

Publication number
CN109727317B
CN109727317B CN201910013109.1A CN201910013109A CN109727317B CN 109727317 B CN109727317 B CN 109727317B CN 201910013109 A CN201910013109 A CN 201910013109A CN 109727317 B CN109727317 B CN 109727317B
Authority
CN
China
Prior art keywords
augmented reality
user
module
aircraft
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910013109.1A
Other languages
English (en)
Other versions
CN109727317A (zh
Inventor
刘亚丽
王晨如
董瑞君
张雪冰
栗可
张�浩
陈丽莉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201910013109.1A priority Critical patent/CN109727317B/zh
Publication of CN109727317A publication Critical patent/CN109727317A/zh
Priority to US16/966,113 priority patent/US11402900B2/en
Priority to PCT/CN2020/070257 priority patent/WO2020143546A1/zh
Application granted granted Critical
Publication of CN109727317B publication Critical patent/CN109727317B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/30Supply or distribution of electrical power
    • B64U50/31Supply or distribution of electrical power generated by photovoltaics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及增强现实技术领域,提出一种增强现实系统,该系统包括:飞行器、增强现实模组、追踪模组、调整模块。增强现实模组固定于所述飞行器,用于生成并传输虚拟图像;追踪模组设置在所述飞行器上,用于检测用户眼球的位置信息;调整模块设置在所述飞行器上,用于根据所述用户眼球的位置信息调整飞行器的飞行姿态,以使所述用户的眼球能够获取所述虚拟图像。该增强现实系统能够通过追踪技术追踪用户眼球位置,同时利用调整模块对飞行器的姿态进行调整,从而实现实时连续地透射虚拟图像在人眼里,该虚拟图像和现实叠加后可以呈现增强现实效果;同时,该系统还通过飞行器承载增强现实模组的重量,减小了用户的负载。

Description

增强现实系统及控制方法
技术领域
本发明涉及增强现实技术领域,尤其涉及一种增强现实系统及控制方法。
背景技术
增强现实技术是一种将真实世界信息和虚拟世界信息相结合的新技术,是把原本在现实世界的一定时间空间范围内很难体验到的实体信息,例如视觉信息、声音、触觉等,通过电脑等科学技术,模拟仿真后再叠加,将虚拟的信息应用到真实世界,被人类感官所感知,从而达到超越现实的感官体验,使真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。
相关技术中,增强现实产品主要包括光学模块、传感模块、摄像头模块、耳机模块等功能模块以及结构穿戴模块,用户可以通过结构穿戴模块将这些功能模块佩戴在肢体上。
然而,这些功能模块和结构穿戴模块具有一定的重量和体积,这样给用户带来了极大的不便,降低了用户体验。
需要说明的是,在上述背景技术部分发明的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于提供一种增强现实系统及控制方法。该增强现实系统不仅能够实现增强现实效果;同时,该系统还可以通过飞行器承载增强现实模组的重量,减小了用户的负载。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
根据本发明的一个方面,提供一种增强现实系统,该系统包括:飞行器、增强现实模组、追踪模组、调整模块。增强现实模组固定于所述飞行器,用于生成虚拟图像;追踪模组设置在所述飞行器上,用于检测用户眼球的位置信息;调整模块设置在所述飞行器上,用于根据所述用户眼球的位置信息调整飞行器的飞行姿态,以使所述用户的眼球能够获取所述虚拟图像。
本发明的一种示例性实施例中,所述追踪模组包括:摄像头和处理单元。摄像头用于追踪拍摄所述用户的脸部图像信息;处理单元用于根据所述脸部图像信息获取用户眼球的位置信息。
本发明的一种示例性实施例中,所述脸部图像信息包括眼球的虹膜图像信息,所述处理单元还用于根据所述虹膜图像信息判断所述用户的身份。
本发明的一种示例性实施例中,所述增强现实系统还包括距离传感器,距离传感器用于测定用户与所述飞行器的距离。
本发明的一种示例性实施例中,所述调整模块还被配置为根据所述用户与所述飞行器的距离调整飞行器的飞行姿态,以使所述用户的眼球位于所述增强现实模组的出瞳区域。
本发明的一种示例性实施例中,所述增强现实模组包括显示系统和显示模组,显示系统用于生成图像信息;显示模组用于根据所述图像信息生成所述虚拟图像。
本发明的一种示例性实施例中,所述用户获取所述虚拟图像时,所述显示模组位于偏离所述用户眼球正视方向的一侧,所述增强现实模组还包括偏光单元,偏光单元用于将所述虚拟图像传输到所述用户眼球。
本发明的一种示例性实施例中,所述偏光单元为衍射光栅、自由曲面棱镜、光波导中的一种或多种。
本发明的一种示例性实施例中,所述增强现实模组还包括显示系统,显示系统用于生成所述图像信息。
本发明的一种示例性实施例中,所述增强现实系统还包括定位模块,定位模块设置于所述飞行器上,用于获取所述飞行器的位置信息。
本发明的一种示例性实施例中,所述增强现实系统还包括供电系统,所述供电系统包括布置在所述飞行器上的太阳能电池板。
根据本发明的一个方面,提供一种增强现实系统控制方法,用于控制上述的增强现实系统,该方法包括:
利用增强现实模组生成虚拟图像;
利用追踪模组追踪用户眼球位置;
利用调整模块根据用户眼球位置调整飞行器的飞行姿态,以使用户能够获取所述虚拟图像。
本发明提供一种增强现实系统及控制方法,该增强现实系统包括:飞行器、增强现实模组、追踪模组、调整模块。该增强现实系统能够通过追踪技术追踪用户眼球位置,同时利用调整模块对飞行器的姿态进行调整,从而实现实时连续地透射虚拟图像在人眼里,该虚拟图像和现实叠加后可以呈现增强现实效果;同时,该系统还通过飞行器承载增强现实模组的重量,减小了用户的负载。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本公开增强现实系统一种示例性实施例的正视图;
图2为本公开增强现实系统一种示例性实施例的俯视图;
图3为本公开增强现实系统一种示例性实施例中与用户的相对位置关系图;
图4为本公开增强现实系统控制方法一种示例性实施例的流程图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施例使得本发明将更加全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。图中相同的附图标记表示相同或类似的结构,因而将省略它们的详细描述。
虽然本说明书中使用相对性的用语,例如“上”“下”来描述图标的一个组件对于另一组件的相对关系,但是这些术语用于本说明书中仅出于方便,例如根据附图中所述的示例的方向。能理解的是,如果将图标的装置翻转使其上下颠倒,则所叙述在“上”的组件将会成为在“下”的组件。其他相对性的用语,例如“高”“低”“顶”“底”“左”“右”等也作具有类似含义。当某结构在其它结构“上”时,有可能是指某结构一体形成于其它结构上,或指某结构“直接”设置在其它结构上,或指某结构通过另一结构“间接”设置在其它结构上。
用语“一个”、“一”、“所述”用以表示存在一个或多个要素/组成部分/等;用语“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等。
本示例性实施例首先提供一种增强现实系统,如图1所示,为本公开增强现实系统一种示例性实施例的正视图,图2为本公开增强现实系统一种示例性实施例的俯视图。图3为本公开增强现实系统一种示例性实施例中与用户的相对位置关系图。该系统包括:飞行器1、增强现实模组、追踪模组、调整模块4。增强现实模组固定于所述飞行器,用于生成虚拟图像;追踪模组设置在所述飞行器上,用于检测用户眼球的位置信息;调整模块4设置在所述飞行器1上,用于根据所述用户眼球的位置信息调整飞行器的飞行姿态,以使所述用户的眼球能够获取所述虚拟图像。其中,调整飞行器的飞行姿态包括调整飞行器的高度、机身方位角等。通过调整飞行器的飞行姿态可以调整增强现实模组与用户眼球的相对位置。从而可以使所述用户的眼球能够获取所述虚拟图像。眼球的位置信息可以包括眼球的正视方向。
本示例性实施例提供一种增强现实系统,该增强现实系统包括:飞行器、增强现实模组、追踪模组、调整模块。该增强现实系统能够通过追踪技术追踪用户眼球位置,同时利用调整模块对飞行器的姿态进行调整,从而实现实时连续地透射虚拟图像在人眼里,该虚拟图像和现实叠加后可以呈现增强现实效果;同时,该系统还通过飞行器承载增强现实模组的重量,减小了用户的负载。
本示例性实施例中,调整模块4可以包括地磁传感器、陀螺仪、处理器。地磁传感器用于测定飞行器的空间位置信息;陀螺仪用于测定飞行器的飞行角度信息,处理器在获得飞行器自身的空间位置信息和飞行角度信息的同时可以根据用户眼球的位置信息生成驱动信息,该驱动信息可以直接驱动飞行器自身的驱动模块,以调整飞行器的飞行角度以及飞行高度从而使用户的眼球能够获取所述虚拟图像。
本示例性实施例中,飞行器1需要带动增强现实模组在空中静止或者调整飞行姿态,如图1、2、3所示,飞行器1可以选择为螺旋桨飞行器。应该理解的是,在其他示例性实施例中,飞行器还可以有更多的选择方式,例如喷气式飞行器等。
本示例性实施例中,如图1、2、3所示,所述增强现实模组可以包括显示系统21和显示模组22。显示系统21用于生成所述图像信息;所述显示模组22用于根据图像信息生成所述虚拟图像;其中,显示系统21可以包括总处理器,该总处理器可以进行视差处理,以生成能够3D显示的图像信息;显示模组22可以根据该图像信息实现3D显示的虚拟图像。其中,显示模组22需要位于用户眼球的正视方向上,以使用户在观看现实图像时可以同时观看到虚拟图像。本示例性实施例中,显示模组22可以为OLED显示器、LCD等显示器件。为了避免显示模组22对现实中图像的遮挡,显示模组22可以采用透明显示面板。
本示例性实施例中,即使显示模组22采用透明显示面板,显示模组22的其他结构还是会对现实中的图像造成一定程度的遮挡。为了避免显示模组22对现实中图像的遮挡,如图3所示,显示模组22可以位于偏离用户眼球正视方向(图3中箭头方向)的一侧,例如显示模组可以位于用户眼球正前方偏上的位置。此时,增强现实模组还可以包括偏光单元23,该偏光单元23可以将偏离用户眼球正视方向的显示模组22生成的虚拟图像传递到用户的眼球。本示例性实施例中,所述偏光单元可以为衍射光栅、自由曲面棱镜、光波导等光学器件,衍射光栅可以通过光的衍射原理将偏离眼球正视方向的虚拟图像传递到眼球上,自由曲面棱镜可以通过光的反射原理将偏离眼球正视方向的虚拟图像传递到眼球上。需要说明的是,增强现实模组上设置有偏光单元时,调整模块中处理器生成驱动信息的算法需要进行相应的调整,以使显示模组可以位于用户眼球正前方偏上的位置。
本示例性实施例中,如图1所示,所述追踪模组可以包括:摄像头31和处理单元(图中未画出)。摄像头31可以用于追踪拍摄所述用户的脸部图像信息;处理单元可以用于根据所述脸部图像信息获取用户眼球的位置信息。其中,摄像头31可以为两个,两个摄像头31可以分别从不同角度获取用户的脸部图像信息,从而实现对用户眼球的准确定位。处理单元可以共用显示系统21中的总处理器。
应该理解的是,本示例性实施例中,增强现实模组用于生成增强现实的虚拟图像,在其他示例性实施例中,增强现实模组还可以有更多的结构可供选择,例如,增强现实模组还可以包括手势模块,手势模块可以通过手势传感器实现手势对显示模组22的控制,例如,通过手势控制显示模组22的显示界面切换、虚拟图像选择等,其中,手势传感器可以共用追踪模组中的处理器和摄像头。再例如,增强现实模组可以包括同步定位与建图模块(SLAM),同步定位与建图模块可以实现增强现实模组输出的虚拟图像与现实中的图像相契合,这些都属于本公开的保护范围。
本示例性实施例中,摄像头31可以实时拍摄用户的脸部图像信息,处理单元可以根据脸部图像信息分析用户眼球在脸部图像信息中的位置,从而获取用户眼球的位置信息。例如,处理单元可以在脸部图像信息中建立二维坐标系,处理单元中可以储存有用户眼球正视方向的脸部图像信息,在正视方向的脸部图像信息中,假设用户的左眼球坐标为(0,0),右眼的坐标为(5,0)。摄像头31实时获取用户的脸部图像信息,如果处理单元解析得到用户左眼的坐标变为(3,0),右眼坐标变为(7,0),则可以说明用户的眼球向右偏转,处理单元同时可以通过坐标变化的大小确定用户眼球的向右偏转角度。如果处理单元解析得到用户左眼的坐标变为(3,1),右眼坐标变为(7,1),则可以说明用户的眼球向右上方偏转,处理单元同样可以通过坐标变化的大小确定用户眼球向右和向上的偏转角度。处理单元可以以用户眼球正视时的位置为基准点结合眼球的偏转方向和角度获取当下眼球的位置信息。应该理解的是,在其他示例性实施例中,摄像头还可以获取用户其他器官的图像信息,处理单元还可以根据用户其他器官的图像信息结合其他器官与眼球的相对位置判断眼球的位置,例如,摄像头可以获取用户的整个头部信息,处理单元可以根据头部的耳朵、鼻子等器官结合眼球与耳朵、鼻子等器官的相对位置关系判断用户眼球的位置,这些都属于本公开的保护范围。
追踪模组用于检测用户眼球的位置信息,应该理解的是,在其他示例性实施例中,追踪模组还可以有更多的实现方式,这些都属于本公开的保护范围。
用户在使用上述的增强现实系统时,周边还可能存在其他的人,追踪模组可能误将其他人认作用户,从而获取其他人眼球的位置信息,造成使用混乱。本示例性实施例中,所述脸部图像信息可以包括眼球的虹膜图像信息,所述处理单元还用于根据所述虹膜图像信息判断所述用户的身份。其中,处理单元可以存储有用户的眼球的虹膜图像信息,追踪模组在检测眼球的位置信息过程中,处理单元可以将摄像头采集的虹膜图像信息与用户的虹膜图像信息进行比较,如果摄像头采集的虹膜图像信息与用户的虹膜图像信息相同,则可以确定追踪模组追踪对象为用户本人,可以继续追踪;如果摄像头采集的虹膜图像信息与用户的虹膜图像信息不相同,则可以确定追踪模组追踪对象不是用户本人,追踪模组可以不再追踪该对象,此时,追踪模组可以追踪其他对象以寻找用户,或者追踪模组可以持续输出最后获取的用户眼球位置,从而实现飞行器原地待命。
本示例性实施例中,用户通过手势模块实现对显示模组进行控制,但是,手势模块能可会采集到非用户的手势从而造成误操作。本示例性实施例中,增强现实模组还可以包括无线传输模块和移动客户端,该无线传输模块可以与移动客户端进行信息传输,用户可以通过移动客户端实现对显示模组的控制。其中,无线传输模块可以为蓝牙无线传输模块、WIFI无线传输模块等无线传输模块,移动客户端可以为手机、Pad等客户端。
本示例性实施例中,如图1所示,所述增强现实系统还可以包括距离传感器5,距离传感器5用于测定用户与所述飞行器的距离。所述调整模块还可以被配置为根据所述用户与所述飞行器的距离调整飞行器的飞行姿态,以使所述用户的眼球位于所述增强现实模组的出瞳区域。用户的眼球位于增强现实模组的出瞳区域时,用户可以清晰地获取虚拟图。调整飞行器的飞行姿态包括调整飞行器与用户眼球之间的距离。
本示例性实施例中,如图2所示,所述增强现实系统还可以包括定位模块6,定位模块6可以设置于所述飞行器上1,用于获取所述飞行器的位置信息。每个增强现实系统中的飞行器之间可以共享器位置信息,调整模块还可以根据其他飞行器的位置信息调整飞行器的飞行姿态,以避免与其他飞行器发生碰撞。
本示例性实施例中,如图2所示,所述增强现实系统还可以包括供电系统7,所述供电系统可以包括布置在所述飞行器上的太阳能电池板。在其他示例性实施例中,供电系统还可以包括蓄电池,蓄电池可以储蓄太阳能电池板发出的电能,以便该增强现实系统在弱光照环境下使用。
本示例性实施例还提供一种增强现实系统控制方法,用于控制上述的增强现实系统,如图4所示,为本公开增强现实系统控制方法一种示例性实施例的流程图,该方法包括:
步骤S1:利用增强现实模组生成虚拟图像;
步骤S2:利用追踪模组追踪用户眼球位置;
步骤S3:利用调整模块根据用户眼球位置调整飞行器的飞行姿态,以使用户能够获取所述虚拟图像。
本示例性实施例提供的增强现实系统控制方法与上述增强现实系统具有相同的技术特征和工作原理,上述内容已经做出详细说明,此处不再赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种增强现实系统,其特征在于,包括:
飞行器;
增强现实模组,固定于所述飞行器,用于生成虚拟图像,该虚拟图像和现实叠加后用于呈现增强现实效果;
追踪模组,设置在所述飞行器上,用于检测用户眼球的位置信息;
调整模块,设置在所述飞行器上,用于根据所述用户眼球的位置信息调整飞行器的飞行姿态,以使所述用户的眼球能够获取所述虚拟图像。
2.根据权利要求1所述的增强现实系统,其特征在于,所述追踪模组包括:
摄像头,用于追踪拍摄所述用户的脸部图像信息;
处理单元,用于根据所述脸部图像信息获取用户眼球的位置信息。
3.根据权利要求2所述的增强现实系统,其特征在于,所述脸部图像信息包括眼球的虹膜图像信息,所述处理单元还用于根据所述虹膜图像信息判断所述用户的身份。
4.根据权利要求1所述的增强现实系统,其特征在于,所述增强现实系统还包括:
距离传感器,用于测定用户与所述飞行器的距离;
所述调整模块还被配置为根据所述用户与所述飞行器的距离调整所述飞行器的飞行姿态,以使所述用户的眼球位于所述增强现实模组的出瞳区域。
5.根据权利要求1所述的增强现实系统,其特征在于,所述增强现实模组包括:
显示系统,用于生成图像信息;
显示模组,用于根据所述图像信息生成所述虚拟图像。
6.根据权利要求5所述的增强现实系统,其特征在于,所述用户获取所述虚拟图像时,所述显示模组位于偏离所述用户眼球正视方向的一侧,所述增强现实模组还包括:
偏光单元,用于将所述虚拟图像传输到所述用户眼球。
7.根据权利要求6所述的增强现实系统,其特征在于,所述偏光单元为衍射光栅、自由曲面棱镜、光波导中的一种或多种。
8.根据权利要求1所述的增强现实系统,其特征在于,所述增强现实系统还包括:
定位模块,设置于所述飞行器上,用于获取所述飞行器的位置信息。
9.根据权利要求1所述的增强现实系统,其特征在于,所述增强现实系统还包括:
供电系统,所述供电系统包括布置在所述飞行器上的太阳能电池板。
10.一种增强现实系统控制方法,用于控制权利要求1-9任一项所述的增强现实系统,其特征在于,包括:
利用增强现实模组生成虚拟图像;
利用追踪模组追踪用户眼球位置;
利用调整模块根据用户眼球位置调整飞行器的飞行姿态,以使用户能够获取所述虚拟图像。
CN201910013109.1A 2019-01-07 2019-01-07 增强现实系统及控制方法 Active CN109727317B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910013109.1A CN109727317B (zh) 2019-01-07 2019-01-07 增强现实系统及控制方法
US16/966,113 US11402900B2 (en) 2019-01-07 2020-01-03 Augmented reality system comprising an aircraft and control method therefor
PCT/CN2020/070257 WO2020143546A1 (zh) 2019-01-07 2020-01-03 增强现实系统及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910013109.1A CN109727317B (zh) 2019-01-07 2019-01-07 增强现实系统及控制方法

Publications (2)

Publication Number Publication Date
CN109727317A CN109727317A (zh) 2019-05-07
CN109727317B true CN109727317B (zh) 2021-02-09

Family

ID=66298167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910013109.1A Active CN109727317B (zh) 2019-01-07 2019-01-07 增强现实系统及控制方法

Country Status (3)

Country Link
US (1) US11402900B2 (zh)
CN (1) CN109727317B (zh)
WO (1) WO2020143546A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109727317B (zh) 2019-01-07 2021-02-09 京东方科技集团股份有限公司 增强现实系统及控制方法
KR102670582B1 (ko) * 2023-12-15 2024-05-30 (주)프리뉴 엄폐 기능을 가지는 드론

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2363273A (en) * 2000-06-09 2001-12-12 Secr Defence Computation time reduction for three dimensional displays
TWI453462B (zh) 2012-04-09 2014-09-21 Nat Applied Res Laboratories 智慧型電子裝置之虛擬望遠系統及其方法
CN103426282A (zh) * 2013-07-31 2013-12-04 深圳市大疆创新科技有限公司 遥控方法及终端
WO2015170142A1 (en) * 2014-05-08 2015-11-12 Sony Corporation Portable electronic equipment and method of controlling a portable electronic equipment
JP6342302B2 (ja) * 2014-11-10 2018-06-13 トヨタ紡織株式会社 乗物の制御方法
KR102353231B1 (ko) * 2015-04-24 2022-01-20 삼성디스플레이 주식회사 비행 표시장치
CN204937488U (zh) 2015-06-06 2016-01-06 昆山玖趣智能科技有限公司 一种ar增强现实3d视觉智能四翼飞行器
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
WO2017117298A1 (en) * 2015-12-28 2017-07-06 Dezso Molnar Unmanned aerial system with transportable screen
CN105677206A (zh) * 2016-01-08 2016-06-15 北京乐驾科技有限公司 一种基于视觉的抬头显示器控制系统及方法
WO2017181429A1 (en) 2016-04-22 2017-10-26 SZ DJI Technology Co., Ltd. Systems and methods for processing image data based on region-of-interest (roi) of a user
CN205942090U (zh) 2016-04-29 2017-02-08 深圳市大疆创新科技有限公司 可穿戴设备及无人机系统
CN107562179B (zh) * 2016-06-30 2024-04-26 上海青研科技有限公司 一种用于眼球追踪和虹膜识别的一体化镜杯
KR102217789B1 (ko) 2016-08-22 2021-02-19 매직 립, 인코포레이티드 나노그레이팅 방법 및 장치
CN106094857A (zh) * 2016-08-22 2016-11-09 京东方科技集团股份有限公司 无人机、穿戴设备及无人机的飞行控制方法、装置
CN106444023A (zh) * 2016-08-29 2017-02-22 北京知境科技有限公司 一种超大视场角的双目立体显示的透射式增强现实系统
CN106571084A (zh) 2016-10-19 2017-04-19 广东容祺智能科技有限公司 一种基于增加现实的无人机模拟飞行系统
CN107027014A (zh) 2017-03-23 2017-08-08 广景视睿科技(深圳)有限公司 一种动向智能投影系统及其方法
CN107027015A (zh) 2017-04-28 2017-08-08 广景视睿科技(深圳)有限公司 基于增强现实的3d动向投影系统以及用于该系统的投影方法
CN109117692B (zh) * 2017-06-23 2024-03-29 深圳荆虹科技有限公司 一种虹膜识别装置、系统及方法
CN108475442A (zh) * 2017-06-29 2018-08-31 深圳市大疆创新科技有限公司 用于无人机航拍的增强现实方法、处理器及无人机
CN111051936B (zh) * 2017-09-26 2022-03-08 株式会社Lg化学 光学膜、光学元件和成像装置
CN107657235A (zh) * 2017-09-28 2018-02-02 北京小米移动软件有限公司 基于增强现实的识别方法及装置
CN108257145B (zh) * 2017-12-13 2021-07-02 北京华航无线电测量研究所 一种基于ar技术的无人机智能侦察处理系统及方法
TWI642972B (zh) * 2018-03-07 2018-12-01 和碩聯合科技股份有限公司 抬頭顯示系統及其控制方法
CN208429245U (zh) * 2018-05-31 2019-01-25 宁波蓝科电子工程有限公司 一种节能环保型led智能交通导流显示屏
CN109035873A (zh) * 2018-08-14 2018-12-18 黄芷姗 一种无人机控制权限的调整方法及调整装置
CN109727317B (zh) * 2019-01-07 2021-02-09 京东方科技集团股份有限公司 增强现实系统及控制方法

Also Published As

Publication number Publication date
US11402900B2 (en) 2022-08-02
CN109727317A (zh) 2019-05-07
US20210041947A1 (en) 2021-02-11
WO2020143546A1 (zh) 2020-07-16

Similar Documents

Publication Publication Date Title
EP3195105B1 (en) Management of content in a 3d holographic environment
EP3740847B1 (en) Display systems and methods for determining registration between a display and a user's eyes
KR102408318B1 (ko) 실세계 객체들의 가상 표현들
US9201578B2 (en) Gaze swipe selection
US9105210B2 (en) Multi-node poster location
US20170017088A1 (en) Head Mounted Display With Lens
US20140152558A1 (en) Direct hologram manipulation using imu
US20140375680A1 (en) Tracking head movement when wearing mobile device
US20150212576A1 (en) Radial selection by vestibulo-ocular reflex fixation
US20140198017A1 (en) Wearable Behavior-Based Vision System
US20140002496A1 (en) Constraint based information inference
EP2814252A2 (en) Head mounted display with remote control
WO2016098412A1 (ja) 頭部装着型表示装置、及び映像表示システム
CN110275602A (zh) 人工现实系统和头戴式显示器
CN109727317B (zh) 增强现实系统及控制方法
US11442275B2 (en) Eyewear including a push-pull lens set
CN117581147A (zh) 具有x射线效应的增强现实眼镜
US20210072545A1 (en) Head Mounted Display With Remote Control
JP6683218B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant