CN108932055A - 一种增强现实内容的方法和设备 - Google Patents

一种增强现实内容的方法和设备 Download PDF

Info

Publication number
CN108932055A
CN108932055A CN201810564688.4A CN201810564688A CN108932055A CN 108932055 A CN108932055 A CN 108932055A CN 201810564688 A CN201810564688 A CN 201810564688A CN 108932055 A CN108932055 A CN 108932055A
Authority
CN
China
Prior art keywords
content
virtual
augmented reality
file
virtual content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810564688.4A
Other languages
English (en)
Other versions
CN108932055B (zh
Inventor
杨恒兴
吕小永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou handcraft Network Technology Co.,Ltd.
Original Assignee
Ai Law LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ai Law LLC filed Critical Ai Law LLC
Priority to CN201810564688.4A priority Critical patent/CN108932055B/zh
Publication of CN108932055A publication Critical patent/CN108932055A/zh
Application granted granted Critical
Publication of CN108932055B publication Critical patent/CN108932055B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及一种增强现实内容的方法和设备。首先利用文件创建模块获取虚拟内容中各点的位置参数,并建立虚拟内容文件;其次,在运用文件创建模块,建立虚拟内容和现实内容显示时的位置关系,生成增强现实内容文件并储存在储存模块中;最后,利用显示模块读取现实内容,并识别现实内容,读取储存模块中与现实内容相应的增强现实内容文件、虚拟内容文件,并将虚拟内容文件与现实内容同时显示。本发明通过建立增强现实内容文件,实现了虚拟内容与现实内容在指定位置同时显示,从而为显示内容增加了更多信息元素,有效的提高了人机交换的效率。

Description

一种增强现实内容的方法和设备
技术领域
本发明涉及增强现实技术领域,尤其涉及一种增强现实内容的方法和设备。
背景技术
增强现实技术是一种实时地计算摄影机影像的位置及角度并在摄像机影像上加上相应图像的技术。这种技术的目标是实现真实世界信息和虚拟世界信息的无缝结合。操作者在体验过程中,首先利用摄像头来拍摄所处场景的真实画面;随后,将拍摄到的画面传送至增强现实处理器进行处理,并将处理后的信息传送至显示器;最后,显示器将处理后的信息显示在屏幕上,以使体验者能够透过显示器的屏幕得到身临其境的视觉图像。这里的视觉图像常常为三维或者四维的动态视景。
目前,在使用过程中,体验者运用感知或者动作向增强现实设备等发出指令,并能获取到设备发送回来的画面场景,从而获得良好的感受。然而,随着增强现实技术的不断发展,人们对增强现实体验的要求越来越高,使用者已经不再单纯满足于观看视觉图像,还想要在体验过程中与视觉图像中的目标物体进行互动。例如,获取视觉图像中的目标,并对目标进行处理获得到更加容易识别或互动的信息内容。
但是,现有技术中没有利用增强现实设备来实时显示增强现实内容的相关方法和设备。
发明内容
针对现有技术中没有利用增强现实设备来实时显示增强现实内容的相关方法和设备的问题,本发明提供了一种增强现实内容的方法。本发明通过在整合虚拟内容和现实内容,实现了虚拟内容与现实内容在指定位置结合并同时显示,从而为显示内容增加了更多信息元素,进一步提高人机交互效率和人机交互体验质量。
为实现上述目的,本发明通过在现实空间中选取一点或一片区域作为虚拟内容放置点,同时在现实内容中选取部分内容作为位置锚点,并测量和/或计算虚拟内容放置点与位置锚点的之间的位置参数并储存在本地或云端。当用户需要查看虚拟内容时,增强现实设备通过识别现实内容中的位置锚点,读取储存位置锚点与虚拟内容放置点的位置关系的文件,并将虚拟内容按照所述位置关系与现实内容同时显示在增强现实设备中,从而实现对增强现实内容的读取。
具体的,本发明提供了以下技术方案:
本发明的增强现实内容的方法包含有如下步骤:
建立虚拟内容文件:获取虚拟内容中各点的位置参数,并基于所述位置参数建立虚拟内容文件;
建立增强现实内容文件:获取现实内容,建立虚拟内容和现实内容显示时的位置关系,并基于所述位置关系生成增强现实内容文件;
显示增强现实内容:读取并识别现实内容,基于识别显示内容的结果读取与现实内容相应的增强现实内容文件和/或虚拟内容文件,并基于所述增强现实内容文件和/或虚拟内容文件将虚拟内容与现实内容同时显示。
进一步的,建立虚拟内容文件包含如下步骤:
建立虚拟三维坐标系,选取一个参考点,并以所述参考点建立虚拟三维坐标系;
确定坐标参数,测量和/或计算虚拟内容中各点在所述虚拟三维坐标系中的坐标;
输出虚拟内容文件:将所述虚拟内容中各点整合得到虚拟内容的显示文件,将虚拟内容中各点对应的坐标整合得到虚拟内容的坐标文件;
或者是,将虚拟内容中各点以及与其对应的坐标整合得到包含虚拟内容的显示信息和坐标信息的独立文件。
进一步的,获取位置参数包含以下步骤:
确定关键点:找出能够确定虚拟内容显示平面和/或显示角度的点,并将该点作为虚拟内容的关键点;
确定显示比例:根据需要设定虚拟内容的显示比例和/或根据虚拟内容在现实内容中的显示大小调整虚拟内容的显示比例;
确定关键点坐标:测量和/或计算关键点在虚拟三维坐标系中的坐标。
进一步的,建立增强现实内容文件至少包含如下步骤:
确定锚点:获取现实内容,并选取部分现实内容作为位置锚点,记录位置锚点的特征信息;
确定位置锚点坐标:测量位置锚点与虚拟内容中各点之间的位置参数,并基于所述位置参数计算得到锚点在虚拟三维坐标系中的坐标;
或者是,
确定位置锚点的坐标:基于虚拟内容中各点与所述位置锚点的位置关系得到位置锚点与虚拟内容中各点之间的位置参数,并基于所述位置参数计算得到位置锚点在虚拟三维坐标系中的坐标;
整合坐标,将位置锚点的坐标与虚拟内容中各点的坐标整合,并基于所述整合结果输出所述增强现实内容文件;
建立链接,基于位置锚点的特征信息与虚拟内容文件和增强现实内容文件建立链接,从而能够通过位置锚点的特征信息识别和/或读取虚拟内容文件和增强现实内容文件。
进一步的,显示增强现实内容包含以下步骤:
识别位置锚点:识别现实内容中位置锚点的特征信息;
查找虚拟内容文件和增强现实内容文件:通过位置锚点的特征信息查找到与位置锚点的特征信息具有链接关系的虚拟内容文件和增强现实内容文件;
显示增强现实内容,读取与位置锚点匹配的虚拟内容文件和增强现实内容文件,并基于虚拟内容文件和增强现实内容文件将虚拟内容与现实内容同时显示出来。
本发明所述的增强现实内容设备,包括有文件创建模块、储存模块和显示模块,其中,文件创建模块用于创建虚拟内容文件和增强现实内容文件,并将虚拟内容文件和增强现实内容文件传输给储存模块;储存模块用于接收并储存虚拟内容文件和增强现实内容文件;显示模块用于读取储存模块中的虚拟内容文件和增强现实内容文件,并将虚拟内容和现实内容按照虚拟内容文件和增强现实内容文件所记录的位置关系显示在显示模块中。
进一步的,文件创建模块包含有定位测距模块和第一处理模块,其中,定位测距模块用于测量参考点、虚拟内容中的各点以及位置锚点与定位测距模块之间的距离和角度信息,并将距离信息和角度信息传输给第一处理模块,第一处理模块接收定位测距模块传输的距离信息和角度信息,建立虚拟三维坐标系,并计算得到虚拟内容中各点和位置锚点在虚拟三维坐标系中的坐标,基于虚拟内容中各点和位置锚点在虚拟三维坐标系中的坐标生成虚拟内容文件和增强现实内容文件;
或者是,文件创建模块包含有输入模块和第二处理模块,其中,输入模块用于预设虚拟内容的显示信息、虚拟内容显示的位置信息和位置锚点的信息输入,并将输入信息传输给第二处理模块,第二处理模块接收预设虚拟内容的显示信息、虚拟内容显示的位置信息和位置锚点的信息后,建立虚拟三维坐标系,并根据虚拟内容显示的位置信息和位置锚点的信息得到虚拟内容中各点和位置锚点在虚拟三维坐标系中的坐标;
基于虚拟内容中各点和位置锚点在虚拟三维坐标系中的坐标生成虚拟内容文件和增强现实内容文件。
进一步的,定位测距模块包含有距离测量模块和角运动检测模块,并且,距离测量模块和角运动检测模块固定连接,以使距离测量模块和角运动检测模块之间始终保持同样的位移变化和角度变化。
进一步的,显示模块包括现实内容读取模块、第三处理模块,其中,现实内容读取模块用于获取现实内容,并将现实内容传输给第三处理模块;第三处理模块接收现实内容信息后,识别现实内容中的位置锚点,并根据位置锚点的特征信息读取与位置锚点的特征信息具有链接关系的虚拟内容文件和增强现实内容文件,并基于虚拟内容文件和增强现实内容文件将虚拟内容与现实内容同时显示。
本发明提供的增强现实内容的方法能够实现虚拟内容和现实内容的结合,并同时显示。具体的,本发明通过对虚拟内容中各点加入位置参数,建立虚拟内容文件,使得虚拟内容的显示平面和角度能够通过虚拟内容文件被记录、储存。进一步,通过建立增强现实内容文件记录并储存虚拟内容与现实内容的位置关系,从而确定了虚拟内容和现实内容的结合位置。
因此,通过读取虚拟内容文件和增强现实内容文件并可以得到虚拟内容显示的平面和角度以及虚拟内容与显示内容之间结合的位置关系,从而实现虚拟内容相对与现实内容固定且与现实内容同时显示。
虚拟内容与现实内容同时显示,使得虚拟内容和现实内容的结合更加紧密,让观看者看到的虚拟内容更具真实感,进一步提供人机交互的效率。并且,本发明将虚拟内容和现实内容同时显示,可以弥补了现实内容中,使得观看者能够更加准确、快速地了解现实内容。
此外,本发明优选技术方案还可以产生如下技术效果:
1、获取位置参数时先确定能够决定虚拟内容显示平面和显示角度的关键点,极大的减少虚拟内容文件建立时需要获取的坐标点的数量,可以有效的降低虚拟内容文件的大小,减少虚拟内容文件建立时的运算次数和时间,提高虚拟内容文件建立的效率。
2、本发明一种优选的实施方案中,文件创建模块、储存模块和显示模块设置有无线通信模块,使得文件创建模块、储存模块以及显示模块之间可以设置为具有该功能的独立设备。将文件创建模块、储存模块和显示模块设置为独立的设备,不仅可以极大地提高各个模块对应设备的使用率,还可以降低增强现实内容设备生产、使用成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一种优选的增强现实内容创造方法的流程图;
图2是本发明一种优选的建立虚拟三维坐标系的原理图;
图3是本发明一种优选的建立虚拟三维坐标系的原理图;
图4是本发明一种优选的虚拟内容中关键点的选取及其坐标的测量原理图;
图5是本发明一种优选的位置锚点与虚拟内容之间位置参数测量原理图;
图6是本发明一种优选的增强现实内容显示原理图;
图7是本发明一种增强现实内容设备第一种优选的结构框图;
图8是本发明一种增强现实内容设备第二种优选的结构框图;
图9是本发明一种增强现实内容设备第三种优选的结构框图。
图中1-虚拟内容;2-现实内容;3-位置锚点;4-文件创建模块;41-定位测距模块;411-距离测量模块;412-角运动检测模块;42-第一处理模块;43-输入模块;44-第二处理模块;5-储存模块;6-显示模块;61-现实内容读取模块;62-第三处理模块。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
本发明所述的“虚拟内容”是指需要附加在现实内容上的内容信息,例如需要附加的文字、图片、视频、动画或其他内容信息;“现实内容”是指捕捉或拍摄到的与现实世界相符的实时内容信息。例如现实世界中的机器、房屋、花草等事物而呈现出的现实存在画面。
实施例1
作为本发明一种优选实时方式,一种增强现实内容的方法包含如下步骤:
S1、建立虚拟内容文件:获取虚拟内容1中各点的位置参数,并基于所述位置参数建立虚拟内容文件;
S2、建立增强现实内容文件:获取现实内容2,建立虚拟内容1和现实内容2显示时的位置关系,并基于所述位置关系生成增强现实内容文件;
S3、显示增强现实内容:读取现实内容2,并识别现实内容2,基于识别现实内容2的结果,读取与现实内容2相应的增强现实内容文件和/或虚拟内容文件,并基于增强现实内容文件和/或虚拟内容文件将虚拟内容1与现实内容2同时显示。
优选的,虚拟内容1可以是文字、图片、视频、动画和/或包含有文字、图片、视频、动画等各种形式的内容。
作为本发明一种优选的实施方式,建立虚拟内容文件至少包含如下步骤:
建立虚拟三维坐标系,选取一个参考点,并以所述参考点建立虚拟三维坐标系;
确定坐标参数,测量虚拟内容1中各点在虚拟三维坐标系中的坐标;
输出虚拟内容文件:将虚拟内容1中各点整合得到虚拟内容1的显示文件,将虚拟内容1中各点对应的坐标整合得到虚拟内容1的坐标文件;
或者是将虚拟内容1中各点以及与其对应的坐标整合得到包含虚拟内容1的显示信息和坐标信息的独立文件。
参照图4,选择一个参考点,并根据该参考点建立虚拟三维坐标系。优选的,以该参考点为原点建立虚拟三维坐标系。测量虚拟内容1中各点与参考点的位置参数,优选的,可以通过测量参考点与虚拟内容1中各点的距离参数和角度参数,从而通过处理测量的距离参数和角度参数得到虚拟内容1中各点在虚拟三维坐标系中的坐标。优选的,参考点可以选着虚拟内容1中的一个点,可以有效的降低处理计算虚拟内容1中各点坐标的难度,能够提升建立虚拟内容文件的效率。
当虚拟内容1中个点的与选定的产考点之间的位置参数方便测量时,优选的,可以通过测量的方法直接得到虚拟内容1中个点与产考点之间的位置参数,从而计算处理得到虚拟内容1中各点在建立的虚拟三维坐标系中的坐标。
参照图5,测量虚拟内容1中个点与产考点之间位置参数时,可以测量虚拟内容1中各点与参考点之间的距离以及虚拟内容1中各点与参考点连线所在直线与虚拟三维坐标系各个坐标轴之间的角度参数。
当虚拟内容1中个点的坐标不便于测量或无法测量时,例如,所需显示的虚拟内容1为文字、图片、光所成的像、或其他形式的内容,优选的,可以根据需求预先设定虚拟内容1中各点最终的显示的坐标。
作为本发明一种优选的实施方式,获取位置参数至少包含以下步骤:
确定关键点:找出能够确定虚拟内容1显示平面和/或显示角度的点,并将该点作为虚拟内容1的关键点;
确定显示比例,根据需要设定虚拟内容1的显示比例和/或根据虚拟内容1在现实内容2中的显示大小调整虚拟内容1的显示比例;
确定关键点坐标,测量和/或计算关键点在虚拟三维坐标系中的坐标。
当虚拟内容1尺寸太大或者太小时,可以适当设定比例将虚拟内容1进行缩小或放大。
参照图6,当所需显示的虚拟内容1为方形的平面图形是,优选的,可以选取虚拟内容1方形边框上的四个顶点作为虚拟内容1的关键点。通过关键点选取可以有效的减少计算和测量坐标的次数,能够极大地缩短获取虚拟内容1中点坐标的时间。
作为本发明一种优选的实施方式,整合增强现实内容至少包含如下步骤:
确定锚点:获取现实内容2,并选取部分现实内容2作为位置锚点,记录位置锚点3的特征信息;
确定位置锚点3坐标:测量位置锚点3与虚拟内容1中各点之间的位置参数,并基于所述位置参数计算得到锚点3在虚拟三维坐标系中的坐标;
或者是,
确定位置锚点3的坐标:基于虚拟内容1中各点与位置锚点3的位置关系得到所述位置锚点3与虚拟内容1中各点之间的位置参数,并基于所述位置参数计算得到位置锚点3在虚拟三维坐标系中的坐标;
整合坐标,将位置锚点3的坐标与虚拟内容1中各点的坐标整合,并基于整合结果输出增强现实内容文件;
建立链接,基于位置锚点3的特征信息与虚拟内容文件和增强现实内容文件建立链接,从而能够通过位置锚点3的特征信息识别和/或读取虚拟内容文件和增强现实内容文件。
作为本发明一种优选的实施方式,位置锚点3的选取可以是现实中某一个具有固定特征的点和/或其他图形,例如设置在现实内容2中的二维码、条形码、商标、一棵树、一本书等。优选的,选择现实内容2中某一固定的部分作为位置锚点3。将位置锚点3选取为现实内容2中某一固定部分,可以方便再次读取现实内容2时更加准确,快速地识别现实内容2中的位置锚点3。
参照图5和图7,当位置锚点3与虚拟内容1中各点之间的位置参数方便测量时,优选的,可以直接测量位置锚点3与虚拟内容1中各点之间的位置参数得到位置锚点3在虚拟三维坐标系中的坐标。优选的,可以通过测量位置锚点3与虚拟内容1中各点之间的距离参数和位置锚点3和虚拟内容1中各点之间的连线与虚拟三维坐标系中的坐标轴之间的角度参数得到位置锚点3在虚拟三维坐标系中的坐标。
当位置锚点3与虚拟内容1中各点之间的位置参数不方便测量时,优选的,可以根据实际需要,先确定虚拟内容1中各点所需显示的位置与位置锚点3的位置关系,确定虚拟内容1中各点与位置锚点3之间的位置参数,根据虚拟内容1中各点与位置锚点3之间的位置参数计算处理得到虚拟内容1中各点的坐标。例如,虚拟内容1显示位置悬置于现实世界中某一位置,无法找到实际的测量点代替虚拟内容1中的各点,使得在测量距离参数时无法找到测量的起点或终点。作为本发明一种优选的实施方式,显示增强现实内容至少包含以下步骤:
识别位置锚点3:识别现实内容2中位置锚点3的特征信息;
查找虚拟内容文件和增强现实内容文件:通过位置锚点3的特征信息查找到与位置锚点3的特征信息具有链接关系的虚拟内容文件和增强现实内容文件;
显示增强现实内容,读取与位置锚点3匹配的虚拟内容文件和增强现实内容文件,并基于虚拟内容文件和增强现实内容文件将虚拟内容1与现实内容2同时显示出来。
作为本发明一种优选的实施方式,位置锚点3的特征信息可以是位置锚点3的形状、图案或颜色,或者是形状、图案或颜色之间的组合形成的特征信息。参照图8,如果读取的现实内容2中具有位置锚点3的特征信息,根据位置锚点3的特征信息查找到与位置锚点3的特征信息具有链接关系的虚拟内容文件和增强现实文件并读取。如果没有位置锚点3的特征信息,则直接显示获取到的现实内容2。
实施例2
作为本发明一种优选的实施方式,一种用于增强现实内容的方法的设备,包括有文件创建模块4、储存模块5和显示模块6,其中,文件创建模块4用于创建虚拟内容文件和增强现实内容文件,并将虚拟内容文件和增强现实内容文件传输给储存模块5;储存模块5用于接收并储存虚拟内容文件和增强现实内容文件;显示模块6读取储存模块5中的虚拟内容文件和增强现实内容文件,并将虚拟内容1和现实内容2按照虚拟内容文件和增强现实内容文件所记录的位置关系显示在显示模块6中。
作为本发明一种优选的实施方式,储存模块5可以是设置为云端储存,通过网络实现与文件创建模块4和显示模块6之间的信息传输。
作为一种可以实施的替代方案,储存模块5可以设置为与文件创建模块4和显示模块6之间能够连接的储存器,例如内存条、储存卡、UP盘或硬盘等。
作为本发明一种优选的实施方式,文件创建模块4至少包含有定位测距模块41和第一处理模块42,其中,定位测距模块41用于测量参考点、虚拟内容1中的各点以及位置锚点3与定位测距模块41之间的距离和角度信息,并将距离信息和角度信息传输给第一处理模块42,第一处理模块42接收定位测距模块41传输的距离信息和角度信息,建立虚拟三维坐标系,并计算得到虚拟内容1中各点和位置锚点3在虚拟三维坐标系中的坐标,基于虚拟内容1中各点和位置锚点3在所述虚拟三维坐标系中的坐标生成虚拟内容文件和增强现实内容文件;
或者是,文件创建模块4包含有输入模块43和第二处理模块44,其中,输入模块43用于预设虚拟内容1的显示信息、虚拟内容1显示的位置信息和位置锚点3的信息输入,并将输入信息传输给第二处理模块44,第二处理模块44接收预设虚拟内容1的显示信息、虚拟内容1显示的位置信息和位置锚点3的信息后,建立虚拟三维坐标系,并根据虚拟内容1显示的位置信息和位置锚点3的信息得到虚拟内容1中各点和位置锚点3在虚拟三维坐标系中的坐标;基于虚拟内容1中各点和位置锚点3在虚拟三维坐标系中的坐标生成虚拟内容文件和增强现实内容文件。
作为本发明一种优选的实施方式,定位测距模块41包含有距离测量模块411和角运动检测模块412,并且,距离测量模块411和角运动检测模块412固定连接,以使距离测量模块411和角运动检测模块412之间始终保持同样的位移变化和角度变化。
作为本发明一种优选的实施方式,距离测量模块411可以设置为激光脉冲测距仪。利用激光良好的方向性、单一的波长使得距离测量模块测量精度更高,有利于准确获取被测量物体在虚拟三维坐标系中的坐标。当然也可以设置为:激光相位法测距仪、声波测距仪。
作为本发明一种优选的实施方式,角运动检测模块412可以设置为陀螺仪的形式,通过陀螺仪可以输出定位测距模块的角度变化,从而实现采集探测角在测量过程中的变化量。
参照图3,B点是虚拟内容1中的一点,A点是定位测距模块41测量被测虚拟内容1中B点时所处位置,第一处理模块42通过定位测距模块41测量过程中坐标的变化量和定位测距模块41测量时最初的坐标,可以得到A点在虚拟三维坐标系中的坐标,即确定定位测距模块41测量时位于虚拟三维坐标系中的坐标。第一处理模块42通过定位测距模块41探测角度在测量过程中的改变量和定位测距模块41测量时最初的探测角度,可以得到定位测距模块41在A点测量时的探测方向与虚拟三维坐标系各个坐标轴的角度。通过测距模块2测量得到A点与B点之间的直线距离,即定位测距模块41与被测点之间的直线距离。当这些采集和测量到的数据传输至第一处理模块42,第一处理模块42运用立体几何中之间的运算关系可以得到B点坐标,即确定被测虚拟内容1中的点在虚拟三维坐标系中的坐标。
作为本发明一种优选的实施方式,数据第一处理模块42基于定位测距模块41沿被测虚拟内容1的轮廓线测量得到的数据处理后得到被测虚拟内容1的轮廓线上各点在虚拟三维坐标系中的坐标。从而实现了不规则虚拟内容1中个点的测量。
作为本发明一种优选的实施方式,显示模块6包括现实内容读取模块61、第三处理模块62,其中,现实内容读取模块61用于获取现实内容2,并将现实内容2传输给第三处理模块62;第三处理模块62接收现实内容2信息后,识别现实内容2中的位置锚点3,并根据位置锚点3的特征信息读取与位置锚点3的特征信息具有链接关系的虚拟内容文件和增强现实内容文件,并基于虚拟内容文件和增强现实内容文件将虚拟内容1与现实内容2同时显示。
优选的,现实内容读取模块61可以设置为摄像头,通过摄像头捕捉现实中的画面得到现实内容2。
作为一种可实施的替代方案,第一处理模块42和/或第二处理模块44与第三处理模块62可以设置为一块具有第三处理模块62、第一处理模块42和/或第二处理模块44处理计算功能的处理模块。
作为本发明一种优选的实施方式,显示模块6可以嵌入安装有增强现实软件的移动智能设备中,例如:嵌入手机、嵌入平板电脑、嵌入智能手表、智能眼镜、智能头盔等。以使增强现实内容创造文件的读取更加方便,直观。
作为本发明一种优选的实施方式,增强现实内容设备中,文件创建模块4、储存模块5和显示模块6设置有无线通信模块,
从而使得文件创建模块4、储存模块5和储存模块5两两之间能够通过无线通信模块进行信息传递。
实施例3
选取现实中的一台机器设备作为现实内容2,这台机器设备的操作说明书作为虚拟内容1,优选的,这里的操作说明书可以使文字、图片、动画、视频和/或文字、图片、动画、视频结合的形式。
建立虚拟内容文件建立时,可以选取一个参考点建立虚拟三维坐标系,并计算得到说明书中各点在虚拟三维坐标系中的坐标,从而确定了虚拟内容1中各点在增强现实内容被显示时位于虚拟三维坐标系中的位置。
建立增强现实内容文件时,可以选择该机器设备上某一个操作按钮或者某一个零件作为位置锚点3,可以通过测量位置锚点3与虚拟内容1中各点在显示时的位置参数,确定位置锚点3在虚拟三维坐标系中的坐标,并生成增强现实内容文件后储存。
显示增强现实内容时,显示模块6中的现实内容读取模块61读取该机器设备上的按钮和/或零件的现实内容,经过识别读取到的现实内容,得到现实内容2中位置锚点3特征信息,基于位置锚点3的特征信息便可读取到虚拟内容1即这台机器设备的操作说明书和增强现实内容文件,从而使得该按钮和/或零件的操作说明书显示在现实内容1中的固定位置,使得操作者能够够更加直观、高效地获取到该按钮和/或该零件的操作信息。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种增强现实内容的方法,其特征在于,所述增强现实内容的方法包含有如下步骤:
建立虚拟内容文件:获取虚拟内容(1)中各点的位置参数,并基于所述位置参数建立虚拟内容文件;
建立增强现实内容文件:获取现实内容(2),建立所述虚拟内容(1)和所述现实内容(2)显示时的位置关系,并基于所述位置关系生成增强现实内容文件;
显示增强现实内容:读取并识别所述现实内容(2),基于识别所述现实内容(2)的结果读取与所述现实内容(2)相应的增强现实内容文件和/或虚拟内容文件,并基于所述增强现实内容文件和/或虚拟内容文件将所述虚拟内容(1)与所述现实内容(2)同时显示。
2.根据权利要求1所述的增强现实内容的方法,其特征在于,建立虚拟内容文件包含如下步骤:
建立虚拟三维坐标系:选取一个参考点,并以所述参考点建立虚拟三维坐标系;
确定坐标参数:测量和/或计算所述虚拟内容(1)中各点在所述虚拟三维坐标系中的坐标;
输出虚拟内容文件:将所述虚拟内容(1)中各点整合得到所述虚拟内容(1)的显示文件,将所述虚拟内容(1)中各点对应的坐标整合得到所述虚拟内容(1)的坐标文件;
或者是将所述虚拟内容(1)中各点以及与其对应的坐标整合得到包含所述虚拟内容(1)的显示信息和坐标信息的独立文件。
3.根据权利要求2所述的增强现实内容的方法,其特征在于,获取位置参数包含以下步骤:
确定关键点:找出能够确定所述虚拟内容(1)显示平面和/或显示角度的点,并将该点作为所述虚拟内容(1)的关键点;
确定显示比例:根据需要设定所述虚拟内容(1)的显示比例和/或根据所述虚拟内容(1)在所述现实内容(2)中的显示大小调整所述虚拟内容(1)的显示比例;
确定关键点坐标:测量和/或计算所述关键点在所述虚拟三维坐标系中的坐标。
4.根据权利要求3所述的增强现实内容的方法,其特征在于,建立增强现实内容文件至少包含如下步骤:
确定锚点:获取所述现实内容(2),并选取部分所述现实内容(2)作为位置锚点(3),记录所述位置锚点(3)的特征信息;
确定所述位置锚点(3)坐标:测量所述位置锚点(3)与所述虚拟内容(1)中各点之间的位置参数,并基于所述位置参数计算得到所述锚点(3)在所述虚拟三维坐标系中的坐标;
或者是,
确定所述位置锚点(3)的坐标:基于所述虚拟内容(1)中各点与所述位置锚点(3)的位置关系得到所述位置锚点(3)与所述虚拟内容(1)中各点之间的位置参数,并基于所述位置参数计算得到所述位置锚点(3)在所述虚拟三维坐标系中的坐标;
整合坐标:将所述位置锚点(3)的坐标与所述虚拟内容(1)中各点的坐标整合,并基于所述整合结果输出所述增强现实内容文件;
建立链接:基于所述位置锚点(3)的特征信息与所述虚拟内容文件和所述增强现实内容文件建立链接,从而能够通过所述位置锚点(3)的特征信息识别和/或读取所述虚拟内容文件和所述增强现实内容文件。
5.根据权利要求4所述的增强现实内容的方法,其特征在于,所述显示增强现实内容包含以下步骤:
识别位置锚点(3):识别所述现实内容(2)中位置锚点(3)的特征信息;
查找所述虚拟内容文件和所述增强现实内容文件:通过位置锚点(3)的特征信息查找到与所述位置锚点(3)的特征信息具有链接关系的所述虚拟内容文件和所述增强现实内容文件;
显示增强现实内容:读取与所述位置锚点(3)匹配的所述虚拟内容文件和所述增强现实内容文件,并基于所述虚拟内容文件和所述增强现实内容文件将所述虚拟内容(1)与所述现实内容(2)同时显示出来。
6.一种增强现实内容的设备,其特征在于,所述设备用于实现权利要求1至5之一所述的增强现实内容的方法。
7.根据权利要求6所述的增强现实内容设备,其特征在于,包括有文件创建模块(4)、储存模块(5)和显示模块(6),其中,
所述文件创建模块(4)用于创建虚拟内容文件和增强现实内容文件,并将虚拟内容文件和增强现实内容文件传输给所述储存模块(5);
所述储存模块(5)用于接收并存储所述虚拟内容文件和所述增强现实内容文件;
所述显示模块(6)用于读取所述储存模块(5)中的所述虚拟内容文件和所述增强现实内容文件,并将虚拟内容(1)和现实内容(2)按照所述虚拟内容文件和所述增强现实内容文件所记录的位置关系显示在所述显示模块(6)中。
8.根据权利要求7所述的增强现实内容设备,其特征在于,所述文件创建模块(4)包含有定位测距模块(41)和第一处理模块(42),其中,
所述定位测距模块(41)用于测量参考点、所述虚拟内容(1)中的各点以及位置锚点(3)与定位测距模块(41)之间的距离和角度信息,并将距离信息和角度信息传输给第一处理模块(42),
所述第一处理模块(42)接收所述定位测距模块(41)传输的距离信息和角度信息,建立虚拟三维坐标系,并计算得到虚拟内容(1)中各点和所述位置锚点(3)在所述虚拟三维坐标系中的坐标,
基于所述虚拟内容(1)中各点和所述位置锚点(3)在所述虚拟三维坐标系中的坐标生成虚拟内容文件和增强现实内容文件;
或者是,
所述文件创建模块(4)包含有输入模块(43)和第二处理模块(44),其中,
所述输入模块(43)用于预设虚拟内容(1)的显示信息、虚拟内容(1)显示的位置信息和所述位置锚点(3)的信息输入,并将输入信息传输给第二处理模块(44),
所述第二处理模块(44)接收预设虚拟内容(1)的显示信息、虚拟内容(1)显示的位置信息和所述位置锚点(3)的信息后,建立虚拟三维坐标系,并根据虚拟内容(1)显示的位置信息和所述位置锚点(3)的信息得到所述虚拟内容(1)中各点和所述位置锚点(3)在所述虚拟三维坐标系中的坐标;
基于所述虚拟内容(1)中各点和所述位置锚点(3)在所述虚拟三维坐标系中的坐标生成虚拟内容文件和增强现实内容文件。
9.根据权利要求8所述的增强现实内容设备,其特征在于,所述定位测距模块(41)包含有距离测量模块(411)和角运动检测模块(412),
并且,距离测量模块(411)和角运动检测模块(412)固定连接,以使距离测量模块(411)和角运动检测模块(412)之间始终保持同样的位移变化和角度变化。
10.根据权利要求9所述的增强现实内容设备,其特征在于,所述显示模块(6)包括现实内容读取模块(61)、第三处理模块(62),其中,
所述现实内容读取模块(61)用于获取所述现实内容(2),并将现实内容(2)传输给所述第三处理模块(62);
所述第三处理模块(62)接收现实内容(2)信息后,识别所述现实内容(2)中的位置锚点(3),并根据所述位置锚点(3)的特征信息读取与所述位置锚点(3)的特征信息具有链接关系的虚拟内容文件和增强现实内容文件,
并基于所述虚拟内容文件和所述增强现实内容文件将所述虚拟内容(1)与所述现实内容(2)同时显示。
CN201810564688.4A 2018-06-04 2018-06-04 一种增强现实内容的方法和设备 Active CN108932055B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810564688.4A CN108932055B (zh) 2018-06-04 2018-06-04 一种增强现实内容的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810564688.4A CN108932055B (zh) 2018-06-04 2018-06-04 一种增强现实内容的方法和设备

Publications (2)

Publication Number Publication Date
CN108932055A true CN108932055A (zh) 2018-12-04
CN108932055B CN108932055B (zh) 2021-08-24

Family

ID=64449387

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810564688.4A Active CN108932055B (zh) 2018-06-04 2018-06-04 一种增强现实内容的方法和设备

Country Status (1)

Country Link
CN (1) CN108932055B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110286768A (zh) * 2019-06-27 2019-09-27 Oppo广东移动通信有限公司 虚拟物体显示方法、终端设备及计算机可读存储介质
CN110418185A (zh) * 2019-07-22 2019-11-05 广州市天正科技有限公司 一种增强现实视频画面中锚点的定位方法及其系统
CN113409385A (zh) * 2020-03-16 2021-09-17 上海哔哩哔哩科技有限公司 特征图像识别定位方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006015236A2 (en) * 2004-07-28 2006-02-09 Intelligentek Corporation Audio-visual three-dimensional input/output
CN102708355A (zh) * 2011-02-15 2012-10-03 索尼公司 信息处理装置、信息处理方法及程序
CN106095075A (zh) * 2016-05-31 2016-11-09 深圳市元征科技股份有限公司 一种信息处理方法及增强现实设备
CN106355153A (zh) * 2016-08-31 2017-01-25 上海新镜科技有限公司 一种基于增强现实的虚拟对象显示方法、装置以及系统
CN106575299A (zh) * 2014-08-01 2017-04-19 索尼公司 信息处理装置、信息处理方法和程序

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006015236A2 (en) * 2004-07-28 2006-02-09 Intelligentek Corporation Audio-visual three-dimensional input/output
CN102708355A (zh) * 2011-02-15 2012-10-03 索尼公司 信息处理装置、信息处理方法及程序
CN106575299A (zh) * 2014-08-01 2017-04-19 索尼公司 信息处理装置、信息处理方法和程序
CN106095075A (zh) * 2016-05-31 2016-11-09 深圳市元征科技股份有限公司 一种信息处理方法及增强现实设备
CN106355153A (zh) * 2016-08-31 2017-01-25 上海新镜科技有限公司 一种基于增强现实的虚拟对象显示方法、装置以及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110286768A (zh) * 2019-06-27 2019-09-27 Oppo广东移动通信有限公司 虚拟物体显示方法、终端设备及计算机可读存储介质
CN110286768B (zh) * 2019-06-27 2022-05-17 Oppo广东移动通信有限公司 虚拟物体显示方法、终端设备及计算机可读存储介质
CN110418185A (zh) * 2019-07-22 2019-11-05 广州市天正科技有限公司 一种增强现实视频画面中锚点的定位方法及其系统
CN110418185B (zh) * 2019-07-22 2021-08-13 广州市天正科技有限公司 一种增强现实视频画面中锚点的定位方法及其系统
CN113409385A (zh) * 2020-03-16 2021-09-17 上海哔哩哔哩科技有限公司 特征图像识别定位方法及系统
CN113409385B (zh) * 2020-03-16 2023-02-24 上海哔哩哔哩科技有限公司 特征图像识别定位方法及系统

Also Published As

Publication number Publication date
CN108932055B (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
KR100953931B1 (ko) 혼합현실 구현 시스템 및 그 방법
CN106170978B (zh) 深度图生成装置、方法和非短暂性计算机可读介质
CN108304075B (zh) 一种在增强现实设备进行人机交互的方法与设备
US8379057B2 (en) Dynamic perspective video window
JP5093053B2 (ja) 電子カメラ
CN105704478B (zh) 用于虚拟和现实场景的立体显示方法、装置及电子设备
US6677939B2 (en) Stereoscopic image processing apparatus and method, stereoscopic vision parameter setting apparatus and method and computer program storage medium information processing method and apparatus
US7427996B2 (en) Image processing apparatus and image processing method
CN104346612B (zh) 信息处理装置和显示方法
EP1102211A2 (en) Image processor, method of providing image processing services and order processing method
Veas et al. Extended overview techniques for outdoor augmented reality
US20140181630A1 (en) Method and apparatus for adding annotations to an image
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
CN108885342A (zh) 用于低延迟渲染的宽基线立体
CN103440677A (zh) 一种基于Kinect体感设备的多视点自由立体交互系统
CN101189643A (zh) 3d图像生成和显示系统
CN108932055A (zh) 一种增强现实内容的方法和设备
KR20180021885A (ko) 가상 이미지 생성 시스템에서 텍스트를 더 효율적으로 디스플레이하기 위한 기법
CN203070360U (zh) 一种虚拟穿戴设备
CN106504188A (zh) 用于立体视觉呈现的人眼观察图像的生成方法和装置
EP2565848A2 (en) Program, information processing apparatus, information processing system, and information processing method
CN103399629B (zh) 获取手势屏幕显示坐标的方法和装置
JP2012128779A (ja) 仮想物体表示装置
KR20120017783A (ko) 증강 현실에서 위치 정보를 표시하는 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TA01 Transfer of patent application right

Effective date of registration: 20210811

Address after: Room 110, building 10, No. 4028, South Ring Road, Binjiang District, Hangzhou, Zhejiang

Applicant after: Hangzhou handcraft Network Technology Co.,Ltd.

Address before: 919 North Market Street, Wilmington

Applicant before: ARRIM LLC

TA01 Transfer of patent application right