CN106933350A - Ar交互方法及装置 - Google Patents

Ar交互方法及装置 Download PDF

Info

Publication number
CN106933350A
CN106933350A CN201710071170.2A CN201710071170A CN106933350A CN 106933350 A CN106933350 A CN 106933350A CN 201710071170 A CN201710071170 A CN 201710071170A CN 106933350 A CN106933350 A CN 106933350A
Authority
CN
China
Prior art keywords
finger
user
model images
displacement
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710071170.2A
Other languages
English (en)
Inventor
封林毅
周雪松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN THINKSKY TECHNOLOGY Co Ltd
Original Assignee
SHENZHEN THINKSKY TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN THINKSKY TECHNOLOGY Co Ltd filed Critical SHENZHEN THINKSKY TECHNOLOGY Co Ltd
Priority to CN201710071170.2A priority Critical patent/CN106933350A/zh
Publication of CN106933350A publication Critical patent/CN106933350A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

本发明适用于AR技术领域,提供了一种AR交互方法及装置。所述方法包括:在AR场景下显示3D模型图像;获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移;判断所述用户手指的位置是否在所述3D模型图像上;在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。通过上述方法,丰富了显示的3D模型图像与用户的交互方式,且交互操作简单,增加操作易用性。

Description

AR交互方法及装置
技术领域
本发明实施例属于AR技术领域,尤其涉及一种AR交互方法及装置。
背景技术
增强现实(Augmented Reality,AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界显示。
但由于现有的AR技术主要是把图像与现实世界结合一起呈现,因此与用户的交互很少。
故,需要提出一种新的技术方案,以解决上述问题。
发明内容
本发明实施例提供了一种AR交互方法及装置,旨在解决现有的AR方法中,显示的图像与用户交互过少的问题。
本发明实施例的第一方面,提供了一种AR交互方法,所述方法包括:
在AR场景下显示3D模型图像;
获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移;
判断所述用户手指的位置是否在所述3D模型图像上;
在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。
本发明实施例的第二方面,提供了一种AR交互装置,所述装置包括:
图像显示单元,用于在AR场景下显示3D模型图像;
用户手指的信息获取单元,用于获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移;
用户手指的位置判断单元,用于判断所述用户手指的位置是否在所述3D模型图像上;
图像移动单元,用于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。
在本发明实施例中,由于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像,因此,丰富了显示的3D模型图像与用户的交互方式,且交互操作简单,增加操作易用性。
附图说明
图1是本发明第一实施例提供的一种AR交互方法的流程图;
图2是本发明第二实施例提供的一种AR交互装置的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例中,在AR场景下显示3D模型图像,获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移,判断所述用户手指的位置是否在所述3D模型图像上,在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一:
图1示出了本发明第一实施例提供的一种AR交互方法的流程图,详述如下:
步骤S11,在AR场景下显示3D模型图像。
具体地,启动AR应用,在AR场景下通过摄像装置(如摄像头或照相机等)扫描摄像装置前方的对象(该对象通常为一张图片),将被扫描的对象与预设的3D模型图像比较,若被扫描的对象与预设的3D模型图像中的一个相同,则显示该对象对应的3D模型图像。
需要指出的是,可动态显示3D模型图像,且在显示的过程中,可同时结合3D模型图像的动作发出对应的语音。
步骤S12,获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移。
具体地,可通过2种方式获取用户手指的信息:一种是在用户手指一触摸屏幕(如手机、平板电脑等各种终端的屏幕)时,获取用户手指的信息;另一种是在用户手指还没接触屏幕,但已靠近屏幕时,获取用户手指的信息,以提高获取信息的速度。
可选地,在通过第2种方式获取用户手指的信息时,所述步骤S12具体包括:
A1、判断用户手指与屏幕的距离是否小于预设的距离阈值。其中,预设的距离阈值可设为3至8厘米之间。具体地,可通过接近传感器检测用户手指与屏幕的距离。当然,为了避免接近传感器时刻处于启动状态而产生的能源耗费,则在启动接近传感器检测用户手指与屏幕的距离时,可首先检测屏幕是否有手指的投影,例如,当判断出投影具有手指的形状、大小时,判定该投影手指的投影,之后,才启动接近传感器检测用户手指与屏幕的距离。
A2、在用户手指与屏幕的距离小于预设的距离阈值时,获取用户手指的投影信息,所述用户手指的投影信息作为用户手指的信息。
由于在用户手指没有接触到屏幕时,将获取的用户手指的投影信息作为用户手指的信息,即用户手指的投影在屏幕的位置作为用户触摸屏幕的位置,将用户手指的投影在屏幕的位移作为用户手指在屏幕上的位移,因此,能够更早地获取到用户手指的信息,从而为后续准确操作3D模型图像打下坚实基础。
步骤S13,判断所述用户手指的位置是否在所述3D模型图像上。
具体地,当用户手指的位置位于显示的3D模型图像的边界范围内时,判定用户手指的位置在所述3D模型图像上,否则,判定用户手指的位置不在所述3D模型图像上。
步骤S14,在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。
其中,所述步骤S14具体包括:
B1、在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移的大小计算所述3D模型图像在屏幕的移动距离,根据所述用户手指的位移的方向确定所述3D模型图像在屏幕的移动方向。
B2、根据确定的移动方向和计算的移动距离移动所述3D模型图像。
具体地,若将用户手指的投影信息作为用户手指的信息,可通过以下方式确定用户手指的位移的起始位置和终点位置:(1)起始位置的判断:判断检测到用户手指的投影在所述3D模型图像上的时长是否超过预设的起始投影时长,若是,则将在3D模型图像上首次检测到用户手指的位置作为起始位置;(2)终点位置的判断,在判断出一个起始位置后,若判断出用户手指不再移动,且停止的时长超过预设的终点投影时长,则将该用户手指的投影位置作为用户手指的终点位置。从起始位置到终点位置的位移的大小作为用户手指的位移的大小。需要指出的是,若设置当检测到起始位置时,3D模型图像同步与用户手指的投影移动,则终点位置(即用户手指在屏幕的投影)仍在3D模型图像上;若设置当检测到起始位置时,3D模型图像不同步与用户手指的投影移动,即在检测到终点位置后再将3D模型图像从起始位置移动到终点位置,则此时的终点位置(即用户手指在屏幕的投影)极可能不在3D模型图像上。
当然,若在用户手指触摸屏幕后才获取用户手指的信息,则用户手指在屏幕上的首次触摸位置即为起始位置,停止触摸屏幕的位置即为终点位置。
需要指出的是,当用户手指的位移大小小于或等于所述3D模型图像当前位置到屏幕边界的距离大小时,用户手指的位移大小即为所述3D模型图像在屏幕的移动距离;当当用户手指的位移大小大于所述3D模型图像当前位置到屏幕边界的距离大小时,为了能够全部显示所述3D模型图像,则所述3D模型图像在屏幕的移动距离即为所述3D模型图像当前位置到屏幕边界的距离大小。
可选地,为了丰富3D模型图像与用户的交互方式,在所述用户手指的位置没有在所述3D模型图像上时,使所述3D模型图像根据指定的轴向旋转,所述指定的轴向根据所述用户手指的位移确定。
需要指出的是,指定的轴向根据所述用户手指的位移确定,而不是根据用户手指的移动路径确定,从而能够快速确定3D模型图像旋转的轴向。
其中,所述在所述用户手指的位置没有在所述3D模型图像上时,使所述3D模型图像根据指定的轴向旋转,所述指定的轴向根据所述用户手指的位移确定,具体包括:
C1、在所述用户手指的位置没有在所述3D模型图像上时,确定与所述用户手指的位移的方向具有指定夹角的方向,根据所述用户手指的位移的大小确定所述3D模型图像旋转的角度。可选地,与所述用户手指的位移的方向具有指定夹角的方向为与所述用户手指的位移的方向具有90°的方向,即与所述用户手指的位移的方向为互相垂直的方向。该步骤中,以3D模型图像的中心作为圆心,该圆心分别与用户手指的位移的起始位置、终点位置所构成的夹角角度为所述3D模型图像旋转的角度。
C2、使所述3D模型图像以与所述用户手指的位移的方向具有指定夹角的方向为轴向旋转,直到旋转的角度等于确定的所述3D模型图像旋转的角度。
当然,为了进一步地丰富3D模型图像与用户的交互方式,当检测到用户手指双击3D模型图像时,放大所述3D模型图像,例如,在原基础上放大10%所述3D模型图像。
本发明第一实施例中,在AR场景下显示3D模型图像,获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移,判断所述用户手指的位置是否在所述3D模型图像上,在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。由于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像,因此,丰富了显示的3D模型图像与用户的交互方式,且交互操作简单,增加操作易用性。
应理解,在本发明实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例二:
图2示出了本发明第二实施例提供的一种AR交互装置的结构图,该AR交互装置可应用于各种移动终端中,该移动终端可以包括经无线接入网RAN与一个或多个核心网进行通信的用户设备,该用户设备可以是移动电话(或称为“蜂窝”电话)、具有移动设备的计算机等,例如,用户设备还可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置,它们与无线接入网交换语音和/或数据。又例如,该移动设备可以包括智能手机、平板电脑、个人数字助理PDA、销售终端POS或车载电脑等。为了便于说明,仅示出了与本发明实施例相关的部分。
该AR交互装置包括:图像显示单元21、用户手指的信息获取单元22、用户手指的位置判断单元23、图像移动单元24。其中:
图像显示单元21,用于在AR场景下显示3D模型图像。
需要指出的是,可动态显示3D模型图像,且在显示的过程中,可同时结合3D模型图像的动作发出对应的语音。
用户手指的信息获取单元22,用于获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移。
具体地,可通过2种方式获取用户手指的信息:一种是在用户手指一触摸屏幕(如手机、平板电脑等各种终端的屏幕)时,获取用户手指的信息;另一种是在用户手指还没接触屏幕,但已靠近屏幕时,获取用户手指的信息,以提高获取信息的速度。
可选地,在通过第2种方式获取用户手指的信息时,所述用户手指的信息获取单元22包括:
屏幕距离判断模块,用于判断用户手指与屏幕的距离是否小于预设的距离阈值。其中,预设的距离阈值可设为3至8厘米之间。具体地,可通过接近传感器检测用户手指与屏幕的距离。当然,为了避免接近传感器时刻处于启动状态而产生的能源耗费,则在启动接近传感器检测用户手指与屏幕的距离时,可首先检测屏幕是否有手指的投影,例如,当判断出投影具有手指的形状、大小时,判定该投影手指的投影,之后,才启动接近传感器检测用户手指与屏幕的距离。
用户手指的投影信息获取模块,用于在用户手指与屏幕的距离小于预设的距离阈值时,获取用户手指的投影信息,所述用户手指的投影信息作为用户手指的信息。
用户手指的位置判断单元23,用于判断所述用户手指的位置是否在所述3D模型图像上。
图像移动单元24,用于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。
可选地,所述图像移动单元24包括:
移动距离计算模块,用于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移的大小计算所述3D模型图像在屏幕的移动距离,根据所述用户手指的位移的方向确定所述3D模型图像在屏幕的移动方向。
第一图像交互模块,用于根据确定的移动方向和计算的移动距离移动所述3D模型图像。
具体地,若将用户手指的投影信息作为用户手指的信息,可通过以下方式确定用户手指的位移的起始位置和终点位置:(1)起始位置的判断:判断检测到用户手指的投影在所述3D模型图像上的时长是否超过预设的起始投影时长,若是,则将在3D模型图像上首次检测到用户手指的位置作为起始位置;(2)终点位置的判断,在判断出一个起始位置后,若判断出用户手指不再移动,且停止的时长超过预设的终点投影时长,则将该用户手指的投影位置作为用户手指的终点位置。
可选地,为了丰富3D模型图像与用户的交互方式,所述AR交互装置包括:
图像旋转单元,用于在所述用户手指的位置没有在所述3D模型图像上时,使所述3D模型图像根据指定的轴向旋转,所述指定的轴向根据所述用户手指的位移确定。
可选地,所述图像旋转单元包括:
图像旋转的角度确定模块,用于在所述用户手指的位置没有在所述3D模型图像上时,确定与所述用户手指的位移的方向具有指定夹角的方向,根据所述用户手指的位移的大小确定所述3D模型图像旋转的角度。可选地,与所述用户手指的位移的方向具有指定夹角的方向为与所述用户手指的位移的方向具有90°的方向;可选地,以3D模型图像的中心作为圆心,该圆心分别与用户手指的位移的起始位置、终点位置所构成的夹角角度为所述3D模型图像旋转的角度。
第二图像交互模块,用于使所述3D模型图像以与所述用户手指的位移的方向具有指定夹角的方向为轴向旋转,直到旋转的角度等于确定的所述3D模型图像旋转的角度。
本发明第二实施例中,由于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像,因此,丰富了显示的3D模型图像与用户的交互方式,且交互操作简单,增加操作易用性。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种AR交互方法,其特征在于,所述方法包括:
在AR场景下显示3D模型图像;
获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移;
判断所述用户手指的位置是否在所述3D模型图像上;
在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。
2.根据权利要求1所述的方法,其特征在于,在所述用户手指的位置没有在所述3D模型图像上时,使所述3D模型图像根据指定的轴向旋转,所述指定的轴向根据所述用户手指的位移确定。
3.根据权利要求1所述的方法,其特征在于,所述获取用户手指的信息,具体包括:
判断用户手指与屏幕的距离是否小于预设的距离阈值;
在用户手指与屏幕的距离小于预设的距离阈值时,获取用户手指的投影信息,所述用户手指的投影信息作为用户手指的信息。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像,具体包括:
在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移的大小计算所述3D模型图像在屏幕的移动距离,根据所述用户手指的位移的方向确定所述3D模型图像在屏幕的移动方向;
根据确定的移动方向和计算的移动距离移动所述3D模型图像。
5.根据权利要求2或3所述的方法,其特征在于,所述在所述用户手指的位置没有在所述3D模型图像上时,使所述3D模型图像根据指定的轴向旋转,所述指定的轴向根据所述用户手指的位移确定,具体包括:
在所述用户手指的位置没有在所述3D模型图像上时,确定与所述用户手指的位移的方向具有指定夹角的方向,根据所述用户手指的位移的大小确定所述3D模型图像旋转的角度;
使所述3D模型图像以与所述用户手指的位移的方向具有指定夹角的方向为轴向旋转,直到旋转的角度等于确定的所述3D模型图像旋转的角度。
6.一种AR交互装置,其特征在于,所述装置包括:
图像显示单元,用于在AR场景下显示3D模型图像;
用户手指的信息获取单元,用于获取用户手指的信息,所述用户手指的信息包括用户手指的位置和用户手指的位移;
用户手指的位置判断单元,用于判断所述用户手指的位置是否在所述3D模型图像上;
图像移动单元,用于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移移动所述3D模型图像。
7.根据权利要求6所述的装置,其特征在于,所述装置包括:
图像旋转单元,用于在所述用户手指的位置没有在所述3D模型图像上时,使所述3D模型图像根据指定的轴向旋转,所述指定的轴向根据所述用户手指的位移确定。
8.根据权利要求6所述的装置,其特征在于,所述用户手指的信息获取单元包括:
屏幕距离判断模块,用于判断用户手指与屏幕的距离是否小于预设的距离阈值;
用户手指的投影信息获取模块,用于在用户手指与屏幕的距离小于预设的距离阈值时,获取用户手指的投影信息,所述用户手指的投影信息作为用户手指的信息。
9.根据权利要求6至8任一项所述的装置,其特征在于,所述图像移动单元包括:
移动距离计算模块,用于在所述用户手指的位置在所述3D模型图像上时,根据所述用户手指的位移的大小计算所述3D模型图像在屏幕的移动距离,根据所述用户手指的位移的方向确定所述3D模型图像在屏幕的移动方向;
第一图像交互模块,用于根据确定的移动方向和计算的移动距离移动所述3D模型图像。
10.根据权利要求7或8所述的装置,其特征在于,所述图像旋转单元包括:
图像旋转的角度确定模块,用于在所述用户手指的位置没有在所述3D模型图像上时,确定与所述用户手指的位移的方向具有指定夹角的方向,根据所述用户手指的位移的大小确定所述3D模型图像旋转的角度;
第二图像交互模块,用于使所述3D模型图像以与所述用户手指的位移的方向具有指定夹角的方向为轴向旋转,直到旋转的角度等于确定的所述3D模型图像旋转的角度。
CN201710071170.2A 2017-02-09 2017-02-09 Ar交互方法及装置 Pending CN106933350A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710071170.2A CN106933350A (zh) 2017-02-09 2017-02-09 Ar交互方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710071170.2A CN106933350A (zh) 2017-02-09 2017-02-09 Ar交互方法及装置

Publications (1)

Publication Number Publication Date
CN106933350A true CN106933350A (zh) 2017-07-07

Family

ID=59423986

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710071170.2A Pending CN106933350A (zh) 2017-02-09 2017-02-09 Ar交互方法及装置

Country Status (1)

Country Link
CN (1) CN106933350A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107730350A (zh) * 2017-09-26 2018-02-23 北京小米移动软件有限公司 基于增强现实的产品展示方法、装置及存储介质
CN107767211A (zh) * 2017-09-26 2018-03-06 北京小米移动软件有限公司 基于增强现实的产品对比方法、装置及存储介质
CN108519817A (zh) * 2018-03-26 2018-09-11 广东欧珀移动通信有限公司 基于增强现实的交互方法、装置、存储介质及电子设备
CN108553889A (zh) * 2018-03-29 2018-09-21 广州汉智网络科技有限公司 虚拟模型交互方法及装置
CN108553888A (zh) * 2018-03-29 2018-09-21 广州汉智网络科技有限公司 增强现实交互方法及装置
CN109062413A (zh) * 2018-08-15 2018-12-21 佛山市超体软件科技有限公司 一种ar交互系统及方法
US10497179B2 (en) 2018-02-23 2019-12-03 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for performing real object detection and control using a virtual reality head mounted display system
CN111078102A (zh) * 2019-06-09 2020-04-28 广东小天才科技有限公司 一种通过投影确定点读区域的方法及终端设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681754A (zh) * 2011-03-16 2012-09-19 联想(北京)有限公司 信息处理设备和信息处理方法
CN103019571A (zh) * 2011-09-20 2013-04-03 浪潮乐金数字移动通信有限公司 一种在终端触摸屏上进行3d图像编辑调整的方法及终端
CN104881128A (zh) * 2015-06-18 2015-09-02 北京国承万通信息科技有限公司 基于实物在虚拟现实场景中显示目标图像的方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681754A (zh) * 2011-03-16 2012-09-19 联想(北京)有限公司 信息处理设备和信息处理方法
CN103019571A (zh) * 2011-09-20 2013-04-03 浪潮乐金数字移动通信有限公司 一种在终端触摸屏上进行3d图像编辑调整的方法及终端
CN104881128A (zh) * 2015-06-18 2015-09-02 北京国承万通信息科技有限公司 基于实物在虚拟现实场景中显示目标图像的方法及系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107730350A (zh) * 2017-09-26 2018-02-23 北京小米移动软件有限公司 基于增强现实的产品展示方法、装置及存储介质
CN107767211A (zh) * 2017-09-26 2018-03-06 北京小米移动软件有限公司 基于增强现实的产品对比方法、装置及存储介质
US10497179B2 (en) 2018-02-23 2019-12-03 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for performing real object detection and control using a virtual reality head mounted display system
CN108519817A (zh) * 2018-03-26 2018-09-11 广东欧珀移动通信有限公司 基于增强现实的交互方法、装置、存储介质及电子设备
CN108553889A (zh) * 2018-03-29 2018-09-21 广州汉智网络科技有限公司 虚拟模型交互方法及装置
CN108553888A (zh) * 2018-03-29 2018-09-21 广州汉智网络科技有限公司 增强现实交互方法及装置
CN109062413A (zh) * 2018-08-15 2018-12-21 佛山市超体软件科技有限公司 一种ar交互系统及方法
CN111078102A (zh) * 2019-06-09 2020-04-28 广东小天才科技有限公司 一种通过投影确定点读区域的方法及终端设备
CN111078102B (zh) * 2019-06-09 2021-07-23 广东小天才科技有限公司 一种通过投影确定点读区域的方法及终端设备

Similar Documents

Publication Publication Date Title
CN106933350A (zh) Ar交互方法及装置
US11605214B2 (en) Method, device and storage medium for determining camera posture information
CN108234891B (zh) 一种拍照方法及移动终端
CN105335064B (zh) 一种信息处理方法和终端
CN104333708B (zh) 拍照方法、拍照装置及终端
CN108965982A (zh) 视频录制方法、装置、电子设备和可读存储介质
US10482660B2 (en) System and method to integrate content in real time into a dynamic real-time 3-dimensional scene
CN106385591A (zh) 视频处理方法及视频处理装置
CN103945134B (zh) 一种照片的拍摄和查看方法及其终端
CN109767447B (zh) 一种模板匹配方法、装置、设备及介质
CN106453864A (zh) 一种图像处理方法、装置和终端
CN104469157A (zh) 一种相机多人拍摄的方法和装置
CN106156237B (zh) 信息处理方法、信息处理装置及用户设备
CN110321048A (zh) 三维全景场景信息处理、交互方法及装置
CN107257440A (zh) 一种检测视频跟踪拍摄的方法、设备以及存储介质
CN108234879A (zh) 一种获取滑动变焦视频的方法和装置
CN112637665B (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
CN107122175A (zh) 界面生成方法及装置
CN107295272A (zh) 一种图像处理的方法及终端
CN110298306A (zh) 目标对象运动信息的确定方法、装置及设备
CN106096043A (zh) 一种拍照方法和移动终端
CN105913495A (zh) 一种信息处理方法及电子设备
CN109829982A (zh) 模型匹配方法、装置、终端设备及存储介质
CN109395387A (zh) 三维模型的显示方法、装置、存储介质及电子装置
CN107864408A (zh) 信息展示方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20201013

AD01 Patent right deemed abandoned