CN106843468A - 一种终端以及vr场景中的人机交互方法 - Google Patents
一种终端以及vr场景中的人机交互方法 Download PDFInfo
- Publication number
- CN106843468A CN106843468A CN201611227570.XA CN201611227570A CN106843468A CN 106843468 A CN106843468 A CN 106843468A CN 201611227570 A CN201611227570 A CN 201611227570A CN 106843468 A CN106843468 A CN 106843468A
- Authority
- CN
- China
- Prior art keywords
- product
- eyes
- eyeball
- attentively
- visual field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种终端以及VR场景中的人机交互方法,该终端包括:检测模块和展示模块。检测模块检测眼睛的注视焦点。展示模块对该注视焦点处的产品进行立体展示并对相关产品进行推送。通过本发明实施例方案,能够在通过用户的目光注视捕捉到用户感兴趣的产品以后,对该产品进行全方位立体展示,增加用户对产品的了解;并进行相关产品的推送,缩短了用户对产品的搜索时间,提高了用户的购物体验。
Description
技术领域
本发明涉及虚拟显示VR购物技术领域,尤其涉及一种终端以及VR场景中的人机交互方法。
背景技术
目前,随着虚拟现实VR技术的发展,通过VR视频进行购物已经逐渐流行于各大购物平台,但是当前的VR视频购物还处于初级水平,仅能通过VR视频看到当前产品的价位及简单性能,不能像真实购物那样进行产品试运行或试操作,而且当用户对当前产品不满意时需要继续搜索直至获取满意的产品,使得用户的购物体验较差。
发明内容
本发明的主要目的在于提出一种终端以及VR场景中的人机交互方法,能够增加用户对产品的了解,缩短产品搜索时间,提高用户的购物体验。
为实现上述目的,本发明提供了一种终端,该终端包括:检测模块和展示模块。
检测模块,用于检测眼睛的注视焦点。
展示模块,用于对该注视焦点处的产品进行立体展示并对相关产品进行推送。
可选地,检测模块检测眼睛的注视焦点包括:
在头部和/或眼球的角度变化过程中,实时确定第一眼球的第一瞳孔中心的位置和第二眼球的第二瞳孔中心的位置;
根据眼睛的结构拟合出第一眼球的第一视网膜的位置,以及第二眼球的第二视网膜的位置;
分别拟合出第一瞳孔中心与第一视网膜的第一连线,以及第二瞳孔中心与第二视网膜的第二连线;
将第一连线和第二连线的交点作为眼睛的注视焦点。
可选地,该终端还包括:确定模块;该确定模块用于在头部和/或眼球的角度变化过程中,确定眼睛的视野;
确定模块确定眼睛的视野包括:
将以第一瞳孔中心为顶点,以第一连线为中分线的第一预设角度之内的场景作为第一分视野;将以第二瞳孔中心为顶点,以第二连线为中分线的第二预设角度之内的场景作为第二分视野;
将第一分视野和第二分视野的合集作为眼睛的视野。
可选地,该检测模块还用于:
通过预设的头部位置检测技术检测头部变化角度;
结合头部变化角度和预设的眼球检测技术检测眼球变化角度。
可选地,展示模块对注视焦点处的产品进行立体展示包括:
对产品进行试运行或者操作模拟;
对产品的结构、形状和/或操作方式从多个视角进行展示;以及,
以文字形式和/或语音形式对产品的功能、材质、适用场景、注意事项进行介绍。
可选地,展示模块对相关产品进行推送包括:
将一个或多个相关产品的图像展示在眼睛的视野内;
当检测到注视焦点锁定任意一个相关产品时,将被锁定的相关产品与注视焦点先前锁定的产品并列展示。
可选地,该展示模块还用于:当注视焦点锁定到任意一个相关产品时,将展示背景转换到被锁定的相关产品所在的店铺。
此外,为实现上述目的,本发明还提出了一种虚拟现实VR场景中的人机交互方法,该方法包括:
检测眼睛的注视焦点;
对注视焦点处的产品进行立体展示并对相关产品进行推送。
可选地,检测眼睛的注视焦点包括:
在头部和/或眼球的角度变化过程中,实时确定第一眼球的第一瞳孔中心的位置和第二眼球的第二瞳孔中心的位置;
根据眼睛的结构拟合出第一眼球的第一视网膜的位置,以及第二眼球的第二视网膜的位置;
分别拟合出第一瞳孔中心与第一视网膜的第一连线,以及第二瞳孔中心与第二视网膜的第二连线;
将第一连线和第二连线的交点作为眼睛的注视焦点。
可选地,该方法还包括:在头部和/或眼球的角度变化过程中,确定眼睛的视野。
确定眼睛的视野包括:
将以第一瞳孔中心为顶点,以第一连线为中分线的第一预设角度之内的场景作为第一分视野;将以第二瞳孔中心为顶点,以第二连线为中分线的第二预设角度之内的场景作为第二分视野;
将第一分视野和第二分视野的合集作为眼睛的视野。
可选地,该方法还包括:
通过预设的头部位置检测技术检测头部变化角度;
结合头部变化角度和预设的眼球检测技术检测眼球变化角度。
可选地,对注视焦点处的产品进行立体展示包括:
对产品进行试运行或者操作模拟;
对产品的结构、形状和/或操作方式从多个视角进行展示;以及,
以文字形式和/或语音形式对产品的功能、材质、适用场景、注意事项进行介绍。
可选地,对相关产品进行推送包括:
将一个或多个相关产品的图像展示在眼睛的视野内;
当检测到注视焦点锁定任意一个相关产品时,将被锁定的相关产品与注视焦点先前锁定的产品并列展示。
可选地,该方法还包括:当注视焦点锁定到任意一个相关产品时,将展示背景转换到被锁定的相关产品所在的店铺。
本发明提出了一种终端以及VR场景中的人机交互方法,该终端包括:检测模块和展示模块。检测模块检测眼睛的注视焦点。展示模块对该注视焦点处的产品进行立体展示并对相关产品进行推送。通过本发明实施例方案,能够在通过用户的目光注视捕捉到用户感兴趣的产品以后,对该产品进行全方位立体展示,增加用户对产品的了解;并进行相关产品的推送,缩短了用户对产品的搜索时间,提高了用户的购物体验。
附图说明
图1为实现本发明各个实施例一个可选的移动终端的硬件结构示意图;
图2为如图1所示的移动终端的无线通信系统示意图;
图3为本发明实施例的终端组成结构框图;
图4为本发明实施例的VR场景中的人机交互方法示意图;
图5为本发明实施例的检测眼睛的注视焦点方法流程图;
图6为本发明实施例的检测眼睛的注视焦点方法示意图;
图7为本发明实施例的确定眼睛的视野方法示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现在将参考附图描述实现本发明各个实施例一个可选的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
移动终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端。然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
图1为实现本发明各个实施例的移动终端的硬件结构示意。
移动终端100可以包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图1示出了具有各种组件的移动终端,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。将在下面详细描述移动终端的元件。
无线通信单元110通常包括一个或多个组件,其允许移动终端100与无线通信系统或网络之间的无线电通信。例如,无线通信单元可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114和位置信息模块115中的至少一个。
广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可以包括卫星信道和/或地面信道。广播管理服务器可以是生成并发送广播信号和/或广播相关信息的服务器或者接收之前生成的广播信号和/或广播相关信息并且将其发送给终端的服务器。广播信号可以包括TV广播信号、无线电广播信号、数据广播信号等等。而且,广播信号可以进一步包括与TV或无线电广播信号组合的广播信号。广播相关信息也可以经由移动通信网络提供,并且在该情况下,广播相关信息可以由移动通信模块112来接收。广播信号可以以各种形式存在,例如,其可以以数字多媒体广播(DMB)的电子节目指南(EPG)、数字视频广播手持(DVB-H)的电子服务指南(ESG)等等的形式而存在。广播接收模块111可以通过使用各种类型的广播系统接收信号广播。特别地,广播接收模块111可以通过使用诸如多媒体广播-地面(DMB-T)、数字多媒体广播-卫星(DMB-S)、数字视频广播-手持(DVB-H),前向链路媒体(MediaFLO@)的数据广播系统、地面数字广播综合服务(ISDB-T)等等的数字广播系统接收数字广播。广播接收模块111可以被构造为适合提供广播信号的各种广播系统以及上述数字广播系统。经由广播接收模块111接收的广播信号和/或广播相关信息可以存储在存储器160(或者其它类型的存储介质)中。
移动通信模块112将无线电信号发送到基站(例如,接入点、节点B等等)、外部终端以及服务器中的至少一个和/或从其接收无线电信号。这样的无线电信号可以包括语音通话信号、视频通话信号、或者根据文本和/或多媒体消息发送和/或接收的各种类型的数据。
无线互联网模块113支持移动终端的无线互联网接入。该模块可以内部或外部地耦接到终端。该模块所涉及的无线互联网接入技术可以包括WLAN(无线LAN)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波互联接入)、HSDPA(高速下行链路分组接入)等等。
短程通信模块114是用于支持短程通信的模块。短程通信技术的一些示例包括蓝牙TM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂TM等等。
位置信息模块115是用于检查或获取移动终端的位置信息的模块。位置信息模块的典型示例是GPS(全球定位系统)。根据当前的技术,GPS模块115计算来自三个或更多卫星的距离信息和准确的时间信息并且对于计算的信息应用三角测量法,从而根据经度、纬度和高度准确地计算三维当前位置信息。当前,用于计算位置和时间信息的方法使用三颗卫星并且通过使用另外的一颗卫星校正计算出的位置和时间信息的误差。此外,GPS模块115能够通过实时地连续计算当前位置信息来计算速度信息。
A/V输入单元120用于接收音频或视频信号。A/V输入单元120可以包括相机121和麦克风1220,相机121对在视频捕获模式或图像捕获模式中由图像捕获装置获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元151上。经相机121处理后的图像帧可以存储在存储器160(或其它存储介质)中或者经由无线通信单元110进行发送,可以根据移动终端的构造提供两个或更多相机1210。麦克风122可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由移动通信模块112发送到移动通信基站的格式输出。麦克风122可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
用户输入单元130可以根据用户输入的命令生成键输入数据以控制移动终端的各种操作。用户输入单元130允许用户输入各种类型的信息,并且可以包括键盘、锅仔片、触摸板(例如,检测由于被接触而导致的电阻、压力、电容等等的变化的触敏组件)、滚轮、摇杆等等。特别地,当触摸板以层的形式叠加在显示单元151上时,可以形成触摸屏。
感测单元140检测移动终端100的当前状态,(例如,移动终端100的打开或关闭状态)、移动终端100的位置、用户对于移动终端100的接触(即,触摸输入)的有无、移动终端100的取向、移动终端100的加速或减速移动和方向等等,并且生成用于控制移动终端100的操作的命令或信号。例如,当移动终端100实施为滑动型移动电话时,感测单元140可以感测该滑动型电话是打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力或者接口单元170是否与外部装置耦接。感测单元140可以包括接近传感器1410将在下面结合触摸屏来对此进行描述。
接口单元170用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。识别模块可以是存储用于验证用户使用移动终端100的各种信息并且可以包括用户识别模块(UIM)、客户识别模块(SIM)、通用客户识别模块(USIM)等等。另外,具有识别模块的装置(下面称为"识别装置")可以采取智能卡的形式,因此,识别装置可以经由端口或其它连接装置与移动终端100连接。接口单元170可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端和外部装置之间传输数据。
另外,当移动终端100与外部底座连接时,接口单元170可以用作允许通过其将电力从底座提供到移动终端100的路径或者可以用作允许从底座输入的各种命令信号通过其传输到移动终端的路径。从底座输入的各种命令信号或电力可以用作用于识别移动终端是否准确地安装在底座上的信号。输出单元150被构造为以视觉、音频和/或触觉方式提供输出信号(例如,音频信号、视频信号、警报信号、振动信号等等)。输出单元150可以包括显示单元151、音频输出模块152、警报单元153等等。
显示单元151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示单元151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、示出视频或图像以及相关功能的UI或GUI等等。
同时,当显示单元151和触摸板以层的形式彼此叠加以形成触摸屏时,显示单元151可以用作输入装置和输出装置。显示单元151可以包括液晶显示器(LCD)、薄膜晶体管LCD(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器等等中的至少一种。这些显示器中的一些可以被构造为透明状以允许用户从外部观看,这可以称为透明显示器,典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。根据特定想要的实施方式,移动终端100可以包括两个或更多显示单元(或其它显示装置),例如,移动终端可以包括外部显示单元(未示出)和内部显示单元(未示出)。触摸屏可用于检测触摸输入压力以及触摸输入位置和触摸输入面积。
音频输出模块152可以在移动终端处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将无线通信单元110接收的或者在存储器160中存储的音频数据转换音频信号并且输出为声音。而且,音频输出模块152可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块152可以包括扬声器、蜂鸣器等等。
警报单元153可以提供输出以将事件的发生通知给移动终端100。典型的事件可以包括呼叫接收、消息接收、键信号输入、触摸输入等等。除了音频或视频输出之外,警报单元153可以以不同的方式提供输出以通知事件的发生。例如,警报单元153可以以振动的形式提供输出,当接收到呼叫、消息或一些其它进入通信(incoming communication)时,警报单元153可以提供触觉输出(即,振动)以将其通知给用户。通过提供这样的触觉输出,即使在用户的移动电话处于用户的口袋中时,用户也能够识别出各种事件的发生。警报单元153也可以经由显示单元151或音频输出模块152提供通知事件的发生的输出。
存储器160可以存储由控制器180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据(例如,电话簿、消息、静态图像、视频等等)。而且,存储器160可以存储关于当触摸施加到触摸屏时输出的各种方式的振动和音频信号的数据。
存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等等。而且,移动终端100可以与通过网络连接执行存储器160的存储功能的网络存储装置协作。
控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。另外,控制器180可以包括用于再现(或回放)多媒体数据的多媒体模块1810,多媒体模块1810可以构造在控制器180内,或者可以构造为与控制器180分离。控制器180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。
电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器160中并且由控制器180执行。
至此,己经按照其功能描述了移动终端。下面,为了简要起见,将描述诸如折叠型、直板型、摆动型、滑动型移动终端等等的各种类型的移动终端中的滑动型移动终端作为示例。因此,本发明能够应用于任何类型的移动终端,并且不限于滑动型移动终端。
如图1中所示的移动终端100可以被构造为利用经由帧或分组发送数据的诸如有线和无线通信系统以及基于卫星的通信系统来操作。
现在将参考图2描述其中根据本发明的移动终端能够操作的通信系统。
这样的通信系统可以使用不同的空中接口和/或物理层。例如,由通信系统使用的空中接口包括例如频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)和通用移动通信系统(UMTS)(特别地,长期演进(LTE))、全球移动通信系统(GSM)等等。作为非限制性示例,下面的描述涉及CDMA通信系统,但是这样的教导同样适用于其它类型的系统。
参考图2,CDMA无线通信系统可以包括多个移动终端100、多个基站(BS)270、基站控制器(BSC)275和移动交换中心(MSC)280。MSC280被构造为与公共电话交换网络(PSTN)290形成接口。MSC280还被构造为与可以经由回程线路耦接到基站270的BSC275形成接口。回程线路可以根据若干己知的接口中的任一种来构造,所述接口包括例如E1/T1、ATM,IP、PPP、帧中继、HDSL、ADSL或xDSL。将理解的是,如图2中所示的系统可以包括多个BSC2750。
每个BS270可以服务一个或多个分区(或区域),由多向天线或指向特定方向的天线覆盖的每个分区放射状地远离BS270。或者,每个分区可以由用于分集接收的两个或更多天线覆盖。每个BS270可以被构造为支持多个频率分配,并且每个频率分配具有特定频谱(例如,1.25MHz,5MHz等等)。
分区与频率分配的交叉可以被称为CDMA信道。BS270也可以被称为基站收发器子系统(BTS)或者其它等效术语。在这样的情况下,术语"基站"可以用于笼统地表示单个BSC275和至少一个BS270。基站也可以被称为"蜂窝站"。或者,特定BS270的各分区可以被称为多个蜂窝站。
如图2中所示,广播发射器(BT)295将广播信号发送给在系统内操作的移动终端100。如图1中所示的广播接收模块111被设置在移动终端100处以接收由BT295发送的广播信号。在图2中,示出了几个全球定位系统(GPS)卫星300。卫星300帮助定位多个移动终端100中的至少一个。
在图2中,描绘了多个卫星300,但是理解的是,可以利用任何数目的卫星获得有用的定位信息。如图1中所示的GPS模块115通常被构造为与卫星300配合以获得想要的定位信息。替代GPS跟踪技术或者在GPS跟踪技术之外,可以使用可以跟踪移动终端的位置的其它技术。另外,至少一个GPS卫星300可以选择性地或者额外地处理卫星DMB传输。
作为无线通信系统的一个典型操作,BS270接收来自各种移动终端100的反向链路信号。移动终端100通常参与通话、消息收发和其它类型的通信。特定基站270接收的每个反向链路信号被在特定BS270内进行处理。获得的数据被转发给相关的BSC275。BSC提供通话资源分配和包括BS270之间的软切换过程的协调的移动管理功能。BSC275还将接收到的数据路由到MSC280,其提供用于与PSTN290形成接口的额外的路由服务。类似地,PSTN290与MSC280形成接口,MSC与BSC275形成接口,并且BSC275相应地控制BS270以将正向链路信号发送到移动终端100。
基于上述可选的移动终端硬件结构以及通信系统,提出本发明方法各个实施例。
如图3所示,本发明第一实施例提出了一种终端1,该终端包括:检测模块11和展示模块12。
检测模块11,用于检测眼睛的注视焦点。
展示模块12,用于对该注视焦点处的产品进行立体展示并对相关产品进行推送。
可选地,检测模块11检测眼睛的注视焦点包括:
在头部和/或眼球的角度变化过程中,实时确定第一眼球的第一瞳孔中心的位置和第二眼球的第二瞳孔中心的位置;
根据眼睛的结构拟合出第一眼球的第一视网膜的位置,以及第二眼球的第二视网膜的位置;
分别拟合出第一瞳孔中心与第一视网膜的第一连线,以及第二瞳孔中心与第二视网膜的第二连线;
将第一连线和第二连线的交点作为眼睛的注视焦点。
可选地,该终端还包括:确定模块13;该确定模块用于在头部和/或眼球的角度变化过程中,确定眼睛的视野;
确定模块13确定眼睛的视野包括:
将以第一瞳孔中心为顶点,以第一连线为中分线的第一预设角度之内的场景作为第一分视野;将以第二瞳孔中心为顶点,以第二连线为中分线的第二预设角度之内的场景作为第二分视野;
将第一分视野和第二分视野的合集作为眼睛的视野。
可选地,该检测模块11还用于:
通过预设的头部位置检测技术检测头部变化角度;
结合头部变化角度和预设的眼球检测技术检测眼球变化角度。
可选地,展示模块对注视焦点处的产品进行立体展示包括:
对产品进行试运行或者操作模拟;
对产品的结构、形状和/或操作方式从多个视角进行展示;以及,
以文字形式和/或语音形式对产品的功能、材质、适用场景、注意事项进行介绍。
可选地,展示模块对相关产品进行推送包括:
将一个或多个相关产品的图像展示在眼睛的视野内;
当检测到注视焦点锁定任意一个相关产品时,将被锁定的相关产品与注视焦点先前锁定的产品并列展示。
可选地,该展示模块12还用于:当注视焦点锁定到任意一个相关产品时,将展示背景转换到被锁定的相关产品所在的店铺。
此外,为实现上述目的,本发明第二实施例还提出了一种虚拟现实VR场景中的人机交互方法,如图4所示,该方法包括S101-S102:
S101、检测眼睛的注视焦点。
在本发明实施例中,随着VR视频购物的出现,可以使人们在家中坐着、甚至躺着就能体验到真实的购物感觉,而且连手脚都不用动,仅需要眼球的运动来变换视野从而在相关店铺中寻找需要的产品。当由于目前的VR视频购物仅能提供当前产品的价位及简单性能,不能像真实购物那样进行产品试运行或试操作等诸多功能,降低了用户体验。针对这一问题,本发明实施例方案提出了一种新的VR场景中的人机交互方法,能够在通过用户的目光注视捕捉到用户感兴趣的产品以后,对该产品进行全方位立体展示,增加用户对产品的了解;并进行相关产品的推送,缩短了用户对产品的搜索时间,提高了用户的购物体验。这里的VR场景包括VR视频和3D(三维)场景。
在实施本发明实施例之前需要先对眼睛的注视焦点进行检测,以便根据该注视焦点获取用户感兴趣的产品。
可选地,如图5、图6所示,检测眼睛的注视焦点包括S201-S204:
S201、在头部和/或眼球的角度变化过程中,实时确定第一眼球的第一瞳孔中心的位置和第二眼球的第二瞳孔中心的位置。
在本发明实施例中,由于人眼看到物体是由瞳孔与视网膜配合完成的,因此,为了准确地获取视觉焦点所锁定的位置,需要我们先获取当前用户的两个眼球中的瞳孔的位置,即上述方案中的第一眼球的第一瞳孔中心的位置以及第二眼球的第二瞳孔中心的位置。具体地,可以通过人脸识别技术中的特征检测技术对当前眼球的瞳孔中心位置进行检测,由于此技术为成熟技术在此不再赘述。并且这里对于具体的检测方法、算法及装置均不作限制。
S202、根据眼睛的结构拟合出第一眼球的第一视网膜的位置,以及第二眼球的第二视网膜的位置。
在本发明实施例中,通过上述步骤获取了第一眼球的第一瞳孔中心的位置和第二眼球的第二瞳孔中心的位置以后,还需要进一步获取第一眼球的第一视网膜的位置以及第二眼球的第二视网膜的位置。在这里,由于视网膜不同于瞳孔,瞳孔是显露于外面的,直接展示在VR场景设备下,能够直接对其位置进行检测。而视网膜是生长在人体内部的,不能对其进行直接检测。这里,可以对当前用户的眼睛信息进行检测,例如检测眼球的大小、评估眼睛周围的骨骼结构等,并根据获取的这些眼睛信息模拟出当前用户的视网膜位置。或者直接通过相应的骨骼扫描装置对当前用户的眼部骨骼进行扫描确定其眼部骨骼结构,从而估算出视网膜的大概位置。
需要说明的是,这里对于视网膜位置的模拟,可以预先建立一个模拟系统,在该模拟系统下实现视网膜位置的模拟。也可以不建立该模拟系统,仅通过相应的算法完成上述模拟过程。
S203、分别拟合出第一瞳孔中心与第一视网膜的第一连线,以及第二瞳孔中心与第二视网膜的第二连线。
在本发明实施例中,外界事物被眼睛看到是由于物体反射的光线通过瞳孔映在视网膜上产生倒影而引起的,基于此原理,可以连接第一瞳孔中心与第一视网膜作为第一条模拟光线,即上述的第一连线;同理,连接第二瞳孔中心与第二视网膜作为第二条模拟光线,即上述的第二连线。
S204、将第一连线和第二连线的交点作为眼睛的注视焦点。
在本发明实施例中,基于上述的眼睛成像原理,一个物体反射的光线进入人眼的两个眼球后,那么进入人眼的这两条光线的反向延长线必定相交于该物体上。因此,根据该原理可知,第一模拟光线与第二模拟光线的反向延长线的交点必定是用户所看到的物体,即第一连线与第二连线的交点必定是用户的视觉焦点。因此,将第一连线和第二连线的交点作为第一眼球和第二眼球的视觉焦点。
可选地,该方法还包括:在头部和/或眼球的角度变化过程中,确定眼睛的视野。
其中,如图7所示,确定眼睛的视野包括:
将以第一瞳孔中心为顶点,以第一连线为中分线的第一预设角度之内的场景作为第一分视野;将以第二瞳孔中心为顶点,以第二连线为中分线的第二预设角度之内的场景作为第二分视野;将第一分视野和第二分视野的合集作为眼睛的视野。
在本发明实施例中,由于每个人的眼睛都具有一定的视野范围,通常情况下,对于人眼来说,在水平面内,双眼视区大约在左右60度以内的区域。因此,在用户沿水平变换眼睛观看角度时,可以将第一预设角度和第二预设角度均确定为120°。在垂直面内,如果假设标准视线是水平的,并且将该视平线定为0度,则最大视野范围为视平线以上50度和视平线以下70度。因此,在用户沿垂直变换眼睛观看角度时,可以将第一预设角度和第二预设角度均确定为100°。
可选地,该方法还包括:
通过预设的头部位置检测技术检测头部变化角度;
结合头部变化角度和预设的眼球检测技术检测眼球变化角度。
在本发明实施例中,为了准确地判断用户的搜寻方位,需要预先计算眼球的变化角度以便确定眼睛的视野变化。另外,在用户观看场景的过程中,通常伴随头部的扭动,以配合眼睛获取更多的场景,因此,在计算眼球变化角度时,需要将用户的头部旋转角度一并计算进去,以便获得准确的眼球变换角度。因此,需要先检测用户的头部变化角度。在本发明实施例中,可以通过预设的头部位置检测技术检测用户的头部变化角度,例如,计算机视觉技术。
计算机视觉技术是一门研究如何使用机器"看"的技术,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。通过该技术可以准确获取头部转动前后的位置信息,并根据该前后的位置信息确定头部变化角度。具体地,可以在VR场景装置上预先设置具有该计算机视觉技术的图像采集和处理装置,以采集用户的头部图像信息,并确定头部的变化角度。并将该变化角度结合到VR场景中的场景变换中,随着用户头部的转动变换VR视频等的场景。
在本发明实施例中,在获得了用户头部变化角度的基础上,需要进一步获取眼球变化角度,以准确追踪用户的视野变化。
由于眼睛的视野变化是通过眼球的转动来实现的,因此,对眼睛的视野变化的检测可以通过对眼球的转动检测来实现。具体地,可以通过预设的眼球检测技术来完成,该预设的眼球检测技术可以是眼球追踪技术。
眼球追踪技术是一项科学应用技术,从原理上看,眼球追踪技术主要是研究眼球运动信息的获取、建模和模拟。当人的眼睛看向不同方向时,眼部会有细微的变化,这些变化会产生可以提取的特征,计算机可以通过图像捕捉或扫描提取这些特征,从而实时追踪眼睛的变化,预测用户的状态和需求,并进行响应,达到用眼睛控制设备的目的。获取眼球运动信息的方法包括:一是根据眼球和眼球周边的特征变化进行跟踪;二是根据虹膜角度变化进行跟踪;三是主动投射红外线等光束到虹膜来提取特征。因此获取眼球运动信息的设备除了红外设备之外,还可以是图像采集设备,甚至一般电脑或手机上的摄像头,其在软件的支持下也可以实现眼球跟踪。
在本发明实施例中,通过上述的眼球追踪技术获取眼球的运动信息以后,便可以根据该运动信息获取眼球整个运动过程中的位置变化信息,从而通过该眼球位置变化信息计算出眼球的角度变化信息。
在本发明实施例中,可以根据上述的任意一种或多种方法实现眼球追踪技术,在此对于其具体实现方法不做限制。
S102、对注视焦点处的产品进行立体展示并对相关产品进行推送。
在本发明实施例中,通过对注视焦点进行检测从而确定出用户锁定的VR场景中的商品以后,为了增加用户对产品的了解,缩短产品搜索时间,提高用户的购物体验。本发明实施例中对注视焦点处的产品进行了全方位立体展示。
可选地,对注视焦点处的产品进行立体展示包括:
对产品进行试运行或者操作模拟;
对产品的结构、形状和/或操作方式从多个视角进行展示;以及,
以文字形式和/或语音形式对产品的功能、材质、适用场景、注意事项进行介绍。
在本发明实施例中,为了对产品进行全方位介绍,可以在展示时对产品进行试运行或进行模拟操作,例如,在看到一件衣服时可以根据当前用户的身材资料、相貌资料、肤色资料等模拟当前用户的模型,并通过该模型对当前衣服进行试穿。又例如,当用户看到一款手机时,可以对该手机实施各种功能的展示(音乐播放效果的视听、拍照效果的展示等)。或者当用户看到一款背包时,向用户展示该背包背上后的效果,并通过参照物对比展示包的大小,以及包内设置的各种口袋的收纳功能等。
在本发明实施例中,为了使得用户对当前产品更加了解,可以对产品的从各个角度进行展示,例如,正视图,侧视图、俯视图……等等,还可以对产品的内部结构进行一一展示,并且为了使得用户对产品的整体架构作进一步了解,还可以去除产品的外包装对产品的整体架构进行展示。
在本发明实施例中,在对产品进行上述展示的基础上,还需要配以该产品的功能、材质、价位、生产厂家、适用场景、注意事项等各个方面的介绍。以便用户对当前产品充分了解。
可选地,对相关产品进行推送包括:
将一个或多个相关产品的图像展示在眼睛的视野内;
当检测到注视焦点锁定任意一个相关产品时,将被锁定的相关产品与注视焦点先前锁定的产品并列展示。
在本发明实施例中,通过上述的展示方案对对用户锁定的VR场景中的商品进行充分展示以后,或这在展示期间还可以向用户推送与当前产品相似的一种或多种相关产品,以避免用户对相关产品的继续搜索,节省用户的购物时间。具体地,在进行相关产品的推送时,可以将一个或多个相关产品的图像展示在眼睛的视野内,这里,可以直接将相关产品展示在预设位置处,也可以仅显示一个链接,以便用户直接通过该链接找到相关产品。
在本发明实施例中,当用户对某一个产品感兴趣时,同样可以通过注视的方式来选择该产品,并对用户的注视焦点进行检测以确定选中的相关产品。在进行相关产品的展示时,为了与当前的产品(即先前锁定的产品)相比较,可以将该相关产品与当前产品并列展示,以使得用户对两个或多个产品的优缺点一目了然,缩短比较时间,提高用户体验。
可选地,该方法还包括:当注视焦点锁定到任意一个相关产品时,将展示背景转换到被锁定的相关产品所在的店铺。
在本发明实施例中,为了增加用户的身临其境的感觉,当用户锁定一个相关产品时,在对该产品进行展示时还可以将展示背景转换到该相关产品所在的店铺,以使得用户对该相关产品的品牌、该品牌其他产品、店铺规模等信息进行了解,使得用户可以综合考虑是否需要采购该商品。
至此,已经介绍完了本发明实施例的全部基本特征,需要说明的是,上述方案仅是本发明实施例的一个或多个具体实施方式,在其他实施例中,还可以采用去他的实施方式。任何与本发明实施例的实施方式相同或相似的实施方式,以及本发明实施例的基本特征的任意组合,均在本发明实施例的保护范围之内。
本发明提出了一种终端以及VR场景中的人机交互方法,该终端包括:检测模块和展示模块。检测模块检测眼睛的注视焦点。展示模块对该注视焦点处的产品进行立体展示并对相关产品进行推送。通过本发明实施例方案,能够在通过用户的目光注视捕捉到用户感兴趣的产品以后,对该产品进行全方位立体展示,增加用户对产品的了解;并进行相关产品的推送,缩短了用户对产品的搜索时间,提高了用户的购物体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种终端,其特征在于,所述终端包括:检测模块和展示模块;
所述检测模块,用于检测眼睛的注视焦点;
所述展示模块,用于对所述注视焦点处的产品进行立体展示并对相关产品进行推送。
2.如权利要求1所述的终端,其特征在于,所述检测模块检测眼睛的注视焦点包括:
在头部和/或眼球的角度变化过程中,实时确定第一眼球的第一瞳孔中心的位置和第二眼球的第二瞳孔中心的位置;
根据所述眼睛的结构拟合出所述第一眼球的第一视网膜的位置,以及所述第二眼球的第二视网膜的位置;
分别拟合出所述第一瞳孔中心与所述第一视网膜的第一连线,以及所述第二瞳孔中心与所述第二视网膜的第二连线;
将所述第一连线和所述第二连线的交点作为所述眼睛的注视焦点。
3.如权利要求2所述的终端,其特征在于,所述终端还包括:确定模块;所述确定模块用于在所述头部和/或眼球的角度变化过程中,确定眼睛的视野;
所述确定模块确定眼睛的视野包括:
将以所述第一瞳孔中心为顶点,以所述第一连线为中分线的第一预设角度之内的场景作为第一分视野;将以所述第二瞳孔中心为顶点,以所述第二连线为中分线的第二预设角度之内的场景作为第二分视野;
将所述第一分视野和所述第二分视野的合集作为所述眼睛的视野;
结合所述头部变化角度和预设的眼球检测技术检测眼球变化角度。
4.如权利要求1所述的终端,其特征在于,所述展示模块对所述注视焦点处的产品进行立体展示包括:
对所述产品进行试运行或者操作模拟;
对所述产品的结构、形状和/或操作方式从多个视角进行展示;以及,
以文字形式和/或语音形式对所述产品的功能、材质、适用场景、注意事项进行介绍。
5.如权利要求1所述的终端,其特征在于,所述展示模块对相关产品进行推送包括:
将一个或多个所述相关产品的图像展示在所述眼睛的视野内;
当检测到所述注视焦点锁定任意一个所述相关产品时,将被锁定的所述相关产品与所述注视焦点先前锁定的产品并列展示。
6.一种虚拟现实VR场景中的人机交互方法,其特征在于,所述方法包括:
检测眼睛的注视焦点;
对所述注视焦点处的产品进行立体展示并对相关产品进行推送。
7.如权利要求6所述的VR场景中的人机交互方法,其特征在于,所述检测眼睛的注视焦点包括:
在头部和/或眼球的角度变化过程中,实时确定第一眼球的第一瞳孔中心的位置和第二眼球的第二瞳孔中心的位置;
根据所述眼睛的结构拟合出所述第一眼球的第一视网膜的位置,以及所述第二眼球的第二视网膜的位置;
分别拟合出所述第一瞳孔中心与所述第一视网膜的第一连线,以及所述第二瞳孔中心与所述第二视网膜的第二连线;
将所述第一连线和所述第二连线的交点作为所述眼睛的注视焦点。
8.如权利要求7所述的VR场景中的人机交互方法,其特征在于,所述方法还包括:在所述头部和/或眼球的角度变化过程中,确定眼睛的视野;
所述确定眼睛的视野包括:
将以所述第一瞳孔中心为顶点,以所述第一连线为中分线的第一预设角度之内的场景作为第一分视野;将以所述第二瞳孔中心为顶点,以所述第二连线为中分线的第二预设角度之内的场景作为第二分视野;
将所述第一分视野和所述第二分视野的合集作为所述眼睛的视野。
9.如权利要求6所述的VR场景中的人机交互方法,其特征在于,所述对所述注视焦点处的产品进行立体展示包括:
对所述产品进行试运行或者操作模拟;
对所述产品的结构、形状和/或操作方式从多个视角进行展示;以及,
以文字形式和/或语音形式对所述产品的功能、材质、适用场景、注意事项进行介绍。
10.如权利要求6所述的VR场景中的人机交互方法,其特征在于,所述对相关产品进行推送包括:
将一个或多个所述相关产品的图像展示在所述眼睛的视野内;
当检测到所述注视焦点锁定任意一个所述相关产品时,将被锁定的所述相关产品与所述注视焦点先前锁定的产品并列展示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611227570.XA CN106843468A (zh) | 2016-12-27 | 2016-12-27 | 一种终端以及vr场景中的人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611227570.XA CN106843468A (zh) | 2016-12-27 | 2016-12-27 | 一种终端以及vr场景中的人机交互方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106843468A true CN106843468A (zh) | 2017-06-13 |
Family
ID=59136532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611227570.XA Pending CN106843468A (zh) | 2016-12-27 | 2016-12-27 | 一种终端以及vr场景中的人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106843468A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107589837A (zh) * | 2017-08-22 | 2018-01-16 | 努比亚技术有限公司 | 一种ar终端画面调整方法、设备和计算机可读存储介质 |
CN108319363A (zh) * | 2018-01-09 | 2018-07-24 | 北京小米移动软件有限公司 | 基于vr的产品展示方法、装置及电子设备 |
CN108595011A (zh) * | 2018-05-03 | 2018-09-28 | 北京京东金融科技控股有限公司 | 信息展示方法、装置、存储介质及电子设备 |
CN109388227A (zh) * | 2017-08-08 | 2019-02-26 | 浙江工商职业技术学院 | 一种应用眼动数据隐性预测用户体验的方法 |
CN109427220A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 一种基于虚拟现实的展示方法和系统 |
CN113190119A (zh) * | 2021-05-06 | 2021-07-30 | Tcl通讯(宁波)有限公司 | 一种移动终端屏幕点亮控制方法、装置、移动终端及存储介质 |
CN114092674A (zh) * | 2022-01-24 | 2022-02-25 | 北京派瑞威行互联技术有限公司 | 多媒体数据分析方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102651077A (zh) * | 2011-02-24 | 2012-08-29 | 张健一 | 商品展示系统及方法 |
CN103645806A (zh) * | 2013-12-24 | 2014-03-19 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪的商品浏览方法及系统 |
CN104113680A (zh) * | 2013-04-19 | 2014-10-22 | 北京三星通信技术研究有限公司 | 视线跟踪系统及方法 |
CN106095089A (zh) * | 2016-06-06 | 2016-11-09 | 郑黎光 | 一种获取感兴趣目标信息的方法 |
-
2016
- 2016-12-27 CN CN201611227570.XA patent/CN106843468A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102651077A (zh) * | 2011-02-24 | 2012-08-29 | 张健一 | 商品展示系统及方法 |
CN104113680A (zh) * | 2013-04-19 | 2014-10-22 | 北京三星通信技术研究有限公司 | 视线跟踪系统及方法 |
CN103645806A (zh) * | 2013-12-24 | 2014-03-19 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪的商品浏览方法及系统 |
CN106095089A (zh) * | 2016-06-06 | 2016-11-09 | 郑黎光 | 一种获取感兴趣目标信息的方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109388227A (zh) * | 2017-08-08 | 2019-02-26 | 浙江工商职业技术学院 | 一种应用眼动数据隐性预测用户体验的方法 |
CN107589837A (zh) * | 2017-08-22 | 2018-01-16 | 努比亚技术有限公司 | 一种ar终端画面调整方法、设备和计算机可读存储介质 |
CN109427220A (zh) * | 2017-08-29 | 2019-03-05 | 深圳市掌网科技股份有限公司 | 一种基于虚拟现实的展示方法和系统 |
CN109427220B (zh) * | 2017-08-29 | 2021-11-30 | 深圳市掌网科技股份有限公司 | 一种基于虚拟现实的展示方法和系统 |
CN108319363A (zh) * | 2018-01-09 | 2018-07-24 | 北京小米移动软件有限公司 | 基于vr的产品展示方法、装置及电子设备 |
CN108595011A (zh) * | 2018-05-03 | 2018-09-28 | 北京京东金融科技控股有限公司 | 信息展示方法、装置、存储介质及电子设备 |
CN113190119A (zh) * | 2021-05-06 | 2021-07-30 | Tcl通讯(宁波)有限公司 | 一种移动终端屏幕点亮控制方法、装置、移动终端及存储介质 |
CN114092674A (zh) * | 2022-01-24 | 2022-02-25 | 北京派瑞威行互联技术有限公司 | 多媒体数据分析方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106843468A (zh) | 一种终端以及vr场景中的人机交互方法 | |
CN104750420B (zh) | 截屏方法及装置 | |
CN102271183B (zh) | 移动终端及其显示方法 | |
CN104349154B (zh) | 眼镜式终端的信息提供设备和信息提供方法 | |
CN104866265B (zh) | 多媒体文件的显示方法和装置 | |
CN106502693A (zh) | 一种图像显示方法和装置 | |
CN106303406A (zh) | 移动终端 | |
CN106778524A (zh) | 一种基于双摄像头测距的颜值估算装置及其方法 | |
CN106156144A (zh) | 信息推送方法及装置 | |
CN104301709A (zh) | 眼镜型便携式设备及其信息投影面搜索方法 | |
CN106686451A (zh) | 终端及视频播放控制方法 | |
CN106713716A (zh) | 一种双摄像头的拍摄控制方法和装置 | |
CN106657650A (zh) | 一种系统表情推荐方法、装置及终端 | |
CN106772247A (zh) | 一种终端和声源定位方法 | |
CN106778514A (zh) | 一种标识物体的方法及装置 | |
CN106791365A (zh) | 人脸图像预览处理方法及装置 | |
CN106406536A (zh) | 一种头戴设备、显示设备和图像显示方法 | |
CN107438179A (zh) | 一种信息处理方法及终端 | |
CN106713744A (zh) | 一种实现光绘摄影的方法、装置及拍摄设备 | |
CN106411631A (zh) | 移动终端、手表式移动终端及其控制方法 | |
EP4131144A1 (en) | Image processing method and apparatus, electronic device, and computer readable storage medium | |
CN107018334A (zh) | 一种基于双摄像头的应用程序处理方法和装置 | |
CN106851114A (zh) | 一种照片显示、照片生成装置和方法、终端 | |
CN106791155A (zh) | 一种音量调节装置、音量调节方法和移动终端 | |
CN106130981A (zh) | 增强现实设备的数字标签自定义装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170613 |