CN106445380A - 一种多视角画面操作的方法、系统及移动终端 - Google Patents
一种多视角画面操作的方法、系统及移动终端 Download PDFInfo
- Publication number
- CN106445380A CN106445380A CN201610831607.3A CN201610831607A CN106445380A CN 106445380 A CN106445380 A CN 106445380A CN 201610831607 A CN201610831607 A CN 201610831607A CN 106445380 A CN106445380 A CN 106445380A
- Authority
- CN
- China
- Prior art keywords
- touch screen
- picture
- side perspective
- display screen
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种多视角画面操作的方法、系统及移动终端。该方法包括:控制显示屏显示至少两个视角画面;获取触屏手势;获取所述触屏手势对应的视角画面;使用所述触屏手势对所述对应的视角画面进行操作。在多个视角画面同时观看时,获取所述触屏手势对应的视角画面,触屏手势仅对该触屏手势对应的视角画面进行操作,不影响其他视角画面的观看或操作,提高了用户的体验。
Description
技术领域
本发明涉及多视角画面技术领域,尤其涉及一种多视角画面操作的方法、系统及移动终端。
背景技术
随着显示屏技术的发展,同一显示面板上可以从不同的角度看到不同画面,因此当两人同看一手机屏幕时,如果两人观看的角度不同,可以看相同的画面,也可以看不同的画面。然而目前多视角液晶显示屏的设计仅止于输出多视角的显示画面,若要进行其他交互式的操作,则会影响其他的视角显示画面。例如:如果在看视频的时候,其中一个人浏览网页或者收到信息需要回复时,需要切换到相关界面进行处理,此时其他人也无法再进行正常的观看,只能等待处理完了再切换回来后继续观看;或者,需要对手机进行分屏操作。这样的处理方式都会影响其他人的体验,无法做到在进行画面切换等操作时,不影响其他的视角显示画面。
发明内容
本发明提供了一种多视角画面操作的方法、系统及移动终端,可以实现在进行多个视角画面同时观看时,对一个视角画面进行操作时不影响其他的视角画面,提高了用户的体验。
为实现上述设计,本发明采用以下技术方案:
第一方面,提供了一种多视角画面操作的方法,包括:
控制显示屏显示至少两个视角画面;
获取触屏手势;
获取所述触屏手势对应的视角画面;
使用所述触屏手势对所述对应的视角画面进行操作。
其中,所述控制显示屏显示至少两个视角画面,包括:控制所述显示屏显示左侧视角画面和右侧视角画面。
其中,所述获取触屏手势之前,还包括:
检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏;
所述获取所述触屏手势对应的视角画面,包括:
若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,则获取所述左侧视角画面;
若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,则获取所述右侧视角画面。
其中,所述获取触屏手势之后,所述获取所述触屏手势对应的视角画面之前,还包括:
判断所述触屏手势位于消息栏的左边还是右边;
所述获取所述触屏手势对应的视角画面,包括:
若所述触屏手势位于消息栏的左边,则获取所述左侧视角画面;
若所述触屏手势位于消息栏的右边,则获取所述右侧视角画面。
其中,所述控制所述显示屏显示左侧视角画面和右侧视角画面,包括:
通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
其中,所述检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏,包括:
通过摄像头拍取图像测距方式或测距传感器测距方式,检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
第二方面,提供了一种多视角画面操作的系统,包括:
控制单元,用于控制显示屏显示至少两个视角画面;
第一获取单元,用于获取触屏手势;
第二获取单元,用于获取所述触屏手势对应的视角画面;
操作单元,用于使用所述触屏手势对所述对应的视角画面进行操作。
其中,所述控制单元,具体用于控制所述显示屏显示左侧视角画面和右侧视角画面。
其中,还包括:
检测单元,用于检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏;
所述第二获取单元包括:
第三获取单元,用于若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,则获取所述左侧视角画面;
第四获取单元,用于若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,则获取所述右侧视角画面。
其中,还包括:
判断单元,用于判断所述触屏手势位于消息栏的左边还是右边;
所述第二获取单元包括:
第五获取单元,用于若所述触屏手势位于消息栏的左边,则获取所述左侧视角画面;
第六获取单元,用于若所述触屏手势位于消息栏的右边,则获取所述右侧视角画面。
其中,所述控制单元,具体用于通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
其中,所述检测单元,具体用于通过摄像头拍取图像测距方式或测距传感器测距方式,检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
第三方面,提供了一种移动终端,包括上述的一种多视角画面操作的系统。
本发明的有益效果为:本发明实施例通过控制显示屏显示至少两个视角画面;获取触屏手势;获取所述触屏手势对应的视角画面;使用所述触屏手势对所述对应的视角画面进行操作。在多个视角画面同时观看时,获取所述触屏手势对应的视角画面,触屏手势仅对该触屏手势对应的视角画面进行操作,不影响其他视角画面的观看或操作,提高了用户的体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据本发明实施例的内容和这些附图获得其他的附图。
图1是本发明具体实施方式中提供的一种多视角画面操作的方法的第一实施例的方法流程图。
图2是本发明具体实施方式中提供的一种多视角画面操作的方法的第二实施例的方法流程图。
图3是本发明具体实施方式中提供的一种多视角画面操作的方法的第三实施例的方法流程图。
图4是本发明具体实施方式中提供的一种多视角画面操作的系统的第一实施例的结构方框图。
图5是本发明具体实施方式中提供的一种多视角画面操作的系统的第二实施例的结构方框图。
图6是本发明具体实施方式中提供的一种多视角画面操作的系统的第三实施例的结构方框图。
图7是本发明具体实施方式中提供的一种移动终端的结构方框图。
图8是本发明具体实施方式中提供的显示屏同时显示两个视角画面的示意图。
附图标记
1、显示屏,2、左侧视角画面,3、右侧视角画面。
具体实施方式
为使本发明解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本发明实施例的技术方案作进一步的详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
请参考图1,其是本发明具体实施方式中提供的一种多视角画面操作的方法的第一实施例的方法流程图。如图所示,该方法包括:
步骤101:控制显示屏显示至少两个视角画面。
将显示屏的显示模式设置为多视角画面显示模式,移动终端控制显示屏显示两个或者多个视角画面;例如:控制显示屏显示两个视角画面:左侧视角画面和右侧视角画面。可选地,移动终端为智能穿戴设备、数码相框、平板电脑或智能手机等。
步骤102:获取触屏手势。
可选地,获取触屏手势,包括:移动终端在接收自启动应用的相关提示信息后接收用户输入的触屏手势,或者接收用户主动输入的触屏手势。其中,触屏手势包括:点击、滑动等。
步骤103:获取所述触屏手势对应的视角画面。
可选地,根据产生触屏手势的触屏物进入显示屏的方向获取触屏手势对应的视角画面。例如:触屏物从左侧进入显示屏,触屏手势对应的视角画面为左侧视角画面,获取左侧视角画面;触屏物从右侧进入显示屏,触屏手势对应的视角画面为右侧视角画面,获取右侧视角画面。
可选地,根据触屏手势在消息栏的位置获取触屏手势对应的视角画面。例如:触屏手势位于消息栏的左边,触屏手势对应的视角画面为左侧视角画面,获取左侧视角画面;触屏手势位于消息栏的右边,触屏手势对应的视角画面为右侧视角画面,获取右侧视角画面。
步骤104:使用所述触屏手势对所述对应的视角画面进行操作。
使用所述触屏手势,根据触屏手势产生相应的指令,由指令对对应的视角画面进行操作,从而改变对应的视角画面的显示;其中,操作包括:切换显示画面、图像放大、图像缩小等;切换显示画面包括:同一应用中画面的切换和不同应用之间的切换。例如:触屏手势对应的视角画面是左侧视角画面,则使用触屏手势对左侧视角画面显示的内容进行切换、图像放大等操作;触屏手势对应的视角画面是中间视角画面,则使用触屏手势对中间视角画面显示的内容进行切换、图像放大等操作;触屏手势对应的视角画面是右侧视角画面,则使用触屏手势对右侧视角画面显示的内容进行切换、图像放大等操作;触屏手势对应的视角画面是右侧视角画面和中间视角画面,则使用触屏手势对右侧视角画面显示的内容和中间画面显示的内容进行切换、图像放大等操作。
综上所述,本发明实施例通过控制显示屏显示至少两个视角画面;获取触屏手势;获取所述触屏手势对应的视角画面;使用所述触屏手势对所述对应的视角画面进行操作。在多个视角画面同时观看时,获取所述触屏手势对应的视角画面,触屏手势仅对该触屏手势对应的视角画面进行操作,不影响其他视角画面的观看或操作,提高了用户的体验。
实施例二:
请参考图2,其是本发明具体实施方式中提供的一种多视角画面操作的方法的第二实施例的方法流程图。如图所示,该方法包括:
步骤201:控制所述显示屏显示左侧视角画面和右侧视角画面。
可选地,控制所述显示屏显示左侧视角画面和右侧视角画面,包括:通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。移动终端通过人脸识别和眼球识别技术确定用户的双眼位置,识别出两个或多个用户的双眼位置分别位于显示屏的左侧的视角范围(左侧视角)和右侧的视角范围(右侧视角),根据这些双眼位置分别调节左侧视角画面相对于显示屏往左侧偏移的角度和/或右侧视角画面相对于显示屏往右侧偏移的角度,控制显示屏显示左侧视角画面和/或右侧视角画面使得用户的双眼位于观看的最佳位置,方便用户观看,提高了用户的观看体验度。例如:用户A的双眼位置位于左侧视角画面,用户B的双眼位置位于右侧视角画面,如果用户A的双眼位置在左侧视角画面上的位置有变动,则根据用户A的双眼位置自动调节左侧视角画面相对于显示屏往左侧偏移的角度,以使用户A处于最佳的左侧视角画面观看状态;如果用户B的双眼位置在右侧视角画面上的位置有变动,则根据用户B的双眼位置自动调节右侧视角画面相对于显示屏往右侧偏移的角度,以使用户B处于最佳的右侧视角画面观看状态;如果用户A的双眼位置在左侧视角画面上的位置有变动且用户B的双眼位置在右侧视角画面上的位置有变动,则根据用户A的双眼位置自动调节左侧视角画面相对于显示屏往左侧偏移的角度和根据用户B的双眼位置自动调节右侧视角画面相对于显示屏往右侧偏移的角度,以使用户A和B均处于最佳的视角画面观看状态。
如图8所示,移动终端控制显示屏1同时显示两个视角画面:左侧视角画面2和右侧视角画面3,显示屏1可以为横屏状态或竖屏状态。移动终端通过人脸识别和眼球识别技术确定用户的双眼位置,识别出用户C在显示屏1左侧的视角范围、用户D在显示屏1右侧的视角范围,控制显示屏1显示左侧视角画面2和右侧视角画面3,根据用户C和用户D的双眼位置分别调节左侧视角画面2相对于显示屏1往左侧偏移的角度和右侧视角画面3相对于显示屏1往右侧偏移的角度,使得左侧视角画面2和右侧视角画面3分别位于用户C和用户D的最佳观看位置。
步骤202:检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏,包括:通过摄像头拍取图像测距方式或测距传感器测距方式,检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。其中,测距传感器包括:超声波测距传感器、红外线测距传感器或24GHZ雷达传感器等。
步骤203:获取触屏手势。
步骤204:获取所述触屏手势对应的视角画面。
所述获取所述触屏手势对应的视角画面,包括:若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,则获取所述左侧视角画面;或者,若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,则获取所述右侧视角画面。
步骤205:使用所述触屏手势对所述对应的视角画面进行操作。
若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,使用触屏手势对左侧视角画面进行操作;若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,使用触屏手势对右侧视角画面进行操作。
综上所述,本发明实施例通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面;识别记录各个视点的用户,实现自动根据用户双眼的位置调节视角画面的角度,以使用户处于最佳的左侧视角画面观看状态。检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏;通过检测产生触屏手势的触屏物进入显示屏的方向来决定进行操作对应的视角画面,对该视角画面进行操作,不会影响其他视角画面,操作方便,改善了用户的体验度。
实施例三:
请参考图3,其是本发明具体实施方式中提供的一种多视角画面操作的方法的第三实施例的方法流程图。如图所示,该方法包括:
步骤301:控制所述显示屏显示左侧视角画面和右侧视角画面。
可选地,控制所述显示屏显示左侧视角画面和右侧视角画面,包括:通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
步骤302:获取触屏手势。
步骤303:判断所述触屏手势位于消息栏的左边还是右边。
步骤304:获取所述触屏手势对应的视角画面。
获取所述触屏手势对应的视角画面,包括:若所述触屏手势位于消息栏的左边,则获取所述左侧视角画面;或者,若所述触屏手势位于消息栏的右边,则获取所述右侧视角画面。
步骤305:使用所述触屏手势对所述对应的视角画面进行操作。
若所述触屏手势位于消息栏的左边,使用触屏手势对左侧视角画面进行操作;若所述触屏手势位于消息栏的右边,使用触屏手势对右侧视角画面进行操作。
综上所述,本发明实施例通过判断所述触屏手势位于消息栏的左边还是右边,若所述触屏手势位于消息栏的左边,使用触屏手势对左侧视角画面进行操作;若所述触屏手势位于消息栏的右边,使用触屏手势对右侧视角画面进行操作。通过判断所述触屏手势位于消息栏的左边还是右边来决定进行操作对应的视角画面,对该视角画面进行操作,不会影响其他的视角画面,操作方便,改善了用户的体验度。
实施例四-实施例六是为本方案一种多视角画面操作的系统的实施例,一种多视角画面操作的系统的实施例基于一种多视角画面操作的方法的实施例实现,在一种多视角画面操作的系统的实施例中未尽的描述,请参考实施例一-实施例三中的一种多视角画面操作的方法的实施例。
实施例四:
请参考图4,其是本发明具体实施方式中提供的一种多视角画面操作的系统的第一实施例的结构方框图。如图所示,该系统包括:
控制单元410,用于控制显示屏显示至少两个视角画面。
第一获取单元420,用于获取触屏手势。
第二获取单元430,用于获取所述触屏手势对应的视角画面。
操作单元440,用于使用所述触屏手势对所述对应的视角画面进行操作。
综上所述,各单元模块协同工作,控制单元410,用于控制显示屏显示至少两个视角画面;第一获取单元420,用于获取触屏手势;第二获取单元430,用于获取所述触屏手势对应的视角画面;操作单元440,用于使用所述触屏手势对所述对应的视角画面进行操作。在多个视角画面同时观看时,获取所述触屏手势对应的视角画面,触屏手势仅对该触屏手势对应的视角画面进行操作,不影响其他视角画面的观看或操作,提高了用户的体验。
实施例五:
请参考图5,其是本发明具体实施方式中提供的一种多视角画面操作的系统的第二实施例的结构方框图。如图所示,该系统包括:
控制单元410,用于控制显示屏显示至少两个视角画面。
所述控制单元410,具体用于控制所述显示屏显示左侧视角画面和右侧视角画面。
所述控制单元410,具体用于通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
检测单元450,用于检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
所述检测单元450,具体用于通过摄像头拍取图像测距方式或测距传感器测距方式,检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
第一获取单元420,用于获取触屏手势。
所述第二获取单元430包括:第三获取单元和第四获取单元。
第三获取单元,用于若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,则获取所述左侧视角画面。
第四获取单元,用于若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,则获取所述右侧视角画面。
第二获取单元430,用于获取所述触屏手势对应的视角画面。
操作单元440,用于使用所述触屏手势对所述对应的视角画面进行操作。
综上所述,各单元模块协同工作,控制单元410,具体用于通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面;识别记录各个视点的用户,实现自动根据用户双眼的位置调节视角画面的角度,以使用户处于最佳的左侧视角画面观看状态。检测单元450,用于检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏;通过检测产生触屏手势的触屏物进入显示屏的方向来决定进行操作对应的视角画面,对该视角画面进行操作,不会影响其他视角画面,操作方便,改善了用户的体验度。
实施例六:
请参考图6,其是本发明具体实施方式中提供的一种多视角画面操作的系统的第三实施例的结构方框图。如图所示,该系统包括:
控制单元410,用于控制显示屏显示至少两个视角画面。
所述控制单元410,具体用于通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
第一获取单元420,用于获取触屏手势。
判断单元460,用于判断所述触屏手势位于消息栏的左边还是右边。
第二获取单元430,用于获取所述触屏手势对应的视角画面。
所述第二获取单元430包括:第五获取单元和第六获取单元。
第五获取单元,用于若所述触屏手势位于消息栏的左边,则获取所述左侧视角画面。
第六获取单元,用于若所述触屏手势位于消息栏的右边,则获取所述右侧视角画面。
操作单元440,用于使用所述触屏手势对所述对应的视角画面进行操作。
综上所述,各单元模块协同工作,判断单元460,用于判断所述触屏手势位于消息栏的左边还是右边。通过判断所述触屏手势位于消息栏的左边还是右边来决定进行操作对应的视角画面,对该视角画面进行操作,不会影响其他的视角画面,操作方便,改善了用户的体验度。
实施例七:
图7是本发明具体实施方式中提供的一种移动终端的结构示意图,本发明实施例中的移动终端可以是任何具备触控显示屏的设备,例如:平板电脑、手机、可穿戴设备等。如图7所示,本发明实施例中的终端包括:至少一个的处理器710,例如CPU,至少一个传感器电路720,至少一个通信总线730,至少一个存储器740,至少一个拍摄装置750,如前置摄像头、后置摄像头,至少一个输入单元760,例如键盘、鼠标等,至少一个显示屏770。其中,通信总线730用于实现这些组件之间的连接通信。存储器740可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器740可选的还可以是至少一个位于远离前述处理器710的存储装置。存储器740中存储一组程序代码,且所述处理器710可通过通信总线730,调用存储器740中存储的代码以执行相关的功能。
所述处理器710,用于控制显示屏显示至少两个视角画面;获取触屏手势;获取所述触屏手势对应的视角画面;使用所述触屏手势对所述对应的视角画面进行操作。
可选的,所述处理器710,在用于控制显示屏显示至少两个视角画面时,具体用于控制所述显示屏显示左侧视角画面和右侧视角画面。
可选的,所述处理器710,在用于获取触屏手势之前,还用于检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。所述处理器710,在用于获取所述触屏手势对应的视角画面时,具体用于若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,则获取所述左侧视角画面;若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,则获取所述右侧视角画面。
可选的,所述处理器710,在用于获取触屏手势之后,所述获取所述触屏手势对应的视角画面之前,还用于判断所述触屏手势位于消息栏的左边还是右边。所述处理器710,在用于获取所述触屏手势对应的视角画面时,具体用于若所述触屏手势位于消息栏的左边,则获取所述左侧视角画面;若所述触屏手势位于消息栏的右边,则获取所述右侧视角画面。
可选的,所述处理器710,在用于控制所述显示屏显示左侧视角画面和右侧视角画面时,具体用于通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
可选的,所述处理器710,在用于检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏时,具体用于通过摄像头拍取图像测距方式或测距传感器测距方式,检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
具体的,上述方案具体实现可参考图1至图3对应实施例中相关步骤的描述,在此不赘述。
可以看出,本发明实施例技术方案中,移动终端控制显示屏显示至少两个视角画面;获取触屏手势;获取所述触屏手势对应的视角画面;使用所述触屏手势对所述对应的视角画面进行操作。在多个视角画面同时观看时,获取所述触屏手势对应的视角画面,触屏手势仅对该触屏手势对应的视角画面进行操作,不影响其他视角画面的观看或操作,提高了用户的体验。
本发明实施例还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时包括上述方法实施例中记载的一种多视角画面操作的方法的部分或全部步骤。
本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上结合具体实施例描述了本发明的技术原理。这些描述只是为了解释本发明的原理,而不能以任何方式解释为对本发明保护范围的限制。基于此处的解释,本领域的技术人员不需要付出创造性的劳动即可联想到本发明的其它具体实施方式,这些方式都将落入本发明的保护范围之内。
Claims (13)
1.一种多视角画面操作的方法,其特征在于,包括:
控制显示屏显示至少两个视角画面;
获取触屏手势;
获取所述触屏手势对应的视角画面;
使用所述触屏手势对所述对应的视角画面进行操作。
2.根据权利要求1所述的方法,其特征在于,所述控制显示屏显示至少两个视角画面,包括:控制所述显示屏显示左侧视角画面和右侧视角画面。
3.根据权利要求2所述的方法,其特征在于,所述获取触屏手势之前,还包括:
检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏;
所述获取所述触屏手势对应的视角画面,包括:
若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,则获取所述左侧视角画面;
若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,则获取所述右侧视角画面。
4.根据权利要求2所述的方法,其特征在于,所述获取触屏手势之后,所述获取所述触屏手势对应的视角画面之前,还包括:
判断所述触屏手势位于消息栏的左边还是右边;
所述获取所述触屏手势对应的视角画面,包括:
若所述触屏手势位于消息栏的左边,则获取所述左侧视角画面;
若所述触屏手势位于消息栏的右边,则获取所述右侧视角画面。
5.根据权利要求2-4任一项所述的方法,其特征在于,所述控制所述显示屏显示左侧视角画面和右侧视角画面,包括:
通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
6.根据权利要求3所述的方法,其特征在于,所述检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏,包括:
通过摄像头拍取图像测距方式或测距传感器测距方式,检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
7.一种多视角画面操作的系统,其特征在于,包括:
控制单元,用于控制显示屏显示至少两个视角画面;
第一获取单元,用于获取触屏手势;
第二获取单元,用于获取所述触屏手势对应的视角画面;
操作单元,用于使用所述触屏手势对所述对应的视角画面进行操作。
8.根据权利要求7所述的系统,其特征在于,所述控制单元,具体用于控制所述显示屏显示左侧视角画面和右侧视角画面。
9.根据权利要求8所述的系统,其特征在于,还包括:
检测单元,用于检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏;
所述第二获取单元包括:
第三获取单元,用于若所述产生所述触屏手势的触屏物从左侧进入所述显示屏,则获取所述左侧视角画面;
第四获取单元,用于若所述产生所述触屏手势的触屏物从右侧进入所述显示屏,则获取所述右侧视角画面。
10.根据权利要求8所述的系统,其特征在于,还包括:
判断单元,用于判断所述触屏手势位于消息栏的左边还是右边;
所述第二获取单元包括:
第五获取单元,用于若所述触屏手势位于消息栏的左边,则获取所述左侧视角画面;
第六获取单元,用于若所述触屏手势位于消息栏的右边,则获取所述右侧视角画面。
11.根据权利要求8-10任一项所述的系统,其特征在于,所述控制单元,具体用于通过人脸识别和眼球识别技术,识别左侧视角和右侧视角,控制所述显示屏显示所述左侧视角画面和所述右侧视角画面。
12.根据权利要求9所述的系统,其特征在于,所述检测单元,具体用于通过摄像头拍取图像测距方式或测距传感器测距方式,检测产生所述触屏手势的触屏物从左侧进入所述显示屏还是从右侧进入所述显示屏。
13.一种移动终端,其特征在于,包括如权利要求7-12任一项所述的一种多视角画面操作的系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610831607.3A CN106445380A (zh) | 2016-09-19 | 2016-09-19 | 一种多视角画面操作的方法、系统及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610831607.3A CN106445380A (zh) | 2016-09-19 | 2016-09-19 | 一种多视角画面操作的方法、系统及移动终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106445380A true CN106445380A (zh) | 2017-02-22 |
Family
ID=58165804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610831607.3A Pending CN106445380A (zh) | 2016-09-19 | 2016-09-19 | 一种多视角画面操作的方法、系统及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106445380A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239222A (zh) * | 2017-06-02 | 2017-10-10 | 汪念鸿 | 一种触摸屏的操控方法及终端设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101383A (zh) * | 2006-07-06 | 2008-01-09 | 夏普株式会社 | 显示装置和具有该显示装置的电子设备 |
US20130218464A1 (en) * | 2012-02-17 | 2013-08-22 | Chun-Ming Chen | Method for generating split screen according to a touch gesture |
CN103324435A (zh) * | 2013-05-24 | 2013-09-25 | 华为技术有限公司 | 分屏显示的方法、装置及其电子设备 |
US20140075394A1 (en) * | 2012-09-07 | 2014-03-13 | Samsung Electronics Co., Ltd. | Method and apparatus to facilitate interoperability of applications in a device |
CN103677630A (zh) * | 2012-09-25 | 2014-03-26 | 三星电子株式会社 | 在便携式装置中处理分屏视图的设备和方法 |
CN104331246A (zh) * | 2014-11-19 | 2015-02-04 | 广州三星通信技术研究有限公司 | 在终端中进行分屏显示的设备和方法 |
CN105389111A (zh) * | 2015-10-28 | 2016-03-09 | 维沃移动通信有限公司 | 一种分屏显示的操作方法及电子设备 |
-
2016
- 2016-09-19 CN CN201610831607.3A patent/CN106445380A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101383A (zh) * | 2006-07-06 | 2008-01-09 | 夏普株式会社 | 显示装置和具有该显示装置的电子设备 |
US20130218464A1 (en) * | 2012-02-17 | 2013-08-22 | Chun-Ming Chen | Method for generating split screen according to a touch gesture |
US20140075394A1 (en) * | 2012-09-07 | 2014-03-13 | Samsung Electronics Co., Ltd. | Method and apparatus to facilitate interoperability of applications in a device |
CN103677630A (zh) * | 2012-09-25 | 2014-03-26 | 三星电子株式会社 | 在便携式装置中处理分屏视图的设备和方法 |
CN103324435A (zh) * | 2013-05-24 | 2013-09-25 | 华为技术有限公司 | 分屏显示的方法、装置及其电子设备 |
CN104331246A (zh) * | 2014-11-19 | 2015-02-04 | 广州三星通信技术研究有限公司 | 在终端中进行分屏显示的设备和方法 |
CN105389111A (zh) * | 2015-10-28 | 2016-03-09 | 维沃移动通信有限公司 | 一种分屏显示的操作方法及电子设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239222A (zh) * | 2017-06-02 | 2017-10-10 | 汪念鸿 | 一种触摸屏的操控方法及终端设备 |
CN107239222B (zh) * | 2017-06-02 | 2021-06-22 | 汪念鸿 | 一种触摸屏的操控方法及终端设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102121592B1 (ko) | 시력 보호 방법 및 장치 | |
US9563272B2 (en) | Gaze assisted object recognition | |
EP2813922B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US11231845B2 (en) | Display adaptation method and apparatus for application, and storage medium | |
US11164546B2 (en) | HMD device and method for controlling same | |
US9378581B2 (en) | Approaches for highlighting active interface elements | |
US9104239B2 (en) | Display device and method for controlling gesture functions using different depth ranges | |
EP2864932B1 (en) | Fingertip location for gesture input | |
WO2021213067A1 (zh) | 物品显示方法、装置、设备及存储介质 | |
CN104685449A (zh) | 基于用户的目光的用户界面元素焦点 | |
EP3511803A1 (en) | Method and apparatus to determine trigger intent of user | |
CN105759959A (zh) | 一种用户终端的控制方法及用户终端 | |
WO2018219091A1 (zh) | 用于显示弹幕的方法、装置以及存储介质 | |
US20220309836A1 (en) | Ai-based face recognition method and apparatus, device, and medium | |
CN109857289A (zh) | 显示控制方法及终端设备 | |
KR20150117820A (ko) | 영상 표시 방법 및 전자 장치 | |
EP2939411B1 (en) | Image capture | |
EP3757878A1 (en) | Head pose estimation | |
CN107239222A (zh) | 一种触摸屏的操控方法及终端设备 | |
US20240127564A1 (en) | Interaction method and apparatus of virtual space, device, and medium | |
CN113559501A (zh) | 游戏中的虚拟单位选取方法及装置、存储介质及电子设备 | |
US20140253430A1 (en) | Providing events responsive to spatial gestures | |
CN106445380A (zh) | 一种多视角画面操作的方法、系统及移动终端 | |
KR102312601B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
EP3088991B1 (en) | Wearable device and method for enabling user interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170222 |