CN110221655A - 多显示设备和多显示方法 - Google Patents
多显示设备和多显示方法 Download PDFInfo
- Publication number
- CN110221655A CN110221655A CN201910488926.2A CN201910488926A CN110221655A CN 110221655 A CN110221655 A CN 110221655A CN 201910488926 A CN201910488926 A CN 201910488926A CN 110221655 A CN110221655 A CN 110221655A
- Authority
- CN
- China
- Prior art keywords
- display
- user
- user manipulation
- screen
- main body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1615—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
- G06F1/1616—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1647—Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
一种多显示设备包括:第一主体,包括第一显示器;第二主体,包括第二显示器;铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;传感器,被配置为感测第一显示器上显示的非结构化第一屏幕的非决定性位置上做出的第一用户操纵,并感测第二显示器上显示的非结构化第二屏幕的非决定性位置上做出的第二用户操纵;以及控制器,被配置为将感测到的第一用户操纵和感测到的第二用户操纵进行组合,以执行与组合的结果相对应的操作。
Description
相关申请的交叉引用
本申请基于35U.S.C.§119(a)要求2012年10月10日提交于韩国知识产权局的韩国专利申请No.10-2012-0112638的优先权,在此将其公开一并引入作为参考。
技术领域
根据本发明总体构思的示例实施例的方法和设备涉及多显示设备,更具体地,涉及被配置为通过其每个显示器接收输入并相应执行输出的多显示器设备及其多显示方法。
背景技术
最近使用的便携式电子设备(如,智能电话)通常具有一个显示器。
然而,由于安装于便携式电子设备中的中央处理单元(CPU)的性能提高并提供了能够同时执行各种应用的多任务环境,仅具有一个显示器的显示设备变得难以有效利用该性能。
此外,由于电池技术和热处理系统的发展,便携式电子设备可以只具有一个显示器的设计范例不再是可接受的事实。
而且,提出了在面向用户体验的界面环境中扩展触摸屏并引入对便携式电子设备的更多的用户体验的需求。
在此背景下,出现了具有两个或多个显示器的便携式电子设备(即,多显示设备)。
多显示设备作为下一代显示设备正受到关注,因为它可以基于强大的硬件性能在多个显示器上执行并显示各种应用,因而不但适于多任务环境,而且向用户提供了多种且丰富的信息,从而提供了新的用户体验。
在多显示设备中,可以通过多个显示器执行输出和输入。因而,提出了针对可以根据多显示设备中每个显示器的输入执行更多的输入和输出的技术的需求。
发明内容
本发明总体构思的示例实施例提供了多显示设备及其多显示方法,所述多显示设备被配置为通过多显示设备的每个显示器执行非结构化的输入,并将每个输入组合以执行与之对应的输出。
本发明总体构思的其他特征和用途将部分地在以下描述中给出,并部分地从描述中显而易见或可以通过本发明总体构思的实践来了解。
本发明总体构思的示例实施例提供了一种多显示设备,包括:第一主体,包括第一显示器;第二主体,包括第二显示器;铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;传感器,被配置为感测在第一显示器上显示的非结构化第一屏幕的非决定性位置上做出的第一用户操纵,并感测在第二显示器上显示的非结构化第二屏幕的非决定性位置上做出的第二用户操纵;以及控制器,被配置为将感测到的第一用户操纵和第二用户操纵进行组合,以执行与组合的结果相对应的操作。
控制器可以根据第一用户操纵来改变与第二用户操纵相匹配的功能,并且当感测到第二用户操纵时,控制器可以根据改变后的功能来执行与第二用户操纵相对应的操作。
第二用户操纵可以是拖动操作的线输入,当第一用户操纵是分开输入时,控制器可以增大第二用户操纵的线输入的粗度或透明度;当第一用户操纵是合拢输入时,控制器可以减小第二用户操纵的线输入的粗度或透明度;以及当第一用户操纵是触摸并旋转输入时,控制器可以改变第二用户操纵的线输入的纹理或粗度。
第一用户操纵可以是触摸并保持输入,以及第二用户操纵可以是触摸输入,当同时感测到第一用户操纵和第二用户操纵时,控制器可以显示与第二用户操纵相对应的菜单。
当感测到第一用户操纵时,控制器可以根据第一用户操纵来改变第二显示器上显示的第二屏幕;并且当感测到第二用户操纵时,控制器可以根据第二用户操纵来显示由第一用户操纵改变的第二屏幕。
当第一用户操纵是分开输入时,控制器可以扩大第二显示器上显示的第二屏幕;当第一用户操纵是合拢输入时,控制器可以缩小第二显示器上显示的第二屏幕;以及当第一用户操纵是触摸并旋转输入时,控制器可以旋转第二显示器上显示的第二屏幕。
本发明总体构思的示例实施例还提供了一种多显示设备,包括:第一主体,包括第一显示器;第二主体,包括第二显示器;铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;传感器,被配置为在第一显示器和第二显示器分别显示非结构化第一屏幕和非结构化第二屏幕时,感测在第一显示器的非决定性位置上做出的第一用户操纵和在第二显示器的非决定性位置上做出的第二用户操纵;以及控制器,被配置为将感测到的第一用户操纵和感测到的第二用户操纵进行组合,以将组合识别为一个用户手势,并在第一显示器和第二显示器中的至少一个上显示与所述一个用户手势相对应的执行屏幕。
第一用户操纵可以是使用用户身体接近或触摸第一显示器的输入,以及第二用户操纵可以是使用输入笔接近或触摸第二显示器的输入。
本发明总体构思的示例实施例还提供了一种多显示设备的多显示方法,所述多显示设备包括:第一主体,包括第一显示器;第二主体,包括第二显示器;铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;所述多显示方法包括:在第一显示器上显示非结构化第一屏幕;在第二显示器上显示非结构化第二屏幕;感测在所述第一屏幕的非决定性位置上做出的第一用户操纵和在所述第二屏幕的非决定性位置上做出的第二用户操纵;以及将感测到的第一用户操纵和感测到的第二用户操纵进行组合,并执行与组合的结果相对应的操作。
执行所述操作可以包括:根据第一用户操纵来改变与第二用户操纵相匹配的功能,并且当感测到第二用户操纵时,根据改变后的功能来执行与第二用户操纵相对应的操作。
第二用户操纵可以是拖动操作的线输入。改变所述功能可以包括:当第一用户操纵是分开输入时,增大第二用户操纵的线输入的粗度;当第一用户操纵是合拢输入时,减小第二用户操纵的线输入的粗度;以及当第一用户操纵是触摸并旋转输入时,改变第二用户操纵的线输入的纹理。
第一用户操纵可以是触摸并保持输入,以及第二用户操纵可以是触摸输入。执行所述操作可以包括:当同时感测到第一用户操纵和第二用户操纵时,显示与第二用户操纵相对应的菜单。
所述多显示方法还可以包括:当感测到第一用户操纵时,根据第一用户操纵来改变第二显示器上显示的第二屏幕。执行所述操作可以包括:当感测到第二用户操纵时,根据第二用户操纵来显示通过第一用户操纵改变的第二屏幕。
改变第二屏幕可以包括:当第一用户操纵是分开输入时,扩大第二显示器上显示的第二屏幕;当第一用户操纵是合拢输入时,缩小第二显示器上显示的第二屏幕;以及当第一用户操纵是触摸并旋转输入时,旋转第二显示器上显示的第二屏幕。
本发明总体构思的示例实施例还提供了一种多显示设备的多显示方法,所述多显示设备包括:第一主体,包括第一显示器;第二主体,包括第二显示器;铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;所述多显示方法包括:感测在第一显示器上显示的非结构化第一屏幕的非决定性位置上做出的第一用户操纵和在第二显示器上显示的非结构化第二屏幕的非决定性位置上做出的第二用户操纵;以及将感测到的第一用户操纵和第二用户操纵进行组合,以将组合识别为一个用户手势,并在第一显示器和第二显示器中的至少一个上显示与所述一个用户手势相对应的执行屏幕。
第一用户操纵可以是使用用户身体接近或触摸第一显示器的输入,以及第二用户操纵可以是使用输入笔接近或触摸第二显示器的输入。
当感测到第一用户操纵时,控制器可以提取第一显示器上显示的内容,并在感测到第二用户操纵时,在第二显示器上显示与所提取的内容相对应的屏幕。
控制器可以根据第一用户操纵,捕获第一显示器上显示的屏幕,并在第二显示器上做出第二用户操纵的位置上显示所捕获的屏幕。
控制器可以提取第一显示器和第二显示器上显示的内容,并在第二显示器上显示与所提取的内容相对应的屏幕,在感测到第一用户操纵的同时,在第二屏幕的非决定性位置上感测到第三用户操纵。
执行所述操作可以包括:当感测到第一用户操纵时,提取第一显示器上显示的内容;以及在感测到第二用户操纵时,在第二显示器上显示与所提取的内容相对应的屏幕。
提取内容可以包括:根据第一用户操纵,捕获第一显示器上显示的屏幕;以及显示与所提取的内容相对应的屏幕可以包括:在第二显示器上做出第二用户操纵的位置上显示所捕获的屏幕。
非暂时计算机可读记录介质可以包含计算机可读代码作为执行所述多显示方法的程序。
本发明总体构思的示例实施例还提供了一种多显示设备,包括:多个显示器;传感器,被配置为感测所述多个显示器的第一显示器上的第一用户操纵,并感测在所述多个显示器的至少一个第二显示器的非决定性位置上做出的第二用户操纵;以及控制器,用于根据感测到的第一用户操纵和感测到的第二用户操纵的组合,在所述多个显示器中的至少一个上执行操作。
所述传感器还可以被配置为:感测所述多个显示器的每一个相对于彼此的位置。
可以在多个第二显示器的非决定性位置上做出第二用户操纵,以及控制器可以在做出第二用户操纵的所述多个第二显示器的每一个上执行操作。
附图说明
结合附图,根据以下实施例的描述,本发明总体构思的上述和/或其他特征和用途将更清楚和容易理解,附图中:
图1是示出了根据本发明总体构思的示例实施例的多显示设备的配置框图;
图2是示出了根据本发明总体构思的示例实施例的多显示设备的操作的流程图;
图3是示出了根据本发明总体构思的示例实施例的结构化屏幕的视图;
图4是示出了根据本发明总体构思的示例实施例的多显示设备被配置为在存在第一用户操纵时改变与第二用户操纵相匹配的功能的操作的流程图;
图5是示出了图4的多显示设备的示例实施例的显示屏幕的参考视图;
图6是示出了图4的多显示设备的另一示例实施例的流程图;
图7是示出了图6的多显示设备的示例实施例的显示屏幕的参考视图;
图8是示出了图4的多显示设备的另一示例实施例的流程图;
图9是示出了图8的多显示设备的示例实施例的显示屏幕的参考视图;
图10是示出了图2的多显示设备的另一示例实施例的流程图;
图11是示出了图10的多显示设备的示例实施例的显示屏幕的参考视图;
图12是示出了根据本发明总体构思的示例实施例的多显示设备的操作的流程图;
图13是示出了图12的多显示设备的示例实施例的流程图;
图14是示出了图13的多显示设备的示例实施例的显示屏幕的参考视图;
图15是示出了图12的多显示设备的另一示例实施例的流程图;
图16是示出了图15的多显示设备的示例实施例的显示屏幕的参考视图;
图17是示出了图12的多显示设备的另一示例实施例的流程图;
图18是示出了图17的多显示设备的示例实施例的显示屏幕的参考视图;
图19是示出了根据本发明总体构思的示例实施例的多显示设备的操作的流程图;
图20是示出了图19的多显示设备的示例实施例的流程图;
图21至23是示出了图20的多显示设备的示例实施例的显示屏幕的视图;
图24是示出了图19的多显示设备的特定另一示例实施例的流程图;
图25是示出了图24的多显示设备的示例实施例的显示屏幕的参考视图;
图26是示出了根据本发明总体构思的示例实施例的多显示设备的配置框图;
图27是示出了根据本发明总体构思的示例实施例的控制器的硬件配置的框图;
图28是示出了根据本发明总体构思的示例实施例的多显示设备的系统分级结构的视图;
图29是示出了根据本发明总体构思的示例实施例的第一显示器或第二显示器的图像输出器的电路配置的视图;
图30是示出了配置图29的显示面板内的R、G和B像素区域的电路结构的视图;
图31是根据本发明总体构思的示例实施例的包括触摸屏的第一显示器或第二显示器的横截面视图;
图32是示出了根据本发明总体构思的示例实施例的多显示设备的显示驱动器的框图;
图33是示出了根据本发明总体构思的另一示例实施例的显示驱动器的配置框图;
图34是示出了根据本发明总体构思的示例实施例的接近触摸的视图;
图35是根据本发明总体构思的示例实施例的多显示设备的详细透视图;
图36至38是示出了根据本发明总体构思的示例实施例的相对于铰链以各种方式改变的多显示设备的状态的透视图;
图39至40是示出了根据本发明总体构思的示例实施例的多显示设备的站立状态的透视图;
图41至42是示出了根据本发明总体构思的示例实施例的多显示设备的两个摄像头的布置的视图;
图43至47是示出了根据本发明总体构思的各种示例实施例的多显示方法的流程图;以及
图48是示出了根据本发明总体构思的另一示例实施例的无线连接的多显示设备的显示器的布置的视图。
具体实施方式
详细地描述本发明总体构思的实施例,附图中示出了其示例,在所有附图中类似附图标记表示类似部件。下面参照附图描述实施例以说明本发明总体构思。
在本文中,多显示设备是具有包括一个或多个触摸屏的多个显示器的设备,并被配置为执行显示内容的应用。其示例包括平板个人计算机(PC)、便携式多媒体播放器(PMP)、个人数字助理(PDA)、智能电话、移动电话和数字相框等。以下描述并在附图中示出的本发明总体构思的示例实施例指诸如蜂窝电话或智能电话之类的多显示设备。然而将会理解,本发明总体构思不限于这些示例实施例,可以应用于任何多显示设备。
图1是示出了根据本发明总体构思的示例实施例的多显示设备100配置的框图,图2是示出了根据本发明总体构思的示例实施例的多显示设备100的操作的流程图。
参照图1,根据本发明总体构思的示例实施例的多显示设备100包括第一主体2、第二主体4、铰链185、传感器150和控制器130。
第一主体2可以包括多显示设备100的第一显示器190a。此外如图1所示,第一主体2可以包括传感器150和控制器130,将在以下描述。然而,传感器150和控制器130可以备选地包括在第二主体4中。除此之外,第一主体2还可以包括驱动第一显示器190a的电路组件(未示出)和容纳电路组件的边框(bezel)(未示出),但为了便于说明,省略了其它配置和说明。
第二主体4可以包括多显示设备100的第二显示器190b。除此之外,第二主体4包括驱动第二显示器190b的电路组件(未示出)和容纳电路组件的边框(未示出)。可以在第一主体2或第二主体4的任意一个中、或者在第一主体2和第二主体4二者中包括电路组件。第一主体2和第二主体4通过铰链185彼此连接,将在以下描述。
第一显示器190a和第二显示器190b可以被称为多显示器(双显示器)190。
铰链185被配置为连接第一主体2和第二主体4,以支撑第一主体2和第二主体4,使得它们可旋转。更具体地,铰链185将第一主体2和第二主体4物理组合,使得它们能够彼此连接,并起到轴的作用,使得第一主体2和第二主体4可以在彼此连接的同时转动。以下将参照附图对第一和第二主体4和铰链185的外部配置进行说明。然而,除了以下要描述的结构之外,铰链185还可以实现为柔性连接器或柔性触摸屏(未示出)的一部分。
传感器150被配置为感测多显示设备100的用户操纵。例如,当存在通过显示器190a、190b的用户对象50(例如图34所示)的触摸输入时,传感器150感测触摸输入的位置(坐标)和输入类型。特别地,如以下参照图2所描述,当第一显示器190a和第二显示器190b分别显示非结构化第一屏幕和第二屏幕时,传感器150感测关于第一屏幕的非决定性位置的第一用户操纵和关于第二屏幕的非决定性位置的第二用户操纵。
结构化状态是指根据预定布局布置用户可以选择的各种菜单和其它对象的状态。也就是说,结构化屏幕是被配置为提供由这种布局而结构化的界面的屏幕。如图3所示,结构化屏幕的示例包括:具有各种形状的模板390、可以输入数字或文本数据的键区391、以及显示工具条392、菜单按钮393、滚动条394等的屏幕。用户能够通过简单地触摸屏幕上预定位置处的菜单按钮或在触摸按钮的同时通过操作(例如,拖动其手指)来执行输入。另一方面,非结构化屏幕是指不提供结构化界面的屏幕。当显示非结构化屏幕时,用户可以简单地拖动屏幕的非决定性位置,或可以触摸预定时间(触摸并保持输入)并执行输入。以下将在表1至3中说明各种类型的用户输入。
这里,非决定性位置表示屏幕上的任何位置。换言之,非决定性位置表示,可以不考虑屏幕上的输入位置来获得相同的结果。
在本发明总体构思的各种示例实施例中,传感器150可以感测用户对象50是否触摸或接近多显示设备100,并感测做出触摸或接近的位置。以下给出针对本发明总体构思目的的“触摸”和“接近”的定义。此外,传感器150可以区分用户对象50是用户身体的情况和用户对象50是输入笔200的情况。将在以下进一步详细说明可以支持上述示例实施例的技术含义。
控制器130组合第一用户操纵和第二用户操纵,并执行与该组合的结果相对应的控制操作。例如,当在第一显示器190a上存在触摸输入,并且在第二显示器190b上还存在接近输入时,控制器130可以执行与触摸输入和接近输入中的每一个相对应的操作,但是控制器130还可以执行与该组合的结果相对应的计算。此外,控制器130可以显示与第一显示器190a和第二显示器190b的至少一个计算结果相对应的信息。将在以下基于本发明总体构思的每个示例实施例来进一步说明控制器130的操作,可以在以下进一步详细说明配置控制器130的技术含义。
首先,本发明总体构思的示例实施例中使用的各种输入类型如下。这里,使用用户对象50的输入包括触摸、接近和运动。用户对象50可以是用户身体的一部分,如手指或手掌、或诸如输入笔200之类的其它对象。输入笔200可由诸如金属之类的导电材料制成,但是也可以由可被传感器150检测的其它材料制成。例如,输入笔200可以被配置为包括磁线圈,多显示设备100的传感器150可以包括磁传感器。
这样,包括磁线圈的输入笔200也可以是用户对象50。这样,用户对象50包括可在接触或预定范围内识别的所有类型的对象和主体。这些各种对象可以独立使用或组合使用。
触摸表示与上述用户对象50接触的输入。例如,触摸是使用用户对象50接触触摸屏192(图31所示)上的一个位置或多个连续位置的用户操作,可以包括用户左手和右手的手指(特别地,食指)、拇指或触摸笔200接触触摸屏192。以下将说明识别触摸的技术含义。
接近表示将用户对象50定位于多显示设备100的传感器150的预定范围5内、而不直接触摸或按压多显示设备100的输入。本发明总体构思的各种示例实施例预示区分上述接近和触摸。以下将说明识别接近的技术含义。
运动表示在接近多显示设备100时的预定可识别移动的输入。“运动”可以包括在“接近”的定义中,因而这里省略其详细说明。
参照下表说明本公开中使用的各种输入类型。以下说明基于触摸输入做出,但是接近输入可以基于相同的参考。此外,如上所述,用户对象50可以是用户身体部位或输入笔200。
<表1>
表1示出了用一根手指的手势类型。尽管以下是用户对象50是手指的情况的说明,但是也将使用其它用户对象50的情况定义为相同操作。
参照表1,使用一根手指的手势类型的示例包括敲击、触摸并保持、双击、拖动、拖动并释放、以及轻拂等。
敲击表示用户将用户对象50接触屏幕预定时间然后与之分离的操作。触摸并保持是用户对象50触摸触摸屏192多于预定时间的操作。双击表示在预定时间内快速并连续执行两次敲击的操作。拖动是在做出触摸的同时向预定方向移动的操作,拖动并释放是触摸触摸屏192上的对象并执行到预定位置的拖动,然后将用户对象50与之分离的操作。轻拂是快速拖动的操作。
<表2>
表2说明了用两根手指的手势类型。尽管以下是用户对象50是手指的情况的说明,但是也将使用其它用户对象50的情况定义为相同操作。
参照表2,使用两根手指的手势类型包括双手指敲击、触摸并展开、分开(pinchout)、合拢(pinch in)、双手指拖动、双手指交叉、以及触摸并旋转等。
双手指敲击是同时用两根手指敲击的操作。触摸并展开是两根手指同时按压触摸屏192,一根手指移动而另一根手指直线移动的操作。分开是两根手指同时按压触摸屏、然后拖动以彼此分离的操作,而合拢是两根手指触摸触摸屏192、然后彼此相向拖动的操作。双手指拖动是朝着相同方向拖动两根手指的操作,双手指交叉是同时沿接近的方向拖动、然后再次拖动以彼此分离的操作。最后,触摸并旋转是一根手指触摸触摸屏192(触摸并保持)而另一根手指绕静止手指旋转的操作。
<表3>
表3说明了使用两根或更多手指的示例性手势类型和使用手掌的手势类型。
参照表3,使用两根或更多手指的手势类型的示例包括三手指触摸、四手指触摸和五手指触摸等。此外,可以执行如上述表1和2中列举的敲击、拖动和旋转等的手势操作。
传感器150识别上述表1至3的每个输入类型,并向控制器130发送识别信息。可以独立感测每个上述输入类型,并发送给控制器130。控制器130可以处理与传感器感测到的每个输入类型或多个输入类型的组合结果相对应的计算,并在第一显示器190a或第二显示器190b上显示与计算结果相对应的信息。
可以根据图2所示的流程图来执行上述多显示设备100的操作。
首先,第一显示器190a和第二显示器190b各自显示非结构化的第一屏幕和第二屏幕(操作S210)。在该状态下,多显示设备100可以感测在第一屏幕的非决定性位置上做出的第一用户操纵和在第二屏幕的非决定性位置上做出的第二用户操纵(操作S220、S230)。在图2中说明了首先做出第一用户操纵,然后接下来做出第二用户操纵,但是第一和第二用户操纵可以独立做出并感测到。当各自感测到第一和第二用户操纵时,多显示设备100将感测到的第一用户操纵和第二用户操纵进行组合(操作S240),并执行与该组合结果相对应的一个或多个操作(操作S250)。根据本发明总体构思的示例实施例,用户操纵的组合所执行的操作可以以各种方式实现。
以下是针对在非决定性位置做出的第一和第二用户操纵所执行的操作的各种示例的说明。
首先,以下是在存在通过多显示设备100的第一显示器190a的第一用户操纵时改变与第二用户操纵相匹配的功能的示例实施例的说明。
在显示器上执行用户操纵以执行特定操作的情况下,必须设置与该用户操纵相匹配的功能。例如,在显示器屏幕上执行根据用户操纵绘出直线的操作的情况下,会有根据环境调整线的粗度的需求。这里,能够使用通过结构化界面调整线的粗度的菜单屏幕,并调整线的粗度。然而,这种操作是麻烦的,并且如果存在功能的频繁改变,会导致不便。因此,存在减少针对用户操纵的设置过程的需求。
图4是示出了多显示设备100在存在第一用户操纵时改变与第二用户操纵相匹配的操作的流程图,以及图5是示出了图4的多显示设备100的显示屏幕的参考视图。
参照图4,首先,传感器150感测第一显示器190a或第二显示器190b中触摸的点,并通知控制器130。控制器130根据触点的数目和位置来确定做出合拢还是分开(操作S410)。当在两个或更多点处感测到触摸且感测到的坐标之间的直线距离增大时,控制器130确定为分开,当感测到的坐标之间的直线距离减小时,确定为合拢。合拢和分开可以是上述第一用户操纵。
控制器130可以执行与所确定的分开/合拢输入相对应的操作。也就是说,如图4所示,可以根据捏分开/合拢输入来调整线的粗度或改变透明度或其它特征。
在该状态下,当在另一显示器的非决定性位置上做出拖动时,控制器130可以经由传感器150感测到限定了拖动路线的拖动的触摸输入(操作S420)。这里,拖动可以是上述第二用户操纵。
控制器130可以根据检测到的第一用户输入的合拢或分开来识别是否输入了调整线的特性(如,粗度或透明度)的命令(操作S430)。控制器130根据转换后的特性来执行显示沿拖动路线的线的操作(操作S440)。
图5的视图(1)是示出了调整线的粗度的状态的视图。
根据图5的视图(1),位于左侧的第一显示器190a显示非结构化第一屏幕,传感器150在第一屏幕的非决定性位置处感测到第一用户操纵。通过触摸传感器执行这种操作,但这将在以下进一步详述。此外,位于右侧的第二显示器190b也显示非结构化第二屏幕。将会理解,第一和第二显示器190a和190b不是必须位于如图5所示的左和右,而是可以依据多显示设备100的配置,彼此具有不同的方位。
如图5所示,用户可以使用手指在第一显示器190a中执行诸如合拢或分开之类的触摸输入。同时,用户可以使用输入笔200或手指、或其它用户对象50,在第二显示器190b上执行触摸输入。为了便于说明,图5示出了输入笔200的情况,在以下要说明的本发明总体构思的各种示例实施例中也是如此,说明基于使用输入笔200对于一个显示器做出操作而使用用户身体对于另一显示器做出操作的限制。然而,如上所述,显然,可以仅使用输入笔200或仅使用用户身体对两个显示器做出操作。考虑特定情形并便于说明来做出以下描述,但是可以按照所有类型的操作方法中执行本发明总体构思的示例实施例。
在图5视图(1)的示例实施例中,当在第一显示器190a上存在通过使用手指进行合拢的触摸输入时,控制器130对于第二显示器190b显示沿输入笔200(或用户身体)的输入路线的根据改变后的粗度的线。因此,在第二显示器190b上,沿输入笔200的拖动路线显示逐渐变细的线。另一方面,当在第一显示器190a上存在通过使用手指进行分开的触摸输入时,控制器130对于第二显示器190b显示沿输入笔200的输入路线的根据改变后的粗度的线。因此,在第二显示器190b上,沿输入笔200的拖动路线显示逐渐变粗的线。
图5的视图(2)示出了与(视图1)类似的本发明总体构思的示例实施例,示出多显示设备100在第一用户操纵是合拢或分开的触摸输入时改变第二用户操纵的线输出的透明度的操作。例如,在第一用户操纵是合拢的触摸输入的情况下,当利用输入笔200在第二显示器190b上绘出线的操作时,通过输入笔200绘出的线的透明度降低。另一方面,当第一用户操纵是分开现的触摸输入时,通过输入笔200绘出的线的透明度提高。当然,可以与本发明总体构思的该特定示例实施例相反地设置与合拢和分开相对应的输出。
在本发明总体构思的该示例实施例中,用户能够简单利用仅对多显示设备100的第一显示器190a的合拢或分开的触摸输入,来改变与第二显示器190b有关的输入表示的粗度或透明度。也就是说,无需使用附加的结构化界面来执行各种操作以改变与第二用户操纵相匹配的功能。通过在非结构化屏幕上的特定点处执行输入,用户能够容易地改变与用户操纵相对应的功能。
图6是示出了图4的多显示设备100的另一示例实施例的流程图,图7是示出了图6的多显示设备100的示例实施例的显示屏幕的参考视图。
参照图6,传感器150感测到用在第一显示器190a中做出的初始触摸保持预定时间且不移开该触摸的第一用户操纵,也就是说,触摸并保持的触摸输入(操作S610)。也就是说,显示器190a显示非结构化第一屏幕,传感器150感测到在第一屏幕的非决定性位置存在触摸并保持的触摸输入。这种操作可由触摸传感器执行,但是将在以下进一步描述。
在感测到第一用户操纵之后,可以在保持第一用户操纵的同时在第二显示器190b上执行第二用户操纵。该第二用户操纵可以是第二显示器190b上拖动的触摸输入(操作S620)。该拖动操作限定了第二显示器190b上的拖动路线。
在这种情况下,控制器130识别到第一用户操纵要转换与第二用户操纵相对应的工具,并且第二用户操纵是要沿拖动路线执行输入的操作(操作S630)。此外,控制器130根据改变后的工具执行沿拖动路线的输入(操作S640)。在图7所示的本发明总体构思的示例实施例中,当在第一显示器190a中存在使用手指的触摸并保持的触摸输入时,控制器130将与输入笔200对于第二显示器190b的输入相对应的工具转换为橡皮擦。此外,控制器130识别到在第二显示器190b上存在沿输入笔200的拖动路线的橡皮擦输入,并删除路线上的显示。
不同于以上,当用户停止对于第一显示器190a的触摸并保持输入时,当用户使手离开第一显示器190a时,传感器150不再感测到第一用户操纵,而是仅感测到第二用户操纵,因而控制器130仅执行与第二用户操纵相对应的操作。例如,在如图4所示的本发明总体构思的示例实施例中,与输入笔200的输入相对应的工具再次从橡皮擦返回原始工具,并根据原始工具执行输入。
在本发明总体构思的这种示例实施例中,用户能够仅利用第一显示器190a中的触摸输入(例如,触摸并保持)来改变关于第二显示器190b的输入工具。也就是说,不必使用附加的结构化界面来执行各种操作以改变与第二用户操纵相匹配的功能。用户能够通过执行在非结构化屏幕上的任意点处的输入来容易地改变与用户操纵相对应的功能。
图8是示出了图4的多显示设备100的另一示例实施例的流程图。图9是示出了图8的多显示设备100的示例实施例的显示屏幕的参考视图。
参照图8,首先,传感器150感测第一用户操纵,在第一用户操纵中,通过旋转的触摸输入(即,在第一显示器190a中做出初始触摸并通过沿一个方向的旋转做出拖动)对应于触摸并旋转(操作S810)。也就是说,第一显示器190a显示非结构化第一屏幕,传感器150感测到在第一屏幕的非决定性位置处存在触摸并旋转的触摸输入。
在感测到第一用户操纵之后,感测对于第二显示器190b拖动的触摸输入的第二用户操纵(操作S820)。这里,可以通过输入笔200做出拖动的触摸输入。在图9所示的本发明总体构思的示例实施例中,使用输入笔200在第二显示器190b中执行拖动输入。拖动输入在第二显示器190b上定义了拖动路线。
在这种情况下,控制器130识别到第一用户操纵是要转换第二用户操纵所显示的线的纹理,并识别到第二用户操纵是要执行沿拖动路线的输入的操作。此外,控制器130组合两个用户操纵,并识别线的输入,其纹理沿拖动路线改变(操作S830)。然后沿拖动路线,根据改变后的纹理显示该线(操作S840)。
这里,纹理表示正在显示的材料的特征。例如,在压纹情况下,纹理表示轮流存在凸部分和凹部分使得每个部分被示为具有凸部分的浮雕和具有凹部分的雕刻。另一示例可以是细画笔的触摸或粗画笔的触摸的表示。
如图9所示,当第一用户操纵是沿一个方向(例如,沿顺时针方向)旋转的触摸输入时,可以改变通过输入笔200在第二显示器190b上显示的线或点的纹理(操作S840)。另一方面,当第一用户操纵是沿另一方向(例如,逆时针方向)旋转的触摸输入时,通过输入笔200在第二显示器190b上显示的线或点的纹理可以返回原始状态或改变为另一形状。也就是说,当存在沿一个方向的旋转的第一用户操纵时,通过输入笔200在第二显示器190b上显示的线或点可以表示为水彩画笔,当存在沿另一方向的旋转的第一用户操纵时,线或点可以返回原始状态,或可以表示为显示更精细的画笔。然而,这只是示例实施例,因而可以表示更多样的纹理。
图10是具体示出了根据本发明总体构思的示例实施例的多显示设备100的工具菜单显示的流程图,以及图11是示出了图10的多显示设备100的显示屏幕的参考视图。
在通过触摸输入在多显示设备100上绘制图画的操作、或选择特定工具并执行操作的情况下,会需要改变工具的设置。图10和11示出了在这种情况下容易显示工具的菜单的方法。
参照图10,首先,传感器150感测第一用户操纵,在第一用户操纵中,在第一显示器190a中做出触摸并保持的触摸输入,即,初始触摸,并将该触摸保持预定时间且不移开该触摸(操作S1010)。第一显示器190a显示非结构化第一屏幕,控制器130使用传感器150感测到在第一屏幕的非决定性位置处存在触摸并保持的触摸输入(操作S1010)。在保持触摸并保持的同时,在第二显示器190b上感测到第二用户操纵(例如,敲击的触摸输入)(操作S1020)。也就是说,第二显示器190b也显示非结构化第二屏幕,传感器150在第二屏幕的非决定性位置处感测到触摸输入。这里,如图11所示,可以通过输入笔200做出敲击的触摸输入。
在这种情况下,控制器130可以响应于在第一屏幕190a上执行的触摸并保持输入和在第二屏幕190b上的第二用户操纵来显示可以改变工具的设置的菜单1110(操作S1030)。此外,当显示设置工具的菜单1110的同时在第一屏幕190a上执行通过触摸并保持实现的第一用户操纵时,并且在第二显示器190b上存在诸如触摸之类的第二用户操纵时,可以改变工具设置的已显示菜单1110从屏幕消失。
图11示出了以上过程。更具体地,当用户在多显示设备100上绘制图画的同时用手在第一显示器190a上执行触摸并保持输入,并用输入笔200触摸第二显示器190b(视图1)时,在第二显示器190b上显示可以设置与输入笔200相对应的工具的菜单1110(视图2)。用户可以通过菜单1110执行与输入笔200相对应的工具的设置。例如,如果与输入笔200相对应的工具是彩色铅笔,则用户可以调整彩色铅笔的颜色和粗度。此外,当用户再次用手在第一显示器190a上执行触摸并保持输入,然后用输入笔200触摸第二显示器190b(视图3)时,菜单1110从第二显示器190b消失(视图4)。
这样,可以允许对输入笔200的功能,并使用该功能,而无需复杂的选项设置操作。
以下是针对多显示设备100在通过多显示设备100的第一显示器190a感测到输入时根据第一用户操纵改变第二显示器190b的显示的各种操作的说明。
图12是示出了根据本发明总体构思的示例实施例的多显示设备100的操作的流程图。
参照图12,多显示设备100的传感器150感测到第一显示器190a上的第一用户操纵(操作S1210)。也就是说,利用显示非结构化第一屏幕的第一显示器190a,用户可以触摸第一屏幕的非决定性位置,并输入第一用户操纵。当通过传感器150感测到触点时,控制器130根据感测到的第一用户操纵,改变在第二显示器190b上显示的屏幕,并显示改变后的屏幕(操作S1220)。可以根据第一用户操纵的类型,以各种方式实现屏幕改变操作。例如,依据如何做出第一用户操纵,可以选择性地执行返回前一屏幕的操作,转换到下一屏幕的操作和返回主屏幕的操作。
在该状态下,当用户执行触摸第二显示器190b的第二用户操纵时,传感器150感测第二用户操纵(操作S1230),并且控制器130改变已由第一用户操纵改变然后根据第二用户操纵显示的屏幕,并在第二显示器190b上显示改变后的屏幕(操作S1240)。
以下针对图12所示的本发明总体构思的示例实施例做出更详细的说明。图13是示出了图12的多显示设备100的特定示例实施例的流程图,以及图14是示出了图13的多显示设备100的示例实施例的显示屏幕的参考视图。
参照图13,当多显示设备100的传感器150感测到第一显示器190a上诸如拖动之类的第一用户操纵(操作S1310)时,控制器130根据感测到的第一用户操纵,将在第二显示器190b上显示的屏幕改变为前一操作屏幕,并显示改变后的屏幕(操作S1320)。例如,这可以对应于滚动命令,顺序地移动回到先前显示的图画。在该状态下,当传感器150在第二显示器190b中感测到诸如敲击之类的第二用户操纵(操作S1330)时,控制器130改变在第二显示器190b上显示的前一操作屏幕,该改变依据第二用户操纵,并显示改变后的屏幕(操作S1340)。
参照图14,在第二显示器190b上显示图画(视图1)。利用诸如输入笔200之类的用户对象50,在该图画上执行输入。这种输入可以执行诸如修改图画之类的操作。当在第一显示器190a上执行向下方拖动的触摸输入(视图2)时,显示第二显示器190b中存储的图画中的前一图画(视图3)。此外,可以在第二显示器190b上利用输入笔200针对所显示的图画执行新的输入,并执行诸如修改图画之类的操作。
此外,当在第一显示器190a上执行向上方拖动的触摸输入(视图4)时,在第二显示器190b上显示当前图画之后存储的图画(视图5)。在图5所示的本发明总体构思的示例实施例中,这种在第一显示器190a上的向上拖动将第二显示器190b返回视图1所示的原始图画。第一显示器190a所执行的拖动可以有各种触摸输入方向。例如,作为可选配置,当在第一显示器190a上存在向左方拖动的触摸输入(未示出)时,显示在第二显示器190b中存储的图画中的前一图画,以及当在第一显示器190a上存在向右方拖动的触摸输入(未示出)时,可以显示在所存储的图画中第二显示器190b上显示的图画之后的图画。
图15是示出了图12的多显示设备100的另一示例实施例的流程图,以及图16是示出了图15的多显示设备100的示例实施例的显示屏幕的参考视图。
参照图15,当多显示设备100的传感器150首先感测到在第一显示器190a上的中心点处执行合拢或分开的触摸输入的第一用户操纵(操作S1510)时,控制器130根据感测到的第一用户操纵,缩小或扩大在第二显示器190b上显示的屏幕,并显示缩小或扩大后的屏幕(操作S1520)。更具体地,当第一用户操纵是分开输入时,控制器130可以根据分开输入做出的拖动的方向和长度,扩大第二显示器190b上显示的屏幕;以及当第一用户操纵是合拢输入时,控制器130可以根据合拢输入做出的拖动的方向和长度,缩小第二显示器190b上显示的屏幕。此外,控制器130感测到在第二显示器190b上执行敲击的触摸输入的第二用户操纵(操作S1530),在这种情况下,控制器130根据第二用户操纵结果,改变在第二显示器190b上显示的缩小或扩大后的屏幕,并显示改变后的屏幕(操作S1540)。
在图16所示的示例中,当在第一显示器190a上执行分开的触摸输入(视图1)时,例如沿水平方向,扩大第二显示器190b上显示的图画,以与分开所做出的拖动的方向和长度相对应,并进行显示(视图2)。此外,用户能够在第二显示器190b上利用输入笔200针对扩大并显示的图画执行新的输入,如执行修改图画的操作。另一方面,当在第一显示器190a上执行合拢的触摸输入(视图3)时,缩小在第二显示器190b上显示的图画,然后进行显示(视图4)。
图17是具体示出了图12的多显示设备100的另一示例实施例的流程图,以及图18是示出了图17的多显示设备100的示例实施例的显示屏幕的参考视图。
参照图17,当多显示设备100的传感器150首先感测到在第一显示器190a上执行触摸并旋转的触摸输入的第一用户操纵(操作S1710)时,控制器130根据感测到的第一用户操纵,旋转第二显示器190b上显示的屏幕,并显示旋转后的屏幕(操作S1720)。更具体地,当第一用户操纵是触摸并旋转输入时,控制器130进行控制,使得基于触摸点根据旋转方向和长度来旋转并显示第二显示器190b上显示的屏幕。此外,控制器130感测到第二用户操纵,例如执行敲击第二显示器190b的触摸输入(操作S1730),在这种情况下,控制器130根据第二用户操纵结果来改变第二显示器190b上的旋转后的屏幕,并显示改变后的屏幕(操作S1740)。
在图18的示例中,当在第一显示器190a上执行触摸并旋转输入时,或者当在触摸点处存在基于预定位置的旋转输入(视图1和3,分别示出顺时针和逆时针旋转)时,在第二显示器190b上显示的图画基于与触摸点相对应的点,根据触摸并旋转的旋转方向和长度而旋转,并在第二显示器190b上显示(视图2和4,分别对应于图1和3所示的旋转)。针对旋转并显示的图画,用户可以在第二显示器190b上利用输入笔200执行新的输入,能够执行诸如放大图画或修改图画之类的操作。在这种情况下,由于在第一显示器190a上显示旋转之前的图画,因此用户能够在检查整个图画的形状和颜色的同时,对第二显示器190b上旋转并显示的图画执行期望操作。当然,也可以依据本发明总体构思的特定实施例的配置,旋转第一显示器190a上显示的图画。
以下是根据本发明总体构思的通过第一用户操纵从第一显示器190a提取内容并通过第二用户操纵在第二显示器190b上显示所提取的内容的示例实施例的说明。
图19是示出了根据本发明总体构思的示例实施例的多显示设备100的操作的流程图。
参照图19,多显示设备100的传感器150首先感测到第一显示器190a上的第一用户操纵(操作S1910)。也就是说,第一显示器190a显示非结构化第一屏幕,传感器感测到在第一屏幕的非决定性位置处存在第一用户操纵。
控制器130根据感测到的第一用户操纵,提取第一显示器190a上显示的内容(操作S1920)。此外,传感器150感测到第二显示器190a上的第二用户操纵(操作S1930)。也就是说,第二显示器190b显示非结构化第二屏幕,传感器150感测到在第二屏幕的非决定性位置处存在第二用户操纵。控制器130根据第二用户操纵,在第二显示器190b上显示与从第一显示器190a提取的内容相对应的屏幕(操作S1940)。
以下是针对图19所示的本发明总体概念的示例实施例的具体说明。
图20是示出了图19的多显示设备100的示例实施例的流程图,以及图21至23是示出了图20的多显示设备100的示例实施例的显示屏幕的参考视图。
参照图20,传感器150首先感测到第一用户操纵,在第一用户操纵中在第一显示器190a上做出触摸并保持的触摸输入,即,初始触摸,并将该触摸保持预定时间(操作S2010)。
当感测到第一用户操纵时,控制器130捕获在第一显示器190a上显示的屏幕(操作S2020)。
在感测到第一用户操纵之后,传感器150感测到第二用户操纵,在第二用户操纵中,在第二显示器190b上做出双击或拖动的触摸输入(操作S2030)。这里,可以通过输入笔200做出双击或拖动的触摸输入。
在这种情况下,控制器130在其中第二用户操纵做出触摸的第二显示器190b上显示从第一显示器190a捕获的屏幕或与之相关的屏幕(操作S2040)。
在图21所示的示例实施例中,在第一显示器190a上显示屏幕,并在第二显示器190b上显示第二屏幕(视图1)。当在第一显示器190a上触摸一点并经过预定时间,使得检测到触摸并保持输入时,捕获第一显示器190a的屏幕(视图2)。当例如利用输入笔200在第二显示器190b上做出双击的触摸输入(视图3)时,在第二显示器190b上插入并显示包括在第一显示器190a的触摸点处捕获的屏幕的图画的备忘录2110(视图4)。用户可以执行例如使用输入笔200与备忘录2110中的捕获屏幕一起执行操作,如执行写入、存储或上载必要内容的输入。
在图22所示的示例实施例中,在第一显示器190a上显示屏幕,在第二显示器190b上显示第二屏幕(视图1)。当在第一显示器190a上触摸一点并经过预定时间,使得检测到触摸并保持输入(视图2)时,捕获第一显示器190a的屏幕。当利用输入笔200在第二显示器190b中做出拖动的触摸输入(视图3)时,将与触摸点处捕获的屏幕有关的图画上载到消息输入窗L2210(视图4)。
在图23中示出的示例实施例中,在第一显示器190a上显示屏幕,在第二显示器190b上显示第二屏幕(视图1)。当在第一显示器190a上触摸一点并经过预定时间,使得检测到触摸并保持输入(视图2)时,捕获第一显示器190a的屏幕。当利用输入笔200在第二显示器190b中做出拖动的触摸输入(视图3)时,搜索与捕获到的图画类似的图画,并在第二显示器190b上显示搜索结果屏幕(视图4)。
图24是具体示出了图19的多显示设备100的另一示例实施例的流程图,以及图25是示出了图24的多显示设备100的示例实施例的显示屏幕的参考视图。更具体地,图24和25示出了本发明总体构思的示例实施例,其中在第一显示器190a上的第一用户操纵和在第二显示器190b上的第二用户操纵之后是第三用户操纵。
参照图24,首先,传感器150感测第一用户操纵和第二用户操纵中的每一个。第一和第二用户操纵中的每一个可以对应于第一显示器190a和第二显示器190b上触摸并保持的触摸输入(即,在第一显示器190a和第二显示器190b中的每一个上做出初始触摸的情况),并将每个触摸保持预定时间(操作S2410)。
当感测到第一和第二用户操纵时,控制器130捕获在第一显示器190a和第二显示器190b上显示的每一个屏幕(操作S2420)。当感测到第一和第二用户操纵时,控制器130可以独立执行与第一和第二用户操纵中的每一个相对应的捕获操作。在这种情况下,第二显示器190b可以显示非结构化第二屏幕,可以在第二屏幕的非决定性位置上做出第二用户操纵。这里,捕获第一显示器190a和第二显示器190b二者中显示的屏幕,作为操作S2420的一部分。
在感测到第一和第二用户操纵之后,传感器150感测第三用户操纵,在第三用户操纵中做出对于第二显示器190b的双击的触摸输入(操作S2430)。这里,可以通过输入笔200做出双击或拖动的触摸输入。
不同于本发明总体构思的上述示例实施例,当存在第三用户操纵时,控制器130在第二显示器190b的做出第三用户操纵的点上显示两个捕获到的屏幕(操作S2440)。
在图25所示的示例实施例中,在第一显示器190a上显示屏幕,在第二显示器190b上显示第二屏幕(视图1)。当在第一显示器190a上触摸一点并经过预定时间,使得检测到触摸并保持输入时,捕获第一显示器190a的屏幕。独立于此,当在第二显示器190b中触摸特定点并经过预定时间时,捕获第二显示器190b的屏幕(视图2)。当在第二显示器190b中利用输入笔200做出双击的触摸输入(视图3)时,在触摸点处插入备忘录2510,包括与每个所捕获的屏幕相对应的图像(视图4)。用户可以利用输入笔200执行以下操作:与捕获屏幕一起输入必要内容、或与捕获屏幕一起存储或上载内容到sns(社交网络服务)。
当在上述第一用户操纵之后存在第三用户操纵时,第三用户操纵可以区别于第二用户操纵。也就是说,由于存在会将与第二用户操纵相对应的触摸确定为第三用户操纵的可能性,因此当将对于第二显示器190b的触摸输入保持预定时间时,可以将该触摸输入确定为针对第二用户操纵的触摸,并且当在预定时间过去之前结束触摸输入时,可以将触摸输入确定为针对第三用户操纵的输入。
当同时输入第一用户操纵和第二用户操纵时,不同于图25所示的本发明总体构思的示例实施例,可以将用户操纵识别为单个用户操纵。也就是说,当与在第一显示器190a上做出触摸并保持输入的同时在第二显示器190b上做出触摸并保持的触摸输入时,可以捕获具有用户操纵的触摸并保持的所有显示屏幕,并且可以执行上述操作。
同时,在图2至25所示的本发明总体构思的上述示例实施例中,控制器130可以将感测到的第一用户操纵和感测到的第二用户操纵连接,并将它们识别为一个用户手势,并且可以在第一显示器190a和第二显示器190b中的至少一个上显示与用户手势相对应的执行屏幕。
也就是说,在这种情况下,控制器130感测到第一用户操纵和第二用户操纵,但是控制器130将这些识别为单个动作,并执行与该单个动作相对应的操作,而非执行与第一和第二动作中的每一个相对应的操作。此外,当将第一和第二用户操纵识别为单个动作时,控制器130可以执行与单独的第一和第二用户操纵相对应的操作中的每一个。
例如,在第一用户操纵改变与第二用户操纵相对应的功能的本发明总体构思的示例实施例中,控制器130可能不会单独响应于第一用户操纵改变与第二用户操纵相对应的功能。相反,当在第一用户操纵之后存在第二用户操纵时,控制器130可以改变与第二操纵相对应的功能,并根据改变后的功能进行操作。
这样,控制器130可以根据将第一用户操纵、第二用户操纵和第三用户操纵组合的结果来识别一个用户操纵,并且可以控制根据组合结果来执行与用户操纵相对应的操作。
以下针对可以根据本发明总体构思的各种示例实施例不同实现的多显示设备100的详细配置进行说明。
图26是示出了根据本发明总体构思的示例实施例的多显示设备100的详细配置的框图。
参照图26,根据本发明总体构思的示例实施例的多显示设备100包括通信单元110、多媒体单元120、控制器130、成像单元140、传感器150、输入/输出单元160、存储单元170、电源单元180、第一显示器190a和第二显示器190b。
通信单元110可以被配置为使用各种有线/无线通信方法向外部设备(未示出)发送信息和从外部设备接收信息。这里,外部设备可以包括另一多显示设备、移动电话、智能电话、平板PC(个人计算机)、计算机服务器和数字电视中的至少一个。这些设备可以通过通信网络(未示出)与多显示设备100相连。
通信单元110可以包括连接器114,该连接器包括无线通信模块中的至少一个,例如蜂窝通信模块111、无线LAN模块112、短距离通信模块113、GPS通信模块115和广播通信模块116。通信单元还可以包括有线通信模块(未示出),例如HDMI(高清多媒体接口)、USB(通用串行总线)、和IEEE(电气和电子工程师协会)1394等。
蜂窝通信模块111由控制器130使用根据蜂窝通信协议的无线接入技术,使得多显示设备100可以通过至少一个天线或多个天线(未示出)与外部设备(未示出)(如蜂窝系统的基站)相连。
此外,蜂窝通信模块111与可兼容设备(如具有输入到多显示设备100的电话号码的移动电话、智能电话、平板PC或其它设备)发送/接收包含语音呼叫、视频呼叫、短消息收发服务(SMS)消息或多媒体消息收发服务(MMS)消息的无线信号。
无线LAN模块112被配置为根据控制器130的控制,接入预定范围内存在的无线AP(接入点,未示出),并且与互联网连接。无线LAN模块112可以支持例如IEEE的无线LAN标准(IEEE802.11x)。
短距离通信模块113被配置为根据控制器130的控制,执行多显示设备100与外部设备之间的无线地短距离通信。短距离通信模块113可以包括例如以下中的至少一个:蓝牙模块、IrDA(红外数据协会)模块、NFC(近场通信)模块、Wi-Fi模块和Zigbee模块。
这样,通信器110可以通过上述各种短距离通信方法实现。必要时也可以根据本发明总体构思的特定实施例的配置,采用这里未提及的其它通信技术。
连接器114被配置为提供与各种设备(如,USB2.0、USB3.0、HDMI、IEEE 1394等)的接口。
连接器114可以用作将多显示设备100和外部设备或电源(未示出)连接的接口。通过控制器130的控制,可以向外部设备(未示出)发送多显示设备100的存储单元170中存储的数据,或者从外部设备接收数据。可以通过与连接器114相连的线缆从电源(未示出)输入电力,或者可以通过线缆对电池(未示出)充电。
GPS模块115可以从多个地球轨道中的GPS卫星(未示出)接收电波,并且可以使用从GPS卫星(未示出)到多显示设备100的到达时间和GPS参数来计算多显示设备100的位置。
广播通信模块116根据控制器130的控制,通过广播通信天线(未示出)接收从广播站发送的广播信号(例如,电视广播信号、无线电广播信号或数据广播信号)和广播附加信息(例如EPG(电子节目指南)或ESG(电子服务指南))。
多媒体单元120是播放视频内容、音频内容和其它各种多媒体内容的配置元件。针对本申请的目的,“播放”内容表示针对多显示设备100的用户执行并显示内容。其还可以表示播放或重放内容。多媒体单元120使用解析器或编解码器等来处理多媒体内容,以播放内容。多媒体单元120可以包括例如音频模块121和视频模块122。
音频模块121可以根据控制器130的控制,播放存储或接收的数字音频文件(例如,具有mp3、wma、ogg或wav的扩展的文件)。视频模块122可以根据控制器130的控制,播放存储或接收的数字视频文件(例如,具有mpeg、mpg、mp4、avi、mov或mkv的扩展的文件)。
视频模块122支持各种形式的编解码器,以播放数字视频文件。即,视频模块122通过编解码器来播放以适于要播放的视频文件格式的格式预先存储的视频文件。此外,多媒体单元120的音频模块122或视频模块123可以包括在控制器130中。
控制器130被配置为对通信单元110、多媒体单元120、成像单元140、传感器150、输入/输出单元160、存储单元170、电源单元180、第一显示器190a和第二显示器190b进行控制。如图27所示,控制器130可以包括被配置为提供时钟并发送控制信号的CPU(中央处理单元)131、被配置为暂时或半永久存储过程的存储单元(如,RAM(随机访问存储单元)135和ROM(只读存储单元)137)、用于图形处理的GPU(图形处理单元)、以及被配置为在存储器、CPU 131和GPU 133之间传输数据的系统总线139。此外,控制器130还包括驱动硬件配置的操作系统(OS)420(图28所示)、以及被配置为在OS 420上提供用户接口并向框架发送的应用。以下会详细说明控制器130的这些组件。
成像单元140可以包括如图26所示的第一摄像机141和第二摄像机142中的至少一个。尽管在图26中只示出了第一摄像机141和第二摄像机142,但是根据本发明总体构思的的示例实施例可以添加更多摄像机。
每个摄像机包括快门(未示出)、镜头(未示出)、光圈(未示出)和CCD(电荷耦合器件)图像传感器(未示出),以及ADC(模拟/数字转换器)。镜头从外部源(未示出)接收光并且对图像进行处理。快门是被配置为与光圈一起调整进入摄像机的光的量的设备。光圈根据其打开或闭合的程度来调整进入摄像机的光的量(光量)。CCD图像传感器累积通过镜头进入的光的量,获得图像,并根据累积的光量与垂直同步信号一致地输出该图像。CCD图像传感器通过将接收到的光转换成电信号来获得图像。为了使用CCD图像传感器获得彩色图像,需要滤色器,可以采用被称为CFA(滤色器阵列)的滤波器。CFA仅传递这样的光:每个像素只表示一个颜色,具有规则排列的结构,并根据其排列结构具有各种形式。ADC将从CCD图像传感器输出的模拟图像信号转换成数字信号。这仅是示例,并且每个摄像机的配置可以以不同方式修改。例如,每个摄像机可以使用CMOS(互补金属氧化半导体)图像传感器而不是CCD图像传感器来拍摄图像。
第一摄像机141和第二摄像机142可以设置在多显示设备100的外壳中,或者可以使用另外的连接装置与多显示设备100相连。第一摄像机141和第二摄像机142中的至少一个可以包括辅助光源(例如,闪光灯,未示出),提供适合地获得图像所需的光量。
在本发明总体构思的示例实施例中,第一摄像机140可以置于多显示设备100的正面上,并且第二摄像机142可以置于多显示设备100的背面上。在本发明总体构思的另一示例实施例中,第一摄像机141和第二摄像机142可以布置为彼此邻近(例如,使得第一摄像机141和第二摄像机142之间的间隙大于1cm但小于8cm),并拍摄3维静止图像或3维视频。在本发明总体构思的另一示例实施例中,第一摄像机141可以置于第一显示器190a中,并且第二摄像机142可以置于第二显示器190b中。
成像单元140可以通过第一摄像机141和第二摄像机142中的至少一个检测用户对象50的运动或形状,并向控制器130发送检测到的运动或形状作为输入来执行或控制应用。在本发明总体构思的示例实施例中,用户对象50的运动表示通过第一摄像机141或第二摄像机142感测的用户的手的运动。例如,用户对象50的形状可以表示通过第一摄像机141或第二摄像机142感测到的用户的脸部形状或用户手的手指方位。
在另一示例实施例中,多显示设备100可以使用诸如红外传感器(未示出)等其他装置来检测用户的运动,并且可以响应于检测到的运动来控制或执行应用。
传感器150是感测各种状态改变的配置元件,例如,多显示设备100上的用户触摸、用户运动或多显示设备100自身的运动。在本发明总体构思的上述示例实施例中,描述了触摸传感器151或接近传感器155作为传感器150的示例。除了本发明总体构思的上述示例实施例之外,传感器150可以包括触摸传感器151、地磁传感器152、加速度传感器153、铰链传感器154和接近传感器155中的至少一个。
触摸传感器151是可以感测用户对象50对于多显示设备100的多显示器(双显示器)190的触摸的传感器。即,触摸传感器151表示可以感测到触摸第一显示器190a或第二显示器190b并选择在所触摸的显示器上显示的对象的输入的传感器。可以根据感测用户触摸的方法,将触摸传感器151分成静电型和压电型。根据本发明总体构思的示例实施例的触摸传感器151可以以上述两个类型中的任一类型来实现。触摸传感器151可以与显示面板235(图29所示)一起包括在多显示器190中。
地磁传感器152是可以检测磁场流动并检测磁场方位角的传感器。地磁传感器152可以检测多显示设备100的方位角坐标,并可以在其基于方位角坐标放置时检测多显示设备100的方向。可以通过与之相对应的控制输入识别检测到的方向,控制器130可以执行对应的输出。
加速度传感器153是用于检测移动对象(动态加速度)的加速度的传感器,但也用于检测重力导致的加速度。加速度传感器153可以在多显示设备100上设置虚拟x、y、z轴,并检测根据每个轴的倾斜度而改变的重力引起的加速度的值。
铰链传感器156可以感测铰链185(图1所示)的角度或运动。接近传感器155可以检测用户对象50是否接近多显示设备100。以下详细说明接近传感器155。
尽管图26中未示出,多显示设备100的传感器150还可以包括重力传感器、陀螺仪传感器、方位传感器、照度传感器、高度测量传感器、RGB传感器、距离传感器和霍尔传感器中的至少一个,重力传感器可以检测重力施加的方向;陀螺传感器可以识别由于施加到加速度传感器153的旋转而导致的总共六个轴;方位传感器可以自动感测内容(例如,图像)的宽度和长度,并校准感测到的宽度和长度;照度传感器可以检测多显示设备100周围的光量;高度测量传感器可以测量气压;RGB传感器可以检测对象的颜色;距离测量传感器可以使用超声波或红外线来测量距离;以及霍尔传感器使用根据磁场强度的电压变化。
传感器150可以检测上述每个传感器的状态,产生与方向相对应的信号,并向控制器130发送生成的信号。可以根据多显示设备100的性能和特定配置来添加或去除传感器150的传感器。
输入/输出单元160是使用屏幕或其它外部连接部件执行输入/输出的配置元件。具体地,输入/输出单元160可以从与多显示设备100相连的输入装置(未示出,如,鼠标、键盘、操纵杆)或无线输入装置(未示出,例如,遥控器)发送的输入信号,并向控制器130发送接收到的输入信号。否则,输入/输出单元160可以向外部设备输出控制器130产生的各种信号或数据。输入/输出单元160可以包括按钮161、麦克风162、扬声器163、振动电机164。
至少一个按钮161可以以推动型或触摸型的形式在多显示设备100的外壳的正面、侧表面或背面上形成,并且可以包括电源/锁定按钮、音量控制按钮、菜单按钮、主页按钮、后退按钮和搜索按钮中的至少一个。
当例如由用户按压按钮161时,产生对应的控制命令并发送给控制器130,控制器130根据相应的控制命令来控制多显示设备100的操作。
麦克风162根据控制器130的控制接收语音或声音,并且产生相应的电信号。
扬声器163可以向多显示设备100的外部输出与蜂窝通信模块111、无线LAN模块112、短距离通信模块113、多媒体单元120或成像单元140的各种信号(例如,无线电信号、广播信号、数字音频文件、数字视频文件或照片)相对应的声音。
扬声器163可以输出与多显示设备100执行的功能相对应的声音(例如,按钮操纵声音或与电话呼叫相对应的回铃音)。扬声器163可以在多显示设备100的外壳的适当的一个或多个位置形成为单个扬声器或多个扬声器。例如,扬声器163可以被配置为包括设置在适于与用户耳朵接近的位置上的内部扬声器模块(未示出)和具有适用于播放音频/视频文件或观看广播节目的较高输出、且设置在多显示设备100的外壳的适当位置上的外部扬声器模块(未示出)。
振动电机164可以根据控制器130的控制,将电信号转换成机械振动。例如,当从另一设备(未示出)接收到语音呼叫时,在多显示设备100处于振动模式的情况下,振动电机164工作。振动电机164可以形成为位于多显示设备100的外壳中的单个振动电机或多个振动电机。振动电机164可以响应于在第一显示器190a和第二显示器190b上感测到的用户触摸手势和在第一显示器190a和第二显示器190b上感测到的连续触摸运动进行操作。
存储单元170被配置为存储数据。
首先,存储单元170存储操作系统程序来控制多显示设备100的操作。当开启多显示设备100时,在存储单元170中读取所存储的操作系统,并进行编译以驱动多显示设备100的每个配置。
其次,存储单元170通过操作系统管理,并使用操作系统的资源以执行多显示设备100的操作,并存储提供用户接口的应用程序。通过用户的执行命令,由操作系统读取存储单元170中的应用程序,并将该应用程序转移到可执行状态的控制器130,以执行各种操作。
再次,存储单元170存储控制器130所处理的各种多媒体数据,内容数据和从外部源接收的数据。也就是说,存储单元170可以根据控制器130的控制存储响应于蜂窝通信模块111、无线LAN模块112、LAN通信模块113、连接器114、GPS模块115、多媒体单元120、成像单元140、传感器150、输入/输出单元160、第一显示器190a和第二显示器190b而输入/输出的信号、信息或数据。
存储单元170可以实现为可从ROM、RAM或多媒体设备100拆卸/安装到ROM、RAM或多媒体设备100的以下至少一个:存储卡(例如,SD卡、记忆棒)、非易失性存储器、易失性存储器、硬盘驱动(HDD)或固态驱动(SSD)。
电源单元180供应在多显示设备100中使用的电力。电源单元180可以实现为可充电电池,并且还可以包括对外部提供的电力进行转换并且将转换后的电力供应给可充电电池(未示出)的电压转换器。
电源单元180可以依据控制器130的功率管理控制,以各种模式(包括例如,最大性能模式、正常模式、省电模式或等待模式)向多显示没备100供电。
第一显示器190a和第二显示器190b包括在如上所述的传感器150中,并输出在帧缓冲器(以下描述)中存储的图像。第一显示器190a和第二显示器190b可以根据控制器130控制显示多媒体内容、图像、视频和文本等。
第一显示器190a和第二显示器190b可以在物理上彼此分离。可以彼此独立地控制第一显示器190a和第二显示器190b上显示的屏幕。例如,可以彼此单独地设置第一显示器190a的分辨率和第二显示器190b的分辨率。此外,可以彼此独立地执行在第一显示器190a和第二显示器190b上显示的屏幕的扩大、旋转、屏幕移动、屏幕拆分等。
此外,第一显示器190a和第二显示器190b可以使用虚拟集成帧缓冲器来显示单个屏幕。
第一显示器190a和第二显示器190b是显示可由控制器130执行且提供与之相适配的用户接口的各种应用(例如,电话呼叫、数据传输、广播、摄像机操作等)的显示设备。第一显示器190a和第二显示器190b可以包括上述触摸传感器151,在这种情况下,可以通过诸如用户身体等(包括拇指的手指)用户对象50或可感测输入装置(例如,触控笔)输入至少一个触摸手势。
这种用户接口可以包括预定的触摸区域、软键和软菜单。第一显示器190a和第二显示器190b可以通过LCD控制器(未示出)向第一显示器190a和第二显示器190b发送与通过用户接口输入的至少一个触摸手势相对应的电信号。此外,第一显示器190a和第二显示器190b可以感测连续触摸运动,并向LCD控制器发送与连续或非连续触摸运动相对应的电信号。如上所述,可以电阻方式、电容方式、红外方式或声波方式来实现触摸传感器151。
第一显示器190a和第二显示器190b可以将与通过触摸传感器151感测到的用户操作有关的信号转换成数字信号(例如,X和Y坐标),并向控制器130发送转换后的数字信号。控制器130使用接收到的数字信号执行与通过第一显示器190a和第二显示器190b输入的用户操作相对应的控制。例如,响应于用户操作,控制器130可以使得在第一显示器190a和/或第二显示器190b上显示软键,并且可以执行与软键相对应的应用。
上述用户手势不限于第一显示器190a和第二显示器190b与用户对象50(包括用户身体和其它可触摸输入装置)之间的直接接触,还可以包括非接触方式。依据多显示设备100的性能和结构,第一显示器190a和第二显示器190b中可检测的用户操作的灵敏度可以变化。
多显示设备100是被配置为执行可以存储在存储单元170并可由控制器130通过触摸屏192执行的应用、窗口小部件和功能的设备。一般触摸屏192可以通过主页屏幕或应用菜单显示与那些组相对应的应用、窗口小部件、功能和图形对象(软键或快捷键),多显示设备100响应于每个所显示的图形对象上检测到的用户触摸手势来执行相应的应用、窗口小部件或功能。
这里,窗口小部件表示可由用户下载然后使用、或可由用户产生的迷你程序,例如,天气窗口小部件、股市窗口小部件、日历窗口小部件、闹钟窗口小部件、字典窗口小部件等。执行窗口小部件的快捷图标可以通过与快捷图标相对应的窗口小部件应用提供简单的字典信息,以执行窗口小部件。例如,天气窗口小部件的图标简单地提供了当前的温度和天气符号,通过触摸该图标执行的窗口小部件提供了更多信息,如每时段/地区的天气。在本申请中,应用包括基于窗口小部件的应用和基于非窗口小部件的应用。
包括第一显示器190a的第一主体2和包括第二显示器190b的第二主体4可以通过如铰链185之类的连接部分彼此连接,第一主体2和第二主体4可以绕铰链185折叠或展开特定角度。
除铰链185之外,连接部分还可以实现为柔性连接部(未示出)或柔性触摸屏(未示出)。
以下参照图27,针对上述控制器130的硬件配置进行详细说明。
图27是示出了控制器130的硬件配置的框图。
参照图27,在硬件上,多显示设备100的控制器130可以包括CPU 131、GPU 133、RAM135、ROM 137和系统总线139,在软件上,提供驱动硬件配置的操作系统(OS)、以及提供操作系统上的用户接口的应用,并将其传递到框架。然而,以下将进一步说明操作系统、框架和应用。
CPU 131在通过系统总线130与每个块执行数据通信的同时控制各个块的功能,收集控制结果,基于收集的结果向连接至控制器130的各个外围设备发送控制信号,以执行控制外围设备的功能。“外围设备”例如包括通信单元110、多媒体单元120、成像单元140、传感器150、输入/输出单元160、存储单元170和电源单元180,例如如图26所示。此外,CPU 131控制计算器读取RAM中每个进程的命令指令和自变量,并执行运算。
首先,CPU 131使用预先存储在ROM 137中的引导信息来执行引导。也就是说,当开启系统电源时,CPU 131从ROM 137读取操作每个外设的命令,并根据该命令将控制信号发送到每个外设。此外,CPU131将存储在存储单元170中的数据读取到RAM 135中,并向GPU133发送RAM 135中存储的数据中需要图形处理的数据。CPU 131接收通过GPU 133图形处理后的数据,并将数据发送给连接至系统总线139的LCD控制器(未示出),以便在多显示器190上显示图像。
这里,CPU 131将GPU 133处理过的图像数据临时存储在分配给RAM 135的预定区域的虚拟帧缓冲器中。CPU 131分配虚拟帧缓冲器中的区域,以支持多显示器190的最大分辨率(例如,1024x600)。当在多显示器190中存在两个显示器时,虚拟帧缓冲区被分配为具有1024x1200的大小。
CPU 131将虚拟帧缓冲器临时存储的数据输入至GPU 133以进行数字信号处理。
GPU 133在CPU 131的控制下对输入数据执行图形处理。具体地,GPU 133可以使用计算器(未示出)和呈现器(未示出),产生包括多种对象(例如包括图标、图像或文本)的屏幕。计算器可以根据屏幕的布局,针对要显示的各个对象计算属性值,例如坐标值、形状、大小或颜色。呈现器可以基于计算器计算的属性值,产生其中包括对象的多种布局的屏幕。可以经由总线139将呈现时产生的屏幕发送给第一和/或第二显示器190a、190b以便显示在第一和/或第二显示器190a、190b的显示区内或存储在存储单元170中。
CPU 131可以控制通过第一显示器190a和第二显示器190b中的至少一个显示GPU133图形处理的数据,或者可以将处理后的数据输入至显示控制器(未示出)。
GPU 133可以包括解码器、呈现器和缩放器等(未示出)。因此,通过显示控制器的控制,可以解码所存内容,呈现解码的内容以构建帧,以及对所构建的帧的大小进行缩放以适合显示大小。如果在第一显示器190a和第二显示器190b之一上显示屏幕,则可以使缩放适合显示大小;如果在第一显示器190a和第二显示器190b二者上显示屏幕,则使缩放适合两个显示器大小的组合。GPU 133可以向显示器提供经处理的帧,并显示所提供的经处理的帧。
除此之外,控制器130还可以包括音频处理器、接口等(未示出)。该接口是与周围的配置元件相接口的配置元件。
音频处理器(未示出)表示通过音频接口(未示出)与多媒体单元120相接口并处理音频数据以向诸如扬声器之类的声音输出装置提供处理后的音频数据的配置元件。音频处理器可以对在存储单元170中存储的音频数据和通过通信器110接收的音频数据进行解码,对解码后的音频数据进行噪声滤波,然后执行音频信号处理,例如将音频数据放大到适合的分贝。在上述示例中,当所播放的内容是视频内容时,音频处理器可以处理从视频内容中解复用的音频数据,将处理后的音频数据与GPU 133同步,并向扬声器163提供结果以便输出。
在ROM 137中,存储系统引导的命令集。当输入开启命令并且供电时,CPU 131根据ROM 137中存储的命令,将存储单元170中存储的O/S拷贝到RAM 133中,并执行O/S以引导系统。当完成引导时,CPU131将存储单元170中存储的各种应用程序拷贝到RAM 133中,并执行拷贝到RAM 133中的应用程序来执行各种操作。这样,CPU 131可以根据存储单元170中存储的应用程序的执行来执行各种操作。
如上所述,当在多显示设备100中感测到触摸和其它用户操纵时,控制器130可以确定用户操纵是否是有意的。当确定用户操纵是有意的用户操纵时,控制器130从存储单元170读取关于与该用户操纵相对应的操作的信息,然后执行与该信息相对应的操作。可以通过存储在存储单元170中的各种程序的执行来实现控制器130的这种操作。
成像单元140被配置为根据用户操纵执行拍摄操作。可以在多显示设备100内以设置多个成像单元140。例如,第一成像单元(未示出)可以设置在设置了第一显示器190a的第一主体2中,而第二成像单元(未示出)可以设置在设置了第一显示器190b的第二主体4中。控制器130可以存储通过成像单元140拍摄的图像,或将拍摄的图像附在电子邮件、文档、消息等中,并经由通信单元110将所附图像发送到多显示设备100的外部。此外,控制器130可以分析通过成像单元140拍摄的图像,并识别用户运动或手势,并执行与该运动或手势相对应的控制操作。
CPU 131可以实现为单核处理器、多核处理器、三核处理器和四核处理器中的至少一个。在多核处理器的情况下,多核处理器中包括的每个处理器可以独立控制第一显示器190a和第二显示器190b。
以下是对控制器130的软件(程序)分级配置的说明。
图28是示出了根据本发明总体构思的示例实施例的多显示设备100的系统分级结构的视图。
参照图28,根据本发明总体构思的示例实施例的多显示设备100包括被配置为驱动硬件的操作系统(OS,420)、由操作系统管理并被配置为使用多显示设备100的资源提供用户服务的应用层441至445、以及中继操作系统与应用之间的通信的框架层430。
操作系统420控制硬件410的总体操作,并执行诸如管理与每个应用相对应的处理之类的功能。也就是说,OS 420是被配置为执行诸如硬件管理、存储和安全等基本功能的层。OS 420包括模块(未示出),模块例如是驱动多显示器的显示驱动器、收发数据的通信驱动器、驱动摄像机的摄像机驱动器、驱动音频的音频驱动器、以及电源管理器等。此外,可以包括开发者(未示出)可读的应用编程接口(API)库和运行时间记录(未示出)。OS 420处理应用的调用,并根据处理结果操作硬件。
存在框架层430作为OS 420的上层。框架层430执行将应用层440与OS层420连接的角色。即,框架层430包括位置管理器、通知管理器和在触摸屏192上显示图像的帧缓冲器。
存在框架层430的上层中嵌入多显示设备100的多种功能的应用层440。例如,可以包括各种应用,如呼叫应用441、多媒体应用442、摄像机应用443、浏览器应用444和手势应用445等。
应用441至445提供用户接口,并且从用户接收命令并通过框架向OS 420发送接收的命令,或者请求OS 420的资源。OS 420处理系统调用,并管理各种应用的操作。此外,应用441至445根据系统呼叫处理结果操作各种硬件,如第一显示器190a和第二显示器190b。
以下是根据本发明总体构思的示例实施例的多显示器190的硬件配置的说明。
图29是示出了第一显示器190a或第二显示器190b的图像输出器191的电路配置的视图。在下文中,将基于第一显示器190a进行说明,但是第二显示器190b将包括相同的配置,因此以相同方式操作。此外,图29示出了图像输出器191的电路配置,而图31示出了图像输出器191的物理构造。
根据图29,第一显示器190a的图像输出器191可以包括定时控制器231、门驱动器232、数据驱动器233、电压驱动器234和显示面板235。
定时控制器231接收时钟信号(DCLK)、以及水平同步信号(Hsync)、垂直同步信号(Vsync)等,并产生栅极控制信号(入射控制信号)和数据控制信号(数据信号),并对接收的图像的R、G、B值进行重对准以进行显示,并将R、G、B值提供给数据驱动器233。
定时控制器231可以产生栅极移位时钟(GSC)、栅极输出使能(GOE)和栅极起始脉冲(GSP)等。这里,GSC是被配置为确定连接至发光器件(例如R、G、B有机发光二极管(OLED))的薄膜晶体管(TFT)的导通/截止时间的信号,GOE是被配置为控制栅极驱动器232的输出的信号,硬件GSP是被配置为通知一个垂直同步信号之中屏幕的第一驱动行的信号。
此外,定时控制器231可以产生与数据控制信号有关的源极采样时钟(SSC)、源极输出使能(SOE)和源极起始脉冲(SSP)等。这里,SSC用作在数据驱动器233处对数据进行锁存的采样时钟,并确定数据驱动233的驱动频率。SOE将SSC锁存的数据发送给显示面板235。SSP是通知一个水平同步周期期间的数据锁存或采样开始的信号。
栅极驱动器232是产生入射信号的配置,并通过入射线S1、S2、S3...Sn连接至显示面板235。栅极驱动器232根据在定时控制器231产生的栅极控制信号,将从电压驱动器234提供的栅极导通/截止电压(Vgh/Vgl,未示出)施加至显示面板235。栅极导通电压(Vgh)按顺序发送到栅极线1(GL1)至栅极线N(GLn),以在显示面板235上实现单位帧图像。数据驱动器233是产生数据信号的配置,并通过数据线D1、D2、D3...Dn连接至显示面板235。数据驱动器233根据定时控制器233产生的数据控制信号来完成缩放,并将图像的RGB数据输入至显示面板235。数据驱动器233将从定时控制器231提供的串行RGB图像数据转换为并行数据,将数字信号转换为模拟电压,以将对应于一个水平行部分的图像数据提供给显示面板235。每水平行连续地进行该过程。
电压驱动器234产生并传递栅极驱动器232、数据驱动器233和显示面板235等的每个驱动电压。即,电压驱动器234可以从多显示设备100的外部接收主要电压,例如,110V或220V的交流电电压,产生并提供显示面板235所必需的电源电压(VDD)或提供接地电压(VSS)。此外,电压驱动器234可以产生栅极导通电压(Vgh)并提供给栅极驱动器232。为此,驱动器234可以包括独立操作的多个电压驱动模块(未示出)。这里,多个电压驱动模块可以根据控制器130的控制操作以提供彼此不同的电压,并且控制器130可以根据预设信息控制电压驱动器234,使得多个电压驱动模块能够提供不同的驱动电压。例如,在控制器130的控制下,根据预设信息,多个电压驱动模块中每一个可以提供不同的第一电压、以及缺省设置的第二电压。
根据本发明总体构思的示例实施例,电压驱动器234可以包括与划分为多个区域的显示面板235的每个区域相对应的多个电压驱动模块(未示出)。在这种情况下,控制器130可以依据多个区域的每个屏幕信息(或输入图像信息),控制多个电压驱动模块,以提供不同的第一电压,即,不同的ELVDD电压(未示出)。即,控制器130可以使用输入至数据驱动器233的图像信号来控制ELVDD电压的大小。这里,屏幕信息可以是输入图像的亮度信息和灰度级信息中的至少一个。
显示面板235可以具有被配置为彼此交叉且限定了像素区236的多个栅极线GL1至GLn和数据线D1至Dn,在交叉的像素区236中,可以在栅极线和数据线彼此交叉的像素区236中形成例如OLED等的R、G、B发光二极管。此外,在像素区236的一个区域中,更具体地,在角落中,形成开关元件,即,TFT。在TFT的导通操作期间,来自数据驱动器233的等级电压提供给R、G、B的每个发光二极管。这里,R、G、B发光二极管可以根据基于等级电压提供的电量来提供光。即,当提供大量电流时,R、G、B发光元件提供对应所提供电流的光量。
图30是示出了配置R、G、B像素区236的电路结构,R、G、B像素区236用于配置图29所示的显示面板235。
参照图30,显示面板235包括对应于R、G、B颜色的三个像素区236。R、G、B像素区236可以包括:扫描信号S1,由栅极导通电压(Vgh,未示出)操作的开关M11、M21、M31,基于提供给数据线D1-Dn的包括改变的高等级值的像素值而输出电流的开关M12、M22、M32,以及根据定时控制器231提供的控制信号来调整从开关M12、M22、M32向R、G、B发光元件提供的电流量的开关M13、M23、M33。此外,这种开关M13、M23、M33连接至有机发光二极管(OLED)以向OLED提供电流。这里,“OLED”表示如下显示器:当电流施加到荧光或磷光有机薄膜时,使用电磁场的发光原理自身发射光。每个OLED的阳极电极连接至像素电路,阴极电极连接至ELVSS。这种OLED响应于从像素电路提供的电流,产生预定亮度的光。这里,开关M11、M21、M31的栅电极连接至入射线S1,而源电极和漏电极之一连接至数据线D1。因此,显示面板235可以实现为AM-OLED(有源矩阵有机发光二极管)面板。然而,本发明总体构思的示例实施例只是本发明总体构思的示例实施例,显然不排除PM-OLED(无源矩阵有机发光二极管),这是一行发射光并同时驱动的方法。
这样,在以OLED实现多显示设备100的多显示器190的情况下,无需提供附加的发光装置(背光),因而存在使显示器厚度更薄并简化配置的优点。
然而,尽管在本发明总体构思的以上示例实施例中描述了OLED,但是也可以以各种显示技术实现显示器,如液晶显示面板(LCD面板)、等离子体显示面板(PDP)、真空荧光显示器(VFD)、场致发射显示器(FED)和电致发光显示器(ELD)。
图31是包括触摸屏192的第一显示器190a的横截面视图。尽管以下参照第一显示器190a描述了图31所示配置,但是第二显示器190b可以具有相同构造。
参照图31,第一显示器190a包括图像输出器191和触摸屏192。
图像输出器191包括:显示面板235,其中放置了上基板362和下基板361;在显示面板235的上基板362上设置上偏振片300,在偏振片300的边缘区域设置下电极310。此外,图像输出器191包括在下基板361上设置的下偏振片301。
可以在上基板362和下基板361之间设置液晶层363。上基板362和下基板361包括显示图像的显示区域以及在显示区域的边缘区域设置的外围区域。尽管未示出,但是在下基板361的显示区域中设置薄膜晶体管、多条栅极线和数据线以及像素电极,薄膜晶体管设置在多条栅极线与多条数据线的交叉区域中,像素电极与薄膜晶体管相连。可以提供与像素电极部分交叠的支撑电极。此外,在下基板361的边界区域上,可以设置与栅极线和数据线连接的多个垫(pad)(未示出)。
上基板362和下基板361可以由诸如密封剂等密封件364来密封。当在上基板362和下基板361的外围区域中设置时,密封件364是有效的。
触摸屏192包括与下电极310连接并在上偏振片300上设置的下透明电极330、在下透明电极330上设置的触摸板(touch pad)340、以及在上透明电极342和下透明电极330之间设置的突出物350。
触摸板340包括基薄膜341、在基薄膜上设置的上透明电极342、以及在上透明电极342上设置的上电极343。
当通过预定外部力按压触摸板340时,使得施加了力的区域的突出物350接触下透明电极330,并且相应地,下透明电极330和上透明电极342彼此电接触。流经上透明电极342和/或下透明电极330的电流通过电连接而改变,并且通过附加感测装置(未示出)来感测这种改变。向控制器130发送从感测装置输出的信号。控制器130使用该信号来产生改变电流流动的区域的坐标,并向预定的驱动器(未示出)发送生成的坐标。驱动器可以执行与响应于输入坐标使用诸如鼠标等输入工具来操控显示面板360上显示的图像相同的操作。
同时,由于多显示设备100的特性,可以以各种方法提供图像帧缓冲区134a-1、134b-1或134-1。以下是针对各种方法设置的图像帧缓冲器的说明。
图32是示出了根据本发明总体构思的示例实施例的多显示设备100的显示驱动器134的框图,并且图33是示出了根据本发明总体构思的另一示例实施例的显示驱动器134’的配置框图。
参照图32,显示驱动器134可以包括第一帧缓冲器134a-1、第一显示驱动器1341a-2、第二帧缓冲器134b-1以及第二显示驱动器134b-2。即,第一显示器190a和第二显示器190b分别可以具有附加的帧缓冲器134a-1和134b-1和显示驱动器134a-2和134b-2。
第一帧缓冲器134a-1是对要在第一显示器190a上显示的图像帧进行缓冲的配置,并且第二帧缓冲器134b-1是对要在第二显示器190b上显示的图像帧进行缓冲的配置。
例如,可以将经GPU 133数字信号处理的图像帧以位图格式存储到第一和第二帧缓冲器134a-1和134b-1中。在这种情况下,分配适合于第一显示器190a和第二显示器190b中的每一个可以支持的最大像素尺寸的每个帧缓冲器134a-1和134b-1的缓冲区。第一显示驱动器134a-2对第一帧缓冲器134a-1中存储的图像帧进行分析,并且将存储在第一帧缓冲器134a-1中的图像帧转换成第一图像源信号。第一显示驱动器134a-2向第一显示器190a提供第一图像源信号,以驱动第一显示器190a显示图像帧。
同样,第二显示驱动器134b-2对第二帧缓冲器134b-1中存储的图像帧进行分析,将图像帧转换成第二图像源信号,并向第二显示器190b提供转换后的第二图像源信号以进行显示。
这两个帧缓冲器134a-1和134b-1可以适合于并行地处理分别与第一显示器190a和第二显示器190b中的每一个相关的图像帧。当并行处理器(未示出)输出分别与第一显示器190a和第二显示器190b中的每一个相关的图像信号时,可以提高图像输出效率。
然而,不同于以上,分别与第一显示器190a和第二显示器190b对应的第一帧缓冲器134a-1和第二帧缓冲器134b-1可以集成为一个集成帧缓冲器134-1而使用,而不分开提供。
图33是示出了多显示设备100使用集成帧缓冲器134-1控制每个显示器190a、190b的操作的配置框图。当帧缓冲器实现为集成帧缓冲器134-1时,可以分配集成帧缓冲器134-1的大小并实现为比第一显示器190a和第二显示器190b的最大分辨率更大。
例如,当第一显示器190a和第二显示器190b中的每一个显示最大分辨率1024*800时,集成帧缓冲器134-1分配存储区域为能够显示分辨率1024*1600的帧缓冲器大小相对应。在集成帧缓冲器134-1的第一区域中,存储在第一显示器190a上显示的第一图像帧,并且在集成帧缓冲器134-1的第二区域中,存储在第二显示器190b上显示的第二图像帧。
显示驱动器134-2使用集成帧缓冲器134-1中存储的第一图像帧和第二图像帧的地址,向第一显示器190a和第二显示器190b提供第一和第二图像帧,以驱动每个显示器。
如上所述,多显示设备100的传感器150可以包括接近感测装置,例如接近传感器155。以下是对接近传感器155的配置和操作的说明。
图34是示出了根据本发明总体构思示例实施例的接近触摸的视图。
根据图34所示的示例实施例,用户可以仅通过将用户对象50(如,手指或其它对象)接近触摸屏192来向多显示设备100输入控制命令,而无需直接触摸触摸屏192。多显示设备100可以使用接近传感器155来感测接近触摸。当在不直接触摸触摸屏192的情况下在特定空间有效识别范围5内识别到运动时,接近触摸表示识别为一个触摸手势。
参照图34,在显示器290的上部,放置识别接近触摸的红外源291,在显示器290的下部,包括红外传感器292。
红外源291沿显示器290的表面方向发射红外线。具体地,红外源291置于显示器290的对图像加以显示的下部,并且可以沿显示器290的表面方向发射红外线。存在在显示器290的表面上识别用户对象50的接近的特定区域。该区域是可以识别接近触摸的有效识别区域5。
用户对象50意味着将命令输入多显示设备100的装置,例如,手之类的身体部位。
当用户对象50朝向有效识别区域5的内部接近时,传感器292感测到用户对象50的接近所反射的红外线,并产生红外扫描图像。具体地,红外传感器292使用以矩阵的形式布置的多个红外感测元件,以产生与用户对象50的接近所反射的红外线相对应的红外扫描图像。多显示设备100可以使用产生的红外扫描图像来感测接近触摸输入。
以下是参照所附透视图对根据本发明总体构思的示例实施例的多显示设备100的外部配置的说明。
图35是示出了根据本发明总体构思的示例实施例的多显示设备100的详细透视图。这里,示出了多显示设备100具有通过铰链185组合的两个显示器190a和190b。
参照图35,多显示设备100包括第一主体2和第二主体4,所述第一主体2和第二主体4被配置为通过铰链185连接,因而相对于彼此可移动。第一显示器190a可以设置在第一主体2的一个表面上,而至少一个物理按钮161可以设置在显示器190a的一个侧表面上。第二显示器190b可以设置在第二主体4的一个表面上,而至少一个物理按钮161’可以设置在第二显示器190b的一个侧面上。物理按钮161和161’包括推动按钮和触摸按钮中的至少一个。在本发明总体构思的示例实施例中,第一主体2上设置的具有扬声器163和麦克风162的第一显示器190a可以作为主屏幕操作,而第二主体4上设置的第二显示器190b可以作为子屏幕操作。
在本发明总体构思的示例实施例中,主体2具有第一摄像机141,第二主体4具有第二摄像机142。
利用如图35所示布置多显示设备100时,显示器190a和190b分别在横向模式下显示屏幕。
只要多显示设备100使得通过铰链185连接第一主体2和第二主体4相对可移动,多显示设备100就可以是诸如移动电话、笔记本计算机、平板PC和PMP等任何设备。第一显示器190a和第二显示器190b分别描述为具有第一主体2和第二主体4,但是以下说明也可以应用于设置触摸屏显示器作为唯一面板的任何设备。此外,可以省略在第一显示器190a和第二显示器190b中的每一个的侧面上的至少一个功能按钮161。此外,尽管对通过铰链185实现第一主体2和第二主体4之间的连接进行了说明,但是铰链185可以替换为任何其它配置元件,只要第一主体2和第二主体4被配置为相对于彼此移动即可。
同时,铰链185可以包括两个铰链,两个铰链在第一主体2和第二主体4的连接部分的上下侧设置。此外,铰链185可以包括置于第一主体2和第二主体4的整个连接部分上的单个铰链。
多显示设备100具有显示设备,该显示设备包括物理或图形上彼此分离的第一显示器190a和第二显示器190b。多显示设备100可以使用第一显示器190a和第二显示器190b支持如图11至15所示的各种屏幕模式。
图35至40是示出了根据本发明总体构思的示例实施例的基于多显示设备100的第一主体2和第二主体4间相对角度的各种屏幕模式的视图。
相对角度θ是第二主体4相对于第一主体2沿预定方向(例如,逆时针方向)旋转的旋转角度。
更具体地,可以使用铰链185自身安装的铰链传感器154来检测相对角度θ。铰链传感器154可以包括霍尔传感器、压力传感器、电感传感器、电接触传感器和光传感器之一,并检测铰链的移动和相对位置来识别相对角度θ。
此外,除了铰链传感器154之外,地磁传感器152和加速度传感器153可以检测第一主体2和第二主体4的每个位置以识别相对角度θ。
图36是示出了根据本发明总体构思的示例实施例的折叠的多显示设备100的透视图。如图36所示,第一主体2上的第一显示器190a和第二主体4上的第二显示器190b彼此面对,第一主体2和第二主体4彼此接触。即,第二显示器190b位于第一显示器190a的相对侧。当用户看到第一显示器190a时,第二显示器190b位于相对侧,因而用户无法看到第二显示器190b。因而,用户仅可以看到一个显示器。
在图36所示的配置中,相对角度θ定义为0度。例如,当第一主体2和第二主体4间的相对角度在0到60度之间时,多显示设备100可以识别为单显示模式。对于仅需要一个显示器的应用(例如在电话呼叫应用中),或在多显示设备100处于锁定状态且未被使用时,使用单显示模式是有利的。在单显示模式中,正面的第一显示器190a显示至少一个应用的操作屏幕,而在背面的第二显示器190b可以关闭。某些应用可以使用选项菜单(未示出)以开启背面的第二显示器190b。在单显示模式的情况下,用户只能够看到一个显示屏幕,因而控制器130只控制一个显示器。也就是说,控制器130只发送与用户当前正在看的显示器有关的控制信号。不发送与控制器130未进行控制的显示器有关的附加控制信号和数据信号,因而节省了功耗。
这里,不具备控制信号和数据信号的显示器工作于睡眠模式,当控制器130施加解除睡眠模式的信号时,例如在用户旋转多显示设备100以观看休眠模式中的显示器时,该显示器解除睡眠模式,并因此接收来自控制器130的控制信号。
图37示出了相对角度θ是180度或在预定范围内接近180度的状态,第一主体2和第二主体4基本彼此平行。以下将该模式称为展开模式。例如,当第一主体2和第二主体4间的相对角度在175到180度的范围中时,多显示设备100可以确定第一主体2和第二主体4是展开的。展开模式可以在显示器190a和190b的每一个上显示与两个应用相关的两个操作屏幕,或者在显示器190a和190b二者上显示与一个应用相关的一个屏幕,或者在两个显示器190a和190b上显示与一个应用相关的两个操作屏幕。在任一显示器上可以不显示应用,但是可以显示缺省主屏幕。展开模式在利用多个显示器或单个大显示器执行更好的应用中特别有利,例如电子书、视频播放器应用和网页浏览屏幕。
例如,控制器130可以在第一显示器190a上显示第一网页浏览屏幕(未示出),并在第二显示器190b上显示第二网页浏览屏幕(未示出)。这里,第一网页浏览屏幕和第二网页浏览屏幕彼此相关,并且可以在第一显示器190a上显示与第二网络浏览屏幕相关的第三网页浏览屏幕(未示出),并且可以在第二显示器190b上显示与第三网络浏览屏幕相关的第四网页浏览屏幕(未示出)。
控制器可以在第一显示器190a和第二显示器190b上交替显示网页浏览屏幕,并可以执行在每个显示器190a和190b上显示的多个网页浏览屏幕之间的屏幕转换,可以以彼此不同的布局显示第一显示器190a上显示的网页浏览屏幕和第二显示器190b上显示的网页浏览屏幕。
图38示出了第二主体4相对于第一主体2的相对角度θ超过180度的情况,即,两个显示器190a和190b略微地向内折叠,即,略微相向折叠。在本文中这被称为工具包模式。例如,当第一主体2和第二主体4间的相对角度在185到265度的范围中时,识别为工具包模式。工具包模式在多显示设备100类似于笔记本计算机来使用时特别有利。例如,可以提供各种工作环境,如在第一显示器190a上显示操作屏幕,而在第二显示器190b上显示例如键盘等工具。
图39示出了第一主体2和第二主体4的相对角度θ小于180度的状态,即,当两个显示器190a和190b向外折叠,即,使得显示器190a和190b几乎向相反方向折叠。在此该模式被称为站立模式。例如,当第一主体2和第二主体4间的相对角度在30到90度的范围中时,多显示设备100可以识别为站立模式。由于站立模式是两个显示器190a和190b面向外折叠的结构,因此多显示设备100可以以三角形形状站立在底部,即,在第一主体2和第二主体4的边缘部分上保持平衡。多显示设备100的站立模式在充电、查看图像(例如,将多显示设备100用作数字时钟或相框使用)、或观看个人广播、电影和视频等时特别有利。在本发明总体构思的另一示例实施例中,站立模式可以用于需要两个或更多个用户间的协作或交互的应用,例如,电话会议,联合游戏等。某些应用仅在站立模式下的第一显示器190a上显示操作屏幕,并且可以关闭第二显示器190b。某些应用可以使用选项菜单开启第二显示器190b。
图40示出了图39所示的站立模式的另一示例实施例,在此被称为纵向观看模式,其中多显示设备100以站立方式放置,使得铰链185的一部分接触地面。当确定第一主体2和第二主体4间的相对角度θ在30到90度的范围中,且加速度传感器153确定多显示设备100是以站立方式放置时,多显示设备100可以识别为纵向观看模式。
具体地,加速度传感器153可以感测多显示设备100的旋转。加速度传感器153可以感测纵向观看模式与横向观看模式之间的转变,在纵向观看模式中,第一显示器190a和第二显示器190b左右放置,如图40所示,而在横向观看模式中,第一显示器190a和第二显示器190b上下放置,如图39所示。
纵向观看模式可以应用于在例如电话会议或多视频播放器等有必要向两个或更多个用户提供不同图像的应用。
图41和42是示出了根据本发明总体构思的示例实施例的多显示设备100的两个摄像机141和142的布置视图。图41和42是从两个显示器190a和190b处于展开模式下时从两个显示器190a和190b的方向观看的多显示器100的视图。这些是示出了摄像机141和142的布置的视图,因而为了便于说明省略了多显示设备100的其它元件和配置。
参照图41,多显示设备100包括第一主体2和第二主体4,第一主体2包括第一显示器190a,第二主体4包括第二显示器190b。第一主体2和第二主体4通过铰链185彼此连接,并且相对于彼此可移动。第一摄像机141可以置于第一主体2的与铰链185相对的边界区域的中心上。类似地,第二摄像机142可以置于第二主体4的与铰链185相对的边界区域的中心上。
接下来,参照图42说明第一摄像机141’和第二摄像机142’的备选布置。与图41类似,对展开模式下的多显示设备100进行说明。第一摄像机141’可以置于第一主体2的左边界区域的中心表面上,第二摄像机142’可以置于第二主体4的左边界区域的中心表面上。在本发明总体构思的另一示例实施例中,第一摄像机141’和第二摄像机142’可以分别置于第一主体2和第二主体4的右边界区域的中心表面上。在本发明总体构思的又一示例实施例中,第一和第二摄像机可以分别置于第一主体2和第二主体4的角落区域上。具有如图42设置的第一摄像机141’和第二摄像机142’的多显示设备100不仅可以如上所述在横向观看模式中使用,并且可以在纵向观看模式中使用。
以下是针对根据本发明总体构思的各种示例实施例的多显示方法的说明。
图43至47是示出了根据本发明总体构思的各种示例实施例的多显示方法的流程图。
将省略已在上述进行了说明的多显示方法的操作。
图43所示的多显示方法可以在多显示设备100中执行,该多显示设备100包括设置了第一显示器190a的第一主体2、设置了第二显示器190b的第二主体4、以及将第一主体2和第二主体4连接并支撑第一主体2和第二主体4以使其相对彼此可旋转的铰链185。
具体地,利用显示非结构化第一屏幕和第二屏幕的多显示设备100,分别通过第一显示器190a和第二显示器190b,用户可以执行针对每个屏幕的用户操作。因此,当感测到与第一屏幕的非决定性位置相关的第一用户操纵(操作S4310)并且感测到与第二屏幕的非决定性位置相关的第二用户操纵(操作S4320)时,组合感测到的第一用户操纵和第二用户操纵,并执行与该组合结果对应的操作(操作S4330)。
参照图44,根据本发明总体构思的示例实施例的多显示设备100可以包括感测第一用户操纵(操作S4410),根据第一用户操纵改变与第二用户操纵相匹配的功能(操作S4420),感测第二用户操纵(操作S4430),以及当感测到第二用户操纵时,根据改变后的功能执行操作(操作S4440)。
这里,第二用户操纵可以是线输入,当第一用户操纵是分开输入时,改变功能(操作S4420)可以增大输入线的粗度;当第一用户操纵是合拢输入时,改变功能(操作S4420)可以减小输入线的粗度;当第一用户操纵是触摸并旋转输入时,改变功能(操作S4420)可以改变线的纹理。
此外,在图43所示的示例实施例中执行上述操作(操作S4330)时,如果第一用户操纵是触摸并保持输入,且当与第一用户操纵一起感测到触摸输入的第二用户操纵时,可以显示与第二用户操纵相对应的菜单。
参照图45,根据本发明总体构思的示例实施例的多显示方法包括:感测第一用户操纵(操作S4510);当感测到第一用户操纵时,根据第一用户操纵改变显示在第二显示器上的屏幕(操作S4520);感测第二用户操纵(操作S4530);以及当感测到第二用户操纵时,改变第一动作所改变并进行显示的屏幕(操作S4540)。
这里,改变屏幕(操作S4520)在第一用户操纵是分开输入时,可以扩大第二显示器上显示的屏幕;在第一用户操纵是合拢输入时,可以缩小第二显示器190b上显示的屏幕;以及在第一用户操纵是触摸并旋转输入时,旋转在第二显示器上显示的屏幕。
参照图46,根据本发明总体构思的示例实施例的多显示方法可以包括:感测第一用户操纵(操作S4610);当感测到第一用户操纵时,提取显示在第一显示器190a上的内容(操作S4620);感测第二用户操纵(操作S4630);以及当感测到第二用户操纵时,在第二显示器190b上显示与所提取的内容相对应的屏幕(操作S4640)。
这里,提取(操作S4620)可以根据第一用户操纵捕获在第一显示器190a上显示的屏幕,显示屏幕(操作S4640)可以在第二显示器190b上做出第二用户操纵的位置显示所捕获的屏幕。
参照图47,根据本发明总体构思的示例实施例的多显示方法可以包括:当第一显示器190a和第二显示器190b中的每一个分别显示非结构化第一屏幕和第二屏幕时,感测与第一屏幕的非决定性位置相关的第一用户操纵(操作S4710);感测与第二屏幕的非决定性位置相关的第二用户操纵(操作S4720);将感测到的第一用户操纵和第二用户操纵连接,以识别为一个用户手势,并在第一显示器190a和第二显示器190b之一上显示与所述用户手势相对应的执行屏幕(操作S4730)。
在根据本发明总体构思的各种示例实施例的上述多显示方法中,第一用户操纵可以是使用用户身体对第一显示器190a的接近输入或触摸输入,第二用户操纵可以是使用输入笔200对第二显示器190b的接近或触摸输入。
同时,描述上述各种多显示方法识别针对多显示设备100中的多个显示器中的每一个做出的非结构化用户操纵,并执行相应操作。然而,本发明的总体构思并不限于此,而是可以将针对多个显示器中的每一个做出的非结构化用户操纵识别为一个用户操纵,并可以执行与该一个用户操纵相对应的操作。
例如,当用户执行从第一显示器190a上一点到第二显示器190b的拖动操作时,分别在第一显示器190a和第二显示器190b上感测到用户操纵。当第一显示器190a和第二显示器190b中感测到用户操纵的点在预定时间范围内,且第一显示器190a上的拖动轨迹与第二显示器190b上的拖动轨迹相连续时,控制器130将这些用户操纵识别为一个拖动操作。因而,执行与该拖动动作相对应的操作。例如,控制器130可以执行各种操作,例如,在初始拖动开始于第二显示器190b的情况下扩大在第一显示器190a上显示的第一屏幕的操作;分割一个屏幕并在第一显示器190a和第二显示器190b之一或二者上显示分割后的屏幕的操作;在第一显示器190a和第二显示器190b中的每一个上显示一个公共屏幕的操作;同时激活或去激活第一显示器190a和第二显示器190b的操作;以及开启或关闭多显示器设备100的电源的操作。
上述多显示方法可以实现为包括在计算机中可执行的算法的程序,该程序可以存储在非暂时计算机可读介质中或通过非暂时计算机可读介质提供。
计算机可读介质可以包括计算机可读记录介质和计算机可读传输介质。计算机可读记录介质是可以存储数据为程序并随后由计算机系统可读取的任何数据存储设备。计算机可读记录介质的示例包括半导体存储器、只读存储器(ROM)、随机存取存储器(RAM)、USB存储器、存储卡、蓝光盘、CD-ROM、磁带、软盘和光学数据存储设备。计算机可读记录介质也可以分布在网络耦合计算机系统上,使得可以以分布的形式来存储和执行计算机可读代码。计算机可读传输介质可以传输载波或信号(例如,经过互联网的有线或无线数据传输介质)。此外,本发明总体构思所属领域的程序员可以容易想到用于实现本发明总体构思的功能程序、代码和代码段。
根据本发明总体构思的各种示例实施例,能够通过多显示设备100的每个显示器执行非结构化独立输入,并将每个输入组合以执行与之相对应的输出。
尽管以上描述了本发明总体构思的示例实施例,但是应理解,本发明的总体构思并不限于这些示例实施例。例如,多显示设备100的多显示器190不必包括在彼此物理理解的独立主体上布置的显示器。例如,第一显示器190a和第二显示器190b可以位于单个主体的相对侧,与图36所示的配置类似,但没有铰链185,且两个显示器是活动的。该配置将会允许多显示设备100更加紧凑。此外,由于可以在第一显示器190a上的非决定性位置上做出用户操纵,以影响第二显示器190b上的操作,用户无需看到第一显示器190a以控制第二显示器190b。例如,第一显示器190a可以是不显示屏幕的触摸板,并接收可以修改第二显示器190b上的用户操纵的操作的用户操纵,如上所述。该配置会允许用户有效地执行第二显示器190b上的操作,而无需握持分离的第一显示器190a。
此外,多显示器190的显示器无需物理连接,而是可以通过通信模块110彼此无线通信,从而允许显示器定位的更大的灵活度。控制器130可以利用例如GPS模块115或地磁传感器152确定每个显示器的相对位置。这将允许一个显示器的用户执行相对于另一显示器的用户操纵。例如,用户可以沿第二显示器190b的方向执行第一显示器190a上的拖动操作,以在第二显示器190b上执行操作。
在多个显示器的情况下,一个显示器上的操纵能够影响多个其它显示器。例如如图48所示,与第二显示器190b和第三显示器190c无线通信(双箭头表示)的第一显示器190a的用户可以可以执行捕获第一显示器190a上显示的内容的动作(触摸并保持操作)。接下来,在第二显示器190b和第三显示器190c上的用户操纵(例如,利用输入笔200的双击)可以将内容插入每个相应显示器中作为备忘录2110(参见图48视图2)。
尽管示出和描述了本发明总体构思的一些实施例,然而本领域技术人员将理解,在不脱离由所附权利要求及其等价物限定范围的本发明总体构思的原理和精神的前提下,可以对这些实施例进行改变。
Claims (15)
1.一种多显示设备,包括:
第一主体,包括第一显示器;
第二主体,包括第二显示器;
铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;
传感器,被配置为感测在第一显示器上显示的非结构化第一屏幕的非决定性位置上做出的第一用户操纵,并感测在第二显示器上显示的非结构化第二屏幕的非决定性位置上做出的第二用户操纵;以及
控制器,被配置为将感测到的第一用户操纵和感测到的第二用户操纵进行组合,以执行与组合的结果相对应的操作。
2.根据权利要求1所述的多显示设备,其中
所述控制器根据第一用户操纵来改变与第二用户操纵匹配的功能;以及
当感测到第二用户操纵时,所述控制器根据改变后的功能来执行与第二用户操纵相对应的操作。
3.根据权利要求2所述的多显示设备,其中
第二用户操纵是拖动操作的线输入,
当第一用户操纵是分开输入时,所述控制器增大第二用户操纵的线输入的粗度或透明度;
当第一用户操纵是合拢输入时,所述控制器减小第二用户操纵的线输入的粗度或透明度;以及
当第一用户操纵是触摸并旋转输入时,所述控制器改变第二用户操纵的线输入的纹理或粗度。
4.根据权利要求1所述的多显示设备,其中
第一用户操纵是触摸并保持输入,第二用户操纵是触摸输入;以及
当同时感测到第一用户操纵和第二用户操纵时,所述控制器显示与第二用户操纵相对应的菜单。
5.根据权利要求1所述的多显示设备,其中
当感测到第一用户操纵时,所述控制器根据第一用户操纵来改变第二显示器上显示的第二屏幕;以及
当感测到第二用户操纵时,所述控制器根据第二用户操纵来显示由第一用户操纵改变的第二屏幕。
6.根据权利要求5所述的多显示设备,其中
当第一用户操纵是分开输入时,所述控制器扩大第二显示器上显示的第二屏幕;
当第一用户操纵是合拢输入时,所述控制器缩小第二显示器上显示的第二屏幕;以及
当第一用户操纵是触摸并旋转输入时,所述控制器旋转第二显示器上显示的第二屏幕。
7.一种多显示设备,包括:
第一主体,包括第一显示器;
第二主体,包括第二显示器;
铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;
传感器,被配置为在第一显示器和第二显示器分别显示非结构化第一屏幕和非结构化第二屏幕时,感测在第一显示器的非决定性位置上做出的第一用户操纵和在第二显示器的非决定性位置上做出的第二用户操纵;以及
控制器,被配置为将感测到的第一用户操纵和感测到的第二用户操纵进行组合,以将组合识别为一个用户手势,并在第一显示器和第二显示器中的至少一个上显示与所述一个用户手势相对应的执行屏幕。
8.根据权利要求7所述的多显示设备,其中第一用户操纵是使用用户身体接近或触摸第一显示器的输入,以及第二用户操纵是使用输入笔接近或触摸第二显示器的输入。
9.一种多显示设备的多显示方法,所述多显示设备包括:第一主体,包括第一显示器;第二主体,包括第二显示器;铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体;所述多显示方法包括:
在第一显示器上显示非结构化第一屏幕;
在第二显示器上显示非结构化第二屏幕;
感测在所述第一屏幕的非决定性位置上做出的第一用户操纵和在所述第二屏幕的非决定性位置上做出的第二用户操纵;并且
将感测到的第一用户操纵和感测到的第二用户操纵进行组合,并执行与组合的结果相对应的操作。
10.根据权利要求9所述的多显示方法,其中执行所述操作包括:
根据第一用户操纵来改变与第二用户操纵相匹配的功能;并且
当感测到第二用户操纵时,根据改变后的功能来执行与第二用户操纵相对应的操作。
11.根据权利要求10所述的多显示方法,其中
第二用户操纵是拖动操作的线输入;以及
改变所述功能包括:
当第一用户操纵是分开输入时,增大第二用户操纵的所述线输入的粗度;
当第一用户操纵是合拢输入时,减小第二用户操纵的所述线输入的粗度;并且
当第一用户操纵是触摸并旋转输入时,改变第二用户操纵的所述线输入的纹理。
12.根据权利要求9所述的多显示方法,
其中第一用户操纵是触摸并保持输入,第二用户操纵是触摸输入,以及
执行所述操作包括:
当同时感测到第一用户操纵和第二用户操纵时,显示与第二用户操纵相对应的菜单。
13.根据权利要求9所述的多显示方法,还包括:
当感测到第一用户操纵时,根据第一用户操纵来改变第二显示器上显示的第二屏幕,
其中执行所述操作包括:
当感测到第二用户操纵时,根据第二用户操纵来显示由第一用户操纵改变的第二屏幕。
14.根据权利要求13所述的多显示方法,其中改变第二屏幕包括:
当第一用户操纵是分开输入时,扩大第二显示器上显示的第二屏幕;
当第一用户操纵是合拢输入时,缩小第二显示器上显示的第二屏幕;并且
当第一用户操纵是触摸并旋转输入时,旋转第二显示器上显示的第二屏幕。
15.一种多显示设备的多显示方法,所述多显示设备包括:第一主体,包括第一显示器;第二主体,包括第二显示器;铰链,被配置为可旋转地连接第一主体和第二主体,以支撑第一主体和第二主体,所述多显示方法包括:
感测在第一显示器上显示的非结构化第一屏幕的非决定性位置上做出的第一用户操纵;
感测在第二显示器上显示的非结构化第二屏幕的非决定性位置上做出的第二用户操纵;
将感测到的第一用户操纵和第二用户操纵进行组合,以将组合识别为一个用户手势;并且
在第一显示器和第二显示器中的至少一个上显示与所述一个用户手势相对应的执行屏幕。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2012-0112638 | 2012-10-10 | ||
KR1020120112638A KR102063952B1 (ko) | 2012-10-10 | 2012-10-10 | 멀티 디스플레이 장치 및 멀티 디스플레이 방법 |
CN201310470324.7A CN103729160B (zh) | 2012-10-10 | 2013-10-10 | 多显示设备和多显示方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310470324.7A Division CN103729160B (zh) | 2012-10-10 | 2013-10-10 | 多显示设备和多显示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110221655A true CN110221655A (zh) | 2019-09-10 |
Family
ID=49513716
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910488926.2A Pending CN110221655A (zh) | 2012-10-10 | 2013-10-10 | 多显示设备和多显示方法 |
CN201310470324.7A Expired - Fee Related CN103729160B (zh) | 2012-10-10 | 2013-10-10 | 多显示设备和多显示方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310470324.7A Expired - Fee Related CN103729160B (zh) | 2012-10-10 | 2013-10-10 | 多显示设备和多显示方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US9696899B2 (zh) |
EP (1) | EP2720110A3 (zh) |
JP (1) | JP2014078234A (zh) |
KR (1) | KR102063952B1 (zh) |
CN (2) | CN110221655A (zh) |
TW (1) | TW201415295A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414047A (zh) * | 2020-03-05 | 2020-07-14 | 联想(北京)有限公司 | 一种触屏控制方法、电子设备及存储介质 |
CN114556281A (zh) * | 2019-10-01 | 2022-05-27 | 微软技术许可有限责任公司 | 用于跨越显示边界来移动对象的预测性手势优化 |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9202297B1 (en) * | 2011-07-12 | 2015-12-01 | Domo, Inc. | Dynamic expansion of data visualizations |
US9792017B1 (en) | 2011-07-12 | 2017-10-17 | Domo, Inc. | Automatic creation of drill paths |
KR101515629B1 (ko) | 2012-01-07 | 2015-04-27 | 삼성전자주식회사 | 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치 |
KR102063952B1 (ko) | 2012-10-10 | 2020-01-08 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 멀티 디스플레이 방법 |
US20150212647A1 (en) | 2012-10-10 | 2015-07-30 | Samsung Electronics Co., Ltd. | Head mounted display apparatus and method for displaying a content |
US20140191980A1 (en) * | 2013-01-04 | 2014-07-10 | Qualcomm Mems Technologies, Inc. | System for reuse of touch panel and controller by a secondary display |
CN105103110B (zh) | 2013-03-27 | 2018-07-27 | 日本电气株式会社 | 信息终端、显示控制方法和程序 |
KR102157270B1 (ko) * | 2013-04-26 | 2020-10-23 | 삼성전자주식회사 | 펜을 이용하는 사용자 단말 장치 및 그 제어 방법 |
JP6244655B2 (ja) * | 2013-05-16 | 2017-12-13 | ソニー株式会社 | 画像処理装置および画像処理方法 |
KR101801554B1 (ko) | 2013-07-11 | 2017-11-27 | 삼성전자주식회사 | 컨텐츠를 표시하는 사용자 단말 장치 및 그 방법 |
KR102022729B1 (ko) * | 2013-08-29 | 2019-09-19 | 매그나칩 반도체 유한회사 | 플립 커버형 디스플레이 단말 |
US9665206B1 (en) * | 2013-09-18 | 2017-05-30 | Apple Inc. | Dynamic user interface adaptable to multiple input tools |
TWI502474B (zh) * | 2013-11-28 | 2015-10-01 | Acer Inc | 使用者介面的操作方法與電子裝置 |
US9733807B2 (en) * | 2014-04-30 | 2017-08-15 | Cisco Technology, Inc. | Techniques to handle multimedia questions from attendees in an online meeting |
US10222824B2 (en) * | 2014-05-12 | 2019-03-05 | Intel Corporation | Dual display system |
WO2015179754A1 (en) * | 2014-05-22 | 2015-11-26 | Woundmatrix, Inc. | Systems, methods, and computer-readable media for touch-screen tracing input |
WO2015184284A1 (en) | 2014-05-29 | 2015-12-03 | Intergraph Corporation | Apparatus and method of displaying objects in configurable window groups |
KR20160005899A (ko) | 2014-07-08 | 2016-01-18 | 엘지전자 주식회사 | 디지털 이미지 처리 장치, 시스템 및 제어 방법 |
KR102172216B1 (ko) * | 2014-07-17 | 2020-10-30 | 삼성전자주식회사 | 전자 장치 |
KR101794872B1 (ko) * | 2014-09-28 | 2017-11-09 | 주식회사 가난한동지들 | 초과 펼쳐짐이 가능한 플렉시블 표시장치 |
KR102348947B1 (ko) | 2014-10-30 | 2022-01-11 | 삼성전자 주식회사 | 전자장치의 화면 표시 제어 방법 및 장치 |
KR102399589B1 (ko) * | 2014-11-05 | 2022-05-18 | 삼성전자주식회사 | 디바이스에 오브젝트를 디스플레이 하는 방법, 그 디바이스 및 기록매체 |
USD760738S1 (en) * | 2015-01-15 | 2016-07-05 | SkyBell Technologies, Inc. | Display screen or a portion thereof with a graphical user interface |
US11676518B2 (en) | 2015-04-29 | 2023-06-13 | Intel Corporation | Imaging for foldable displays |
TWI630472B (zh) | 2015-06-01 | 2018-07-21 | 仁寶電腦工業股份有限公司 | 可攜式電子裝置及其操作方法 |
KR20170008071A (ko) * | 2015-07-13 | 2017-01-23 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 동작 방법 |
DE102015011649A1 (de) * | 2015-09-11 | 2017-03-30 | Audi Ag | Bedienvorrichtung mit Zeicheneingabe und Löschfunktion |
KR102363605B1 (ko) | 2015-10-20 | 2022-02-17 | 오리온디스플레이 주식회사 | 다중 영상시스템의 개별영상기기 식별부호 설정방법 |
CN105259990A (zh) * | 2015-11-26 | 2016-01-20 | 上海斐讯数据通信技术有限公司 | 一种手持终端的背面显示装置及显示方法 |
WO2017111837A1 (en) | 2015-12-26 | 2017-06-29 | Intel Corporation | Bendable and foldable display screen to provide continuous display |
US10310668B2 (en) * | 2016-01-18 | 2019-06-04 | Coretronic Corporation | Touch screen display system and a method for controlling a touch screen display system |
KR102526860B1 (ko) * | 2016-03-18 | 2023-05-02 | 삼성전자주식회사 | 전자 장치 및 전자 장치 제어 방법 |
US10061427B2 (en) | 2016-03-24 | 2018-08-28 | Microsoft Technology Licensing, Llc | Selecting first digital input behavior based on a second input |
CN105867533B (zh) * | 2016-03-28 | 2020-06-23 | 联想(北京)有限公司 | 一种电子设备 |
CN107329602A (zh) | 2016-04-28 | 2017-11-07 | 珠海金山办公软件有限公司 | 一种触摸屏轨迹识别方法及装置 |
EP3493034A4 (en) * | 2016-07-27 | 2020-04-08 | Shenzhen Royole Technologies Co., Ltd. | DISPLAY INTERFACE CONTROL METHOD AND DEVICE FOR MALFUNCTION PREVENTION, AND TERMINAL |
AU2017100879B4 (en) * | 2016-07-29 | 2017-09-28 | Apple Inc. | Systems, devices, and methods for dynamically providing user interface controls at touch-sensitive secondary display |
JP2018031884A (ja) * | 2016-08-24 | 2018-03-01 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、画面表示方法、及びプログラム |
KR102636648B1 (ko) | 2016-09-13 | 2024-02-15 | 삼성전자주식회사 | 플렉서블 디스플레이 전자 장치 |
US11073980B2 (en) | 2016-09-29 | 2021-07-27 | Microsoft Technology Licensing, Llc | User interfaces for bi-manual control |
KR102568386B1 (ko) * | 2016-09-30 | 2023-08-21 | 삼성디스플레이 주식회사 | 터치 센서를 포함하는 표시 장치 |
US10650727B2 (en) * | 2016-10-04 | 2020-05-12 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device, display device, and electronic device |
KR102529828B1 (ko) * | 2016-10-31 | 2023-05-08 | 엘지디스플레이 주식회사 | 표시장치 및 다면 표시장치 |
CN206894705U (zh) * | 2017-04-14 | 2018-01-16 | 中兴通讯股份有限公司 | 一种双屏终端 |
US10788934B2 (en) | 2017-05-14 | 2020-09-29 | Microsoft Technology Licensing, Llc | Input adjustment |
US20180329521A1 (en) * | 2017-05-15 | 2018-11-15 | Microsoft Technology Licensing, Llc | Application program mode based on device orientation |
CN107368274A (zh) * | 2017-07-20 | 2017-11-21 | 三星半导体(中国)研究开发有限公司 | 移动终端及其显示控制方法 |
US11093197B2 (en) * | 2017-07-31 | 2021-08-17 | Stmicroelectronics, Inc. | System and method to increase display area utilizing a plurality of discrete displays |
US11079995B1 (en) | 2017-09-30 | 2021-08-03 | Apple Inc. | User interfaces for devices with multiple displays |
US10712840B2 (en) * | 2017-10-13 | 2020-07-14 | Dell Products L.P. | Active pen system |
JP6973025B2 (ja) * | 2017-12-20 | 2021-11-24 | コニカミノルタ株式会社 | 表示装置、画像処理装置及びプログラム |
CN110058784B (zh) | 2018-01-18 | 2020-08-04 | 杭州海康威视系统技术有限公司 | 存储数据的方法和装置 |
CN115733910A (zh) | 2018-03-19 | 2023-03-03 | 华为技术有限公司 | 电子设备 |
CN110505510B (zh) * | 2018-05-16 | 2020-10-09 | 杭州海康威视系统技术有限公司 | 大屏系统中的视频画面显示方法、装置及存储介质 |
US11422765B2 (en) | 2018-07-10 | 2022-08-23 | Apple Inc. | Cross device interactions |
CN109471688B (zh) * | 2018-09-29 | 2021-10-12 | 努比亚技术有限公司 | 一种显示控制方法、双屏终端及计算机可读存储介质 |
CN109669655A (zh) * | 2018-12-25 | 2019-04-23 | 杭州达现科技有限公司 | 一种基于多用户的目录交换方法和装置 |
JP6778735B2 (ja) * | 2018-12-26 | 2020-11-04 | 本田技研工業株式会社 | 表示装置、表示方法、およびプログラム |
US10649713B1 (en) * | 2019-01-11 | 2020-05-12 | Dell Products L.P. | Calibrating multiple displays of a computing device to have a similar perceived appearance |
JP7132859B2 (ja) * | 2019-01-21 | 2022-09-07 | 株式会社Nttドコモ | 表示装置 |
WO2020171287A1 (ko) | 2019-02-19 | 2020-08-27 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기를 구비한 전자장치 |
JP7146951B2 (ja) * | 2019-02-19 | 2022-10-04 | エルジー エレクトロニクス インコーポレイティド | 移動端末機および移動端末機を備える電子機器 |
CN110996034A (zh) * | 2019-04-25 | 2020-04-10 | 华为技术有限公司 | 一种应用控制方法及电子装置 |
CN110519446A (zh) * | 2019-07-30 | 2019-11-29 | 宇龙计算机通信科技(深圳)有限公司 | 移动终端屏幕切换方法、装置及移动终端 |
KR20210045891A (ko) * | 2019-10-17 | 2021-04-27 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 화면 캡쳐 운용 방법 |
CN112835493B (zh) * | 2019-11-22 | 2022-07-22 | 华为技术有限公司 | 截屏显示方法、装置和终端设备 |
KR20210117540A (ko) * | 2020-03-19 | 2021-09-29 | 삼성전자주식회사 | 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법 및 저장 매체 |
US11385734B2 (en) | 2020-06-23 | 2022-07-12 | Microsoft Technology Licensing, Llc | Multi-panel display device |
TWI778732B (zh) * | 2020-09-04 | 2022-09-21 | 瑞鼎科技股份有限公司 | 多屏顯示裝置 |
US11554323B2 (en) * | 2020-09-11 | 2023-01-17 | Riot Games, Inc. | System and method for precise positioning with touchscreen gestures |
JP2022065419A (ja) * | 2020-10-15 | 2022-04-27 | セイコーエプソン株式会社 | 表示方法、及び表示装置 |
US20220155948A1 (en) * | 2020-11-13 | 2022-05-19 | Adobe Inc. | Offset touch screen editing |
JPWO2022118151A1 (zh) * | 2020-12-06 | 2022-06-09 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110090155A1 (en) * | 2009-10-15 | 2011-04-21 | Qualcomm Incorporated | Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input |
CN102147679A (zh) * | 2010-02-25 | 2011-08-10 | 微软公司 | 多屏幕保持并拖动手势 |
CN102221974A (zh) * | 2010-06-22 | 2011-10-19 | 微软公司 | 指示笔设置 |
CN102292693A (zh) * | 2009-01-21 | 2011-12-21 | 微软公司 | 双模多屏交互性 |
US20120105363A1 (en) * | 2010-10-01 | 2012-05-03 | Imerj LLC | Method and system for viewing stacked screen displays using gestures |
Family Cites Families (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2796768B2 (ja) | 1992-11-20 | 1998-09-10 | 株式会社ピーエフユー | マルチディスプレイ装置 |
US5522025A (en) | 1993-10-25 | 1996-05-28 | Taligent, Inc. | Object-oriented window area display system |
CA2139094C (en) | 1994-12-23 | 1999-04-13 | Abdel Naser Al-Karmi | Optical character recognition of handwritten or cursive text |
JP3462986B2 (ja) | 1998-08-31 | 2003-11-05 | 株式会社日立製作所 | カメラ付きペン型入力装置 |
US6545669B1 (en) | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
JP2001021972A (ja) | 1999-07-07 | 2001-01-26 | Minolta Co Ltd | ペンシル型のデジタルスチルカメラ |
JP2001209470A (ja) | 2000-01-26 | 2001-08-03 | Fujitsu Ltd | 表示インターフェイス方法及び装置並びにプログラム記憶媒体 |
US7120317B1 (en) | 2001-03-01 | 2006-10-10 | Silicon Motion, Inc. | Method and system for a programmable image transformation |
JP2002281135A (ja) | 2001-03-21 | 2002-09-27 | Nec Viewtechnology Ltd | 携帯電話 |
US7929185B2 (en) | 2002-03-25 | 2011-04-19 | Transpacific Systems, Llc | System and method for switching screens from overview and preview |
US6904737B2 (en) | 2002-08-01 | 2005-06-14 | General Mills, Inc. | Dispensing apparatus and method of dispensing |
KR20040035019A (ko) | 2002-10-18 | 2004-04-29 | 엘지전자 주식회사 | 휴대용 컴퓨터의 스피커 시스템 및 스피커 구동방법 |
KR20040091272A (ko) | 2003-04-21 | 2004-10-28 | 홍충식 | 더블 폴더 휴대폰 |
US9229474B2 (en) | 2010-10-01 | 2016-01-05 | Z124 | Window stack modification in response to orientation change |
US9182937B2 (en) * | 2010-10-01 | 2015-11-10 | Z124 | Desktop reveal by moving a logical display stack with gestures |
KR20040104777A (ko) | 2003-06-04 | 2004-12-13 | 주식회사 팬택앤큐리텔 | 듀얼 카메라 장착 단말기 |
KR100557074B1 (ko) * | 2003-08-08 | 2006-03-03 | 삼성전자주식회사 | 휴대 단말기의 화면 표시 장치 및 방법 |
KR20050068127A (ko) | 2003-12-29 | 2005-07-05 | 엘지전자 주식회사 | 입체사진 촬영이 가능한 휴대용 단말기 |
KR100959796B1 (ko) | 2004-01-31 | 2010-05-28 | 엘지전자 주식회사 | 부분 윈도우 화면 표시방법 |
JP3738358B2 (ja) | 2004-04-20 | 2006-01-25 | カシオ計算機株式会社 | ウィンドウ表示制御装置 |
EP1758019A4 (en) | 2004-05-06 | 2010-06-23 | Takatoshi Yanase | WINDOW DISPLAY SYSTEM, WINDOW DISPLAY METHOD, PROGRAM DEVELOPMENT SUPPORT DEVICE, AND SERVER DEVICE |
JP4177434B2 (ja) | 2004-05-06 | 2008-11-05 | 隆敏 柳瀬 | ウィンドウ表示システム、情報処理システム、クライアント装置、電話機、情報機器、家電機器及び機器 |
KR20050109190A (ko) | 2004-05-14 | 2005-11-17 | 주식회사 팬택 | 듀얼 카메라를 이용한 와이드 이미지 생성 장치 및 방법 |
JP2006030379A (ja) | 2004-07-13 | 2006-02-02 | Toshiba Corp | マルチディスプレイシステム及びコンピュータ |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7561737B2 (en) | 2004-09-22 | 2009-07-14 | Microsoft Corporation | Mathematical expression recognition |
KR100606797B1 (ko) | 2004-11-12 | 2006-08-02 | 엘지전자 주식회사 | 듀얼 카메라를 갖는 이동통신 단말기 |
KR101094769B1 (ko) | 2004-12-21 | 2011-12-16 | 엘지전자 주식회사 | 듀얼 카메라를 구비한 이동통신 단말기의 파노라마 영상표시 방법 |
WO2006086508A2 (en) | 2005-02-08 | 2006-08-17 | Oblong Industries, Inc. | System and method for genture based control system |
KR20060092621A (ko) | 2005-02-18 | 2006-08-23 | 최기훈 | 듀얼액정이 구비되는 전자책 단말기 |
KR20070014586A (ko) | 2005-07-29 | 2007-02-01 | 삼성전자주식회사 | Pip 표시 제어방법 |
KR100653965B1 (ko) | 2005-08-01 | 2006-12-05 | 심재용 | 휴대용 단말기의 서로 다른 카메라를 이용한 3차원입체영상 처리 장치 |
KR100773853B1 (ko) | 2005-08-22 | 2007-11-06 | 캐논 가부시끼가이샤 | 오브젝트 조작 장치 및 오브젝트 조작방법 |
KR100742588B1 (ko) | 2005-11-14 | 2007-07-25 | 주식회사 디엔피시스템 | 듀얼 모니터의 모니터간 데이터 공유 방법 |
US20070220108A1 (en) | 2006-03-15 | 2007-09-20 | Whitaker Jerry M | Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web |
US8587526B2 (en) | 2006-04-12 | 2013-11-19 | N-Trig Ltd. | Gesture recognition feedback for a dual mode digitizer |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
JP2008033686A (ja) | 2006-07-28 | 2008-02-14 | Fujitsu Frontech Ltd | 電子ブック |
US20080148165A1 (en) * | 2006-11-22 | 2008-06-19 | Sony Computer Entertainment America Inc. | System and method of providing assistance over a network |
US8516393B2 (en) | 2006-12-18 | 2013-08-20 | Robert Pedersen, II | Apparatus, system, and method for presenting images in a multiple display environment |
KR100803504B1 (ko) | 2007-01-16 | 2008-02-14 | (주)케이티에프테크놀로지스 | 듀얼 카메라를 구비한 휴대용 단말기 |
CN101286310A (zh) | 2007-04-13 | 2008-10-15 | 群康科技(深圳)有限公司 | 显示器屏幕显示控制系统及其操作方法 |
KR100936816B1 (ko) | 2007-05-26 | 2010-01-14 | 이문기 | 카메라와 마크 출력에의한 포인팅 장치 |
KR20080113832A (ko) | 2007-06-26 | 2008-12-31 | (주)이에스비 | 액정표시장치상의 특정 패턴을 촬영하는 카메라를 내장하여위치를 판독하는 전자펜과 이를 이용한 전자칠판 |
JP5130296B2 (ja) | 2007-08-29 | 2013-01-30 | 京セラ株式会社 | 電子機器および入力インターフェース切替方法 |
US8600816B2 (en) * | 2007-09-19 | 2013-12-03 | T1visions, Inc. | Multimedia, multiuser system and associated methods |
KR20090065040A (ko) | 2007-12-17 | 2009-06-22 | 삼성전자주식회사 | 동작과 터치를 이용한 이중 포인팅 장치 및 방법 |
KR100942783B1 (ko) | 2008-02-27 | 2010-02-18 | 웹싱크 주식회사 | 통합 프레임 버퍼를 사용하는 디지털 멀티비전 시스템 |
EP3130983B1 (en) * | 2008-07-15 | 2018-11-14 | Immersion Corporation | Systems and methods for shifting haptic feedback function between passive and active modes |
KR101592296B1 (ko) * | 2008-09-03 | 2016-02-05 | 엘지전자 주식회사 | 이동 단말기 및 그의 객체 선택과 실행 방법 |
US8860632B2 (en) | 2008-09-08 | 2014-10-14 | Qualcomm Incorporated | Multi-panel device with configurable interface |
US8860765B2 (en) | 2008-09-08 | 2014-10-14 | Qualcomm Incorporated | Mobile device with an inclinometer |
US9009984B2 (en) | 2008-09-08 | 2015-04-21 | Qualcomm Incorporated | Multi-panel electronic device |
US8803816B2 (en) | 2008-09-08 | 2014-08-12 | Qualcomm Incorporated | Multi-fold mobile device with configurable interface |
US8836611B2 (en) | 2008-09-08 | 2014-09-16 | Qualcomm Incorporated | Multi-panel device with configurable interface |
US8933874B2 (en) | 2008-09-08 | 2015-01-13 | Patrik N. Lundqvist | Multi-panel electronic device |
US8866840B2 (en) | 2008-09-08 | 2014-10-21 | Qualcomm Incorporated | Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server |
US20100073306A1 (en) | 2008-09-25 | 2010-03-25 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | Dual-view touchscreen display system and method of operation |
US8957835B2 (en) | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
KR101021857B1 (ko) | 2008-12-30 | 2011-03-17 | 삼성전자주식회사 | 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법 |
KR101569776B1 (ko) | 2009-01-09 | 2015-11-19 | 삼성전자주식회사 | 접히는 표시부를 가지는 휴대 단말기 및 이의 운용 방법 |
KR101544364B1 (ko) | 2009-01-23 | 2015-08-17 | 삼성전자주식회사 | 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법 |
KR101564108B1 (ko) | 2009-03-20 | 2015-10-28 | 엘지전자 주식회사 | 듀얼 디스플레이부를 구비한 이동 통신 단말기에서의 아이템 제어 방법 및 이를 적용한 이동 통신 단말기 |
US8446377B2 (en) | 2009-03-24 | 2013-05-21 | Microsoft Corporation | Dual screen portable touch sensitive computing system |
US20100251112A1 (en) * | 2009-03-24 | 2010-09-30 | Microsoft Corporation | Bimodal touch sensitive digital notebook |
KR101510484B1 (ko) * | 2009-03-31 | 2015-04-08 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
JP5229083B2 (ja) * | 2009-04-14 | 2013-07-03 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR20100115547A (ko) | 2009-04-20 | 2010-10-28 | 에스케이 텔레콤주식회사 | 컨텐츠 주밍 방법과 그를 위한 터치 스크린 단말기 및 컴퓨터로 읽을 수 있는 기록매체 |
JP5256109B2 (ja) | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
KR101556329B1 (ko) | 2009-05-11 | 2015-10-01 | 에스케이텔레콤 주식회사 | 단말기에서의 모드별 다중 스피커 제어 방법 및 그 장치 |
KR101578005B1 (ko) | 2009-06-10 | 2015-12-16 | 엘지전자 주식회사 | 이동 단말기 및 이것에 구비된 카메라를 이용한 사용자 동작 입력 방법 |
JP5212310B2 (ja) | 2009-08-17 | 2013-06-19 | 株式会社リコー | ネットワークシステム、サーバ装置、及びグループウェアプログラム |
JP5518868B2 (ja) | 2009-09-03 | 2014-06-11 | クゥアルコム・インコーポレイテッド | インクリノメータをもつモバイルデバイス |
KR20130079563A (ko) | 2009-09-03 | 2013-07-10 | 퀄컴 인코포레이티드 | 그래픽 사용자 인터페이스 엘리먼트의 위치 및 방향을 표시하는 방법 |
US8681124B2 (en) | 2009-09-22 | 2014-03-25 | Microsoft Corporation | Method and system for recognition of user gesture interaction with passive surface video displays |
US20110102314A1 (en) | 2009-10-30 | 2011-05-05 | Xerox Corporation | Dual-screen electronic reader with tilt detection for page navigation |
KR101710545B1 (ko) | 2009-11-05 | 2017-02-27 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 정보 제공 방법 |
JP5898842B2 (ja) * | 2010-01-14 | 2016-04-06 | 任天堂株式会社 | 携帯型情報処理装置、携帯型ゲーム装置 |
US8261213B2 (en) * | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
US8724301B2 (en) | 2010-01-29 | 2014-05-13 | Mohamed K. Mahmoud | Laptop book |
US20110191704A1 (en) | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Contextual multiplexing gestures |
US8751970B2 (en) * | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US8707174B2 (en) * | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
US9075522B2 (en) * | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US8539384B2 (en) * | 2010-02-25 | 2013-09-17 | Microsoft Corporation | Multi-screen pinch and expand gestures |
US9454304B2 (en) | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
JP2011221229A (ja) | 2010-04-08 | 2011-11-04 | Sharp Corp | 表示システム、表示方法、およびディスプレイ |
KR101196253B1 (ko) | 2010-04-20 | 2012-11-05 | 주식회사 유니온앤이씨 | 기업 정보 관리를 위한 가상 컨텐츠 공급 장치 및 방법 |
JP5138833B2 (ja) * | 2010-06-08 | 2013-02-06 | パナソニック株式会社 | 映像生成装置、方法及び集積回路 |
US9009594B2 (en) | 2010-06-10 | 2015-04-14 | Microsoft Technology Licensing, Llc | Content gestures |
KR101686866B1 (ko) | 2010-06-30 | 2016-12-15 | 엘지전자 주식회사 | 이동 단말기 |
KR101701839B1 (ko) | 2010-07-13 | 2017-02-02 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR101718027B1 (ko) | 2010-09-09 | 2017-03-20 | 엘지전자 주식회사 | 이동 단말기 및 그의 메모 관리방법 |
US9405444B2 (en) * | 2010-10-01 | 2016-08-02 | Z124 | User interface with independent drawer control |
KR101798965B1 (ko) | 2010-10-14 | 2017-11-17 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
US20120154295A1 (en) * | 2010-12-17 | 2012-06-21 | Microsoft Corporation | Cooperative use of plural input mechanisms to convey gestures |
KR20120091975A (ko) | 2011-02-10 | 2012-08-20 | 삼성전자주식회사 | 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법 |
KR101229699B1 (ko) | 2011-05-12 | 2013-02-05 | 주식회사 케이티 | 애플리케이션 간의 콘텐츠 이동 방법 및 이를 실행하는 장치 |
KR101802760B1 (ko) * | 2011-06-27 | 2017-12-28 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US8810533B2 (en) * | 2011-07-20 | 2014-08-19 | Z124 | Systems and methods for receiving gesture inputs spanning multiple input devices |
US9075561B2 (en) * | 2011-07-29 | 2015-07-07 | Apple Inc. | Systems, methods, and computer-readable media for managing collaboration on a virtual work of art |
TWI498778B (zh) * | 2012-03-19 | 2015-09-01 | Wistron Corp | 校正不同觸控系統的方法 |
KR102164453B1 (ko) | 2012-04-07 | 2020-10-13 | 삼성전자주식회사 | 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체 |
US8842088B2 (en) * | 2012-07-27 | 2014-09-23 | Apple Inc. | Touch gesture with visible point of interaction on a touch screen |
KR102063952B1 (ko) | 2012-10-10 | 2020-01-08 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 멀티 디스플레이 방법 |
US10137361B2 (en) | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US10108256B2 (en) | 2014-10-30 | 2018-10-23 | Mediatek Inc. | Systems and methods for processing incoming events while performing a virtual reality session |
-
2012
- 2012-10-10 KR KR1020120112638A patent/KR102063952B1/ko active IP Right Grant
-
2013
- 2013-10-09 TW TW102136435A patent/TW201415295A/zh unknown
- 2013-10-09 JP JP2013212346A patent/JP2014078234A/ja active Pending
- 2013-10-10 CN CN201910488926.2A patent/CN110221655A/zh active Pending
- 2013-10-10 EP EP13188166.6A patent/EP2720110A3/en not_active Withdrawn
- 2013-10-10 CN CN201310470324.7A patent/CN103729160B/zh not_active Expired - Fee Related
- 2013-10-10 US US14/050,936 patent/US9696899B2/en active Active
-
2014
- 2014-02-28 US US14/193,398 patent/US20140181700A1/en not_active Abandoned
-
2017
- 2017-06-14 US US15/622,782 patent/US20170285906A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102292693A (zh) * | 2009-01-21 | 2011-12-21 | 微软公司 | 双模多屏交互性 |
US20110090155A1 (en) * | 2009-10-15 | 2011-04-21 | Qualcomm Incorporated | Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input |
CN102147679A (zh) * | 2010-02-25 | 2011-08-10 | 微软公司 | 多屏幕保持并拖动手势 |
CN102221974A (zh) * | 2010-06-22 | 2011-10-19 | 微软公司 | 指示笔设置 |
US20120105363A1 (en) * | 2010-10-01 | 2012-05-03 | Imerj LLC | Method and system for viewing stacked screen displays using gestures |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114556281A (zh) * | 2019-10-01 | 2022-05-27 | 微软技术许可有限责任公司 | 用于跨越显示边界来移动对象的预测性手势优化 |
CN111414047A (zh) * | 2020-03-05 | 2020-07-14 | 联想(北京)有限公司 | 一种触屏控制方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20140101579A1 (en) | 2014-04-10 |
US9696899B2 (en) | 2017-07-04 |
KR102063952B1 (ko) | 2020-01-08 |
KR20140046319A (ko) | 2014-04-18 |
TW201415295A (zh) | 2014-04-16 |
JP2014078234A (ja) | 2014-05-01 |
US20170285906A1 (en) | 2017-10-05 |
CN103729160A (zh) | 2014-04-16 |
US20140181700A1 (en) | 2014-06-26 |
EP2720110A2 (en) | 2014-04-16 |
CN103729160B (zh) | 2019-06-28 |
EP2720110A3 (en) | 2017-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103729160B (zh) | 多显示设备和多显示方法 | |
US11360728B2 (en) | Head mounted display apparatus and method for displaying a content | |
CN103729055B (zh) | 多显示设备、输入笔、多显示控制方法和多显示系统 | |
US11340759B2 (en) | User terminal device with pen and controlling method thereof | |
CN103729157B (zh) | 多显示设备及其控制方法 | |
CN103729108B (zh) | 多显示设备及其提供工具的方法 | |
CN104049744B (zh) | 用于操作具有盖子的电子装置的方法和设备 | |
US10387014B2 (en) | Mobile terminal for controlling icons displayed on touch screen and method therefor | |
CN103729158B (zh) | 多显示设备及其控制显示的方法 | |
KR101984683B1 (ko) | 멀티 디스플레이 장치 및 그 제어 방법 | |
CN103731602A (zh) | 多显示设备及其拍摄方法 | |
US20140327634A1 (en) | Portable terminal and method for protecting a displayed object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190910 |
|
WD01 | Invention patent application deemed withdrawn after publication |