CN104750244B - 显示控制设备、显示控制系统、显示控制方法以及程序 - Google Patents
显示控制设备、显示控制系统、显示控制方法以及程序 Download PDFInfo
- Publication number
- CN104750244B CN104750244B CN201410799456.9A CN201410799456A CN104750244B CN 104750244 B CN104750244 B CN 104750244B CN 201410799456 A CN201410799456 A CN 201410799456A CN 104750244 B CN104750244 B CN 104750244B
- Authority
- CN
- China
- Prior art keywords
- panel
- user
- display
- unit
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/02—Composition of display devices
- G09G2300/026—Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明披露了一种显示控制设备,包括:屏面控制单元,配置为生成一些包括内容的对象、生成其中所述对象沿横向方向连续排列的屏面、以及控制所述屏面;以及用户信息获取单元,配置为获取用户信息,该用户信息包括用户相对于所述屏面的位置信息。所述屏面控制单元基于所述用户信息获取单元所获取的用户信息控制所述屏面。
Description
交叉引用
本申请要求于2013年12月27日提交的日本优先权专利申请JP2013-273225的利益,该申请通过引用合并在本申请中。
技术领域
本公开涉及显示控制设备、显示控制系统、显示控制方法以及程序。
背景技术
近年来,能够通过触屏执行输入操作的显示设备,诸如平板终端,已经越来越广泛。具有触屏的显示设备能够提供一种视觉上易于理解的操作方法并且可以配备有较大屏面而无需诸如键盘的输入设备,并且因此预计在未来更盛行。
在这种显示设备中,为了改善用户的可操作性和可视性,进行一种使用传感器检测用户的状态以及优化屏面控制的操作。
例如,JP 2009-251303A披露了一种当在平板终端中显示多个对象时使用传感器检测用户的视线以及基于所检测的用户的视线来控制要显示的对象的位置的技术。
发明内容
不过,当显示设备配备有大屏面并且例如安装在墙壁、地板、桌子等上时,用户和显示设备之间的位置关系是不固定的。因此,显示设备根据用户而在不同角度和位置上使用。因此,在JP 2009-251303A中披露的基于用户的视线控制对象的显示位置的技术中,当显示设备配备有大屏面时,很难改善用户的可操作性和可视性。
理想的是提供一种新颖而改善的显示控制设备、显示控制系统、显示控制方法以及程序,其能够执行用于大屏面的屏面生成和控制。
根据本公开的实施例,提供了一种显示控制设备,其包括:屏面控制单元,配置为生成一些包括内容的对象、生成其中所述对象沿横向方向连续排列的屏面、以及控制所述屏面;以及用户信息获取单元,配置为获取用户信息,该用户信息包括用户相对于所述屏面的位置信息。所述屏面控制单元基于所述用户信息获取单元所获取的用户信息控制所述屏面。
根据本公开的另一个实施例,提供了一种显示控制方法,包括通过运算处理设备:生成一些包括内容的对象以及生成其中对象沿横向方向连续排列的屏面;获取用户相对于屏面的位置信息;以及基于所获取的用户信息控制所生成的屏面。
根据本公开还有另一个实施例,提供了一种程序,使得计算机起作用为:屏面控制单元,配置为生成一些包括内容的对象、生成其中所述对象沿横向方向连续排列的屏面、以及控制所述屏面;以及用户信息获取单元,配置为获取用户信息,该用户信息包括用户相对于所述屏面的位置信息。所述屏面控制单元基于所述用户信息获取单元所获取的用户信息控制所生成屏面。
根据本公开还有另一个实施例,提供了一种显示控制系统,包括:多个显示单元;位置获取单元,配置为获取所述多个显示单元的位置关系;以及屏面控制单元,配置为基于所述位置关系生成显示在所述多个显示单元上的屏面作为一些彼此关联的屏面。
根据本公开还有另一个实施例,提供了一种种显示控制方法,包括:获取多个显示单元的位置关系;以及通过运算处理设备基于所述位置关系生成显示在所述多个显示单元上的屏面作为相互相关联的屏面,并且控制所生成的屏面。
根据本公开还有另一个实施例,提供了一种程序,使得计算机起作用为:多个显示单元;位置获取单元,配置获取多个显示单元的位置关系;以及屏面控制单元,配置为基于所述位置关系生成显示在所述多个显示单元上的屏面作为相互相关联的屏面。
根据本公开的实施例,由于能够基于屏面和用户之间的位置关系或显示单元之间的位置关系执行屏面生成和控制,因此能够执行适用于大屏面的屏面生成和控制。
根据本公开的一个或多个实施例,能够执行适用于大屏面的屏面生成和控制。
附图说明
图1A是图释根据本公开的实施例的显示控制设备的示例性外部的解释图;
图1B是图释根据本公开的实施例的显示控制设备的另一个示例性外部的解释图;
图1C是图释根据本公开的实施例的显示控制设备的另一个示例性外部的解释图;
图2是图释根据本公开的第一实施例的显示控制设备的内部配置的框图;
图3A是描述由根据第一实施例的显示控制设备所执行的第一屏面控制实例的解释图;
图3B是描述由根据第一实施例的显示控制设备所执行的第一屏面控制实例的解释图;
图4是图释由根据第一实施例的显示控制设备所执行的第一屏面控制实例的流程图;
图5是描述由根据第一实施例的显示控制设备所执行的第二屏面控制实例的解释图;
图6是描述由根据第一实施例的显示控制设备所执行的第二屏面控制实例的解释图;
图7是图释由根据第一实施例的显示控制设备所执行的第二屏面控制实例的流程图;
图8是描述由根据第一实施例的显示控制设备所执行的第三屏面控制实例的解释图;
图9A是描述由根据第一实施例的显示控制设备所执行的第三屏面控制实例的另一个例子的解释图;
图9B是描述由根据第一实施例的显示控制设备所执行的第三屏面控制实例的另一个例子的解释图;
图10是图释由根据第一实施例的显示控制设备所执行的第三屏面控制实例的流程图;
图11A是描述由根据第一实施例的显示控制设备所执行的第四屏面控制实例的解释图;
图11B是描述由根据第一实施例的显示控制设备所执行的第四屏面控制实例的解释图;
图12是图释由根据第一实施例的显示控制设备所执行的第四屏面控制实例的流程图;
图13是描述由根据第一实施例的显示控制设备所执行的第五屏面控制实例的解释图;
图14是描述由根据第一实施例的显示控制设备所执行的第五屏面控制实例的解释图;
图15A是描述在每个用户与屏面的部分范围相关联时由根据同一实施例的显示控制设备所执行的第五屏面控制实例的解释图;
图15B是描述在每个用户与屏面的部分范围相关联时由根据同一实施例的显示控制设备所执行的第五屏面控制实例的解释图;
图16是图释由根据第一实施例的显示控制设备所执行的第五屏面控制实例的流程图;
图17是描述由根据第一实施例的显示控制设备所执行的第六屏面控制实例的解释图;
图18是图释由根据第一实施例的显示控制设备所执行的第六屏面控制实例的流程图;
图19是描述由根据第一实施例的显示控制设备所执行的第七屏面控制实例的解释图;
图20是图释由根据第一实施例的显示控制设备所执行的第七屏面控制实例的流程图;
图21是描述由根据第一实施例的显示控制设备所执行的第八屏面控制实例的解释图;
图22是图释由根据第一实施例的显示控制设备所执行的第八屏面控制实例的流程图;
图23是图释根据本公开的第二实施例的显示控制系统的内部配置的框图;
图24A是用于描述由根据第二实施例的显示控制系统所执行的第一屏面控制实例的解释图;
图24B是用于描述由根据第二实施例的显示控制系统所执行的第一屏面控制实例的解释图;
图24C是用于描述由根据第二实施例的显示控制系统所执行的第一屏面控制实例的解释图;
图25是由根据第二实施例的显示控制系统所执行的第一屏面控制实例的时序图;
图26A是用于描述由根据第二实施例的显示控制系统所执行的第二屏面控制实例的解释图;
图26B是图26A中的点划线所指示的部分的放大图;
图27A-27C是用于描述由根据第二实施例的显示控制系统所执行的第三屏面控制实例的解释图;
图28A是用于图释由根据第二实施例的显示控制系统所执行的第三屏面控制实例中另一个示例屏面的解释图;
图28B是用于图释由根据第二实施例的显示控制系统所执行的第三屏面控制实例中另一个示例屏面的解释图;
图29是用于描述根据本公开的实施例的显示控制设备的硬件配置的解释图。
具体实施方式
下面将参照附图描述本公开的优选实施例。需要注意的是,在本说明书中和附图中,具有基本上相同功能和结构的结构元件采用相同参考标记来指代,并省略对这些结构元件的重复性解释。
描述将以如下顺序进行。
1.根据本公开的实施例的显示控制设备的示例性外部
2.第一实施例
2.1.显示控制设备的配置
2.2.显示控制设备的屏面控制实例
2.2.1.第一屏面控制实例
2.2.2.第二屏面控制实例
2.2.3.第三屏面控制实例
2.2.4.第四屏面控制实例
2.2.5.第五屏面控制实例
2.2.6.第六屏面控制实例
2.2.7.第七屏面控制实例
2.2.8.第八屏面控制实例
3.第二实施例
3.1.显示控制系统的配置
3.2.显示控制系统的示例性屏面控制
3.2.1.第一屏面控制实例
3.2.2.第二屏面控制实例
3.2.3.第三屏面控制实例
4.根据本公开的实施例的显示控制设备的示例性硬件配置
<1.根据本公开的实施例的显示控制设备的示例性外部>
首先,将参照图1A-1C描述根据本公开的实施例的显示控制设备的示例性外部。图1A-1C是图释根据本公开的实施例的显示控制设备的示例性外部的解释图。
如图1A-1C所示,根据本公开的实施例的显示控制设备1A-1C包括多个显示单元3。在此,显示控制设备1A-1C内在地控制将在多个显示单元3上显示的屏面,使得包括多个显示单元3的区域起到单个显示设备的作用。
具体而言,如图1A所示,显示控制设备1A可以是一种显示设备,其中多个显示单元3沿着横向方向等间隔地连续排列成一条线并且由边框集成在一起。在此,显示控制设备1A控制由多个显示单元3所显示的屏面,使得由图1A中的点划线所包围的区域30A起到一个显示屏面的作用。而且,在显示控制设备1A中的区域30A可以是一种诸如触屏的输入设备,其中可以通过在包括不包括在显示单元3内的所述边框部分的整个区域内的接触而执行位置输入。例如,显示控制设备1A可以固定在墙上或安装在地板、桌面等上并被使用。
图1A中的显示控制设备1A具有其中多个显示单元3沿着横向方向等间隔地连续排列成一条线的配置,但是本公开并不限于该实例。例如,在显示控制设备1A中,多个显示单元3沿着横向方向连续排列成多行或者可以排列成二维(2D)矩阵形式。
而且,显示控制设备1B可以是一种显示设备,其中多个显示单元3排列成任意阵列并且如图1B所示那样由边框集成在一起。在此,显示控制设备1B控制多个显示单元3所显示的屏面,使得由图1B中的点划线所包围的区域30B起到一个显示屏面的作用。与图1A类似,显示控制设备1B中的区域30B可以是一种诸如触屏的输入设备,其中可以通过在整个区域内的接触而执行位置输入。与图1A的显示控制设备1A类似,例如,显示控制设备1B以固定在墙上或安装在地板、桌面等上并被使用。
而且,显示控制设备1C可以是一种显示设备,其中多个显示单元3例如如图1C所示安装在一个房间的墙上或地板上。在此,显示控制设备1C控制多个显示单元3所显示的屏面,使得房间的墙壁、地板以及天花板起到一个显示屏的作用。多个显示单元3的每一个都可以是诸如触屏的显示输入设备。除了图1C所示的位置,显示单元可以例如安装在天花板、桌面等位置
<2.第一实施例>
此后,将参照图2-23描述根据本公开的第一实施例的显示控制设备100。首先,将描述包括背景的根据本公开的第一实施例的显示控制设备100的概述。
根据本公开的第一实施例的显示控制设备100是一种信息处理设备,其能够生成其中对象沿着横向方向连续排列的屏面并且能够基于包括用户相对于所生成的屏面的位置信息的用户信息控制所述屏面。具体而言,根据本公开的第一实施例的显示控制设备100是一种包括如图1A和1B所示的水平的长显示单元的显示设备,或者是一种如图1C所示的显示设备。
在本说明书中,“水平长”代表一种屏面在水平方向上是如此之长以至于为了观看该屏面用户需必须移动或从远处观看该屏面。而且“水平长”意味着该屏面的横向方向和垂直方向的宽高比很高。
而且,在本说明书中,“对象”是一种包括所述用所述观看的内容的显示。例如,一种“对象”可以是包括图像和文本的视窗或表示内容的图标。
在此,显示设备(例如,屏面尺寸为20英寸或更小),诸如在JP2009-251303A中披露的平板终端,基于个人使用的前提而不是由多个用户使用。而且,在大屏显示设备(例如,屏面尺寸为50英寸或更大)中,多个用户可以同时享受一段内容,但是不能设想的是,多个用户观看和使用不同内容。换句话说,即使在多个用户在大屏上关开不同内容时,也不能设想到执行屏面生成或所生成屏面的控制,使得不同内容之间不相互干扰。
而且,在将具有大屏的显示设备安装到墙面、地板、桌面等上时,用户和显示设备之间的位置关系不是固定的,并且显示设备在与用户的不同角度和位置被使用。在这种情况下,例如,即使在屏面基于由传感器所检测的每个用户的视线而被控制时,要控制屏面使得用户能够被提供最佳可操作性和可视性也是很难的。
考虑到上述背景,本申请的发明人开发了根据本公开的第一实施例的显示控制设备100。根据本公开的第一实施例的显示控制设备100生成其中对象沿着横向方向连续排列的屏面,并且多个用户因此可以并排地观看不同的内容。而且根据本公开的第一实施例的显示控制设备100controls the screen基于包括用户相对于所述屏面的位置信息的所述用户信息控制屏面并因此能够改善对于每个用户的可操作性和可视性
[2.1.显示控制设备的配置]
下面参照图2描述根据本公开的第一实施例的显示控制设备100的配置。图2是图释根据本公开的第一实施例的显示控制设备100的内部配置的框图。
如图2所示,根据本公开的第一实施例的显示控制设备100包括传感器单元101、用户信息获取单元103、内容存储单元105、通信单元107、屏面控制单元109以及显示单元111-1到111-N.
传感器单元101和显示单元111-1到111-N可以装备在显示控制设备100之外。在这种情况下,传感器单元101和显示单元111-1到111-N直接或经由诸如公共网络5与显示控制设备100相连并通过通信执行功能。
传感器单元101包括各种用来检测用户状态的传感器。具体而言,传感器单元101可以包括检测用户相对于屏面的位置关系的位置传感器、检测用户的视线的视线传感器、检测用户的运动的运动传感器、检测用户声音的声音传感器、检测由用户执行的触摸的触摸传感器、面部验证传感器以及识各个用户的生物验证传感器等等。
所述用户信息获取单元103从传感器单元101获取由传感器单元101所见的到的各种用户信息。而且,所述用户信息获取单元103可以获取用户的账户信息、用户在显示单元111上设置的设置值以及来自显示控制设备100的存储设备的类似值。
所述屏面控制单元109生成在显示单元111-1到111-N显示的屏面,并且基于由所述用户信息获取单元103所获取的各种用户信息控制所生成的屏面。
具体而言,所述屏面控制单元109从内容存储单元105和通信单元107获取各种内容,并且生成包括所述各种所获取内容的对象。而且,所述屏面控制单元109生成其中沿着横向方向连续排列的包括所述各种所生成内容的对象的屏面。
例如,所述屏面控制单元109可以生成屏面,使得对象每个显示在如图1A所示的显示控制设备1A的显示单元3上。而且,所述屏面控制单元109可以生成屏面,使得多个对象显示在如图1A所示的显示控制设备1A的显示单元3中的每一个上。还有,所述屏面控制单元109可以生成屏面,使得一个对象整个显示在多个显示单元3上。
此外,所述屏面控制单元109基于由所述用户信息获取单元103所获取的各种用户信息控制所生成的屏面。在[2.2.显示控制设备的示例性屏面控制]中将详细描述所述屏面控制单元109的示例性屏面控制。
内容存储单元105存储各种内容。例如,内容存储单元105存储各种内容,诸如文本、图像、运动图像以及声音。
通信单元107与公共网络5相连,并且执行信息的发送和接收。具体而言,通信单元107从公共网络5接收诸如文本、图像、运动图像以及声音的各种内容。例如,公共网络5可以是诸如英特网的公共有线网络、卫星通信网络、点划线网络、局域网(LAN)、广域网(WAN)等等。
显示单元111-1到111-N显示由所述屏面控制单元109所生成的屏面。具体而言,显示单元111-1到111-N由所述屏面控制单元109一体地控制,并且显示该屏面使得包括所有显示单元111-1到111-N的区域成为一个显示单元。
例如,显示单元111-1到111-N可以是一些显示设备,诸如液晶显示(LCD)设备、有机发光二极管(OLED)显示设备、等离子显示设备或阴极射线管(CRT)显示设备。而且,显示单元111-1到111-N可以是触屏设备。
[2.2.显示控制设备的示例性屏面控制]
下面,将参照图3A-22描述由根据本公开的第一实施例的显示控制设备100执行的一些屏面控制实例(第一到第八屏面控制实例)。
(2.2.1.第一屏面控制实例)
首先,将参照图3A-4描述由显示控制设备100执行的第一屏面控制实例。图3A和3B是用于描述由显示控制设备100,执行的第一屏面控制实例的解释图,而图4是图释由显示控制设备100.执行的第一屏面控制实例的流程图。
在此,第一屏面控制实例是一种屏面控制实例,其中所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息和视线信息确定用户是否已经读取所显示的对象并且改变被确定已经被读取的对象的显示。
具体而言,如图3A所示,对象A、B、C以及D显示在显示控制设备100上,并且用户7正在观看显示在显示控制设备100上的对象。
首先,用户7正在观看对象A,同时相对于如图3A的上部所示的屏面面对对象A的显示器的前部。接着,当用户7移动到如图3A的上部所示的对象B的显示器的前面时,所述用户信息获取单元103获取由传感器单元101所检测用户的位置信息的改变(从对象A的前方移动到对象B的前方)。而且,所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息确定对象A将已经被读取,并且采用对象E的显示来替代对象A的显示。
而且,当用户7移动到如图3A下部所示的对象D的显示的前方时,所述用户信息获取单元103获取由传感器单元101所检测用户的位置信息的改变(从对象B的前方移动到对象D的前方)。在此,所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息确定对象B和C将已经被读取,采用对象E的显示来替代对象B的显示以及采用对象G的显示来替代对象C的显示。
基于用户7在对象前方停留的时间段来执行关于对象是否已经被读取的确定。具体而言,当用户7在对象前方停留的时间段超过阈值时,所述屏面控制单元109可确定该对象已经被读取。根据该配置,当用户7经过该对象而没有检阅(check)该对象,则所述屏面控制单元109可以防止该对象被错误地确定为已经被读取。
下面将参照图3B描述第一屏面控制实例的另一个方面。如图3B所示,对象A、B、C以及D显示在显示控制设备100上,并且用户7正在观看显示在显示控制设备100上的对象。
首先,如图3B的上部所示,用户7正在观察对象D,同时相对于屏面面向对象B和C之间。接着,如在图3B下部所示,当用户7在没有移动的情况下将他或她正在观察的对象D改变为对象A时,所述用户信息获取单元103获取由传感器单元101所检测用户的视线信息的改变(视线从对象D到对象A的运动)。在此,所述屏面控制单元109基于所述用户信息获取单元103所获得的用户的视线信息确定对象D已经被读取,并且采用对象H的显示来替代对象D的显示。
基于用户7已经观察该对象的时间段来执行关于该对象是否已经被读取的确定。具体而言,当用户7将他/她的视线对准同一对象的时间段超过阈时,值所述屏面控制单元109可以确定该对象已经被读取。根据该配置,当用户7还没有观察该对象时,所述屏面控制单元109可以防止该对象被错误地确定为已经被读取。
下面,参照图4描述显示控制设备100in第一屏面控制实例的操作的流程。如图4所示,首先,所述用户信息获取单元103获取由传感器单元101所检测的用户位置信息和视线信息(S101)。接着,所述屏面控制单元109基于用户7的所获取的位置信息和视线信息确定用户7感兴趣的对象(S103)。
而且,所述屏面控制单元109确定用户7是否已经导致感兴趣的目标过渡到另一个对象(S105)。当用户7还没有导致感兴趣的目标过渡到另一个对象时(S105中的“否”),则显示控制设备100返回到S101并再次获取用户7的位置信息和视线信息。不过,当用户7已经导致感兴趣的目标过渡到另一个对象时(S105中的“是”),则所述屏面控制单元109确定在过渡之前对感兴趣对象的关注时段是否超过阈值(S107)。
在此,当在过渡之前对感兴趣对象的关注时段没有超过阈值(S107中的“否),则所述屏面控制单元109确定在过渡之前感兴趣对象还没有被读取,并且该操作结束。不过,当在过渡之前对感兴趣对象的关注时段超过阈值时(S107中的“是”),则所述屏面控制单元109确定在过渡之前感兴趣对象已经被读取(S109)。随后,所述屏面控制单元109采用包括其他内容的对象替换被确定已经被读取的过渡前的感兴趣对象(S111)。
根据第一屏面控制实例,用户7可以通过移动到显示控制设备100的前方以及读取包括在对象中的内容的操作而无需直接操作显示控制设备100来连续改变对象。
而且,在第一屏面控制实例中,所述屏面控制单元109可以为用户7确定感兴趣的对象设置书签并存储被设置书签的对象。具体而言,当用户7在对象前方停留的时间段或者用户7将他/她的视线对准同一对象的时间段超过书签确定阈值时,所述屏面控制单元109可以为用户7确定感兴趣的对象设置书签。而且,所述屏面控制单元109可以将被设置书签的对象存储在显示控制设备100的存储器件中。在此,理想的是,书签确定阈值可以大于读取确定阈值(即,关注时间段更大)。
可以根据用户7所执行的某种运动或操作来执行为对象设置书签和存储所述对象。例如为对象设置书签和存储所述对象可以在用户7说“书签”、在用户7执行诸如“点头”的动作、在用户7将他/她的视线从该对象向下移动在用户7执行之前设置的触摸操作等等时被执行。
(2.2.2.第二屏面控制实例)
下面,将参照图5-7描述由显示控制设备100执行的第二屏面控制实例。图5和6是用于描述由显示控制设备100所执行的第二屏面控制实例的解释图,而图7用于图释由显示控制设备100所执行的第二屏面控制实例的流程图。
在此,第二屏面控制实例一种屏面控制实例,其中所述屏面控制单元109于所述用户信息获取单元103所获取的用户的位置信息和视线信息控制屏面的亮度。
具体而言,如图5所示,对象A、B、C以及D显示在显示控制设备100上,并且用户7正在观看显示在显示控制设备100上的处于远距离或近距离处的对象。当用户7和显示控制设备100的屏面之间的距离为如图5的上部所示的长距离(例如,1米或更长)时,执行控制使得显示控制设备100的整个屏面具有较低亮度。而且,当用户7接近显示控制设备100并且用户7和显示控制设备100的屏面之间的距离变为如图5的下部所示的短距离时(例如,1米或更短),则所述屏面控制单元109执行控制使得显示控制设备100的整个屏面具有较高亮度。
下面将参照图6描述第二屏面控制实例的另一个方面。如图6所示,对象A、B、C、D显示在显示控制设备100上,并且用户7正在观看显示在显示控制设备100上的处于近距离处的对象(例如,1米或更短)。
如在图6的上部所示,用户7正在观察对象D,同时相对于屏面面对对象B和C之间。此时,所述用户信息获取单元103获取由传感器单元101所检测的用户的视线信息,并且所述屏面控制单元109执行控制使得用户7感兴趣的对象D具有较高亮度,并且其他对象A、B以及C具有较低亮度。而且,如图6的下部所示,当用户7将他或她正在观察的对象改变为对象A时,获取由传感器单元101所检测的用户的视线信息,并且所述屏面控制单元109执行控制使得用户7感兴趣的对象A具有较高亮度,并且其他对象A、B以及C具有较低亮度。
参照图5和6所描述的第二屏面控制实例可以被组合执行。具体而言,当难以通过传感器单元检测到用户7的视线信息时,所述屏面控制单元109可以仅仅基于用户的位置信息来控制屏面的亮度。进一步,当能够通过传感器单元检测到用户7的视线信息时,所述屏面控制单元109可以基于用户的视线信息控制屏面的亮度或者可以基于用户的视线信息和位置信息两者控制屏面的亮度。
下面,将参照图7描述第二屏面控制实例中的显示控制设备100的操作的流程。如图7所示,首先,所述用户信息获取单元103获取由传感器单元101所检测的用户位置信息和视线信息(S121)。接着,所述屏面控制单元109基于用户7的所获取的位置信息确定用户7和显示控制设备100的屏面之间的距离(S123)。
接着,所述屏面控制单元109确定用户7和显示控制设备100的屏面之间的距离是否大于阈值(S125)。当用户7和显示控制设备100的屏面之间的距离为大于阈值的长距离时(S125中的“是”),所述屏面控制单元109执行控制使得整个屏面具有低亮度(S131)。在此,用于S125的确定的阈值可以是例如在1米到3米的范围之内的一个值。
同时,当用户7和显示控制设备100的屏面之间的距离为小于该阈值的短距离时(S125中的“否”),所述屏面控制单元109基于用户7的视线信息确定用户7感兴趣的对象(S127)。接着,所述屏面控制单元109确定是否由用户7感兴趣的对象(S129)。在此,当所述屏面控制单元109确定没有用户7感兴趣的对象时(包括在基于用户7的视线信息难以确定用户7感兴趣的对象时)(S129中的“否”),所述屏面控制单元109实行控制使得整个屏面具有较高亮度(S133)。
不过,当所述屏面控制单元109确定有用户7感兴趣的对象时(S129中的“是”),所述屏面控制单元109执行控制使得用户7感兴趣的对象具有高亮度(S135)。进一步,所述屏面控制单元109执行控制使得用户不感兴趣的对象具有低亮度(S137)。进一步,显示控制设备100循环回到S121,重复上述操作,并且在每次用户的位置信息和视线信息被更新是根据必要控制屏面的亮度。
根据第二屏面控制实例,显示控制设备100能够以高亮度显示用户7感兴趣的对象并因此改善屏面对于用户7的可视性。而且,显示控制设备100能够以较低亮度显示用户7不感兴趣的对象并因此能够降低显示单元111-1到111-N的功率消耗。
(2.2.3.第三屏面控制实例)
下面,参照图8-10描述由显示控制设备100执行的第三屏面控制实例。图8是用于描述由显示控制设备100执行的第三屏面控制实例的即使图,并且,图9A和9B是用于描述由显示控制设备100执行的第三屏面控制实例的另一个实例的解释图。图10是图释由显示控制设备100执行的第三屏面控制实例的流程图。
在此,第三屏面控制实例是一种屏面控制实例,其中所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息控制所显示对象的卷动方向和速度。
具体而言,如图8的上部所示,显示控制设备100生成包括对象A、B、C以及D的显示数据13。在这些对象中,仅有包括在实际显示区域11内的对象显示在显示控制设备100的显示单元111-1到111-N中。例如,在图8的上部中,对象C和D包括在实际显示区域11中并显示在显示单元111-1到111-N上。包括对象C和D的实际显示区域11沿着横向方向的长度例如为“a”,并且包括对象A、B、C和D的显示数据13在横向方向上的长度例如为“2a”。
在此,当用户7从对象D向对象C移动同时观看如图8的中部所示的显示控制设备100的屏面时,所述屏面控制单元109沿着与用户7的移动方向相反的方向以与用户7的移动数据相同的速度卷动显示数据13。在图8的中部,由于用户7已经移动了距离“1/2a”,因此所述屏面控制单元109沿着与用户7的移动方向相反的方向将显示数据13卷动了“1/2a”。因此,在图8的中部,包括在实际显示区域11中的对象B和C显示在显示单元111-1到111-N上。
进一步,当用户7已经如图8的下部所示移动了距离“a”时,所述屏面控制单元109沿着与用户7的移动方向相反的方向将显示数据13卷动“a”。因此,在图8的下部,包括在实际显示区域11中的对象A和B显示在显示单元111-1到111-N上。
因此,在第三屏面控制实例中,对象基于用户7的移动方向和移动速度而被卷动,并且与用户7已经移动的距离的长度对应的对象或更多对象因此可以被显示。具体而言,在图8的实例中,随着用户7移动距离“a”,显示数据13沿着与用户的移动方向相反的方向被卷动距离“a”,并且用户7因此可以观看与长度“2a”对应的对象A-D。
在上面的描述中,显示数据13的卷动速度被设置为与用户7的移动速度相同的速度。但是第三屏面控制实例并不限于该实例。例如显示数据13的卷动速度可以为是通过向用户7的移动速度添加等于或大于1的任意放大率N而获得速度。
进一步,在第三屏面控制实例中,显示数据13的卷动方向可以设置为与用户7的移动方向相同的方向,并且显示数据13的卷动速度可以设置为比用户7的移动速度慢(即,可以为通过向用户7的移动速度添加等于或小于1的任意放大率N而获得速度)。根据该配置,当风景等显示在显示控制设备100的屏面上时,可以施加一种视觉效果,类似于就像所显示的风景的照相机角度随着用户7的移动而改变一样。
下面,将参照图9A和9B描述第三屏面控制实例另一个方面。例如,如图9A所示,显示数据13为环形数据,其中横向方向的两末端连接起来。根据该配置,用户7仅仅通过沿着一个方向卷动显示数据13就可以观看包括在显示数据13中的所有对象。
进一步,如图9B所示,所述屏面控制单元109可以根据用户7的运动或触摸操作来卷动显示数据13。例如,所述屏面控制单元109可以根据用户7挥动他/她的手的运动或从侧面按压对象的运动来卷动显示数据13。进一步,所述屏面控制单元109根据用户7在触摸屏面后沿着一个方向滑动的“滑动”操作来卷动显示数据13。
下面参照图10来描述第三屏面控制实例中的显示控制设备100的操作。如图10所示,首先,所述用户信息获取单元103获取由传感器单元101所检测用户7的位置信息(S201)。接着,所述屏面控制单元109基于用户7的所获取的位置信息确定用户7的移动方向和移动速度(S203)。
接着,所述屏面控制单元109基于用户7的移动方向和移动速度确定显示数据13的卷动方向和卷动速度(S205)。在此,当卷动方向与用户的移动方向相反时,卷动速度可以被设置为等于或快于用户7的移动速度,并且当当卷动方向与用户移动方向相同时,卷动速度可以小于用户7的移动速度。而且,所述屏面控制单元109通过卷动显示数据13来卷动被显示的对象(S207)。
根据第三屏面控制实例,显示控制设备100可以随着用户7的移动而卷动显示数据13并且显示与等于或大于用户的移动距离的长度对应的对象。而且,当显示风景等时,显示控制设备100能够给出一种视觉效果,类似于就像照相机角度正在移动以跟随用户7的移动一样
(2.2.4.第四屏面控制实例)
下面,参照图11A-12描述由显示控制设备100执行的第四屏面控制实例。图11A和11B为用于描述由显示控制设备100执行的第四屏面控制实例的解释图,并且图12是图释由显示控制设备100执行的第四屏面控制实例的流程图。
在此,第四屏面控制实例为一种屏面控制实例,其中所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息控制包括在对象内的内容的信息量。换句话说,在第四屏面控制实例中,例如,显示在屏面上的对象的布局、文本和图像的比率、字体大小或图像尺寸可以基于用户和显示控制设备100的屏面之间的距离而改变。
具体而言,如图11A所示,对象显示在显示控制设备100上,并且用户7A和7B中的多个用户正在观看这些对象。
如图11A所示,当用户7A和7B中每一个和显示控制设备100的屏面之间的距离为长距离(例如,3米或更长)时,所述屏面控制单元109使得包括在所显示对象中的内容的信息量最小化。更具体而言,所述屏面控制单元109使得内容中的图像信息放大并优先显示在对象上,使得内容中的文本信息缩小,以及使得文本信息的字体大小增加并显示。
进一步,如图11B所示,当用户7A和显示控制设备100的屏面之间的距离为短距离(例如,小于1米)时,所述屏面控制单元109使得所显示对象所包括的内容的信息量最大化。更具体而言,所述屏面控制单元109使得内容文本信息优先显示在对象上,以及使得内容中的图像信息以相等或缩小的尺寸被显示。
进一步,如图11B所示,当用户7B和显示控制设备100的屏面之间的距离为中等距离(例如,等于或大于1米并且小于3米)时,所述屏面控制单元109将所包括在所显示对象中的内容的信息量设置在长距离和短距离之间。更具体而言,所述屏面控制单元109使得内容中的图像信息优先显示在对象上,并且是得内容中的文本信息以中等字体大小被显示。
进一步,当如图11B所示有多个用户时,所述屏面控制单元109可以执行控制使得显示控制设备100的屏面的部分范围与每个用户相关联。在此,理想的是,为了用户的可视性和可操作性,显示控制设备100的屏面的与用户相关联的部分范围包括每个用户前方的范围
具体而言,如图11B所示,显示控制设备100的屏面的部分范围17A与用户7A相关联,并且执行控制使得包括在对象中的内容的信息量基于用户7A和所述屏面的部分范围17A之间的距离(短距离)被最大化。进一步,显示控制设备100的屏面的部分范围17B与用户7B相关联,并且执行控制使得包括在对象中的内容的信息量基于用户7B和所述屏面的部分范围17B之间的距离(中等距离)而在短距离和长距离之间。
为了明确地设置所述部分范围,优选在用户7和显示控制设备100的屏面之间的距离从短距离到终端距离(例如,小于3米)时执行显示控制设备100的屏面的部分范围和用户之间的关联。
进一步,显示控制设备100的屏面的部分范围和用户之间的关联不但可以用于针对每个对象控制对象的布局,而且可以针对所关联的用户对该屏面的部分范围内显示的对象进行个别处理。
具体而言,显示在该屏面的部分范围内的对象也可以与和该部分范围相关联的用户的账户信息相关联。换句话说,当显示在该屏面的部分范围内的对象与和该部分范围相关联的用户的支付账户相关联时,多个用户可以各自购物并使用同一显示控制设备100单独地进行支付。在这种配置中,例如,可以使用包括在显示控制设备100的传感器单元101中的照相机等通过面部验证来执行用户验证。进一步,当设备验证、指纹验证等被用于用户验证时,理想的是,在显示控制设备100的显示单元111-1到111-N的每一个的附近布置单独的验证模块。
下面,参照图12描述第四屏面控制实例中的显示控制设备100的操作的流程。如图12所示,首先,所述用户信息获取单元103获取由传感器单元101所检测的用户7的位置信息(S221)。接着,所述屏面控制单元109基于用户7的所获取的位置信息确定用户7和显示控制设备100的屏面之间的距离(S223)。
接着,所述屏面控制单元109确定用户7和显示控制设备100的屏面之间的距离是短距离、中等距离、还是长距离(S225)。可以使用阈值来执行S225的确定。例如,小于1米的用户7和显示控制设备100的屏面之间的距离可以被确定为短距离,1米或更大并且小于3米的距离可以被确定为中等距离,以及3米或更大的距离可以被确定为长距离。
当用户7和显示控制设备100的屏面之间的距离为短距离(S225中的短距离)时,所述屏面控制单元109将与用户7相关联的部分范围设置为短距离显示模式(S227),并且生成对象同时赋予文本优先权(S229)。而且,当用户7和显示控制设备100的屏面之间的距离为中距离(S225中的中等距离)时,所述屏面控制单元109将与用户7相关联的部分范围设置为中等距离显示模式(S231),并且生成对象同时赋予图像信息优先权(S233)。进一步,当用户7和显示控制设备100的屏面之间的距离为长距离(S225中的长距离)时,所述屏面控制单元109将与用户7相关联的部分范围设置为长距离显示模式(S235),并且生成对象同时赋予图像信息优先权以及增加文本信息的字体大小(S237)。
进一步,显示控制设备100循环到S221,重复上述操作,在每次用户的位置信息被更新时根据必要改变例如对象的布局、文本和图像的比率、字体大小或图像尺寸,并生成对象。
根据第四屏面控制实例,显示控制设备100可以基于用户7和显示控制设备100的屏面之间的距离优化包括在将被显示的对象中内容的信息量。因此,显示控制设备100可以在相对用户7的距离为长距离时显示具有较高可视性的信息,诸如图像,以及在距离用户的距离为短距离时显示具有较大信息量的信息,诸如文本。
(2.2.5.第五屏面控制实例)
下面,将参照图13-16描述由显示控制设备100执行的第五屏面控制实例。图13和14用于描述第由显示控制设备100执行的五屏面控制实例的解释图,并且图15A和15B用于描述在屏面的部分范围与每个用户相关联时由显示控制设备100执行的第五屏面控制实例的解释图。图16时图释由显示控制设备100执行的第五屏面控制实例的流程图。
在此,第五屏面控制实例是一种屏面控制实例,其中所述屏面控制单元109基于由所述用户信息获取单元103所获得的所述用户的位置信息和运动信息控制显示在屏面上的对象。
具体而言,在图13中,用户7在远距离处(例如1米或更远的距离)正在观看显示控制设备100上显示的对象A、B、C以及D。在此,当用户7执行给出指令以便改变对象的运动(例如,挥手的运动)时,所述屏面控制单元109采用对象E、F、G以及H替代显示在显示控制设备100上的所有对象A、B、C以及D。
同时,在图14中,用户7在短距离处(例如小于1米的距离)正在观看显示控制设备100上显示的对象A、B、C以及D。在此,与图13类似,当用户7执行给出指令以便改变对象的运动(例如,挥手的运动)时,所述屏面控制单元109采用对象E仅仅替换用户7前方的对象A.
换句话说,在第五屏面控制实例中,如图13和14所示,所述屏面控制单元109基于用户7和显示控制设备100的屏面之间的距离改变与由用户7所执行的运动对应的屏面控制范围。
下面,将参照图15A和15B描述第五屏面控制实例的另一个方面。图15A的显示控制设备100的屏面不与用户7相关联。不过,在图15B的显示控制设备100中,屏面的部分范围17A与用户7A相关联,并且屏面的部分范围17B与用户7B相关联。
在此,在图15A中,当用户7执行给出指令以便改变所有对象的运动(例如开启快门(shutter)的运动)时,所述屏面控制单元109采用对象E、F以及G替代显示所有所显示的对象A、B以及C。
同时,在图15B中,当用户7A类似地执行给出指令以便改变所有对象的运动(例如开启快门的运动)时,所述屏面控制单元109仅仅采用对象E和F来替代包括在屏面的部分范围17A中的对象A和B。在此,所述屏面控制单元109不对包括在与用户7B相关联的部分范围17B中的对象C执行由用户7A所指令的屏面控制。
换句话说,当显示控制设备100的屏面的部分范围与用户关联时,在第五屏面控制实例中,如图15A和15B所示,所述屏面控制单元109仅仅在与用户相关联的部分范围内执行由用户指令的屏面控制。
下面,将参照图16描述第五屏面控制实例中的显示控制设备100的操作的流程。如图16所示,首先,所述用户信息获取单元103获取由传感器单元101所检测的所述用户7的运动信息(S301)。而且,所述用户信息获取单元103类似地由传感器单元101所检测的用户7的位置信息(S303)。接着,所述屏面控制单元109基于用户7的所获取的位置信息确定用户7和显示控制设备100的屏面之间的距离(S305)。
而且,所述屏面控制单元109确定用户7和显示控制设备100的屏面之间的距离是短距离还是长距离(S307)。可以使用阈值来执行S307的确定。例如,小于1米的用户7和显示控制设备100的屏面之间的距离可以确定为短距离,而1米或更长的距离可以确定为长距离。
当用户7和显示控制设备100的屏面之间的距离为长距离(S307中的长距离)时,所述屏面控制单元109确定包括在所述用户7的运动信息中的运动是否为指令所述屏面控制的运动(S311)。在此,当包括在所述用户7的运动信息中的运动不是指令所述屏面控制的运动(S311中的“否”),则显示控制设备100结束操作。同时,当包括在所述用户7的运动信息中的运动时指令所述屏面控制的运动(S311中的“是”),则所述屏面控制单元109执行由包括在所述用户7的运动信息中的运动所指令的屏面控制(S313)。
而且,当用户7和显示控制设备100的屏面之间的距离为短距离(S307中的短距离)时,则所述屏面控制单元109类似地确定包括在所述用户7的运动信息中的运动是否为指令所述屏面控制的运动(S309)。在此,当包括在所述用户7的运动信息中的运动不是指令所述屏面控制的运动(S309中的“否”)时,则显示控制设备100结束操作。
同时,当包括在所述用户7的运动信息中的运动时指令所述屏面控制的运动(S309中的“是”)时,则所述屏面控制单元109确定包括在所述用户7的运动信息中的运动是否是控制整个屏面的运动(S315)。在此,当包括在所述用户7的运动信息中的运动不是控制整个屏面的运动(S315中的“否”)时,所述屏面控制单元109根据包括在所述用户7的运动信息中的运动执行控制(S319)。进一步,当包括在所述用户7的运动信息中的运动时控制整个屏面的运动(S315中的“是”)时,所述屏面控制单元109根据包括在所述用户7的运动信息中的运动对与用户7相关联的部分范围执行控制(S317)。
根据第五屏面控制实例,显示控制设备100能够基于用户7和显示控制设备100的屏面之间的距离通过运动优化由用户7所执行的屏面控制的内容和范围。因此,显示控制设备100能够针对用户7改善可操作性。
(2.2.6.第六屏面控制实例)
下面,将参照图17和18描述由显示控制设备100执行的第六屏面控制实例。图17是用于描述由显示控制设备100执行的第六屏面控制实例的解释图,并且图18是图释由显示控制设备100执行的第六屏面控制实例的流程图。
在此,第六屏面控制实例是一种屏面控制实例,其中所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息控制所显示对象的位置和亮度。通过该配置,用户7将该显示控制设备100作为一个镜子。
具体而言,如图17所示,对象A、B、C以及D显示在显示控制设备100上,并且用户7正在观看显示在显示控制设备100上的对象。
对显示控制设备100表面执行半透明反射镜处理。该半透明反射镜处理是一种赋予入射光透过50%而反射50%的光学特性,并且例如通过在显示控制设备100的表面布置反射膜或偏振片来进行。
具体而言,半透明反射镜的原理是,当已经经受过半透明反射镜处理的玻璃等被布置在明两侧和黑暗侧之间时,由于部分光在明亮侧被反射,其看起来像镜子。同时,由于部分光从黑暗侧被反射但是被来自明两侧的偷摄光所淹没,因此玻璃看起来像半透明一样。
首先,如图17的上部所示,用户7给出一个指令以激活显示控制设备100前方的“镜像模式”。例如,用户7可以通过发出“镜像模式”声、对屏面执行运动、触摸操作等来给出激活镜像模式的指令。
当“镜像模式”被激活时,如图17的中部所示,所述屏面控制单元109基于用户的位置信息布置对象A、B以及C同时避免用户7镜像图像位置(即,在用户7的前方)。而且,如图17的下部所示,当用户7移动时,所述屏面控制单元109根据需要基于用户搜获取的位置信息重新布置对象A、B以及C,使得没有对象始终布置在用户7镜像图像位置处。
根据该配置,没有对象布置在用户7镜像图像位置处,用户7镜像图像位置具有较低的亮度,并且对显示控制设备100的表面执行半透明反射镜处理,并且用户7因此能够使用显示控制设备100作为镜子。
而且,例如,当执行在用户7镜像图像位置上进一步部分叠加图像的处理时,能够给予一种视觉效果,类似于就像用户7正在试戴眼镜、帽子等一样。
下面,将参照图18描述在第五屏面控制实例中的显示控制设备100的操作。如图18所示,首先,在接收到来自用户7的镜像模式激活指令时,显示控制设备100激活镜像模式(S401)。随后,所述用户信息获取单元103获取由传感器单元101所检测的用户7的位置信息(S403)。接着,所述屏面控制单元109基于用户7的所获取的位置信息确定用户7和显示控制设备100的屏面之间的距离(S405)。
接着,所述屏面控制单元109确定用户7和显示控制设备100的屏面之间的距离为长距离还是短距离(S407)。可以使用阈值来执行S307的确定。例如,小于1米的用户7和显示控制设备100的屏面之间的距离可以被确定为短距离,而1米或更长的距离可以被确定为长距离。
当用户7和显示控制设备100的屏面之间的距离为长距离时(S407中的长距离),所述屏面控制单元109执行控制使得整个屏面具有低亮度(S409)。因此,当用户7和显示控制设备100的屏面之间的距离为长距离,则显示控制设备100操作使得整个屏面能够被用作镜子,无论对象排列如何。
同时,当用户7和显示控制设备100的屏面之间的距离为短距离时(S407中的短距离),所述屏面控制单元109基于用户7的所获取的位置信息确定用户7相对于显示控制设备100的屏面的位置(S411)。所述屏面控制单元109基于用户7的所确定的位置重新排列对象以避开(avoid)用户7镜像图像位置(S413)。而且,显示控制设备100执行S403到S413的处理的循环直到镜像模式被释放为止,使得用户7镜像图像位置一直起到镜子的作用。
根据第六屏面控制实例,用户7可以将显示控制设备100用作镜子。因此,显示控制设备100能够该改善对用户7的方便性。
(2.2.7.第七屏面控制实例)
下面,将参照图19-20描述由显示控制设备100执行的第七屏面控制实例。图19是用于描述由显示控制设备100执行的第七屏面控制实例的解释图,并且图20图释由显示控制设备100执行的第七屏面控制实例的流程图。
在此,第七屏面控制实例是一种屏面控制实例,其中所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息控制将要加入的对象的插入位置。
具体而言,如图19所示,对象A、B以及C显示在显示控制设备100上,并且用户7位于对象A和B之间(即,在整个屏面的左侧)并且正在观看显示在显示控制设备100上的对象。
如图19的上部所示,当用户7进行给出添加对象的指令的运动(例如,扩大对象A和B之间的空间的动作)时,所述屏面控制单元109将附加对象D插入对象A和B之间。更具体而言,所述屏面控制单元109不会从用户7的前方移动位于左侧的对象A,而是将位于右侧的对象B和C移动到更右侧并将附加对象D插入对象A和B之间。
而且,尽管没有示出,但是当用户7位于整个屏面的右侧时,所述屏面控制单元109不移动从用户7前方位于右侧的对象,而是移动位于左侧的对象并插入附加对象。
因此,所述屏面控制单元109能够基于用户7相对于整个屏面的位置确定将要被重新排列的对象和附加对象的插入位置,并控制该队形的排列。
下面将参照图20描述第七屏面控制实例中的显示控制设备100的操作的流程。如图20所示,首先,所述用户信息获取单元103获取由传感器单元101所检测的所述用户7的运动信息(S501)。接着,所述屏面控制单元109确定包括在所述用户7的所获取的运动信息中的运动是否为给出添加对象的指令的运动(S503)。当包括在所述用户7的运动信息中的运动不是给出添加对象的指令的运动(S503中的“否”),处理返回到S501,并且所述用户信息获取单元103再次获取所述用户7的运动信息。
当包括在所述用户7的运动信息中的运动是给出添加对象的指令的运动(S503中的“是”)。所述用户信息获取单元103获取由传感器单元101所检测的用户7的位置信息(S505)。接着,所述屏面控制单元109基于用户7的所获取的位置信息确定用户7相对于显示控制设备100的屏面的位置是在左侧、右侧、或者不清楚(例如,当用户7位于屏面的中心时)(S507)。
当用户7相对于显示控制设备100的屏面的位置在左侧(S507中的左侧),则所述屏面控制单元109将对象固定在用户7的前方的左侧,并且把待添加的对象插入该对象的右侧(S509)。而且,当用户7相对于显示控制设备100的屏面的位置在右侧时(S507中的右侧),所述屏面控制单元109将对象固定在用户7的前方的右侧,并且把待添加的对象插入该对象的左侧(S513)。而且,当用户7相对于显示控制设备100的屏面的位置不清楚时(S507中的不清楚),则所述屏面控制单元109将对象沿着用户7的前方的某一方向固定,并且相对于该对象把待添加的对象插入用户侧面(S511)。在所述待添加的对象通过S509、S511或S513的处理被插入之后,所述屏面控制单元109重新排列其他对象(S515)。
根据第七屏面控制实例,显示控制设备100能够基于用户7相对于显示控制设备100的屏面的位置将所述待添加的对象插入最佳位置。
(2.2.8.第八屏面控制实例)
下面,将参照图21和22描述由显示控制设备100执行的第八屏面控制实例。图21是用于描述由显示控制设备100执行的第八屏面控制实例的解释图,而图22是图释由显示控制设备100执行的第八屏面控制实例的流程图。
在此,第八屏面控制实例是一种屏面控制实例,其中所述屏面控制单元109基于所述用户信息获取单元103所获取的用户的位置信息控制在删除对象之后其他对象的位置。
具体而言,如图21所示,对象A、B以及C显示在显示控制设备100上,并且用户7位于对象A的前方(即,在整个屏面的左侧),并且正在观看显示于显示控制设备100上的对象。
如图21的上部所示,当用户7执行给出删除对象A的指令的运动(例如,关闭对象A的运动)时,所述屏面控制单元109删除对象A,并且重新排列对象B和C。更具体而言,所述屏面控制单元109将位于用户7的前方的右侧的对象B和C移动到左侧,并且重新排列对象B和C。
而且,尽管未示出,但是当用户7位于整个屏面的右侧时,所述屏面控制单元109删除该对象,随后将位于用户7的前方的左侧的对象移动到右侧,并重新排列对象。
因此,所述屏面控制单元109可以在删除对象之后基于用户7相对于整个屏面的位置重新排列其他对象而不会留下空出的空间。
下面,将参照图22描述第八屏面控制实例中的显示控制设备100的操作的流程。如图22所示,首先,所述用户信息获取单元103获取由传感器单元101所检测的所述用户7的运动信息(S521)。接着,所述屏面控制单元109确定包括在所述用户7的所获取的运动信息中的运动是否为给出删除对象的指令的运动(S523)。当包括在所述用户7的运动信息中的运动不是给出删除对象的指令的运动时(S523中“否”),该处理返回到S521,并且所述用户信息获取单元103再次获取所述用户7的运动信息。
当包括在所述用户7的运动信息中的运动是给出删除对象的指令的运动时(S523中“是”),所述屏面控制单元109删除所指令的对象(S525)。接着,所述用户信息获取单元103获取由传感器单元101所检测的用户7的位置信息(S527)。接着,所述屏面控制单元109基于用户7的所获取的位置信息确定用户7相对于显示控制设备100的屏面的位置是在左侧、右侧、或不清楚(例如,当用户7位于屏面的中心时)(S529)。
当用户7相对于显示控制设备100的屏面的位置位于左侧(S529的左侧),所述屏面控制单元109将位于用户7的前方的右侧的对象移动到左侧,并且重新排列对象(S531)。进一步,当用户7相对于显示控制设备100的屏面的位置位于右侧时(S529中的右侧),所述屏面控制单元109将位于用户7的前方的左侧的对象移动到右侧,并重新排列对象(S535)。而且,当用户7相对于显示控制设备100的屏面的位置不清楚(S529中的不清楚),所述屏面控制单元109沿着用户7的前方的某一方向将对象移动到用户侧,并重新排列对象(S533)。
根据第八屏面控制实例,显示控制设备100能够在删除对象之后基于用户7相对于显示控制设备100的屏面的位置将其他对象重新排列在最佳位置。
<3.第二实施例>
下面,将参照图23-28B描述根据本公开的第二实施例的显示控制系统。首先,将描述包括背景的根据本公开的第二实施例的显示控制系统的概述。
根据本公开的第二实施例的显示控制系统是一种信息处理系统,其包括多个显示单元,获取所述多个显示单元的位置关系,内在地生成显示在所述多个显示单元上的一些屏面,并且执行控制。具体而言,根据本公开的第二实施例的显示控制系统是一种包括如图1A-1C所示的显示设备的显示控制系统。
在此,在诸如JP 2009-251303A中所披露的平板终端的显示设备(例如,屏面尺寸为20英寸或更小)中,是不能设想到内在地控制多个显示单元的。而且,当多个显示单元连接到一个显示控制设备时,能够同时控制多个所连接的显示单元,但是很难基于它们的关系来控制所述多个显示单元。例如,很难基于排列位置来控制显示在排列在任意位置处的多个显示单元上的屏面。
考虑到上述背景,本申请的发明人开发了根据本公开的第二实施例的显示控制系统。根据本公开的第二实施例的显示控制系统能够获取多个显示单元的相互位置关系,基于所获取的位置关系生成其中显示在所述多个显示单元上的屏面彼此关联的屏面,以及控制该屏面。因此,根据本公开的第二实施例的显示控制系统能够内在地生成和控制显示在排列在任意位置处的多个显示单元上的屏面。
[3.1.显示控制系统的配置]
下面,将参照图23描述根据本公开的第二实施例的显示控制系统的配置。图23是图释根据本公开的第二实施例的显示控制系统的内在配置的框图。
如图23所示,根据本公开的第二实施例的显示控制系统包括显示控制设备200,其包括位置获取单元203、屏面控制单元205、输入单元209、内容存储单元211、显示单元207-1到207-N以及成像设备201。内容存储单元211实质上与在第一实施例中描述的内容存储单元105相同,并因此省略对其的描述。
在此,显示单元207-1到207-N可以是装备在显示控制设备200之外的显示设备。在这种情况下,显示单元207-1到207-N直接或经由网络与显示控制设备200连接,并且通过通信执行功能。成像设备201可以装备在显示控制设备200中。
成像设备201拍摄包括显示单元207-1到207-N的图像。具体而言,成像设备201通过从固定位置转动成像设备201来拍摄显示单元207-1到207-N作为单一图像或单一运动图像。例如,成像设备201为照相机、视频照相机等。
位置获取单元203分析成像设备201所拍摄的图像,并且获取显示单元207-1到207-N的位置关系。具体而言,the位置获取单元203根据成像设备201所拍摄的图像识别图像中所显示的显示单元207-1到207-N,并且计算例如显示单元207-1到207-N的方向或尺寸或者相对于成像设备201的距离。位置获取单元203基于例如显示单元207-1到207-N的所获取的方向或尺寸或者相对于成像设备201的距离计算和获取显示单元207-1到207-N的相互位置关系。
所述屏面控制单元205基于从位置获取单元203接收到的显示单元207-1到207-N的位置关系生成将在显示单元207-1到207-N显示的屏面,并且控制所生成的屏面。具体而言,所述屏面控制单元205从内容存储单元211获取各种内容,并且生成包括各种所获取内容的对象。所述屏面控制单元205还基于从位置获取单元203接收到的显示单元207-1到207-N的位置关系生成包括含有各种内容的对象的屏面。
更具体而言,所述屏面控制单元205的屏面生成可以划分成第一屏面生成实例和第二屏面生成实例。
首先,将描述所述屏面控制单元205的第一屏面生成实例。所述屏面控制单元205基于显示单元207-1到207-N的位置关系生成虚拟屏面,其包括显示单元207-1到207-N和在显示单元207-1到207-N的相邻显示单元之间的未被显示区域。换句话说,将在显示单元207-1到207-N显示的屏面生成为虚拟屏面的一部分。
具体而言,所述屏面控制单元205甚至针对在显示单元207-1到207-N的相邻显示单元之间的未被显示的区域生成屏面,并且生成显示在单个虚拟显示单元上的虚拟屏面,其包括显示在显示单元207-1到207-N上的区域以及在显示单元207-1到207-N的相邻显示单元之间的未被显示区域。而且,所述屏面控制单元205从所述虚拟屏面中切处与显示单元207-1到207-N对应的区域,并且生成所切出的区域作为由显示单元207-1到207-N所显示的屏面。
因此,在该屏面生成实例中,从用户角度看,显示在显示单元207-1到207-N上的这些屏面看起来就像相对于虚拟显示单元的开启的视窗,而在显示单元207-1到207-N的相邻显示单元之间的空间看起来就像隐藏该虚拟显示单元的墙壁。
下面,所述屏面控制单元205的第二屏面生成实例。所述屏面控制单元205基于显示单元207-1到207-N的位置关系生成在显示单元207-1到207-N上显示的一些屏面作为一个连续屏面。例如,所述屏面控制单元205可以生成在位于第一显示单元之下的第二显示单元上显示的屏面以便在显示于第一显示单元上的屏面之下是连续的。而且,所述屏面控制单元205可以生成在位于第一显示单元之右的第三显示单元上显示的屏面以便在显示于第一显示单元上的屏面之右是连续的。
显示单元207-1到207-N显示由所述屏面控制单元205所生成的屏面。例如,显示单元207-1到207-N可以是诸如LCD设备、OLED显示设备、等离子显示设备、或CRT显示设备的显示设备。而且,显示单元207-1到207-N可以是集成有输入单元209的触屏设备。
输入单元209包括能够对多个显示单元207-1到207-N执行输入的输入设备、控制电路等等。具体而言,输入单元209为一种能够识别用户7通过动作给出的指令的照相机、一种能够使用激光指针作为鼠标指针的激光指针鼠标、一种能够识别用户执行的触摸操作的触屏等等。
[3.2.显示控制系统的控制实例]
接着,将参照图24A-28B描述由根据本公开的第二实施例的显示控制系统所执行的屏面控制实例(第一到第三屏面控制实例)。
(3.2.1.第一屏面控制实例)
首先,将参照图24A-25描述由显示控制系统执行的第一屏面控制实例。图24A-24C是用于描述由显示控制系统执行的第一屏面控制实例的解释图,而图25是图释由显示控制系统执行的第一屏面控制实例的序列图。
在此,第一屏面控制实例是一种屏面控制实例,其中位置获取单元203基于所拍摄的图像获取多个显示单元207的位置关系,并且所述屏面控制单元205基于多个显示单元207的位置关系生成在多个显示单元207上显示的屏面。
具体而言,如图24所示,显示控制设备200A装备有显示单元207A、207B以及207C,显示单元207A、207B以及207C被成像设备201拍摄成单一图像或者通过从固定位置转动成像设备201而被拍摄成为单一运动图像。
而且,显示单元207A、207B以及207C中的每一个显示包括具有某一尺寸的图案的特定图案。在此,位置获取单元203能够通过使得所拍摄图案中的特定图案位置、方向以及尺寸与实际特定图案的尺寸和形状相关联来计算显示单元207A、207B以及207C中每个的位置关系。例如,包括某种尺寸的图案的特定图案为1平方厘米的犬牙织纹(houndstooth)图案。
而且,可以通过同时定位和映射(SLAM)技术来执行位置获取单元203所进行的显示单元207A、207B以及207C的位置识别。
因此,所述屏面控制单元205能够基于由位置获取单元203所获取的显示单元207A、207B以及207C的位置关系生成显示在显示单元207A、207B以及207C的屏面。而且,在第一屏面控制实例中,所述屏面控制单元205所生成的屏面可以是在[3.1.显示控制系统的配置]中的第一屏面生成实例中所描述的屏面。
换句话说,由所述屏面控制单元205所生成的屏面优选为单一虚拟屏面,其包括显示单元207A、207B以及207C的区域和在显示单元207A、207B以及207C的相邻显示单元之间的未被显示的区域。在这种情况下,仅有与单一虚拟显示屏面中的显示单元207A、207B以及207C对应的区域的平满被显示在显示单元207A、207B以及207C上。
装备在显示控制设备200中的显示单元207A、207B以及207C的排列并不限于如图24A中所示的沿着横向方向的等间距的排列。例如,如图24B所示,显示控制设备200B可以包括在同一平面内沿着任意方向布置在任意位置的显示单元207A、207B以及207C。而且如图24C所示,显示控制设备200C可以包括在同一平面内布置在任意位置(例如,天花板、地板、墙壁等等)的显示单元207A、207B以及207C。
下面,将参照图25描述第一屏面控制实例中的显示控制系统的操作的流程。
如图25所示,首先,从显示控制设备200向显示单元207发送某种特定图案屏面(S601)。下面,显示单元207显示所接收到的某种特定图案屏面(S603)。在此,成像设备201拍摄所有包括显示该某种特定图案屏面的显示单元207的图像(S605),并且将所拍摄的图像发送到显示控制设备200(S607)。
显示控制设备200基于位置获取单元203所接收到的图像计算显示单元207的位置关系(S609),并且所述屏面控制单元205基于显示单元207的所计算的位置关系生成将在显示单元207上显示的屏面(S611)。而且,显示控制设备200将所生成的屏面发送给显示单元207(S613),并且显示单元207显示所收到的屏面(S615)。
根据第一屏面控制实例,显示控制系统能够获取布置在任意位置的单元207的位置关系并且基于所获取的显示单元207的位置关系生成将在显示单元207上显示的屏面。因此,显示控制系统能够控制布置在像该屏面的包括由多个显示单元207所显示的区域的一部分一样的任意位置的多个显示单元207。
(3.2.2.第二屏面控制实例)
接着,将参照图26A和26B描述由显示控制系统执行的第二屏面控制实例。图26A是用于描述由显示控制系统执行的第二屏面控制实例的即使图,而图26B是图26A中的点划线所表示的部分的放大图。
在此,第二屏面控制实例是一种屏面控制实例,其中在对象在of多个显示单元207的相邻显示单元之间移动时控制对象的位置。例如,显示单元207A、207B以及207C以及边框部分217为其中可以通过触摸操作执行输入操作的触屏。
例如,第二屏面控制实例的第一方面为在[3.1.显示控制系统的配置]中的第一屏面生成实例中描述的控制实例。
例如,如在[3.1.显示控制系统的配置]总的第一屏面生成实例中所述,当针对在显示单元207A和207B之间的未被显示区域生成屏面时,该屏面不被显示,但是从数据的角度看,该屏面甚至是排列在边框部分217上。因此,用户7可以通过触摸操作将对象23上边框部分217,类似于显示单元207A和207B。
在此,当用户7释放用于边框部分217中的对象23的触摸操作时,由于对象23排列在未被显示的边框部分217上,因此用户7难以从视觉上识别对象23并执行操作。因此,在第二屏面控制实例第一方面,执行控制用于防止其中对象23被排列在边框部分217上并且因此难以执行操作的状态。
具体而言,在图26B中,对象23从显示单元207A中的起点S出发,穿过在显示单元207A和边框部分217之间的边界点B1和在边框部分217和显示单元207B之间的边界点B2,并且随后移动到显示单元207B中的结束点E。
因此,当对象23从起始点S开始移动以及随后穿过在显示单元207A和边框部分217之间的边界点B1时,所述屏面控制单元205获取边界点B1的坐标位置。而且,当对对象23的触摸操作在包括在边框部分217中的释放点R被释放时,所述屏面控制单元205将对象23排列在其坐标位置已经被获取的边界点B1处。同时,当对象23穿过在边框部分217和显示单元207B之间的边界点B2并且进入显示单元207B时,所述屏面控制单元205将对象23排列在所述触摸操作被释放的位置。对象23跟随触摸操作位置从到结束点E的同时移动。
随着执行这种控制,即使在用户7在边框部分217上释放用于对象23的触摸操作时,所述屏面控制单元205也能够防止其中对象23被排列在边框部分217上并且因此难以执行操作的状态。
例如,第二屏面控制实例的第二方面是如在[3.1.显示控制系统的配置]中描述为第二屏面生成实例的控制实例。
例如,如在[3.1.显示控制系统的配置]中的第二屏面生成实例所述,当显示单元207A和207B生成为一个连续屏面时,在边框部分217上没有屏面。因此,用户7试图通过触摸操作将对象23从显示单元207A移动到显示单元207B,如果触摸操作从显示单元207A进入边框部分217,则确定该触摸操作将在屏面外部进行,并且该触摸操作被释放。因此,在第二屏面控制实例的第二方面,在这种情况下,执行控制使得对该对象23的触摸操作继续。
具体而言,在图26B中,对象23从显示单元207A中的起点S出发,穿过在显示单元207A和边框部分217之间的边界点B1以及穿过在显示单元207B和边框部分217之间的边界点B2,并且随后移动到在显示单元207B中的结束点E。
在此,当对象23从起始点S开始移动并且随后穿过在显示单元207A和边框部分217之间的边界点B1时,所述屏面控制单元205获取边界点B1的坐标位置。进一步,当触摸操作正在边界点B1和边界点B2(即,边框部分217)之间执行时,所述屏面控制单元205确定对于该对象23的触摸操作继续。而且,在触摸操作正在边界点B1和边界点B2之间执行的同时,对象23可以排列在边界点B1上。
而且,当对于该对象23的触摸操作在被包括在边框部分217中的释放点R上被释放时,所述屏面控制单元205将对象23重新排列在其坐标位置已经被获取的边界点B1上。同时,在触摸操作穿过边界点B2并接着进入显示单元207B时,所述屏面控制单元205将对象23移动到在显示单元207B中的触摸操作位置。因此,在进入显示单元207B之后,对象23随着该触摸操作同时移动,并且对象23被排列在触摸操作被释放的位置。
根据该控制,所述屏面控制单元205使得用户7能够将对象23移动到边框部分217之外。而且即使在用户7在边框部分217上释放对于该对象23的触摸操作时,对象23也能够重新排列在显示单元207A中。
根据第二屏面控制实例,显示控制系统能够在多个显示单元的相邻显示单元之间平滑地利用对象。
已经结合通过使用触摸屏的触摸操作的对象的移动进行了描述,但是第二屏面控制实例并不限于该实例。例如,甚至在对象通过由用户7通过动作执行的操作在显示单元之间移动时以及甚至在对象通过使用激光指针执行的操作在显示单元之间移动时,也可以类似地应用第二屏面控制实例。
(3.2.3.第三屏面控制实例)
接着,将参照图27、28A和28B描述由显示控制系统执行的第三屏面控制实例。图27A-27C是用于描述由显示控制系统执行的第三屏面控制实例的解释图,并且图28A和28B是图释第三屏面控制实例中的其他示例性屏面的解释图。
在此,第三屏面控制实例是一种屏面控制实例,其中,例如,为了使得其中屏面未被显示在多个显示单元的区域(例如,边框部分217)难以觉察(inconspicuous),所述屏面控制单元205生成一种包括与边框部分217对应的显示框的屏面。
具体而言,如图27A所示,在显示控制设备200中,显示单元207A、207B以及207C沿着横向方向等间距d地连续布置成一行。在这种情况下,所述屏面控制单元205生成图27B中所示的显示屏面25。
具体而言,如图27B所示,所述屏面控制单元205生成其中具有宽度d的显示框251A、251B以及251C被排列在被显示在显示单元207A、207B以及207C上的屏面的中心处的显示屏面25。图27B中所示的显示屏面25在显示单元207A、207B以及207C显示连续屏面时基于屏面生成实例([3.1.显示控制系统的配置]中的第二屏面生成实例)生成。
在此,图27C中图释了在如图27A所示的显示控制设备200中显示如图27B所示的显示屏面25的结果。如图27C所示,在显示单元207A、207B以及207C上显示的屏面被具有宽度d的显示框251A、251B以及251C划分成两个,并且可以看起来被采用边框部分217划分成六个。因此,由于所述屏面控制单元205采用宽度d将显示在显示单元207A、207B以及207C上的屏面划分成两个,因此能够使得显示控制设备200看起来被宽度d的显示框划分成6个。
例如,当位置获取单元203获取显示单元207A、207B以及207C的位置关系时,显示单元207A、207B以及207C的相邻显示单元之间的间隔d能够被计算。而且,显示单元207A、207B以及207C的相邻显示单元之间的间隔可以预先测量并个别地设置。
将参照图28A和28B描述第三屏面控制实例中的另一个示例性屏面。
如图28A所示,在其中显示单元沿着横向方向被连续排列成一行的显示控制设备200A中,当边框部分217A的宽度为d时,所述屏面控制单元205可以生成通过宽度d的显示框253划分成三个的屏面并且在显示单元上显示所生成屏面。在这种情况下,能够使得显示单元看起来在整个显示控制设备200A中沿着横向方向被划分成九个。而且,所述屏面控制单元205可以通过布置任意数量X的显示框253生成一种被划分为(X+1)个的屏面并且使得在整个显示控制设备200A中该屏面看起来被划分为3(X+1)个。
而且,如图28B所示,在其中显示单元被排列成矩阵形式的显示控制设备200B中,当边框部分217B的宽度为d时,所述屏面控制单元205可以生成其中通过具有宽度d的显示框253B垂直和水平地划分成两个并因此总共被划分成四个的屏面,并且使得所生成的屏面将被显示在显示单元上。在这种情况下,可以使得显示单元看起来在整个显示控制设备200B中沿着横向方向被划分为六个而在垂直方向被划分为四个。
根据第三屏面控制实例,能够基于其上在多个显示单元的相邻显示单元之间没有显示屏面的区域(例如,边框部分217)的宽度将显示框排列在由所述屏面控制单元205所生成的屏面上。根据该配置,所述屏面控制单元205可以生成和显示更多的自然屏面而不会导致边框部分217将被注意到。
<4.根据本公开的实施例的显示控制设备的硬件配置>
下面参照图29描述根据本公开的实施例的显示控制设备的硬件配置。图29是用于描述根据本公开的实施例的显示控制设备300的硬件配置的解释图。由显示控制设备300执行的信息处理通过软件和硬件的协作来实现。
如图29所示,显示控制设备300包括中央处理单元(CPU)301、只读存储器(ROM)303、随机存取存储器(RAM)305、桥接器309、内部总线307和311、接口313、输入设备315、显示设备317、存储设备319、驱动器321、连接端口323以及通信设备325。
CPU 301起到运算处理设备和控制设备的作用,并且根据各种程序控制显示控制设备300的整个操作。ROM 303存储由CPU301所使用的程序、操作参数等,而RAM 305临时存储在CPU 301的执行中使用的程序、在该执行中适当地改变的参数等等。CPU 301执行例如所述用户信息获取单元103、位置获取单元203以及所述屏面控制单元109和205的功能。
CPU 301、ROM 303以及RAM 305通过桥接器309、内部总线307和309等彼此相连。而且,CPU 301、ROM 303以及RAM 305还通过接口313与输入设备315、显示设备317、存储设备319、驱动器321、连接端口323以及通信设备325相连。
输入设备315包括:在用户输入信息时所使用的设备,诸如触屏;从外部接收信息的设备,诸如传感器;以及基于输入信息生成输入信号并将输入信号输出到CPU 301的输入控制电路。输入设备315执行例如传感器单元101和输入单元209的功能。
例如,输出设备317包括显示设备,诸如LCD设备、OLED设备、等离子显示设备、CRT设备或灯。输出设备317还可以包括一种音频输出设备,诸如扬声器或耳机。例如,显示设备显示所生成的图像。同时,音频输出设备将音频数据等转化成声音,并且输出该声音。输出设备317执行例如显示单元111-1到111-N和207-1到207-N的功能。
存储设备319是一种数据存储设备,配置成为显示控制设备300的存储单元的实例。存储设备319可以包括存储介质、将数据存储在存储介质中的存储设备、从存储介质中读取数据的读取设备、以及删除所存储数据的删除设备。存储器设备319例如执行内容存储单元105和211的功能。
驱动器321为用于存储介质的读取器/写入器,并且内置于显示控制设备300中或连接在其外部。驱动器321读取记录在连接在其上的可移动存储介质中信息,可移动存储介质诸如为磁盘、光盘、磁光盘或半导体存储器,并且将所读取的信息输出到RAM 305。而且,驱动器321能够将信息写入可移动存储介质中。
例如,连接端口323为一种连接接口,其被配置由连接端口,被用于连接外部连接设备,诸如通用串行总线(USB)端口或光学音频终端。
例如,通信设备325是一种通信接口,配置有连接到公共网络5的通信设备。而且,通信设备325可以支持无线LAN的通信设备或执行有线电缆通信的电缆通信设备。通信设备325执行例如通信单元107的功能。
而且,能够创建计算机程序,其使得诸如装备在显示控制设备300中的CPU、ROM以及RAM的硬件可以执行等同于显示控制设备300的各个组件的功能。而且,还可以提供存储该计算机程序的存储介质。
上面已经参照附图描述了本公开的优选实施,当然,但是本公开并不限于上述实例。本领域技术人员可以发现在附后权利要求书的范围内的各种替换方式和修改方式,并且应该理解到的是,它们都本质上在本公开的技术范围之内。
而且,在本说明书中描述的效果仅仅是解释性或示例性的并且并不是为了限制。换句话说,根据本公开的技术的其他效果对本领域技术人员而言是显而易见的,这些其他效果可以与本说明书的描述的是效果一起存储或其替代上述效果。
此外,本技术还可以配置如下。
(1)一种显示控制设备包括:
屏面控制单元,配置为生成一些包括内容的对象、生成其中所述对象沿横向方向连续排列的屏面、以及控制所述屏面;以及
用户信息获取单元,配置为获取用户信息,该用户信息包括用户相对于所述屏面的位置信息,
其中所述屏面控制单元基于所述用户信息获取单元所获取的用户信息控制所述屏面。
(2)根据(1)所述的显示控制设备,
其中所述用户信息还包括用户的视线信息。
(3)根据(2)所述的显示控制设备,
其中,所述屏面控制单元基于所述用户信息确定用户感兴趣的对象,并且在所述用户使得感兴趣目标过渡到另一个对象时,所述屏面控制单元采用包括其他内容的对象替代在过渡之前用户曾经感兴趣的对象。
(4)根据(2)或(3)所述的显示控制设备,
其中所述屏面控制单元基于所述用户信息确定用户感兴趣的对象,并为所述用户感兴趣的对象设置书签。
(5)根据(2)-(4)之一所述的显示控制设备,
其中所述屏面控制单元基于所述用户信息确定用户感兴趣的对象,并且基于所述用户感兴趣的对象控制屏面的亮度。
6.根据(1)-(5)之一所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息计算所述用户的运动速度和方向,并且基于所述用户的运动速度和方向卷动所述对象。
(7)根据(1)-(6)之一所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息控制在所述对象中包括的内容的信息量。
(8)根据(1)-(7)之一所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息将所述屏面在所述用户前面的部分范围与所述用户关联起来,并且有区别地控制所述部分范围和其他范围。
(9)根据(8)所述的显示控制设备,
其中所述用户信息还包括所述用户的账户信息,并且
所述屏面控制单元将包含在所述部分范围内的对象的内容与所述用户的账户信息关联起来。
(10)根据(8)所述的显示控制设备,
其中所述用户信息包括用户的运动信息,以及
所述屏面控制单元对所述部分范围内的对象执行与所述用户的运动信息对应控制。
(11)根据(1)-(10)之一所述的显示控制设备,
其中所述用户信息还包括所述用户的运动信息,并且
所述屏面控制单元对所述屏面执行与所述用户的运动信息对应的控制。
(12)根据(11)所述的显示控制设备,
其中所述与所述用户的运动信息对应的控制基于所述用户相对于所述屏面的位置信息而改变。
(13)根据(1)-(12)之一所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息确定所述用户在所述屏面中的镜像位置,并生成其中所述对象被排列以避开所述用户的镜像位置的屏面。
(14)根据(1)-(13)之一所述的显示控制设备,
其中,当在所述屏面中添加对象时,所述屏面控制单元基于所述用户相对于所述屏面的位置信息控制所述对象的添加位置。
(15)根据(1)-(14)之一所述的显示控制设备,
其中,当在所述屏面中删除对象时,所述屏面控制单元基于所述用户相对于所述屏面的位置信息控制所述对象被删除后的对象排列。
(16)一种显示控制方法,包括通过运算处理设备:
生成一些包括内容的对象以及生成其中对象沿横向方向连续排列的屏面;
获取用户相对于屏面的位置信息;以及
基于所获取的用户信息控制所生成的屏面。
(17)一种程序,使得计算机起作用为:
屏面控制单元,配置为生成一些包括内容的对象、生成其中所述对象沿横向方向连续排列的屏面、以及控制所述屏面;以及
用户信息获取单元,配置为获取用户信息,该用户信息包括用户相对于所述屏面的位置信息,
其中所述屏面控制单元基于所述用户信息获取单元所获取的用户信息控制所生成屏面。
(18)一种显示控制系统,包括:
多个显示单元;
位置获取单元,配置为获取所述多个显示单元的位置关系;以及
屏面控制单元,配置为基于所述位置关系生成显示在所述多个显示单元上的屏面作为一些彼此关联的屏面。
(19)根据(18)所述的显示控制系统,
其中所述屏面控制单元生成与包括所述多个显示单元的区域对应的虚拟屏面,并且基于在所述虚拟屏面中的位置关系生成该区域的与所述多个显示单元对应的屏面作为所述由所述多个所显示单元的屏面。
(20)根据(18)所述的显示控制系统,
所述屏面控制单元基于所述位置关系生成由所述多个显示单元所显示的屏面作为连续屏面。
(21)根据(19)或(20)所述的显示控制系统,
其中,当在由所述多个显示单元中的一个显示单元所显示的屏面中选择对象,所述对象可以在对该对象的选择被保持的状态下被移动到由另一个显示单元所显示的屏面,并且所述对该对象的选择被释放时,
所述屏面控制单元生成其中所述对象被排列在所述选择在由所述其他显示单元所显示的屏面中被释放的位置处的屏面。
(22)根据(19)-(21)之一所述的显示控制系统,
其中,当在由所述多个显示单元中的一个显示单元所显示的屏面中选择对象并且所述对象可以在对该对象的选择被保持的状态下被移动时,
所述屏面控制单元获取所述对象在由所述一个显示单元所显示的屏面中的最后坐标,以及
当所述对该对象的选择在除了由所述多个显示单元所显示的屏面之外的区域被释放时,
所述屏面控制单元生成其中所述对象被排列在所获取的坐标处的屏面。
(23)根据(18)-(22)之一所述的显示控制系统,
其中所述屏面控制单元基于所述位置关系计算所述多个显示单元中相邻显示单元之间的距离,并基于所述距离生成由具有宽度的划分线所划分的屏面。
(24)一种显示控制方法,包括:
获取多个显示单元的位置关系;以及
通过运算处理设备基于所述位置关系生成显示在所述多个显示单元上的屏面作为相互相关联的屏面,并且控制所生成的屏面。
(25)一种程序,使得计算机起作用为:
多个显示单元;
位置获取单元,配置获取多个显示单元的位置关系;以及
屏面控制单元,配置为基于所述位置关系生成显示在所述多个显示单元上的屏面作为相互相关联的屏面。
Claims (23)
1.一种显示控制设备,包括:
屏面控制单元,配置为生成一些包括内容的对象、生成其中所述对象沿横向方向连续排列的屏面、以及控制所述屏面;以及
用户信息获取单元,配置为获取用户信息,该用户信息包括用户相对于所述屏面的位置信息,
其中所述屏面控制单元基于所述用户信息获取单元所获取的用户信息控制所述屏面;
其中,所述屏面控制单元基于所述用户信息确定用户感兴趣的第一对象,其中所述第一对象包括第一内容,并且在所述用户使得感兴趣目标过渡到第二对象时,所述屏面控制单元采用包括与所述第一内容不同的第二内容的第三对象替代所述第一对象。
2.根据权利要求1所述的显示控制设备,
其中所述用户信息还包括用户的视线信息。
3.根据权利要求2所述的显示控制设备,
其中所述屏面控制单元基于所述用户信息确定用户感兴趣的对象,并为所述用户感兴趣的对象设置书签。
4.根据权利要求2所述的显示控制设备,
其中所述屏面控制单元基于所述用户信息确定用户感兴趣的对象,并且基于所述用户感兴趣的对象控制屏面的亮度。
5.根据权利要求1所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息计算所述用户的运动速度和方向,并且基于所述用户的运动速度和方向卷动所述对象。
6.根据权利要求1所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息控制在所述对象中包括的内容的信息量。
7.根据权利要求1所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息将包括所述屏面在所述用户前面的部分的部分范围与所述用户关联起来,并且有区别地控制所述部分范围和其他范围。
8.根据权利要求7所述的显示控制设备,
其中所述用户信息还包括所述用户的账户信息,并且
所述屏面控制单元将包含在所述部分范围内的对象的内容与所述用户的账户信息关联起来。
9.根据权利要求7所述的显示控制设备,
其中所述用户信息还包括用户的运动信息,以及
所述屏面控制单元对所述部分范围内的对象执行与所述用户的运动信息对应的控制。
10.根据权利要求1所述的显示控制设备,
其中所述用户信息还包括所述用户的运动信息,并且
所述屏面控制单元对所述屏面执行与所述用户的运动信息对应的控制。
11.根据权利要求10所述的显示控制设备,
其中所述与所述用户的运动信息对应的控制基于所述用户相对于所述屏面的位置信息而改变。
12.根据权利要求1所述的显示控制设备,
其中所述屏面控制单元基于所述用户相对于所述屏面的位置信息确定所述用户在所述屏面中的镜像位置,并生成其中所述对象被排列以避开所述用户的镜像位置的屏面。
13.根据权利要求1所述的显示控制设备,
其中,当在所述屏面中添加对象时,所述屏面控制单元基于所述用户相对于所述屏面的位置信息控制所述对象的添加位置。
14.根据权利要求1所述的显示控制设备,
其中,当在所述屏面中删除对象时,所述屏面控制单元基于所述用户相对于所述屏面的位置信息控制所述对象被删除后的对象排列。
15.一种显示控制方法,包括通过运算处理设备:
生成一些包括内容的对象以及生成其中对象沿横向方向连续排列的屏面;
获取用户信息,该用户信息包括用户相对于屏面的位置信息;以及
基于所获取的用户信息控制所生成的屏面;
其中,基于所述用户信息确定用户感兴趣的第一对象,其中所述第一对象包括第一内容,并且在所述用户使得感兴趣目标过渡到第二对象时,采用包括与所述第一内容不同的第二内容的第三对象替代所述第一对象。
16.一种计算机可读存储介质,包括其中记录的程序,当所述程序由计算机执行时使得所述计算机:
生成一些包括内容的对象、生成其中所述对象沿横向方向连续排列的屏面、以及控制所述屏面;以及
获取用户信息,该用户信息包括用户相对于所述屏面的位置信息,
其中基于所获取的用户信息控制所生成屏面;
其中,基于所述用户信息确定用户感兴趣的第一对象,其中所述第一对象包括第一内容,并且在所述用户使得感兴趣目标过渡到第二对象时,采用包括与所述第一内容不同的第二内容的第三对象替代所述第一对象。
17.一种显示控制系统,包括:
多个显示单元;
位置获取单元,配置为获取所述多个显示单元的位置关系;以及
屏面控制单元,配置为基于所述位置关系生成显示在所述多个显示单元上的屏面作为一些彼此关联的屏面;
其中所述屏面控制单元基于所述位置关系计算所述多个显示单元中相邻显示单元之间的距离,并基于所述距离生成由具有宽度的划分线所划分的屏面。
18.根据权利要求17所述的显示控制系统,
其中所述屏面控制单元生成与包括所述多个显示单元的区域对应的虚拟屏面,并且基于在所述虚拟屏面中的位置关系生成该区域的与所述多个显示单元对应的屏面作为由所述多个显示单元所显示的屏面。
19.根据权利要求17所述的显示控制系统,
所述屏面控制单元基于所述位置关系生成由所述多个显示单元所显示的屏面作为连续屏面。
20.根据权利要求18所述的显示控制系统,
其中,当在由所述多个显示单元中的一个显示单元所显示的屏面中选择对象,所述对象在对该对象的选择被保持的状态下被移动到由另一个显示单元所显示的屏面,并且所述对该对象的选择被释放时,
所述屏面控制单元生成其中所述对象被排列在所述选择在由所述另一个显示单元所显示的屏面中被释放的位置处的屏面。
21.根据权利要求20所述的显示控制系统,
其中,当在由所述多个显示单元中的一个显示单元所显示的屏面中选择对象并且所述对象在对该对象的选择被保持的状态下被移动时,
所述屏面控制单元获取所述对象在由所述一个显示单元所显示的屏面中的最后坐标,以及
当所述对该对象的选择在除了由所述多个显示单元所显示的屏面之外的区域被释放时,
所述屏面控制单元生成其中所述对象被排列在所获取的坐标处的屏面。
22.一种显示控制方法,包括:
获取多个显示单元的位置关系;以及
通过运算处理设备基于所述位置关系生成显示在所述多个显示单元上的屏面作为相互相关联的屏面,并且控制所生成的屏面;
其中基于所述位置关系计算所述多个显示单元中相邻显示单元之间的距离,并基于所述距离生成由具有宽度的划分线所划分的屏面。
23.一种计算机可读存储介质,包括其中记录的程序,当所述程序由计算机执行时使得所述计算机:
获取多个显示单元的位置关系;以及
基于所述位置关系生成显示在所述多个显示单元上的屏面作为相互相关联的屏面;
其中基于所述位置关系计算所述多个显示单元中相邻显示单元之间的距离,并基于所述距离生成由具有宽度的划分线所划分的屏面。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013273225A JP2015127897A (ja) | 2013-12-27 | 2013-12-27 | 表示制御装置、表示制御システム、表示制御方法、およびプログラム |
JP2013-273225 | 2013-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104750244A CN104750244A (zh) | 2015-07-01 |
CN104750244B true CN104750244B (zh) | 2019-05-28 |
Family
ID=52292669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410799456.9A Active CN104750244B (zh) | 2013-12-27 | 2014-12-19 | 显示控制设备、显示控制系统、显示控制方法以及程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10013050B2 (zh) |
EP (1) | EP2908216A3 (zh) |
JP (1) | JP2015127897A (zh) |
CN (1) | CN104750244B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016053769A (ja) * | 2014-09-02 | 2016-04-14 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9961320B2 (en) * | 2014-11-07 | 2018-05-01 | Canon Kabushiki Kaisha | Image display apparatus and control method thereof |
TWD180105S (zh) * | 2014-11-14 | 2016-12-11 | 愛斯佩克股份有限公司 | 顯示面板之操作介面之部分 |
JP1525112S (zh) * | 2014-11-14 | 2015-06-01 | ||
KR20160121287A (ko) * | 2015-04-10 | 2016-10-19 | 삼성전자주식회사 | 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치 |
JP6441763B2 (ja) * | 2015-07-31 | 2018-12-19 | Necプラットフォームズ株式会社 | 表示装置、表示制御方法、及びそのためのプログラム |
KR101820657B1 (ko) | 2016-07-25 | 2018-01-22 | 주식회사 탑코 | 웹툰 화면 이미지 자동 스크롤링 시스템 및 방법 |
US10694487B2 (en) * | 2016-09-15 | 2020-06-23 | Cisco Technology, Inc. | Distributed network black box using crowd-based cooperation and attestation |
DE102016125154B3 (de) * | 2016-12-21 | 2018-04-05 | Océ Holding B.V. | Produktionsmaschine und Bedienkonzept für eine Produktionsmaschine |
US20210225305A1 (en) * | 2018-05-21 | 2021-07-22 | Nec Display Solutions, Ltd. | Display device |
KR20210045055A (ko) * | 2019-10-16 | 2021-04-26 | 삼성전자주식회사 | 디스플레이 장치 및 이의 제어 방법 |
GB2607569A (en) * | 2021-05-21 | 2022-12-14 | Everseen Ltd | A user interface system and method |
JP2023004360A (ja) * | 2021-06-25 | 2023-01-17 | 尚 堀田 | 仮想現実空間提供システムおよび仮想現実空間の提供方法 |
CN113360801A (zh) * | 2021-06-29 | 2021-09-07 | 读书郎教育科技有限公司 | 一种自动生成书签的系统及方法 |
US11928264B2 (en) * | 2021-12-16 | 2024-03-12 | Lenovo (Singapore) Pte. Ltd. | Fixed user interface navigation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6331840B1 (en) * | 1998-03-27 | 2001-12-18 | Kevin W. Nielson | Object-drag continuity between discontinuous touch screens of a single virtual desktop |
CN103238146A (zh) * | 2010-10-01 | 2013-08-07 | Flex Electronics ID Co.,Ltd. | 智能板定向 |
CN103329147A (zh) * | 2010-11-04 | 2013-09-25 | 数字标记公司 | 基于智能手机的方法和系统 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0822385A (ja) * | 1994-02-22 | 1996-01-23 | Nippon Hoso Kyokai <Nhk> | 視線対応表示方法及び装置 |
EP0810578A1 (en) * | 1995-12-28 | 1997-12-03 | Canon Kabushiki Kaisha | Display panel and apparatus capable of resolution conversion |
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
JP2001319217A (ja) * | 2000-05-09 | 2001-11-16 | Fuji Photo Film Co Ltd | 画像表示方法 |
JP3754966B2 (ja) * | 2003-03-26 | 2006-03-15 | キヤノン株式会社 | 表示装置及び表示制御方法 |
JP4333309B2 (ja) * | 2003-09-29 | 2009-09-16 | セイコーエプソン株式会社 | 複数画面画像表示システム、複数画像表示装置の相対位置検出方法、複数画像表示装置の相対位置検出プログラムおよび複数画像表示装置の相対位置検出プログラムを記録した記録媒体 |
US20060143571A1 (en) * | 2004-12-29 | 2006-06-29 | Wilson Chan | Multiple mouse cursors for use within a viewable area for a computer |
JP2006251258A (ja) * | 2005-03-09 | 2006-09-21 | Fuji Xerox Co Ltd | プレゼンテーションシステムおよびプレゼンテーション支援方法 |
JP2008157661A (ja) * | 2006-12-21 | 2008-07-10 | Denso It Laboratory Inc | ナビゲーション装置 |
JP5169403B2 (ja) * | 2008-04-07 | 2013-03-27 | ソニー株式会社 | 画像信号生成装置、画像信号生成方法、プログラム及び記憶媒体 |
JP5058335B2 (ja) * | 2008-04-10 | 2012-10-24 | パイオニア株式会社 | 画面表示システム及び画面表示プログラム |
JP5271612B2 (ja) * | 2008-06-16 | 2013-08-21 | 日本電信電話株式会社 | 情報提示システム、情報提示方法、情報提示プログラムとその記憶媒体 |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
KR101602363B1 (ko) * | 2008-09-11 | 2016-03-10 | 엘지전자 주식회사 | 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기 |
CN101874234B (zh) * | 2008-09-29 | 2014-09-24 | 松下电器产业株式会社 | 用户接口装置、用户接口方法、以及记录媒体 |
JP2010097491A (ja) * | 2008-10-17 | 2010-04-30 | Pfu Ltd | 情報処理装置、方法およびプログラム |
JP5606686B2 (ja) * | 2009-04-14 | 2014-10-15 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
KR101651859B1 (ko) * | 2009-06-05 | 2016-09-12 | 삼성전자주식회사 | 사용자별 ui 제공방법 및 이를 적용한 디바이스 |
JP2011055382A (ja) * | 2009-09-04 | 2011-03-17 | Hitachi Consumer Electronics Co Ltd | 表示装置 |
KR101657168B1 (ko) * | 2009-12-01 | 2016-09-19 | 삼성전자주식회사 | 사용자 위치 기반의 디스플레이 방법 및 장치 |
EP2515206B1 (en) * | 2009-12-14 | 2019-08-14 | Panasonic Intellectual Property Corporation of America | User interface apparatus and input method |
US8982160B2 (en) * | 2010-04-16 | 2015-03-17 | Qualcomm, Incorporated | Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size |
JP5643543B2 (ja) * | 2010-05-20 | 2014-12-17 | キヤノン株式会社 | 情報提示システム及びその制御方法、プログラム |
JP2011248465A (ja) * | 2010-05-24 | 2011-12-08 | Toshiba Corp | 情報処理装置および表示制御方法 |
JP5558983B2 (ja) * | 2010-09-15 | 2014-07-23 | Necカシオモバイルコミュニケーションズ株式会社 | 画面表示装置、画面表示制御方法及び画面表示制御プログラム並びに情報端末装置 |
KR101726607B1 (ko) * | 2010-10-19 | 2017-04-13 | 삼성전자주식회사 | 휴대 단말기의 화면 제어 방법 및 장치 |
US8842057B2 (en) * | 2011-09-27 | 2014-09-23 | Z124 | Detail on triggers: transitional states |
JP5957893B2 (ja) * | 2012-01-13 | 2016-07-27 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JP6196017B2 (ja) * | 2012-01-13 | 2017-09-13 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JP5974649B2 (ja) * | 2012-06-08 | 2016-08-23 | 株式会社リコー | 情報処理装置、会議システム、プログラム |
KR102072582B1 (ko) * | 2012-12-31 | 2020-02-03 | 엘지전자 주식회사 | 듀얼 디스플레이 방법 및 장치 |
-
2013
- 2013-12-27 JP JP2013273225A patent/JP2015127897A/ja active Pending
-
2014
- 2014-12-17 US US14/573,983 patent/US10013050B2/en active Active
- 2014-12-19 CN CN201410799456.9A patent/CN104750244B/zh active Active
- 2014-12-22 EP EP14199811.2A patent/EP2908216A3/en not_active Ceased
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6331840B1 (en) * | 1998-03-27 | 2001-12-18 | Kevin W. Nielson | Object-drag continuity between discontinuous touch screens of a single virtual desktop |
CN103238146A (zh) * | 2010-10-01 | 2013-08-07 | Flex Electronics ID Co.,Ltd. | 智能板定向 |
CN103329147A (zh) * | 2010-11-04 | 2013-09-25 | 数字标记公司 | 基于智能手机的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
US20150185824A1 (en) | 2015-07-02 |
EP2908216A3 (en) | 2015-11-18 |
CN104750244A (zh) | 2015-07-01 |
EP2908216A2 (en) | 2015-08-19 |
US10013050B2 (en) | 2018-07-03 |
JP2015127897A (ja) | 2015-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104750244B (zh) | 显示控制设备、显示控制系统、显示控制方法以及程序 | |
US11244513B2 (en) | Systems and methods of rerendering image hands to create a realistic grab experience in virtual reality/augmented reality environments | |
US20210407203A1 (en) | Augmented reality experiences using speech and text captions | |
US9417692B2 (en) | Deep augmented reality tags for mixed reality | |
CN105900041B (zh) | 利用视线跟踪进行的目标定位 | |
US9696795B2 (en) | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments | |
WO2022005687A1 (en) | Augmented reality experiences with object manipulation | |
US9299183B2 (en) | Detection of partially obscured objects in three dimensional stereoscopic scenes | |
US20190172261A1 (en) | Digital project file presentation | |
CN106125921B (zh) | 3d映射环境中的凝视检测 | |
AU2014302873B2 (en) | User interface navigation | |
JP5300825B2 (ja) | 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体 | |
CN108885803A (zh) | 物理环境中的虚拟对象操纵 | |
CN109683716A (zh) | 基于眼睛跟踪的可见度提高方法和电子装置 | |
US20180150997A1 (en) | Interaction between a touch-sensitive device and a mixed-reality device | |
US8601402B1 (en) | System for and method of interfacing with a three dimensional display | |
US11954268B2 (en) | Augmented reality eyewear 3D painting | |
JP2021514089A (ja) | 物理的操作を用いたオブジェクト作成 | |
WO2022006116A1 (en) | Augmented reality eyewear with speech bubbles and translation | |
US6418234B1 (en) | System and method for storage, retrieval and display of information relating to specimens in marine environments | |
CN115175004B (zh) | 用于视频播放的方法、装置、可穿戴设备及电子设备 | |
CN109844600A (zh) | 信息处理设备、信息处理方法和程序 | |
WO2022005733A1 (en) | Augmented reality eyewear with mood sharing | |
JP7470226B2 (ja) | Xrマルチウィンドウ制御 | |
US11961191B2 (en) | Perceptual property vector for an object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |