CN105210009A - 显示控制装置、显示控制方法和记录介质 - Google Patents

显示控制装置、显示控制方法和记录介质 Download PDF

Info

Publication number
CN105210009A
CN105210009A CN201480025979.6A CN201480025979A CN105210009A CN 105210009 A CN105210009 A CN 105210009A CN 201480025979 A CN201480025979 A CN 201480025979A CN 105210009 A CN105210009 A CN 105210009A
Authority
CN
China
Prior art keywords
display
virtual objects
control unit
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480025979.6A
Other languages
English (en)
Other versions
CN105210009B (zh
Inventor
古贺康之
池田哲男
泉原厚史
池田卓郎
木村健太郎
塚原翼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN105210009A publication Critical patent/CN105210009A/zh
Application granted granted Critical
Publication of CN105210009B publication Critical patent/CN105210009B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Processing Or Creating Images (AREA)

Abstract

提供了一种显示控制装置,包括:视点获取单元,被配置成获取视点检测单元检测的用户的视点;以及显示控制单元,被配置成控制显示单元以使得显示单元立体地显示虚拟对象。该显示控制单元被配置成基于视点而控制呈现给用户的虚拟对象在深度方向上的位置。

Description

显示控制装置、显示控制方法和记录介质
对相关申请的引用
该申请要求2013年5月15日提交的日本优先权专利申请JP2013-102884的权益,并且其全部内容通过引用合并于此。
技术领域
本公开涉及一种显示控制装置、显示控制方法和记录介质。
背景技术
近来,作为安装在用户的头部上的显示器的HMD(头戴式显示器)的开发正在进行中。安装在用户的头上的HMD对内容的显示操作可固定而与用户的情形无关,或者可基于用户的情形来控制。例如,公开了用于基于用户的情形而控制内容的显示操作的技术(例如,参考专利文献1)。
引用列表
专利文献
PTL1:JP2008-65169A
发明内容
技术问题
然而,已开发了基于立体显示而将虚拟对象呈现给用户的HMD。因此,期望实现一种使得能够执行虚拟对象的立体显示以便用户更容易观看的技术。
问题的解决方案
根据本公开的实施例,提供了一种显示控制装置,包括:视点获取单元,被配置成获取视点检测单元检测的用户的视点;以及显示控制单元,被配置成控制显示单元以使得显示单元立体地显示虚拟对象。显示控制单元被配置成基于视点而控制呈现给用户的虚拟对象在深度方向上的位置。
根据本公开的实施例,提供了一种显示控制方法,包括:获取视点检测单元检测的用户的视点,控制显示单元以使得显示单元立体地显示虚拟对象,以及基于视点而控制呈现给用户的虚拟对象在深度方向上的位置。
根据本公开的实施例,提供了一种其上记录有程序的非暂态计算机可读记录介质,该程序使得计算机用作显示控制装置,该显示控制装置包括:视点获取单元,被配置成获取视点检测单元检测的用户的视点;以及显示控制单元,被配置成控制显示单元以使得显示单元立体地显示虚拟对象。显示控制单元被配置成基于视点而控制呈现给用户的虚拟对象在深度方向上的位置。
本发明的有利效果
根据本公开的实施例,提供了一种使得能够执行虚拟对象的立体显示以使得用户更容易观看的技术。
附图说明
图1是示出根据本公开的实施例的信息处理系统的配置示例的图。
图2是示出根据本公开的实施例的信息处理系统的功能配置示例的图。
图3是示出用于控制呈现给用户的虚拟对象在深度方向上的位置的方法的示例的图。
图4是示出当静止时天气预报画面对用户的呈现的示例的图。
图5是示出当行走时天气预报画面对用户的呈现的示例的图。
图6是示出当跑步时天气预报画面对用户的呈现的示例的图。
图7是示出当驾驶时天气预报画面对用户的呈现的示例的图。
图8是示出当静止时导航画面对用户的呈现的示例的图。
图9是示出当行走时导航画面对用户的呈现的示例的图。
图10是示出当行走时导航画面对用户的呈现的示例的图。
图11是示出当静止时跑步应用画面对用户的呈现的示例的图。
图12是示出当行走时跑步应用画面对用户的呈现的示例的图。
图13是示出当跑步时跑步应用画面对用户的呈现的示例的图。
图14是示出基于关于捕获图像的亮度信息而控制虚拟对象的显示位置的示例的图。
图15是示出基于关于捕获图像的颜色信息而控制虚拟对象的显示位置的示例的图。
图16是示出基于关于捕获图像的亮度信息而控制遮挡量的示例的图。
图17是示出基于关于捕获图像的亮度信息而控制遮挡量的示例的图。
图18是示出根据本公开的实施例的显示控制装置中的操作的流程的流程图。
图19是示出根据本公开的实施例的显示控制装置的硬件配置示例的图。
具体实施方式
在下文中,将参照附图详细描述本公开的优选实施例。注意,在该说明书和附图中,具有基本上相同的功能和结构的结构元件以相同的参考数字来表示,并且省略对这些结构元件的重复说明。
此外,在该说明书和附图中,具有基本上相同的功能和结构的结构元件在一些情况下通过标记在同一参考数字之后设置的不同字母来区分。然而,在不需要在具有基本上相同的功能和结构的多个结构元件当中进行区分的情况下,这样的结构元件仅使用同一参考数字来表示。
此外,下面将基于以下顺序来描述“具体实施方式”。
1.实施例
1-1.信息处理系统的配置示例
1-2.信息处理系统的功能配置示例
1-3.显示控制装置的功能细节
1-4.显示控制装置操作
1-5.硬件配置示例
2.总结
<1.实施例>
首先,将描述本公开的实施例。
1-1.信息处理系统的配置示例
首先,将描述根据本公开的实施例的信息处理系统1的配置示例。图1是示出根据本公开的实施例的信息处理系统1的配置示例的图。如图1所示,信息处理系统1包括显示控制装置10、成像单元130、传感器单元140、显示单元150和遮挡单元160。
成像单元130具有捕获成像范围的功能。例如,成像单元130安装在用户的头上以使得可以捕获用户的观看方向。成像单元130捕获的捕获图像30通过例如无线信号或有线信号被提供到显示控制装置10。注意,在图1所示的示例中,尽管成像单元130与显示控制装置10分开配置,但是成像单元130可与显示控制装置10集成。
传感器单元140检测传感器数据。例如,传感器单元140通过捕获用户U的眼睛区域而获取成像结果。虽然以下描述将主要基于用户U的两个眼睛区域均由传感器单元140来捕获的情况,但是传感器单元140可被配置成仅捕获用户U的眼睛区域之一。通过利用传感器单元140进行捕获而获得的成像结果40通过例如无线信号或有线信号被提供到显示控制装置10。
注意,在该说明书中,虽然主要描述了传感器单元140捕获用户U的眼睛区域的情况,但是传感器单元140可执行与用户U的身体有关的其它测量。例如,传感器单元140可以测量用户U的肌电。在该情况下,传感器单元140捕获的所获得的肌电测量结果通过例如无线信号或有线信号被提供到显示控制装置10。
此外,在图1所示的示例中,虽然传感器单元140与显示控制装置10分开配置,但是传感器单元140可与显示控制装置10集成。另外,如下所述,信息处理系统1可具有除传感器单元140之外的传感器。
显示单元150具有基于通过无线信号或有线信号从显示控制装置10提供的控制信号而显示虚拟对象的功能。显示单元150显示的虚拟对象的类型不被特别限制。此外,主要基于显示单元150是透射型HMD(头戴式显示器)的情况来描述该说明书。注意,在图1所示的示例中,虽然显示单元150与显示控制装置10分开配置,但是显示单元150可与显示控制装置10集成。
遮挡单元160具有调整到达用户U的眼睛区域的光量的功能。遮挡单元160可被配置成仅遮挡穿过显示单元150的光的一部分,以阻挡全部光或者让全部光通过。在图1所示的示例中,虽然遮挡单元160设置在显示单元150外部,但是设置遮挡单元160的位置不特别限制。遮挡单元160可例如由液晶快门构成。注意,在图1所示的示例中,虽然遮挡单元160与显示控制装置10分开配置,但是遮挡单元160可与显示控制装置10集成。
以上描述了根据本公开的实施例的信息处理系统1的配置示例。
1-2.信息处理系统的功能配置示例
接下来,将描述根据本公开的实施例的信息处理系统1的功能配置示例。图2是示出根据本公开的实施例的信息处理系统1的功能配置示例的图。如图2所示,根据本公开的实施例的显示控制装置10包括控制单元110和存储单元120。如上所述,成像单元130、传感器单元140、显示单元150和遮挡单元160分别无线地或以有线方式连接到彼此。
控制单元110对应于例如CPU(中央处理单元)等。控制单元110执行存储在存储单元120或其它存储介质中的程序以实现控制单元110具有的各种功能。控制单元110具有视点检测单元111、视点获取单元112、显示控制单元113、行为识别单元114、行为获取单元115、图像获取单元116和遮挡控制单元117。以下将描述这些功能块分别具有的功能。
存储单元120使用诸如半导体存储器或硬盘的存储介质来存储用于操作控制单元110的程序。此外,例如,存储单元120也可以存储程序使用的各种数据(例如,用于虚拟对象等的立体显示的图像)。注意,在图2所示的示例中,虽然存储单元12与显示控制装置10分开配置,但是存储单元120可与显示控制装置10集成。
以上描述了根据本公开的实施例的信息处理系统1的功能配置示例。
1-3.显示控制装置的功能细节
接下来,将描述根据本公开的实施例的显示控制装置的功能细节。首先,显示控制单元113具有控制显示单元150以使得显示单元150立体地显示虚拟对象的功能以及控制呈现给用户的虚拟对象在深度方向上的位置的功能。因此,将描述用于控制呈现给用户的虚拟对象在深度方向上的位置的方法的示例。
图3是示出用于控制呈现给用户的虚拟对象在深度方向上的位置的方法的示例的图。图3所示的示例包括用户的左眼位置el和右眼位置er。这里,如果显示控制单元113在显示单元150L的显示位置dl处显示呈现给用户的左眼的左眼图像并且在显示单元150R的显示位置dr处显示呈现给用户的右眼的右眼图像,则虚拟对象立体地显示在显示位置P处。显示位置P对应于连接左眼位置el和显示位置dl的直线与连接右眼位置er和显示位置dr的直线的交叉点。
在图3所示的示例中,从显示位置P到连接左眼位置el和右眼位置er的直线的距离是会聚距离D,并且由连接左眼位置el和显示位置P的直线与连接右眼位置er和显示位置P的直线形成的角度是会聚角a。显示控制单元113可以通过随着会聚距离D越大(或者会聚角越小)而加宽显示位置dl与显示位置dr之间的间隙,将呈现给用户的虚拟对象在深度方向上的位置进一步移动远离用户。
另一方面,显示控制单元113可以通过随着会聚距离D越小(或者会聚角越大)而缩窄显示位置dl与显示位置dr之间的间隙,将呈现给用户的虚拟对象在深度方向上的位置移动地更靠近用户。因此,通过控制左眼图像的显示位置dl和右眼图像的显示位置dr,显示控制单元113可以控制呈现给用户的虚拟对象在深度方向上的位置。然而,这里描述的方法仅是示例。因此,用于控制呈现给用户的虚拟对象在深度方向上的位置的方法不特别限制。
例如,显示控制单元113还可以通过利用虚拟对象的大小越大其看起来越近的特性控制虚拟对象的大小,控制呈现给用户的虚拟对象在深度方向上的位置。此外,显示控制单元113还可以通过控制虚拟对象焦点对准的位置来控制呈现给用户的虚拟对象在深度方向上的位置。另外,显示控制单元113还可以通过控制视差的幅值来控制呈现给用户的虚拟对象在深度方向上的位置。
以上描述了用于控制呈现给用户的虚拟对象在深度方向上的位置的方法的示例。这里,如果偏差出现在虚拟对象的深度方向上的位置与用户的视点之间,则可能出现更加难以观看虚拟对象的情形。因此,本说明书提出了使得能够立体地显示虚拟对象以使得用户更容易观看的技术。
视点检测单元111基于传感器单元140检测的传感器数据而检测用户的视点。例如,视点检测单元111基于传感器单元140捕获的成像结果40而检测用户的视点。用于利用视点检测单元111检测视点的方法可采用例如在JP2012-8746A中公开的技术。然而,用于利用视点检测单元111检测视点的方法不特别限制。
例如,传感器单元140还可以基于传感器单元140的肌电测量结果而检测用户的视点。在图2所示的示例中,虽然视点检测单元111包括在显示控制装置10中,但是视点检测单元111可取代包括在显示控制装置10中而包括在传感器单元140中。视点检测单元111检测的用户视点由视点获取单元112来获取。
行为识别单元114识别用户行为。用于识别用户行为的方法可采用例如JP2006-345269A中公开的技术。根据本技术,例如,用户行为通过利用传感器检测用户做出的移动以及利用行为识别单元114分析所检测的移动来识别。
然而,用于利用行为识别单元114识别行为的方法不特别限于该示例。例如,如果接收到从用户输入的行为,则行为识别单元114可以获取从用户接收到其输入的行为。在图2所示的示例中,虽然行为识别单元114包括在显示控制装置10中,但是行为识别单元114也可取代包括在显示控制装置10中而包括在传感器单元140中。行为识别单元114识别的用户行为由行为获取单元115来获取。
接下来,显示控制单元113基于视点获取单元112获取的视点而控制呈现给用户的虚拟对象在深度方向上的位置。该控制允许基于距用户视点的距离而控制呈现给用户的虚拟对象在深度方向上的位置,以使得可以显示虚拟对象的立体显示以便用户更容易观看。
现在将更详细地描述用于控制呈现给用户的虚拟对象在深度方向上的位置的方法的示例。首先,将参照图4至图7描述虚拟对象是天气预报画面的示例。然而,由于如上所述虚拟对象的种类不特别限制的事实,因此虚拟对象显然不限于天气预报画面。
图4至图6是示出当用户分别静止、行走和跑步时天气预报画面50-A1至50-A3对用户的呈现的示例的图。如图4至图6所示,行走时的用户视点比静止时更远,并且跑步时的用户视点比行走时更远。因此,例如,显示控制单元113可以随着视点更加远离用户而将呈现给用户的虚拟对象在深度方向上的位置移动得更远。
注意,也可存在视点仅暂时改变的情况。如果甚至在这样的情况下每次距用户视点的距离改变时呈现给用户的虚拟对象在深度方向上的位置也改变,则可能对用户施加更大的负担。因此,显示控制单元113也可以被配置成在甚至在预定持续时间过去之后视点也不改变的情况下控制呈现给用户的虚拟对象在深度方向上的位置。
此外,内容(例如,字符数据、图像数据等)包括在每个天气预报画面50-A1至50-A3上。虽然内容可固定而与用户行为无关,但是内容也可以基于用户行为而改变。例如,显示控制单元113可以基于行为获取单元115获取的行为而控制包括在天气预报画面上的内容。
可以以任何方式执行对包括在天气预报画面上的内容的控制。例如,显示控制单元113可以控制包括在虚拟对象中的内容信息的量。例如,如图4至图6所示,可能出现当行走时内容不是如静止时一样容易观看的情形。因此,显示控制单元113可以控制以使得行为的移动速度越大,包括在呈现给用户的天气预报画面上的内容信息的量越小。
此外,显示控制单元113也可以基于用户行为而控制包括在虚拟对象中的内容的显示大小。例如,如上所述,可能出现当行走时内容不是如静止时一样容易观看的情形。另外,可能出现当跑步时内容不是如行走时一样容易观看的情形。因此,显示控制单元113可以控制以使得行为的移动速度越大,包括在呈现给用户的天气预报画面上的内容的显示大小越大。
此外,显示控制单元113还可以基于用户行为而控制包括在虚拟对象中的内容在虚拟对象中的位置。例如,如上所述,可能出现当行走时内容不是如静止时一样容易观看的情形。另外,可能出现当跑步时内容不是如行走时一样容易观看的情形。因此,显示控制单元113可以控制以使得行为的移动速度越大,包括在呈现给用户的天气预报画面上的内容在虚拟对象中的位置集中在虚拟对象的边缘部分处。
与用户行为对应的天气预报画面可预先创建,或者可在每次显示画面时创建。例如,如果天气预报画面是预先创建的,则显示控制单元113可以被配置成将与用户行为对应的天气预报画面呈现给用户。此外,显示控制单元113也可以被配置成基于关于与用户行为对应的内容的信息量而创建天气预报画面。
类似地,显示控制单元113也可以基于与用户行为对应的内容的显示大小而创建天气预报画面。此外,显示控制单元113可以基于内容在虚拟对象中的位置而创建天气预报画面。
注意,显示控制单元113可以基于用户行为而控制呈现给用户的虚拟对象在深度方向上的位置。例如,显示控制单元113可以控制以使得行为指示的移动速度越大,呈现给用户的虚拟对象在深度方向上的位置越远。
此外,虽然显示控制单元113可以基于用户的行为或视点而控制呈现给用户的虚拟对象在深度方向上的位置,但是显示控制单元113也可以基于用户的行为和视点两者而控制呈现给用户的虚拟对象在深度方向上的位置。替选地,显示控制单元113可以基于情形确定优先使用用户的行为还是视点。
图7是示出当驾驶时天气预报画面50-A4对用户的呈现的示例的图。如图7所示,当用户在驾驶车辆时,虽然他的/她的行为是“静止”,但是他的/她的视点通常较远。因此,显示控制单元113可以通过优先于行为利用视点而基于视点来控制呈现给用户的天气预报画面50-A4在深度方向上的位置。
图8至图10是示出当用户分别在静止、行走和跑步时导航画面50-B1至50-B3对用户的呈现的示例的图。如图8至图10所示,即使虚拟对象是导航画面,也可以以与虚拟对象是天气预报画面时相同的方式来控制呈现给用户的虚拟对象在深度方向上的位置。显然,虚拟对象不限于导航画面。
此外,图11至图13是示出当用户分别在静止、行走和跑步时跑步应用画面50-C1至50-C3对用户的呈现的示例的图。如图11至图13所示,即使虚拟对象是跑步应用画面,也可以以与虚拟对象是天气预报画面时相同的方式来控制呈现给用户的虚拟对象在深度方向上的位置。显然,虚拟对象不限于跑步应用画面。
在上述示例中,虽然描述了用于基于用户本身的视点或行为来控制虚拟对象的方法,但是也可以基于各种其它因素来控制虚拟对象。作为示例,图像获取单元116可以获取成像单元130捕获的捕获图像30,并且显示控制单元113可以基于图像获取单元116获取的捕获图像30而控制虚拟对象。该控制使得能够基于用户周围的环境而控制虚拟对象。
用于基于捕获图像30而控制虚拟对象的方法不特别限制。例如,显示控制单元113可以基于关于捕获图像30的亮度信息而控制虚拟对象的显示位置。图14是示出基于关于捕获图像30的亮度信息而控制虚拟对象50的显示位置的示例的图。如图14所示,捕获图像30-A包括区域30-A1和区域30-A2。
这里,考虑例如如下情况:其中,当显示控制单元113试图在虚拟区域30-A1上显示虚拟对象50时,显示控制单元113检测到区域30-A1的亮度高于阈值。然而,显示控制单元113还检测到区域30-A2的亮度小于阈值。在这样的情况下,显示控制单元113可以将虚拟对象50的显示位置改变为区域30-A2。该改变使得能够呈现用户可以容易观看的虚拟对象50。
注意,虽然描述了虚拟对象50的显示位置由显示控制单元113来控制的示例,但是显示控制单元113可以基于关于捕获图像30的亮度信息而控制虚拟对象的亮度。例如,在图14所示的示例中,取代将虚拟对象50的显示位置改变为区域30-A2,显示控制单元113可以增加虚拟对象50的亮度。该改变也使得能够呈现用户可以容易地观看的虚拟对象50。
此外,显示控制单元113还可以基于关于捕获图像30的颜色信息而控制虚拟对象的显示位置。图15是示出基于关于捕获图像30的颜色信息来控制虚拟对象50的显示位置的示例的图。如图15所示,捕获图像30-B包括区域30-B1和区域30-B2。
这里,考虑例如如下情况:其中,当显示控制单元113试图在显示区域30-B1上显示虚拟对象50时,显示控制单元113检测到区域30-B1和虚拟对象50是类似颜色。然而,显示控制单元113还检测到区域30-B2和虚拟对象40不是类似颜色。在这样的情况下,显示控制单元113可以将虚拟对象50的显示位置改变为区域30-B2。该改变使得能够呈现用户可以容易地观看的虚拟对象50。
例如,如果区域30-B2的颜色与虚拟对象50的颜色之间的距离小于阈值,则显示控制单元113检测到区域30-B1和虚拟对象50是类似颜色。区域30-B2的颜色与虚拟对象50的颜色之间的距离可以基于当区域30-B2的R值、G值和B值绘制在X轴、Y轴和Z轴上并且虚拟对象50的R值、G值和B值绘制在X轴、Y轴和Z轴上时的两个点之间的三维距离来计算。
注意,虽然描述了虚拟对象50的显示位置由显示控制单元113来控制的示例,但是显示控制单元113可以基于关于捕获图像30的颜色信息而控制虚拟对象的颜色。例如,在图15所示的示例中,取代将虚拟对象50的显示位置改变为区域30-B2,显示控制单元113可以改变虚拟对象50的颜色。显示控制单元113还可以将虚拟对象50的颜色改变为区域30-B2的颜色的互补颜色。该改变也使得能够呈现用户可以容易观看的虚拟对象50。
此外,例如,显示控制单元113还可以基于从捕获图像30提取的特征量而控制虚拟对象50的显示位置。再次参照图14,当显示控制单元113试图在区域30-A1上显示虚拟对象50时,由于在区域30-A1中在壁前方存在对象,因此显示控制单元113检测到从区域30-A1提取的特征量的稳定度小于阈值。另一方面,由于在区域30-A2中在壁前方没有对象,因此显示控制单元113检测到从区域30-A2提取的特征量的稳定度大于阈值。
在这样的情况下,显示控制单元113可以将虚拟对象50的显示位置改变为区域30-A2。该改变使得能够呈现用户可以容易观看的虚拟对象50。用于计算每个区域中的特征量的稳定度的方法不特别限制。例如,显示控制单元113可以计算随着每个区域中的特征量的最大值与最小值之间的差越小稳定度越高。
此外,例如,如果从捕获图像30检测到对象,则显示控制单元113还可以基于对象的位置而控制呈现给用户的虚拟对象50的显示位置。现在将再次参照图14描述壁用作对象的示例的示例。这里,当显示控制单元113试图显示虚拟对象50时,显示控制单元113识别在区域30-A2中示出了壁。在该情况下,显示控制单元113可以在识别出示出壁的区域30-A2上显示虚拟对象50。
另外,显示控制单元113还可以控制虚拟对象50在深度方向上的位置。例如,显示控制单元113可以测量从成像单元130到聚焦中的目标的距离作为壁在深度方向上的位置,并且调整以使得虚拟对象50在深度方向上的位置与壁在深度方向上的位置匹配。由于还基于对象在深度方向上的位置来调整虚拟对象50在深度方向上的位置,因此这使得能够更自然地呈现虚拟对象50。
这里,如上所述,信息处理系统1包括遮挡单元160,该遮挡单元160调整到达用户U的眼睛区域的光的量。遮挡单元160的遮挡量可以是固定的,或者可以基于情形来控制。例如,遮挡控制单元117可以基于关于捕获图像30的亮度信息而控制遮挡单元160的遮挡量。图16和图17是示出基于关于捕获图像30的亮度信息来控制遮挡量的示例的图。
在图16所示的示例中,捕获图像30-C1由图像获取单元116来获取。这里,由于捕获图像30-C1是在亮的位置捕获的,因此亮度高。在这样的情况下,遮挡控制单元117可以控制遮挡单元160(遮挡单元160L和遮挡单元160R)以使得遮挡量较大。
另一方面,在图17所示的示例中,捕获图像30-C2由图像获取单元116来获取。这里,由于捕获图像30-C2是在暗的位置捕获的,因此亮度低。在这样的情况下,遮挡控制单元117可以控制遮挡单元160(遮挡单元160L和遮挡单元160R)以使得遮挡量较小。
因此,遮挡控制单元117可以控制遮挡单元160以使得捕获图像30的亮度越高遮挡单元160的遮挡量越大。该控制使得在用户的视野较亮时能够减小入射在用户的眼睛上的光量,这应该使得用户更容易观看虚拟对象50。
以上描述了根据本公开的实施例的显示控制装置10的功能细节。
1-4.显示控制装置操作
接下来,将描述根据本公开的实施例的显示控制装置10中的操作的流程。图18是示出根据本公开的实施例的显示控制装置10中的操作的流程的流程图。注意,图18所示的示例仅是根据本公开的实施例的显示控制装置10中的操作的流程的示例。因此,根据本公开的实施例的显示控制装置10中的操作的流程不限于图18所示的示例。
如图18所示,首先,视点获取单元112获取视点检测单元111检测的用户视点(S11),并且行为获取单元115获取行为识别单元114识别的用户行为(S12)。此外,图像获取单元116获取成像单元130捕获的捕获图像(S13)。显示控制单元113基于视点获取单元112获取的视点而控制呈现给用户的虚拟对象的深度方向上的位置(S14)。
此外,显示控制单元113基于行为获取单元115获取的行为而控制包括在虚拟对象中的内容(S15)。另外,显示控制单元113基于成像单元130捕获的捕获图像而控制虚拟对象(S16)。遮挡控制单元117基于关于捕获图像的亮度信息而控制遮挡单元160的遮挡量(S17)。在S17的操作结束之后,控制单元110可以返回到S11的操作或者结束操作。
以上描述了根据本公开的实施例的显示控制装置10中的操作的流程。
1-5.硬件配置示例
接下来,将描述根据本公开的实施例的显示控制装置10的硬件配置示例。图19是示出根据本公开的实施例的显示控制装置10的硬件配置的示例的图。图19所示的硬件配置示例仅是显示控制装置10的硬件配置示例的示例。因此,显示控制装置10的硬件配置示例不限于图19所示的示例。
如图19所示,显示控制装置10包括CPU(中央处理单元)901、ROM(只读存储器)902、RAM(随机存取存储器)903、输入装置908、输出装置910、存储装置911和驱动器912。
用作计算处理装置和控制装置的CPU901基于各种程序而控制显示控制装置10的总体操作。此外,CPU901可以是微处理器。ROM902存储CPU901使用的程序、计算参数等。RAM903暂时存储在CPU901的执行期间要使用的程序以及在执行期间适当地改变的参数。这些单元通过主机总线连接到彼此,该主机总线由CPU总线等构成。
输入装置908接收传感器单元140测量的传感器数据(例如,传感器单元140捕获的成像结果)和成像单元130捕获的捕获图像的输入。传感器数据和其输入由输入装置908接收的捕获图像被输出到CPU901。此外,输入装置908还可以将其它传感器检测的检测结果输出到CPU901。
输出装置910将输出数据提供到显示单元150。例如,输出装置910在CPU901的控制之下将显示数据提供到显示单元150。如果显示单元150由音频输出装置构成,则输出装置910在CPU901的控制之下将音频数据提供到显示单元150。
存储装置911是被配置为显示控制装置10中的存储单元120的示例的用于存储数据的装置。存储装置911还可包括存储介质、将数据记录在存储介质上的记录装置、从存储介质读取数据的读取装置、删除记录在存储介质上的数据的删除装置等。该存储装置911存储CPU901执行的程序和各种数据。
驱动器912是可内置于或外接到显示控制装置10的存储介质读取器/写入器。驱动器912读取记录在可移除存储介质71(诸如安装的磁盘、光盘、磁光盘或半导体存储器)上的信息,并且将所读取的信息输出到RAM903。此外,驱动器912还可以将信息写入到可移除存储介质71。
以上描述了根据本公开的实施例的显示控制装置10的硬件配置示例。
<2.总结>
如上所述,根据本公开的实施例,提供了一种显示控制装置10,包括:视点获取单元112,获取视点检测单元111检测的用户视点;以及显示控制单元113,控制显示单元150以使得显示单元150立体地显示虚拟对象50,其中,显示控制单元113基于视点而控制呈现给用户的虚拟对象50在深度方向上的位置。根据该配置,可以立体地显示虚拟对象以使得用户更容易观看。
本领域技术人员应理解可根据设计要求和其它因素而进行各种修改、组合、子组合和变更,只要它们落入所附权利要求或其等同方案的范围内。
此外,用于实现与包括在上述显示控制装置10中的单元相同的功能的程序也可以重建包括在计算机中的硬件,诸如CPU、ROM和RAM。另外,也可以提供其上记录有该程序的非暂态计算机可读记录介质。
另外,本技术也可如下进行配置。
(1)一种显示控制装置,包括:获取单元,被配置成获取用户的行为;以及显示控制单元,被配置成控制显示单元在具有用户可感知的深度的显示位置处显示虚拟对象,所述显示位置是基于所获取的所述用户的行为确定的,其中,所述获取单元和所述显示控制单元中的至少一个是经由一个或更多个处理器实现的。
(2)根据(1)所述的显示控制装置,其中,所述显示控制装置还包括所述显示单元。
(3)根据(1)所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制包括在所述虚拟对象中的内容信息的量。
(4)根据(1)所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制包括在所述虚拟对象中的内容的显示大小。
(5)根据(1)所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制包括在所述虚拟对象中的内容在所述虚拟对象中的位置。
(6)根据(1)所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制呈现给所述用户的虚拟对象的深度方向上的显示位置的定位。
(7)根据(1)所述的显示控制装置,还包括:图像获取单元,被配置成获取成像单元捕获的捕获图像,其中,所述显示控制单元还被配置成基于所述捕获图像而控制所述虚拟对象的显示。
(8)根据(7)所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的亮度信息而控制所述虚拟对象的显示位置的定位。
(9)根据(7)所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的亮度信息而控制所显示的虚拟对象的亮度。
(10)根据(7)所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的颜色信息而控制所述虚拟对象的显示位置的定位。
(11)根据(7)所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的颜色信息而控制所显示的虚拟对象的颜色。
(12)根据(7)所述的显示控制装置,其中,所述显示控制单元还被配置成基于从所述捕获图像提取的特征量而控制所述虚拟对象的显示位置的定位。
(13)根据(1)所述的显示控制装置,还包括:图像获取单元,被配置成获取成像单元捕获的捕获图像;以及遮挡控制单元,被配置成基于关于所述捕获图像的亮度信息而控制所显示的虚拟对象的遮挡量。
(14)根据(1)所述的显示控制装置,其中,所述显示控制单元还被配置成通过控制呈现给所述用户的左眼的左眼图像的显示位置和呈现给所述用户的右眼的右眼图像的显示位置而控制呈现给所述用户的虚拟对象的深度方向上的显示位置的定位。
(15)根据(1)所述的显示控制装置,还包括:图像获取单元,被配置成获取成像单元捕获的捕获图像,其中,所述显示控制单元还被配置成当从所述捕获图像检测到对象时,基于所检测的对象的位置而控制呈现给所述用户的虚拟对象的显示位置的定位。
(16)根据(1)所述的显示控制装置,还包括:视点获取单元,被配置成获取视点检测单元检测的所述用户的视点,其中,所述显示控制单元还被配置成随着所检测的视点距离所述用户越远,将呈现给所述用户的虚拟对象的深度方向上的显示位置的定位移动得更远。
(17)根据(16)所述的显示控制装置,其中,所获取的视点位于所述用户的凝视的方向上并且对应于所述凝视的深度。
(18)根据(1)所述的显示控制装置,还包括:视点获取单元,被配置成获取视点检测单元检测的所述用户的视点,其中,所述虚拟对象的显示位置还基于所获取的所述用户的视点而确定。
(19)根据(1)所述的显示控制装置,其中,所显示的虚拟对象的大小和朝向中的至少一个是基于所获取的所述用户的行为而确定的。
(20)根据(1)所述的显示控制装置,其中,所述显示控制单元还被配置成控制所述显示单元立体地显示所述虚拟对象。
(21)根据(1)所述的显示控制装置,其中,所述显示控制单元被配置成控制所述显示单元与所获取的行为的较高检测移动速度相关地显示所述虚拟对象的显示内容的较小量、所述虚拟对象的显示内容的较大显示大小和所述虚拟对象的内容的更加朝向所述虚拟对象的边缘部分的显示中的至少一个。
(22)根据(1)所述的显示控制装置,其中,所述显示位置对应于真实世界定位,并且所述虚拟对象被提供为重叠在所述真实世界的用户感知视野内,所述显示位置是基于所获取的所述用户的行为而确定的。
(23)根据(1)所述的显示控制装置,还包括:传感器单元,被配置成获得关于所述用户的传感器数据。
(24)根据(1)所述的显示控制装置,还包括:成像单元,被配置成捕获所述用户的观看方向上的图像。
(25)一种显示控制方法,包括:获取用户的行为;控制显示单元显示虚拟对象;以及控制所述显示单元在具有用户可感知的深度的显示位置处显示所述虚拟对象,所述显示位置是基于所获取的所述用户的行为而确定的。
(26)一种其上实现有程序的非暂态计算机可读记录介质,所述程序当由计算机执行时使得所述计算机执行显示控制方法,所述方法包括:获取用户的行为;控制显示单元显示虚拟对象;以及控制所述显示单元在具有用户可感知的深度的显示位置处显示所述虚拟对象,所述显示位置是基于所获取的所述用户的行为而确定的。
(27)一种显示控制装置,包括:
视点获取单元,被配置成获取视点检测单元检测的用户的视点;以及
显示控制单元,被配置成控制显示单元以使得所述显示单元立体地显示虚拟对象,
其中,所述显示控制单元被配置成基于所述视点而控制呈现给所述用户的虚拟对象在深度方向上的位置。
(28)根据(27)所述的显示控制装置,还包括:
行为获取单元,被配置成获取行为识别单元识别的用户行为,
其中,所述显示控制单元被配置成基于所述行为而控制包括在所述虚拟对象中的内容。
(29)根据(28)所述的显示控制装置,其中,所述显示控制单元被配置成基于所述行为而控制包括在所述虚拟对象中的内容信息的量。
(30)根据(28)所述的显示控制装置,其中,所述显示控制单元被配置成基于所述行为而控制包括在所述虚拟对象中的内容的显示大小。
(31)根据(28)所述的显示控制装置,其中,所述显示控制单元被配置成基于所述行为而控制包括在所述虚拟对象中的内容在虚拟对象中的位置。
(32)根据(27)所述的显示控制装置,还包括:
行为获取单元,被配置成获取行为识别单元识别的用户行为,
其中,所述显示控制单元被配置成基于所述行为而控制呈现给所述用户的虚拟对象在深度方向上的位置。
(33)根据(27)至(32)中任一项所述的显示控制装置,还包括:
图像获取单元,被配置成获取成像单元捕获的捕获图像,
其中,所述显示控制单元被配置成基于所述捕获图像而控制所述虚拟对象。
(34)根据(33)所述的显示控制装置,其中,所述显示控制单元被配置成基于关于所述捕获图像的亮度信息而控制所述虚拟对象的显示位置。
(35)根据(33)所述的显示控制装置,其中,所述显示控制单元被配置成基于关于所述捕获图像的亮度信息而控制所述虚拟对象的亮度。
(36)根据(33)所述的显示控制装置,其中,所述显示控制单元被配置成基于关于所述捕获图像的颜色信息而控制所述虚拟对象的显示位置。
(37)根据(33)所述的显示控制装置,其中,所述显示控制单元被配置成基于关于所述捕获图像的颜色信息而控制所述虚拟对象的颜色。
(38)根据(33)所述的显示控制装置,其中,所述显示控制单元被配置成基于从所述捕获图像提取的特征量而控制所述虚拟对象的显示位置。
(39)根据(27)至(38)中任一项所述的显示控制装置,还包括:
图像获取单元,被配置成获取成像单元捕获的捕获图像;以及
遮挡控制单元,被配置成基于关于所述捕获图像的亮度信息而控制遮挡单元的遮挡量。
(40)根据(27)至(39)中任一项所述的显示控制装置,其中,所述显示控制单元被配置成通过控制呈现给所述用户的左眼的左眼图像的显示位置和呈现给所述用户的右眼的右眼图像的显示位置而控制呈现给所述用户的虚拟对象在深度方向上的位置。
(41)根据(27)至(40)中任一项所述的显示控制装置,还包括:
图像获取单元,被配置成获取成像单元捕获的捕获图像,
其中,所述显示控制单元被配置成在从所述捕获图像检测到对象时,基于所述对象的位置而控制呈现给所述用户的虚拟对象的位置。
(42)根据(27)至(40)中任一项所述的显示控制装置,其中,所述显示控制单元被配置成随着所述视点距离所述用户越远而将呈现给所述用户的虚拟对象在深度方向上的位置移动得更远。
(43)一种显示控制方法,包括:
获取视点检测单元检测的用户的视点;
控制显示单元以使得所述显示单元立体地显示虚拟对象;以及
基于所述视点而控制呈现给所述用户的虚拟对象在深度方向上的位置。
(44)一种其上记录有程序的非暂态计算机可读记录介质,所述程序使得计算机用作显示控制装置,所述显示控制装置包括:
视点获取单元,被配置成获取视点检测单元检测的用户的视点;以及
显示控制单元,被配置成控制显示单元以使得所述显示单元立体地显示虚拟对象,
其中,所述显示控制单元被配置成基于所述视点而控制呈现给所述用户的虚拟对象在深度方向上的位置。
附图标记列表
1信息处理系统
10显示控制装置
30捕获图像
40成像结果
50虚拟对象
110控制单元
111视点检测单元
112视点获取单元
113显示控制单元
114行为识别单元
115行为获取单元
116图像获取单元
117遮挡控制单元
120存储单元
130成像单元
140传感器单元
150(150L、150R)显示单元
160(160L、160R)遮挡单元

Claims (26)

1.一种显示控制装置,包括:
获取单元,被配置成获取用户的行为;以及
显示控制单元,被配置成控制显示单元在具有用户可感知的深度的显示位置处显示虚拟对象,所述显示位置是基于所获取的所述用户的行为确定的,
其中,所述获取单元和所述显示控制单元中的至少一个是经由一个或更多个处理器实现的。
2.根据权利要求1所述的显示控制装置,
其中,所述显示控制装置还包括所述显示单元。
3.根据权利要求1所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制包括在所述虚拟对象中的内容信息的量。
4.根据权利要求1所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制包括在所述虚拟对象中的内容的显示大小。
5.根据权利要求1所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制包括在所述虚拟对象中的内容在所述虚拟对象中的位置。
6.根据权利要求1所述的显示控制装置,其中,所述显示控制单元还被配置成基于所述行为而控制呈现给所述用户的虚拟对象的深度方向上的显示位置的定位。
7.根据权利要求1所述的显示控制装置,还包括:
图像获取单元,被配置成获取成像单元捕获的捕获图像,
其中,所述显示控制单元还被配置成基于所述捕获图像而控制所述虚拟对象的显示。
8.根据权利要求7所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的亮度信息而控制所述虚拟对象的显示位置的定位。
9.根据权利要求7所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的亮度信息而控制所显示的虚拟对象的亮度。
10.根据权利要求7所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的颜色信息而控制所述虚拟对象的显示位置的定位。
11.根据权利要求7所述的显示控制装置,其中,所述显示控制单元还被配置成基于关于所述捕获图像的颜色信息而控制所显示的虚拟对象的颜色。
12.根据权利要求7所述的显示控制装置,其中,所述显示控制单元还被配置成基于从所述捕获图像提取的特征量而控制所述虚拟对象的显示位置的定位。
13.根据权利要求1所述的显示控制装置,还包括:
图像获取单元,被配置成获取成像单元捕获的捕获图像;以及
遮挡控制单元,被配置成基于关于所述捕获图像的亮度信息而控制所显示的虚拟对象的遮挡量。
14.根据权利要求1所述的显示控制装置,其中,所述显示控制单元还被配置成通过控制呈现给所述用户的左眼的左眼图像的显示位置和呈现给所述用户的右眼的右眼图像的显示位置而控制呈现给所述用户的虚拟对象的深度方向上的显示位置的定位。
15.根据权利要求1所述的显示控制装置,还包括:
图像获取单元,被配置成获取成像单元捕获的捕获图像,
其中,所述显示控制单元还被配置成当从所述捕获图像检测到对象时,基于所检测的对象的位置而控制呈现给所述用户的虚拟对象的显示位置的定位。
16.根据权利要求1所述的显示控制装置,还包括:
视点获取单元,被配置成获取视点检测单元检测的所述用户的视点,
其中,所述显示控制单元还被配置成随着所检测的视点距离所述用户越远,将呈现给所述用户的虚拟对象的深度方向上的显示位置的定位移动得更远。
17.根据权利要求16所述的显示控制装置,其中,所获取的视点位于所述用户的凝视的方向上并且对应于所述凝视的深度。
18.根据权利要求1所述的显示控制装置,还包括:
视点获取单元,被配置成获取视点检测单元检测的所述用户的视点,
其中,所述虚拟对象的显示位置还基于所获取的所述用户的视点而确定。
19.根据权利要求1所述的显示控制装置,其中,所显示的虚拟对象的大小和朝向中的至少一个是基于所获取的所述用户的行为而确定的。
20.根据权利要求1所述的显示控制装置,其中,所述显示控制单元还被配置成控制所述显示单元立体地显示所述虚拟对象。
21.根据权利要求1所述的显示控制装置,
其中,所述显示控制单元被配置成控制所述显示单元与所获取的行为的较高检测移动速度相关地显示所述虚拟对象的显示内容的较小量、所述虚拟对象的显示内容的较大显示大小和所述虚拟对象的内容的更加朝向所述虚拟对象的边缘部分的显示中的至少一个。
22.根据权利要求1所述的显示控制装置,其中,所述显示位置对应于真实世界定位,并且所述虚拟对象被提供为重叠在所述真实世界的用户感知视野内,所述显示位置是基于所获取的所述用户的行为而确定的。
23.根据权利要求1所述的显示控制装置,还包括:
传感器单元,被配置成获得关于所述用户的传感器数据。
24.根据权利要求1所述的显示控制装置,还包括:
成像单元,被配置成捕获所述用户的观看方向上的图像。
25.一种显示控制方法,包括:
获取用户的行为;
控制显示单元显示虚拟对象;以及
控制所述显示单元在具有用户可感知的深度的显示位置处显示所述虚拟对象,所述显示位置是基于所获取的所述用户的行为而确定的。
26.一种其上实现有程序的非暂态计算机可读记录介质,所述程序当由计算机执行时使得所述计算机执行显示控制方法,所述方法包括:
获取用户的行为;
控制显示单元显示虚拟对象;以及
控制所述显示单元在具有用户可感知的深度的显示位置处显示所述虚拟对象,所述显示位置是基于所获取的所述用户的行为而确定的。
CN201480025979.6A 2013-05-15 2014-04-10 显示控制装置、显示控制方法和记录介质 Active CN105210009B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013102884A JP6318470B2 (ja) 2013-05-15 2013-05-15 表示制御装置、表示制御方法および記録媒体
JP2013-102884 2013-05-15
PCT/JP2014/002065 WO2014185002A1 (en) 2013-05-15 2014-04-10 Display control device, display control method, and recording medium

Publications (2)

Publication Number Publication Date
CN105210009A true CN105210009A (zh) 2015-12-30
CN105210009B CN105210009B (zh) 2018-08-14

Family

ID=50687547

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480025979.6A Active CN105210009B (zh) 2013-05-15 2014-04-10 显示控制装置、显示控制方法和记录介质

Country Status (5)

Country Link
US (1) US20160078685A1 (zh)
EP (1) EP2997445A1 (zh)
JP (1) JP6318470B2 (zh)
CN (1) CN105210009B (zh)
WO (1) WO2014185002A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6443677B2 (ja) 2015-03-12 2018-12-26 日本精機株式会社 ヘッドマウントディスプレイ装置
WO2016143744A1 (ja) * 2015-03-12 2016-09-15 日本精機株式会社 ヘッドマウントディスプレイ装置
US9977241B2 (en) 2015-03-17 2018-05-22 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
EP3417307A4 (en) * 2016-02-18 2019-09-11 Edx Technologies, Inc. SYSTEMS AND METHODS FOR AUGMENTED REALITY DISPLAYS OF NETWORKS
KR102607714B1 (ko) * 2017-03-07 2023-11-28 8259402 캐나다 인크. 디스플레이에서 가상 이미지를 제어하기 위한 방법
WO2019044188A1 (ja) * 2017-08-29 2019-03-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR102486421B1 (ko) * 2017-10-16 2023-01-10 삼성디스플레이 주식회사 헤드 마운트 디스플레이 장치 및 이의 동작 방법
JP6892961B1 (ja) * 2020-09-29 2021-06-23 Kddi株式会社 制御装置、表示制御方法及び表示制御プログラム
US11514654B1 (en) * 2021-12-09 2022-11-29 Unity Technologies Sf Calibrating focus/defocus operations of a virtual display based on camera settings

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243307A1 (en) * 2003-06-02 2004-12-02 Pieter Geelen Personal GPS navigation device
JP2006345269A (ja) * 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
WO2013006518A2 (en) * 2011-07-01 2013-01-10 James Chia-Ming Liu Multi-visor: managing applications in head mounted displays
US20130076876A1 (en) * 2010-10-19 2013-03-28 Mitsubishi Electric Corporation 3dimension stereoscopic display device

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3877080B2 (ja) * 1996-05-24 2007-02-07 オリンパス株式会社 立体視ディスプレイ装置
JP4268191B2 (ja) * 2004-12-14 2009-05-27 パナソニック株式会社 情報提示装置、情報提示方法、プログラム、及び記録媒体
JP2007210462A (ja) * 2006-02-09 2007-08-23 Mitsubishi Motors Corp 車両用表示制御装置および車両用表示システム
JP2007219081A (ja) * 2006-02-15 2007-08-30 Canon Inc 画像表示システム
JP5228305B2 (ja) * 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
JP2008176096A (ja) * 2007-01-19 2008-07-31 Brother Ind Ltd 画像表示装置
WO2009002567A1 (en) * 2007-06-27 2008-12-31 The University Of Hawaii Virtual reality overlay
JP4834116B2 (ja) * 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
US20110267374A1 (en) * 2009-02-05 2011-11-03 Kotaro Sakata Information display apparatus and information display method
JP5343676B2 (ja) * 2009-04-08 2013-11-13 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
JP4679661B1 (ja) * 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
JP5548042B2 (ja) 2010-06-23 2014-07-16 ソフトバンクモバイル株式会社 ユーザ端末装置及びショッピングシステム
JP5499985B2 (ja) * 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
JP5622510B2 (ja) * 2010-10-01 2014-11-12 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
JP5627418B2 (ja) * 2010-11-29 2014-11-19 キヤノン株式会社 映像表示装置及び方法
JP5960466B2 (ja) * 2012-03-28 2016-08-02 京セラ株式会社 画像処理装置、撮像装置、車両の運転支援装置、及び画像処理方法
DE102012224173A1 (de) * 2012-07-04 2013-03-14 Continental Teves Ag & Co. Ohg Befestigungseinrichtung zur Fixierung eines Kabels
US9568735B2 (en) * 2012-08-07 2017-02-14 Industry-University Cooperation Foundation Hanyang University Wearable display device having a detection function
BR112015024910A2 (pt) * 2013-03-26 2017-07-18 Seiko Epson Corp dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição
US9317114B2 (en) * 2013-05-07 2016-04-19 Korea Advanced Institute Of Science And Technology Display property determination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243307A1 (en) * 2003-06-02 2004-12-02 Pieter Geelen Personal GPS navigation device
JP2006345269A (ja) * 2005-06-09 2006-12-21 Sony Corp 情報処理装置および方法、並びにプログラム
US20130076876A1 (en) * 2010-10-19 2013-03-28 Mitsubishi Electric Corporation 3dimension stereoscopic display device
WO2013006518A2 (en) * 2011-07-01 2013-01-10 James Chia-Ming Liu Multi-visor: managing applications in head mounted displays

Also Published As

Publication number Publication date
US20160078685A1 (en) 2016-03-17
JP2014225727A (ja) 2014-12-04
JP6318470B2 (ja) 2018-05-09
EP2997445A1 (en) 2016-03-23
CN105210009B (zh) 2018-08-14
WO2014185002A1 (en) 2014-11-20

Similar Documents

Publication Publication Date Title
CN105210009A (zh) 显示控制装置、显示控制方法和记录介质
US9239460B2 (en) Calibration of eye location
KR102093198B1 (ko) 시선 인식을 이용한 사용자 인터페이스 방법 및 장치
CN105339868A (zh) 基于眼睛跟踪的视觉增强
CN105247466B (zh) 显示控制装置,显示控制方法和记录介质
US11302037B2 (en) Electronic device for adaptively altering information display area and operation method thereof
US10810424B2 (en) Method and apparatus for generating virtual driving lane for traveling vehicle
US11126848B2 (en) Information processing device, information processing method, and information processing program
US9423872B2 (en) Portable device for tracking user gaze to provide augmented reality display
US10979696B2 (en) Method and apparatus for determining interpupillary distance (IPD)
CN109727271A (zh) 用于跟踪对象的方法和设备
EP3736666B1 (en) Information processing device, information processing method and program
US10809873B2 (en) Controlling content displayed in a display
US20190073793A1 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
GB2449855A (en) System and method for measuring pupillary distance
CN105474070A (zh) 头戴式显示设备及其控制方法
CN110832438A (zh) 可穿戴终端显示系统、可穿戴终端显示方法以及程序
GB2583672A (en) Systems and methods for task-based adjustable focal distance for heads-up displays
Pourazar et al. A comprehensive framework for evaluation of stereo correspondence solutions in immersive augmented and virtual realities
US20220066552A1 (en) Transparent Smartphone
CN106657976A (zh) 一种可视范围延伸方法、装置及虚拟现实眼镜
WO2018198320A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
KR102236095B1 (ko) 셀러 글래스, 이의 제어 방법, 컴퓨터 프로그램이 기록된 기록 매체 및 고객 서비스 제공 시스템
CN110999279A (zh) 可穿戴终端显示系统、可穿戴终端显示方法以及程序
JP2022069212A (ja) 制御装置、プログラム、及びシステム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant