CN103246543B - 显示控制设备,显示控制方法和程序 - Google Patents

显示控制设备,显示控制方法和程序 Download PDF

Info

Publication number
CN103246543B
CN103246543B CN201310046858.7A CN201310046858A CN103246543B CN 103246543 B CN103246543 B CN 103246543B CN 201310046858 A CN201310046858 A CN 201310046858A CN 103246543 B CN103246543 B CN 103246543B
Authority
CN
China
Prior art keywords
actor
action
unit
display control
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310046858.7A
Other languages
English (en)
Other versions
CN103246543A (zh
Inventor
滨田元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN103246543A publication Critical patent/CN103246543A/zh
Application granted granted Critical
Publication of CN103246543B publication Critical patent/CN103246543B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本发明公开了显示控制设备,显示控制方法和程序。提供一种显示控制设备,包括行动信息获取单元,所述行动信息获取单元获得在一个行动者的行动位置,与另一个行动者的过去行动有关的行动信息,对象生成单元,所述对象生成单元根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象,和显示控制单元,所述显示控制单元使显示周围场景的显示单元在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。

Description

显示控制设备,显示控制方法和程序
技术领域
本公开涉及显示控制设备,显示控制方法和程序。
背景技术
近年来,运动员(行动者)佩戴能够通过通信网络等从外部接收各种信息的设备地进行运动。
未经审查的日本专利申请公报(PCT申请的译文)No.2002-507734公开一种根据全球定位卫星数据,向运动员或者运动员在运动中使用的设备,提供关于该运动员的移动距离的信息的技术。
发明内容
当一个行动者在特定运动位置行动时,在一些情况下,行动者想要知道其他行动者过去在相同位置的行动。这是因为当所述一个行动者知道其他行动者过去在该相同位置的行动时,所述一个行动者能够通过参考其他行动者过去的行动,进行适合于状况的行动。
不过,在未经审查的日本专利申请公报(PCT申请的译文)No.2002-507734中,未提及向一个运动员通知关于其他运动员的运动信息的技术。
理想的是在一个行动者的行动期间,利用关于另一个行动者的过去行动的行动信息,逼真地提供特定显示。
按照本公开的实施例,提供一种显示控制设备,包括行动信息获取单元,所述行动信息获取单元获得在一个行动者的行动位置,与另一个行动者的过去行动有关的行动信息,对象生成单元,所述对象生成单元根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象,和显示控制单元,所述显示控制单元使显示周围场景的显示单元在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。
按照上述结构,对象生成单元根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象。随后,所述显示控制单元使显示单元显示周围场景,从而在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。因而,当所述一个行动者在特定场所行动时,显示单元显示与关于所述另一个行动者在相同场所的过去行动的行动信息对应的虚拟对象。即,在所述一个行动者的行动期间,利用所述另一个行动者过去的行动信息,逼真地实现显示。结果,所述一个行动者一边观看在行动期间显示的虚拟对象,一边继续所述行动。于是,所述一个行动者能够与所述另一个行动者竞赛,或者能够根据所述另一个行动者的行动,而不是根据向导行动。
此外,按照本公开的实施例,提供一种显示控制方法,包括获得在一个行动者的行动位置,与另一个行动者的过去行动有关的行动信息,根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象,和使显示周围场景的显示单元在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。
此外,按照本公开的实施例,提供一种使计算机执行以下操作的程序:获得在一个行动者的行动位置,和另一个行动者的过去行动有关的行动信息,根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象,和使显示周围场景的显示单元在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。
按照上面说明的本公开的实施例,能够在一个行动者的行动期间,利用关于另一个行动者的过去行动的行动信息,提供逼真的显示。
附图说明
图1是图解说明按照本公开的实施例的显示系统的大致结构的例子的示图;
图2是图解说明按照所述实施例的显示设备的外观的结构例子的示图;
图3是图解说明按照所述实施例的显示设备的硬件结构的例子的方框图;
图4是图解说明按照所述实施例的显示设备的功能结构的例子的方框图;
图5是图解说明从服务器下载的行动信息的数据结构的示图;
图6是图解说明从拍摄的图像中识别道路的范围的例证方法的示图;
图7是图解说明当竞赛者跑在前面时,显示在显示单元上的虚拟对象的例子的示图;
图8是图解说明当竞赛者跑在前面时,显示在显示单元上的虚拟对象的例子的示图;
图9是图解说明当竞赛者跑在前面时,显示在显示单元上的虚拟对象的例子的示图;
图10是图解说明当竞赛者跑在侧面时,显示在显示单元上的虚拟对象的例子的示图;
图11是图解说明当竞赛者跑在后面时,显示在显示单元上的虚拟对象的例子的示图;
图12是图解说明当竞赛者跑在后面时,显示在显示单元上的虚拟对象的例子的示图;
图13是图解说明当竞赛者在视野之外时,显示在显示单元上的地图的例子的示图;
图14是图解说明表示用户和竞赛者的位置的地图显示的例子的示意图;
图15是图解说明由按照所述实施例的显示设备执行的处理的例证流程的流程图;
图16是图解说明显示虚拟对象的处理的例证流程的流程图。
具体实施方式
下面参考附图,详细说明本公开的优选实施例。注意在说明书和附图中,功能和结构基本相同的构成元件用相同的附图标记表示,这些构成元件的重复说明被省略。
将按照以下顺序进行说明。
1.显示系统的结构
2.显示设备的结构
2-1.显示设备的硬件结构的例子
2-2.显示设备的功能结构的例子
3.显示单元中的虚拟对象的显示例子
4.显示设备执行的处理的流程
5.显示虚拟对象的情况
6.总结
<1.显示系统的结构>
下面参考图1和2,说明按照本公开的实施例的显示系统1的例证结构。图1是图解说明按照本公开的实施例的显示系统1的大致结构的例子的示图。图2是图解说明按照所述实施例的显示设备100的外观的结构例子的示图。
显示系统1是把基于其他用户过去的运动历史的虚拟对象(它指示所述其他用户奔跑的状态)显示在当一个用户奔跑时所佩戴的显示设备100上的系统。从而,所述一个用户(例如,图1中所示的用户Ua)能够边跑边观看显示在显示设备100上的虚拟对象,好像该用户在与过去奔跑的其他用户(图1中所示的用户Ub和Uc)竞赛似的。
如图1中所示,显示系统1包括用户佩戴的显示设备100,服务器300,和按照可通信的方式,连接显示设备100和服务器300的网络400。
如图2中所示,显示设备100是用户(这里,将举例说明用户Ua)戴在他或她脸上的眼镜式显示设备。具体地说,显示设备100是用户在奔跑时佩戴的太阳镜。显示设备100包括在太阳镜的镜片部分中的作为透射式显示器的显示单元118。于是,即使当佩戴显示设备100时,用户Ua也能够从显示单元118观察周围的景象。显示设备100通过与GPS卫星500通信,获得显示设备100的位置信息(例如,当前位置信息)。
显示设备100从服务器300,获得其他用户(用户Ub和Uc)在该当前位置的过去运动的运动历史。显示设备100通过根据获得的其他用户过去的运动历史,把虚拟对象重叠在所述景象上,显示所述虚拟对象。虚拟对象的显示的细节将在下面说明。
服务器300管理用户Ua、Ub和Uc过去的运动历史。运动历史顺序接收自显示设备100,并保存在与服务器300连接的数据库310中。不仅每个用户的运动历史,而且地图信息等都被保存在数据库310中。地图信息还包括例如关于用户在上面奔跑的道路的道路信息。
服务器300能够通过网络,与每个用户Ua、Ub和Uc佩戴的显示设备100通信。服务器300从每个用户Ua、Ub和Uc佩戴的显示设备100接收每个用户的运动历史,并把每个用户的运动历史保存在数据库310中。此外,服务器300响应所述一个用户Ua(用户Ua佩戴的显示设备100)的请求,把其他用户Ub和Uc过去的历史传送给所述一个用户Ua佩戴的显示设备100。
<2.显示设备的结构>
(2-1.显示设备的例证结构的例子)
下面参考图3,说明按照所述实施例的显示设备100的硬件结构的例子。图3是图解说明按照所述实施例的显示设备100的硬件结构的例子的方框图。
如图3中所示,显示设备100包括CPU112,存储器114,电源116,显示单元118,声音输入和输出单元120,和输入单元122。显示设备100还包括无线通信单元124,电子指南针126,GPS处理单元128,陀螺传感器130,气压传感器132,加速度传感器134和成像单元136。
CPU112起算术处理设备和控制设备的作用,按照各个程序,控制显示设备100中的全面操作。CPU112可以是微处理器。此外,CPU112可按照各种程序,实现各种功能。
存储器114可保存CPU112使用的程序,计算参数等。此外,存储器114是数据存储设备,可包括存储介质,把数据记录在存储介质中的记录设备,从存储介质读取数据的读取设备,和删除记录在存储介质中的数据的删除设备。
电源116向包含在显示设备100中的构成组件(CPU112,显示单元118等)供电。
显示单元118是例如液晶显示器(LCD)或者有机发光二极管(OLED)显示器。显示单元118可通过向用户显示屏幕,提供信息。按照本实施例的显示单元118是显示周围环境,并且能够重叠地显示下面说明的虚拟对象的透射式显示器。
声音输入和输出单元120包括例如根据声音信号,输出声音的扬声器,和能够收集声音的麦克风。例如,扬声器可以声音的形式,输出用户的行动信息(运动信息),或者通过输入单元122输入的操作信息。
输入单元122是用户通过其输入信息的单元。例如,输入单元122包括用户能够操作的触摸传感器、按钮、开关、控制杆等。用户通过操作输入单元122,选择诸如选择或决定之类的设定信息。输入单元122把选择的设定信息等提供给CPU112。
无线通信单元124通过网络400,与服务器300(参见图1)进行无线通信。无线通信单元124从服务器300接收其他用户的运动历史。此外,无线通信单元124把佩戴显示设备100的用户的运动信息传送给服务器300。
电子指南针126是检测佩戴显示设备100的用户的视线的方位方向的磁性传感器。电子指南针126检测地磁,从而识别方位。电子指南针126把检测的数据提供给CPU112。
GPS处理单元128根据从GPS卫星500(参见图1)接收的信号,获得显示设备100(用户)的位置信息。例如,GPS处理单元128获得纬度、经度和海拔高度信息,作为位置信息。GPS处理单元128把获得的位置信息提供给CPU112。
陀螺传感器130是检测佩戴显示设备100的用户的视线的角度的角速度传感器。陀螺传感器130可以是例如以电压值的形式,检测绕X轴、Y轴和Z轴的旋转角的变化速度(角速度)的三轴陀螺传感器。陀螺传感器130把检测到的角速度数据提供给CPU112。
气压传感器132是检测用户的当前位置的海拔高度的传感器。气压传感器132以预定采样频率的形式,检测海拔高度,并把检测的数据提供给CPU112。
加速度传感器134是检测佩戴显示设备100的用户的移动的传感器。例如,加速度传感器134检测用户是在移动中(运动中)还是已停止。加速度传感器134可以是检测X轴方向的加速度,Y轴方向的加速度和Z轴方向的加速度中的每一个的三轴加速度传感器。加速度传感器134把检测的加速度数据提供给CPU112。
成像单元136包括诸如CMOS之类的成像元件,对用户的视野成像。成像单元136在CPU112的控制下,借助透镜拍摄静止图像或运动图像。成像单元136把拍摄的图像提供给CPU112。
(2-2.显示设备的功能结构的例子)
下面参考图4,说明按照本公开的实施例的显示设备100的功能结构的例子。图4是图解说明按照所述实施例的显示设备100的功能结构的例子的方框图。下面,将说明图1中所示的用户Ua佩戴的显示设备100。
如图4中所示,显示设备100包括位置信息获取单元202,行动判定单元204,行动信息获取单元206,拍摄图像获取单元208和视野信息获取单元210。显示设备100还包括图像处理单元212,位置判定单元214,和为对象生成单元的例子的图像生成单元216,显示控制单元218,和行动信息传输单元220。这样的功能结构由作为显示控制设备的CPU112(参见图3)实现。
(位置信息获取单元202)
位置信息获取单元202获得显示设备100的位置信息(换句话说,佩戴显示设备100的用户Ua的位置信息)。位置信息获取单元202通过GPS处理单元128,获得显示设备100(用户Ua)的位置信息。例如,获得的位置信息是关于显示设备100的纬度、经度和海拔高度的信息。位置信息获取单元202每隔预定时间,获得位置信息。
(行动判定单元204)
行动判定单元204判定佩戴显示设备100的用户Ua的行动。例如,行动判定单元204判定用户Ua是否在运动。具体地说,行动判定单元204根据加速度传感器134的检测结果,判定用户Ua是否在运动。
行动判定单元204可根据加速度传感器134的检测结果,判定用户Ua是否开始奔跑动作。此外,行动判定单元204可根据位置信息获取单元202获得的位置信息,判定用户的行动。
(行动信息获取单元206)
行动信息获取单元206从服务器300(参见图1),获得与用户Ub或Uc(另一个行动者)过去在佩戴显示设备100的用户(一个行动者)的行动位置的行动有关的行动信息。
例如,行动信息获取单元206获得用户Ub或者用户Uc的运动历史,作为行动信息。这里,获得的运动历史是已在用户Ua正在奔跑的位置奔跑过的用户Ub或Uc的奔跑历史。当用户Ua开始运动,并且用户Ua在显示在显示单元118上的菜单屏幕上选择运动历史时,可以确定要获得的运动历史。此外,可以在运动之前,例如在用户的家里预先设定要获得的运动历史。
行动信息获取单元206不仅从服务器300获得行动信息,而且从服务器300获得地图信息,所述地图信息包括与另一个用户Ub或Uc行动的位置的海拔高度有关的信息。通过获得包括海拔高度信息的地图信息,能够更精确地检测另一个用户的位置。
下面参考图5,说明从服务器300下载的行动信息。图5是图解说明从服务器300下载的行动信息的数据结构的示图。如图5中所示,行动信息包括运动时间,运动位置的位置信息(纬度、经度和海拔高度),运动的分类等等。
(拍摄图像获取单元208)
拍摄图像获取单元208获得利用成像单元136拍摄的拍摄图像。例如,拍摄图像获取单元208获得通过用成像单元136,拍摄用户的视野而获得的拍摄图像(视野图像)。拍摄图像获取单元208把获得的拍摄图像输出给图像处理单元210。
(视野信息获取单元210)
视野信息获取单元210获得佩戴显示设备100的用户Ua的视野信息。视野信息获取单元210获得与用户Ua的视线的方向(方位),或者用户Ua的视线的角度有关的信息,作为视野信息。用户Ua的视线的方向(方位)用作为视线检测单元的例子的电子指南针126检测。用户Ua的视线的角度用陀螺传感器130检测。
(图像处理单元212)
图像处理单元212对利用拍摄图像获取单元208获得的拍摄图像进行各种图像处理。图像处理单元212具有从利用成像单元136,拍摄用户Ua的视野而获得的拍摄图像中,识别用户奔跑在的道路的范围的判定识别单元的功能。
下面参考图6,说明从获得的拍摄图像中,识别道路的范围的方法。图6是图解说明从拍摄图像中,识别道路的范围的例证方法的示图。
如图6(a)中所示,图像处理单元212通过对利用成像单元136拍摄的拍摄图像进行边缘处理,检测道路的候选区域。在图6(a)中,道路和树木被检测为候选区域。随后,如图6(b)中所示,图像处理单元212把佩戴显示设备100的用户Ua的视线的方位和角度映射到从关于用户Ua的位置信息下载的道路信息。之后,如图6(c)中所示,图像处理单元212利用道路的候选区域(道路和树木)之间的映射道路信息,识别道路的范围。从而,如图6(d)中所示,从拍摄图像中确定道路的范围。
(位置判定单元214)
位置判定单元214判定另一个用户Ub(或Uc)过去是否位于行动中的用户Ua的视野内的位置。具体地说,位置判定单元214根据利用图像处理单元212识别的道路的范围,和所述另一个用户Ub的位置,判定所述另一个用户过去是否位于所述用户的视野内。
例如,当另一个用户Ub位于利用图像处理单元212识别的道路的范围内时,位置判定单元214判定另一个用户Ub位于在所述一个用户Ua的视野内的位置。相反,当另一个用户Ub没有位于识别的道路的范围内时,位置判定单元214判定另一个用户Ub没有位于在所述一个用户Ua的视野内的位置。
(图像生成单元216)
图像生成单元216生成透明地显示在显示单元118上的虚拟图像。图像生成单元216根据利用行动信息获取单元206获得的行动信息,生成虚拟地指示在用户Ua的行动期间,另一个用户Ub(或者用户Uc)的位置的虚拟对象,作为虚拟图像。具体地说,当用户Ua在特定位置奔跑时,图像生成单元216生成虚拟地指示过去在相同位置,实际奔跑过的另一个用户Ub(或者用户Uc)的位置的虚拟对象。此外,当存在在所述相同位置奔跑过的多个不同用户时,图像生成单元216生成与用户Ua选择的另一个用户对应的虚拟对象。
图像生成单元216生成适合于所述一个用户Ua和另一个用户Ub(或者用户Uc)之间的位置关系的虚拟对象。例如,当另一个用户Ub跑在用户Ua前面时,图像生成单元216生成表示另一个用户Ub的背影的虚拟对象。另一方面,当另一个用户Ub跑在用户Ua后面时,图像生成单元216生成表示另一个用户Ub的正面身形的虚拟对象。
图像生成单元216生成指示一个用户Ua和另一个用户Ub(或者用户Uc)的位置的地图。图像生成单元216使道路被包含在地图中,并显示所述一个用户Ua和另一个用户Ub在道路上的位置。地图是这样生成的,以致地图占据显示单元118的显示屏幕角落的部分区域。
(显示控制单元218)
显示控制单元218使显示单元118显示周围环境,从而重叠地显示图像生成单元216生成的虚拟对象。
具体地说,在佩戴显示设备100的用户Ua的行动期间,显示控制单元218使显示单元118重叠地显示图像生成单元216生成的虚拟对象。即,当用户Ua在特定场所行动时,显示控制单元218使显示单元118显示与过去在相同位置行动过的另一个用户Ub的行动历史对应的虚拟对象。从而,在用户Ua的行动期间,利用关于用户Ub的过去的实际行动信息,逼真地实现特定显示。
显示控制单元218使显示单元118透明地显示生成的虚拟对象。例如,显示控制单元218用灰色或者仅仅用轮廓线显示虚拟对象。从而,能够避免因显示的虚拟对象而遮挡用户Ua的视野。
显示控制单元218根据另一个用户Ub是否位于所述一个用户Ua的视野之内,切换虚拟对象的显示。即,当位置判定单元214判定另一个用户Ub位于在用户Ua的视野内的位置时,显示控制单元218使显示单元118显示虚拟对象。相反,当位置判定单元214判定另一个用户Ub没有位于在用户Ua的视野内的位置时,显示控制单元218使显示单元118不显示虚拟对象。从而,能够更逼真地实现特定显示。
显示控制单元218按照另一个用户Ub和所述一个用户Ua之间的位置关系,和用户Ua的视线的方向,切换显示单元118上的虚拟对象的显示。例如,当另一个用户Ub在用户Ua的行进方向的前方行动,从而检测到用户Ua的视线朝向行进方向的前方时,显示控制单元218使显示单元118显示与另一个用户Ub对应的虚拟对象。相反,当另一个用户Ub在用户Ua的行进方向的后方行动,从而检测到用户Ua的视线朝向行进方向的后方(即,用户Ua在回头看)时,显示控制单元218使显示单元118显示与另一个用户Ub对应的虚拟对象。从而,通过按照用户Ua的视线的方向,切换显示单元118上的虚拟对象的显示,能够适当地显示用户Ub的位置。
当判定佩戴显示设备100的用户Ua开始行动时,显示控制单元218使显示单元118显示虚拟对象。从而,当用户Ua没有行动时,能够避免把虚拟对象显示在显示单元118上。
当在用户Ua的视野中,在用户Ua和另一个用户Ub之间存在遮蔽物时,显示控制单元218可使显示单元118不显示虚拟对象。随后,当用户Ua经过所述遮蔽物时,显示控制单元218使显示单元118显示虚拟对象。从而,在由于遮蔽物而不能正常看到另一个用户Ub的状况下,能够防止显示与另一个用户Ub对应的虚拟对象。
显示控制单元218可按照另一个用户Ub和用户Ua之间的距离,改变待显示的虚拟对象的大小。例如,当另一个用户Ub位于更接近用户Ua附近的位置时,显示控制单元218使虚拟对象被显示得更大。
当判定另一个用户Ub没有位于在用户Ua的视野内的位置时,显示控制单元218可以使显示单元118重叠地显示表示用户Ua和另一个用户Ub的位置的地图。从而,通过显示表示用户Ua和另一个用户Ub的位置的地图,即使当用户Ua远离另一个用户Ub时,用户Ua也能够容易地把握相对位置。
具体地说,当确定另一个用户Ub没有位于在用户Ua的视野内的位置,和另一个用户Ub远离用户Ua预定距离或者更远的距离时,显示控制单元218使显示单元118显示表示用户Ua和另一个用户Ub的位置的地图。此时,为了防止视野被显示的地图遮挡,显示控制单元218使地图透明。
显示控制单元218按照另一个用户Ub和用户Ua之间的距离,改变地图的比例尺(放大倍率),然后显示改变后的地图。即,当另一个用户Ub和用户Ua之间的距离较大时,显示控制单元218扩大地图的比例尺。当另一个用户Ub和用户Ua之间的距离较小时,显示控制单元218减小地图的比例尺。从而,显示单元118能够把另一个用户Ub和用户Ua的位置显示在有限的显示区内。
(行动信息传输单元220)
行动信息传输单元220把关于佩戴显示设备100的用户Ua的行动信息(例如,运动信息)传送(上传)给服务器300。关于用户Ua的行动信息被顺序保存在例如存储器114中,从而当行动结束时,行动信息传输单元220把一系列的行动信息传送给服务器300。具体地说,行动信息传输单元220把图5中所示的运动信息传送给服务器300。从而,基于用户Ua的行动信息的虚拟对象也可被显示在另一个用户Ub佩戴的显示设备100上。
<3.显示单元中的虚拟对象的显示例子>
下面说明在显示设备100的显示单元118上的虚拟对象的显示例子。这里,假定在用户Ua(参见图1)在沿特定路线奔跑的时候,显示与过去沿相同路线奔跑的竞赛者(用户Ub和Uc)的运动历史对应的虚拟对象。
下面将按照其中竞赛者跑在用户Ua前面的显示例子,其中竞赛者和用户Ua并排奔跑的显示例子,其中竞赛者跑在用户Ua后面的显示例子,和其中竞赛者在用户Ua的视野之外的显示例子的顺序进行说明。
(其中竞赛者跑在前面的显示例子)
下面参考图7-10,说明当竞赛者跑在用户Ua前面时的虚拟对象的显示例子。当用户Ua沿着向前的方向奔跑时,显示下面说明的虚拟对象的显示例子。
图7是图解说明当竞赛者跑在用户Ua前面时,由显示单元118显示的虚拟对象的例子的示图。在图7的显示屏幕Sc1上,位于在用户Ua前方的位置,并且沿着道路向正前方奔跑的竞赛者的身形被表示成虚拟对象Ob1。另外,虚拟对象Ob1是透明地显示的,以致竞赛者的背影不会遮挡用户Ua的视野。
图8是图解说明当竞赛者跑在用户Ua前面时,由显示单元118显示的虚拟对象的例子的示图。在图8的显示屏幕Sc2上,位于在用户Ua前方的位置,并且沿着道路向前方奔跑的竞赛者的身形被表示成虚拟对象Ob2。另外,虚拟对象Ob2是透明地显示的,以致竞赛者的右斜背影不会遮挡用户Ua的视野。
图9是图解说明当竞赛者跑在用户Ua前面时,由显示单元118显示的虚拟对象的例子的示图。在图9的显示屏幕Sc3上,位于在用户Ua右前方的位置,并且沿着道路向正前方奔跑的竞赛者的身形被表示成虚拟对象Ob3。另外,虚拟对象Ob3是透明地显示的,以致竞赛者的左斜背影不会遮挡用户Ua的视野。
(其中用户和竞赛者并排奔跑的显示例子)
下面参考图10,说明当竞赛者与用户Ua并排奔跑时的虚拟对象的显示例子。当奔跑的用户Ua向旁边看时,显示这里说明的虚拟对象的显示例子。
图10是图解说明当竞赛者和用户Ua并排奔跑时,显示单元118显示的虚拟对象的例子的示图。在图10的显示屏幕Sc4上,位于在用户Ua右侧的位置,并且向前方奔跑的竞赛者的身形被表示成虚拟对象Ob4。另外,虚拟对象Ob4是透明地显示的,以致从左侧看的竞赛者的身形不会遮挡用户Ua的视野。
(其中竞赛者跑在后面的显示例子)
下面参考图11和12,说明当竞赛者跑在用户Ua后面时的虚拟对象的显示例子。当奔跑中的用户Ua回头看时,显示这里要说明的虚拟对象的显示例子。
图11是图解说明当竞赛者跑在用户Ua后面时,显示单元118显示的虚拟对象的例子的示图。在图11的显示屏幕Sc5上,位于在用户Ua后方的位置,并且沿着道路斜向前方奔跑的竞赛者的身形被表示成虚拟对象Ob5。另外,虚拟对象Ob5是透明地显示的,以致竞赛者的斜向正面身形不会遮挡用户Ua的视野。
图12是图解说明当竞赛者跑在用户Ua后面时,显示单元118显示的虚拟对象的例子的示图。在图12的显示屏幕Sc6上,位于在用户Ua正后方的位置,并且向前方奔跑的竞赛者的身形被表示成虚拟对象Ob6。另外,虚拟对象Ob6是透明地显示的,以致逼近用户的竞赛者的正面身形不会遮挡用户Ua的视野。
在上面说明的显示例子中,当用户的视线移动时,切换重叠在景象上的虚拟对象的显示。从而,用户能够更逼真地感知竞赛者的相对位置。
(其中竞赛者在视野之外的显示例子)
在图7-12的上述显示例子中,竞赛者位于用户的视野之内。另一方面,当竞赛者没有在用户的视野内时,竞赛者不被显示在景象中。这种情况下,用户不能把握用户和竞赛者之间的位置关系。
当竞赛者在用户的视野之外时,按照实施例的显示单元118显示表示竞赛者和用户的位置的地图,而不是显示虚拟对象。从而,在查看表示竞赛者和用户的位置的地图时,用户能够容易地把握竞赛者和用户之间的位置关系。下面,将参考图13和14,说明当竞赛者在用户的视野之外时的地图的显示例子。
图13是图解说明当竞赛者在视野之外时,由显示单元118显示的地图的例子的示图。如在图13的显示屏幕Sc7上所示,在显示景象的透明显示的部分区域中,显示表示用户Ua和竞赛者Ub在道路St上的位置的地图。显示的地图是透明地显示的,以致不会遮挡用户Ua的视野。此外,用例如不同的颜色或标记显示用户Ua和竞赛者Ub的位置,以致用户能够相互区分用户Ua和竞赛者Ub的位置。
这里,如图14中所示,可以在按照用户和竞赛者的位置,改变地图的比例尺(放大倍率)的时候,显示所显示的地图,以显示用户和竞赛者两者的位置。图14是图解说明其中显示用户和竞赛者的位置的地图显示的例子的示意图。在图14中,表示了比例尺不同的3个地图的显示例子。从而,通过在按照用户和竞赛者的位置,改变地图的比例尺(放大倍率)的时候,显示地图,用户能够立即把握用户和竞赛者之间的位置关系。
在图7-12的上述显示例子中,只显示一个竞赛者,不过,本公开的实施例并不局限于此。可以显示多个竞赛者。竞赛者的显示形式并不局限于图7-12的显示例子(其中竞赛者被显示成灰色区域)。可以使用其中用户能够感知竞赛者的显示形式(例如,仅仅显示竞赛者的轮廓线的形式)。
<4.显示设备进行的处理的流程>
下面参考图15,说明由按照实施例的显示设备100执行的处理的例证流程。图15是图解说明由按照实施例的显示设备100执行的处理的例证流程的流程图。
显示设备100的位置信息获取单元202获得显示设备100的位置信息(佩戴显示设备100的用户的位置信息)(步骤S102)。即,位置信息获取单元202通过GPS处理单元128,获得关于显示设备100(用户)的纬度、经度和海拔高度的信息。
之后,显示设备100利用无线通信单元124,连接到社交网络(步骤S104)。之后,显示设备100接收用户Ua输入的竞赛模式(步骤S106)。此时,用户Ua可通过输入单元122选择竞赛者。
接下来,行动信息获取单元206从服务器300下载与另一个用户(竞赛者)有关的运动信息(步骤S108)。随后,行动判定单元204根据加速度传感器134的检测结果,判定佩戴显示设备100的用户Ua是否开始运动(步骤S110)。
当在步骤S110,行动判定单元204判定该用户开始运动时(是),显示设备100把关于用户Ua的运动信息记录在存储器114中(步骤S112)。之后,显示设备100判定竞赛者是否在运动(步骤S114)。
当在步骤S114,显示设备110判定竞赛者在运动时(是),显示控制单元218进行在显示单元118上显示虚拟对象的虚拟对象显示处理(步骤S116)。相反,当在步骤S114,显示设备110判定竞赛者没有运动时(否),显示控制单元218不进行步骤S116的虚拟对象显示处理。步骤S116的虚拟对象显示处理的细节将在下面说明。
之后,行动判定单元204判定用户是否结束运动(步骤118)。当在步骤118,行动判定单元204判定用户继续运动时(否),显示设备100进行步骤S112的上述处理。相反,当在步骤S118,行动判定单元204判定用户结束运动时(是),显示设备100把用户的运动数据上传给服务器(步骤S120)。
(虚拟对象显示处理)
下面参考图16,说明图15中的步骤S116的虚拟对象显示处理的例证流程。图16是图解说明虚拟对象显示处理的例证流程的流程图。
显示设备100的位置判定单元214根据用户和竞赛者的纬度、经度和海拔高度,获得竞赛者的相对坐标(步骤S202)。之后,图像处理单元212根据成像单元136拍摄的拍摄图像,确定用户Ua在其中奔跑的道路的范围(步骤S204)。
之后,当图像处理单元212能够根据判定结果,识别道路的范围时(步骤S206中的是),图像处理单元212判定道路信息是否包含在下载的地图信息中(步骤S208)。
当在步骤S208,图像处理单元212判定道路信息包含在下载的地图信息中时(是),图像处理单元212进行识别的道路的范围和道路信息之间的匹配,以限定道路的范围(步骤S210)。
之后,位置判定单元214比较竞赛者的位置和道路的范围(步骤S212)。然后,位置判定单元214判定竞赛者是否在用户的视野内(步骤S214)。即,位置判定单元214判定竞赛者是否位于道路的范围内。
当在步骤S214,位置判定单元214判定竞赛者在用户的视野内时(是),图像生成单元216根据竞赛者的坐标和竞赛者的行进方向,生成虚拟对象(步骤S216)。随后,显示控制单元218使显示单元118显示生成的虚拟对象(步骤S218)。
当在步骤214,位置判定单元214判定竞赛者在用户的视野之外时(否),显示控制单元218使显示单元118不显示虚拟对象。此外,当竞赛者远离该用户预定距离或者更远的距离时,显示控制单元218使显示单元118显示表示竞赛者和用户的位置的地图。
<5.显示虚拟对象的情况>
上面说明了其中当佩戴显示设备100的用户Ua在特定位置奔跑时,显示单元118根据过去在所述特定位置奔跑的另一个用户(竞赛者)的运动历史,显示与该竞赛者对应的虚拟对象的情况。不过,显示单元118显示虚拟对象的情况并不局限于上述情况。
例如,当用户Ua进行除奔跑以外的行动(运动)时,显示单元118可根据所述另一个用户(竞赛者)的运动历史,显示所述虚拟对象。这里,除奔跑以外的行动的例子包括骑自行车,游泳,驾驶汽车,骑摩托车,开船,飞行和滑翔伞运动。
在特定的设施中,可以作为向导功能,显示虚拟对象。例如,当区域被细分,并且用户位于美术馆、动物园、公园、娱乐设施等中的特定区域中时,可以自动显示诸如视频之类的虚拟对象。此外,起向导作用的另一个人过去的移动可根据移动信息,被显示成虚拟对象。同样地,在难以寻找的路线等中,可以显示和使用虚拟对象作为向导。
此外,可以根据在过去的活动中进行的运动信息,显示虚拟对象。具体地说,在一个场所中,通过根据过去在相同场所中进行的活动的参与者的运动信息等,显示虚拟对象,能够再现过去的活动的氛围。
<6.总结>
如上所述,按照本公开的实施例的显示设备100能够根据获得的行动信息,生成虚拟地指示在一个行动者(用户)的行动期间,另一个行动者(竞赛者)的位置的虚拟对象。随后,显示设备100能够在所述一个行动者的行动期间,把生成的虚拟对象重叠在显示周围场景的显示单元118上。
从而,当用户在特定场所中运动时,显示单元118显示与过去在相同场所运动的竞赛者的运动历史对应的虚拟对象。即,在用户的行动期间,利用竞争者过去的实际行动信息,逼真地实现该显示。结果,由于用户一边观看在行动期间显示的虚拟对象,一边继续行动,用户能够与另一个行动者竞赛,或者利用所述另一个行动者的行动,而不是向导进行行动。
本领域的技术人员应明白,根据设计要求和其它因素,可以产生各种修改、组合、子组合和变更,只要它们在所附的权利要求或其等同物的范围之内。
安装在用户的面部的眼镜式显示设备100(参见图2)被描述成显示虚拟对象的显示设备的例子,不过本公开的实施例并不局限于此。例如,当用户驾驶汽车时,可在挡风玻璃上透明地显示虚拟对象。此外,当用户用摩托车进行运动时,可在头盔的面盔上透明地显示虚拟对象。
显示设备100被描述成生成虚拟对象,并使显示单元118显示该虚拟对象的显示控制设备,不过,本公开的实施例并不局限于此。例如,服务器300可被配置成生成虚拟对象,并使显示设备显示该虚拟对象的显示控制设备。即使在这种情况下,当用户在特定场所运动时,显示单元118也显示与过去在相同场所运动的竞赛者的运动历史对应的虚拟对象。当服务器300充当显示控制设备时,可以简化显示设备100的结构。
虽然在按照上述实施例的流程图中描述的步骤自然包括按照所述次序先后进行的处理,不过所述处理不一定是按时间先后顺序进行的,相反所述步骤还可包括并行或者单独进行的处理。此外,当然可以酌情恰当地改变按时间先后顺序处理的各个步骤的次序。
由在本说明书中说明的信息处理设备执行的处理可用软件、硬件或者硬件与软件的组合来实现。例如,软件的程序被预先保存在安装在每个设备之内或之外的存储介质中。例如,当执行每个程序时,该程序被读取到随机存取存储器(RAM),并由诸如CPU之类的处理器执行。
另外,还可如下构成本技术。
(1)一种显示控制设备,包括:
行动信息获取单元,所述行动信息获取单元获得在一个行动者的行动位置,和另一个行动者的过去行动有关的行动信息;
对象生成单元,所述对象生成单元根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象;和
显示控制单元,所述显示控制单元使显示周围场景的显示单元在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。
(2)按照(1)所述的显示控制设备,其中显示控制单元使显示单元透明地显示生成的虚拟对象。
(3)按照(1)或(2)所述的显示控制设备,还包括:
位置判定单元,所述位置判定单元判定所述另一个行动者是否位于在正在行动的所述一个行动者的视野内的位置;
其中当位置判定单元判定所述另一个行动者位于在视野内的位置时,显示控制单元使显示单元显示虚拟对象。
(4)按照(3)所述的显示控制设备,其中当位置判定单元判定所述另一个行动者没有位于在视野内的位置时,显示控制单元使显示单元重叠地显示表示所述一个行动者和另一个行动者的位置的地图。
(5)按照(4)所述的显示控制设备,其中当位置判定单元判定所述另一个行动者没有位于在视野内的位置,和所述另一个行动者远离所述一个行动者预定距离或者更远的距离时,显示控制单元使显示单元重叠地显示所述地图。
(6)按照(3)-(5)任意之一所述的显示控制设备,
其中所述一个行动者和另一个行动者的行动是在道路上的奔跑动作,
其中显示控制设备还包括:
范围识别单元,所述范围识别单元从利用对所述一个行动者的视野成像的成像单元拍摄的拍摄图像中,识别道路的范围,和
其中当所述另一个行动者位于识别的道路的范围内时,位置判定单元判定所述另一个行动者位于在视野内的位置。
(7)按照(1)-(6)任意之一所述的显示控制设备,还包括:
视线检测单元,所述视线检测单元检测所述一个行动者的视线的方向,
其中显示控制单元按照检测的视线的方向,切换显示单元中的虚拟对象的显示。
(8)按照(7)所述的显示控制设备,其中当所述另一个行动者在所述一个行动者的行进方向的前方行动,并且检测到所述一个行动者的视线朝向前方时,显示控制单元使显示单元显示虚拟对象。
(9)按照(7)所述的显示控制设备,其中当所述另一个行动者在所述一个行动者的行进方向的后方行动,并且检测到所述一个行动者的视线朝向后方时,显示控制单元使显示单元显示虚拟对象。
(10)按照(1)-(9)任意之一所述的显示控制设备,还包括:
行动判定单元,所述行动判定单元判定所述一个行动者的行动,
其中所述一个行动者和另一个行动者的行动是奔跑动作,其中当行动判定单元判定所述一个行动者开始奔跑动作时,显示控制单元使显示单元显示虚拟对象。
(11)按照(1)-(10)任意之一所述的显示控制设备,其中当从所述一个行动者看来,在所述一个行动者和另一个行动者之间存在遮蔽物时,显示控制单元使显示单元不显示虚拟对象。
(12)按照(1)-(11)任意之一所述的显示控制设备,其中行动信息获取单元获得行动信息和地图信息,所述地图信息包括与所述另一个行动者行动的位置的海拔高度有关的信息。
(13)按照(1)-(12)任意之一所述的显示控制设备,其中显示单元是佩戴在所述一个行动者身上的眼镜式显示单元。
(14)一种显示控制方法,包括:
获得在一个行动者的行动位置,和另一个行动者的过去行动有关的行动信息;
根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象;和
使显示周围场景的显示单元在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。
(15)一种使计算机执行以下操作的程序:
获得在一个行动者的行动位置,和另一个行动者的过去行动有关的行动信息;
根据获得的行动信息,生成虚拟指示在所述一个行动者的行动期间,所述另一个行动者的位置的虚拟对象;和
使显示周围场景的显示单元在所述一个行动者的行动期间,重叠地显示生成的虚拟对象。
本公开包含与在2012年2月14日向日本专利局提交的日本优先权专利申请JP2012-029397中公开的主题相关的主题,该专利申请的整个内容在此引为参考。

Claims (12)

1.一种显示控制设备,包括:
行动信息获取单元,所述行动信息获取单元获取在真实空间中的一个行动者的行动位置处与真实空间中的另一个行动者的过去行动有关的行动信息;
对象生成单元,所述对象生成单元根据所获取的行动信息,生成虚拟地指示在真实空间中的所述一个行动者的行动期间所述另一个行动者的位置的、与真实空间相关联的虚拟对象;
显示控制单元,所述显示控制单元使显示周围场景的显示单元在真实空间中的所述一个行动者的行动期间重叠并显示所生成的虚拟对象;以及
位置判定单元,所述位置判定单元判定所述另一个行动者是否位于在正在真实空间中行动的所述一个行动者的视野内的位置处;
其中当位置判定单元判定所述另一个行动者位于在所述视野内的位置处时,显示控制单元使显示单元显示所述虚拟对象,以及
当位置判定单元判定所述另一个行动者没有位于在所述视野内的位置处并且所述另一个行动者远离所述一个行动者时,显示控制单元使显示单元重叠并透明地显示表示所述一个行动者和所述另一个行动者在真实空间中的位置的与真实空间相关联的地图。
2.按照权利要求1所述的显示控制设备,其中显示控制单元使显示单元透明地显示所生成的虚拟对象。
3.按照权利要求1所述的显示控制设备,其中当位置判定单元判定所述另一个行动者没有位于在视野内的位置,并且所述另一个行动者与所述一个行动者之间的距离大于或者等于预定距离时,显示控制单元使显示单元重叠并显示所述地图。
4.按照权利要求1所述的显示控制设备,
其中所述一个行动者和另一个行动者的行动是在道路上的奔跑行动,
其中显示控制设备还包括:
范围识别单元,所述范围识别单元从利用对所述一个行动者的视野成像的成像单元拍摄的拍摄图像中,识别道路的范围,以及
其中当所述另一个行动者位于所识别的道路的范围内时,位置判定单元判定所述另一个行动者位于在视野内的位置。
5.按照权利要求1所述的显示控制设备,还包括:
视线检测单元,所述视线检测单元检测所述一个行动者的视线的方向,
其中显示控制单元按照所检测到的视线的方向,切换显示单元中的虚拟对象的显示。
6.按照权利要求5所述的显示控制设备,其中当所述另一个行动者在所述一个行动者的行进方向的前方行动,并且检测到所述一个行动者的视线朝向前方时,显示控制单元使显示单元显示所述虚拟对象。
7.按照权利要求5所述的显示控制设备,其中当所述另一个行动者在所述一个行动者的行进方向的后方行动,并且检测到所述一个行动者的视线朝向后方时,显示控制单元使显示单元显示所述虚拟对象。
8.按照权利要求1所述的显示控制设备,还包括:
行动判定单元,所述行动判定单元判定所述一个行动者的行动,
其中所述一个行动者和另一个行动者的行动是奔跑行动,并且
其中当所述行动判定单元判定所述一个行动者开始奔跑行动时,显示控制单元使显示单元显示所述虚拟对象。
9.按照权利要求1所述的显示控制设备,其中当从所述一个行动者看来在所述一个行动者和所述另一个行动者之间存在遮蔽物时,显示控制单元使显示单元不显示所述虚拟对象。
10.按照权利要求1所述的显示控制设备,其中行动信息获取单元获取行动信息和地图信息,所述地图信息包括与所述另一个行动者行动的位置的海拔高度有关的信息。
11.按照权利要求1所述的显示控制设备,其中显示单元是佩戴在所述一个行动者身上的眼镜式显示单元。
12.一种显示控制方法,包括:
获取在真实空间中的一个行动者的行动位置处与真实空间中的另一个行动者的过去行动有关的行动信息;
根据所获取的行动信息,生成虚拟地指示在真实空间中的所述一个行动者的行动期间所述另一个行动者的位置的、与真实空间相关联的虚拟对象;
使显示周围场景的显示单元在真实空间中的所述一个行动者的行动期间重叠并显示所生成的虚拟对象;以及
判定所述另一个行动者是否位于在正在真实空间中行动的所述一个行动者的视野内的位置处;
其中当判定所述另一个行动者位于在所述视野内的位置处时,使显示单元显示所述虚拟对象,以及
当判定所述另一个行动者没有位于在所述视野内的位置处并且所述另一个行动者远离所述一个行动者时,使显示单元重叠并透明地显示表示所述一个行动者和所述另一个行动者在真实空间中的位置的与真实空间相关联的地图。
CN201310046858.7A 2012-02-14 2013-02-06 显示控制设备,显示控制方法和程序 Active CN103246543B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-029397 2012-02-14
JP2012029397A JP5927966B2 (ja) 2012-02-14 2012-02-14 表示制御装置、表示制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
CN103246543A CN103246543A (zh) 2013-08-14
CN103246543B true CN103246543B (zh) 2018-02-06

Family

ID=48926074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310046858.7A Active CN103246543B (zh) 2012-02-14 2013-02-06 显示控制设备,显示控制方法和程序

Country Status (3)

Country Link
US (3) US9235933B2 (zh)
JP (1) JP5927966B2 (zh)
CN (1) CN103246543B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10074080B2 (en) * 2013-11-06 2018-09-11 Capital One Services, Llc Wearable transaction devices
CN106415671B (zh) * 2014-06-03 2020-05-19 苹果公司 用于呈现与真实对象相关的数字信息的方法和系统
JP6535456B2 (ja) * 2014-11-10 2019-06-26 株式会社日立エルジーデータストレージ 映像投射装置及びヘッドマウントディスプレイ
WO2016196217A1 (en) * 2015-05-29 2016-12-08 Nike Innovate C.V. Enhancing exercise through augmented reality
DE102015212253B4 (de) * 2015-06-30 2018-11-08 Icaros Gmbh Ausrichtungssensorsystem und Ausrichtungssensorikverfahren
US20170193705A1 (en) * 2015-12-31 2017-07-06 Daqri, Llc Path visualization for motion planning
JP6566209B2 (ja) * 2016-02-26 2019-08-28 株式会社セガゲームス プログラム及びアイウエア
JP6501035B2 (ja) * 2016-03-23 2019-04-17 日本電気株式会社 眼鏡型ウェアラブル情報端末、その制御方法および制御プログラム
CN106056663B (zh) * 2016-05-19 2019-05-24 京东方科技集团股份有限公司 增强现实场景中的渲染方法、处理模块和增强现实眼镜
JP2019133207A (ja) * 2016-06-06 2019-08-08 シャープ株式会社 映像生成装置及び映像生成方法、及び映像生成プログラム
JP2018082308A (ja) 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
WO2018216355A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR20200035003A (ko) * 2017-07-27 2020-04-01 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP6669783B2 (ja) * 2017-12-25 2020-03-18 ガンホー・オンライン・エンターテイメント株式会社 端末装置、システム、プログラム及び方法
WO2019128748A1 (zh) * 2017-12-31 2019-07-04 深圳市虚拟现实科技有限公司 一种虚拟现实显示装置及其方法
CN108970114A (zh) * 2018-08-21 2018-12-11 苏州蜗牛数字科技股份有限公司 一种通过自定义映射按键实现视野调整的方法
US11023095B2 (en) 2019-07-12 2021-06-01 Cinemoi North America, LLC Providing a first person view in a virtual world using a lens
CN112241199B (zh) 2019-07-19 2023-03-24 华为技术有限公司 虚拟现实场景中的交互方法及装置
JPWO2021230101A1 (zh) 2020-05-13 2021-11-18

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101680766A (zh) * 2007-05-31 2010-03-24 松下电器产业株式会社 图像摄影装置、附加信息提供服务器及附加信息过滤系统
US7706972B2 (en) * 2005-05-31 2010-04-27 Xanavi Informatics Corporation Navigation apparatus, image display method, and program for the image display method
CN102016857A (zh) * 2008-05-08 2011-04-13 株式会社Ntt都科摩 虚拟空间提供装置、程序和虚拟空间提供系统
CN102054164A (zh) * 2009-10-27 2011-05-11 索尼公司 图像处理设备、图像处理方法和程序
CN102204814A (zh) * 2010-03-30 2011-10-05 索尼公司 信息处理设备、图像输出方法和程序

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0816986B1 (en) * 1996-07-03 2006-09-06 Hitachi, Ltd. System for recognizing motions
US6013007A (en) * 1998-03-26 2000-01-11 Liquid Spark, Llc Athlete's GPS-based performance monitor
JP2002183150A (ja) * 2000-12-13 2002-06-28 Nec Corp 位置関連情報提示システム及び位置関連情報提示方法並びにその制御プログラムを記録した記録媒体
JP2003134510A (ja) * 2001-08-16 2003-05-09 Space Tag Inc 画像情報配信システム
JP4225029B2 (ja) * 2002-10-18 2009-02-18 日産自動車株式会社 地図画像表示装置及び地図画像表示プログラム
US8083589B1 (en) * 2005-04-15 2011-12-27 Reference, LLC Capture and utilization of real-world data for use in gaming systems such as video games
US8397168B2 (en) * 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
JP2011067277A (ja) * 2009-09-24 2011-04-07 Brother Industries Ltd ヘッドマウントディスプレイ
TWI415655B (zh) * 2009-12-31 2013-11-21 Golfzon Co Ltd 虛擬高爾夫球模擬成像迷你地圖之裝置與方法
US20140063055A1 (en) * 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
JP2011212347A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体、端末及びネットワークシステム
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706972B2 (en) * 2005-05-31 2010-04-27 Xanavi Informatics Corporation Navigation apparatus, image display method, and program for the image display method
CN101680766A (zh) * 2007-05-31 2010-03-24 松下电器产业株式会社 图像摄影装置、附加信息提供服务器及附加信息过滤系统
CN102016857A (zh) * 2008-05-08 2011-04-13 株式会社Ntt都科摩 虚拟空间提供装置、程序和虚拟空间提供系统
CN102054164A (zh) * 2009-10-27 2011-05-11 索尼公司 图像处理设备、图像处理方法和程序
CN102204814A (zh) * 2010-03-30 2011-10-05 索尼公司 信息处理设备、图像输出方法和程序

Also Published As

Publication number Publication date
CN103246543A (zh) 2013-08-14
US20130208004A1 (en) 2013-08-15
JP5927966B2 (ja) 2016-06-01
US10169923B2 (en) 2019-01-01
US20170109939A1 (en) 2017-04-20
US9235933B2 (en) 2016-01-12
US20160042570A1 (en) 2016-02-11
JP2013167941A (ja) 2013-08-29
US9569898B2 (en) 2017-02-14

Similar Documents

Publication Publication Date Title
CN103246543B (zh) 显示控制设备,显示控制方法和程序
US11373354B2 (en) Techniques for rendering three-dimensional animated graphics from video
JP6556776B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
US10636185B2 (en) Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
CN105144022B (zh) 头戴式显示器资源管理
US20130177296A1 (en) Generating metadata for user experiences
JP2019535090A (ja) 仮想現実アトラクション制御方法及びシステム
JP2022518745A (ja) 目標の位置取得方法、装置、コンピュータ機器及びコンピュータプログラム
JP2011517979A (ja) 実環境におけるイベントをシミュレートするためのシステム
KR20190107012A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
US20190002104A1 (en) Unmanned aerial vehicle escape system, unmanned aerial vehicle escape method, and program
JP2022097830A (ja) 表示システム及びサーバ
CN112788443B (zh) 基于光通信装置的交互方法和系统
US20230252691A1 (en) Passthrough window object locator in an artificial reality system
JP2018106579A (ja) 情報提供方法、プログラム、および、情報提供装置
CN113010009B (zh) 对象共享方法及装置
JP6875029B1 (ja) 方法、プログラム、情報処理装置
JP2019012536A (ja) 情報提供方法、プログラム、および、情報提供装置
WO2022029894A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US11103763B2 (en) Basketball shooting game using smart glasses
JP2023073150A (ja) 表示制御方法及び表示制御装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant