CN104216558A - 信息处理设备,信息处理方法和程序 - Google Patents
信息处理设备,信息处理方法和程序 Download PDFInfo
- Publication number
- CN104216558A CN104216558A CN201410219932.5A CN201410219932A CN104216558A CN 104216558 A CN104216558 A CN 104216558A CN 201410219932 A CN201410219932 A CN 201410219932A CN 104216558 A CN104216558 A CN 104216558A
- Authority
- CN
- China
- Prior art keywords
- display layer
- display
- information
- presented
- control section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/346—Image reproducers using prisms or semi-transparent mirrors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
- H04N13/395—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/021—Measuring pressure in heart or blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4866—Evaluating metabolism
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4869—Determining body composition
- A61B5/4872—Body fat
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Pulmonology (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Computer Hardware Design (AREA)
Abstract
本发明涉及信息处理设备,信息处理方法和程序。提供一种信息处理设备,所述信息处理设备包括显示控制部件,所述显示控制部件根据与信息相关的参数,确定信息要被显示在多个相互交叠的显示层之中的哪些显示层上。
Description
相关申请的引用
本申请要求2013年5月30日提出的日本专利申请JP2013-114006的优先权,该申请的整个内容在此引为参考。
技术领域
本公开涉及信息处理设备、信息处理方法和程序。
背景技术
在JP2009-53539A中公开的信息处理设备具有多个相互交叠的显示层,并在各个显示层上显示信息。
发明内容
然而,JP2009-53539A局限于公开如上所述的信息处理设备,没有关于确定如何在各个显示层上显示信息的公开内容。于是,不能说显示层被有效使用。因而,之后一直在寻求能够更有效地利用各个显示层的技术。
按照本公开的实施例,提供一种信息处理设备,包括显示控制部件,所述显示控制部件根据与信息相关的参数,确定信息要被显示在多个相互交叠的显示层之中的哪些显示层上。
按照本公开的实施例,提供一种信息处理方法,包括根据与信息相关的参数,确定信息要被显示在多个相互交叠的显示层之中的哪些显示层上。
按照本公开的实施例,提供一种使计算机实现显示控制功能的程序,所述显示控制功能根据与信息相关的参数,确定信息要被显示在多个相互交叠的显示层之中的哪些显示层上。
按照如上所述的本公开,由于根据与信息相关的参数,确定显示在各个显示层上的信息,因此能够更有效地利用显示层。
附图说明
图1A是表示按照本公开的实施例的信息处理设备的外观结构的透视图;
图1B是表示按照相同实施例的信息处理设备的外观结构的横截面图;
图2是表示信息处理设备的内部结构的方框图;
图3是表示信息处理设备的基本操作的流程图;
图4是表示显示在显示部分上的图像的例子的说明图;
图5是表示显示在显示部分上的图像的例子的说明图;
图6是表示显示在显示部分上的图像的例子的说明图;
图7是表示显示在显示部分上的图像的例子的说明图;
图8是表示显示在信息处理设备的正面的图像的例子的说明图;
图9是表示显示在显示部分上的图像的例子的说明图;
图10是表示显示在信息处理设备的正面的图像的例子的说明图;
图11是表示显示在显示部分上的图像的例子的说明图;
图12是表示显示在信息处理设备的正面的图像的例子的说明图;
图13是表示显示在显示部分上的图像的例子的说明图;
图14是表示显示在信息处理设备的正面的图像的例子的说明图;
图15是表示显示在显示部分上的图像的例子的说明图;
图16是表示显示在信息处理设备的正面的图像的例子的说明图;
图17是表示显示在显示部分上的图像的例子的说明图;
图18是表示显示在信息处理设备的正面的图像的例子的说明图;
图19是表示显示在显示部分上的图像的例子的说明图;
图20是表示显示在显示部分上的图像的例子的说明图;
图21是表示显示在显示部分上的图像的例子的说明图;
图22是表示显示在显示部分上的图像的例子的说明图;
图23是表示显示在显示部分上的图像的例子的说明图;
图24是表示显示在显示部分上的图像的例子的说明图;
图25是表示显示在显示部分上的图像的例子的说明图;
图26是表示显示在信息处理设备的正面的图像的例子的说明图;
图27是表示显示在显示部分上的图像的例子的说明图;
图28是表示显示在信息处理设备的正面的图像的例子的说明图;
图29是表示显示在显示部分上的图像的例子的说明图;
图30是表示显示在信息处理设备的正面的图像的例子的说明图;
图31是表示显示在显示部分上的图像的例子的说明图;
图32是表示显示在信息处理设备的正面的图像的例子的说明图;
图33是表示显示在显示部分上的图像的例子的说明图;
图34是表示显示在信息处理设备的正面的图像的例子的说明图;
图35是表示显示在显示部分上的图像的例子的说明图;
图36是表示显示在信息处理设备的正面的图像的例子的说明图;
图37是表示显示在显示部分上的图像的例子的说明图;
图38是表示显示在信息处理设备的正面的图像的例子的说明图;
图39是表示显示在显示部分上的图像的例子的说明图;
图40是表示显示在信息处理设备的正面的图像的例子的说明图;
图41是表示从用户的视点到各个显示层的距离与用户的视野之间的对应关系的侧视图。
具体实施方式
下面参考附图,详细说明本公开的优选实施例。注意在说明书和附图中,功能和结构基本相同的构成元件用相同的附图标记表示,这些构成元件的重复说明被省略。
将按照以下顺序进行说明。
1.信息处理设备的外观结构
2.信息处理设备的内部结构
3.信息处理设备基本操作
4.各种显示例子
<1.信息处理设备的外观结构>
首先,根据图1,详细说明按照本公开的实施例的信息处理设备10的外观结构。图1A是表示信息处理设备10的外观结构的透视图,图1B是表示信息处理设备10的外观结构的横截面图。
如图1A和图1B中所示,作为所述外观结构,按照本实施例的信息处理设备10包括半反射镜20、反射镜30、显示部分40和触摸面板100。
半反射镜20包含在信息处理设备10的外壳12内。这里,在外壳12的各个侧面之中,从半反射镜20和反射镜30反射的光所通过的表面(下面称为“正面12a”)由透明部件构成。信息处理设备10的正面是与用户的视点相对的表面。如图1B中所示,使半反射镜20朝着信息处理设备10的内部方向(即,y轴正方向)倾斜。类似于半反射镜20倾斜的反射镜30被布置在所述半反射镜20的更内侧,即,被布置在y轴正方向侧。半反射镜20和反射镜30在y轴方向上交叠。
半反射镜20是透过来自该半反射镜的后侧(即,y轴正方向侧)的入射光,反射来自该半反射镜的前侧的入射光的反射镜。此外,反射镜30是不透过来自该反射镜的后侧(即,y轴正方向侧)的入射光,并反射来自该反射镜的前侧的入射光的反射镜。
能够显示诸如文本(字符)信息或图像信息之类信息的显示部分40被布置在半反射镜20和反射镜30的上方(即,在z轴正方向)。显示部分40被内置于外壳40a中。如图1B中所示,显示部分40被布置成以致显示屏幕41面对半反射镜20和反射镜30侧(z轴负方向侧)。通过如此布置显示部分40,显示屏幕41被半反射镜20和反射镜30的上侧分成两个显示区。
此外,显示在位于半反射镜20上方的显示屏幕(下面称为第一显示区43)上的信息被半反射镜20反射,从而射向信息处理设备10的正面12a。显示在位于反射镜30上方的显示屏幕(下面称为第二显示区45)上的信息被反射镜30反射,从而透过半反射镜20,射向信息处理设备10的正面12a。
于是,用户认为相应的信息好像被显示在半反射镜20和反射镜30上似的,并且该信息在信息处理设备10的正面12a交叠。即,用户好像信息被显示在信息处理设备10的内侧似的,辨认显示在反射镜30上的信息,而好像信息被显示在信息处理设备10的近侧似的,辨认显示在半反射镜20上的信息。于是,半反射镜20和反射镜30构成独立的显示层。反射镜30被布置在与半反射镜20相比,离用户的视点更远的位置(内侧)。下面,半反射镜20将被称为“近侧显示层”,而反射镜30将被称为“内侧显示层”。
注意,通过调整眼睛的焦点,用户可选择是辨认内侧显示层的信息,还是辨认近侧显示层的信息。此外,通过考虑到哪个显示层将被显示而调整焦点,由于另一个显示层的显示看起来将变得模糊,因此即使显示相互交叠的多个信息,也难以出现不舒服的感觉。
借助上述结构,信息处理设备10能够进行具有深度的信息的显示,从而能够进行信息的立体显示。这里,例如,诸如CRT显示器、液晶显示器、等离子体显示器、EL显示器或灯之类的显示设备可以用作按照本实施例的显示部分40。触摸面板100被包含在外壳12的正面12a上。
尽管在上面的说明中,说明了其中利用一个半反射镜20,把显示部分40的显示屏幕分成两个显示区的情况,不过,通过利用N个半反射镜,显示部分40的显示屏幕可被分成N+1个显示区。通过增大使用的半反射镜的数目,信息的显示能够变得更加分层化,从而在不改变显示部分40的尺寸的情况下,能够显示更多的信息。即,在这种情况下,显示层的数目可变成N+1。此外,半反射镜20能够沿y轴方向被移动。在这种情况下,第一显示区43和第二显示区45的大小根据半反射镜20的位置而变化。
注意,尽管在上述实施例中,说明了其中使半反射镜20和反射镜30的上部朝着外壳的内部方向倾斜,显示部分40被布置在半反射镜20和反射镜30上方的情况,不过,可以使半反射镜20和反射镜30的下部朝着外壳的内部方向倾斜,并把显示部分40布置在半反射镜20和反射镜30下方。
<2.信息处理设备的内部结构>
下面根据图2,说明信息处理设备10的内部结构。信息处理设备10包括触摸面板100、通信部件101、存储部分102、运动传感器103、显示控制部件104和显示部分40。信息处理设备10包括诸如CPU、ROM、RAM、通信设备、显示器、触摸面板和运动传感器之类的硬件结构。用于实现信息处理设备中的通信部件101、存储部分102和显示控制部件104的程序被至少记录在ROM中。CPU读取并执行记录在ROM中的程序。于是,利用这些硬件结构,实现触摸面板100、通信部件101、存储部分102、运动传感器103、显示控制部件104和显示部分40。例如,CPU、ROM、RAM、通信设备、显示器和运动传感器被内置在外壳40a中。
触摸面板100被包含在如上所述的信息处理设备10的正面12a上,并由用户按压操作。触摸面板100把与按压位置对应的操作信息输出给显示控制部件104。通信部件101能够与各种通信设备通信,获得各种信息。这里,除了待显示在显示部分40上的信息之外,作为利用通信部件101获得的信息,还可包含在信息处理设备10是汽车导航系统的车载设备的情况下,显示车辆的当前位置的信息等。通信部件101把获得的信息输出给显示控制部件104。
除了上面说明的程序之外,存储部分102还保存待显示在显示部分40上的信息(下面称为“显示对象信息”)。这里,例如,显示对象信息并不特别受到限制,是文本信息或图像信息。此外,存储部分102相互关联地保存待显示在显示部分40上的信息,和该信息的优先级(参数)。这里,优先级是用于确定信息将被显示在近侧显示层和内侧显示层中的哪一个上的参数。当所述优先级增大时,具有该优先级的显示对象信息更易被显示在近侧显示层上。当估计显示对象信息是用户所必需的时,显示对象信息的优先级倾向于增大。不用说,与显示对象信息相关的参数并不局限于优先级参数。即,与显示对象信息相关的参数可以是用于确定显示对象信息将被显示在近侧显示层和内侧显示层中的哪一个上的参数。
运动传感器103检测用户的操作(手、头、视线等的移动),并把结果输出给显示控制部件104。例如,除了进行整个信息处理设备10的控制之外,显示控制部件104还进行以下处理。即,显示控制部件104根据与显示对象信息相关的优先级,确定待显示在近侧显示层和内侧显示层上的显示对象信息。即,显示控制部件104根据与显示对象信息相关的优先级,确定显示对象信息将被显示在哪个显示层上。例如,显示控制部件104可比较与两种显示对象信息相关的优先级,可把优先级最高的显示对象信息显示在近侧显示层上,把优先级最低的显示对象信息显示在内侧显示层上。此外,显示控制部件104可预先设定阈值,把优先级高于所述阈值的显示对象信息显示在近侧显示层上,把优先级低于所述阈值的显示对象信息显示在内侧显示层上。此外,显示控制部件104可根据触摸面板100的操作,用户的操作等,调整每种显示对象信息的优先级。
<3.信息处理设备的基本操作>
下面根据图3中所示的流程图,说明信息处理设备10的基本操作。在步骤S10,显示控制部件104根据与显示对象信息相关的参数,即,优先级,确定待显示在各个显示层上的显示对象信息。随后,显示控制部件104把确定的显示对象信息显示在各个显示层上。例如,显示控制部件104比较与两种显示对象信息相关的优先级,把优先级最高的显示对象信息显示在近侧显示层上,把优先级最低的显示对象信息显示在内侧显示层上。此时,显示控制部件104可降低比近侧显示层的可见性高的内侧显示层的可见性。这样,用户可能更容易并且视觉地辨认显示在近侧显示层上的显示对象信息。例如,作为降低可见性的方法,可以包括降低亮度的方法,或者利用调整颜色的浓淡的滤光器,使颜色含糊的方法。
在步骤S20,显示控制部件104根据触摸面板100的输入操作,用户的操作等,调整显示在各个显示层上的显示对象信息的优先级。随后,显示控制部件104确定优先级的大小关系是否有变化,具体地,显示在近侧显示层上的显示对象信息的优先级是否变得小于显示在内侧显示层上的显示对象信息的优先级。在确定优先级的大小关系有变化的情况下,显示控制部件104进入步骤S30,而在确定优先级的大小关系无变化的情况下,显示控制部件104结束当前处理。
在步骤S30,显示控制部件104交换显示在近侧显示层上的显示对象信息和显示在内侧显示层上的显示对象信息。即,显示控制部件104把显示在近侧显示层上的显示对象信息移动到内侧显示层,而把显示在内侧显示层上的显示对象信息移动到近侧显示层。之后,显示控制部件104结束当前处理。
<4.各种显示例子>
下面说明信息处理设备10的各种显示例子。尽管下面举例说明其中信息处理设备10是汽车导航系统的车载设备的情况,不过不用说,信息处理设备10也可应用于除此之外的设备。例如,信息处理设备10可应用于家用显示设备。例如,在信息处理设备10是汽车导航系统的车载设备的情况下,信息处理设备10被嵌入车辆的仪表板内。另外,信息处理设备10的正面12a朝向用户侧(例如,驾驶员侧)。例如,由于用户是驾驶员,因此在信息处理设备10是汽车导航的车载设备的情况下,用户不能注视信息处理设备10,尤其是在驾驶时。于是,信息处理设备10最好被实现成以致用户能够更直观并且更容易地理解显示对象信息。
(伴随亮度交换的显示层之间的移动)
如上所述,在优先级的大小关系发生变化的情况下,显示控制部件104在显示层之间移动显示对象信息。例如,显示控制部件104可消去由显示层之一显示的显示对象信息,随后通过把该显示对象信息显示在另一个显示层上,移动该显示对象信息。然而,如果伴随亮度交换,在显示层之间移动显示对象信息,那么可以冲击力更大地实现显示。
下面根据图4-图6,说明伴随亮度交换,在显示层之间的移动。图4-图6表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图4-图6通过进行阴影的浓淡处理,实现亮度。当阴影变浓时,亮度增大。显示在第一显示区43上的显示对象信息被显示在近侧显示层上,而显示在第二显示区45上的显示对象信息被显示在内侧显示层上。这里,将说明其中车速信息(速度计的信息)200在放大的同时,从内侧显示层移动到近侧显示层,并且亮度的累计值(近侧显示层的亮度和内侧显示层的亮度的累计值)增大的例子。注意,用户视觉识别的亮度是近侧显示层的亮度和内侧显示层的亮度的累计值。
如图4中所示,首先,显示控制部件104低亮度地把车速信息200显示在内侧显示层上。之后,在车速信息200在内侧显示层内被增大的同时,显示控制部件104提高车速信息200的亮度。
在车速信息200变成某个规定的大小的情况下,显示控制部件104把车速信息200显示在近侧显示层内的与内侧显示层内的车速信息200交叠的位置,如图5中所示。此时,显示在各个显示层上的车速信息200的亮度变成之前刚刚显示在内侧显示层上的车速信息200的亮度的一半。通过进行这种调整,能够连续地改变亮度的累计值。
之后,显示控制部件104放大显示在各个显示层上的车速信息200(在相同的状态下,改变车速信息200的大小)。另一方面,显示控制部件104降低内侧显示层内的车速信息200的亮度(降低可见性),并提高近侧显示层内的车速信息200的亮度(提高可见性)。即,显示控制部件104进行亮度交换。这里,作为降低亮度的方法,可以包括降低每个像素本身的亮度的方法,把一部分像素的亮度降低到0或者极低值(即,间除像素)的方法等。
之后,如图6中所示,显示控制部件104从内侧显示层消去车速信息200,把车速信息200显示在近侧显示层上。借助上述一系列处理,用户能够在用户他或她自己正在迫近的方向,直观地知道车速信息200。这里,显示控制部件104可在加速中(当车速信息200的值增大时),进行这种处理。这种情况下,用户能够更直观地了解车辆在加速。
尽管在上述例子中,显示控制部件104增大亮度的累计值,不过,显示控制部件104可在使亮度的累计值恒定的时候,进行上述处理。此外,显示控制部件104可在使车速信息200的大小恒定的时候,进行上述处理。此外,显示控制部件104可在使亮度的累计值和车速信息200的大小恒定的时候,进行上述处理。此外,显示控制部件104可在改变车速信息200的颜色的时候,进行上述处理。例如,显示控制部件104可在增大车速信息200的色饱和度的时候,进行上述处理。
通过相反地进行上述处理,显示控制部件104可在车速信息200被降低的时候,把车速信息200从内侧显示层移动到近侧显示层,并且可以降低亮度(用户视觉识别的亮度)的累计值。例如,显示控制部件104可在车辆的减速期间,进行这种处理。
(三维显示)
下面说明三维显示。如上所述,由于显示对象信息被显示在内侧显示层和近侧显示层上,因此显示控制部件104可以立体地显示(三维显示)该显示对象信息。然而,通过设计显示对象信息的显示方法,显示控制部件104能够进一步增强立体感。
这里,将根据图7和8,说明三维显示。图7表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图8表示显示在信息处理设备10的正面12a上的显示对象信息(即,显示在显示层之一上的,与显示在另一个显示层上的显示对象信息交叠的显示对象信息)。
在这个例子中,显示控制部件104在内侧显示层和近侧显示层的中心部分,设置基准点210和220。另外,显示控制部件104把线条图像215从内侧显示层的外缘移向基准点210,并在基准点210终止线条图像。另外,显示控制部件104把气泡图像225从近侧显示层的外缘移向基准点220。于是,用户能够直观地认识到气泡图像225好像在三维空间内似地移向内侧。注意,显示控制部件104可把气泡图像225显示在内侧显示层上,而把线条图像215显示在近侧显示层上。
(导航)
下面说明利用信息处理设备10进行的导航。汽车导航的车载设备通常显示地图信息。信息处理设备10也可显示地图信息。然而,由于信息处理设备10具有多个显示层,因此,能够与地图信息交叠地显示除地图信息以外的信息。即,由于信息处理设备10能够向用户提供各种信息,因此可以进行更适当的导航。即,按照本实施例的信息处理设备10预期可用作下一代的汽车导航。
图9和图10中表示了利用信息处理设备10进行的导航的例子。图9表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图10表示显示在信息处理设备10的正面12a的显示对象信息。
显示控制部件104在内侧显示层上,显示地图信息230和当前位置标记235,在近侧显示层上显示车速信息200和矩形图像240。这里,车速信息200是与车辆的行驶相关的车辆行驶信息的例子。显示控制部件104在近侧显示层的中心部分,设定基准点220,把矩形图像240从近侧显示层的基准点移向外缘。于是,用户能够直观地了解地图信息230和车速信息200被显示在三维空间内。此外,由于用户能够直观地了解矩形图像240正在移向近侧,因此用户能够直观地了解用户的车辆在行驶。此外,地图信息230的可见性可被降低,以致突出车速信息200。例如,显示控制部件104可降低地图信息230的亮度,或者可利用调整颜色的浓淡的滤光器,使地图信息230模糊。此外,可用与地图信息230的颜色不同的颜色,显示车速信息200,以致突出车速信息200。这样,用户能够更直观地了解车速。下面表示的每个例子都可显示矩形图像240。
这里,在图9中所示的例子中,车速信息200的优先级高于地图信息230的优先级。不过,在用户注视信息处理设备10的情况下(这样的注视可被运动传感器103检测),存在与车速信息200相比,用户更需要地图信息230的可能性。因而,在用户注视信息处理设备10的情况下,显示控制部件104可降低比地图信息230的优先级高的车速信息200的优先级,可切换该信息的显示层。此外,在用户作出另一个手势操作,例如,在信息处理设备10之前挥手的手势的情况下,显示控制部件104可降低比地图信息230的优先级高的车速信息200的优先级。此外,在进行某些声音指导(比如在下一个十字路口向右转的声音指导)的情况下,显示控制部件104可在近侧显示层,显示地图信息230,在内侧显示层,显示车速信息200。此外,在地图信息230被移动到近侧显示层的情况下,显示控制部件104可继续在近侧显示层显示车速信息200。这种情况下,显示控制部件104以车速信息200和地图信息230能够被区分的状态(例如,差异、亮度、颜色等),显示车速信息200和地图信息230。
此外,当在显示层之间移动车速信息200和地图信息230,尤其是车速信息200时,显示控制部件104可按照上述亮度交换,进行显示层之间的移动处理。此外,在加速期间,显示控制部件104可在相同层内,放大车速信息200,并且可强调亮度和颜色。类似地,在减速期间,显示控制部件104可在相同层内,缩小车速信息200,并且可减弱亮度和颜色。
此外,作为车辆行驶信息,显示控制部件104不仅可以显示车速信息200,而且可以连同车速信息200一起,或者代替车速信息200,显示转速表信息、剩余油量信息、水温信息、里程表信息等。
图11和图12表示导航的另一个例子。图11表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图12表示显示在信息处理设备10的正面12a的显示对象信息。在本例中,除了上述车速信息200和矩形图像240之外,盒子图像250还在近侧显示层的中心部分和外缘之间来回移动。此外,盒子图像250一边移动一边改变颜色。这样,用户能够更直观地了解车速。
图13和图14是汽车导航的另一个例子。图13表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图15表示显示在信息处理设备10的正面12a的显示对象信息。
在本例中,除了车速信息200以外,在内侧显示层上,显示控制部件104还显示箭头图像260,箭头图像260表示用户的车辆将继续前进的方向。箭头图像260可被显示在与车速信息200的显示层不同的显示层上。此外,显示控制部件104可在近侧显示层上,显示地图信息230和当前位置标记235。在本例中,用户能够更直观地了解用户他或她自己将继续前进的方向。
(用户的生命信息和车辆行驶信息的交叠显示)
下面根据图15和图16,说明其中交叠地显示用户的生命信息和车辆行驶信息的例子。图15表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图16表示显示在信息处理设备10的正面12a的显示对象信息。
在本例中,显示控制部件104在内侧显示层上,显示车辆行驶信息,并在近侧显示层上,显示用户的生命信息。具体地,显示控制部件104显示示意地表示车身的车身图像270,示意地表示发动机的发动机图像280,和示意地表示前后轮的图像290。另外,显示控制部件104显示车辆的加速度,最大扭矩/发动机转数,剩余油量,施加于各个轮胎的负载等等。不用说,显示控制部件104可显示除此之外的信息,作为车辆行驶信息。
另一方面,除示意地表示用户的人物图像300以外,显示控制部件104还显示用户的年龄、体温、脉搏、血压、基础代谢率、体重、BMI、体脂肪率、内脏脂肪率、睡意度(例如,打呵欠次数)和疲劳度(例如,单位时间的眨眼次数等)。不用说,显示控制部件104可显示除此之外的信息,作为生命信息。
按照这个例子,用户能够同时了解用户他或她自己的生命信息,以及车辆行驶信息。注意,尽管在图15的例子中,生命信息的优先级高于车辆行驶信息的优先级,不过,显示控制部件104可根据用户的操作等,调整每种信息的优先级,可以切换每种信息的显示层。注意,例如,用户可佩戴能够检测这样的生命信息的传感器,从所述传感器可获得生命信息。此外,可按照用户的生命信息,改变车辆行驶信息的内容,这种情况下,用户可依据用户他或她自己的生命信息的变化,容易地了解车辆行驶信息是如何被改变的。显示控制部件104可按与其它的车辆行驶信息不同的状态(亮度、颜色等),显示变化的车辆行驶信息。此外,显示控制部件104可有选择地把显示在内侧显示层的车辆行驶信息中的用户触摸的信息,显示在近侧显示层上。显示控制部件104可进行与在内侧显示层显示生命信息的情况类似的处理。即,显示控制部件104可有选择地把显示在内侧显示层的生命信息中的用户触摸的信息,显示在近侧显示层上。
(车辆后方的拍摄图像和指示图像的交叠显示)
下面根据图17和图18,说明其中交叠地显示车辆后方的拍摄图像和指示图像的例子。图17表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。图18表示显示在信息处理设备10的正面12a的显示对象信息。注意,在本例中,包括拍摄车辆正后方的成像设备,拍摄右后方的成像设备和拍摄左后方的成像设备。另外,各个成像设备拍摄的拍摄图像被输入显示控制部件104。
显示控制部件104把车辆正后方的拍摄图像310显示在内侧显示层的中央部分,把车辆右后方的拍摄图像320显示在右侧部分,把车辆左后方的拍摄图像330显示在左侧部分。此外,为了表示车辆在行驶中,显示控制部件104显示从内侧显示层的中央部分延伸到内侧显示层的下缘部分的格子图像335,并沿着内侧显示层的下缘部分方向,移动该格子图像335。注意,在本例中,在拍摄图像310中描画看起来在超越用户的车辆的车辆310a。
显示控制部件104在近侧显示层的中央部分,显示围绕拍摄图像310的带框图像340,在右侧部分,显示围绕拍摄图像320的带框图像350,在左侧部分,显示围绕拍摄图像330的带框图像360。此外,显示控制部件104在拍摄图像310内的车辆310a上交叠地显示指示图像(例如,用红线描画的带框图像)340a,所述指示图像表示将由用户视觉辨认的对象,即,车辆310a。这样,用户能够容易地把握用户他或她自己要视觉辨认的对象。注意,显示控制部件104可根据用户的操作等,切换每种显示对象信息的显示层。此外,在用户的疲劳度或睡意较高的情况下,或者在夜间行驶的情况下,显示控制部件104可把拍摄图像切换成导航。
(车辆前方的拍摄图像和特定的拍摄图像等的交叠显示)
下面根据图19-图22,说明其中交叠地显示车辆前方的拍摄图像和特定的拍摄图像等的例子。图19-图22表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。注意,在本例中,包括拍摄车辆正前方的成像设备,拍摄右侧的成像设备,和拍摄左则的成像设备。另外,各个成像设备拍摄的拍摄图像被输入显示控制部件104。
显示控制部件104把车辆正前方的拍摄图像370显示在内侧显示层的中央部分,把车辆右侧的拍摄图像380显示在右侧部分,把车辆左侧的拍摄图像390显示在左侧部分。此外,为了表示车辆在行驶中,显示控制部件104显示从内侧显示层的中央部分延伸到内侧显示层的下缘部分的格子图像335,并沿着内侧显示层的下缘部分方向,移动该格子图像335。
显示控制部件104把拍摄图像370显示在近侧显示层上。即,在这种情况下,拍摄图像370的优先级高于其它拍摄图像的优先级。例如,在用户把他或她的脸转向左侧的情况下,显示控制部件104可把拍摄图像390显示在近侧显示层上,如图20中所示。这种情况下,由于左侧的拍摄图像是用户所需的,因此拍摄图像390的优先级变得高于其它拍摄图像的优先级。例如,在用户进行向左侧挥手的操作的情况下,显示控制部件104可进行类似的切换。此外,在用户触摸拍摄图像390的情况下,显示控制部件104可进行类似的处理。依据来自触摸面板100的操作信息,可确定用户触摸了拍摄图像390。显示控制部件104可进行与拍摄图像380相关的类似处理。这样,用户能够在期望的定时,视觉辨认期望的拍摄图像。
此外,显示控制部件104可根据各种因素,突出显示拍摄图像内的物体。例如,在车辆的剩余油量减少的情况下,显示控制部件104可突出显示拍摄图像内的加油站370a,如图21中所示。特别地,在车辆是电动车的情况下,由于适用于电动车的加油站有限,因此按照该处理的效果重大。
此外,显示控制部件104可在午餐时,突出显示饭店,在通勤时或者在空闲期间,突出显示分别不同的物体。例如,在通勤时,可突出显示便利店,而在空闲期间,可突出显示休闲设施。此外,显示控制部件104不仅可以仅仅突出显示物体,而且还可把物体显示在近侧显示层上。这里,如图22中所示,显示控制部件104不仅可以仅仅把物体显示在近侧显示层上,而且还可显示与这些物体相关的对象关联信息400(图22的例子中的加油站的诸如照片、名称、地址之类的信息)。
此外,在车辆通过拍摄图像内的特定物体的情况下,可以进行可以说进行特定处理(播放音乐等)的处理。特定物体可能实际上不存在。例如,显示控制部件104可在拍摄图像中显示某个物体(例如,CD),在车辆通过该物体的情况下,可以进行特定的处理(播放特定的音乐等)。
此外,也可在内侧显示层进行突出显示。例如,在从图21的状态转移到图20的状态的情况下,显示控制部件104可突出显示内侧显示层内的拍摄图像370中的加油站370a。此外,显示控制部件104可用与上述方法类似的方法,显示在估计车辆到达的位置拍摄的拍摄图像,而不是车辆周围环境的拍摄图像。这种情况下,显示控制部件104可根据车辆行驶方向,用户设定的目的地等,估计车辆将通过的位置,并且可从网络获得在该位置拍摄的拍摄图像。这种情况下,用其中通过经过用户的当前位置,到达目的地的拍摄图像,通过成像,实现显示控制部件104。
(车辆前方的拍摄图像和指示图像的交叠显示)
下面根据图23和图24,说明其中交叠地显示车辆前方的拍摄图像和指示图像的例子。图23表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。图24表示显示在信息处理设备10的正面12a的显示对象信息。注意在本例中,包括拍摄车辆正前方的成像设备,拍摄右侧的成像设备,和拍摄左侧的成像设备。另外,利用各个成像设备拍摄的拍摄图像被输入显示控制部件104。
显示控制部件104把车辆正前方的拍摄图像370显示在内侧显示层的中央部分,把车辆右侧的拍摄图像380显示在右侧部分,把车辆左侧的拍摄图像390显示在左侧部分。此外,为了表示车辆在行驶中,显示控制部件104显示从内侧显示层的中央部分延伸到内侧显示层的下缘部分的格子图像335,并沿着内侧显示层的下缘部分方向,移动该格子图像335。注意,在本例中,在拍摄图像310中描画在用户的车辆前面穿过的人物370b。
显示控制部件104在近侧显示层的中央部分,显示围绕拍摄图像370的带框图像410,在拍摄图像370内的人物370b上交叠地显示指示图像(例如,用红线描画的带框图像)415,所述指示图像表示将由用户视觉确认的对象,即,人物370b。这样,用户能够容易地把握用户他或她自己要视觉确认的对象。注意,显示控制部件104可根据用户的操作等,切换每种显示对象信息的显示层。此外,在用户的疲劳度或睡意较高的情况下,或者在夜间行驶的情况下,显示控制部件104可把拍摄图像切换成导航。显示控制部件104可显示围绕其它的拍摄图像380和390的带框图像416和417。
(用户间的消息的交换)
下面根据图25和图26,说明其中进行用户间的消息的交换的例子。图25表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。图26表示显示在信息处理设备10的正面12a的显示对象信息。注意在本例中,车辆中包括麦克风,通过利用麦克风,用户能够输入消息。从用户输入的消息被显示控制部件104转换成文本,然后从通信部件101被传送给其他用户。通信部件101接收来自其他用户的消息(可以是文本数据,或者可以是音频数据)和其他用户的拍摄图像,并把收到的消息和拍摄图像输出给显示控制部件104。
显示控制部件104按时序,把用户的消息435和表示用户的图标430显示在近侧显示层上。例如,显示控制部件104在收到消息之后,立即把消息显示在近侧显示层的下缘,之后沿向上的方向移动消息。这种情况下,近侧显示层的垂直方向是时间轴。此外,显示控制部件104在收到消息之后,立即把消息显示在近侧显示层的外缘,之后一边缩小消息,一边把消息移向近侧显示层的中心部分。这种情况下,近侧显示层的深度方向是时间轴。此外,显示控制部件104只有当收到消息时,才把消息显示在近侧显示层上。
显示控制部件104可同时把上述矩形图像240显示在近侧显示层上。显示控制部件104把与所述用户交换消息的其他用户的拍摄图像显示在内侧显示层上。这样,用户能够实际感受到在与其他用户交谈。其它显示对象信息(例如,地图信息等)可被显示在内侧显示层上。在交谈中出现某个地点(例如,建筑物、游乐园等)的情况下,显示控制部件104可检索该地点的位置,和到该地点的路线,可把所述位置和路线显示在内侧显示层上(导航的开始)。
(用户向着目的地的通知)
下面根据图27-图30,说明其中进行用户向着目的地的通知的例子。图27和29表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。图28和30表示显示在信息处理设备10的正面12a的显示对象信息。
如图27-图30中所示,显示控制部件104把表示整个日本的地图信息230显示在内侧显示层上,并且当用户接近目的地时,放大地图信息230。显示控制部件104最终把目的地标记235a显示在内侧显示层的中心部分附近。另一方面,显示控制部件104把由多个气泡图像构成的条带图像450显示在近侧显示层的外缘,当用户接近目的地时,把条带图像450移向中心部分。这些条带图像450可以充当与车辆的行驶相关的车辆行驶信息的例子。这样,用户能够更立体并且动态地把握用户他或她自己正在接近目的地。
(多个用户向着相同目的地的通知)
下同根据图32和图32,说明其中进行多个用户向着相同目的地的通知的例子。图31表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图32表示显示在信息处理设备10的正面12a的显示对象信息。在这个例子中,通信部件101接收其他用户的当前位置信息,并把所述收到的当前位置信息输出给显示控制部件104。
显示控制部件104在内侧显示层上,显示地图信息230和目的地标记235a。另一方面,显示控制部件104在近侧显示层上,显示表示各个用户的移动轨迹的条带图像460~480,和表示各个用户的图标460a~480a。条带图像460~480的前缘表示其他用户的当前位置。在其他用户坐车移动的情况下,条带图像460~480和图标460a~480a可以充当与车辆的行驶相关的车辆行驶信息的例子。这样,用户能够获得该用户和其他用户一起向着所述目的地的实感。例如当在图25的例子中,多个用户决定在相同目的地集合的情况下进行时,本例有效果。可按彼此不同的状态(亮度、颜色等),显示条带图像460~480和图标460a~480a。
(视觉感测加油的例子)
下面根据图33和图34,说明其中用户视觉感测加油的例子。图33表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。图34表示显示在信息处理设备10的正面12a的显示对象信息。
如图33中所示,显示控制部件104在内侧显示层上,显示从内侧显示层的外缘向着中心部分的线条图像500。另一方面,显示控制部件104把由多个气泡图像构成的条带图像510,和表示燃油的蓄积量的字符信息显示在近侧显示层上。显示控制部件104把条带图像510从近侧显示层的外缘移向中心部分,并终止条带图像。这样,用户能够视觉感测吸引到中心部分的能源的流动,即,加入车辆中的燃油。换句话说,显示控制部件104使用户可以直观并且立体地把握正在加油。本例情绪地处理能源。显示控制部件104可在近侧显示层的中心部分,显示球体515。这样,显示控制部件104能够实现其中能源被合并到球体515的状态。
(全景图像和与物体相关的物体关联图像的交叠显示)
下面根据图35和图36,说明其中交叠地显示全景图像和与物体相关的物体关联图像的例子。图35表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。图36表示显示在信息处理设备10的正面12a的显示对象信息。本例类似于所谓的增强现实(AR)。
显示控制部件104在内侧显示层上,显示全景图像520(例如,对车辆的周围环境成像),把与全景图像520的各个物体相关的对象关联信息530显示在近侧显示层内的与所述物体交叠的位置。对象关联信息530是从与这些物体相关的各个用户发出的口头消息,从物体的所有者发出的广告消息等。此外,显示控制部件104可在近侧显示层上,显示表示与不同种类的SNS的链接的图标530a,以致用户能够从该屏幕发出口头消息等。注意,在其它例子中,也可如此显示图标530a。
(立体地显示其他用户的图标)
下面根据图37和图38,说明立体地显示其他用户的图标的例子。图37表示显示在显示部分40的第一显示区43和第二显示区45上的显示对象信息。图38表示显示在信息处理设备10的正面12a的显示对象信息。在这个例子中,通信部件101接收其他用户的当前位置信息和目的地信息,并把接收的信息输出给显示控制部件104。下面,信息处理设备10的用户将被称为主用户,除主用户外的用户将被称为其他用户。
如图37中所示,显示控制部件104把和图33相同的图像显示在内侧显示层上。显示控制部件104把代表其他用户的图标540(例如,表示其他用户驾驶的车辆的车牌号码,其他用户的面部照片,车辆的照片,用户姓名等),以及上述矩形图像240,显示在近侧显示层上。显示控制部件104可把车速信息200显示在近侧显示层上。这样,用户能够直观地看出每个图标540在三维空间内移动。
显示控制部件104在对应于其他用户的当前位置的显示位置,显示代表其他用户的图标540。下面说明一些具体的例子。例如,在每个用户向着相同目的地的情况下,显示控制部件104把连接主用户的当前位置和目的地的轴,设定为x轴,把从主用户的当前位置到目的地的方向设定为x轴的正方向。此外,显示控制部件104把垂直于x轴的轴,设定为y轴。另外,显示控制部件104计算其他用户的当前位置的x-y坐标。另外,显示控制部件104还在近侧显示层内设定x-y轴。即,显示控制部件104假定近侧显示层的中央部分是目的地。另外,显示控制部件104把从近侧显示层的外缘朝向中心部分的轴设定为x轴(深度方向是正方向),并把与x轴正交的轴设定为y轴。另外,显示控制部件104在与每个用户的x-y坐标对应的显示位置,显示每个用户的图标540。于是,当从目的地到每个用户的距离增大时,这些用户的图标540被显示在更靠近近侧显示层的外缘的位置。此外,在其他用户在主用户的前进方向的右侧的情况下,这些用户的图标540被显示在近侧显示层的中心部分的右侧。按照这个例子,主用户能够直观地判断其他用户接近目的地的程度。在本例中,主用户能够获得与其他用户的时间和行动的共有感。而且其他用户被假定与主要用户具有网络上的朋友关系,从而没有特别考虑用户之间的关系。
作为另一个例子,可以举出其中每个用户具有各自不同的目的地,并且假定每个用户的目的地在近侧显示层的中心部分的例子。在这个例中,显示控制部件104把连接主用户的当前位置和目的地的轴设定为基准轴,把与基准轴正交的轴设定为y轴。另外,显示控制部件104把连接其他用户的当前位置和其他用户的目的地的轴设定为x轴,把从其他用户的当前位置到其他用户的目的地的方向设定为x轴正方向。即,对每个用户设定x轴。另外,显示控制部件104还在近侧显示层内,设定x-y轴。即,显示控制部件104假定近侧显示层的中心部分是各个用户的目的地。另外,显示控制部件104把从近侧显示层的外缘到中心部分的轴设定为x轴(深度方向为正方向),把与x轴垂直的轴设定为y轴。另外,显示控制部件104把每个用户的图标540,显示在与每个用户的x-y坐标对应的显示位置。于是,当从各个用户的目的地到各个用户的距离增大时,这些用户的图标540被显示在离近侧显示层的外缘更近的位置。按照这个例子,即使在目的地和其他用户的目的地不同的情况下,主用户能够直观地判断其他用户接近目的地的程度。在这个例子中,即使在其他用户以与主用户的目的不同,并且和主用户完全不相干的目的进行行动的情况下,主用户也能够获得与其他用户的时间和行动的共有感。不用说,其他用户可以与主用户具有网络上的朋友关系。即,没有特别考虑用户之间的关系。
另外,作为另一个例子,可以举出其中指示存在于主用户的当前位置和目的地之间的其他用户的例子。在这个例子中,显示控制部件104把连接主用户的当前位置和目的地的轴设定为x轴,把从主用户的当前位置到目的地的方向设定为x轴的正方向。此外,显示控制部件104把与x轴垂直的轴,设定为y轴。另外,显示控制部件104计算其他用户的当前位置的x-y坐标。另外,显示控制部件104还在近侧显示层内,设定x-y轴。即,显示控制部件104假定近侧显示层的中心部分是目的地。另外,显示控制部件104把从近侧显示层的外缘到中心部分的轴设定为x轴(深度方向为正方向),并把与x轴垂直的轴设定为y轴。另外,显示控制部件104把每个用户的图标540显示在与每个用户的x-y坐标对应的显示位置。
尽管本例类似于第一个例子,不过每个用户可能不一定向目的地前进。即,向着目的地的用户可能只是主用户,而其他用户可能停留在当前位置,例如吃饭、睡觉等。即,显示控制部件104以诸如图标540的移动之类的形式,表现每个用户在做什么。在本例中,即使在其他用户以与主用户的目的不同,并且和主用户完全不相干的目的进行行动的情况下,主用户也能够获得与其他用户的时间和行动的共有感。不用说,其他用户可以与主用户具有网络上的朋友关系。即,没有特别考虑用户之间的关系。
在各个上述例子中,可以常态地显示每个用户的图标540,或者可以在每个用户向主用户传送(发出)消息(推特)的定时,显示每个用户的图标540。此外,显示控制部件104可以只把其他用户的移动方向显示在近侧显示层或内侧显示层上。此外,显示控制部件104可把接近目的地的用户的图标540显示在内侧显示层的中心部分附近,而把远离目的地的用户的图标540显示在近侧显示层的外缘附近。即,显示控制部件104可按照从其他用户的当前位置到目的地的距离,划分图标540的显示层。
(游戏屏幕的显示)
下面根据图39和图40,说明其中立体地显示赛车游戏屏幕的例子。图39表示显示在显示部分40的第一显示区42和第二显示区45上的显示对象信息。图40表示显示在信息处理设备10的正面12a的显示对象信息。
在这个例子中,显示控制部件104把构成赛车游戏屏幕的图像之中的赛道图像550、显示到游戏开始为止的剩余计数的计数图像560等,显示在内侧显示层上。显示控制部件104把用信号通知游戏开始的字符图像570,各种用户界面(速度计580、转速表590和地图信息600)等,显示在近侧显示层上。显示控制部件104可把上述矩形图像240显示在近侧显示层上。这样,用户能够立体地认识赛车游戏屏幕。注意,显示在近侧显示层和内侧显示层上的图像的种类并不局限于上述那些种类。注意,每次计数图像560的计数变小时,字符图像570可被放大。按照这个例子,用户能够享受提供临场感更大的游戏。注意,能够由信息处理设备10显示的游戏并不局限于赛车游戏。
(以与用户的视点位置对应的大小显示图像)
下面根据图41,说明其中以与用户的视点位置对应的大小,显示图像的例子。图41表示从各个显示层(半反射镜20和反射镜30)到用户的视点700的距离和用户的视野710之间的关系。注意在图41中,为了易于理解,各个显示层沿着垂直方向延伸(如图1B中所示,各个显示层实际上相对于垂直方向倾斜)。
如图41中所示,随着从用户的视点700到各个显示层的距离的减小,用户的视野710和各个显示层之间的相交区域(能够被用户视觉辨认的区域)减小。因而,当从用户的视点700到各个显示层的距离减小时,显示控制部件104减小待显示在各个显示层上的图像。注意,例如,可依据来自运动传感器103的信息,辨别从用户的视点700到各个显示层的距离。这样,用户能够更精确地视觉辨认显示在各个显示层上的信息。
按照如上所述的本实施例,显示控制部件104根据与信息相关的参数,确定待显示在多个相互交叠的显示层中的每个显示层上的信息。于是,由于信息处理设备10能够更适当地确定待显示在各个显示层上的信息,因此能够更有效地利用各个显示层。
另外,由于显示控制部件104根据参数的大小关系,确定待显示在多个显示层中的每个显示层上的信息,从而能够更适当地确定待显示在各个显示层上的信息。
另外,由于显示控制部件104根据参数和对应于所述参数的阈值,确定待显示在多个显示层中的每个显示层上的信息,因此能够更适当地确定待显示在各个显示层上的信息。
另外,由于显示控制部件104能够把显示在显示层任意之一上的信息移动到另一个显示层,因此能够更加动态地显示每种信息。
另外,显示控制部件104把信息显示在显示层之一上,随后还把显示在显示层之一上的信息显示在另一个显示层上,然后降低显示在所述显示层之一上的信息的可见性。于是,显示控制部件104能够更加连续(自然)地进行显示层之间的信息的移动。
另外,由于显示控制部件104通过降低显示在显示层之一上的信息的亮度,降低显示在所述显示层之一上的信息的可见性(进行所谓的亮度交换),因此显示控制部件104能够更加连续(自然)地进行显示层之间的信息的移动。
显示控制部件104变动(例如,放大)显示在显示层之一上的信息的大小。之后,显示控制部件104还把显示在所述显示层之一上的信息显示在另一个显示层上,然后按相同的状态,变动(例如,放大)显示在所述显示层之一上的信息的大小,和显示在另一个显示层上的信息的大小。于是,显示控制部件104能够更加连续(自然)地进行显示层之间的信息的移动。
另外,由于显示控制部件104根据用户的操作,调整参数,因此显示控制部件104能够更加适当地确定待显示在各个显示层上的信息。
另外,显示控制部件104根据优先级,确定待显示在各个显示层上的信息。具体地,显示控制部件104把估计为用户所必需的信息显示在近侧显示层上,把其它信息显示在内侧显示层上。于是,显示控制部件104能够更适当地确定待显示在各个显示层上的信息。
另外,由于显示控制部件104把车辆行驶信息和地图信息显示在分开的显示层上,因此用户能够直观并且立体地把握这样的信息。
另外,由于显示控制部件104把与车辆的行驶相关的车辆行驶信息和驾驶员的生命信息显示在分开的显示层上,因此用户能够直观并且立体地把握这样的信息。
另外,显示控制部件104把通过对车辆的周围环境的各个方向成像而获得的拍摄图像之中的,对应于用户的要求的拍摄图像显示在近侧显示层上,把其它的拍摄图像显示在内侧显示层上。于是,用户能够直观并且立体地把握这样的信息。
另外,显示控制部件104把通过对车辆的周围环境的各个方向成像而获得的拍摄图像显示在内侧显示层上,把拍摄图像中的表示将由用户视觉辨认的物体的指示图像显示在近侧显示层上。于是,用户能够直观并且立体地把握这样的信息。
另外,显示控制部件104把通过对车辆的周围环境的各个方向成像而获得的拍摄图像显示在内侧显示层上,把与拍摄图像内的物体相关的对象关联信息显示在近侧显示层上。于是,用户能够直观并且立体地把握这样的信息。
另外,显示控制部件104把在估计车辆到达的位置拍摄的拍摄图像中的,与用户的要求对应的拍摄图像显示在近侧显示层上,把其它的拍摄图像显示在内侧显示层上。于是,用户能够直观并且立体地把握这样的信息。
另外,显示控制部件104把来自其他用户的消息显示在近侧显示层上,把与传送所述消息的用户相关的信息显示在内侧显示层上。于是,用户能够直观并且立体地把握这样的信息。
另外,显示控制部件104把代表其他用户的图标,显示在近侧显示层内,与其他用户的当前位置对应的显示位置,并在内侧显示层上,显示从内侧显示层的外缘延伸到中心部分的线条图像。于是,用户能够直观并且立体地把握这样的信息。
另外,由于显示控制部件104根据从用户的视点到各个显示层的距离,确定待显示在各个显示层上的信息的大小,因此用户能够更精确地视觉识别显示在各个显示层上的信息。
本领域的技术人员应明白,根据设计要求和其它因素,可以产生各种修改、组合、子组合和变更,只要它们在所附的权利要求或其等同物的范围之内。
例如,尽管通过利用半反射镜20和反射镜30,在上述实施例中实现多个显示层,不过可通过堆叠具有透明度的显示器,实现多个显示层。即,没有考虑多个显示层的实现方法。
另外,也可如下构成本技术。
(1)一种信息处理设备,包括显示控制部件,所述显示控制部件根据与信息相关的参数,确定要被显示在多个相互交叠的显示层中的各个显示层上的信息。
(2)按照(1)所述的信息处理设备,
其中显示控制部件根据参数的大小关系,确定要显示在多个显示层中的各个显示层上的信息。
(3)按照(1)或(2)所述的信息处理设备,
其中显示控制部件根据参数和对应于所述参数的阈值,确定要显示在多个显示层中的各个显示层上的信息。
(4)按照(1)-(3)任意之一所述的信息处理设备,
其中显示控制部件能够把显示在显示层任意之一上的信息移动到另一个显示层。
(5)按照(4)所述的信息处理设备,
其中显示控制部件把信息显示在显示层之一上,随后还把显示在显示层之一上的信息显示在另一个显示层上,然后降低显示在所述显示层之一上的信息的可见性。
(6)按照(5)所述的信息处理设备,
其中显示控制部件通过降低显示在显示层之一上的信息的亮度,降低显示在所述显示层之一上的信息的可见性。
(7)按照(5)所述的信息处理设备,
其中显示控制部件变动显示在显示层之一上的信息的大小,之后还把显示在所述显示层之一上的信息显示在另一个显示层上,然后按相同的状态,变动显示在所述显示层之一上的信息的大小,和显示在另一个显示层上的信息的大小。
(8)按照(1)-(7)任意之一所述的信息处理设备,
其中显示控制部件根据用户的操作,调整参数。
(9)按照(1)-(8)任意之一所述的信息处理设备,
其中显示控制部件把估计为用户所必需的信息显示在显示层任意之一上,把其它信息显示在另一个显示层上,所述另一个显示层被布置在与所述显示层之一的位置相比,离用户的视点更远的位置。
(10)按照(1)-(9)任意之一所述的信息处理设备,
其中显示控制部件把与车辆的行驶相关的车辆行驶信息和地图信息显示在分开的显示层上。
(11)按照(1)-(10)任意之一所述的信息处理设备,
其中显示控制部件把与车辆的行驶相关的行驶信息和驾驶员的生命信息显示在分开的显示层上。
(12)按照(1)-(11)任意之一所述的信息处理设备,
其中显示控制部件把通过对车辆的周围环境的各个方向成像而获得的拍摄图像之中的,对应于用户的要求的拍摄图像显示在显示层任意之一上,把其它的拍摄图像显示在另一个显示层上。
(13)按照(1)-(12)任意之一所述的信息处理设备,
其中显示控制部件把通过对车辆的周围环境的各个方向成像而获得的拍摄图像显示在显示层之一上,把拍摄图像中的表示将由用户视觉辨认的物体的指示图像显示在另一个显示层上。
(14)按照(1)-(13)任意之一所述的信息处理设备,
其中显示控制部件把通过对车辆的周围环境的各个方向成像而获得的拍摄图像显示在显示层之一上,把与拍摄图像内的物体相关的对象关联信息显示在另一个显示层上。
(15)按照(1)-(14)任意之一所述的信息处理设备,
其中显示控制部件把在估计车辆到达的位置拍摄的拍摄图像中的,与用户的要求对应的拍摄图像显示在显示层任意之一上,把其它的拍摄图像显示在另一个显示层上。
(16)按照(1)-(15)任意之一所述的信息处理设备,
其中显示控制部件从能够接收消息的通信部件接收消息,把所述消息显示在显示层任意之一上,把与传送所述消息的用户相关的信息显示在另一个显示层上。
(17)按照(1)-(16)任意之一所述的信息处理设备,
其中显示控制部件把代表另一个用户的图标,显示在显示层任意之一内,与所述另一个用户的当前位置对应的显示位置,并在另一个显示层上显示线条图像,所述线条图像从所述另一个显示层的外缘延伸到在所述另一个显示层内设定的基准点。
(18)按照(1)-(17)任意之一所述的信息处理设备,
其中显示控制部件根据从用户的视点到各个显示层的距离,确定要显示在各个显示层上的信息的大小。
(19)一种信息处理方法,包括根据与信息相关的参数,确定要被显示在多个相互交叠的显示层中的各个显示层上的信息。
(20)一种使计算机实现显示控制功能的程序,所述显示控制功能根据与信息相关的参数,确定要被显示在多个相互交叠的显示层中的各个显示层上的信息。
Claims (20)
1.一种信息处理设备,包括:
显示控制部件,所述显示控制部件基于与信息相关的参数,确定信息要被显示在多个相互交叠的显示层之中的哪些显示层上。
2.按照权利要求1所述的信息处理设备,
其中显示控制部件基于参数的大小关系,确定要显示在所述多个显示层中的各个显示层上的信息。
3.按照权利要求2所述的信息处理设备,
其中显示控制部件基于参数和对应于所述参数的阈值,确定要显示在所述多个显示层中的各个显示层上的信息。
4.按照权利要求1所述的信息处理设备,
其中显示控制部件能够把显示在所述多个显示层中的任意一个上的信息移动到另一个显示层。
5.按照权利要求4所述的信息处理设备,
其中显示控制部件把信息显示在所述多个显示层中的一个显示层上,随后还把显示在所述多个显示层中的一个上的信息显示在另一个显示层上,然后降低显示在所述多个显示层中的所述一个显示层上的信息的可见性。
6.按照权利要求5所述的信息处理设备,
其中显示控制部件通过降低显示在所述多个显示层中的所述一个显示层上的信息的亮度,降低显示在所述多个显示层中的所述一个显示层上的信息的可见性。
7.按照权利要求5所述的信息处理设备,
其中显示控制部件变动显示在所述多个显示层中的所述一个显示层上的信息的大小,之后还把显示在所述多个显示层中的所述一个显示层上的信息显示在所述另一个显示层上,然后按相同的状态,变动显示在所述多个显示层中的所述一个显示层上的信息的大小和显示在所述另一个显示层上的信息的大小。
8.按照权利要求1所述的信息处理设备,
其中显示控制部件基于用户的操作,调整参数。
9.按照权利要求1所述的信息处理设备,
其中显示控制部件把估计为用户所必需的信息显示在所述多个显示层中的任意一个显示层上,并且把其它信息显示在另一个显示层上,所述另一个显示层被布置在与所述多个显示层中的所述一个显示层的位置相比离用户的视点更远的位置。
10.按照权利要求1所述的信息处理设备,
其中显示控制部件把与车辆的行驶相关的车辆行驶信息和地图信息显示在分开的显示层上。
11.按照权利要求1所述的信息处理设备,
其中显示控制部件把与车辆的行驶相关的车辆行驶信息和驾驶员的生命信息显示在分开的显示层上。
12.按照权利要求1所述的信息处理设备,
其中显示控制部件把通过对车辆的周围环境的各个方向成像而获得的拍摄图像之中的、对应于用户的要求的拍摄图像显示在所述多个显示层中的任意一个显示层上,把其它的拍摄图像显示在另一个显示层上。
13.按照权利要求1所述的信息处理设备,
其中显示控制部件把通过对车辆的周围环境的各个方向成像而获得的拍摄图像显示在所述多个显示层中的一个显示层上,并且把拍摄图像中的示出将由用户视觉辨认的对象的指示图像显示在另一个显示层上。
14.按照权利要求1所述的信息处理设备,
其中显示控制部件把通过对车辆的周围环境的各个方向成像而获得的拍摄图像显示在所述多个显示层中的一个显示层上,并且把与拍摄图像内的对象相关的对象关联信息显示在另一个显示层上。
15.按照权利要求1所述的信息处理设备,
其中显示控制部件把在估计车辆到达的位置拍摄的拍摄图像中的、与用户的要求对应的拍摄图像显示在所述多个显示层中的任何一个显示层上,并且把其它的拍摄图像显示在另一个显示层上。
16.按照权利要求1所述的信息处理设备,
其中显示控制部件从能够接收消息的通信部件接收消息,把所述消息显示在所述多个显示层中的任意一个显示层上,并且把与传送所述消息的用户相关的信息显示在另一个显示层上。
17.按照权利要求1所述的信息处理设备,
其中显示控制部件把代表另一个用户的图标显示在所述多个显示层中的任意一个显示层内的与所述另一个用户的当前位置对应的显示位置处,并在另一个显示层上显示线条图像,所述线条图像从所述另一个显示层的外缘延伸到在所述另一个显示层内设定的基准点。
18.按照权利要求1所述的信息处理设备,
其中显示控制部件基于从用户的视点到各个显示层的距离,确定要显示在各个显示层上的信息的大小。
19.一种信息处理方法,包括:
基于与信息相关的参数,确定信息要被显示在多个相互交叠的显示层之中的哪些显示层上。
20.一种使计算机实现以下功能的程序:
显示控制功能,所述显示控制功能基于与信息相关的参数,确定信息要被显示在多个相互交叠的显示层之中的哪些显示层上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013114006A JP6191241B2 (ja) | 2013-05-30 | 2013-05-30 | 情報処理装置、情報処理方法、及びプログラム |
JP2013-114006 | 2013-05-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104216558A true CN104216558A (zh) | 2014-12-17 |
Family
ID=51984562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410219932.5A Pending CN104216558A (zh) | 2013-05-30 | 2014-05-23 | 信息处理设备,信息处理方法和程序 |
Country Status (3)
Country | Link |
---|---|
US (4) | US9715752B2 (zh) |
JP (1) | JP6191241B2 (zh) |
CN (1) | CN104216558A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105898338A (zh) * | 2015-12-18 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 全景视频播放方法及装置 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6191241B2 (ja) | 2013-05-30 | 2017-09-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10062204B2 (en) * | 2013-12-23 | 2018-08-28 | Harman International Industries, Incorporated | Virtual three-dimensional instrument cluster with three-dimensional navigation system |
JP6493368B2 (ja) * | 2016-11-25 | 2019-04-03 | トヨタ自動車株式会社 | 車両用表示装置 |
JP2018042236A (ja) * | 2017-08-08 | 2018-03-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10000153B1 (en) * | 2017-08-31 | 2018-06-19 | Honda Motor Co., Ltd. | System for object indication on a vehicle display and method thereof |
DE102017217591A1 (de) * | 2017-10-04 | 2019-04-04 | Audi Ag | Bediensystem mit dreidimensionaler Anzeige für ein Fahrzeug |
CN109664765B (zh) * | 2017-10-13 | 2022-09-02 | 三菱自动车工业株式会社 | 用于包括电机的电动车辆的显示装置 |
CN112204502B (zh) * | 2018-05-30 | 2024-04-02 | 索尼公司 | 显示控制装置、程序和显示控制方法 |
CN113923297A (zh) * | 2020-06-24 | 2022-01-11 | 中兴通讯股份有限公司 | 影像显示方法及装置、计算机可读存储介质、电子装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7205959B2 (en) * | 2003-09-09 | 2007-04-17 | Sony Ericsson Mobile Communications Ab | Multi-layered displays providing different focal lengths with optically shiftable viewing formats and terminals incorporating the same |
US20070252804A1 (en) * | 2003-05-16 | 2007-11-01 | Engel Gabriel D | Display Control System |
CN102692805A (zh) * | 2012-05-31 | 2012-09-26 | 浙江大学 | 基于多层液晶的投影式三维显示装置和方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2420081C (en) * | 1999-08-19 | 2011-10-11 | Deep Video Imaging Limited | Control of depth movement for visual display with layered screens |
US6927694B1 (en) * | 2001-08-20 | 2005-08-09 | Research Foundation Of The University Of Central Florida | Algorithm for monitoring head/eye motion for driver alertness with one camera |
JP2004356731A (ja) | 2003-05-27 | 2004-12-16 | Nissan Motor Co Ltd | 車載情報提供装置 |
JP4178126B2 (ja) * | 2004-04-28 | 2008-11-12 | アルゼ株式会社 | 遊技機 |
JP2007105097A (ja) * | 2005-10-11 | 2007-04-26 | Sony Corp | 視力測定システム,情報処理装置,遠隔操作装置,情報処理方法,遠隔操作方法およびコンピュータプログラム |
JP5136871B2 (ja) | 2005-11-22 | 2013-02-06 | 株式会社エクォス・リサーチ | 運転支援装置 |
JP2008302741A (ja) | 2007-06-05 | 2008-12-18 | Toyota Motor Corp | 運転支援装置 |
JP2009053539A (ja) | 2007-08-28 | 2009-03-12 | Sony Corp | 情報表示装置、情報表示方法およびプログラム |
JP4941760B2 (ja) | 2007-09-24 | 2012-05-30 | 株式会社デンソー | 車両周辺監視装置 |
US8140149B2 (en) * | 2008-07-04 | 2012-03-20 | Toyota Jidosha Kabushiki Kaisha | Drowsiness detector |
US9077986B2 (en) * | 2008-08-27 | 2015-07-07 | Pure Depth Limited | Electronic visual displays |
JP2011038346A (ja) | 2009-08-13 | 2011-02-24 | Hitachi Constr Mach Co Ltd | 建設機械 |
EP2487906B1 (en) * | 2009-10-07 | 2020-05-27 | Panasonic Intellectual Property Management Co., Ltd. | Control device and vehicle surrounding monitoring device |
EP2497671B1 (en) * | 2009-11-04 | 2014-04-02 | Honda Motor Co., Ltd. | Display device for vehicle |
KR101688942B1 (ko) * | 2010-09-03 | 2016-12-22 | 엘지전자 주식회사 | 다중 디스플레이에 기반한 사용자 인터페이스 제공 방법 및 이를 이용하는 이동 단말기 |
US8698639B2 (en) * | 2011-02-18 | 2014-04-15 | Honda Motor Co., Ltd. | System and method for responding to driver behavior |
JP5741251B2 (ja) * | 2011-06-28 | 2015-07-01 | 日本精機株式会社 | 虚像表示装置 |
CN102865269B (zh) * | 2011-07-04 | 2015-03-25 | 鸿富锦精密工业(深圳)有限公司 | 气缸 |
US8912984B2 (en) * | 2011-09-30 | 2014-12-16 | Blackberry Limited | Method and device for overlapping display |
US8711061B2 (en) * | 2012-05-10 | 2014-04-29 | Disney Enterprises, Inc. | Multiplanar image displays and media formatted to provide 3D imagery without 3D glasses |
US9330431B2 (en) * | 2012-12-19 | 2016-05-03 | Jeffrey Huang | System and method for synchronizing, merging, and utilizing multiple data sets for augmented reality application |
JP6191241B2 (ja) | 2013-05-30 | 2017-09-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2013
- 2013-05-30 JP JP2013114006A patent/JP6191241B2/ja active Active
-
2014
- 2014-05-21 US US14/283,398 patent/US9715752B2/en active Active
- 2014-05-23 CN CN201410219932.5A patent/CN104216558A/zh active Pending
-
2016
- 2016-07-01 US US15/200,219 patent/US9972112B2/en active Active
- 2016-08-24 US US15/246,035 patent/US9697633B2/en active Active
-
2018
- 2018-04-10 US US15/949,676 patent/US10453238B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070252804A1 (en) * | 2003-05-16 | 2007-11-01 | Engel Gabriel D | Display Control System |
US7205959B2 (en) * | 2003-09-09 | 2007-04-17 | Sony Ericsson Mobile Communications Ab | Multi-layered displays providing different focal lengths with optically shiftable viewing formats and terminals incorporating the same |
CN102692805A (zh) * | 2012-05-31 | 2012-09-26 | 浙江大学 | 基于多层液晶的投影式三维显示装置和方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105898338A (zh) * | 2015-12-18 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 全景视频播放方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6191241B2 (ja) | 2017-09-06 |
US9697633B2 (en) | 2017-07-04 |
US20140354610A1 (en) | 2014-12-04 |
US20160316197A1 (en) | 2016-10-27 |
US9715752B2 (en) | 2017-07-25 |
US10453238B2 (en) | 2019-10-22 |
US20160364894A1 (en) | 2016-12-15 |
JP2014232484A (ja) | 2014-12-11 |
US9972112B2 (en) | 2018-05-15 |
US20180232926A1 (en) | 2018-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104216558A (zh) | 信息处理设备,信息处理方法和程序 | |
JP6280134B2 (ja) | ヘルメットベースのナビゲーション通知方法、装置およびコンピュータプログラム | |
JP6570245B2 (ja) | 三次元ナビゲーションシステムを備える仮想三次元インストルメントクラスタ | |
CN108028016B (zh) | 增强现实显示系统 | |
JP6791167B2 (ja) | 情報処理装置、携帯型装置の制御方法、およびプログラム | |
JPWO2017047178A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014181927A (ja) | 情報提供装置、及び情報提供プログラム | |
WO2013136447A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
US11617941B2 (en) | Environment interactive system providing augmented reality for in-vehicle infotainment and entertainment | |
CN111201503A (zh) | 在机动车辆中运行至少一副虚拟现实眼镜的方法和系统 | |
JP2018042236A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
EP3869302A1 (en) | Vehicle, apparatus and method to reduce the occurence of motion sickness | |
JP2019021034A (ja) | 表示装置 | |
WO2013136454A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
CN106683473A (zh) | 一种反向寻车导航方法及移动终端 | |
CN102564427A (zh) | 导航系统 | |
WO2013136453A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
WO2013136450A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
WO2013136452A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
WO2013136455A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
CN116952266A (zh) | 导航界面的显示方法、装置、设备及存储介质 | |
WO2013136448A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
WO2013136449A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
JPWO2013136448A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 | |
JPWO2013136450A1 (ja) | 表示情報生成装置、表示情報生成方法及び表示情報生成用プログラム並びに情報記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20141217 |
|
RJ01 | Rejection of invention patent application after publication |