JP2018073310A - Display system and display program - Google Patents

Display system and display program Download PDF

Info

Publication number
JP2018073310A
JP2018073310A JP2016215800A JP2016215800A JP2018073310A JP 2018073310 A JP2018073310 A JP 2018073310A JP 2016215800 A JP2016215800 A JP 2016215800A JP 2016215800 A JP2016215800 A JP 2016215800A JP 2018073310 A JP2018073310 A JP 2018073310A
Authority
JP
Japan
Prior art keywords
display
viewpoint
user
control unit
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016215800A
Other languages
Japanese (ja)
Inventor
神谷 和宏
Kazuhiro Kamiya
和宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016215800A priority Critical patent/JP2018073310A/en
Publication of JP2018073310A publication Critical patent/JP2018073310A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for displaying an object in a screen easy-to-recognize for a user based on a view point.SOLUTION: A display system is configured including: a view point detection part for detecting a view point of a user; and a display control unit that controls a display unit to display a first object on which the view point exists and a second object relevant to the first object at a visibility higher than that of a third object other than the first object and the second object.SELECTED DRAWING: Figure 1

Description

本発明は、表示システムおよび表示プログラムに関する。   The present invention relates to a display system and a display program.

従来、画面上における利用者の視点を検出し、視点によって様々な処理を行うシステムが知られている。特許文献1には、画面の「焼き付け」を防止するために、利用者が注視している画像以外の画像の輝度を下げたり、簡略化したり、透明度を高めて表示することが記載されている。   Conventionally, a system that detects a user's viewpoint on a screen and performs various processes depending on the viewpoint is known. Patent Document 1 describes that in order to prevent “burn-in” of the screen, the brightness of an image other than the image being watched by the user is reduced, simplified, or displayed with increased transparency. .

特開平10−282877号公報JP-A-10-282877

しかし、視点が存在するオブジェクト以外のオブジェクトを全て、視点が存在するオブジェクトよりも低い視認性で表示すると、視点が存在するオブジェクトと関連するオブジェクトであっても視認性が低下する。そのため、利用者は視点を合わせているオブジェクトのみについては他のオブジェクトより認識しやすいが、視点を合わせているオブジェクトに関連するオブジェクトについては認識しづらいという問題がある。
本発明は、上記課題にかんがみてなされたもので、視点に基づいて画面内のオブジェクトを利用者が視認しやすく表示する技術の提供を目的とする。
However, if all objects other than the object with the viewpoint are displayed with lower visibility than the object with the viewpoint, the visibility is lowered even if the object is related to the object with the viewpoint. For this reason, the user can easily recognize only the object whose viewpoint is adjusted, compared with other objects, but there is a problem that it is difficult to recognize the object related to the object whose viewpoint is adjusted.
The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique for easily displaying an object in a screen on the basis of a viewpoint.

上記の目的を達成するため、表示システムは、利用者の視点を検出する視点検出部と、視点が存在する第一オブジェクトおよび第一オブジェクトに関連する第二オブジェクトを、第一オブジェクトおよび第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部と、を備える。   In order to achieve the above object, the display system includes a viewpoint detection unit that detects the viewpoint of the user, a first object having the viewpoint and a second object related to the first object, the first object and the second object. A display control unit that causes the display unit to display with higher visibility than a third object other than the above.

さらに、上記の目的を達成するため、表示プログラムは、コンピュータを、利用者の視点を検出する視点検出部、視点が存在する第一オブジェクトおよび第一オブジェクトに関連する第二オブジェクトを、第一オブジェクトおよび第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部、として機能させる。   Furthermore, in order to achieve the above object, the display program includes a computer, a viewpoint detection unit that detects a viewpoint of the user, a first object having the viewpoint, and a second object related to the first object, the first object And it is made to function as a display control part displayed on a display part by visibility higher than 3rd objects other than a 2nd object.

すなわち、表示システム、プログラムでは、第一オブジェクトに視点が存在する場合に、第一オブジェクトと共に第二オブジェクトも、第三オブジェクトよりも高い視認性で表示部に表示させる。したがって、利用者が第一オブジェクトに視点を合わせた際、利用者は第一オブジェクトだけでなく第二オブジェクトについても視認しやすい。   That is, in a display system and a program, when a viewpoint exists in a 1st object, a 2nd object is also displayed on a display part with a visibility higher than a 3rd object with a 1st object. Therefore, when the user focuses the viewpoint on the first object, the user can easily view not only the first object but also the second object.

表示システムのブロック図である。It is a block diagram of a display system. 図2A〜図2Dは地図表示画面を示す図である。2A to 2D are diagrams showing map display screens. 図3Aは表示レイヤとオブジェクトの対応関係を示す図、図3Bはグループに属するオブジェクトと属さないオブジェクトとを示す図である。FIG. 3A is a diagram showing a correspondence relationship between display layers and objects, and FIG. 3B is a diagram showing objects belonging to a group and objects not belonging to the group. 画面表示処理を示すフローチャートである。It is a flowchart which shows a screen display process. 図5Aおよび図5Bは関連領域の例を示す図である。5A and 5B are diagrams showing examples of related regions.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)表示システムの構成:
(2)画面表示処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of display system:
(2) Screen display processing:
(3) Other embodiments:

(1)表示システムの構成:
図1は、本発明の一実施形態である表示システム10の構成を示すブロック図である。表示システム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMや記録媒体30に記録された所望のプログラムを実行することができる。
(1) Configuration of display system:
FIG. 1 is a block diagram showing a configuration of a display system 10 according to an embodiment of the present invention. The display system 10 includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and the control unit 20 can execute a desired program recorded in the ROM or the recording medium 30.

本実施形態において、制御部20は、図示しないナビゲーションプログラムを実行することができ、各プログラムを実行することにより経路案内の各機能を実行することができる。すなわち、制御部20は、ナビゲーションプログラムを実行することにより、表示部としてのディスプレイ40に地図を表示し、図示しないGPS信号等に基づいて表示システム10が搭載された車両を指定の目的地まで誘導することができる。   In the present embodiment, the control unit 20 can execute a navigation program (not shown), and can execute each function of route guidance by executing each program. That is, the control unit 20 displays a map on the display 40 as a display unit by executing the navigation program, and guides the vehicle on which the display system 10 is mounted to a specified destination based on a GPS signal (not shown). can do.

本実施形態においては、以上のような各プログラムで実現される機能に関するユーザインタフェースを提供するため、制御部20は、図示しないROMや記録媒体30等に記録された表示プログラム21を実行する。当該表示プログラム21による処理を実行するため、車両は、ディスプレイ(表示部)40、タッチパッド41および視線検出センサ42を備えている。   In the present embodiment, the control unit 20 executes a display program 21 recorded in a ROM, a recording medium 30 or the like (not shown) in order to provide a user interface related to functions realized by the respective programs as described above. In order to execute processing by the display program 21, the vehicle includes a display (display unit) 40, a touch pad 41, and a line-of-sight detection sensor 42.

ディスプレイ40は、図示しないインタフェースを介して制御部20と接続されており、制御部20は、ディスプレイ40に対して制御信号を出力することにより、任意の座標を指定し、任意の画像をディスプレイ40に表示させることができる。タッチパッド41は、矩形平面の接触検出面を備えた入力デバイスであり、接触検出面に対して検出対象物が接触した位置を検出し、検出位置を示す座標を出力する。制御部20は、当該座標に基づいて接触位置を取得する。   The display 40 is connected to the control unit 20 via an interface (not shown). The control unit 20 outputs a control signal to the display 40 to designate arbitrary coordinates and display an arbitrary image on the display 40. Can be displayed. The touch pad 41 is an input device including a rectangular flat contact detection surface, detects a position where a detection target object is in contact with the contact detection surface, and outputs coordinates indicating the detection position. The control unit 20 acquires the contact position based on the coordinates.

視線検出センサ42は、赤外線出力部と少なくとも2個の赤外線カメラとを備えている。当該赤外線カメラは、運転者の顔を視野に含むように車室内の構造体(例えば、インストルメントパネルの壁面)に取り付けられている。赤外線カメラは、赤外線出力部から出力された赤外線によって撮影された利用者(運転者)の目の像に基づいて、目の位置および利用者の視線方向(ベクトル)を検出し、出力する。制御部20は、当該出力に基づいて、予め定義された3次元空間内で目の位置および視線方向を特定することができる。視線方向は、例えば、両眼のそれぞれにおいて設定された基準点と、眼球の動きに応じて位置が変化する動点とを結ぶ方向として取得され、他にも種々の方式が採用されてよい。また、両眼のそれぞれにおいて特定された視線方向の平均値等によって利用者の視線方向を1方向に特定することができるが、視線方向の特定方法も種々の方法が採用され得る。   The line-of-sight detection sensor 42 includes an infrared output unit and at least two infrared cameras. The infrared camera is attached to a vehicle interior structure (for example, a wall surface of an instrument panel) so as to include the driver's face in the field of view. The infrared camera detects and outputs an eye position and a user's line-of-sight direction (vector) based on an image of a user's (driver's) eye photographed by infrared rays output from the infrared output unit. Based on the output, the control unit 20 can specify the eye position and line-of-sight direction in a predefined three-dimensional space. The line-of-sight direction is acquired as, for example, a direction connecting a reference point set for each eye and a moving point whose position changes according to the movement of the eyeball, and various other methods may be employed. In addition, although the user's line-of-sight direction can be specified in one direction based on the average value of the line-of-sight directions specified in each of both eyes, various methods can be adopted as the method of specifying the line-of-sight direction.

以上の構成において、制御部20は、ディスプレイ40およびタッチパッド41をユーザインタフェースとして利用し、ユーザインタフェース画面を介して利用者による入力を受け付ける。このために表示プログラム21は、視点検出部21aと表示制御部21bと入力受付部21cとを備えている。   In the above configuration, the control unit 20 uses the display 40 and the touch pad 41 as a user interface, and receives input from the user via the user interface screen. For this purpose, the display program 21 includes a viewpoint detection unit 21a, a display control unit 21b, and an input reception unit 21c.

視点検出部21aは、利用者の視点を検出する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、視点の検出領域となるディスプレイ40の位置が、車室内空間の位置を既定する3次元座標系によって予め特定されている。制御部20は、視線検出センサ42の出力に基づいて、利用者の目の位置および視線方向を取得し、画面の位置が規定された3次元座標系内で利用者の目の位置および視線方向を特定する。そして、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の表示面との交点を視点として特定する。画面上に視点が存在しない場合、例えば、視点が不定とされてもよいし、他の構造体(例えば、インストルメントパネル等)上に存在すると判定されても良い。   The viewpoint detection unit 21a is a program module that causes the control unit 20 to realize a function of detecting a user's viewpoint. In the present embodiment, the position of the display 40 serving as a viewpoint detection area is specified in advance by a three-dimensional coordinate system that defines the position of the vehicle interior space. The control unit 20 acquires the position and line-of-sight direction of the user's eyes based on the output of the line-of-sight detection sensor 42, and the position and line-of-sight direction of the user's eyes within the three-dimensional coordinate system in which the position of the screen is defined. Is identified. Then, an intersection point between a virtual line extending in the line-of-sight direction from the eye position and the display surface of the display 40 is specified as a viewpoint. When the viewpoint does not exist on the screen, for example, the viewpoint may be indefinite, or may be determined to exist on another structure (for example, an instrument panel or the like).

表示制御部21bは、ディスプレイ40(表示部)にユーザインタフェース画面を表示する機能を制御部20に実現させるプログラムモジュールである。ユーザインタフェース画面を構成するオブジェクトを描画するための画像情報(地図描画情報やアイコン描画情報等)は予め表示情報30aとして記録媒体30に記録されている。制御部20がナビゲーションプログラムを実行すると、制御部20は表示情報30aを参照して地図等を含むユーザインタフェース画面をRAMに描画する(記録する)。制御部20は、表示制御部21bの処理により、当該描画されたユーザインタフェース画面の情報を取得し、当該ユーザインタフェース画面を表示するための制御信号をディスプレイ40に対して出力する。この結果、ナビゲーションプログラムにおけるユーザインタフェース画面がディスプレイ40に表示される。   The display control unit 21b is a program module that causes the control unit 20 to realize a function of displaying a user interface screen on the display 40 (display unit). Image information (map drawing information, icon drawing information, etc.) for drawing an object constituting the user interface screen is recorded in advance on the recording medium 30 as display information 30a. When the control unit 20 executes the navigation program, the control unit 20 draws (records) a user interface screen including a map or the like on the RAM with reference to the display information 30a. The control unit 20 acquires information on the drawn user interface screen by the processing of the display control unit 21b, and outputs a control signal for displaying the user interface screen to the display 40. As a result, a user interface screen in the navigation program is displayed on the display 40.

また表示制御部21bは、視点が存在するオブジェクトを特定し、視点が存在するオブジェクト(第一オブジェクト)および当該オブジェクトに関連するオブジェクト(第二オブジェクト)を、第一オブジェクトおよび第二オブジェクト以外のオブジェクト(第三オブジェクト)よりも高い視認性でディスプレイ40に表示させる機能を制御部20に実現させる。   In addition, the display control unit 21b identifies an object having a viewpoint, and sets an object having a viewpoint (first object) and an object related to the object (second object) to objects other than the first object and the second object. The control unit 20 is caused to realize a function of displaying on the display 40 with higher visibility than (third object).

図2Aは、ナビゲーションプログラムにおけるユーザインタフェース画面の一例としての地図表示画面に表示されうるオブジェクトを説明するための説明図である。地図表示画面には、第一レイヤから第三レイヤまで3つの表示レイヤが規定されている。ディスプレイの同一の座標に異なるレイヤのオブジェクトが存在する場合、上位レイヤのオブジェクトが優先して表示される。すなわち上位レイヤのオブジェクトの表示位置と重複する下位レイヤのオブジェクトの部分は表示されない。第一レイヤは最上位レイヤであり第三レイヤは最下位レイヤである。第二レイヤは第一レイヤと第三レイヤの間に順位付けされる。   FIG. 2A is an explanatory diagram for explaining objects that can be displayed on a map display screen as an example of a user interface screen in the navigation program. In the map display screen, three display layers from the first layer to the third layer are defined. When objects of different layers exist at the same coordinates on the display, the objects of the upper layer are displayed with priority. That is, the portion of the lower layer object that overlaps the display position of the upper layer object is not displayed. The first layer is the highest layer and the third layer is the lowest layer. The second layer is ranked between the first layer and the third layer.

図3Aは、各レイヤに表示されるオブジェクトを示す図である。同図に示すように、第三レイヤには地図Mが表示される。地図Mは地図表示画面の全面にわたって表示される。第二レイヤには、ボタンB(B1〜B6)と、コンパスCと、住所表示部Aが表示される。ボタンBはナビゲーションプログラムの各種機能の実行を指示するためのオブジェクトである。コンパスCは、地図表示画面に表示されている地図Mの方位を示すオブジェクトである。住所表示部Aは、地図表示画面に表示されている地図Mの中心座標に対応する住所を示すオブジェクトである。ボタンB、コンパスC、住所表示部Aは、地図表示画面の予め決められた位置に予め決められた形状で表示される。   FIG. 3A is a diagram illustrating objects displayed on each layer. As shown in the figure, a map M is displayed on the third layer. The map M is displayed over the entire map display screen. Button B (B1-B6), the compass C, and the address display part A are displayed on a 2nd layer. The button B is an object for instructing execution of various functions of the navigation program. The compass C is an object that indicates the orientation of the map M displayed on the map display screen. The address display unit A is an object indicating an address corresponding to the center coordinates of the map M displayed on the map display screen. The button B, the compass C, and the address display unit A are displayed in a predetermined shape at a predetermined position on the map display screen.

第一レイヤにはポインタPが表示される。ポインタPは利用者のタッチパッド41に対する操作に応じて表示位置が移動する。すなわち、制御部20は、ディスプレイ40の地図表示画面内に表示するポインタPの位置を、タッチパッド41に対するスワイプ操作の方向や移動量や移動速度に応じて更新する。
なお本実施形態においては、地図表示画面に表示されうる全てのオブジェクトはカラーで表示される。ただし、後述する特定の場合に地図Mはグレースケールで表示される。
A pointer P is displayed on the first layer. The display position of the pointer P moves according to the user's operation on the touch pad 41. That is, the control unit 20 updates the position of the pointer P displayed on the map display screen of the display 40 according to the direction of the swipe operation on the touch pad 41, the moving amount, and the moving speed.
In the present embodiment, all objects that can be displayed on the map display screen are displayed in color. However, the map M is displayed in a gray scale in a specific case described later.

制御部20は視点検出部21aの処理によって地図表示画面において視点が存在する位置を取得することができる。また制御部20は、上記の各オブジェクトの表示位置を参照して、視点が存在する位置に表示されているオブジェクトを特定することができる。   The control unit 20 can acquire the position where the viewpoint exists on the map display screen by the processing of the viewpoint detection unit 21a. In addition, the control unit 20 can specify the object displayed at the position where the viewpoint exists with reference to the display position of each object.

地図表示画面に表示されうる上記のオブジェクトは、関連性に基づいて予めグループ分けされている。本実施形態においては、グループごとに代表オブジェクトと関連オブジェクトが規定されている。代表オブジェクトは、視点が存在するオブジェクト、すなわち第一オブジェクトが属するグループを検索する際のインデックスとなるオブジェクトである。関連オブジェクトは、第一オブジェクトが代表オブジェクトとして属するグループに属する代表オブジェクト以外のオブジェクトであり、第二オブジェクトに相当する。また、任意のグループに着目した場合に、当該グループに属さないオブジェクトが第三オブジェクトに相当する。   The objects that can be displayed on the map display screen are grouped in advance based on the relevance. In this embodiment, a representative object and a related object are defined for each group. The representative object is an object serving as an index when searching for an object having a viewpoint, that is, a group to which the first object belongs. The related object is an object other than the representative object belonging to the group to which the first object belongs as the representative object, and corresponds to the second object. Further, when attention is paid to an arbitrary group, an object that does not belong to the group corresponds to a third object.

オブジェクトによっては複数のグループに属することもある。図3Bは本実施形態におけるグループを示している。同図に示すように、地図Mが代表オブジェクトであるグループG1には、関連オブジェクトとしてコンパスCと住所表示部Aとが属している。グループG1に属さないオブジェクトには、ボタンBとポインタPが該当する。住所表示部Aを代表オブジェクトとするグループG2には、関連オブジェクトとして地図Mが属している。グループG2に属さないオブジェクトとしては、ボタンB、コンパスC、ポインタPが該当する。ボタンBが代表オブジェクトであるグループG3には、関連オブジェクトとしてコンパスC、住所表示部A、ポインタPが属している。グループG3に属さないオブジェクトには、地図Mが該当する。   Some objects may belong to multiple groups. FIG. 3B shows groups in this embodiment. As shown in the figure, the compass C and the address display unit A belong to the group G1 in which the map M is a representative object as related objects. Button B and pointer P correspond to objects that do not belong to group G1. A map M as a related object belongs to the group G2 having the address display unit A as a representative object. Button B, compass C, and pointer P correspond to objects that do not belong to group G2. The compass C, the address display part A, and the pointer P belong to the group G3 in which the button B is a representative object. The map M corresponds to an object that does not belong to the group G3.

本実施形態では、第三オブジェクトに該当するオブジェクトのうち第一レイヤまたは第二レイヤに紐付けられているオブジェクトは透過させる(非表示とする)ことによって、第一オブジェクトと第二オブジェクトとを第三オブジェクトよりも高い視認性で表示することを実現する。また、第三オブジェクトに該当するオブジェクトのうち第三レイヤに紐付けられているオブジェクトはグレースケール化して表示することによって、カラー画像である第一オブジェクトと第二オブジェクトとを第三オブジェクトよりも高い視認性で表示することを実現する。   In the present embodiment, among the objects corresponding to the third object, the objects linked to the first layer or the second layer are made transparent (not displayed), thereby making the first object and the second object the first object. Display with higher visibility than three objects. Further, among the objects corresponding to the third object, the objects linked to the third layer are displayed in gray scale so that the first object and the second object which are color images are higher than the third object. Display with visibility.

入力受付部21cは、画面上の視点によって利用者の入力を受け付ける機能や、タッチパッド41に対する利用者の操作の入力を受け付ける機能を制御部20に実現させるプログラムモジュールである。制御部20は入力受付部21cの処理により、ボタンBに視点が存在する場合にタッチパッド41に対するスワイプ操作を受け付けると、ポインタPの表示位置をスワイプ操作の向きや速度に応じて移動させる。また、制御部20は入力受付部21cの処理により、地図Mまたは住所表示部Aに視点が存在する場合にタッチパッド41に対するスワイプ操作を受け付けると、スワイプ操作の向きや移動速度に応じて地図Mをスクロールさせる。   The input receiving unit 21c is a program module that causes the control unit 20 to realize a function of receiving a user's input from a viewpoint on the screen and a function of receiving a user's operation input to the touch pad 41. When the control unit 20 receives a swipe operation on the touch pad 41 when the viewpoint is present on the button B by the processing of the input receiving unit 21c, the control unit 20 moves the display position of the pointer P according to the direction and speed of the swipe operation. In addition, when the control unit 20 receives a swipe operation on the touch pad 41 when the viewpoint is present on the map M or the address display unit A by the processing of the input receiving unit 21c, the control unit 20 displays the map M according to the direction of the swipe operation and the moving speed. Scroll.

このように本実施形態においては、スワイプ操作に伴って表示位置を変える対象のオブジェクトが、視点が存在するオブジェクトに応じて切り替わる。スワイプ操作に伴って表示位置が変わるオブジェクトは地図MであるのかポインタPであるのかを、一方を他方より高い視認性で表示させることにより利用者に認識させる。また、地図MまたはポインタPのいずれか一方のオブジェクトの表示位置を変更する際に、当該オブジェクト以外に利用者が参照することが想定されるオブジェクトも、他方のオブジェクトより高い視認性で表示される。   As described above, in the present embodiment, the object whose display position is changed in accordance with the swipe operation is switched according to the object having the viewpoint. The user recognizes whether the object whose display position changes with the swipe operation is the map M or the pointer P by displaying one with higher visibility than the other. Further, when the display position of one of the objects of the map M or the pointer P is changed, an object assumed to be referred to by the user in addition to the object is also displayed with higher visibility than the other object. .

(2)画面表示処理:
次に、制御部20が実行する画面表示処理を、図4を参照しながら説明する。図4に示す画面表示処理は、視点が存在するオブジェクトに応じてオブジェクトの表示態様を変化させる処理であり、上記した地図表示画面を例に挙げながら説明を行う。画面表示処理は、ディスプレイ40に視点が存在する間中、繰り返し制御部20によって実行される。図4に示す画面表示処理が開始されると、視点検出部21aの処理により制御部20は、利用者の視点を取得する(ステップS100)。すなわち制御部20は画面内において視点が位置する座標を取得する。続いて制御部20は表示制御部21bの処理により、視点が存在するオブジェクトが代表オブジェクトとして属するグループを特定する(ステップS105)。
(2) Screen display processing:
Next, screen display processing executed by the control unit 20 will be described with reference to FIG. The screen display process shown in FIG. 4 is a process for changing the display mode of an object in accordance with an object having a viewpoint, and will be described using the above-described map display screen as an example. The screen display process is repeatedly executed by the control unit 20 while the viewpoint is present on the display 40. When the screen display process shown in FIG. 4 is started, the control unit 20 acquires the viewpoint of the user by the process of the viewpoint detection unit 21a (step S100). That is, the control unit 20 acquires the coordinates where the viewpoint is located in the screen. Subsequently, the control unit 20 specifies a group to which an object with a viewpoint belongs as a representative object by the processing of the display control unit 21b (step S105).

続いて制御部20は表示制御部21bの処理により、全オブジェクトの処理が完了したか否かを判定する(ステップS110)。地図表示画面を構成する各オブジェクトは、最下位レイヤに紐付けられているオブジェクトから順に一つずつステップS115〜S130の処理対象となる。したがってステップS110では、地図表示画面を構成する全てのオブジェクトの処理が完了したか否かが判定される。   Subsequently, the control unit 20 determines whether or not the processing of all objects has been completed by the processing of the display control unit 21b (step S110). Each object constituting the map display screen is a processing target of steps S115 to S130 one by one from the object linked to the lowest layer. Therefore, in step S110, it is determined whether or not the processing of all the objects constituting the map display screen has been completed.

ステップS110において全オブジェクトの処理が完了したと判定されない場合、まだ処理されていないオブジェクトについてステップS115〜ステップS130の処理を繰り返す。ステップS115では、制御部20は表示制御部21bの処理により、処理対象オブジェクトがステップS105にて特定されたグループに属するか否かを判定する。   If it is not determined in step S110 that all objects have been processed, the processes in steps S115 to S130 are repeated for objects that have not yet been processed. In step S115, the control unit 20 determines whether the processing target object belongs to the group specified in step S105 by the processing of the display control unit 21b.

ステップS115において処理対象オブジェクトが特定されたグループに属すると判定された場合、制御部20は表示制御部21bの処理により、処理対象オブジェクトを非透過に設定する(ステップS120)。一方ステップS115において処理対象オブジェクトは特定されたグループに属すると判定されなかった場合、制御部20は表示制御部21bの処理により、処理対象オブジェクトの視認性を低下させる(ステップS125)。   When it is determined in step S115 that the processing target object belongs to the specified group, the control unit 20 sets the processing target object to be non-transparent by the processing of the display control unit 21b (step S120). On the other hand, when it is not determined in step S115 that the processing target object belongs to the specified group, the control unit 20 reduces the visibility of the processing target object by the processing of the display control unit 21b (step S125).

具体的にはステップS125では、制御部20は、特定されたグループに属さないオブジェクトに該当するオブジェクトの表示レイヤが最下位レイヤである場合は、当該オブジェクトをグレースケール表示とする。またステップS125では、制御部20は、特定されたグループに属さないオブジェクトに該当するオブジェクトの表示レイヤが最下位レイヤ以外である場合は、当該オブジェクトを透過に設定する。   Specifically, in step S125, when the display layer of the object corresponding to the object that does not belong to the specified group is the lowest layer, the control unit 20 displays the object in grayscale. In step S125, when the display layer of the object corresponding to the object that does not belong to the specified group is other than the lowest layer, the control unit 20 sets the object to be transparent.

ステップS120またはステップS125の処理後、制御部20は表示制御部21bの処理により処理対象オブジェクトをRAMの当該オブジェクトの表示位置に対応するアドレスに描画する(ステップS130)。なお、ステップS125を実行した場合、透過に設定された処理対象オブジェクトについてはRAMに描画する必要はないためステップS130は実質的にスキップされる。   After the processing of step S120 or step S125, the control unit 20 draws the processing target object at the address corresponding to the display position of the object in the RAM by the processing of the display control unit 21b (step S130). When step S125 is executed, step S130 is substantially skipped because it is not necessary to draw the processing target object set to be transparent in the RAM.

ステップS110において全オブジェクトの描画が完了したと判定された場合、制御部20は表示制御部21bの処理によりRAMに描画されたオブジェクトによって構成される画面を表示させる。すなわち制御部20は、RAMに描画された画面を表示させるための制御信号をディスプレイ40に出力する。この結果、画面がディスプレイ40に表示される。   When it is determined in step S110 that drawing of all objects has been completed, the control unit 20 displays a screen constituted by objects drawn in the RAM by the processing of the display control unit 21b. That is, the control unit 20 outputs a control signal for displaying a screen drawn in the RAM to the display 40. As a result, a screen is displayed on the display 40.

以上の画面表示処理を繰り返し実行することにより、表示システム10は、利用者の視点が存在するオブジェクトおよび当該オブジェクトをそれ以外のオブジェクトよりも視認しやすい状態で案内することができる。以降でその具体例を説明する。   By repeatedly executing the above screen display processing, the display system 10 can guide the object having the user's viewpoint and the object in a state in which the object is easier to visually recognize than the other objects. Specific examples will be described below.

図2Bは、利用者の視点が地図Mに存在する場合に表示される地図表示画面を示している。図3Bに示すように、地図Mが代表オブジェクトとして属するグループG1には、関連オブジェクトとしてコンパスCと住所表示部Aが属している。また図3Bに示すように、グループG1に属さないオブジェクトには、ボタンBとポインタPが該当する。したがって図2Bに示す地図表示画面においては、地図MとコンパスCと住所表示部Aが表示され、ボタンBとポインタPは透過される(表示されない)。   FIG. 2B shows a map display screen that is displayed when the viewpoint of the user exists on the map M. As shown in FIG. 3B, a compass C and an address display unit A belong as related objects to the group G1 to which the map M belongs as a representative object. As shown in FIG. 3B, the button B and the pointer P correspond to objects that do not belong to the group G1. Therefore, on the map display screen shown in FIG. 2B, the map M, the compass C, and the address display section A are displayed, and the button B and the pointer P are transparent (not displayed).

利用者は、図2Bに示す地図表示画面が表示されている状態(すなわち利用者が地図Mを注視している状態)で、タッチパッド41に対してスワイプ操作を行うことで、地図Mを所望の方向にスクロールさせることができる。また、ボタンBやポインタPは表示されないため、図2Bに示す状態において、表示位置を移動させる対象は地図MであってポインタPでないことと、ボタンBはこの状態において操作対象でないことを利用者に認識させることができる。また、地図MとともにコンパスCや住所表示部Aが表示されることにより、表示されている地図Mの部分の住所や地図Mにおける方位を利用者は認識することができる。   The user desires the map M by performing a swipe operation on the touch pad 41 in a state where the map display screen shown in FIG. 2B is displayed (that is, a state where the user is gazing at the map M). You can scroll in the direction. Further, since the button B and the pointer P are not displayed, in the state shown in FIG. 2B, the user moves the display position to be the map M and is not the pointer P, and the button B is not the operation target in this state. Can be recognized. Further, by displaying the compass C and the address display unit A together with the map M, the user can recognize the address of the displayed map M and the orientation in the map M.

図2Cは、利用者の視点が住所表示部Aに存在する場合に表示される地図表示画面を示している。図3Bに示すように、住所表示部Aが代表オブジェクトとして属するグループG2には、関連オブジェクトとして地図Mが属している。また図3Bに示すように、グループG2に属さないオブジェクトには、ボタンBとコンパスCとポインタPが該当する。したがって図2Cに示す地図表示画面においては、住所表示部Aと地図Mとが表示され、ボタンBとコンパスCとポインタPは透過される(表示されない)。   FIG. 2C shows a map display screen that is displayed when the viewpoint of the user exists in the address display unit A. As shown in FIG. 3B, a map M as a related object belongs to the group G2 to which the address display unit A belongs as a representative object. Further, as shown in FIG. 3B, a button B, a compass C, and a pointer P correspond to objects that do not belong to the group G2. Therefore, on the map display screen shown in FIG. 2C, the address display unit A and the map M are displayed, and the button B, the compass C, and the pointer P are transparent (not displayed).

利用者は、図2Cに示す地図表示画面が表示されている状態(すなわち利用者が住所表示部Aを注視している状態)で、タッチパッド41に対してスワイプ操作を行うことで、地図Mを所望の方向にスクロールさせることができる。また、ボタンBやコンパスCやポインタPは表示されないため、図2Cに示す状態において、表示位置を移動させる対象は地図MであってポインタPでないことを利用者に認識させることができる。また、ポインタPが表示されないため、住所表示部AはポインタPによる操作対象ではないことを利用者に認識させることができる。また、ボタンBとポインタPが表示されないことにより、この状態においてボタンBは操作対象でないことを利用者に認識させることができる。   The user performs a swipe operation on the touch pad 41 in a state in which the map display screen illustrated in FIG. 2C is displayed (that is, a state in which the user is gazing at the address display unit A). Can be scrolled in a desired direction. In addition, since the button B, the compass C, and the pointer P are not displayed, the user can recognize that the object whose display position is to be moved is the map M and not the pointer P in the state shown in FIG. 2C. Further, since the pointer P is not displayed, the address display unit A can make the user recognize that it is not an operation target by the pointer P. In addition, since the button B and the pointer P are not displayed, the user can recognize that the button B is not an operation target in this state.

図2Dは、利用者の視点がボタンBに存在する場合に表示される地図表示画面を示している。図3Bに示すように、ボタンBが代表オブジェクトとして属するグループG3には、関連オブジェクトとしてコンパスC、住所表示部A、ポインタPが属している。また図3Bに示すように、グループG3に属さないオブジェクトには、地図Mが該当する。したがって図2Dに示す地図表示画面においては、ボタンBとコンパスCと住所表示部AとポインタPが表示される。地図Mは、最下位レイヤである第三レイヤに紐付けられたオブジェクトであるため、地図Mはグレースケール化した状態で最下位レイヤに表示される。   FIG. 2D shows a map display screen that is displayed when the viewpoint of the user exists on the button B. As shown in FIG. 3B, a compass C, an address display unit A, and a pointer P belong as related objects to the group G3 to which the button B belongs as a representative object. As shown in FIG. 3B, a map M corresponds to an object that does not belong to the group G3. Therefore, on the map display screen shown in FIG. 2D, the button B, the compass C, the address display unit A, and the pointer P are displayed. Since the map M is an object linked to the third layer which is the lowest layer, the map M is displayed on the lowest layer in a gray scale state.

利用者は、図2Dに示す地図表示画面が表示されている状態(すなわち利用者がボタンBを注視している状態)で、タッチパッド41に対してスワイプ操作を行うことで、ポインタPを所望の位置に移動させることができる。また、地図Mはカラーで表示された状態からグレースケールに変化して表示されるため、表示位置を移動させる対象はポインタPであって地図Mではないことを利用者に認識させることができる。また、ボタンBとポインタPが表示されることにより、ボタンBとともにポインタPが操作可能な状態であることを利用者に認識させることができる。   The user desires the pointer P by performing a swipe operation on the touch pad 41 in a state where the map display screen shown in FIG. 2D is displayed (that is, a state where the user is gazing at the button B). It can be moved to the position. In addition, since the map M is displayed by changing from a color display state to a gray scale, the user can recognize that the object whose display position is to be moved is the pointer P and not the map M. Further, by displaying the button B and the pointer P, the user can recognize that the pointer P can be operated together with the button B.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、表示画面内の視点が存在するオブジェクトと当該オブジェクトに関連するオブジェクトとをその他のオブジェクトよりも高い視認性で表示する限りにおいて、他にも種々の実施形態を採用可能である。例えば、表示システム10は、各種のシステム、汎用コンピュータシステムに適用されていても良い。また、表示システム10は、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。表示システム10は車両に搭載される構成に限定されない。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, as long as an object with a viewpoint in the display screen and an object related to the object are displayed with higher visibility than other objects. Various embodiments can also be adopted. For example, the display system 10 may be applied to various systems and general-purpose computer systems. The display system 10 may be a system realized by a plurality of devices (for example, a client and a server). The display system 10 is not limited to the configuration mounted on the vehicle.

さらに、表示システム10を構成する視点検出部21a、表示制御部21bの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、視点検出部21aが視線検出センサ42内の制御部で実現されても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。   Furthermore, at least a part of the viewpoint detection unit 21a and the display control unit 21b configuring the display system 10 may be divided into a plurality of devices. For example, the viewpoint detection unit 21 a may be realized by a control unit in the line-of-sight detection sensor 42. Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted.

視点検出部は、利用者の視点を検出することができればよく、種々の構成を採用可能である。例えば、上述の実施形態のように、利用者の目を撮影するカメラの出力に基づいて利用者の目の動作を特定することにより視線を特定し、視線と予め特定されたディスプレイ画面との交点を始点と見なす構成等を採用可能である。検出対象となる目は1個であっても良いし、2個であっても良いが、精度を高めるためには検出対象の目は2個であることが好ましい。2個の目の視線が特定された場合における視点は、各目の視線に基づいて特定された各視点から統計的に特定されても良いし、利き目によるバイアスに基づいて視点が特定されても良い。さらに、視点は、少なくとも利用者が視認している表示領域上で特定されれば良い。   The viewpoint detection unit only needs to be able to detect the viewpoint of the user, and various configurations can be employed. For example, as in the above-described embodiment, the line of sight is specified by specifying the movement of the user's eyes based on the output of the camera that captures the user's eyes, and the intersection of the line of sight and the previously specified display screen It is possible to adopt a configuration that regards as a starting point. The number of eyes to be detected may be one or two, but in order to improve accuracy, it is preferable that the number of eyes to be detected is two. The viewpoint when the eyes of two eyes are specified may be statistically specified from each viewpoint specified based on the eyes of each eye, or the viewpoint is specified based on the bias by the dominant eye. Also good. Furthermore, the viewpoint may be specified at least on the display area visually recognized by the user.

表示制御部は、視点が存在する第一オブジェクトおよび第一オブジェクトに関連する第二オブジェクトを、第一オブジェクトおよび第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させることができる限りにおいて種々の構成を採用可能である。第二オブジェクトに該当するオブジェクトは単数であってもよいし、複数であってもよい。また第三オブジェクトに該当するオブジェクトは単数であってもよいし、複数であってもよい。   The display control unit can display the first object having a viewpoint and the second object related to the first object on the display unit with higher visibility than the first object and the third object other than the second object. As long as various configurations can be adopted. The object corresponding to the second object may be singular or plural. Further, the object corresponding to the third object may be singular or plural.

なお、上記実施形態では、関連性別に予めグループ分けされた各グループにはそれぞれ代表オブジェクトとその他のオブジェクトとが定義されており、オブジェクトによっては複数のグループに属しうる例を挙げた。しかし単に、各オブジェクトは関連性別にグループ分けされ、各オブジェクトはいずれか一つのグループに属している構成であってもよい。この場合、視点が存在するオブジェクトが属するグループに属する他のオブジェクトが第二オブジェクトであると言うことができる。また、視点が存在するオブジェクトが属するグループ以外のグループに属するオブジェクトが第三オブジェクトであると言うことができる。   In the above embodiment, a representative object and other objects are defined in each group that is grouped in advance according to relevance, and an example in which some objects can belong to a plurality of groups has been described. However, each object may be grouped according to relevance, and each object may belong to any one group. In this case, it can be said that the other object belonging to the group to which the object having the viewpoint belongs is the second object. Further, it can be said that the object belonging to the group other than the group to which the object having the viewpoint belongs is the third object.

また、オブジェクトの関連性については、様々な定義が可能である。例えば、同一の指示入力段階(指示入力モード)において指示の入力が可能であると予め決められたオブジェクト群が互いに関連性があるとして扱われても良い。また、第一オブジェクトを操作する際(あるいは参照する際)に利用者が自身の視界内において参照可能であれば利便性が高まると推定されるオブジェクトが第一オブジェクトと関連性があるとして扱われても良い。あるいは、オブジェクトの種別(ボタンオブジェクト、背景オブジェクト等)が予め決められており、同一の種別のオブジェクト同士は互いに関連があるとして扱われても良い。あるいは、画面に表示されるオブジェクトは予めいずれかの表示レイヤに紐付けられており、同一の表示レイヤに紐付けられたオブジェクト同士は互いに関連性があるとして扱われても良い。一方のオブジェクトに関連する操作や入力が行われる場合に、当該操作や入力に必要となり得る情報が他方のオブジェクトに表示されている場合に関連性があるとして扱われても良い。   Moreover, various definitions are possible for the relationship between objects. For example, an object group that is determined in advance as being capable of inputting an instruction in the same instruction input stage (instruction input mode) may be treated as being related to each other. In addition, when the user can operate (or refer to) the first object, if the user can refer to it in his / her field of view, the object that is estimated to increase convenience is treated as being related to the first object. May be. Alternatively, object types (button object, background object, etc.) may be determined in advance, and objects of the same type may be treated as being related to each other. Alternatively, the objects displayed on the screen may be associated with one of the display layers in advance, and the objects associated with the same display layer may be treated as being related to each other. When an operation or input related to one object is performed, information that may be necessary for the operation or input may be treated as related when displayed on the other object.

また、第一オブジェクトおよび第二オブジェクトは、第三オブジェクトより高い視認性で表示される、すなわち、利用者が視認しやすい状態で表示される限りにおいてどのように表示されてもよい。視認性は様々な尺度で表現しうるが、「第一オブジェクトの視認性≧第二オブジェクトの視認性>第三オブジェクトの視認性」あるいは「第二オブジェクトの視認性≧第一オブジェクトの視認性>第三オブジェクトの視認性」の関係を満たしていればよい。第一オブジェクトおよび第二オブジェクトを非透過とし、第三オブジェクトを透過とする以外にも、例えば、第一オブジェクトおよび第二オブジェクトの明度および彩度の少なくともいずれか一方を第三オブジェクトより視認性が相対的に高くなる方向に変化させて表示する構成を採用してもよい。また例えば、第一オブジェクトおよび第二オブジェクトの色相を第三オブジェクトの色相より利用者の注意を引きやすい色相にしてもよい。また例えば、第一オブジェクトおよび第二オブジェクトに含まれる枠や文字などを構成する線の太さを第三オブジェクトに含まれる線の太さより太い状態で表示する構成を採用してもよい。また例えば、第一オブジェクトおよび第二オブジェクトに含まれる線を実線とし第三オブジェクトに含まれる線を一部省略してもよい(例えば破線にしてもよい)。透過の場合、完全透過ではなく透過率が100%より小さくても良い。   Further, the first object and the second object may be displayed in any manner as long as they are displayed with higher visibility than the third object, that is, displayed in a state that is easy for the user to visually recognize. Visibility can be expressed in various scales, but “visibility of first object ≧ visibility of second object> visibility of third object” or “visibility of second object ≧ visibility of first object> It is only necessary to satisfy the relationship of “visibility of the third object”. In addition to making the first object and the second object non-transparent and making the third object transparent, for example, at least one of the brightness and saturation of the first object and the second object is more visible than the third object. You may employ | adopt the structure which changes and displays in the direction which becomes relatively high. Further, for example, the hues of the first object and the second object may be set to a hue that can attract the user's attention more easily than the hue of the third object. Further, for example, a configuration may be adopted in which the thickness of a line constituting a frame or character included in the first object and the second object is displayed in a state thicker than the thickness of the line included in the third object. Further, for example, the lines included in the first object and the second object may be a solid line, and a part of the lines included in the third object may be omitted (for example, a broken line). In the case of transmission, the transmittance may be less than 100% instead of complete transmission.

また例えば、あるオブジェクトが第一オブジェクトとなった場合の当該オブジェクトの面積をS1、当該オブジェクトが第二オブジェクトとなった場合の当該オブジェクトの面積をS2、当該オブジェクトが第三オブジェクトとなった場合の当該オブジェクトの面積をS3とすると、S1≧S2>S3となるように当該オブジェクトの表示面積を制御してもよい。   Also, for example, the area of the object when a certain object becomes the first object is S1, the area of the object when the object becomes the second object is S2, and the area when the object becomes the third object If the area of the object is S3, the display area of the object may be controlled so that S1 ≧ S2> S3.

また例えば、第一オブジェクトおよび第二オブジェクトを点滅表示させ、第三オブジェクトを点灯表示させてもよい。   Further, for example, the first object and the second object may be blinked and the third object may be lit.

なお、表示部は単一のディスプレイによって構成されてもよいし、複数のディスプレイによって構成されてもよい。   In addition, a display part may be comprised by the single display and may be comprised by the some display.

さらに、表示制御部は、視点が第一オブジェクト内から第一オブジェクト外であって第一オブジェクトと関連する関連領域内に移動した場合、第一オブジェクトおよび第二オブジェクトを第三オブジェクトよりも高い視認性で表示させてもよい。この場合、利用者は第一オブジェクトから視点を外しても関連領域内に視点を存在させる限り第一オブジェクトとともに第二オブジェクトをも認識しやすい。関連領域は第一オブジェクトや第二オブジェクトと隣接した領域であってもよいし、第一オブジェクトや第二オブジェクトと離間した領域であってもよい。また第一オブジェクトの関連領域の位置や形状や面積は予め固定的に決められていても良いし、なんらかのパラメータに応じて変動してもよい。   Furthermore, when the viewpoint moves from the first object to the outside of the first object and into the related area related to the first object, the display control unit visually recognizes the first object and the second object higher than the third object. You may display by sex. In this case, even if the user removes the viewpoint from the first object, the user can easily recognize the second object together with the first object as long as the viewpoint exists in the related area. The related area may be an area adjacent to the first object or the second object, or may be an area separated from the first object or the second object. In addition, the position, shape, and area of the related area of the first object may be fixedly determined in advance or may vary according to some parameter.

上記の関連領域は、視点が第一オブジェクト外に移動してから既定時間が経過するまで存在した領域であると定義してもよい。この場合、利用者は第一オブジェクトから視点を外しても既定時間以内であれば第一オブジェクトとともに第二オブジェクトをも認識しやすい。なお、視点が第一オブジェクト外に移動してからの経過時間が既定時間内において大きくなるほど、関連領域の位置や形状や面積が変動してもよい。   The related area may be defined as an area that exists until a predetermined time elapses after the viewpoint moves outside the first object. In this case, even if the user removes the viewpoint from the first object, the user can easily recognize the second object together with the first object within a predetermined time. Note that the position, shape, and area of the related region may vary as the elapsed time after the viewpoint moves outside the first object increases within the predetermined time.

例えば関連領域は、ボタンB外に視点が移動してから既定時間(例えば1秒間)が経過するまで地図表示画面全体に設定される領域であってもよい。例えば利用者がボタンB1に視点を合わせた後、視点を住所表示部Aに移動させ、その後ボタンB6に視点を移動させた場合であって、ボタンB1外に視点が外れてからボタンB6に視点が戻るまでの時間が既定時間未満であれば、ボタンB1に視点が存在している場合と同様の態様でオブジェクトを表示するようにしてもよい。この場合、利用者が一瞬ボタンB1から視点を外しただけであってもボタンB1〜B6が非表示となることがないため、ボタンB6に視点を移動させやすい。   For example, the related area may be an area that is set on the entire map display screen until a predetermined time (for example, 1 second) elapses after the viewpoint moves outside the button B. For example, the user moves the viewpoint to the address display unit A after adjusting the viewpoint to the button B1, and then moves the viewpoint to the button B6. After the viewpoint is out of the button B1, the viewpoint is moved to the button B6. If the time until the return is less than the predetermined time, the object may be displayed in the same manner as when the viewpoint is present on the button B1. In this case, since the buttons B1 to B6 are not hidden even if the user simply removes the viewpoint from the button B1 for a moment, the viewpoint can be easily moved to the button B6.

さらに、上記の関連領域は、第一オブジェクトから既定距離以内に存在する領域であると定義してもよい。この場合、利用者は第一オブジェクトから視点を外しても第一オブジェクトから既定距離以内に視点が存在する限り第一オブジェクトとともに第二オブジェクトをも認識しやすい。既定距離は、例えば視点検出の誤差を吸収できる程度の距離に設定されてもよい。なお既定距離は、全てのオブジェクトにおいて同じ値であってもよいし、オブジェクトの種別や、オブジェクトの大きさ等に応じて異なる値であってもよい。   Further, the related area may be defined as an area existing within a predetermined distance from the first object. In this case, even if the user removes the viewpoint from the first object, the user can easily recognize the second object together with the first object as long as the viewpoint exists within a predetermined distance from the first object. For example, the predetermined distance may be set to a distance that can absorb a viewpoint detection error. Note that the predetermined distance may be the same value for all objects, or may be a different value depending on the type of the object, the size of the object, and the like.

例えば図5Aに示す領域100は、ボタンBの関連領域として設定される領域の例である。領域100はボタンB1〜B6のそれぞれからの距離が既定距離である範囲を示している。例えば利用者がボタンB1に視点を合わせた後、ボタンB1外に視点が外れたとしても領域100内に視点が存在すれば、ボタンB1に視点が存在している場合と同様にグループG3(図3B参照)に属するオブジェクトを表示し、地図Mだけグレースケール化した状態で表示させてもよい。   For example, an area 100 illustrated in FIG. 5A is an example of an area set as a related area of the button B. A region 100 indicates a range in which the distance from each of the buttons B1 to B6 is a predetermined distance. For example, after the user has adjusted the viewpoint to the button B1, even if the viewpoint is out of the button B1, if the viewpoint exists in the area 100, the group G3 (see FIG. 3B) may be displayed, and only the map M may be displayed in a gray scale state.

さらに、上記の関連領域は、第一オブジェクトと第二オブジェクトとの間の領域であると定義してもよい。第一オブジェクトから、第一オブジェクトと第二オブジェクトの間の領域に視点が移動する状況は、すなわち、関連する2以上のオブジェクト間を視点が移動する(一往一来することを含む)状況であり、利用者が関連するオブジェクトを見比べている状況であることが想定できる。この場合、利用者は第一オブジェクトから視点を外しても第一オブジェクトと第二オブジェクトの間の領域に視点が存在する限り第一オブジェクトとともに第二オブジェクトをも認識しやすい。なお、第一オブジェクトと第二オブジェクトとの間の領域は、第一オブジェクトから第二オブジェクトに視点を移動させる際に利用者の視点の移動の軌跡を含む可能性が高いと推定される領域と定義してもよく、より具体的には例えば、第一オブジェクトと第二オブジェクトとを直線的に繋ぐ領域と定義してもよい。   Further, the related area may be defined as an area between the first object and the second object. The situation where the viewpoint moves from the first object to the area between the first object and the second object, that is, the situation where the viewpoint moves between two or more related objects (including coming and going). Yes, it can be assumed that the user is comparing the related objects. In this case, even if the user removes the viewpoint from the first object, the user can easily recognize the second object together with the first object as long as the viewpoint exists in the area between the first object and the second object. The area between the first object and the second object is an area that is estimated to have a high possibility of including the locus of movement of the user's viewpoint when the viewpoint is moved from the first object to the second object. For example, it may be defined as a region connecting the first object and the second object in a straight line.

例えば、関連領域は図5Bの領域101〜105に示すように関連するオブジェクト間に設定されてもよい。例えば利用者がボタンB1に視点を合わせた後、ボタンB2〜B6に順に視点を合わせるような場合、領域101〜105に視点があればボタンBに視点が存在している場合と同様の態様でオブジェクトを表示するようにしてもよい。この場合、関連オブジェクト間を視点が移動する際に、頻繁に地図Mがカラー表示とグレースケール表示とで切り替わることを防止できる。   For example, the related area may be set between related objects as shown in areas 101 to 105 in FIG. 5B. For example, when the user focuses on the button B1 and then aligns the viewpoint sequentially with the buttons B2 to B6, if there is a viewpoint in the areas 101 to 105, the same manner as when the viewpoint exists on the button B You may make it display an object. In this case, it is possible to prevent the map M from frequently switching between color display and gray scale display when the viewpoint moves between related objects.

なお、関連領域の定義は、上記の定義のいずれかが採用されてもよいし、上記以外の定義が採用されてもよいし、それら複数が組み合わされて採用されてもよい。   As the definition of the related area, any of the above definitions may be adopted, definitions other than the above may be adopted, or a plurality of these may be adopted in combination.

さらに、本発明のように、表示画面内の視点が存在するオブジェクトと当該オブジェクトに関連するオブジェクトとをその他のオブジェクトよりも高い視認性で表示する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, as in the present invention, a method of displaying an object having a viewpoint in the display screen and an object related to the object with higher visibility than other objects can be applied as a program or a method. In addition, the system, program, and method as described above may be realized as a single device, or may be realized using components shared with each part of the vehicle, and include various aspects. It is a waste. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…表示システム、20…制御部、21…表示プログラム、21a…視点検出部、21b…表示制御部、21c…入力受付部、30…記録媒体、30a…表示情報、40…ディスプレイ、41…タッチパッド、42…視線検出センサ、A…住所表示部、B…ボタン、C…コンパス、M…地図、P…ポインタ   DESCRIPTION OF SYMBOLS 10 ... Display system, 20 ... Control part, 21 ... Display program, 21a ... View point detection part, 21b ... Display control part, 21c ... Input reception part, 30 ... Recording medium, 30a ... Display information, 40 ... Display, 41 ... Touch Pad, 42 ... gaze detection sensor, A ... address display, B ... button, C ... compass, M ... map, P ... pointer

Claims (6)

利用者の視点を検出する視点検出部と、
前記視点が存在する第一オブジェクトおよび前記第一オブジェクトに関連する第二オブジェクトを、前記第一オブジェクトおよび前記第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部と、
を備える表示システム。
A viewpoint detection unit that detects a user's viewpoint;
A display control unit that displays a first object on which the viewpoint exists and a second object related to the first object on a display unit with higher visibility than a third object other than the first object and the second object; ,
A display system comprising:
前記表示制御部は、
前記視点が前記第一オブジェクト内から前記第一オブジェクト外であって前記第一オブジェクトと関連する関連領域内に移動した場合、前記第一オブジェクトおよび前記第二オブジェクトを前記第三オブジェクトよりも高い視認性で表示させる、
請求項1に記載の表示システム。
The display control unit
When the viewpoint moves from the first object to the outside of the first object and into a related area related to the first object, the first object and the second object are visually recognized higher than the third object. Display by sex,
The display system according to claim 1.
前記関連領域は、
前記視点が前記第一オブジェクト外に移動してから既定時間が経過するまで存在した領域である、
請求項2に記載の表示システム。
The related area is
An area that exists until a predetermined time elapses after the viewpoint moves out of the first object.
The display system according to claim 2.
前記関連領域は、
前記第一オブジェクトから既定距離以内に存在する領域である、
請求項2または請求項3のいずれかに記載の表示システム。
The related area is
An area existing within a predetermined distance from the first object,
The display system according to claim 2 or claim 3.
前記関連領域は、
前記第一オブジェクトと前記第二オブジェクトとの間の領域である、
請求項2〜請求項4のいずれかに記載の表示システム。
The related area is
An area between the first object and the second object;
The display system in any one of Claims 2-4.
コンピュータを、
利用者の視点を検出する視点検出部、
前記視点が存在する第一オブジェクトおよび前記第一オブジェクトに関連する第二オブジェクトを、前記第一オブジェクトおよび前記第二オブジェクト以外の第三オブジェクトよりも高い視認性で表示部に表示させる表示制御部、
として機能させる表示プログラム。
Computer
A viewpoint detector that detects the user's viewpoint;
A display control unit configured to display a first object having the viewpoint and a second object related to the first object on a display unit with higher visibility than a third object other than the first object and the second object;
Display program to function as.
JP2016215800A 2016-11-04 2016-11-04 Display system and display program Pending JP2018073310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016215800A JP2018073310A (en) 2016-11-04 2016-11-04 Display system and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016215800A JP2018073310A (en) 2016-11-04 2016-11-04 Display system and display program

Publications (1)

Publication Number Publication Date
JP2018073310A true JP2018073310A (en) 2018-05-10

Family

ID=62114336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016215800A Pending JP2018073310A (en) 2016-11-04 2016-11-04 Display system and display program

Country Status (1)

Country Link
JP (1) JP2018073310A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112695A (en) * 2017-01-13 2018-07-19 株式会社アクセル Image processing device and image processing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018112695A (en) * 2017-01-13 2018-07-19 株式会社アクセル Image processing device and image processing system

Similar Documents

Publication Publication Date Title
US10466794B2 (en) Gesture recognition areas and sub-areas for interaction with real and virtual objects within augmented reality
EP3605279A1 (en) Method and system for user-related multi-screen solution for augmented reality for use in performing maintenance
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
US20090002342A1 (en) Information Processing Device
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
GB2540032A (en) Data browse apparatus, data browse method, program, and storage medium
US11199946B2 (en) Information processing apparatus, control method, and program
WO2014103217A1 (en) Operation device and operation detection method
JP2016126687A (en) Head-mounted display, operation reception method, and operation reception program
WO2015083267A1 (en) Display control device, and display control method
JP2018073310A (en) Display system and display program
JP2017197015A (en) On-board information processing system
US8731824B1 (en) Navigation control for a touch screen user interface
WO2017188098A1 (en) Vehicle-mounted information processing system
KR101188871B1 (en) Touch screen apparatus for patients with low vision and the method of displaying the same
WO2017217375A1 (en) Image display device, image display method, and image display program
US20240160294A1 (en) Detection processing device, detection processing method, information processing system
JP2018041219A (en) View point acquisition system and view point acquire program
WO2019189403A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP2018073311A (en) Operation input system and operation input program
JP6696357B2 (en) Pointer control system and pointer control program
US10788904B2 (en) In-vehicle information processing system
JP2018092518A (en) Display control system and display control program
JP2018092522A (en) Input system and input program
JP6371589B2 (en) In-vehicle system, line-of-sight input reception method, and computer program