JP2018041219A - View point acquisition system and view point acquire program - Google Patents

View point acquisition system and view point acquire program Download PDF

Info

Publication number
JP2018041219A
JP2018041219A JP2016173977A JP2016173977A JP2018041219A JP 2018041219 A JP2018041219 A JP 2018041219A JP 2016173977 A JP2016173977 A JP 2016173977A JP 2016173977 A JP2016173977 A JP 2016173977A JP 2018041219 A JP2018041219 A JP 2018041219A
Authority
JP
Japan
Prior art keywords
viewpoint
priority
display
user
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016173977A
Other languages
Japanese (ja)
Inventor
神谷 和宏
Kazuhiro Kamiya
和宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016173977A priority Critical patent/JP2018041219A/en
Publication of JP2018041219A publication Critical patent/JP2018041219A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of correcting a view point while reflecting user's intent.SOLUTION: The view point acquire system is constituted including: a view point detection part that detects user's view point; an object display part that causes a display part to display an object associated with the priority; a view point correction part that corrects the position within the object having the high priority as the viewpoint; and a priority control part that controls to change the priority depending on the change of the display content on the display part.SELECTED DRAWING: Figure 3

Description

本発明は、視点取得システムおよび視点取得プログラムに関する。   The present invention relates to a viewpoint acquisition system and a viewpoint acquisition program.

従来、利用者の視線方向と手動操作の検出結果に基づいてディスプレイ画面上にカーソルを表示する技術が知られている。例えば、特許文献1においては、利用者の注視位置にカーソルを表示することや、注視位置に最も近いボタンにカーソルを表示する技術が開示されている。   Conventionally, a technique for displaying a cursor on a display screen based on a user's line-of-sight direction and a manual operation detection result is known. For example, Patent Document 1 discloses a technique for displaying a cursor at a user's gaze position and displaying a cursor on a button closest to the gaze position.

特開2015−118531号公報Japanese Patent Laying-Open No. 2015-118531

上述した従来技術において、視点には誤差が生じ得る。従って、従来の技術において検出された視点に誤差が生じていると、利用者が注視位置にカーソルを表示させたいと意図しているのに注視位置に最も近いボタンにカーソルが表示される場合や、逆に、注視位置に最も近いボタンにカーソルを表示させたいと意図しているのに注視位置にカーソルが表示されてしまう場合があり、利用者の意図を反映できないことがあった。
本発明は、前記課題にかんがみてなされたもので、利用者の意図を反映して視点を補正することが可能な技術を提供することを目的とする。
In the prior art described above, an error may occur in the viewpoint. Therefore, if there is an error in the viewpoint detected in the prior art, the user intends to display the cursor at the gaze position, but the cursor is displayed on the button closest to the gaze position. On the contrary, there is a case where the cursor is displayed at the gaze position even though it is intended to display the cursor on the button closest to the gaze position, and the intention of the user may not be reflected.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of correcting a viewpoint reflecting a user's intention.

上記の目的を達成するため、視点取得システムは、利用者の視点を検出する視点検出部と、優先度が対応づけられたオブジェクトを表示部に表示させるオブジェクト表示部と、優先度が高いオブジェクト内の位置を視点とする補正を行う視点補正部と、表示部における表示内容の変化に応じて優先度を変化させる優先度制御部と、を備える。   In order to achieve the above object, the viewpoint acquisition system includes a viewpoint detection unit that detects a user's viewpoint, an object display unit that displays an object associated with a priority on a display unit, and an object in a high-priority object. A viewpoint correction unit that performs a correction with the position as the viewpoint, and a priority control unit that changes the priority according to a change in display content on the display unit.

また、上記の目的を達成するため、視点取得プログラムは、コンピュータを、利用者の視点を検出する視点検出部、優先度が対応づけられたオブジェクトを表示部に表示させるオブジェクト表示部、優先度が高いオブジェクト内の位置を視点とする補正を行う視点補正部、表示部における表示内容の変化に応じて優先度を変化させる優先度制御部、として機能させる。   In order to achieve the above object, the viewpoint acquisition program includes a computer, a viewpoint detection unit that detects a user's viewpoint, an object display unit that displays an object associated with a priority on the display unit, and a priority level. It is made to function as a viewpoint correction unit that performs correction with a position in a high object as a viewpoint, and a priority control unit that changes priority according to a change in display content on the display unit.

すなわち、視点がオブジェクト内に存在し得る構成において、検出された視点をオブジェクトの優先度に基づいて補正し、優先度が高いオブジェクト内の位置を視点と見なす。従って、視点の検出精度が高くなくても、優先度に基づいて視点を特定することができる。ただし、表示部における表示内容が変化し得る場合、優先度が常に一定であると表示内容の変化に対応して視点を補正することができない。そこで、優先度制御部は、表示部における表示内容の変化に応じて優先度を変化させる。この構成によれば、表示内容が変化しても、当該変化に応じた優先度によって視点を補正することが可能になり、表示内容に応じて変化し得る利用者の意図を反映して視点を補正することが可能である。   That is, in a configuration in which a viewpoint can exist in an object, the detected viewpoint is corrected based on the priority of the object, and a position in the object with a high priority is regarded as the viewpoint. Therefore, the viewpoint can be specified based on the priority even if the viewpoint detection accuracy is not high. However, when the display content on the display unit can change, if the priority is always constant, the viewpoint cannot be corrected corresponding to the change in the display content. Therefore, the priority control unit changes the priority according to the change in the display content on the display unit. According to this configuration, even if the display content changes, it is possible to correct the viewpoint with the priority according to the change, and the viewpoint is reflected reflecting the user's intention that can change according to the display content. It is possible to correct.

視点取得システムを示すブロック図である。It is a block diagram which shows a viewpoint acquisition system. 視点取得処理を示すフローチャートである。It is a flowchart which shows a viewpoint acquisition process. 図3A、図3B、図3C、図3Dは画面の表示例を示す図である。3A, 3B, 3C, and 3D are diagrams showing display examples of the screen. 図4A、図4B、図4C、図4Dは画面の表示例を示す図である。4A, 4B, 4C, and 4D are diagrams showing display examples of the screen.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)視点取得システムの構成:
(2)視点取得処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of viewpoint acquisition system:
(2) Viewpoint acquisition processing:
(3) Other embodiments:

(1)視点取得システムの構成:
図1は、本発明の一実施形態である視点取得システムを実現するナビゲーションシステム10の構成を示すブロック図である。本実施形態にかかる視点取得システムは、車両に搭載されたナビゲーションシステム10の機能の一部として実現される。ナビゲーションシステム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMや記録媒体30に記録された所望のプログラムを実行することができる。
(1) Configuration of viewpoint acquisition system:
FIG. 1 is a block diagram showing a configuration of a navigation system 10 that realizes a viewpoint acquisition system according to an embodiment of the present invention. The viewpoint acquisition system according to the present embodiment is realized as a part of the function of the navigation system 10 mounted on the vehicle. The navigation system 10 includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and the control unit 20 can execute a desired program recorded in the ROM or the recording medium 30.

本実施形態において、制御部20は、図示しないナビゲーションプログラムを実行することができ、当該ナビゲーションプログラムを実行することにより、図示しないGPS信号等に基づいてナビゲーションシステム10が搭載された車両を指定の目的地まで誘導する。また、ナビゲーションプログラムは、誘導案内に関する処理以外にも各種の処理を制御部20に実行させることが可能である。例えば、制御部20は、ナビゲーションプログラムにより、表示部(後述するディスプレイ40)をユーザインタフェースとして機能させ、利用者から各種の指示を受け付けることができる。   In the present embodiment, the control unit 20 can execute a navigation program (not shown), and by executing the navigation program, a vehicle on which the navigation system 10 is mounted is designated based on a GPS signal (not shown). Guide to the ground. In addition, the navigation program can cause the control unit 20 to execute various processes in addition to the process related to guidance. For example, the control unit 20 can receive various instructions from the user by causing the display unit (a display 40 to be described later) to function as a user interface by a navigation program.

車両は、ディスプレイ40(表示部)および視線検出センサ42を備えている。ディスプレイ40は、図示しないインタフェースを介して制御部20と接続されており、制御部20は、ディスプレイ40に対して制御信号を出力することにより、任意の座標を指定し、任意の画像をディスプレイ40に表示させることができる。また、ディスプレイ40は、タッチパネルディスプレイであり、利用者はディスプレイ40に表示された画像をユーザインタフェースとして各種の操作入力を行うことができる。従って、本実施形態においてディスプレイ40は、操作入力装置を兼ねた表示部である。   The vehicle includes a display 40 (display unit) and a line-of-sight detection sensor 42. The display 40 is connected to the control unit 20 via an interface (not shown). The control unit 20 outputs a control signal to the display 40 to designate arbitrary coordinates and display an arbitrary image on the display 40. Can be displayed. The display 40 is a touch panel display, and the user can perform various operation inputs using the image displayed on the display 40 as a user interface. Therefore, in the present embodiment, the display 40 is a display unit that also serves as an operation input device.

視線検出センサ42は、赤外線出力部と少なくとも2個の赤外線カメラとを備えている。当該赤外線カメラは、運転者の顔を視野に含むように車室内の構造体(例えば、インストルメントパネルの壁面)に取り付けられている。赤外線カメラは、赤外線出力部から出力された赤外線によって撮影された利用者(運転者)の目の像に基づいて、目の位置および利用者の視線方向(ベクトル)を検出し、出力する。制御部20は、当該出力に基づいて、予め定義された3次元空間内で目の位置および視線方向を特定することができる。視線方向は、例えば、両眼のそれぞれにおいて設定された基準点と、眼球の動きに応じて位置が変化する動点とを結ぶ方向として取得され、他にも種々の方式が採用されてよい。また、両眼のそれぞれにおいて特定された視線方向の平均値等によって利用者の視線方向を1方向に特定することができるが、視線方向の特定方法も種々の方法が採用され得る。   The line-of-sight detection sensor 42 includes an infrared output unit and at least two infrared cameras. The infrared camera is attached to a vehicle interior structure (for example, a wall surface of an instrument panel) so as to include the driver's face in the field of view. The infrared camera detects and outputs an eye position and a user's line-of-sight direction (vector) based on an image of a user's (driver's) eye photographed by infrared rays output from the infrared output unit. Based on the output, the control unit 20 can specify the eye position and line-of-sight direction in a predefined three-dimensional space. The line-of-sight direction is acquired as, for example, a direction connecting a reference point set for each eye and a moving point whose position changes according to the movement of the eyeball, and various other methods may be employed. In addition, although the user's line-of-sight direction can be specified in one direction based on the average value of the line-of-sight directions specified in each of both eyes, various methods can be adopted as the method of specifying the line-of-sight direction.

以上の構成において、制御部20は、ディスプレイ40をユーザインタフェースとして利用し、利用者による指示を受け付けることができる。本実施形態においては、視点による指示の入力が可能である。すなわち、制御部20は、利用者の視点を検出し、視点を含むオブジェクトが利用者によって指示されたとみなすことができる。   In the above configuration, the control unit 20 can use the display 40 as a user interface and accept an instruction from the user. In this embodiment, it is possible to input an instruction from a viewpoint. That is, the control unit 20 can detect the viewpoint of the user and can consider that the object including the viewpoint is instructed by the user.

当該視点による指示の受け付けを行う際に視点を特定するため、ナビゲーションプログラムは、視点取得プログラム21を備えている。視点取得プログラム21は、視点検出部21aとオブジェクト表示部21bと視点補正部21cと優先度制御部21dとを備えている。   The navigation program includes a viewpoint acquisition program 21 in order to identify a viewpoint when receiving an instruction based on the viewpoint. The viewpoint acquisition program 21 includes a viewpoint detection unit 21a, an object display unit 21b, a viewpoint correction unit 21c, and a priority control unit 21d.

視点検出部21aは、利用者の視点を検出する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、視点の検出領域となるディスプレイ40の画面の位置が、車室内空間の位置を規定する3次元座標系によって予め特定されている。制御部20は、視線検出センサ42の出力に基づいて、利用者の目の位置および視線方向を取得し、画面の位置が規定された3次元座標系内で利用者の目の位置および視線方向を特定する。そして、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の画面との交点を視点として特定する。画面上に視点が存在しない場合、例えば、視点が不定とされてもよいし、他の構造体(例えば、インストルメントパネル等)上に存在すると判定されても良い。   The viewpoint detection unit 21a is a program module that causes the control unit 20 to realize a function of detecting a user's viewpoint. In the present embodiment, the position of the screen of the display 40 serving as the viewpoint detection area is specified in advance by a three-dimensional coordinate system that defines the position of the vehicle interior space. The control unit 20 acquires the position and line-of-sight direction of the user's eyes based on the output of the line-of-sight detection sensor 42, and the position and line-of-sight direction of the user's eyes within the three-dimensional coordinate system in which the position of the screen is defined. Is identified. Then, the intersection point between the virtual line extending in the line-of-sight direction from the eye position and the screen of the display 40 is specified as the viewpoint. When the viewpoint does not exist on the screen, for example, the viewpoint may be indefinite, or may be determined to exist on another structure (for example, an instrument panel or the like).

オブジェクト表示部21bは、優先度が対応づけられたオブジェクトを表示部に表示させる機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、ナビゲーション処理の過程で地図等のオブジェクトや利用者に選択肢を提供するためのボタン等のオブジェクトを表示するための画像情報を生成することができる。そして、制御部20は、ディスプレイ40に制御信号を出力し、当該画像情報に基づいてオブジェクトによって構成される各種の画面を表示させる。   The object display unit 21b is a program module that causes the control unit 20 to realize a function of displaying an object associated with a priority on the display unit. That is, the control unit 20 can generate image information for displaying an object such as a map or an object such as a button for providing options to the user in the course of the navigation process. And the control part 20 outputs a control signal to the display 40, and displays the various screens comprised with an object based on the said image information.

なお、オブジェクトは、視点が当該オブジェクト上に存在すると判定され得る任意の表示対象であり、本実施形態においては、地図およびボタンがオブジェクトに相当する。本実施形態においては、記録媒体30に地図情報30aおよびアイコン情報30bが記録されている。地図情報30aは、地図を構成する各要素(ノード、道路、施設等)の位置や画像情報を含んでおり、制御部20は、地図情報30aを参照して、任意の領域の地図を示す画像情報を生成することができる。   The object is an arbitrary display target that can be determined that the viewpoint exists on the object. In the present embodiment, the map and the button correspond to the object. In the present embodiment, map information 30 a and icon information 30 b are recorded on the recording medium 30. The map information 30a includes the position and image information of each element (node, road, facility, etc.) constituting the map, and the control unit 20 refers to the map information 30a and shows an image of a map of an arbitrary region. Information can be generated.

アイコン情報30bは、ディスプレイ40に各種のボタンを表示するための画像情報を含んでおり、制御部20は、アイコン情報30bを参照して、種々のボタンを示す画像情報を生成することができる。なお、本実施形態においては、地図やボタンなどのオブジェクトに対してオブジェクト毎の優先度が予め対応づけられており、当該優先度は、ディスプレイ40における表示内容毎に決められている。   The icon information 30b includes image information for displaying various buttons on the display 40, and the control unit 20 can generate image information indicating various buttons with reference to the icon information 30b. In the present embodiment, priorities for each object are associated with objects such as maps and buttons in advance, and the priorities are determined for each display content on the display 40.

すなわち、表示内容が異なると、利用者が視認している位置も変化し得るため、各表示内容において利用者が視認している可能性が高いオブジェクトの優先度が予め特定され、表示内容に対応づけられる。本実施形態においては、地図情報30aおよびアイコン情報30bに、各オブジェクトの優先度を示す情報が含まれている。   In other words, if the display content is different, the position that the user is viewing can also change, so the priority of the object that is likely to be visually recognized by the user in each display content is specified in advance and corresponds to the display content It is attached. In the present embodiment, the map information 30a and the icon information 30b include information indicating the priority of each object.

視点補正部21cは、優先度が高いオブジェクト内の位置を視点とする補正を行う機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、優先度制御部21dの処理により(詳細は後述)ディスプレイ40に表示された各オブジェクトの優先度を特定し、視点補正部21cの処理により、最も優先度が高い領域に視点が存在すると見なす補正を行う。本実施形態において各オブジェクトの優先度は、オブジェクト毎に設定された値と、視点からオブジェクトまでの距離とに基づいて設定される。オブジェクト毎に設定された値は、上述のように地図情報30aおよびアイコン情報30bに含まれている。   The viewpoint correction unit 21c is a program module that causes the control unit 20 to realize a function of performing correction with a position in an object having a high priority as a viewpoint. That is, the control unit 20 specifies the priority of each object displayed on the display 40 by the process of the priority control unit 21d (details will be described later), and the highest priority is obtained by the process of the viewpoint correction unit 21c. Perform corrections assuming that the viewpoint exists. In this embodiment, the priority of each object is set based on the value set for each object and the distance from the viewpoint to the object. The values set for each object are included in the map information 30a and the icon information 30b as described above.

一方、実際に視点が存在する確率は、利用者が視認している部位に応じて変化し得る。すなわち、視点に誤差があるとしても、視点として検出された位置は当該部位を反映しており、検出された位置から最大誤差以上離れた部位を利用者が視認している可能性は少ない。そこで、本実施形態においては、視点からオブジェクトまでの距離が小さいほど優先度が高くなるように、視点(として検出された位置)からの距離毎の優先度が予め決められている。   On the other hand, the probability that the viewpoint actually exists may change depending on the part that the user is viewing. That is, even if there is an error in the viewpoint, the position detected as the viewpoint reflects the part, and there is little possibility that the user visually recognizes a part that is more than the maximum error from the detected position. Therefore, in the present embodiment, the priority for each distance from the viewpoint (the position detected as) is determined in advance so that the priority increases as the distance from the viewpoint to the object decreases.

そこで、制御部20は、オブジェクト毎に設定された優先度の値と、視点からオブジェクトまでの距離によって特定された優先度の値との和を算出することにより、各オブジェクトの優先度を特定する。そして、制御部20は、優先度が最も高い領域内が視点の位置であると見なすことにより、視点を補正する。   Therefore, the control unit 20 specifies the priority of each object by calculating the sum of the priority value set for each object and the priority value specified by the distance from the viewpoint to the object. . Then, the control unit 20 corrects the viewpoint by regarding that the region having the highest priority is the position of the viewpoint.

優先度制御部21dは、表示部における表示内容の変化に応じて優先度を変化させる機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、地図情報30aやアイコン情報30bを参照し、ディスプレイ40に現在表示している表示内容に対応した優先度(オブジェクト毎に設定された値)を特定する。そして、制御部20は、当該表示内容毎にオブジェクト毎に設定された値を、視点補正部21cでの処理に利用する。この結果、制御部20は、表示内容によって変化し得るオブジェクト毎の優先度と、検出された視点からオブジェクトまでの距離に応じた優先度との和によって特定された優先度に基づいて視点を補正することができる。   The priority control unit 21d is a program module that causes the control unit 20 to realize a function of changing the priority according to a change in display content on the display unit. That is, the control unit 20 refers to the map information 30a and the icon information 30b, and specifies the priority (value set for each object) corresponding to the display content currently displayed on the display 40. And the control part 20 utilizes the value set for every object for every said display content for the process in the viewpoint correction | amendment part 21c. As a result, the control unit 20 corrects the viewpoint based on the priority specified by the sum of the priority for each object that can change depending on the display content and the priority according to the distance from the detected viewpoint to the object. can do.

以上の構成において優先度は、ディスプレイ40における表示内容に応じて変化し得るため、表示内容の変化に応じた優先度によって視点を補正することが可能になる。従って、視点の検出精度が高くなくても、優先度に基づいて利用者が視認している可能性が高い部位を視点として特定することができ、表示内容に応じて変化し得る利用者の意図を反映して視点を補正することが可能である。   In the above configuration, the priority can change according to the display content on the display 40, so that the viewpoint can be corrected by the priority according to the change in the display content. Therefore, even if the detection accuracy of the viewpoint is not high, it is possible to identify a part that is likely to be visually recognized by the user based on the priority as the viewpoint, and the user's intention that can change according to the display content It is possible to correct the viewpoint by reflecting the above.

(2)視点取得処理:
次に上述の構成における視点取得処理を詳細に説明する。図2は、当該視点取得処理を示すフローチャートである。本実施形態において制御部20は、ディスプレイ40の表示内容を変化させる場合に視点取得処理を実行する。なお、ここでは、ディスプレイ40の表示内容が2個のレイヤに対する描画内容の重ね合わせによって生成される構成において、下のレイヤに背景、現在地地図、スクロール地図のいずれかが描画され、上のレイヤにボタンが描画される例を説明する。むろん、ボタンが描画されない場合、上のレイヤへの描画は行われない。
(2) Viewpoint acquisition processing:
Next, the viewpoint acquisition processing in the above configuration will be described in detail. FIG. 2 is a flowchart showing the viewpoint acquisition process. In the present embodiment, the control unit 20 executes viewpoint acquisition processing when the display content of the display 40 is changed. Here, in the configuration in which the display contents of the display 40 are generated by superimposing the drawing contents on the two layers, either the background, the current location map, or the scroll map is drawn on the lower layer, and the upper layer is drawn. An example in which a button is drawn will be described. Of course, when the button is not drawn, drawing on the upper layer is not performed.

なお、背景は、例えば、黒の単色や既定の模様の画像などによって構成される。現在地地図は、車両の現在地がディスプレイ40の既定の位置に表示されるように描画された地図であり、スクロール地図は利用者の指示(現在地地図へのスワイプ操作等)によってスクロールしている(またはスクロールした後の)地図である。   Note that the background is constituted by, for example, an image of a single black color or a predetermined pattern. The current location map is a map drawn so that the current location of the vehicle is displayed at a predetermined position on the display 40, and the scroll map is scrolled by a user instruction (such as a swipe operation to the current location map) (or The map after scrolling.

視点取得処理が開始されると、制御部20は、オブジェクト表示部21bの処理により、画面を描画する(ステップS100)。すなわち、制御部20は、変化後の表示内容を特定し、変化後に表示すべきオブジェクトを特定する。また、制御部20は、各オブジェクトを予め決められたレイヤの予め決められた位置に配置し、下のレイヤに存在するオブジェクトに対して上のレイヤに存在するオブジェクトを重ねる(上位レイヤのオブジェクトを優先的に表示する)ことで画面の描画を行う。そして、制御部20は、描画された画面の画像情報をディスプレイ40に出力することで、変化後の表示内容をディスプレイ40に表示させる。   When the viewpoint acquisition process is started, the control unit 20 draws a screen by the process of the object display unit 21b (step S100). That is, the control unit 20 specifies the display content after the change, and specifies the object to be displayed after the change. Further, the control unit 20 arranges each object at a predetermined position in a predetermined layer, and superimposes the object existing in the upper layer on the object existing in the lower layer (the object in the upper layer is changed). Draw the screen by displaying it with priority. And the control part 20 displays the display content after a change on the display 40 by outputting the image information of the drawn screen to the display 40. FIG.

次に、制御部20は、優先度制御部21dの処理により、下のレイヤの描画内容を判定する(ステップS105)。すなわち、制御部20は、ステップS100にてディスプレイ40の画面を描画した際に、下のレイヤに描画した内容が背景、現在地地図、スクロール地図のいずれであったのかを判定する。   Next, the control unit 20 determines the drawing content of the lower layer by the processing of the priority control unit 21d (step S105). That is, the control unit 20 determines whether the content drawn in the lower layer is the background, the current location map, or the scroll map when the screen of the display 40 is drawn in step S100.

ステップS105において、下のレイヤの描画内容が背景であると判定された場合、表示領域を低優先度に設定する(ステップS110)。本実施形態においては、ディスプレイ40の表示領域を構成する各画素に対して、当該画素にて表示されるオブジェクトに応じた優先度を対応づける。このため、制御部20は、ディスプレイ40における背景の表示領域の各画素を低優先度に設定する。低優先度を示す値は種々の値とすることができ、図3Aにおいては、表示領域の全域に背景が描画された表示領域の全域が低優先度を示す0に設定された例を示している。   If it is determined in step S105 that the drawing content of the lower layer is the background, the display area is set to low priority (step S110). In the present embodiment, each pixel constituting the display area of the display 40 is associated with a priority according to the object displayed on the pixel. For this reason, the control unit 20 sets each pixel in the background display area of the display 40 to a low priority. The value indicating the low priority can be various values. FIG. 3A shows an example in which the entire display area in which the background is drawn is set to 0 indicating the low priority. Yes.

ステップS105において、下のレイヤの描画内容がスクロール地図であると判定された場合、表示領域を高優先度に設定する(ステップS120)。すなわち、制御部20は、ディスプレイ40におけるスクロール地図の表示領域の各画素を高優先度に設定する。高優先度を示す値は種々の値とすることができ、図4Aにおいては、表示領域の全域にスクロール地図が描画されたことにより、全域が高優先度を示す10に設定された例を示している。ステップS105において、下のレイヤの描画内容が現在地地図であると判定された場合、表示領域を中優先度に設定する(ステップS115)。すなわち、制御部20は、ディスプレイ40における現在地図の表示領域の各画素を中優先度に設定する。中優先度を示す値は種々の値とすることができ、図3A、図4Aの例に整合する値としては、0〜10の間の値、例えば、5等の値を採用可能である。   If it is determined in step S105 that the drawing content of the lower layer is a scroll map, the display area is set to high priority (step S120). That is, the control unit 20 sets each pixel in the display area of the scroll map on the display 40 to high priority. The value indicating the high priority can be various values. FIG. 4A shows an example in which the scroll map is drawn in the entire display area, and the entire area is set to 10 indicating the high priority. ing. If it is determined in step S105 that the drawing content of the lower layer is the current location map, the display area is set to medium priority (step S115). That is, the control unit 20 sets each pixel in the display area of the current map on the display 40 to medium priority. The value indicating the medium priority can be various values, and a value between 0 and 10, for example, a value of 5 or the like can be adopted as a value that matches the example of FIGS. 3A and 4A.

すなわち、オブジェクトが背景である場合と地図である場合とでは、オブジェクトの意味が異なるため、その意味に応じて視認される可能性が変化し得る。そこで、本実施形態においては、利用者が積極的に視認し得るオブジェクトである地図の優先度を、利用者が必ずしも積極的に視認しないオブジェクトである背景の優先度より高くなるように予め優先度が決定されている。   That is, since the meaning of the object is different between the case where the object is the background and the case where the object is the map, the possibility that the object is visually recognized may change depending on the meaning. Therefore, in the present embodiment, the priority of the map that is an object that the user can actively view is higher than the priority of the background that is the object that the user does not necessarily actively view in advance. Has been determined.

さらに、本実施形態においては、利用者による指示によって表示内容が変化することによってディスプレイ40に表示されたオブジェクトの優先度が、他のオブジェクトの優先度よりも高くなるように予め優先度が決定されている。具体的には、スクロール地図の優先度が現在地地図の優先度よりも高くなるように、優先度が決められている。すなわち、スクロール地図は利用者が現在の表示内容と異なる地図を視認しようとする意図を持って利用者が指示を行うことで表示されるため、通常状態で表示される現在地地図と比べて利用者が視認しようとする可能性が高い。そこで、本実施形態においては、利用者による指示によって表示されるスクロール地図の優先度を、通常状態で表示される現在地地図の優先度よりも高くしている。   Furthermore, in the present embodiment, the priority is determined in advance so that the priority of the object displayed on the display 40 is higher than the priority of the other objects when the display content changes according to the instruction from the user. ing. Specifically, the priority is determined such that the priority of the scroll map is higher than the priority of the current location map. In other words, since the scroll map is displayed when the user gives an instruction with the intention of visually recognizing a map different from the current display content, the user is compared with the current location map displayed in the normal state. Is likely to try to see. Therefore, in the present embodiment, the priority of the scroll map displayed by the instruction from the user is set higher than the priority of the current location map displayed in the normal state.

次に、制御部20は、優先度制御部21dの処理により、上のレイヤが存在するか否かを判定する(ステップS125)。すなわち、制御部20は、ステップS100にてディスプレイ40の画面を描画した際に、ボタンを表示するために上のレイヤに描画を行ったか否かを判定し、上のレイヤに描画を行った場合、上のレイヤが存在すると判定する。ステップS125において、上のレイヤが存在すると判定された場合、制御部20は、ボタン領域を高優先度に設定する(ステップS130)。すなわち、制御部20は、上のレイヤに描画されたボタンが占める領域を特定し、当該領域内の各画素を高優先度に設定する。   Next, the control unit 20 determines whether or not an upper layer exists by the processing of the priority control unit 21d (step S125). That is, when the control unit 20 draws the screen of the display 40 in step S100, the control unit 20 determines whether or not the drawing is performed on the upper layer in order to display the button, and the drawing is performed on the upper layer. , It is determined that an upper layer exists. If it is determined in step S125 that an upper layer exists, the control unit 20 sets the button area to a high priority (step S130). That is, the control unit 20 specifies an area occupied by a button drawn on the upper layer, and sets each pixel in the area to a high priority.

図3Bおよび図4Bにおいては、ディスプレイ40の表示領域内におけるボタン領域を符号Bで示している。当該ボタン領域が高優先度であることを示す値が10である場合、ボタン領域を構成する各画素については下のレイヤの描画内容に関わらず、ボタン領域の優先度とされる。従って、図3Aのように下のレイヤが背景であることによって優先度が0となっている状況であれば、図3Bに示すように符号Bで示すボタン領域の優先度が10,他の領域の優先度が0になる。   In FIG. 3B and FIG. 4B, a button area in the display area of the display 40 is indicated by a symbol B. When the value indicating that the button area has high priority is 10, each pixel constituting the button area is set as the priority of the button area regardless of the drawing contents of the lower layer. Therefore, if the priority is 0 because the lower layer is the background as shown in FIG. 3A, the priority of the button area indicated by the symbol B is 10, as shown in FIG. 3B. Becomes 0.

一方、図4Aのように下のレイヤがスクロール地図であることによって優先度が10となっている状況であれば、図4Bに示すように符号Bで示すボタン領域の優先度が10,他の領域の優先度も10となり、結果としては、全領域について優先度が10になる。図示は省略しているが、下のレイヤが現在地地図であることによって優先度が5となっているならば、ボタン領域の優先度が10,他の領域の優先度が5になる。なお、本実施形態においては、ボタン領域の優先度は特定の値であるが、むろん、表示内容(例えば、ボタンの大きさ等)に応じて優先度が変化しても良い。   On the other hand, if the priority is 10 because the lower layer is a scroll map as shown in FIG. 4A, the priority of the button area indicated by symbol B is 10, as shown in FIG. The priority of the area is also 10. As a result, the priority is 10 for all areas. Although illustration is omitted, if the priority is 5 because the lower layer is the current location map, the priority of the button area is 10, and the priority of the other areas is 5. In the present embodiment, the priority of the button area is a specific value, but the priority may of course change according to the display content (for example, the size of the button).

ステップS130が実行された場合、または、ステップS125において上のレイヤが存在すると判定されない場合、全画素について優先度の特定が完了するため、オブジェクト毎の優先度が特定された状態となる。次に、制御部20は、視点検出部21aの処理により、視点を検出する(ステップS135)。すなわち、制御部20は、視線検出センサ42の出力に基づいて、車室内の空間上の位置を規定する3次元座標系において利用者の目の位置および視線方向を取得する。さらに、制御部20は、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の画面との交点を特定する。そして、当該交点の位置を画面座標系の位置に変換することにより、利用者の視点の位置をディスプレイ40上で特定する。   When step S130 is executed, or when it is not determined in step S125 that an upper layer exists, the specification of the priority for all the pixels is completed, so that the priority for each object is specified. Next, the control unit 20 detects the viewpoint by the process of the viewpoint detection unit 21a (step S135). In other words, the control unit 20 acquires the position and line-of-sight direction of the user's eyes in a three-dimensional coordinate system that defines the position in the space in the vehicle interior based on the output of the line-of-sight detection sensor 42. Furthermore, the control unit 20 specifies an intersection between a virtual line extending in the line-of-sight direction from the eye position and the screen of the display 40. And the position of a user's viewpoint is specified on the display 40 by converting the position of the said intersection into the position of a screen coordinate system.

次に、制御部20は、優先度制御部21dの処理により、視点を中心とした同心円領域の優先度を設定する(ステップS140)。すなわち、制御部20は、ステップS135によって視点をディスプレイ40の表示領域のいずれかの画素の位置として特定しているため、当該画素を中心とし、半径の異なる複数の円形領域を表示領域内に定義する。そして、中心に近い円形領域内の画素に高優先度の値を対応づけ、中心から遠い円形領域内の画素ほど小さい優先度を対応づける。   Next, the control part 20 sets the priority of the concentric area | region centering on a viewpoint by the process of the priority control part 21d (step S140). That is, since the control unit 20 specifies the viewpoint as the position of any pixel in the display area of the display 40 in step S135, a plurality of circular areas with different radii are defined in the display area with the pixel as the center. To do. Then, a high priority value is associated with a pixel in a circular area close to the center, and a smaller priority is associated with a pixel in a circular area farther from the center.

図3Cおよび図4Cにおいては、視点として検出された位置が位置Peであり、当該位置Peを中心に3個の同心円が定義された例を示している。図3Cおよび図4Cにおいては、各円形の周によって区切られた領域内の画素に同一の優先度を対応づけており、優先度の値の例を図内に示している。すなわち、最小の円形の領域内の画素には優先度20,次に大きい円形の領域内の画素には優先度15,次に大きい円形の領域内の画素には優先度5が対応づけられ、円形の領域の外部には優先度0が対応づけられている。   3C and 4C show an example in which the position detected as the viewpoint is the position Pe, and three concentric circles are defined around the position Pe. In FIG. 3C and FIG. 4C, the same priority is matched with the pixel in the area | region divided by each circular periphery, and the example of the value of a priority is shown in the figure. That is, priority 20 is associated with the pixels in the smallest circular region, priority 15 is associated with the pixels within the next largest circular region, and priority 5 is associated with the pixels within the next largest circular region, A priority of 0 is associated with the outside of the circular area.

次に、制御部20は、優先度制御部21dの処理により、優先度の和を計算して全領域の優先度を特定する(ステップS145)。すなわち、制御部20は、ステップS130(またはステップS110、S115、S120のいずれか)で設定された優先度と、ステップS140で設定された優先度の和を画素毎に算出し、各画素の優先度として特定する。図3Dにおいては、図3A〜図3Cの例によって最終的に特定される優先度の例を示し、図4Dにおいては、図4A〜図4Cの例によって最終的に特定される優先度の例を示している。これらの例に示すように、ステップS145によれば、ボタン領域や視点の検出位置を中心とした円形領域で区切られた各領域毎の各画素について優先度が特定された状態になる。   Next, the control unit 20 calculates the sum of the priorities by the processing of the priority control unit 21d and specifies the priorities of all the regions (step S145). That is, the control unit 20 calculates, for each pixel, the sum of the priority set in step S130 (or any one of steps S110, S115, and S120) and the priority set in step S140. Specify as degrees. 3D shows an example of priorities finally specified by the examples of FIGS. 3A to 3C, and FIG. 4D shows an example of priorities finally specified by the examples of FIGS. 4A to 4C. Show. As shown in these examples, according to step S145, the priority is specified for each pixel in each area divided by a circular area centered on the button area or the detection position of the viewpoint.

次に、制御部20は、視点補正部21cの処理により、視点を補正する(ステップS150)。すなわち、制御部20は、ステップS145で優先度が特定された画素の中で、優先度の値が最も大きい画素を特定し、当該画素のいずれかに視点が存在するとみなす。なお、視点は優先度の値が最も大きい画素のいずれかに存在すると見なされれば良いが、本実施形態においては、優先度の値が最も大きい画素のうち、視点の検出位置から最も近い位置が視点の位置であると見なされる。   Next, the control unit 20 corrects the viewpoint by the process of the viewpoint correction unit 21c (step S150). That is, the control unit 20 specifies a pixel having the highest priority value among the pixels whose priority is specified in step S145, and regards that any of the pixels has a viewpoint. It should be noted that the viewpoint may be regarded as existing in any of the pixels having the highest priority value, but in the present embodiment, the position closest to the viewpoint detection position among the pixels having the highest priority value. Is considered the position of the viewpoint.

例えば、図3Dに示す例においては、視点として検出された位置Peに近いボタンBm内に、優先度の値が最も大きい25になっている画素が存在する。従って、優先度が25の画素のうち、視点として検出された位置Peに最も近い位置Paが視点であると補正される。一方、図4Dに示す例においては、視点として検出された位置Peはスクロール地図が表示された領域内であるため、視点として検出された位置Peを中心とした最小の円内の画素における優先度の値が最も大きい値30となっている。従って、この場合、補正は行われず、視点として検出された位置Peが視点の位置として特定される。以上のようにして視点が特定されると、制御部20は、当該視点を含むオブジェクト(図3DであればボタンBm、図4Dであればスクロール地図)が利用者によって指示されたと見なす。   For example, in the example shown in FIG. 3D, there is a pixel having a priority value of 25 in the button Bm close to the position Pe detected as the viewpoint. Therefore, the position Pa closest to the position Pe detected as the viewpoint among the pixels with the priority of 25 is corrected as the viewpoint. On the other hand, in the example shown in FIG. 4D, since the position Pe detected as the viewpoint is within the area where the scroll map is displayed, the priority in the pixels in the smallest circle centered on the position Pe detected as the viewpoint The value of 30 is the largest value 30. Accordingly, in this case, correction is not performed, and the position Pe detected as the viewpoint is specified as the viewpoint position. When the viewpoint is specified as described above, the control unit 20 considers that an object including the viewpoint (the button Bm in FIG. 3D and the scroll map in FIG. 4D) is instructed by the user.

以上の構成によれば、利用者によるスクロールの指示が行われたことにより、利用者がスクロール地図の指示を意図していると推定される状況において、視点によってスクロール地図が指示されたと見なすことができる。従って、利用者の意図に応じた視点の補正を行うことが可能である。   According to the above configuration, it can be considered that the scroll map is instructed by the viewpoint in a situation where it is estimated that the user intends to instruct the scroll map because the user has instructed the scroll. it can. Therefore, it is possible to correct the viewpoint according to the user's intention.

さらに、以上の構成によれば、表示内容に応じてオブジェクトの優先度が変化するため、単純に、視点として検出された位置から近いオブジェクトが視認されていると判定されるのではなく、オブジェクト毎の優先度も加味されて視認されているか否か判定される。この結果、図3D,図4Dに示すように、ディスプレイ40に同一のボタンが表示され、視点の検出位置が同一であったとしても、表示内容により、補正後の視点が異なる位置になり得る。   Furthermore, according to the above configuration, since the priority of the object changes according to the display contents, it is not simply determined that an object close to the position detected as the viewpoint is visually recognized, but for each object. It is determined whether or not the image is visually recognized in consideration of the priority. As a result, as shown in FIGS. 3D and 4D, even if the same button is displayed on the display 40 and the detection position of the viewpoint is the same, the corrected viewpoint can be at a different position depending on the display content.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、表示部における表示内容の変化に応じて優先度を変化させ、優先度に基づいて視点を補正する限りにおいて、他にも種々の実施形態を採用可能である。例えば、視点取得システムは、ナビゲーションシステム以外のシステム、例えば、汎用コンピュータシステムに適用されていても良い。また、視点取得システムは、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other implementations are possible as long as the priority is changed according to the change of the display content on the display unit and the viewpoint is corrected based on the priority. A form can be adopted. For example, the viewpoint acquisition system may be applied to a system other than the navigation system, for example, a general-purpose computer system. The viewpoint acquisition system may be a system realized by a plurality of devices (for example, a client and a server).

さらに、視点取得システムを構成する視点検出部21a、オブジェクト表示部21b、視点補正部21c、優先度制御部21dの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、オブジェクト表示部21bがディスプレイ40内の制御部で実現されても良いし、視点検出部21aが視線検出センサ42内の制御部で実現されても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。   Furthermore, at least a part of the viewpoint detection unit 21a, the object display unit 21b, the viewpoint correction unit 21c, and the priority control unit 21d configuring the viewpoint acquisition system may be divided into a plurality of devices. For example, the object display unit 21b may be realized by a control unit in the display 40, and the viewpoint detection unit 21a may be realized by a control unit in the line-of-sight detection sensor 42. Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted.

さらに、視点が利用される態様としては、視点が存在するオブジェクトを利用者が指示しているとみなす態様に限定されず、種々の利用態様が採用されてよい。例えば、視点と操作入力との組み合わせに基づいて、利用者が指定したオブジェクトを特定する際に表示内容に応じた優先度で視点が補正される構成とされても良い。   Furthermore, the aspect in which the viewpoint is used is not limited to the aspect in which the user is instructing the object in which the viewpoint exists, and various utilization forms may be adopted. For example, based on the combination of the viewpoint and the operation input, the viewpoint may be corrected with the priority according to the display content when the object specified by the user is specified.

視点検出部は、利用者の視点を検出することができればよく、種々の構成を採用可能である。例えば、上述の実施形態のように、利用者の目を撮影するカメラの出力に基づいて利用者の目の動作を特定することにより視線を特定し、視線と予め特定されたディスプレイ画面との交点を視点と見なす構成等を採用可能である。検出対象となる目は1個であっても良いし、2個であっても良いが、精度を高めるためには検出対象の目は2個であることが好ましい。2個の目の視線が特定された場合における視点は、各目の視線に基づいて特定された各視点から統計的に特定されても良いし、利き目によるバイアスに基づいて視点が特定されても良い。   The viewpoint detection unit only needs to be able to detect the viewpoint of the user, and various configurations can be employed. For example, as in the above-described embodiment, the line of sight is specified by specifying the movement of the user's eyes based on the output of the camera that captures the user's eyes, and the intersection of the line of sight and the previously specified display screen It is possible to adopt a configuration that regards as a viewpoint. The number of eyes to be detected may be one or two, but in order to improve accuracy, it is preferable that the number of eyes to be detected is two. The viewpoint when the eyes of two eyes are specified may be statistically specified from each viewpoint specified based on the eyes of each eye, or the viewpoint is specified based on the bias by the dominant eye. Also good.

さらに、視点は、利用者が視認している表示部上の位置であれば良く、表示部に表示されたオブジェクトのいずれが視認されているかを特定することができればよい。従って、視点は、少なくとも表示部上で特定されれば良い。   Furthermore, the viewpoint may be a position on the display unit that is visually recognized by the user, and it is only necessary to identify which of the objects displayed on the display unit is being viewed. Therefore, the viewpoint may be specified at least on the display unit.

オブジェクト表示部は、優先度が対応づけられたオブジェクトを表示部に表示させることができればよい。すなわち、表示部に表示されるオブジェクトには優先度が対応づけられている。オブジェクトは、視点が当該オブジェクト上に存在すると判定され得る任意の表示対象(背景も含む)である。従って、表示部に表示される任意の画像がオブジェクトとなり得る。例えば、ボタンの画像や地図の画像、背景の画像等がオブジェクトとなり得る。   The object display unit only needs to display the object associated with the priority on the display unit. That is, a priority is associated with an object displayed on the display unit. An object is an arbitrary display target (including a background) that can be determined that a viewpoint exists on the object. Therefore, any image displayed on the display unit can be an object. For example, a button image, a map image, a background image, or the like can be an object.

優先度は、視点が存在する確率に対応していればよい。例えば、優先度は、オブジェクト毎に設定された値と、視点からオブジェクトまでの距離とに基づいて設定され、表示内容の変化に応じてオブジェクト毎に設定された値が変化する構成であっても良い。すなわち、オブジェクトの大きさや形状、位置、意味(ボタン、背景、地図等)など、オブジェクトの特徴に応じて視認される可能性が変化し得るため、オブジェクト毎に優先度が決められると、このようなオブジェクトの特徴に応じた優先度をオブジェクトに対応づけることができる。   The priority only needs to correspond to the probability that the viewpoint exists. For example, the priority is set based on the value set for each object and the distance from the viewpoint to the object, and the value set for each object changes according to the change in display content. good. In other words, since the possibility of visual recognition may change depending on the object characteristics such as the size, shape, position, meaning (button, background, map, etc.) of the object, if priority is determined for each object, It is possible to associate the priority according to the characteristics of the object with the object.

また、実際に視点が存在する確率は、利用者が視認している部位に応じて変化し得る。そして、視点に誤差があるとしても、視点として検出された位置は当該部位を反映している。そこで、優先度は視点の位置に応じて動的に変化することが好ましい。なお、誤差があるとしても、通常は視点として検出された位置に近いオブジェクトを視認している可能性が高いため、視点からオブジェクトまでの距離が小さいほど優先度が高くなるように(例えば、距離の逆数によって)優先度が決められることが好ましい。   In addition, the probability that the viewpoint actually exists may change depending on the part that the user is viewing. Even if the viewpoint has an error, the position detected as the viewpoint reflects the part. Therefore, it is preferable that the priority changes dynamically according to the position of the viewpoint. Even if there is an error, there is a high possibility that the object close to the position detected as the viewpoint is normally viewed. Therefore, the smaller the distance from the viewpoint to the object, the higher the priority (for example, the distance The priority is preferably determined by the reciprocal of

そして、オブジェクト毎に設定された値と、視点からオブジェクトまでの距離に基づいて優先度が決定されることにより、単純に、視点として検出された位置から近いオブジェクトが視認されていると判定されるのではなく、オブジェクト毎の優先度も加味されて視認されているか否か判定される。この結果、表示内容に応じた視認確率が反映された状態でオブジェクトが視認されているか否かが特定される。なお、視点からオブジェクトまでの距離の特性が、表示内容毎に変化しても良い。むろん、優先度は、他にも種々の態様で定義されて良く、例えば、利用者が視認している可能性が高いオブジェクトの優先度を高めるように、人工知能によって優先度の値が決められても良い。   Then, by determining the priority based on the value set for each object and the distance from the viewpoint to the object, it is simply determined that an object close to the position detected as the viewpoint is visually recognized. Instead, it is determined whether or not the object is visually recognized in consideration of the priority for each object. As a result, it is specified whether or not the object is visually recognized in a state where the visual recognition probability corresponding to the display content is reflected. The characteristic of the distance from the viewpoint to the object may change for each display content. Of course, the priority may be defined in various other modes. For example, the priority value is determined by artificial intelligence so as to increase the priority of an object that is likely to be visually recognized by the user. May be.

視点補正部は、優先度が高いオブジェクト内の位置を視点とする補正を行うことができればよい。すなわち、表示部に複数のオブジェクトが表示されている場合、各オブジェクトの優先度を特定し、優先度が相対的に高いオブジェクト(例えば、最も優先度が高いオブジェクトや比較対象のオブジェクトの中で最も優先度が高いオブジェクト等)内に視点が存在すると見なすことができるように視点を補正することができればよい。補正後の視点の位置は、種々の手法で特定されて良く、例えば、オブジェクトの外周において視点の検出位置から最も近い位置が視点の位置であると見なされる構成等を採用可能である。   The viewpoint correction unit only needs to be able to perform correction using the position in the object with high priority as the viewpoint. That is, when a plurality of objects are displayed on the display unit, the priority of each object is specified, and an object having a relatively high priority (for example, the highest priority object or the object to be compared is the highest). It is only necessary that the viewpoint can be corrected so that the viewpoint can be regarded as existing in an object having a high priority. The corrected viewpoint position may be specified by various methods. For example, a configuration in which the position closest to the viewpoint detection position on the outer periphery of the object is regarded as the viewpoint position may be employed.

優先度制御部は、表示部における表示内容の変化に応じて優先度を変化させることができればよい。すなわち、表示内容が異なると、利用者が視認している位置も変化し得るため、表示内容に応じて各表示内容において利用者が視認している可能性が高いオブジェクトの優先度を高くすることができればよい。優先度は表示内容によって変化し得るため、異なる表示内容のそれぞれにおいて同一のオブジェクトが表示されているとしても、表示内容が異なれば同一のオブジェクトのそれぞれにおける優先度が異なり得る。例えば、同一のボタンの背景に単なる背景の画像が表示されている場合と、背景に地図の画像が表示されている場合とでボタンの優先度が異なる構成等が挙げられる。   The priority control unit only needs to be able to change the priority in accordance with a change in display content on the display unit. That is, if the display content is different, the position that the user is viewing can also change, so the priority of the object that is likely to be viewed by the user in each display content is increased according to the display content If you can. Since the priority may vary depending on the display content, even if the same object is displayed in each of the different display contents, the priority in each of the same objects may be different if the display content is different. For example, there is a configuration in which button priorities are different between a case where a simple background image is displayed on the background of the same button and a case where a map image is displayed on the background.

さらに、表示内容の変化は、上述の実施形態のように利用者による指示によって発生する構成であっても良い。すなわち、利用者が指示を行った場合、利用者が何らかの意図を持っていることが推定される。従って、当該指示に応じて表示内容が変化する場合において利用者がオブジェクトを視認する際には、当該意図に応じたオブジェクトを視認している可能性が高い。そこで、利用者による指示によって表示内容が変化した場合に、利用者の指示に関連したオブジェクト(例えば、利用者の指示によって変化したオブジェクト)の優先度を他のオブジェクトと比較して高くすれば、利用者の意図に応じた視点の補正を行うことが可能である。利用者による指示に関連したオブジェクトは、上述の実施形態におけるスクロール地図以外にも種々のオブジェクトが想定され、利用者の指示によって検索が行われた場合における検索結果や、車両内の電装品の設定を変更した後の変更結果(エアコンの温度変更後の設定温度等)を示すオブジェクトなど、種々のオブジェクトが想定可能である。   Further, the display content may be changed by an instruction from the user as in the above-described embodiment. That is, when the user gives an instruction, it is estimated that the user has some intention. Therefore, when the user visually recognizes the object when the display content changes according to the instruction, there is a high possibility that the object according to the intention is visually recognized. Therefore, when the display content changes due to the user's instruction, if the priority of the object related to the user's instruction (for example, the object changed according to the user's instruction) is made higher than other objects, It is possible to correct the viewpoint according to the user's intention. Various objects other than the scroll map in the above-described embodiment are assumed as the objects related to the user's instruction, and the search result when the search is performed according to the user's instruction and the setting of the electrical components in the vehicle Various objects can be assumed, such as an object indicating a change result after changing (such as a set temperature after changing the temperature of the air conditioner).

さらに、表示内容の変化は、表示部に表示されたオブジェクトの変化である構成であっても良い。すなわち、オブジェクトが変化した場合、利用者が変化したオブジェクトを視認している可能性が高い。例えば、表示内容の変化前に表示されていなかったオブジェクトが変化後に表示された場合、当該オブジェクトは、変化前において表示されていたオブジェクトよりも利用者に視認されている可能性が高い。   Further, the display content may be changed by changing the object displayed on the display unit. That is, when the object changes, it is highly likely that the user is viewing the changed object. For example, when an object that was not displayed before the change of the display content is displayed after the change, the object is more likely to be visually recognized by the user than the object that was displayed before the change.

そこで、表示内容の変化に伴ってオブジェクトが変化した場合に、変化したオブジェクト(新たに表示されたオブジェクトや形状、大きさ、表示文字等が変化したオブジェクト等)の優先度を他のオブジェクトと比較して高くすれば、利用者が視認している可能性の高いオブジェクトの優先度を高くすることが可能である。このような構成は、例えば、上述の実施形態において、ステップS100とステップS135との間のいずれかのタイミングで、ステップS100で描画された画面において、描画前に表示されていなかったオブジェクト(例えば、ポップアップウィンドウ等)を特定し、当該オブジェクトを、描画前に表示されていたオブジェクトよりも高い優先度にする構成等によって実現可能である。   Therefore, when the object changes as the display contents change, the priority of the changed object (newly displayed object, object with changed shape, size, display character, etc.) is compared with other objects. If it is made higher, it is possible to increase the priority of objects that are likely to be visually recognized by the user. In such a configuration, for example, in the above-described embodiment, an object (for example, an object that has not been displayed before drawing on the screen drawn in step S100 at any timing between step S100 and step S135). This can be realized by a configuration in which a pop-up window or the like is specified and the object is given a higher priority than the object displayed before drawing.

さらに、本発明のように、表示部における表示内容の変化に応じて優先度を変化させ、優先度に基づいて視点を補正する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような手段を備えたナビゲーションシステム、携帯端末や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, as in the present invention, the method of changing the priority according to the change of the display content on the display unit and correcting the viewpoint based on the priority can be applied as a program or a method. The system, program, and method as described above can be realized as a single device or can be realized as a plurality of devices, and include various aspects. For example, it is possible to provide a navigation system, a portable terminal, a method, and a program including the above means. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーションシステム、20…制御部、21…視点取得プログラム、21a…表示制御部、21b…視点検出部、21c…視点取得部、30…記録媒体、30a…地図情報、40…ディスプレイ、42…視線検出センサ   DESCRIPTION OF SYMBOLS 10 ... Navigation system, 20 ... Control part, 21 ... Viewpoint acquisition program, 21a ... Display control part, 21b ... Viewpoint detection part, 21c ... Viewpoint acquisition part, 30 ... Recording medium, 30a ... Map information, 40 ... Display, 42 ... Gaze detection sensor

Claims (5)

利用者の視点を検出する視点検出部と、
優先度が対応づけられたオブジェクトを表示部に表示させるオブジェクト表示部と、
前記優先度が高い前記オブジェクト内の位置を前記視点とする補正を行う視点補正部と、
前記表示部における表示内容の変化に応じて前記優先度を変化させる優先度制御部と、
を備える視点取得システム。
A viewpoint detection unit that detects a user's viewpoint;
An object display unit for displaying an object associated with a priority on the display unit;
A viewpoint correction unit configured to correct the position in the object having the high priority as the viewpoint;
A priority control unit that changes the priority according to a change in display content on the display unit;
Viewpoint acquisition system with
前記表示内容の変化は、利用者による指示によって発生する、
請求項1に記載の視点取得システム。
The change in the display content is caused by an instruction from the user.
The viewpoint acquisition system according to claim 1.
前記表示内容の変化は、前記表示部に表示された前記オブジェクトの変化である、
請求項1または請求項2のいずれかに記載の視点取得システム。
The change in the display content is a change in the object displayed on the display unit.
The viewpoint acquisition system according to claim 1 or 2.
前記優先度は、
前記オブジェクト毎に設定された値と、前記視点から前記オブジェクトまでの距離とに基づいて設定され、
前記表示内容の変化に応じて前記オブジェクト毎に設定された値が変化する、
請求項1〜請求項3のいずれかに記載の視点取得システム。
The priority is
Set based on the value set for each object and the distance from the viewpoint to the object,
The value set for each object changes according to the change in the display content.
The viewpoint acquisition system in any one of Claims 1-3.
コンピュータを、
利用者の視点を検出する視点検出部、
優先度が対応づけられたオブジェクトを表示部に表示させるオブジェクト表示部、
前記優先度が高い前記オブジェクト内の位置を前記視点とする補正を行う視点補正部、
前記表示部における表示内容の変化に応じて前記優先度を変化させる優先度制御部、
として機能させる視点取得プログラム。
Computer
A viewpoint detector that detects the user's viewpoint;
An object display unit for displaying an object associated with a priority on the display unit;
A viewpoint correction unit that performs correction with the position in the object having the high priority as the viewpoint;
A priority control unit that changes the priority according to a change in display content in the display unit;
Viewpoint acquisition program to function as
JP2016173977A 2016-09-06 2016-09-06 View point acquisition system and view point acquire program Pending JP2018041219A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016173977A JP2018041219A (en) 2016-09-06 2016-09-06 View point acquisition system and view point acquire program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016173977A JP2018041219A (en) 2016-09-06 2016-09-06 View point acquisition system and view point acquire program

Publications (1)

Publication Number Publication Date
JP2018041219A true JP2018041219A (en) 2018-03-15

Family

ID=61626232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016173977A Pending JP2018041219A (en) 2016-09-06 2016-09-06 View point acquisition system and view point acquire program

Country Status (1)

Country Link
JP (1) JP2018041219A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113138734A (en) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 Method, apparatus and article of manufacture for display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009051338A (en) * 2007-08-27 2009-03-12 Mazda Motor Corp Driving support device for vehicle
JP2014086063A (en) * 2012-10-29 2014-05-12 Kyocera Corp Electronic apparatus, sight line input program and sight line input method
JP2015046111A (en) * 2013-08-29 2015-03-12 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method
JP2016018377A (en) * 2014-07-08 2016-02-01 株式会社デンソー Line-of-sight input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009051338A (en) * 2007-08-27 2009-03-12 Mazda Motor Corp Driving support device for vehicle
JP2014086063A (en) * 2012-10-29 2014-05-12 Kyocera Corp Electronic apparatus, sight line input program and sight line input method
JP2015046111A (en) * 2013-08-29 2015-03-12 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method
JP2016018377A (en) * 2014-07-08 2016-02-01 株式会社デンソー Line-of-sight input device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113138734A (en) * 2020-01-20 2021-07-20 北京芯海视界三维科技有限公司 Method, apparatus and article of manufacture for display

Similar Documents

Publication Publication Date Title
US11314335B2 (en) Systems and methods of direct pointing detection for interaction with a digital device
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US11118928B2 (en) Method for providing map information and electronic device for supporting the same
WO2021197189A1 (en) Augmented reality-based information display method, system and apparatus, and projection device
US10635184B2 (en) Information processing device, information processing method, and program
US10466794B2 (en) Gesture recognition areas and sub-areas for interaction with real and virtual objects within augmented reality
US9251722B2 (en) Map information display device, map information display method and program
US20190258318A1 (en) Terminal for controlling electronic device and processing method thereof
US20120320198A1 (en) Imaging sensor based multi-dimensional remote controller with multiple input mode
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
JP6335556B2 (en) Information query by pointing
US10642348B2 (en) Display device and image display method
CN111052063B (en) Electronic device and control method thereof
US20170078570A1 (en) Image processing device, image processing method, and image processing program
JP6911834B2 (en) Information processing equipment, information processing methods, and programs
JP2018041219A (en) View point acquisition system and view point acquire program
US11698578B2 (en) Information processing apparatus, information processing method, and recording medium
JP2018073310A (en) Display system and display program
JPWO2017217375A1 (en) Image display apparatus, image display method, and image display program
JP6696357B2 (en) Pointer control system and pointer control program
JP2018092518A (en) Display control system and display control program
JP2018101229A (en) Selection receiving system and selection receiving program
US20220192487A1 (en) Method and system for determining dominant eye, and non-transitory computer-readable recording medium
JP2018073147A (en) Display control system and display control program
JP2018073146A (en) Input correction system and input correction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200512