JP2018101229A - Selection receiving system and selection receiving program - Google Patents

Selection receiving system and selection receiving program Download PDF

Info

Publication number
JP2018101229A
JP2018101229A JP2016246134A JP2016246134A JP2018101229A JP 2018101229 A JP2018101229 A JP 2018101229A JP 2016246134 A JP2016246134 A JP 2016246134A JP 2016246134 A JP2016246134 A JP 2016246134A JP 2018101229 A JP2018101229 A JP 2018101229A
Authority
JP
Japan
Prior art keywords
viewpoint
selection
control unit
selected object
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016246134A
Other languages
Japanese (ja)
Inventor
神谷 和宏
Kazuhiro Kamiya
和宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016246134A priority Critical patent/JP2018101229A/en
Publication of JP2018101229A publication Critical patent/JP2018101229A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of improving a probability that a pointer moves as intended by a user.SOLUTION: A selection receiving system includes a selected object display unit for displaying a currently selected object, a viewpoint detection unit for detecting a viewpoint of a user. a viewpoint-based selection receiving unit for receiving a user's selection regarding an object, which is identified on the basis of the viewpoint, and a detection frequency control unit, in which the less a detection frequency of the viewpoint to receive the selection of the object becomes, the farther the currently selected object and the object to be newly selected are separated from each other.SELECTED DRAWING: Figure 1

Description

本発明は、選択受付システムおよび選択受付プログラムに関する。   The present invention relates to a selection reception system and a selection reception program.

従来、利用者の視点を検出する技術が知られており、視点の検出誤差を低減するために各種の技術が開発されている。例えば、特許文献1においては、観察者に同一箇所を注視させたときに検出される複数の視線位置から、視線位置のばらつきを演算する技術が開示されている。   Conventionally, techniques for detecting the viewpoint of a user are known, and various techniques have been developed in order to reduce viewpoint detection errors. For example, Patent Document 1 discloses a technique for calculating a variation in line-of-sight position from a plurality of line-of-sight positions detected when an observer gazes at the same location.

特開2002−345756号公報JP 2002-345756 A

視点は時間的にばらつくため、視点を正確に検出しようとすると各種の技術が採用し得るが、一般的には、正確な検出のためには多くのサンプリングが必要になる。多くのサンプリングをするためには、例えば、検出のための期間を長期化させるなどの対策が必要である。しかし、視点の検出場面によっては、サンプリングの長期化等の対策をとってまで正確に検出が必要とは限らない。
本発明は、上記課題にかんがみてなされたもので、判定の難易度に応じて視点検出の負荷を調整可能な技術を提供することを目的とする。
Since the viewpoint varies with time, various techniques can be employed to accurately detect the viewpoint, but in general, many samplings are required for accurate detection. In order to perform many samplings, it is necessary to take measures such as prolonging the detection period. However, depending on the viewpoint detection situation, accurate detection is not always necessary until measures such as longer sampling are taken.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of adjusting the viewpoint detection load according to the difficulty of determination.

上記の目的を達成するため、選択受付システムは、現在選択されているオブジェクトを示す表示を行う選択オブジェクト表示部と、利用者の視点を検出する視点検出部と、視点に基づいて利用者によるオブジェクトの選択を受け付ける視点選択受付部と、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れているほど、オブジェクトの選択を受け付けるために視点を検出する回数を少なくする検出回数制御部と、を備える。   In order to achieve the above object, the selection reception system includes a selection object display unit that displays a currently selected object, a viewpoint detection unit that detects a user's viewpoint, and an object by a user based on the viewpoint. Detection number control unit that reduces the number of times the viewpoint is detected in order to receive the selection of the object as the distance between the currently selected object and the newly selected object increases. And comprising.

また、上記の目的を達成するため、選択受付プログラムは、コンピュータを、現在選択されているオブジェクト示す表示を行う選択オブジェクト表示部、利用者の視点を検出する視点検出部、視点に基づいて利用者によるオブジェクトの選択を受け付ける視点選択受付部、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れているほど、オブジェクトの選択を受け付けるために視点を検出する回数を少なくする検出回数制御部、として機能させる。   In order to achieve the above object, the selection reception program displays a selected object display unit that displays a computer indicating a currently selected object, a viewpoint detection unit that detects a user's viewpoint, and a user based on the viewpoint. Viewpoint selection accepting unit that accepts object selection based on the number of times of detection, so that the number of times of detecting the viewpoint to accept the object selection decreases as the currently selected object is farther away from the newly selected object Function as part.

すなわち、現在選択されているオブジェクト以外の他のオブジェクトが視点によって選択され得る場合、視点として検出された位置に基づいて両オブジェクトのいずれが選択されるのかを決定する必要がある。そして、現在選択されているオブジェクトから他のオブジェクトが近いほど、視点が両オブジェクトのいずれを示しているのか判断する際における視点の位置変動や検出誤差に大きな影響を受ける。また、両オブジェクトが離れている場合には、視点で選択されたオブジェクトが現在選択されているオブジェクトであるのか否か判定することは容易であり、両オブジェクトが近いほど当該判定の難易度があがる。   That is, when an object other than the currently selected object can be selected depending on the viewpoint, it is necessary to determine which of the two objects is selected based on the position detected as the viewpoint. Then, the closer the other object is to the currently selected object, the greater the influence of the viewpoint position variation and detection error in determining which of the two viewpoints the viewpoint represents. When both objects are separated, it is easy to determine whether the object selected from the viewpoint is the currently selected object, and the closer the both objects are, the more difficult the determination is. .

そこで、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れているほど、オブジェクトの選択を受け付けるために視点を検出する回数を少なくすれば、判定の難易度に応じて視点検出の負荷を調整することができる。また、視点で選択されたオブジェクトが現在選択されているオブジェクトであるか否かを容易に特定可能である状態において視点の検出回数を少なくすることにより、高速または簡易な処理によって視点を検出することができる。従って、過度の所要時間または過度の処理負荷で視点が検出されることを防止することができる。   Therefore, the farther the currently selected object is from the newly selected object, the smaller the number of times the viewpoint is detected in order to accept the selection of the object. The load can be adjusted. In addition, it is possible to detect a viewpoint by high-speed or simple processing by reducing the number of times of viewpoint detection in a state where it is possible to easily identify whether the object selected from the viewpoint is the currently selected object. Can do. Therefore, it is possible to prevent the viewpoint from being detected with an excessive time required or an excessive processing load.

選択受付システムを示すブロック図である。It is a block diagram which shows a selection reception system. 選択受付処理を示すフローチャートである。It is a flowchart which shows a selection reception process. 図3A、図3Bはユーザインタフェース画面の表示例である。3A and 3B are display examples of the user interface screen.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)選択受付システムの構成:
(2)選択受付処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of selection reception system:
(2) Selection acceptance process:
(3) Other embodiments:

(1)選択受付システムの構成:
図1は、本発明の一実施形態である選択受付システムを実現するナビゲーションシステム10の構成を示すブロック図である。本実施形態にかかる選択受付システムは、車両に搭載されたナビゲーションシステム10の機能の一部として実現される。ナビゲーションシステム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMや記録媒体30に記録された所望のプログラムを実行することができる。本実施形態において、制御部20は、図示しないナビゲーションプログラムを実行することができ、当該ナビゲーションプログラムを実行することにより、図示しないGPS信号等に基づいてナビゲーションシステム10が搭載された車両を指定の目的地まで誘導する。また、ナビゲーションプログラムは、誘導案内に関する処理以外にも各種の処理を制御部20に実行させることが可能である。
(1) Configuration of selection reception system:
FIG. 1 is a block diagram showing a configuration of a navigation system 10 that realizes a selection receiving system according to an embodiment of the present invention. The selection reception system according to the present embodiment is realized as a part of the function of the navigation system 10 mounted on the vehicle. The navigation system 10 includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and the control unit 20 can execute a desired program recorded in the ROM or the recording medium 30. In the present embodiment, the control unit 20 can execute a navigation program (not shown), and by executing the navigation program, a vehicle on which the navigation system 10 is mounted is designated based on a GPS signal (not shown). Guide to the ground. In addition, the navigation program can cause the control unit 20 to execute various processes in addition to the process related to guidance.

車両は、ディスプレイ40、タッチパッド41および視線検出センサ42を備えている。ディスプレイ40は、図示しないインタフェースを介して制御部20と接続されており、制御部20は、ディスプレイ40に対して制御信号を出力することにより、任意の座標を指定し、任意の画像をディスプレイ40に表示させることができる。また、制御部20は、ディスプレイ40に各種の機能を利用するためのユーザインタフェース画面を表示する。すなわち、制御部20は、ディスプレイ40に、各種機能の実行等を指示するためのボタンとして機能するオブジェクトを表示する。むろん、ディスプレイ40には、オブジェクトとともに地図等の画像やポインタ等のアイコン等が表示されていてもよい。   The vehicle includes a display 40, a touch pad 41, and a line-of-sight detection sensor 42. The display 40 is connected to the control unit 20 via an interface (not shown). The control unit 20 outputs a control signal to the display 40 to designate arbitrary coordinates and display an arbitrary image on the display 40. Can be displayed. In addition, the control unit 20 displays a user interface screen for using various functions on the display 40. That is, the control unit 20 displays an object that functions as a button for instructing execution of various functions on the display 40. Of course, the display 40 may display an image such as a map or an icon such as a pointer together with the object.

タッチパッド41は、矩形平面の接触検出面を備えた入力デバイスであり、接触検出面に対して検出対象物が接触した位置を検出し、検出位置を示す座標を出力する。制御部20は、当該座標に基づいて接触位置を取得する。   The touch pad 41 is an input device including a rectangular flat contact detection surface, detects a position where a detection target object is in contact with the contact detection surface, and outputs coordinates indicating the detection position. The control unit 20 acquires the contact position based on the coordinates.

視線検出センサ42は、赤外線出力部と少なくとも2個の赤外線カメラとを備えている。当該赤外線カメラは、運転者の顔を視野に含むように車室内の構造体(例えば、インストルメントパネルの壁面)に取り付けられている。赤外線カメラは、赤外線出力部から出力された赤外線によって撮影された利用者(運転者)の目の像に基づいて、目の位置および利用者の視線方向(ベクトル)を検出し、出力する。制御部20は、当該出力に基づいて、予め定義された3次元空間内で目の位置および視線方向を特定することができる。視線方向は、例えば、両眼のそれぞれにおいて設定された基準点と、眼球の動きに応じて位置が変化する動点とを結ぶ方向として取得され、他にも種々の方式が採用されてよい。また、両眼のそれぞれにおいて特定された視線方向の平均値等によって利用者の視線方向を1方向に特定することができるが、視線方向の特定方法も種々の方法が採用され得る。   The line-of-sight detection sensor 42 includes an infrared output unit and at least two infrared cameras. The infrared camera is attached to a vehicle interior structure (for example, a wall surface of an instrument panel) so as to include the driver's face in the field of view. The infrared camera detects and outputs an eye position and a user's line-of-sight direction (vector) based on an image of a user's (driver's) eye photographed by infrared rays output from the infrared output unit. Based on the output, the control unit 20 can specify the eye position and line-of-sight direction in a predefined three-dimensional space. The line-of-sight direction is acquired as, for example, a direction connecting a reference point set for each eye and a moving point whose position changes according to the movement of the eyeball, and various other methods may be employed. In addition, although the user's line-of-sight direction can be specified in one direction based on the average value of the line-of-sight directions specified in each of both eyes, various methods can be adopted as the method of specifying the line-of-sight direction.

以上の構成において、ユーザインタフェース画面には複数のオブジェクトが表示され得る。そこで、本実施形態において、制御部20は、視点によってオブジェクトの選択を受け付け、オブジェクトが選択された状態で利用者がタッチパッド41によって確定操作(タップ操作等)を実行すると、制御部20は、オブジェクトに対応づけられた機能の実行を開始する。このようなオブジェクトの選択を行うため、選択受付プログラム21は、選択オブジェクト表示部21aと視点検出部21bと視点選択受付部21cと検出回数制御部21dとを備えている。   In the above configuration, a plurality of objects can be displayed on the user interface screen. Therefore, in the present embodiment, the control unit 20 accepts selection of an object based on the viewpoint, and when the user performs a confirmation operation (such as a tap operation) with the touch pad 41 while the object is selected, the control unit 20 Start executing the function associated with the object. In order to select such an object, the selection receiving program 21 includes a selected object display unit 21a, a viewpoint detection unit 21b, a viewpoint selection reception unit 21c, and a detection frequency control unit 21d.

選択オブジェクト表示部21aは、現在選択されているオブジェクトを示す表示を行う機能を制御部20に実現させるプログラムモジュールである。すなわち、制御部20は、タッチパッド41に対する利用者の操作等に応じてディスプレイ40に種々のユーザインタフェース画面を表示する。この処理によって表示されたユーザインタフェース画面にオブジェクトが含まれている場合、制御部20は、選択オブジェクト表示部21aの処理によって現在選択されているオブジェクトを示す表示を行う。   The selected object display unit 21a is a program module that causes the control unit 20 to realize a function of performing display indicating the currently selected object. That is, the control unit 20 displays various user interface screens on the display 40 in accordance with a user operation on the touch pad 41 or the like. When an object is included in the user interface screen displayed by this process, the control unit 20 displays an object currently selected by the process of the selected object display unit 21a.

本実施形態において、利用者は視点によってオブジェクトを選択することができる。すなわち、後述する視点選択受付部21cの処理により、制御部20は、検出された視点に基づいてオブジェクトの選択を受け付ける。オブジェクトの選択が受け付けられると、制御部20は、選択オブジェクト表示部21aの処理により、当該オブジェクトを強調するための描画を行う。すなわち、制御部20は、当該オブジェクトを強調した画像を示す画像情報をRAMに記録し、ディスプレイ40の制御信号を出力する。   In the present embodiment, the user can select an object depending on the viewpoint. That is, the control part 20 receives selection of an object based on the detected viewpoint by the process of the viewpoint selection reception part 21c mentioned later. When the selection of the object is accepted, the control unit 20 performs drawing for emphasizing the object by the processing of the selected object display unit 21a. That is, the control unit 20 records image information indicating an image in which the object is emphasized in the RAM, and outputs a control signal for the display 40.

この結果、ディスプレイ40は、選択されたオブジェクトを強調表示する。強調の態様は種々の態様を採用可能であり、例えば、オブジェクトの外周線を強調する構成や、他のオブジェクトと異なる色にする構成や、オブジェクトを点滅表示する構成等を採用可能である。なお、本実施形態において、制御部20は、オブジェクトの外周線を強調することで選択されたオブジェクトを示す構成を採用しており、ここでは、当該外周線を強調する画像をカーソルと呼ぶ。むろん、視点以外の手法でオブジェクトが選択されても良く、例えば、視点による選択が行われていない状態においてデフォルトのオブジェクトが選択された状態とされる構成や、タッチパッド41等の操作入力手段等によってオブジェクトが選択可能な構成等が採用可能である。   As a result, the display 40 highlights the selected object. Various modes can be adopted as the emphasis mode. For example, a configuration for emphasizing the outer periphery of the object, a configuration for making the color different from that of other objects, a configuration for blinking the object, or the like can be used. In the present embodiment, the control unit 20 employs a configuration that shows an object selected by emphasizing the outer periphery of the object, and here, an image that emphasizes the outer periphery is called a cursor. Of course, the object may be selected by a method other than the viewpoint. For example, a configuration in which a default object is selected in a state where selection by the viewpoint is not performed, an operation input unit such as the touch pad 41, or the like. It is possible to adopt a configuration in which an object can be selected according to.

視点検出部21bは、利用者の視点を検出する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、視点の検出領域となるディスプレイ40の画面の位置が、車室内空間の位置を規定する3次元座標系によって予め特定されている。制御部20は、視線検出センサ42の出力に基づいて、利用者の目の位置および視線方向を取得し、ディスプレイ40の画面の位置が規定された3次元座標系内で利用者の目の位置および視線方向を特定する。そして、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の画面との交点を視点として特定する。画面上に視点が存在しない場合、例えば、視点が不定とされてもよいし、他の構造体(例えばインストルメントパネル等)上に視点が存在するとされても良い。   The viewpoint detection unit 21b is a program module that causes the control unit 20 to realize a function of detecting a user's viewpoint. In the present embodiment, the position of the screen of the display 40 serving as the viewpoint detection area is specified in advance by a three-dimensional coordinate system that defines the position of the vehicle interior space. The control unit 20 acquires the position and line-of-sight direction of the user's eyes based on the output of the line-of-sight detection sensor 42, and the position of the user's eyes within the three-dimensional coordinate system in which the position of the screen of the display 40 is defined. And specify the gaze direction. Then, the intersection point between the virtual line extending in the line-of-sight direction from the eye position and the screen of the display 40 is specified as the viewpoint. When the viewpoint does not exist on the screen, for example, the viewpoint may be indefinite, or the viewpoint may exist on another structure (for example, an instrument panel or the like).

なお、本実施形態において、視線検出センサ42は、一定の周期で視線を検出する。制御部20は、視線検出センサ42が一定の周期で検出した視線に基づいてディスプレイ40上の視点を検出する。従って、本実施形態において制御部20は、一定のサンプリング周期で視点を検出している。   In the present embodiment, the line-of-sight detection sensor 42 detects the line of sight at a constant cycle. The control unit 20 detects the viewpoint on the display 40 based on the line of sight detected by the line-of-sight detection sensor 42 at a constant cycle. Therefore, in this embodiment, the control unit 20 detects the viewpoint at a constant sampling period.

視点選択受付部21cは、視点に基づいて利用者によるオブジェクトの選択を受け付ける機能を制御部20に実現させるプログラムモジュールである。具体的には、制御部20は、視点検出部21bによって視点が既定回数検出されるたびに、検出結果に基づいて利用者が視認している対象を特定する。本実施形態においては、当該既定回数の検出結果としての各視点がオブジェクトに含まれるか否かを判定し、視点が特定のオブジェクトに含まれていた回数が基準回数以上である場合に利用者が視認している対象が当該特定のオブジェクトであるとみなす。視点が特定のオブジェクトに含まれていた回数が基準回数以上でない場合、制御部20は、既定回数の検出結果としての各視点の重心を特定し、当該重心を利用者が視認している対象であるとみなす。なお、本実施形態において既定回数は、予め決められた値である。むろん、以上の構成は一例であり、他にも種々の態様で利用者が視認している対象が特定されてよい。   The viewpoint selection receiving unit 21c is a program module that causes the control unit 20 to realize a function of receiving selection of an object by a user based on the viewpoint. Specifically, every time the viewpoint is detected a predetermined number of times by the viewpoint detection unit 21b, the control unit 20 specifies an object that the user is viewing based on the detection result. In the present embodiment, it is determined whether or not each viewpoint as the predetermined number of detection results is included in the object, and when the number of times that the viewpoint is included in the specific object is equal to or greater than the reference number, The target being viewed is considered to be the specific object. When the number of times that the viewpoint is included in the specific object is not equal to or more than the reference number, the control unit 20 identifies the center of gravity of each viewpoint as the detection result of the predetermined number of times, and the user is viewing the center of gravity. Consider it. In the present embodiment, the predetermined number of times is a predetermined value. Of course, the above configuration is merely an example, and other objects that the user is viewing in various ways may be specified.

本実施形態において制御部20は、既定回数の検出を1回または2回行って利用者が視認している対象が特定のオブジェクトであるか否かを特定する。既定回数の検出が1回行われる場合、視点が特定のオブジェクトに含まれていた回数が基準回数以上であった場合に、利用者が視認している対象が当該特定のオブジェクトであると見なされる。既定回数の検出が2回行われる場合、2回ともに、視点が特定のオブジェクトに含まれていた回数が基準回数以上であった場合に、利用者が視認している対象が当該特定のオブジェクトであると見なされる。   In the present embodiment, the control unit 20 determines whether or not the target visually recognized by the user is a specific object by performing detection a predetermined number of times once or twice. When the predetermined number of times of detection is performed once, if the number of times the viewpoint is included in the specific object is equal to or greater than the reference number, the target that the user is viewing is regarded as the specific object. . When the predetermined number of times of detection is performed twice, when the number of times that the viewpoint is included in the specific object is equal to or more than the reference number in both cases, the target that the user is viewing is the specific object. It is considered to be.

利用者が視認している対象が当該特定のオブジェクトである場合、制御部20は、利用者が当該特定のオブジェクトを選択したとして受け付ける。特定のオブジェクトの選択を受け付けると、制御部20は、選択オブジェクト表示部21aの処理により、選択されたオブジェクトにカーソルを表示させる。なお、オブジェクトが選択された状態で利用者がタッチパッド41に対してタップ操作を行うと、制御部20は、オブジェクトに対応づけられた機能の実行を開始する。なお、本実施形態において、視線検出センサ42による視線の検出周期は一定であるため、制御部20は、視点を検出するための期間を予め決められた期間とすることにより既定回数の視点の検出を行うことができる。   When the target visually recognized by the user is the specific object, the control unit 20 accepts that the user has selected the specific object. When the selection of a specific object is received, the control unit 20 displays a cursor on the selected object by the processing of the selected object display unit 21a. When the user performs a tap operation on the touch pad 41 with the object selected, the control unit 20 starts executing the function associated with the object. In the present embodiment, since the line-of-sight detection cycle by the line-of-sight detection sensor 42 is constant, the control unit 20 detects a predetermined number of viewpoints by setting a period for detecting the viewpoint as a predetermined period. It can be performed.

検出回数制御部21dは、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れているほど、オブジェクトの選択を受け付けるために視点を検出する回数を少なくする機能を制御部20に実現させるプログラムモジュールである。すなわち、本実施形態においては、既定回数の視点の検出を1回または2回実行することによって、選択されたオブジェクトを特定する構成が採用されている。そこで、制御部20は、検出回数制御部21dの処理により、当該既定回数の検出を実行する回数を1回または2回のいずれかに設定することによって視点の検出回数を調整する。   The number-of-detections control unit 21d realizes a function in the control unit 20 that reduces the number of times the viewpoint is detected in order to accept selection of an object as the currently selected object and the newly selected object are separated from each other. This is a program module to be executed. In other words, in the present embodiment, a configuration is used in which a selected object is identified by executing detection of a predetermined number of viewpoints once or twice. Therefore, the control unit 20 adjusts the number of detection times of the viewpoint by setting the number of times of executing the predetermined number of detections to one or two by the processing of the detection number control unit 21d.

また、制御部20は、当該視点の検出回数の調整に際して、現在選択されているオブジェクトと、新たに選択されるオブジェクトとの距離を参照する。すなわち、制御部20は、視点選択受付部21cの処理によって選択されたオブジェクトを特定しており、当該処理によって選択されたとみなされ、現在カーソルが表示されているオブジェクトが現在選択されているオブジェクトとみなされる。   The control unit 20 refers to the distance between the currently selected object and the newly selected object when adjusting the number of detections of the viewpoint. That is, the control unit 20 identifies the object selected by the process of the viewpoint selection reception unit 21c, is considered to have been selected by the process, and the object on which the cursor is currently displayed is the currently selected object. It is regarded.

一方、制御部20は、視点選択受付部21cの処理により、既定回数の視点の検出を1回行った段階で、当該既定回数の検出結果に基づいて利用者が視認している対象のオブジェクトを特定する。利用者が視認している対象のオブジェクトが、現在選択されているオブジェクトと異なるオブジェクトである場合、制御部20は、利用者が視認している対象のオブジェクトが新たに選択されるオブジェクトであると見なす。そして、制御部20は、現在選択されているオブジェクトと新たに選択されるオブジェクトとのディスプレイ40上の位置(例えばボタンの中心位置)を特定し、両位置の距離を取得する。以上の構成によれば、制御部20が両位置の距離が閾値より大きいか否か判定することにより、2個のオブジェクトが離れているか否かを容易に特定することが可能になる。   On the other hand, the control unit 20 detects the target object that the user is viewing based on the detection result of the predetermined number of times when the detection of the predetermined number of viewpoints is performed once by the process of the viewpoint selection reception unit 21c. Identify. When the target object visually recognized by the user is an object different from the currently selected object, the control unit 20 determines that the target object visually recognized by the user is an object to be newly selected. Consider. Then, the control unit 20 specifies the position (for example, the center position of the button) on the display 40 between the currently selected object and the newly selected object, and acquires the distance between both positions. According to the above configuration, it is possible to easily specify whether or not two objects are separated by determining whether or not the distance between both positions is greater than the threshold value.

現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れている場合、制御部20は、既定回数の視点の検出を1回行ってオブジェクトの選択を受け付ける。一方、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れていない場合、制御部20は、既定回数の視点の検出を2回行ってオブジェクトの選択を受け付ける。制御部20は、視点選択受付部21cの処理において、既定回数の視点の検出を1回行うか2回行うか決定する。   When the currently selected object is far from the newly selected object, the control unit 20 detects the predetermined number of viewpoints once and accepts the selection of the object. On the other hand, when the currently selected object is not separated from the newly selected object, the control unit 20 receives the selection of the object by detecting the viewpoint twice for a predetermined number of times. The control unit 20 determines whether to perform a predetermined number of viewpoint detections once or twice in the process of the viewpoint selection reception unit 21c.

すなわち、現在選択されているオブジェクト以外の他のオブジェクトが視点によって選択され得る場合、視点として検出された位置に基づいて両オブジェクトのいずれが選択されるのかを決定する必要がある。現在選択されているオブジェクトから他のオブジェクトが近いほど、視点が両オブジェクトのいずれを示しているのか判断する際における視点の位置変動や検出誤差に大きな影響を受ける。従って、近いオブジェクトのいずれが視認されているのか正確に特定するためには、視点検出の統計精度を高める方が好ましい。   That is, when an object other than the currently selected object can be selected depending on the viewpoint, it is necessary to determine which of the two objects is selected based on the position detected as the viewpoint. The closer the other object is to the currently selected object, the greater the influence of the viewpoint position variation and detection error in determining which of the two viewpoints the viewpoint represents. Therefore, it is preferable to increase the statistical accuracy of viewpoint detection in order to accurately identify which of the close objects is being viewed.

そして、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れている場合、視点で選択されたオブジェクトが現在選択されているオブジェクトであるのか否か判定することは容易であり、両オブジェクトが近いほど判定の難易度があがる。そこで、本実施形態において制御部20は、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れているほど、オブジェクトの選択を受け付けるために視点を検出する回数を少なくする。以上の構成によれば、判定の難易度に応じて視点検出の負荷を調整することができる。   If the currently selected object is far from the newly selected object, it is easy to determine whether the object selected from the viewpoint is the currently selected object. The closer the object is, the more difficult it is to judge. Therefore, in the present embodiment, the control unit 20 reduces the number of times the viewpoint is detected in order to accept selection of an object, as the currently selected object is farther away from the newly selected object. According to the above configuration, the viewpoint detection load can be adjusted in accordance with the determination difficulty level.

また、視点で選択されたオブジェクトが現在選択されているオブジェクトであるか否かを容易に特定可能である状態において、視点の検出回数を少なくすることにより高速または簡易な処理によって視点を検出することができる。従って、過度の時間または過度の処理負荷で視点が検出されることを防止することができる。   In addition, it is possible to detect a viewpoint by high-speed or simple processing by reducing the number of viewpoint detections in a state in which it is possible to easily identify whether the object selected from the viewpoint is the currently selected object. Can do. Therefore, it is possible to prevent the viewpoint from being detected in an excessive time or an excessive processing load.

(2)選択受付処理:
次に上述の構成における選択受付処理を詳細に説明する。図2は、当該選択受付処理を示すフローチャートである。本実施形態においては、ディスプレイ40にオブジェクトを含むユーザインタフェース画面が表示されている状態で、一定期間毎に選択受付処理が実行される。選択受付処理が開始される場合、後述する視点計測変数およびフラグが0に初期化される。
(2) Selection acceptance process:
Next, the selection reception process in the above configuration will be described in detail. FIG. 2 is a flowchart showing the selection receiving process. In the present embodiment, the selection acceptance process is executed at regular intervals while the user interface screen including the object is displayed on the display 40. When the selection acceptance process is started, a viewpoint measurement variable and a flag described later are initialized to 0.

選択受付処理において、制御部20は、視点検出部21bの処理により、視点を検出する(ステップS100)。すなわち、制御部20は、視線検出センサ42の出力に基づいて、車室内の空間上の位置を規定する3次元座標系において利用者の目の位置および視線方向を取得する。さらに、制御部20は、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の画面との交点を特定する。そして、当該交点の位置をディスプレイ40の座標系の位置に変換することにより、利用者の視点が存在する画素を特定する。なお、制御部20は、0〜既定回数までカウントするための視点計測変数を予め定義しており、視点が検出されるたびに当該視点計測変数がインクリメントされる。また、検出された視点(画素の座標)はRAMに記録される。   In the selection reception process, the control unit 20 detects the viewpoint by the process of the viewpoint detection unit 21b (step S100). In other words, the control unit 20 acquires the position and line-of-sight direction of the user's eyes in a three-dimensional coordinate system that defines the position in the space in the vehicle interior based on the output of the line-of-sight detection sensor 42. Furthermore, the control unit 20 specifies an intersection between a virtual line extending in the line-of-sight direction from the eye position and the screen of the display 40. And the pixel in which a user's viewpoint exists is specified by converting the position of the said intersection into the position of the coordinate system of the display 40. FIG. The control unit 20 predefines a viewpoint measurement variable for counting from 0 to a predetermined number of times, and the viewpoint measurement variable is incremented each time a viewpoint is detected. The detected viewpoint (pixel coordinates) is recorded in the RAM.

次に制御部20は、視点検出部21bの処理により、視点が既定回数検出されたか否かを判定する(ステップS105)。すなわち、制御部20は、視点計測変数を参照し、値が既定回数に達していなければ、ステップS100以降の処理を繰り返す。この際、制御部20は、視線検出センサ42が視線方向を出力する周期で繰り返し処理を実行する。すなわち、当該周期に同期して視点を検出する処理を繰り返す。   Next, the control unit 20 determines whether or not the viewpoint has been detected a predetermined number of times by the process of the viewpoint detection unit 21b (step S105). That is, the control unit 20 refers to the viewpoint measurement variable, and repeats the processing after step S100 if the value has not reached the predetermined number of times. At this time, the control unit 20 repeatedly performs the process at a cycle in which the line-of-sight detection sensor 42 outputs the line-of-sight direction. That is, the process of detecting the viewpoint is repeated in synchronization with the cycle.

ステップS105において、視点計測変数の値が既定回数に達していれば、制御部20は、当該視点計測変数の値を初期化し(0を代入し)、視点選択受付部21cの処理により、視認されているオブジェクトを特定する(ステップS110)。すなわち、制御部20は、ステップS100〜S105のループの過程で検出された各視点を取得する。また、制御部20は、視点が特定のオブジェクトに含まれていた回数が基準回数以上である場合に利用者が当該オブジェクトを視認しているとみなす。なお、基準回数は予め決められていれば良く、本実施形態においては基準回数>(既定回数/2)である。ただし、選択されたオブジェクトを特定するために、既定回数の検出が2回実行される場合、基準回数はより大きな値に変更される(例えば、元の基準回数×2等)。   In step S105, if the value of the viewpoint measurement variable has reached the predetermined number of times, the control unit 20 initializes the value of the viewpoint measurement variable (substitutes 0) and is visually recognized by the processing of the viewpoint selection reception unit 21c. The identified object is identified (step S110). That is, the control unit 20 acquires each viewpoint detected in the process of the loop of steps S100 to S105. Further, the control unit 20 considers that the user is viewing the object when the number of times the viewpoint is included in the specific object is equal to or greater than the reference number. The reference number may be determined in advance, and in the present embodiment, the reference number> (predetermined number / 2). However, when the predetermined number of times of detection is executed twice in order to specify the selected object, the reference number is changed to a larger value (for example, the original reference number × 2).

次に、制御部20は、検出回数制御部21dの処理により、視認されているオブジェクトが現在選択されているオブジェクトと異なるか否かを判定する(ステップS115)。すなわち、制御部20は、現在カーソルが表示されているオブジェクトを現在選択されているオブジェクトとして取得する。そして、制御部20は、ステップS110にて取得された、視認されているオブジェクトと、現在選択されているオブジェクトとが異なるか否かを判定する。   Next, the control unit 20 determines whether or not the visually recognized object is different from the currently selected object by the process of the detection number control unit 21d (step S115). That is, the control unit 20 acquires the object on which the cursor is currently displayed as the currently selected object. Then, the control unit 20 determines whether or not the visually recognized object acquired in step S110 is different from the currently selected object.

ステップS115において、視認されているオブジェクトが現在選択されているオブジェクトと異なると判定されない場合、制御部20は、視点を既定回数検出済であるか否かを示すフラグをオフに設定し(ステップS120)、ステップS100以降を繰り返す。すなわち、視認されているオブジェクトが現在選択されているオブジェクトと同一である場合、利用者によるオブジェクトの選択を新たに受け付ける必要はなく、制御部20は、ステップS100以後の処理を繰り返す。   If it is not determined in step S115 that the currently viewed object is different from the currently selected object, the control unit 20 sets a flag indicating whether the viewpoint has been detected a predetermined number of times to OFF (step S120). ), Step S100 and subsequent steps are repeated. That is, when the object being viewed is the same as the currently selected object, it is not necessary to newly accept the selection of the object by the user, and the control unit 20 repeats the processing after step S100.

一方、ステップS115において、視認されているオブジェクトが現在選択されているオブジェクトと異なると判定された場合、制御部20は、検出回数制御部21dの処理により、オブジェクト間距離が閾値より大きいか否かを判定する(ステップS125)。すなわち、制御部20は、視認されているオブジェクトと現在選択されているオブジェクトの位置を特定し、両位置の距離を特定し、閾値と比較する。   On the other hand, when it is determined in step S115 that the currently viewed object is different from the currently selected object, the control unit 20 determines whether the inter-object distance is greater than the threshold value by the detection count control unit 21d. Is determined (step S125). In other words, the control unit 20 specifies the positions of the visually recognized object and the currently selected object, specifies the distance between the two positions, and compares it with the threshold value.

ステップS125において、オブジェクト間距離が閾値より大きいと判定された場合、制御部20は、視認されているオブジェクトにカーソルを表示する(ステップS140)。すなわち、制御部20は、ディスプレイ40を制御し、ステップS110で特定されたオブジェクトの外周を強調する画像、すなわちカーソルを表示させる。   If it is determined in step S125 that the distance between objects is greater than the threshold, the control unit 20 displays a cursor on the object being viewed (step S140). That is, the control unit 20 controls the display 40 to display an image that emphasizes the outer periphery of the object identified in step S110, that is, a cursor.

一方、ステップS125において、オブジェクト間距離が閾値より大きいと判定されない場合、すなわち、オブジェクト同士が近い場合、制御部20は、検出回数制御部21dの処理により、フラグがオンであるか否かを判定する(ステップS130)。当該フラグは視点を既定回数検出済であるか否かを示すフラグであり、当該フラグがオンではない場合、制御部20は、当該フラグをオンにして(ステップS135)、ステップS100以降の処理を繰り返す。すなわち、制御部20は、既定回数の視点の検出をあと1回実行し、2回以上実行しないようにするために、フラグをオンにしてステップS100以降の処理を繰り返す。この結果、視点を既定回数検出する処理(ステップS100,105のループ処理)が2回実行される。   On the other hand, when it is not determined in step S125 that the distance between the objects is greater than the threshold, that is, when the objects are close to each other, the control unit 20 determines whether or not the flag is on by the processing of the detection number control unit 21d. (Step S130). The flag is a flag indicating whether or not the viewpoint has been detected a predetermined number of times. If the flag is not on, the control unit 20 turns on the flag (step S135), and performs the processing after step S100. repeat. That is, the control unit 20 repeats the processes after step S100 with the flag turned on so that the predetermined number of viewpoints are detected once more and not executed twice or more. As a result, the process for detecting the viewpoint a predetermined number of times (the loop process in steps S100 and S105) is executed twice.

一方、ステップS130において、フラグがオンであると判定された場合、制御部20は、ステップS140を実行する。すなわち、フラグがオンである場合、既定回数の視点の検出が2回実行され、かつ、現在選択されているオブジェクトと異なるオブジェクトが視認されている。そこで、制御部20は、ディスプレイ40を制御し、ステップS110で特定されたオブジェクトの外周を強調する画像、すなわちカーソルを表示させる。   On the other hand, when it determines with a flag being ON in step S130, the control part 20 performs step S140. That is, when the flag is on, a predetermined number of viewpoints are detected twice, and an object different from the currently selected object is visually recognized. Therefore, the control unit 20 controls the display 40 to display an image that emphasizes the outer periphery of the object identified in step S110, that is, a cursor.

図3Aおよび図3Bは、ディスプレイ40の画面にオブジェクトO1,O2が表示されている例を示している。なお、図3Aおよび図3Bにおいては、カーソルをオブジェクト外周の太い枠線によって示している。従って、これらの図において現在選択されているオブジェクトはオブジェクトO1である。 3A and 3B show an example in which objects O 1 and O 2 are displayed on the screen of the display 40. In FIGS. 3A and 3B, the cursor is indicated by a thick frame line around the object. Therefore, the object currently selected in these drawings is the object O 1 .

図3Aおよび図3Bに示す例において、現在選択されているオブジェクトはオブジェクトO1であり、この状態で利用者がオブジェクトO2を視認し、ステップS110において視認されているオブジェクトがオブジェクトO2であると特定された場合を想定する。この場合、ステップS115において、制御部20は、視認されているオブジェクトが現在選択されているオブジェクトと異なると判定する。 In the example shown in FIGS. 3A and 3B, the currently selected object is an object O 1, the user in this state viewing the object O 2, the object being visible is an object O 2 in step S110 Assuming that In this case, in step S115, the control unit 20 determines that the visually recognized object is different from the currently selected object.

図3AにおいてはオブジェクトO1,O2間の距離が閾値よりも大きい例、図3BにおいてはオブジェクトO1,O2間の距離が閾値よりも小さい例が想定されている。従って、図3Aの場合、制御部20は、ステップS125においてオブジェクト間距離が閾値より大きいと判定し、既定回数の視点の検出を1回実行した段階でステップS140を実行する。 In FIG. 3A, an example in which the distance between the objects O 1 and O 2 is larger than the threshold is assumed, and in FIG. 3B, an example in which the distance between the objects O 1 and O 2 is smaller than the threshold is assumed. Therefore, in the case of FIG. 3A, the control unit 20 determines that the inter-object distance is larger than the threshold value in step S125, and executes step S140 when the predetermined number of viewpoints are detected once.

一方、図3Bの場合、制御部20は、ステップS125においてオブジェクト間距離が閾値より小さいと判定し、ステップS130,S135でフラグをオンに設定し、ステップS100以後の処理により、再度既定回数の視点の検出を実行する。この後、制御部20は、ステップS125においてオブジェクト間距離が閾値より小さいと判定し、ステップS130においてフラグがオンと判定してステップS140を実行する。従って、制御部20は、既定回数の視点の検出を2回実行した後にステップS140を実行する。   On the other hand, in the case of FIG. 3B, the control unit 20 determines that the distance between the objects is smaller than the threshold value in step S125, sets the flag to ON in steps S130 and S135, and repeats the predetermined number of viewpoints by the processing after step S100. Perform detection. Thereafter, the control unit 20 determines that the distance between objects is smaller than the threshold value in step S125, determines that the flag is on in step S130, and executes step S140. Therefore, the control unit 20 executes step S140 after executing the predetermined number of viewpoint detections twice.

図3Aおよび図3Bにおいては、視点が黒丸によって模式的に示されている。すなわち、これらの図においては、選択されたオブジェクトの特定のために検出された視点を複数個の黒丸で模式的に示している。図3Aに示す例においては既定回数の視点の検出が1回実行され、図3Bに示す例においては既定回数の視点の検出が2回実行されるため、図3Aに示す例は図3Bに示す例と比較して検出された視点の数が少ない。   In FIG. 3A and FIG. 3B, the viewpoint is schematically indicated by a black circle. That is, in these drawings, the viewpoint detected for specifying the selected object is schematically shown by a plurality of black circles. In the example shown in FIG. 3A, detection of the predetermined number of viewpoints is executed once, and in the example shown in FIG. 3B, detection of the predetermined number of viewpoints is executed twice. Therefore, the example shown in FIG. 3A is shown in FIG. 3B. The number of detected viewpoints is small compared to the example.

しかし、図3Aにおいては、両オブジェクトが離れているため、視点の検出回数が少なくても誤検出が生じにくい。また、選択されたオブジェクトの判定を高速に実行することができる。一方、図3Bにおいては、両オブジェクトが近いが視点の検出回数が多くなることにより統計精度が向上する。従って、両オブジェクトが近くても、視点によって選択されたオブジェクトが、現在選択されているオブジェクトであるのか、他のオブジェクトであるのかを正確に検出することができる。   However, in FIG. 3A, since both objects are separated from each other, erroneous detection is unlikely to occur even if the number of viewpoint detections is small. Moreover, the determination of the selected object can be executed at high speed. On the other hand, in FIG. 3B, although both objects are close, the statistical accuracy is improved by increasing the number of viewpoint detections. Therefore, even if both objects are close to each other, it is possible to accurately detect whether the object selected by the viewpoint is the currently selected object or another object.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、オブジェクトが離れている度合いに応じて視点の検出回数を調整する限りにおいて、他にも種々の実施形態を採用可能である。例えば、選択受付システムは、ナビゲーションシステム以外のシステム、汎用コンピュータシステム等に適用されていても良い。また、選択受付システムは、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other embodiments can be adopted as long as the number of viewpoint detections is adjusted according to the degree to which the object is separated. For example, the selection receiving system may be applied to a system other than the navigation system, a general-purpose computer system, or the like. The selection receiving system may be a system realized by a plurality of devices (for example, a client and a server).

さらに、選択受付システムを構成する選択オブジェクト表示部21a、視点検出部21b、視点選択受付部21c、検出回数制御部21dの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、選択オブジェクト表示部21aの少なくとも一部がディスプレイ40内の制御部で実現されても良いし、視点検出部21b、視点選択受付部21c、検出回数制御部21dの少なくとも一部が視線検出センサ42内の制御部で実現されても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動され、または処理の一部が省略されてもよい。   Furthermore, at least a part of the selected object display unit 21a, the viewpoint detection unit 21b, the viewpoint selection reception unit 21c, and the detection frequency control unit 21d configuring the selection reception system may be divided into a plurality of devices. For example, at least a part of the selected object display unit 21a may be realized by a control unit in the display 40, or at least a part of the viewpoint detection unit 21b, the viewpoint selection reception unit 21c, and the detection frequency control unit 21d is a line-of-sight detection sensor. It may be realized by the control unit in 42. Of course, a part of the configuration of the above-described embodiment may be omitted, the order of processing may be changed, or a part of the processing may be omitted.

例えば、ユーザインタフェース画面に表示されたオブジェクトは2個に限定されず、3個以上であっても良い。この構成は、例えば、図2に示すステップS110が修正されることによって実現可能であり、既定回数の検出の2回目が実行された後のステップS110において特定されたオブジェクトが、既定回数の検出の1回目が実行された後のステップS110において特定されたオブジェクトと異なる場合、フラグがオフにされてステップS115以降の処理が実行される。また、オブジェクトが3個以上である場合、新たに選択されるオブジェクトと他のオブジェクトが近いか否か判定され、近い場合に検出回数が多く、遠い場合に検出回数が少なくなる構成であっても良い。むろん、既定回数の検出を繰り返す回数は1回および2回に限定されず、他の回数であっても良いし、オブジェクト間距離に応じて回数が少なくなってもよい。   For example, the number of objects displayed on the user interface screen is not limited to two, and may be three or more. This configuration can be realized, for example, by correcting step S110 shown in FIG. 2, and the object specified in step S110 after the second detection of the predetermined number of times is executed is detected by the predetermined number of times. If the object is different from the object specified in step S110 after the first execution, the flag is turned off and the processing from step S115 onward is executed. Further, when there are three or more objects, it is determined whether or not the newly selected object is close to another object, and the number of detections is large when close, and the number of detections is small when far away. good. Of course, the number of times that the detection of the predetermined number of times is repeated is not limited to once and twice, but may be another number, or the number may be reduced according to the distance between objects.

さらに、既定回数やオブジェクト間距離を判定するための閾値は、人工知能等によって決められても良い。例えば、視点と操作入力とによってオブジェクトが選択可能な構成において、制御部20が特定の視点検出回数で視点によって選択されたオブジェクトを特定する。そして、当該選択されたオブジェクトが操作入力部によって修正された場合に視点検出回数を変化させ、オブジェクトが操作入力部によって修正されなかった場合に視点検出回数を維持または小さい変化をさせるように学習する構成等が挙げられる。オブジェクト間距離も同様であり、制御部が特定の値を閾値としてオブジェクト間距離を判定し、操作入力部による修正の有無に応じて閾値を調整する学習が行われる構成であっても良い。   Further, the threshold for determining the predetermined number of times and the distance between objects may be determined by artificial intelligence or the like. For example, in a configuration in which an object can be selected by a viewpoint and an operation input, the control unit 20 specifies the object selected by the viewpoint with a specific number of viewpoint detection times. Then, learning is performed so that the viewpoint detection frequency is changed when the selected object is modified by the operation input unit, and the viewpoint detection frequency is maintained or slightly changed when the object is not modified by the operation input unit. Examples include the configuration. The same applies to the inter-object distance, and the control unit may determine the inter-object distance using a specific value as a threshold, and learning to adjust the threshold according to whether or not the operation input unit is corrected may be performed.

選択オブジェクト表示部は、現在選択されているオブジェクトを示す表示を行うことができればよい。すなわち、選択オブジェクト表示部は、視点によって選択されたオブジェクトと選択されていないオブジェクトとを区別可能な表示を行うことができればよい。現在選択されているオブジェクトを示す表示は、上述のようなカーソルの他、各種の強調表示によって実現されてもよい。また、オブジェクトの周辺に、オブジェクトに対応づけたランプ等の目印が配置され、点灯等によって他のオブジェクトと区別可能な状態となってもよい。   The selected object display unit only needs to be able to display the currently selected object. In other words, the selected object display unit only needs to be able to display an object selected by the viewpoint and an object not selected. The display indicating the currently selected object may be realized by various highlight displays in addition to the cursor as described above. In addition, a mark such as a lamp associated with the object may be arranged around the object so that it can be distinguished from other objects by lighting or the like.

オブジェクトは、ディスプレイに表示されたアイコン等の画像以外にも種々の選択対象を想定可能であり、例えば、実体のある装置(エアコンの風向調整部や温度調整部、各種機能に関するボタン等)であっても良い。この場合、上述の目印等によって現在選択されているオブジェクトが特定される構成等を採用可能である。   In addition to images such as icons displayed on the display, various selection targets can be assumed as the object. For example, the object is an actual device (such as a wind direction adjustment unit or a temperature adjustment unit of an air conditioner or buttons related to various functions). May be. In this case, a configuration in which the currently selected object is specified by the above-described mark or the like can be adopted.

視点検出部は、利用者の視点を検出することができればよく、種々の構成を採用可能である。例えば、上述の実施形態のように、利用者の目を撮影するカメラの出力に基づいて利用者の目の動作を特定することにより視線を特定し、視線と予め特定されたディスプレイ画面との交点を始点と見なす構成等を採用可能である。検出対象となる目は1個であっても良いし、2個であっても良いが、精度を高めるためには検出対象の目は2個であることが好ましい。2個の目の視線が特定された場合における視点は、各目の視線に基づいて特定された各視点から統計的に特定されても良いし、利き目によるバイアスに基づいて視点が特定されても良い。さらに、視点は、少なくとも、利用者が視認している表示領域上で特定されれば良い。   The viewpoint detection unit only needs to be able to detect the viewpoint of the user, and various configurations can be employed. For example, as in the above-described embodiment, the line of sight is specified by specifying the movement of the user's eyes based on the output of the camera that captures the user's eyes, and the intersection of the line of sight and the previously specified display screen It is possible to adopt a configuration that regards as a starting point. The number of eyes to be detected may be one or two, but in order to improve accuracy, it is preferable that the number of eyes to be detected is two. The viewpoint when the eyes of two eyes are specified may be statistically specified from each viewpoint specified based on the eyes of each eye, or the viewpoint is specified based on the bias by the dominant eye. Also good. Furthermore, the viewpoint may be specified at least on the display area that the user is viewing.

利用者の視点は、利用者の頭や眼球の位置や角度の変化や検出誤差に応じて短い期間で細かく変動する。そこで、視点検出部は、予め決められた周期で視点を検出する(サンプリングする)が、当該周期は、固定であっても良いし可変であっても良い。   The user's viewpoint varies finely in a short period of time according to changes in the position and angle of the user's head and eyeballs and detection errors. Therefore, the viewpoint detection unit detects (samples) the viewpoint at a predetermined cycle, but the cycle may be fixed or variable.

視点選択受付部は、視点に基づいて利用者によるオブジェクトの選択を受け付けることができればよい。すなわち、視点選択受付部は、視点に基づいて、複数のオブジェクトから利用者が選択したオブジェクトを決定することができればよい。上述のように、視点は短い期間で細かく変動するため、視点選択受付部は、視点を複数回検出した結果に基づいてオブジェクトの選択を受け付けることが好ましい。また、複数回の検出結果のいずれかが他の検出結果と比較して、オブジェクト選択の際により重要視されてもよい(重みが異なっていてもよい)。   The viewpoint selection receiving unit only needs to be able to receive selection of an object by the user based on the viewpoint. That is, the viewpoint selection receiving unit only needs to be able to determine an object selected by the user from a plurality of objects based on the viewpoint. As described above, since the viewpoint changes finely in a short period of time, it is preferable that the viewpoint selection reception unit receives selection of an object based on the result of detecting the viewpoint a plurality of times. In addition, any of the detection results of a plurality of times may be given more importance when selecting an object than the other detection results (the weights may be different).

選択されたオブジェクトの決定は視点とオブジェクトとの関係に基づいて行われれば良く、上述のようにオブジェクトに含まれる視点の個数に基づいて決定される構成の他、視点とオブジェクトとの距離や、視点の移動方向とオブジェクトの位置との関係等に基づいて決定されても良いし、各視点の重心に最も近いオブジェクトが選択されたオブジェクトであると見なす構成が採用されてもよいし、これらの組み合わせであっても良い。   The selected object may be determined based on the relationship between the viewpoint and the object. In addition to the configuration determined based on the number of viewpoints included in the object as described above, the distance between the viewpoint and the object, It may be determined based on the relationship between the movement direction of the viewpoint and the position of the object, etc., or a configuration may be adopted in which the object closest to the center of gravity of each viewpoint is regarded as the selected object. It may be a combination.

検出回数制御部は、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れているほど、オブジェクトの選択を受け付けるために視点を検出する回数を少なくすることができればよい。すなわち、検出回数制御部は、視点が、現在選択されているオブジェクトと新たに選択されるオブジェクトとのいずれを指しているのか明らかであるほど、少ない検出回数でオブジェクトの選択を受け付ける。   The detection number control unit only needs to be able to reduce the number of times the viewpoint is detected in order to accept the selection of the object, as the currently selected object and the newly selected object are separated from each other. That is, the detection number control unit accepts the selection of an object with a smaller number of detections, as it is clear whether the viewpoint indicates the currently selected object or the newly selected object.

現在選択されているオブジェクトと新たに選択されるオブジェクトとが離れているか否かは、オブジェクト間の距離によって定義されても良いし、オブジェクト間に存在する物体の変化度合いによって定義されてもよい。すなわち、前者であれば、上述の実施形態のように、現在選択されているオブジェクトと新たに選択されるオブジェクトとの距離が遠いほど、オブジェクトの選択を受け付けるために視点を検出する回数が少ない構成となる。後者としては、例えば表示部が複数のディスプレイを含み、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが異なるディスプレイに表示されている場合、同一のディスプレイに表示されている場合よりも、オブジェクトの選択を受け付けるために視点を検出する回数が少ない構成が挙げられる。   Whether or not the currently selected object is away from the newly selected object may be defined by the distance between the objects, or may be defined by the degree of change of the object existing between the objects. In other words, in the former case, as in the above-described embodiment, as the distance between the currently selected object and the newly selected object increases, the number of times the viewpoint is detected to accept the object selection is reduced. It becomes. As the latter, for example, when the display unit includes a plurality of displays, and the currently selected object and the newly selected object are displayed on different displays, than the case where they are displayed on the same display A configuration in which the number of times the viewpoint is detected in order to accept selection of an object is small.

検出回数の調整は、上述のように一定周期の検出において検出期間を調整する構成(既定回数の検出を単位とし、当該単位の検出回数を調整する構成)であっても良いし、一定期間の検出において検出周期を調整する構成であっても良いし、両者の組み合わせであっても良い。また、他の指標に基づいて検出回数が調整されてもよい。例えば、視点の単位移動距離あたりの検出回数が調整されてもよい。検出回数の調整は、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが離れているほど検出回数が少なくなるように実施されればよい。検出回数は、連続的に変化しても良いし2段階以上で段階的に変化してもよい。むろん、当該検出回数の調整は、現在選択されているオブジェクトと、新たに選択されるオブジェクトとが近いほど検出回数が多くなる構成と等価であり、この場合においても検出回数は、連続的に変化しても良いし2段階以上で段階的に変化してもよい。   As described above, the adjustment of the number of detections may be configured such that the detection period is adjusted in the detection of a fixed period (a configuration in which the detection number of the predetermined number is used as a unit and the detection number of the unit is adjusted) The detection period may be adjusted in detection, or a combination of both may be used. Further, the number of detections may be adjusted based on another index. For example, the number of detections per unit moving distance of the viewpoint may be adjusted. The adjustment of the number of detections may be performed so that the number of detections decreases as the currently selected object and the newly selected object are separated. The number of detections may change continuously, or may change stepwise in two or more steps. Of course, the adjustment of the number of detections is equivalent to a configuration in which the number of detections increases as the currently selected object is closer to the newly selected object. In this case, the number of detections changes continuously. Alternatively, it may be changed in two steps or more.

さらに、本発明のように、オブジェクトが離れている度合いに応じて視点の検出回数を調整する手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合や、複数の装置によって実現される場合が想定可能であり、各種の態様を含むものである。例えば、以上のような手段を備えたナビゲーションシステム、端末や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, the method of adjusting the number of viewpoint detections according to the degree to which an object is separated as in the present invention can also be applied as a program or method. The system, program, and method as described above can be realized as a single device or can be realized as a plurality of devices, and include various aspects. For example, it is possible to provide a navigation system, a terminal, a method, and a program provided with the above means. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーションシステム、20…制御部、21…選択受付プログラム、21a…選択オブジェクト表示部、21b…視点検出部、21c…視点選択受付部、21d…検出回数制御部、30…記録媒体、40…ディスプレイ、41…タッチパッド、42…視線検出センサ DESCRIPTION OF SYMBOLS 10 ... Navigation system, 20 ... Control part, 21 ... Selection reception program, 21a ... Selected object display part, 21b ... Viewpoint detection part, 21c ... Viewpoint selection reception part, 21d ... Detection frequency control part, 30 ... Recording medium, 40 ... Display, 41 ... touch pad, 42 ... gaze detection sensor

Claims (4)

現在選択されているオブジェクトを示す表示を行う選択オブジェクト表示部と、
利用者の視点を検出する視点検出部と、
前記視点に基づいて前記利用者による前記オブジェクトの選択を受け付ける視点選択受付部と、
現在選択されている前記オブジェクトと、新たに選択される前記オブジェクトとが離れているほど、前記オブジェクトの選択を受け付けるために前記視点を検出する回数を少なくする検出回数制御部と、
を備える選択受付システム。
A selected object display for displaying the currently selected object;
A viewpoint detection unit that detects a user's viewpoint;
A viewpoint selection receiving unit that receives selection of the object by the user based on the viewpoint;
A detection frequency control unit that reduces the number of times the viewpoint is detected in order to accept the selection of the object, as the currently selected object and the newly selected object are separated from each other;
A selection reception system comprising:
前記オブジェクトの選択を受け付けるために前記視点を検出する回数は、
現在選択されている前記オブジェクトと、新たに選択される前記オブジェクトとの距離が遠いほど少ない、
請求項1に記載の選択受付システム。
The number of times the viewpoint is detected in order to accept the selection of the object is
The smaller the distance between the currently selected object and the newly selected object is, the smaller the distance is.
The selection reception system according to claim 1.
前記オブジェクトは、複数のディスプレイのいずれかに表示され、
前記オブジェクトの選択を受け付けるために前記視点を検出する回数は、
現在選択されている前記オブジェクトと、新たに選択される前記オブジェクトとが異なる前記ディスプレイに表示されている場合、同一の前記ディスプレイに表示されている場合よりも少ない、
請求項1または請求項2のいずれかに記載の選択受付システム。
The object is displayed on one of a plurality of displays,
The number of times the viewpoint is detected in order to accept the selection of the object is
If the currently selected object and the newly selected object are displayed on different displays, less than if they are displayed on the same display,
The selection reception system according to claim 1 or 2.
コンピュータを、
現在選択されているオブジェクトを示す表示を行う選択オブジェクト表示部、
利用者の視点を検出する視点検出部、
前記視点に基づいて前記利用者による前記オブジェクトの選択を受け付ける視点選択受付部、
現在選択されている前記オブジェクトと、新たに選択される前記オブジェクトとが離れているほど、前記オブジェクトの選択を受け付けるために前記視点を検出する回数を少なくする検出回数制御部、
として機能させる選択受付プログラム。
Computer
A selected object display section for displaying the currently selected object,
A viewpoint detector that detects the user's viewpoint;
A viewpoint selection receiving unit that receives selection of the object by the user based on the viewpoint;
A detection frequency control unit that reduces the number of times the viewpoint is detected in order to accept the selection of the object, as the currently selected object and the newly selected object are separated from each other,
Selection acceptance program to function as.
JP2016246134A 2016-12-20 2016-12-20 Selection receiving system and selection receiving program Pending JP2018101229A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016246134A JP2018101229A (en) 2016-12-20 2016-12-20 Selection receiving system and selection receiving program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016246134A JP2018101229A (en) 2016-12-20 2016-12-20 Selection receiving system and selection receiving program

Publications (1)

Publication Number Publication Date
JP2018101229A true JP2018101229A (en) 2018-06-28

Family

ID=62714369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016246134A Pending JP2018101229A (en) 2016-12-20 2016-12-20 Selection receiving system and selection receiving program

Country Status (1)

Country Link
JP (1) JP2018101229A (en)

Similar Documents

Publication Publication Date Title
US11418706B2 (en) Adjusting motion capture based on the distance between tracked objects
US10606441B2 (en) Operation control device and operation control method
EP2928180B1 (en) Image processing apparatus, method for controlling image processing apparatus and program
US9465443B2 (en) Gesture operation input processing apparatus and gesture operation input processing method
KR102182667B1 (en) An operating device comprising an eye tracker unit and a method for calibrating the eye tracker unit of the operating device
US20170351327A1 (en) Information processing apparatus and method, and program
US9904359B2 (en) Head-mounted display controlled by tapping, method for controlling the same and computer program product for controlling the same
KR20120045667A (en) Apparatus and method for generating screen for transmitting call using collage
EP3293973A1 (en) Electronic device and method for controlling same
JP6911834B2 (en) Information processing equipment, information processing methods, and programs
US20150084853A1 (en) Method and System for Mapping for Movement Trajectory of Emission Light Source Application Trajectory Thereof
JP5912929B2 (en) Display device, processing method, and program
US9552059B2 (en) Information processing method and electronic device
JP2018101229A (en) Selection receiving system and selection receiving program
CN111819841B (en) Information processing apparatus, information processing method, and storage medium
JP2018097443A (en) Input system and input program
JP2018041219A (en) View point acquisition system and view point acquire program
JP6696357B2 (en) Pointer control system and pointer control program
US11935182B2 (en) Information processing apparatus, information processing method, and storage medium
TWI736214B (en) Display control device, display control method, program and non-temporary computer readable information recording medium
US20240087255A1 (en) Information processing apparatus, system, control method, and non-transitory computer storage medium
US9354706B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and method of calculating designated position
US20230125410A1 (en) Information processing apparatus, image capturing system, method, and non-transitory computer-readable storage medium
JP2018092518A (en) Display control system and display control program
CN105320485A (en) Image processor, image projector, and image processing method