JP2018092522A - Input system and input program - Google Patents

Input system and input program Download PDF

Info

Publication number
JP2018092522A
JP2018092522A JP2016237464A JP2016237464A JP2018092522A JP 2018092522 A JP2018092522 A JP 2018092522A JP 2016237464 A JP2016237464 A JP 2016237464A JP 2016237464 A JP2016237464 A JP 2016237464A JP 2018092522 A JP2018092522 A JP 2018092522A
Authority
JP
Japan
Prior art keywords
viewpoint
user
display
input
button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016237464A
Other languages
Japanese (ja)
Inventor
神谷 和宏
Kazuhiro Kamiya
和宏 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2016237464A priority Critical patent/JP2018092522A/en
Publication of JP2018092522A publication Critical patent/JP2018092522A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve convenience in a system that allows input by a viewpoint and input by operation.SOLUTION: An input system is constituted which is provided with a viewpoint detection unit for detecting a viewpoint of a user, an operation detection unit that detects operation of the user, a display control unit configured to cause a display unit to display a first object indicating an option related to a route search and a second object indicating an instruction to execute the route search using the selected option, and a reception unit that accepts a selection of the option indicated by the first object based on the viewpoint and accepts an execution instruction of the route search based on the operation on the second object.SELECTED DRAWING: Figure 1

Description

本発明は、入力システム、入力プログラムに関する。   The present invention relates to an input system and an input program.

従来、利用者の視線と、視線以外の利用者の行為との組み合わせによって、指示を入力するシステムが知られている。例えば特許文献1には、利用者の視点に基づいて対象のアイコンが選択され、スイッチ操作に応じて当該アイコンに対応する処理が実行されることが記載されている。特許文献2には、利用者の視線と顔の向き(または顔の動き)とによって画面スクロール等の指示が入力されることが記載されている。   2. Description of the Related Art Conventionally, a system for inputting an instruction by a combination of a user's line of sight and a user's action other than the line of sight is known. For example, Patent Document 1 describes that a target icon is selected based on a user's viewpoint, and processing corresponding to the icon is executed in accordance with a switch operation. Patent Document 2 describes that an instruction such as screen scrolling is input according to the user's line of sight and face orientation (or face movement).

特開2013−143012号公報JP2013-143012A 特開2015−87824号公報Japanese Patent Laying-Open No. 2015-87824

しかし、視線を変化させる行為と視線を変化させる以外の行為との組み合わせによって何らかの処理を実行させるための指示を入力する構成の場合、利用者は当該処理を実行させる際に毎回これら2つの行為を行わなければならない。そのため利用者の負担となり得る。一方、何らかの処理を実行させるための指示を視線を変化させる行為に基づいて行う構成の場合、利用者の負担は軽減できうるが、視点検出の誤差などによって利用者が意図しない指示入力がなされてしまう可能性がある。
本発明は、上記課題にかんがみてなされたもので、視点による入力と操作による入力とが可能なシステムにおける利便性を向上させることを目的とする。
However, in the case of a configuration in which an instruction for executing some process is input by a combination of an action that changes the line of sight and an action other than changing the line of sight, the user performs these two actions every time the process is executed. It must be made. This can be a burden on the user. On the other hand, in the case of a configuration in which an instruction for executing some processing is performed based on an action of changing the line of sight, the burden on the user can be reduced, but an instruction input unintended by the user is made due to an error in viewpoint detection, etc. There is a possibility.
The present invention has been made in view of the above problems, and an object of the present invention is to improve convenience in a system that allows input by viewpoint and input by operation.

上記の目的を達成するため、入力システムは、利用者の視点を検出する視点検出部と、利用者の操作を検出する操作検出部と、経路探索に関する選択肢を示す第一オブジェクトと、選択された選択肢を用いた経路探索の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部と、視点に基づいて第一オブジェクトが示す選択肢の選択を受け付け、第二オブジェクトに関する操作に基づいて経路探索の実行指示を受け付ける受付部と、を備える。   In order to achieve the above object, the input system has selected a viewpoint detection unit that detects a user's viewpoint, an operation detection unit that detects a user's operation, and a first object that indicates options related to route search. A display control unit for displaying a second object indicating a route search execution instruction using options on the display unit, selection of an option indicated by the first object based on a viewpoint, and an operation related to the second object A reception unit that receives a route search execution instruction.

さらに、上記の目的を達成するため、入力プログラムは、コンピュータを、利用者の視点を検出する視点検出部、利用者の操作を検出する操作検出部、経路探索に関する選択肢を示す第一オブジェクトと、選択された選択肢を用いた経路探索の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部、視点に基づいて第一オブジェクトが示す選択肢の選択を受け付け、第二オブジェクトに関する操作に基づいて経路探索の実行指示を受け付ける受付部、として機能させる。   Furthermore, in order to achieve the above object, the input program includes a computer, a viewpoint detection unit that detects a user's viewpoint, an operation detection unit that detects a user's operation, a first object indicating options related to route search, A display control unit that displays a second object indicating a route search execution instruction using the selected option on the display unit, accepts selection of an option indicated by the first object based on a viewpoint, and performs an operation related to the second object. Based on this, it functions as a reception unit that receives a route search execution instruction.

また、上記の目的を達成するため、入力システムは、利用者の視点を検出する視点検出部と、利用者の操作を検出する操作検出部と、機能に関する選択肢を示す第一オブジェクトと、選択された選択肢を用いた機能の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部と、視点に基づいて第一オブジェクトが示す選択肢の選択を受け付け、第二オブジェクトに関する操作に基づいて機能の実行指示を受け付ける受付部と、を備える。   In order to achieve the above object, the input system is selected from a viewpoint detection unit that detects a user's viewpoint, an operation detection unit that detects a user's operation, and a first object that indicates options related to the function. A display control unit that displays on the display unit a second object indicating a function execution instruction using the selected option, and a selection of the option indicated by the first object based on the viewpoint, and based on an operation related to the second object A reception unit that receives a function execution instruction.

また、上記の目的を達成するため、入力プログラムは、利用者の視点を検出する視点検出部、利用者の操作を検出する操作検出部、機能に関する選択肢を示す第一オブジェクトと、選択された選択肢を用いた機能の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部、視点に基づいて第一オブジェクトが示す選択肢の選択を受け付け、第二オブジェクトに関する操作に基づいて機能の実行指示を受け付ける受付部、として機能させる。   In order to achieve the above object, the input program includes a viewpoint detection unit that detects a user's viewpoint, an operation detection unit that detects a user's operation, a first object indicating a function-related option, and the selected option. A display control unit that displays on the display unit a second object that indicates a function execution instruction using the function, accepts selection of an option indicated by the first object based on the viewpoint, and executes the function based on an operation related to the second object It functions as a reception unit that receives instructions.

視点に基づく指示入力は、利用者にとって簡易である一方で、指示入力の意図なしに利用者が単に視線を対象に移したことや、視点検出の誤差等により利用者の意図しない指示を入力する可能性がある。操作に基づく指示入力は、視点に基づく指示入力と比較すると利用者にとって負担となり得るが、利用者の意図しない指示を入力する可能性は低い。これらの事情をふまえて、入力する指示内容に応じて入力方法を使い分けることで、両者の利点を生かした入力システムを提供することができる。   Although the instruction input based on the viewpoint is simple for the user, the user simply inputs the line of sight to the target without the intention of inputting the instruction, or inputs an instruction not intended by the user due to a viewpoint detection error or the like. there is a possibility. The instruction input based on the operation can be a burden on the user as compared with the instruction input based on the viewpoint, but the possibility of inputting an instruction not intended by the user is low. Based on these circumstances, an input system that takes advantage of both can be provided by properly using input methods according to the contents of instructions to be input.

経路探索を実行させるという目的を達成するための一連の入力作業において、経路探索に関する選択肢の選択を入力する機会は1回以上存在することが想定されるが、経路探索の実行指示を入力する機会は、選択肢を選択し終わった後に1回だけ入力することが想定される。本入力システムおよびプログラムでは、視点に基づいて経路探索に関する選択肢の選択を受け付け、操作に基づいて経路探索の実行指示を受け付ける。上述のように、選択肢の選択の機会は複数回存在しうるが、選択肢の選択は視点に基づいて入力可能であるため(操作による入力を必要としないため)、利用者の負担を低減できる。また、経路探索の実行指示は操作によって入力する必要があるが、その機会は経路探索を実行させるという目的を達成するための一連の入力作業において1回だけである。そのため、選択肢の選択をも操作によって入力する構成と比較すると利用者の操作負担を軽減できる。また、経路探索の実行指示については操作によって入力する構成とすることで、利用者が意図せず実行指示を入力する可能性を低減できる。   In a series of input operations for achieving the purpose of executing the route search, it is assumed that there is an opportunity to input selection of options related to the route search at least once, but an opportunity to input an instruction to execute the route search Is assumed to be input only once after the selection is completed. In this input system and program, selection of options related to the route search is received based on the viewpoint, and an instruction to execute the route search is received based on the operation. As described above, there are multiple choice opportunities, but the choice can be input based on the viewpoint (because it does not require input by operation), so the burden on the user can be reduced. In addition, a route search execution instruction needs to be input by an operation, but the opportunity is only once in a series of input operations for achieving the purpose of executing a route search. Therefore, the operation burden on the user can be reduced as compared with a configuration in which selection of options is also input by operation. In addition, by configuring the route search execution instruction to be input by operation, the possibility that the user unintentionally inputs the execution instruction can be reduced.

経路探索以外の機能についても上記と同様の効果がある。すなわち、当該機能に関する選択肢の選択の機会は複数回存在しうるが、選択肢の選択は視点に基づいて入力可能であるため、利用者の負担を低減できる。また、当該機能の実行指示は操作によって入力する必要があるが、その機会は機能を実行させるという目的を達成するための一連の入力作業において1回だけである。そのため、選択肢の選択をも操作によって入力する構成と比較すると利用者の操作負担を軽減できる。また、機能の実行指示については操作によって入力する構成とすることで、利用者が意図せず実行指示を入力する可能性を低減できる。   The functions other than the route search have the same effects as described above. That is, there may be multiple opportunities for selecting an option related to the function, but the selection of the option can be input based on the viewpoint, so the burden on the user can be reduced. Further, the execution instruction of the function needs to be input by an operation, but the opportunity is only once in a series of input operations for achieving the purpose of executing the function. Therefore, the operation burden on the user can be reduced as compared with a configuration in which selection of options is also input by operation. In addition, the function execution instruction can be input by operation, thereby reducing the possibility that the user inputs the execution instruction unintentionally.

入力システムのブロック図である。It is a block diagram of an input system. 図2A〜図2Eは画面遷移を示す図である。2A to 2E are diagrams showing screen transitions. 入力処理を示すフローチャートである。It is a flowchart which shows an input process.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)入力システムの構成:
(2)入力処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of input system:
(2) Input processing:
(3) Other embodiments:

(1)入力システムの構成:
図1は、本発明の一実施形態である入力システム10の構成を示すブロック図である。入力システム10は、CPU、RAM、ROM等を備える制御部20を備えており、制御部20は、当該ROMや記録媒体30に記録された所望のプログラムを実行することができる。
(1) Configuration of input system:
FIG. 1 is a block diagram showing a configuration of an input system 10 according to an embodiment of the present invention. The input system 10 includes a control unit 20 including a CPU, a RAM, a ROM, and the like, and the control unit 20 can execute a desired program recorded in the ROM or the recording medium 30.

本実施形態において、制御部20は、図示しないナビゲーションプログラムを実行することができる。制御部20は、ナビゲーションプログラムを実行することにより、表示部としてのディスプレイ40に地図を表示し、図示しないGPS信号等に基づいて入力システム10が搭載された車両を指定の目的地まで誘導することができる。また、本実施形態において制御部20は、音楽再生機能等を実現するためのオーディオ制御プログラムや、空調制御機能を実現するための空調制御プログラムや、運転支援機能を実現するための運転支援制御プログラム等、車両が備える各種機能を実現するためのプログラム(いずれも不図示)を実行することができる。   In the present embodiment, the control unit 20 can execute a navigation program (not shown). The control unit 20 displays a map on the display 40 as a display unit by executing the navigation program, and guides the vehicle on which the input system 10 is mounted to a specified destination based on a GPS signal (not shown). Can do. In the present embodiment, the control unit 20 includes an audio control program for realizing a music playback function, an air conditioning control program for realizing an air conditioning control function, and a driving support control program for realizing a driving support function. A program (all not shown) for realizing various functions provided in the vehicle can be executed.

本実施形態においては、以上のような各プログラムで実現される機能に関するユーザインタフェースを提供するため、制御部20は、図示しないROMや記録媒体30等に記録された入力プログラム21を実行する。当該入力プログラム21による処理を実行するため、車両は、ディスプレイ(表示部)40、タッチパッド41および視線検出センサ42を備えている。   In the present embodiment, the control unit 20 executes an input program 21 recorded in a ROM, a recording medium 30 or the like (not shown) in order to provide a user interface related to functions realized by the respective programs as described above. In order to execute processing by the input program 21, the vehicle includes a display (display unit) 40, a touch pad 41, and a line-of-sight detection sensor 42.

ディスプレイ40は、図示しないインタフェースを介して制御部20と接続されており、制御部20は、ディスプレイ40に対して制御信号を出力することにより、任意の座標を指定し、任意の画像をディスプレイ40に表示させることができる。タッチパッド41は、矩形平面の接触検出面を備えた入力デバイスであり、接触検出面に対して検出対象物が接触した位置を検出し、検出位置を示す座標を出力する。制御部20は、当該座標に基づいて接触位置を取得する。   The display 40 is connected to the control unit 20 via an interface (not shown). The control unit 20 outputs a control signal to the display 40 to designate arbitrary coordinates and display an arbitrary image on the display 40. Can be displayed. The touch pad 41 is an input device including a rectangular flat contact detection surface, detects a position where a detection target object is in contact with the contact detection surface, and outputs coordinates indicating the detection position. The control unit 20 acquires the contact position based on the coordinates.

視線検出センサ42は、赤外線出力部と少なくとも2個の赤外線カメラとを備えている。当該赤外線カメラは、運転者の顔を視野に含むように車室内の構造体(例えば、インストルメントパネルの壁面)に取り付けられている。赤外線カメラは、赤外線出力部から出力された赤外線によって撮影された利用者(運転者)の目の像に基づいて、目の位置および利用者の視線方向(ベクトル)を検出し、出力する。制御部20は、当該出力に基づいて、予め定義された3次元空間内で目の位置および視線方向を特定することができる。視線方向は、例えば、両眼のそれぞれにおいて設定された基準点と、眼球の動きに応じて位置が変化する動点とを結ぶ方向として取得され、他にも種々の方式が採用されてよい。また、両眼のそれぞれにおいて特定された視線方向の平均値等によって利用者の視線方向を1方向に特定することができるが、視線方向の特定方法も種々の方法が採用され得る。   The line-of-sight detection sensor 42 includes an infrared output unit and at least two infrared cameras. The infrared camera is attached to a vehicle interior structure (for example, a wall surface of an instrument panel) so as to include the driver's face in the field of view. The infrared camera detects and outputs an eye position and a user's line-of-sight direction (vector) based on an image of a user's (driver's) eye photographed by infrared rays output from the infrared output unit. Based on the output, the control unit 20 can specify the eye position and line-of-sight direction in a predefined three-dimensional space. The line-of-sight direction is acquired as, for example, a direction connecting a reference point set for each eye and a moving point whose position changes according to the movement of the eyeball, and various other methods may be employed. In addition, although the user's line-of-sight direction can be specified in one direction based on the average value of the line-of-sight directions specified in each of both eyes, various methods can be adopted as the method of specifying the line-of-sight direction.

以上の構成において、制御部20は、ディスプレイ40およびタッチパッド41をユーザインタフェースとして利用し、ユーザインタフェース画面を介して利用者による入力を受け付ける。このために入力プログラム21は、視点検出部21aと操作検出部21bと表示制御部21cと受付部21dとを備えている。   In the above configuration, the control unit 20 uses the display 40 and the touch pad 41 as a user interface, and receives input from the user via the user interface screen. For this purpose, the input program 21 includes a viewpoint detection unit 21a, an operation detection unit 21b, a display control unit 21c, and a reception unit 21d.

視点検出部21aは、利用者の視点を検出する機能を制御部20に実現させるプログラムモジュールである。本実施形態においては、視点の検出領域となるディスプレイ40の位置が、車室内空間の位置を既定する3次元座標系によって予め特定されている。制御部20は、視線検出センサ42の出力に基づいて、利用者の目の位置および視線方向を取得し、画面の位置が規定された3次元座標系内で利用者の目の位置および視線方向を特定する。そして、当該目の位置から視線方向に延びる仮想的な線と、ディスプレイ40の表示面との交点を視点として特定する。画面上に視点が存在しない場合、例えば、視点が不定とされてもよいし、他の構造体(例えば、インストルメントパネル等)上に存在すると判定されても良い。   The viewpoint detection unit 21a is a program module that causes the control unit 20 to realize a function of detecting a user's viewpoint. In the present embodiment, the position of the display 40 serving as a viewpoint detection area is specified in advance by a three-dimensional coordinate system that defines the position of the vehicle interior space. The control unit 20 acquires the position and line-of-sight direction of the user's eyes based on the output of the line-of-sight detection sensor 42, and the position and line-of-sight direction of the user's eyes within the three-dimensional coordinate system in which the position of the screen is defined. Is identified. Then, an intersection point between a virtual line extending in the line-of-sight direction from the eye position and the display surface of the display 40 is specified as a viewpoint. When the viewpoint does not exist on the screen, for example, the viewpoint may be indefinite, or may be determined to exist on another structure (for example, an instrument panel or the like).

操作検出部21bは、タッチパッド41に対する利用者の操作を検出する機能を制御部20に実現させるプログラムモジュールである。制御部20は操作検出部21bの処理により、タッチパッド41から出力される信号に基づいて、利用者が接触したタッチパッド41上の座標を取得する。制御部20は、経時的な当該座標の変化に基づいて利用者の操作(タップ操作やスワイプ操作等)を特定する。   The operation detection unit 21 b is a program module that causes the control unit 20 to realize a function of detecting a user operation on the touch pad 41. Based on the signal output from the touch pad 41, the control unit 20 acquires the coordinates on the touch pad 41 touched by the user by the processing of the operation detection unit 21b. The control unit 20 specifies a user operation (such as a tap operation or a swipe operation) based on the change in the coordinates over time.

表示制御部21cは、ディスプレイ40(表示部)にユーザインタフェース画面を表示する機能を制御部20に実現させるプログラムモジュールである。ユーザインタフェース画面を構成するオブジェクトを描画するための画像情報(地図描画情報やアイコン描画情報等)は予め表示情報30aとして記録媒体30に記録されている。制御部20がナビゲーションプログラムを実行すると、制御部20は表示情報30aを参照して地図等を含むユーザインタフェース画面をRAMに描画する(記録する)。制御部20は、表示制御部21cの処理により、当該描画されたユーザインタフェース画面の情報を取得し、当該ユーザインタフェース画面を表示するための制御信号をディスプレイ40に対して出力する。この結果、ナビゲーションプログラムを含む各プログラムにおけるユーザインタフェース画面がディスプレイ40に表示される。   The display control unit 21c is a program module that causes the control unit 20 to realize a function of displaying a user interface screen on the display 40 (display unit). Image information (map drawing information, icon drawing information, etc.) for drawing an object constituting the user interface screen is recorded in advance on the recording medium 30 as display information 30a. When the control unit 20 executes the navigation program, the control unit 20 draws (records) a user interface screen including a map or the like on the RAM with reference to the display information 30a. The control unit 20 acquires information on the drawn user interface screen by the processing of the display control unit 21c, and outputs a control signal for displaying the user interface screen to the display 40. As a result, the user interface screen in each program including the navigation program is displayed on the display 40.

表示制御部21cは、ナビゲーションプログラムと連携して、経路探索に関する選択肢を示す第一オブジェクトをディスプレイ40に表示させる機能と、選択された選択肢を用いた経路探索の実行指示を示す第二オブジェクトをディスプレイ40に表示させる機能とを制御部20に実現させる。本実施形態において、第一オブジェクトは、経路探索に用いるパラメータを直接的または間接的に入力するために表示されるオブジェクトである。第二オブジェクトは、経路探索の実行指示を入力するために表示されるオブジェクトである。   The display control unit 21c displays a first object indicating a route search option on the display 40 in cooperation with the navigation program and a second object indicating a route search execution instruction using the selected option. A function to be displayed on the control unit 20 is realized by the control unit 20. In this embodiment, a 1st object is an object displayed in order to input the parameter used for a route search directly or indirectly. The second object is an object displayed for inputting a route search execution instruction.

受付部21dは、視点に基づいて第一オブジェクトが示す選択肢の選択を受け付ける機能と、第二オブジェクトに関する操作に基づいて経路探索の実行指示を受け付ける機能とを制御部20に実現させるプログラムモジュールである。受付部21dにより、利用者は、表示された複数の第一オブジェクトのうちいずれかの第一オブジェクトに視線を位置させることにより、当該第一オブジェクトを選択し、当該第一オブジェクトが示す選択肢を入力することができる。また受付部21dにより、利用者は、第二オブジェクトを対象として操作を行うことにより、経路探索の実行指示を入力することができる。   The accepting unit 21d is a program module that causes the control unit 20 to realize a function of accepting selection of an option indicated by the first object based on a viewpoint and a function of accepting a route search execution instruction based on an operation related to the second object. . The receiving unit 21d allows the user to select the first object by positioning the line of sight on any one of the displayed first objects, and input an option indicated by the first object can do. Further, the reception unit 21d allows the user to input a route search execution instruction by performing an operation on the second object.

なお、操作検出部21bによってスワイプ操作が検出されると、制御部20は受付部21dおよび表示制御部21cの処理により、タッチパッド41への接触座標が変化した方向および距離に応じてカーソルの位置を移動させる。カーソルは、仮選択中のオブジェクトを示す図形である。また、操作検出部21bによってタップ操作が検出されると、制御部20は受付部21dの処理により仮選択中のオブジェクトの選択を受け付け、当該オブジェクトの選択に対応付けられた処理を実行する。   When the swipe operation is detected by the operation detection unit 21b, the control unit 20 performs the processing of the reception unit 21d and the display control unit 21c to determine the position of the cursor according to the direction and distance in which the touch coordinates to the touch pad 41 are changed. Move. The cursor is a figure indicating the temporarily selected object. Further, when a tap operation is detected by the operation detection unit 21b, the control unit 20 receives the selection of the temporarily selected object by the process of the reception unit 21d, and executes a process associated with the selection of the object.

また、視点検出部21aによって検出された視点が仮選択中でないオブジェクトに第一時間以上存在した場合、制御部20は受付部21dおよび表示制御部21cの処理によりカーソルを当該オブジェクトに移動させる。また視点検出部21aによって検出された視点が仮選択中の第一オブジェクトに第二時間以上存在した場合、制御部20は受付部21dの処理により仮選択中の第一オブジェクトの選択を受け付け、当該第一オブジェクトの選択に対応付けられた処理を実行する。なお第一オブジェクト以外のオブジェクトに視点が第二時間以上存在しても、制御部20は受付部21dの処理により当該オブジェクトの選択を受け付けない。   When the viewpoint detected by the viewpoint detection unit 21a exists in an object that is not temporarily selected for the first time or more, the control unit 20 moves the cursor to the object by the processing of the reception unit 21d and the display control unit 21c. When the viewpoint detected by the viewpoint detection unit 21a exists in the temporarily selected first object for the second time or more, the control unit 20 receives the selection of the first object being temporarily selected by the processing of the receiving unit 21d, A process associated with the selection of the first object is executed. Note that even when the viewpoint other than the first object exists for the second time or longer, the control unit 20 does not accept the selection of the object by the processing of the accepting unit 21d.

図2は、表示制御部21cの処理によってディスプレイ40に表示されるユーザインタフェース画面の画面遷移図である。図2Aは、ナビゲーションプログラム実行時の基本画面を示している。当該基本画面には、地図Mとボタンb1〜b6とメータm1、m2が表示されている。再生曲ボタンb1は音楽再生機能(音楽再生という目的を達成するための種々の処理によって実現される)に関するユーザインタフェース画面を表示するためのオブジェクトである。   FIG. 2 is a screen transition diagram of the user interface screen displayed on the display 40 by the processing of the display control unit 21c. FIG. 2A shows a basic screen when the navigation program is executed. On the basic screen, a map M, buttons b1 to b6, and meters m1 and m2 are displayed. The playback song button b1 is an object for displaying a user interface screen related to a music playback function (implemented by various processes for achieving the purpose of music playback).

目的地ボタンb2は、経路探索機能(目的地までの経路を探索するという目的を達成するための処理によって実現される)に関するユーザインタフェース画面を表示するためのオブジェクトである。空調ボタンb3は空調機能(車室内の空気を調整するという目的を達成するための処理によって実現される)に関するユーザインタフェース画面を表示するためのオブジェクトである。   The destination button b2 is an object for displaying a user interface screen related to a route search function (implemented by processing for achieving the purpose of searching for a route to the destination). The air conditioning button b3 is an object for displaying a user interface screen related to an air conditioning function (realized by a process for achieving the purpose of adjusting the air in the passenger compartment).

運転支援ボタンb4は、運転支援機能(自動運転など運転を支援するという目的を達成するための処理によって実現される)に関するユーザインタフェース画面を表示するためのオブジェクトである。省エネルギーボタンb5は、省エネルギー機能(省エネルギーという目的を達成するための種々の処理によって実現される)に関するユーザインタフェース画面を表示するためのオブジェクトである。携帯端末ボタンb6は、携帯端末連携機能(スマートフォン等の携帯端末を、入力システム10を介して操作するという目的を達成するための種々の処理によって実現される)に関するユーザインタフェース画面を表示するためのオブジェクトである。   The driving support button b4 is an object for displaying a user interface screen related to a driving support function (implemented by a process for achieving the purpose of supporting driving such as automatic driving). The energy saving button b5 is an object for displaying a user interface screen related to an energy saving function (implemented by various processes for achieving the purpose of energy saving). The portable terminal button b6 is for displaying a user interface screen related to a portable terminal cooperation function (realized by various processes for achieving the purpose of operating a portable terminal such as a smartphone via the input system 10). It is an object.

メータm1、m2は、車両の状態を種々の尺度で表すオブジェクトである。例えばメータm1はタコメータを示すオブジェクトであり、メータm2はスピードメータを示すオブジェクトである。   Meters m1 and m2 are objects that represent the state of the vehicle on various scales. For example, the meter m1 is an object indicating a tachometer, and the meter m2 is an object indicating a speedometer.

ボタンb1〜b6は、視点による選択が可能なオブジェクトとして定義されている。視点によって選択可能なボタンであってカーソルが表示されていないボタン(仮選択中でないボタン)に視点が連続して第一時間存在する場合、制御部20は当該ボタンにカーソルを移動させ当該ボタンが仮選択中であることを示す。また制御部20は、視点によって選択可能なボタンであってカーソルが表示されているボタン(仮選択中のボタン)に視点が連続して第二時間以上存在する場合、当該ボタンの選択を受け付け、当該ボタンに対応付けられた処理を実行する。   The buttons b1 to b6 are defined as objects that can be selected from the viewpoint. When the viewpoint is continuously present for a first time on a button that can be selected depending on the viewpoint and the cursor is not displayed (a button that is not temporarily selected), the control unit 20 moves the cursor to the button and the button is moved to the button. Indicates that provisional selection is in progress. In addition, the control unit 20 accepts selection of the button when the viewpoint is continuously present for the second time or more on the button (provisionally selected button) that is selectable according to the viewpoint and on which the cursor is displayed, The process associated with the button is executed.

具体的には、ボタンb1〜b6のいずれかが選択された場合、制御部20は選択されたボタンに対応する機能のユーザインタフェース画面を表示する。なお、カーソルがいずれかのボタンに表示されている状態でタッチパッド41に対してタップ操作がなされたことを検出した場合、制御部20は当該ボタンの選択を受け付け、上記と同様に当該ボタンの選択時に対応付けられた処理を実行する。図2Aでは目的地ボタンb2にカーソルCが表示されていることを示している。   Specifically, when any of the buttons b1 to b6 is selected, the control unit 20 displays a user interface screen of a function corresponding to the selected button. If the control unit 20 detects that a tap operation has been performed on the touch pad 41 while the cursor is displayed on any button, the control unit 20 accepts the selection of the button, and similarly to the above, The process associated with the selection is executed. FIG. 2A shows that the cursor C is displayed on the destination button b2.

図2Bは、図2Aに示す基本画面がディスプレイ40に表示されている状態で目的地ボタンb2が選択された場合に表示される経路探索機能に関するユーザインタフェース画面を示している。図2Bに示すポップアップ画面P1には、目的地入力を支援するための選択肢を示すオブジェクトとして自宅ボタンb7、履歴ボタンb8が表示制御部21cの処理によって表示される。なお、当該入力支援の選択肢を示すオブジェクトとして、自宅ボタンb7や履歴ボタンb8の他にも例えば施設ジャンルボタンや、50音ボタン、Web検索ボタン等が含まれていてももちろんよい。図2Bに示すポップアップ画面P1の自宅ボタンb7、履歴ボタンb8は視点に基づいて選択が可能な選択肢を示すオブジェクトであり、第一オブジェクトに相当する。第一オブジェクトである自宅ボタンb7や履歴ボタンb8は、表示制御部21cの処理によって第一の色(例えば赤色)で表示される。   FIG. 2B shows a user interface screen related to the route search function displayed when the destination button b2 is selected while the basic screen shown in FIG. 2A is displayed on the display 40. On the pop-up screen P1 shown in FIG. 2B, a home button b7 and a history button b8 are displayed by the processing of the display control unit 21c as objects indicating options for supporting destination input. Of course, the object indicating the input support option may include, for example, a facility genre button, a 50 sound button, a Web search button, and the like in addition to the home button b7 and the history button b8. The home button b7 and the history button b8 on the pop-up screen P1 shown in FIG. 2B are objects indicating options that can be selected based on the viewpoint, and correspond to the first object. The home button b7 and the history button b8 that are the first objects are displayed in a first color (for example, red) by the processing of the display control unit 21c.

図2Bにおいて、カーソルが表示されていないボタン(仮選択中でないボタン)に視点が連続して第一時間存在する場合、制御部20は当該ボタンにカーソルを移動させ当該ボタンが仮選択中であることを示す。また制御部20は、カーソルが表示されているボタン(仮選択中のボタン)に視点が連続して第二時間以上存在する場合、受付部21dの処理によって当該ボタンの選択を受け付け、当該ボタンの選択時に対応付けられた処理を実行する。なお図2Bは、カーソルCが自宅ボタンb7に表示されていることを示している。   In FIG. 2B, when the viewpoint is continuously present for a first time on a button for which the cursor is not displayed (button that is not temporarily selected), the control unit 20 moves the cursor to the button and the button is temporarily selected. It shows that. In addition, when the viewpoint is continuously present for the second time or longer on the button (provisionally selected button) on which the cursor is displayed, the control unit 20 receives selection of the button by the processing of the receiving unit 21d, The process associated with the selection is executed. FIG. 2B shows that the cursor C is displayed on the home button b7.

図2Cは、図2Bに示すポップアップ画面P1が基本画面上に表示されている状態で、自宅ボタンb7が選択された場合に表示される画面を示している。具体的には、図2Bのポップアップ画面P1に示すように自宅ボタンb7が仮選択中である状態で自宅ボタンb7に視点が連続して第二時間以上存在した場合に選択される。図2Cに示す画面では表示制御部21cの処理によって、ポップアップ画面P1内に実行指示ボタンb9と目的地周辺地図Mdとが表示される。実行指示ボタンb9は、目的地を自宅に設定して経路探索を実行することを指示するためのオブジェクトである。実行指示ボタンb9は、タッチパッド41に対する操作によって実行指示が入力可能なオブジェクトであり、第二オブジェクトに相当する。実行指示ボタンb9は第二オブジェクトに相当するため、視点による入力は無効に設定されている。   FIG. 2C shows a screen displayed when the home button b7 is selected in a state where the pop-up screen P1 shown in FIG. 2B is displayed on the basic screen. Specifically, as shown in the pop-up screen P1 of FIG. 2B, this is selected when the home button b7 is temporarily selected and the home button b7 has a viewpoint continuously for the second time or longer. In the screen shown in FIG. 2C, the execution instruction button b9 and the destination vicinity map Md are displayed in the pop-up screen P1 by the processing of the display control unit 21c. The execution instruction button b9 is an object for instructing to execute a route search by setting the destination as home. The execution instruction button b9 is an object to which an execution instruction can be input by an operation on the touch pad 41, and corresponds to a second object. Since the execution instruction button b9 corresponds to the second object, the input based on the viewpoint is set to be invalid.

第二オブジェクトである実行指示ボタンb9は表示制御部21cの処理によって、第一オブジェクトである自宅ボタンb7や履歴ボタンb8とは異なる第二の色(例えば青色)で表示される。第一オブジェクトと第二オブジェクトとを互いに異なる色で表示することにより、有効な入力方法が第一オブジェクトと第二オブジェクトとで異なることを利用者に認識させることができる。なお、図2Cは実行指示ボタンb9にカーソルCが表示されていることを示している。   The execution instruction button b9 that is the second object is displayed in a second color (for example, blue) that is different from the home button b7 and the history button b8 that are the first objects by the processing of the display control unit 21c. By displaying the first object and the second object in different colors, the user can recognize that the effective input method is different between the first object and the second object. FIG. 2C shows that the cursor C is displayed on the execution instruction button b9.

なお、図2Bに示す自宅ボタンb7が選択された場合はただちに図2Cに示す実行指示ボタンb9が表示されるが、例えば図2Bにおいて自宅ボタンb7ではなく履歴ボタンb8が選択された場合は、目的地履歴のリストが提示される。当該リストに含まれる各地点を示すボタンはそれぞれ、視点によって選択可能な第一オブジェクトに相当する。そして当該リスト内の一つの地点が選択された場合に、図2Cに示すような実行指示ボタンが表示される。また、施設ジャンルボタンが選択された場合も、50音ボタンが選択された場合も、図2Bに示す画面以降、図2Cに示すような実行指示ボタン選択の前までの間に、目的地設定のための選択肢の選択作業は複数回存在しうる。   When the home button b7 shown in FIG. 2B is selected, the execution instruction button b9 shown in FIG. 2C is displayed immediately. For example, when the history button b8 is selected instead of the home button b7 in FIG. A list of location history is presented. Each button indicating each point included in the list corresponds to a first object that can be selected depending on the viewpoint. When one point in the list is selected, an execution instruction button as shown in FIG. 2C is displayed. Whether the facility genre button is selected or the 50 sound button is selected, the destination setting is performed after the screen shown in FIG. 2B and before the execution instruction button is selected as shown in FIG. 2C. There may be multiple selection operations for the selection.

図2Cに示すポップアップ画面P1が表示され、カーソルCが実行指示ボタンb9に表示されている状態で、利用者がタッチパッド41に対してタップ操作を行った場合、受付部21dの処理によって、利用者は目的地への経路探索の実行指示を入力することができる。実行指示が入力されると、目的地への経路探索処理が実行される。図2Dは、実行指示を受け付けてから経路探索処理が完了するまでの間に表示される画面である。図2Dに示す画面は探索処理中であることを示している。図2Eは経路探索処理が完了した場合に表示される画面であって、探索の結果取得した経路を利用者に提示する画面である。   When the user performs a tap operation on the touch pad 41 in a state where the pop-up screen P1 shown in FIG. 2C is displayed and the cursor C is displayed on the execution instruction button b9, the use is performed by the processing of the reception unit 21d. The person can input an instruction to execute a route search to the destination. When the execution instruction is input, a route search process to the destination is executed. FIG. 2D is a screen displayed from when the execution instruction is received until the route search process is completed. The screen shown in FIG. 2D indicates that the search process is being performed. FIG. 2E is a screen that is displayed when the route search process is completed, and is a screen that presents the route acquired as a result of the search to the user.

なお、図2Bに示す画面(目的地入力のための選択肢を表示する状態)、および、図2Cに示す画面(図2Bに示す状態にて自宅ボタンb7を選択後、実行指示ボタンb9選択前の状態)においては、第一オブジェクト(視点に基づいて選択可能なオブジェクト)である戻るボタンbbが表示される。図2Bに示す画面の戻るボタンbbは、図2Bに示す経路探索機能のポップアップ画面P1の表示をキャンセルし、図2Aに示す基本画面に戻すためのオブジェクトである。図2Cに示す画面の戻るボタンbbは、自宅ボタンb7の選択をキャンセルするとともに、図2Cに示すポップアップ画面P1の表示を図2Bに示すポップアップ画面P1の表示に戻すためのオブジェクトである。図2Bに示すポップアップ画面P1に戻ると、目的地入力のための選択肢を再選択可能な状態となる。したがって仮に利用者が意図しない選択肢を誤って選択してしまった場合も、利用者は意図通りの選択肢を容易に選択しなおすことができる。   In addition, after selecting the home button b7 in the screen shown in FIG. 2B (displaying options for destination input) and the screen shown in FIG. 2C (in the state shown in FIG. 2B, before selecting the execution instruction button b9) In the state), the return button bb, which is the first object (an object that can be selected based on the viewpoint), is displayed. The return button bb on the screen shown in FIG. 2B is an object for canceling the display of the pop-up screen P1 of the route search function shown in FIG. 2B and returning to the basic screen shown in FIG. 2A. The return button bb on the screen shown in FIG. 2C is an object for canceling the selection of the home button b7 and returning the display of the pop-up screen P1 shown in FIG. 2C to the display of the pop-up screen P1 shown in FIG. 2B. Returning to the pop-up screen P1 shown in FIG. 2B, the option for destination input can be reselected. Therefore, even if an option that is not intended by the user is selected by mistake, the user can easily select the option as intended.

なお制御部20は、経路探索の実行指示後は、経路探索処理が完了するまで少なくともキャンセル指示は受け付けない。経路探索処理が完了すると、目的地としてそれまで設定されていた地点が新たに利用者に選択された地点に更新される。したがって仮に、利用者が目的地を誤って選択した状態で、選択肢の再選択を行う前に意図せず経路探索の実行指示を入力してしまった場合、利用者は再度、目的地ボタンb2の選択から始まる上述した一連の入力作業を行う必要がある。しかし、経路選択の実行指示は操作によって入力される構成であるため、視線によって入力される構成と比較すると、意図せず実行指示を入力してしまう可能性が低い。   Note that after the route search execution instruction, the control unit 20 does not accept at least a cancel instruction until the route search process is completed. When the route search process is completed, the point set as the destination so far is updated to the point newly selected by the user. Therefore, if the user accidentally selects a destination and accidentally inputs a route search execution instruction before reselecting the option, the user again presses the destination button b2. It is necessary to perform the above-described series of input operations starting from selection. However, since the route selection execution instruction is input by an operation, it is less likely to input the execution instruction unintentionally than the configuration input by line of sight.

(2)入力処理:
次に、制御部20が実行する入力処理を、図3を参照しながら説明する。入力処理は、ディスプレイ40にユーザインタフェース画面を表示する期間中、制御部20によって繰り返し実行される。入力処理が開始されると、制御部20は視点検出部21aの処理により、利用者の視点を検出する(ステップS100)。すなわち、制御部20はディスプレイ40の画面内において視点が位置する座標を取得する。
(2) Input processing:
Next, input processing executed by the control unit 20 will be described with reference to FIG. The input process is repeatedly executed by the control unit 20 during a period in which the user interface screen is displayed on the display 40. When the input process is started, the control unit 20 detects the user's viewpoint by the process of the viewpoint detection unit 21a (step S100). That is, the control unit 20 acquires the coordinates where the viewpoint is located in the screen of the display 40.

続いて制御部20は表示制御部21cの処理により、カーソルを描画する(ステップS105)。例えば制御部20は、選択可能なオブジェクト(例:ボタン)であってカーソルが表示されていないオブジェクトに視点が連続して第一時間以上存在した場合、当該オブジェクトにカーソルを表示する。視点の存在する位置に選択可能なオブジェクトが表示されていない場合は、例えば、予め決められたオブジェクトや、同画面において直前までカーソルが表示されていたオブジェクトにカーソルを表示させるようにしてもよい。あるいは、視点の存在する位置に選択可能なオブジェクトが表示されていない場合は、カーソルを表示しなくてもよい。   Subsequently, the control unit 20 draws a cursor by the processing of the display control unit 21c (step S105). For example, the control unit 20 displays a cursor on an object that is a selectable object (eg, a button) and the cursor is not displayed when the viewpoint is continuously present for the first time or longer. When a selectable object is not displayed at the position where the viewpoint exists, the cursor may be displayed on, for example, a predetermined object or an object on which the cursor has been displayed immediately before on the same screen. Alternatively, when no selectable object is displayed at the position where the viewpoint exists, the cursor need not be displayed.

続いて制御部20は操作検出部21bの処理により、タッチパッド41に対する操作の有無を判定する(ステップS110)。タップ操作やスワイプ操作等の操作が検出された場合はY判定となり、それらの操作が検出されなかった場合はN判定となる。   Subsequently, the control unit 20 determines whether or not there is an operation on the touch pad 41 by the process of the operation detection unit 21b (step S110). If an operation such as a tap operation or a swipe operation is detected, the determination is Y, and if the operation is not detected, the determination is N.

ステップS110において操作有りと判定されなかった場合(N判定の場合)、制御部20は視点検出部21aの処理により、視点は固着しているか否かを判定する(ステップS115)。例えば、カーソルが表示されたオブジェクトの表示領域に視点が連続して第二時間以上存在するか否かを制御部20は判定する。視点が固着していないと判定した場合、すなわちステップS115においてN判定の場合、入力処理を終了する。   When it is not determined that there is an operation in step S110 (in the case of N determination), the control unit 20 determines whether or not the viewpoint is fixed by the processing of the viewpoint detection unit 21a (step S115). For example, the control unit 20 determines whether or not the viewpoint continuously exists in the display area of the object on which the cursor is displayed for the second time or longer. If it is determined that the viewpoint is not fixed, that is, if N is determined in step S115, the input process is terminated.

ステップS115において視点が固着していると判定された場合、制御部20は受付部21dの処理により、視点が存在する位置に第一オブジェクトが表示されているか否かを判定する(ステップS120)。ステップS120において、視点が存在する位置に第一オブジェクトが表示されていると判定された場合、制御部20は受付部21dの処理により、当該第一オブジェクトが示す選択肢の選択に対応する処理を実行する(ステップS125)。例えば、図2Bにおいて自宅ボタンb7に視点が固着している場合、ステップS125ではY判定となり、制御部20は図2Cに示す画面を表示し、自宅への経路探索の実行指示の入力を利用者に促す。   When it is determined in step S115 that the viewpoint is fixed, the control unit 20 determines whether or not the first object is displayed at the position where the viewpoint exists by the processing of the reception unit 21d (step S120). In step S120, when it is determined that the first object is displayed at the position where the viewpoint exists, the control unit 20 performs processing corresponding to selection of the option indicated by the first object by the processing of the receiving unit 21d. (Step S125). For example, if the viewpoint is fixed to the home button b7 in FIG. 2B, the determination in step S125 is Y, and the control unit 20 displays the screen shown in FIG. 2C and inputs the instruction to execute the route search to the home. Prompt.

ステップS120において、視点が存在する位置に第一オブジェクトが表示されていると判定されない場合、すなわち視点が第一オブジェクト以外にあると判定される場合、制御部20は入力処理を終了する。したがって例えば、図2Cにおける実行指示ボタンb9に視点が固着している場合、実行指示ボタンb9は第二オブジェクトであるため、制御部20は視点による実行指示ボタンb9の選択は受け付けない。   In Step S120, when it is not determined that the first object is displayed at the position where the viewpoint exists, that is, when it is determined that the viewpoint is other than the first object, the control unit 20 ends the input process. Therefore, for example, when the viewpoint is fixed to the execution instruction button b9 in FIG. 2C, the execution instruction button b9 is the second object, and therefore the control unit 20 does not accept selection of the execution instruction button b9 based on the viewpoint.

ステップS110において、タッチパッド41に対する操作が有りと判定された場合、制御部20は受付部21dの処理により、カーソル位置(または視点位置)に対応付けられた処理であって、タッチパッド41に対する操作の種類に対応する処理を実行する(ステップS130)。具体的には例えば、図2Cに示すようにカーソルCが第二オブジェクトである実行指示ボタンb9に表示されている状態で、ステップS110においてタップ操作がなされたと判定された場合、ステップS130において制御部20は実行指示ボタンb9の選択を受け付け、自宅を目的地とした経路探索処理を開始する。なお、図2Bに示すように第一オブジェクトである自宅ボタンb7にカーソルCが表示されている状態で、ステップS110においてタップ操作有りと判定された場合、ステップS130において制御部20は自宅ボタンb7の選択を受け付け、図2Cに示す画面を表示してもよい。また例えば、図2Aに示す画面が表示されている状態で、視点が地図Mに位置している場合であってステップS110においてスワイプ操作がなされたと判定された場合、ステップS130において制御部20は地図Mをスワイプ操作に応じてスクロール表示させる。   If it is determined in step S110 that there is an operation on the touch pad 41, the control unit 20 is a process associated with the cursor position (or viewpoint position) by the process of the receiving unit 21d, and the operation on the touch pad 41 is performed. The process corresponding to the type of is executed (step S130). Specifically, for example, when it is determined in step S110 that the tap operation has been performed in a state where the cursor C is displayed on the execution instruction button b9 that is the second object as illustrated in FIG. 2C, in step S130, the control unit 20 accepts the selection of the execution instruction button b9 and starts a route search process with the home as the destination. If it is determined in step S110 that there is a tap operation in the state where the cursor C is displayed on the home button b7 that is the first object as shown in FIG. 2B, in step S130, the control unit 20 sets the home button b7. The selection may be accepted and the screen shown in FIG. 2C may be displayed. Further, for example, when the screen shown in FIG. 2A is displayed and the viewpoint is located on the map M, and it is determined in step S110 that the swipe operation has been performed, in step S130, the control unit 20 displays the map. M is scrolled in response to the swipe operation.

このように、経路選択に関する選択肢の選択作業は、図2を用いて説明したように目的地ボタンb2の選択以降、複数回存在しうるが、第一オブジェクトであるボタンは視点によって選択可能であるため、利用者の負担となりにくい。また、第一オブジェクトであるボタンを仮に誤選択した場合であっても、戻るボタンbbによって容易に再選択が可能である。また、目的地設定および経路探索の最終的な実行指示は第二オブジェクトである実行指示ボタンb9を指定した状態でのタッチパッド41に対する操作によって入力することができる。また、タッチパッド41に対する操作によって経路探索の実行指示を入力する構成であるため、利用者が意図せず実行指示を入力する(実行指示を誤入力する)可能性を低減できる。仮に実行指示を誤入力してしまった場合は目的地選択を最初からやりなおす必要があるが、本入力システムによると実行指示を誤入力しにくい構成であるため、利用者に煩わしさを感じさせにくい。   As described above, as described with reference to FIG. 2, the selection operation for selecting a route may exist a plurality of times after the selection of the destination button b2, but the button as the first object can be selected depending on the viewpoint. Therefore, it is difficult for the user to be burdened. Even if the button as the first object is erroneously selected, it can be easily reselected by the return button bb. The final execution instruction for destination setting and route search can be input by an operation on the touch pad 41 in a state where the execution instruction button b9 which is the second object is designated. Further, since the route search execution instruction is input by an operation on the touch pad 41, it is possible to reduce the possibility that the user unintentionally inputs the execution instruction (the execution instruction is erroneously input). If the execution instruction is entered incorrectly, it is necessary to re-select the destination from the beginning. However, according to this input system, it is difficult to input the execution instruction, so it is difficult for the user to feel bothered. .

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、機能に関する選択肢の選択を視点に基づいて受け付け、機能の実行指示を操作に基づいて受け付ける限りにおいて、他にも種々の実施形態を採用可能である。例えば、入力システム10は、各種のシステム、汎用コンピュータシステムに適用されていても良い。また、入力システム10は、複数の装置(例えば、クライアントとサーバ)によって実現されるシステムであっても良い。入力システム10は車両に搭載される構成に限定されない。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and various other embodiments are adopted as long as selection of a function-related option is accepted based on a viewpoint and a function execution instruction is accepted based on an operation. Is possible. For example, the input system 10 may be applied to various systems and general-purpose computer systems. The input system 10 may be a system realized by a plurality of devices (for example, a client and a server). The input system 10 is not limited to the configuration mounted on the vehicle.

さらに、入力システム10を構成する視点検出部21a、操作検出部21b、表示制御部21c、受付部21dの少なくとも一部が複数の装置に分かれて存在していても良い。例えば、操作検出部21bが、タッチパッド41内の制御部で実現されても良いし、視点検出部21aが視線検出センサ42内の制御部で実現されても良い。むろん、上述の実施形態の一部の構成が省略されてもよいし、処理の順序が変動または省略されてもよい。   Furthermore, at least a part of the viewpoint detection unit 21a, the operation detection unit 21b, the display control unit 21c, and the reception unit 21d configuring the input system 10 may be divided into a plurality of devices. For example, the operation detection unit 21b may be realized by a control unit in the touch pad 41, or the viewpoint detection unit 21a may be realized by a control unit in the line-of-sight detection sensor 42. Of course, a part of the configuration of the above-described embodiment may be omitted, and the processing order may be changed or omitted.

視点検出部は、利用者の視点を検出することができればよく、種々の構成を採用可能である。例えば、上述の実施形態のように、利用者の目を撮影するカメラの出力に基づいて利用者の目の動作を特定することにより視線を特定し、視線と予め特定されたディスプレイ画面との交点を始点と見なす構成等を採用可能である。検出対象となる目は1個であっても良いし、2個であっても良いが、精度を高めるためには検出対象の目は2個であることが好ましい。2個の目の視線が特定された場合における視点は、各目の視線に基づいて特定された各視点から統計的に特定されても良いし、利き目によるバイアスに基づいて視点が特定されても良い。さらに、視点は、少なくとも、利用者が視認している表示領域上で特定されれば良い。   The viewpoint detection unit only needs to be able to detect the viewpoint of the user, and various configurations can be employed. For example, as in the above-described embodiment, the line of sight is specified by specifying the movement of the user's eyes based on the output of the camera that captures the user's eyes, and the intersection of the line of sight and the previously specified display screen It is possible to adopt a configuration that regards as a starting point. The number of eyes to be detected may be one or two, but in order to improve accuracy, it is preferable that the number of eyes to be detected is two. The viewpoint when the eyes of two eyes are specified may be statistically specified from each viewpoint specified based on the eyes of each eye, or the viewpoint is specified based on the bias by the dominant eye. Also good. Furthermore, the viewpoint may be specified at least on the display area that the user is viewing.

操作検出部は、利用者の操作を検出することができればよく、種々の構成を採用可能である。例えば上記実施形態のように、タッチパッドに対する利用者の接触操作(例:シングルタップ、ダブルタップ、スワイプ、ピンチイン、ピンチアウト等)を検出する構成を採用してもよい。タッチパッドとは別の入力機器(例:ボタン、スイッチ、マウス等)が採用されてもよい。利用者の操作は、利用者が装置を操る動作であり、利用者の体が物理的に装置に接触することによって行われる構成を採用可能である。この場合利用者の操作は、利用者の手によって行われることに限定されず、手以外の体の部位によって行われても良い。なお、利用者の体が物理的に接触する動作以外にも、利用者の体を装置に接近させる動作(近接センサを用いて利用者の体が装置に接近したことを検出)等を検出する構成を採用してもよい。   The operation detection unit only needs to be able to detect the user's operation, and various configurations can be employed. For example, as in the above-described embodiment, a configuration for detecting a user's contact operation (eg, single tap, double tap, swipe, pinch in, pinch out, etc.) with respect to the touch pad may be employed. An input device (eg, a button, a switch, a mouse, etc.) other than the touch pad may be employed. The user's operation is an operation in which the user operates the apparatus, and it is possible to adopt a configuration that is performed when the user's body physically contacts the apparatus. In this case, the user's operation is not limited to being performed by the user's hand, and may be performed by a body part other than the hand. In addition to the physical contact of the user's body, an operation of making the user's body approach the device (detecting the proximity of the user's body to the device using a proximity sensor) is detected. A configuration may be adopted.

表示制御部は、経路探索に関する選択肢を示す第一オブジェクトと、選択された選択肢を用いた経路探索の実行指示を示す第二オブジェクトと、を表示部に表示させることができればよく、種々の構成を採用可能である。例えば、第一オブジェクトと第二オブジェクトとは、両方が同一時点において表示部に表示される構成であってもよいし、一方が表示されている時点において他方は表示されていなくてもよい。上記実施形態のように遷移していく複数の画面のうちの異なる画面に第一オブジェクトと第二オブジェクトがそれぞれ含まれる構成は後者の例である。   The display control unit only needs to be able to display on the display unit a first object indicating options for route search and a second object indicating a route search execution instruction using the selected option. It can be adopted. For example, the first object and the second object may both be displayed on the display unit at the same time, or the other may not be displayed when one is displayed. The configuration in which the first object and the second object are respectively included in different screens among the plurality of screens that transition as in the above embodiment is the latter example.

経路探索に関する選択肢は、経路探索処理の内容を利用者が選択するために提示され、例えば、経路探索処理の内容を規定するパラメータが選択可能に提示されると、提示された情報が選択肢である。選択肢には、パラメータそのものが該当することはもちろんであるが、最終的にパラメータを選択する過程で提示されるパラメータのグループも該当する。当該グループは、パラメータをカテゴリ別に分けたグループであり、階層的に定義されていてもよい。上記実施形態では経路探索に関する選択肢の例として目的地設定のための選択肢(自宅、履歴、施設ジャンル、50音、Web検索等)を例に挙げた。「自宅」は経路探索のパラメータの一つである目的地に直接該当する。「履歴」、「施設ジャンル」、「50音」はパラメータのグループに該当する。「Web検索」は経路探索のパラメータの一つである目的地の候補をWeb検索によって列挙させる機能を実行させるための選択肢である。経路選択の選択肢としては他にも例えば、探索条件に関する選択肢(距離優先、一般道優先等)も想定してよい。   The options related to the route search are presented for the user to select the content of the route search processing. For example, when a parameter that defines the content of the route search processing is presented to be selectable, the presented information is an option. . Of course, the parameter corresponds to the parameter itself, but also a group of parameters presented in the process of finally selecting the parameter. The group is a group in which parameters are classified by category, and may be defined hierarchically. In the above-described embodiment, the options for destination setting (home, history, facility genre, 50 sounds, Web search, etc.) are given as examples of the options for route search. “Home” directly corresponds to the destination which is one of the parameters of the route search. “History”, “facility genre”, and “50 sounds” correspond to parameter groups. “Web search” is an option for executing a function of enumerating destination candidates as one of route search parameters by Web search. As other route selection options, for example, options related to search conditions (distance priority, general road priority, etc.) may be assumed.

受付部は、視点に基づいて第一オブジェクトが示す選択肢の選択を受け付けることができればよく、種々の構成を採用可能である。例えば第一オブジェクトの視点受け付け領域として定義される画面内の領域に視点が既定時間以上存在する場合に、第一オブジェクトの選択が受け付けられても良い。当該受け付け領域は、第一オブジェクトを含み第一オブジェクトより大きく設定されていてもよいし、第一オブジェクト内の一部に設定されていてもよいし、第一オブジェクトそのものの領域に設定されていてもよい。   The reception unit only needs to be able to receive selection of options indicated by the first object based on the viewpoint, and various configurations can be employed. For example, the selection of the first object may be accepted when the viewpoint exists for a predetermined time or more in an area in the screen defined as the viewpoint acceptance area of the first object. The reception area may be set larger than the first object including the first object, may be set in a part of the first object, or set in the area of the first object itself. Also good.

また受付部は、第二オブジェクトに関する操作に基づいて経路探索の実行指示を受け付けることができればよく、種々の構成を採用可能である。例えば、ポインティングデバイスを用いて第二オブジェクトを対象として指定した状態で特定の操作によって選択するようにしてもよい。あるいは、実行指示を入力するための専用の操作部に対する操作によって実行指示を入力してもよい。   The receiving unit only needs to be able to receive a route search execution instruction based on an operation related to the second object, and various configurations can be employed. For example, you may make it select by specific operation in the state which designated the 2nd object as the object using a pointing device. Alternatively, the execution instruction may be input by an operation on a dedicated operation unit for inputting the execution instruction.

なお、本入力システムにおいて入力作業の対象とする「機能」は、上記の「経路探索」に限定されない。「機能」は、予め提示された複数の目的の中のいずれかを達成するための処理を想定してよい。具体的には例えば、楽曲再生や楽曲購入の場面で、プレイリストの選択や、楽曲の仮選択までは視点によって受け付け可能であり、最終的な楽曲の指定(当該曲の再生指示や購入指示)は操作によって受け付ける構成を想定してよい。   Note that the “function” that is the target of input work in this input system is not limited to the “route search” described above. The “function” may assume a process for achieving any of a plurality of previously presented purposes. Specifically, for example, in the scene of music playback or music purchase, it is possible to accept from the viewpoint until playlist selection and music temporary selection, and final music specification (reproduction instruction or purchase instruction for the music) May assume a configuration that is accepted by an operation.

また例えば、車室内の設定温度を変更する場面で、設定温度を示す数値の変更までは視点によって受け付け可能であり、設定温度の決定指示は操作によって受け付ける構成を想定してよい。また例えば、運転支援の設定の画面で、クルーズコントロールの速度の選択までは視点によって受け付け可能であり、当該速度でのクルーズコントロールの実施指示は操作によって受け付ける構成を想定してよい。また、入力システムは車両に搭載される構成に限定されないため、対象とする機能も車両に搭載される機能に限定されず、様々な機能を想定してよい。   Further, for example, when changing the set temperature in the passenger compartment, it is possible to assume a configuration in which it is possible to accept from a viewpoint until a numerical value indicating the set temperature is changed, and an instruction to determine the set temperature is accepted by an operation. Further, for example, it is possible to assume a configuration in which it is possible to accept from the viewpoint until the cruise control speed is selected on the driving support setting screen, and an instruction to perform cruise control at the speed is accepted by operation. Moreover, since an input system is not limited to the structure mounted in a vehicle, the function made into object is not limited to the function mounted in a vehicle, You may assume various functions.

なお例えば、メータm2に視点が位置する場合に、メータm2の近傍に制限速度を表示するようにしてもよい。車両が走行する道路区間の制限速度は例えば、車両の前方を撮影した画像に制限速度を示す標識が含まれている場合に、画像認識処理によって取得可能である。利用者は現在の車速を確認したい場合にスピードメータを見るため、スピードメータに視点が位置したことに応じて制限速度を表示することにより、利用者のその他の操作をしなくても現在の車速とともに制限速度も確認することができ、便利である。また例えば、省エネルギーボタンb5に視点が位置する場合に、省エネルギーボタンb5の近傍に燃費情報を表示するようにしてもよい。   For example, when the viewpoint is located at the meter m2, the speed limit may be displayed near the meter m2. The speed limit of the road section on which the vehicle travels can be acquired by image recognition processing, for example, when a sign indicating the speed limit is included in an image taken in front of the vehicle. Since the user looks at the speedometer when he wants to check the current vehicle speed, the current vehicle speed can be displayed without any other user operation by displaying the speed limit according to the position of the viewpoint on the speedometer. At the same time, the speed limit can be confirmed, which is convenient. Further, for example, when the viewpoint is positioned on the energy saving button b5, the fuel consumption information may be displayed near the energy saving button b5.

さらに、受付部は、選択肢の選択を受け付けた後、実行指示の受け付けまで再選択を受け付け可能に構成されてもよい。また受付部は、実行指示を受け付けた後、少なくとも実行完了まで実行指示のキャンセル指示を受け付けないように構成されてもよい。上記実施形態では、選択肢の選択や選択のキャンセルによって画面が遷移する例を説明したが、必ずしも画面は遷移しなくてもよい。同一画面において選択肢の選択や選択のキャンセルや実行指示を入力することができてもよい。   Further, the accepting unit may be configured to accept reselection until accepting an execution instruction after accepting selection of an option. The accepting unit may be configured not to accept an execution instruction cancel instruction until at least completion of execution after accepting the execution instruction. In the above embodiment, an example in which the screen is changed by selecting an option or canceling the selection has been described. However, the screen may not necessarily be changed. It may be possible to select an option, cancel the selection, or input an execution instruction on the same screen.

なお受付部は、選択肢の再選択や、実行指示のキャンセル指示を受け付けることができればよく、様々な態様を採用可能である。上記実施形態では、選択肢の再選択や実行指示のキャンセル指示を画面に表示された戻るボタンbbに対する入力(戻るボタンbbに視点があること、または、戻るボタンbbにカーソルが表示された状態でタッチパッド41に対して操作することのいずれでもよい)によって受け付ける構成を説明したが、戻るボタンbbは必ずしも画面に表示されていなくてもよい。例えば、「キャンセル」や「前の状態に戻る」ためのボタン等の被操作部がディスプレイ40とは別に設けられており、当該被操作部に対する操作によって選択肢の再選択や実行指示のキャンセル指示を受け付ける構成が採用されてもよい。当該被操作部は、例えばディスプレイ40の枠部分に設けられていても良いし、ハンドルに設けられていても良い。   Note that the reception unit only needs to be able to receive reselection of options and an instruction to cancel execution instructions, and various modes can be employed. In the above-described embodiment, an input for reselecting an option or canceling an execution instruction is input to the return button bb displayed on the screen (the return button bb has a viewpoint or a touch is performed with the cursor displayed on the return button bb). However, the return button bb does not necessarily have to be displayed on the screen. For example, an operation unit such as a button for “cancel” or “return to the previous state” is provided separately from the display 40, and an operation for re-selecting an option or canceling an execution instruction is performed by operating the operation unit. A receiving configuration may be adopted. The said operated part may be provided in the frame part of the display 40, for example, and may be provided in the handle | steering-wheel.

さらに、第一オブジェクトと第二オブジェクトの表示態様が異なる例として、上記実施形態では、第一オブジェクトと第二オブジェクトを異なる色で表示することを説明した。第一オブジェクトと第二オブジェクトとを両者を識別可能に利用者に提示することができる限りにおいて他にも様々な表示態様を採用可能である。例えば、オブジェクトの形状を相違させてもよい(例:一方が矩形で他方が楕円等)。また例えば、オブジェクトの最終的な表示形態に至るまでの過程で表示するアニメーションの内容を第一オブジェクトと第二オブジェクトとで相違させるようにしてもよい。また、上記を組み合わせて表示態様を変えるようにしてもよい。   Furthermore, as an example in which the display modes of the first object and the second object are different, in the above-described embodiment, the first object and the second object are displayed in different colors. Various other display modes can be adopted as long as the first object and the second object can be presented to the user so that both can be identified. For example, the shapes of the objects may be different (for example, one is rectangular and the other is oval). Further, for example, the contents of the animation displayed in the process up to the final display form of the object may be different between the first object and the second object. Further, the display mode may be changed by combining the above.

さらに、本発明のように、機能に関する選択肢の選択を視点に基づいて受け付け、機能の実行指示を操作に基づいて受け付ける手法は、プログラムや方法としても適用可能である。また、以上のようなシステム、プログラム、方法は、単独の装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, as in the present invention, a method of accepting selection of options related to a function based on a viewpoint and accepting a function execution instruction based on an operation can be applied as a program or a method. In addition, the system, program, and method as described above may be realized as a single device, or may be realized using components shared with each part of the vehicle, and include various aspects. It is a waste. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention can be realized as a recording medium for a program for controlling the system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…入力システム、20…制御部、21…入力プログラム、21a…視点検出部、21b…操作検出部、21c…表示制御部、21d…受付部、30…記録媒体、30a…表示情報、40…ディスプレイ、41…タッチパッド、42…視線検出センサ、b1…再生曲ボタン、b2…目的地ボタン、b3…空調ボタン、b4…運転支援ボタン、b5…省エネルギーボタン、b6…携帯端末ボタン、b7…自宅ボタン、b8…履歴ボタン、b9…実行指示ボタン、bb…戻るボタン、C…カーソル、M…地図、m1…メータ、m2…メータ、Md…目的地周辺地図、P1…ポップアップ画面   DESCRIPTION OF SYMBOLS 10 ... Input system, 20 ... Control part, 21 ... Input program, 21a ... View point detection part, 21b ... Operation detection part, 21c ... Display control part, 21d ... Reception part, 30 ... Recording medium, 30a ... Display information, 40 ... Display, 41 ... Touchpad, 42 ... Gaze detection sensor, b1 ... Playback song button, b2 ... Destination button, b3 ... Air conditioning button, b4 ... Driving support button, b5 ... Energy saving button, b6 ... Mobile terminal button, b7 ... Home Button, b8 ... History button, b9 ... Execution instruction button, bb ... Return button, C ... Cursor, M ... Map, m1 ... Meter, m2 ... Meter, Md ... Destination surrounding map, P1 ... Pop-up screen

Claims (7)

利用者の視点を検出する視点検出部と、
前記利用者の操作を検出する操作検出部と、
経路探索に関する選択肢を示す第一オブジェクトと、選択された前記選択肢を用いた前記経路探索の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部と、
前記視点に基づいて前記第一オブジェクトが示す前記選択肢の選択を受け付け、前記第二オブジェクトに関する前記操作に基づいて前記経路探索の実行指示を受け付ける受付部と、
を備える入力システム。
A viewpoint detection unit that detects a user's viewpoint;
An operation detection unit for detecting the operation of the user;
A display control unit that causes a display unit to display a first object indicating options related to route search and a second object indicating an instruction to execute the route search using the selected option;
A receiving unit that receives selection of the option indicated by the first object based on the viewpoint, and that receives an instruction to execute the route search based on the operation related to the second object;
An input system comprising:
利用者の視点を検出する視点検出部と、
前記利用者の操作を検出する操作検出部と、
機能に関する選択肢を示す第一オブジェクトと、選択された前記選択肢を用いた前記機能の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部と、
前記視点に基づいて前記第一オブジェクトが示す前記選択肢の選択を受け付け、前記第二オブジェクトに関する前記操作に基づいて前記機能の実行指示を受け付ける受付部と、
を備える入力システム。
A viewpoint detection unit that detects a user's viewpoint;
An operation detection unit for detecting the operation of the user;
A display control unit that causes a display unit to display a first object indicating an option related to a function and a second object indicating an instruction to execute the function using the selected option;
A receiving unit that receives selection of the option indicated by the first object based on the viewpoint, and that receives an execution instruction of the function based on the operation related to the second object;
An input system comprising:
前記機能は、予め提示された複数の目的の中のいずれかを達成するための処理である、
請求項2に記載の入力システム。
The function is a process for achieving any of a plurality of previously presented purposes.
The input system according to claim 2.
前記受付部は、
前記選択肢の選択を受け付けた後、前記実行指示の受け付けまで再選択を受け付け可能であり、
前記実行指示を受け付けた後、少なくとも実行完了まで前記実行指示のキャンセル指示を受け付けない、
請求項1〜請求項3のいずれかに記載の入力システム。
The reception unit
After accepting selection of the option, reselection can be accepted until acceptance of the execution instruction,
After receiving the execution instruction, do not accept a cancellation instruction for the execution instruction until at least completion of execution,
The input system according to claim 1.
前記第一オブジェクトと前記第二オブジェクトの表示態様は異なる、
請求項1〜請求項4のいずれかに記載の入力システム。
The display mode of the first object and the second object is different.
The input system according to claim 1.
コンピュータを、
利用者の視点を検出する視点検出部、
前記利用者の操作を検出する操作検出部、
経路探索に関する選択肢を示す第一オブジェクトと、選択された前記選択肢を用いた前記経路探索の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部、
前記視点に基づいて前記第一オブジェクトが示す前記選択肢の選択を受け付け、前記第二オブジェクトに関する前記操作に基づいて前記経路探索の実行指示を受け付ける受付部、
として機能させる入力プログラム。
Computer
A viewpoint detector that detects the user's viewpoint;
An operation detection unit for detecting an operation of the user;
A display control unit that causes a display unit to display a first object indicating options related to route search and a second object indicating an instruction to execute the route search using the selected option;
A receiving unit that receives selection of the option indicated by the first object based on the viewpoint, and that receives an instruction to execute the route search based on the operation related to the second object;
Input program to function as.
コンピュータを、
利用者の視点を検出する視点検出部、
前記利用者の操作を検出する操作検出部、
機能に関する選択肢を示す第一オブジェクトと、選択された前記選択肢を用いた前記機能の実行指示を示す第二オブジェクトと、を表示部に表示させる表示制御部、
前記視点に基づいて前記第一オブジェクトが示す前記選択肢の選択を受け付け、前記第二オブジェクトに関する前記操作に基づいて前記機能の実行指示を受け付ける受付部、
として機能させる入力プログラム。
Computer
A viewpoint detector that detects the user's viewpoint;
An operation detection unit for detecting an operation of the user;
A display control unit that causes a display unit to display a first object indicating a function-related option and a second object indicating an instruction to execute the function using the selected option.
A receiving unit that receives selection of the option indicated by the first object based on the viewpoint, and that receives an instruction to execute the function based on the operation related to the second object;
Input program to function as.
JP2016237464A 2016-12-07 2016-12-07 Input system and input program Pending JP2018092522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016237464A JP2018092522A (en) 2016-12-07 2016-12-07 Input system and input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016237464A JP2018092522A (en) 2016-12-07 2016-12-07 Input system and input program

Publications (1)

Publication Number Publication Date
JP2018092522A true JP2018092522A (en) 2018-06-14

Family

ID=62565520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016237464A Pending JP2018092522A (en) 2016-12-07 2016-12-07 Input system and input program

Country Status (1)

Country Link
JP (1) JP2018092522A (en)

Similar Documents

Publication Publication Date Title
CN106062514B (en) Interaction between a portable device and a vehicle head unit
US9103691B2 (en) Multimode user interface of a driver assistance system for inputting and presentation of information
EP3000013B1 (en) Interactive multi-touch remote control
CN105354003B (en) A kind of display methods interconnected based on mobile terminal and car-mounted terminal and device
JP6269343B2 (en) Vehicle control device
WO2019114808A1 (en) Vehicle-mounted terminal device and display processing method for application component thereof
JP2011095238A (en) Navigation device and program
US9965148B2 (en) Unit manipulation system, and slave display device and master display device used in the system
WO2016084360A1 (en) Display control device for vehicle
JP2011169621A (en) Map display device
US20160300324A1 (en) Communication system
JP6033465B2 (en) Display control device
US20210034207A1 (en) Operation image display device, operation image display system, and operation image display program
JP2018092522A (en) Input system and input program
JP6798608B2 (en) Navigation system and navigation program
JP2014109967A (en) Display system, display device, display method and program
JP2022170505A (en) Information processing apparatus and program
US20160253088A1 (en) Display control apparatus and display control method
JP2010127669A (en) Navigation apparatus and scroll display method
US20230249552A1 (en) Control apparatus
JP2015132906A (en) Input device, input detection method of multi-touch operation and input detection program thereof
JP2018073310A (en) Display system and display program
JP2018063521A (en) Display control system and display control program
JP2018101230A (en) Input system and input program
JP2018073311A (en) Operation input system and operation input program