JP6414288B2 - Vehicle control device - Google Patents

Vehicle control device Download PDF

Info

Publication number
JP6414288B2
JP6414288B2 JP2017141123A JP2017141123A JP6414288B2 JP 6414288 B2 JP6414288 B2 JP 6414288B2 JP 2017141123 A JP2017141123 A JP 2017141123A JP 2017141123 A JP2017141123 A JP 2017141123A JP 6414288 B2 JP6414288 B2 JP 6414288B2
Authority
JP
Japan
Prior art keywords
operation screen
vehicle
screen
selection item
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017141123A
Other languages
Japanese (ja)
Other versions
JP2017200820A (en
Inventor
雅也 渡辺
雅也 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017141123A priority Critical patent/JP6414288B2/en
Publication of JP2017200820A publication Critical patent/JP2017200820A/en
Application granted granted Critical
Publication of JP6414288B2 publication Critical patent/JP6414288B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、車両用操作装置に関する。   The present disclosure relates to a vehicle operating device.

運転中は、運転者には画面を注視しなくてすむ簡単な手振り入力しか認めず、運転者以外の同乗者にはボタンやタッチパネル等注視する必要がある操作も許可するような入力方法が知られている(例えば、特許文献1参照)。   While driving, the driver only accepts simple hand gestures that do not need to watch the screen, and passengers other than the driver know the input methods that allow operations such as buttons and touch panels to be watched. (For example, refer to Patent Document 1).

特開2007-302223号公報JP 2007-302223 A

しかしながら、上記特許文献1に記載の構成では、車両走行状態と車両停止状態とで同一の操作画面が形成されるので、操作性が良好でない虞がある。   However, in the configuration described in Patent Document 1, since the same operation screen is formed in the vehicle running state and the vehicle stop state, the operability may not be good.

本開示は、手の動きによる操作が可能な操作画面であって、異なる種類の操作画面を形成することができる車両用操作装置の提供を目的とする。   An object of the present disclosure is to provide an operation device for a vehicle that is an operation screen that can be operated by hand movement and can form different types of operation screens.

本開示の一局面によれば、所定機能に関する第1操作画面と、前記第1操作画面とは異なる第2操作画面のいずれかを形成する処理装置を備え、前記第1操作画面は、指の指す方向の延長線が交わる操作画面上の座標位置を算出してポインタを描画または選択項目が選択されていることを表示させる操作画面であり、前記第2操作画面は、手全体を上下又は左右に動かす動作に応答して選択項目を1つずつ変更して実行選択項目を変更する操作画面であり、前記第1操作画面及び前記第2操作画面は同一の表示装置に表示される、車両用操作装置が提供される。 According to one aspect of the present disclosure, the image processing apparatus includes a processing device that forms one of a first operation screen related to a predetermined function and a second operation screen different from the first operation screen . It is an operation screen that calculates the coordinate position on the operation screen where the extension lines in the pointing direction intersect and draws a pointer or displays that a selection item is selected , and the second operation screen moves the entire hand up and down or left and right An operation screen for changing the execution selection items by changing the selection items one by one in response to the movement of the vehicle, wherein the first operation screen and the second operation screen are displayed on the same display device. An operating device is provided.

本開示によれば、手の動きによる操作が可能な操作画面であって、異なる種類の操作画面を形成することができる車両用操作装置が得られる。   According to the present disclosure, it is possible to obtain an operation device for a vehicle that is an operation screen that can be operated by hand movement and that can form different types of operation screens.

一実施例による車両用操作装置1の構成を概略的に示す図。The figure which shows schematically the structure of the operating device 1 for vehicles by one Example. 手振り検出器10及びディスプレイ20の搭載状態の一例を概略的に示す図。The figure which shows schematically an example of the mounting state of the hand shake detector 10 and the display 20. FIG. 第1操作画面の一例を示す図。The figure which shows an example of a 1st operation screen. 第2操作画面の一例を示す図。The figure which shows an example of a 2nd operation screen. 処理装置100により実行される処理の一例を示すフローチャート。5 is a flowchart showing an example of processing executed by the processing apparatus 100.

以下、添付図面を参照しながら各実施例について詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

図1は、一実施例による車両用操作装置1の構成を概略的に示す図である。図2は、手振り検出器10及びディスプレイ20の搭載状態の一例を概略的に示す図である。尚、図2には、運転者の手振り操作状態が概略的に示されている。   FIG. 1 is a diagram schematically showing a configuration of a vehicle operating device 1 according to an embodiment. FIG. 2 is a diagram schematically illustrating an example of the mounting state of the hand shake detector 10 and the display 20. FIG. 2 schematically shows the state of the driver's hand gesture operation.

車両用操作装置1は、手振り検出器10と、決定スイッチ12と、ディスプレイ20と、車速センサ30と、処理装置100とを含む。   The vehicle operation device 1 includes a hand shake detector 10, a determination switch 12, a display 20, a vehicle speed sensor 30, and a processing device 100.

手振り検出器10は、人の手の動きを検出する。手振り検出器10は、車室内の適切な位置(例えば、インストルメントパネル)に配置される。例えば、手振り検出器10は、図2に示すように、インストルメントパネルに配置されてもよいし、センターコンソールのアームレスト等に配置されてもよい。人の手の動きの検出方法は任意であり、光学的な検出方法が採用されてもよい。例えば、手振り検出器10は、2つ以上の距離センサを用いて手の位置及び動きを検出してもよい。手振り検出器10は、画像センサを用いて手の動きを検出してもよい。手の動きの検出方法は、例えば特開2007-302223号公報に開示される方法が利用されてもよい。   The hand shake detector 10 detects the movement of a human hand. The hand shake detector 10 is disposed at an appropriate position (for example, an instrument panel) in the vehicle interior. For example, as shown in FIG. 2, the hand shake detector 10 may be disposed on an instrument panel, or may be disposed on an armrest or the like of a center console. The method for detecting the movement of the human hand is arbitrary, and an optical detection method may be employed. For example, the hand shake detector 10 may detect the position and movement of the hand using two or more distance sensors. The hand shake detector 10 may detect hand movement using an image sensor. For example, a method disclosed in Japanese Patent Application Laid-Open No. 2007-302223 may be used as a method of detecting a hand movement.

決定スイッチ12は、機械的なスイッチであってもよいし、タッチスイッチであってもよい。決定スイッチ12は、音声入力等により置換されてもよい。決定スイッチ12は、例えばセンターコンソールのアームレスト等に配置されてよい。   The decision switch 12 may be a mechanical switch or a touch switch. The decision switch 12 may be replaced by voice input or the like. The determination switch 12 may be disposed, for example, on the armrest of the center console.

ディスプレイ20は、液晶ディスプレイやHUD(ヘッドアップディスプレイ)のような任意の表示装置であってよい。ディスプレイ20は、車室内の適切な位置(例えば、インストルメントパネル)に配置される。ディスプレイ20は、タッチ操作ができないタイプのディスプレイであることが好適であるが、タッチパネルディスプレイであってもよい。   The display 20 may be an arbitrary display device such as a liquid crystal display or a HUD (head-up display). The display 20 is disposed at an appropriate position (for example, an instrument panel) in the vehicle interior. The display 20 is preferably a type of display that cannot be touched, but may be a touch panel display.

車速センサ30は、車輪速に応じた電気信号(車速パルス)を制御ECU40に出力する。   The vehicle speed sensor 30 outputs an electric signal (vehicle speed pulse) corresponding to the wheel speed to the control ECU 40.

処理装置100は、ECU(Electronic Control Unit)より実現されてよい。ECUは、例えば、図示しないバスを介して互いに接続されたCPU、ROM、及びRAM等からなるマイクロコンピュータを含む。処理装置100は、制御部102と、操作処理部104と、表示処理部106とを含む。各部102,104,106は、CPUがROM等の記憶装置に記憶されたプログラムを実行することで実現されてもよい。各部102,104,106の区分けは仮想的であり、ある部を実現するためのプログラムの一部又は全部が他の部に組み込まれてもよい。また、これらの各部102,104,106は、必ずしも同一のECUユニット内に組み込まれる必要はなく、複数のECUにより協動して実現されてもよい。   The processing device 100 may be realized by an ECU (Electronic Control Unit). The ECU includes, for example, a microcomputer including a CPU, a ROM, a RAM, and the like connected to each other via a bus (not shown). The processing device 100 includes a control unit 102, an operation processing unit 104, and a display processing unit 106. Each unit 102, 104, 106 may be realized by the CPU executing a program stored in a storage device such as a ROM. The division of each unit 102, 104, 106 is virtual, and a part or all of a program for realizing a certain unit may be incorporated in another unit. In addition, these units 102, 104, and 106 are not necessarily incorporated in the same ECU unit, and may be realized in cooperation with a plurality of ECUs.

制御部102は、操作処理部104及び表示処理部106と協動して、ディスプレイ20の表示を制御する。また、制御部102は、操作処理部104及び表示処理部106と協動して、機能実現装置40を制御する。機能実現装置40は、任意であるが、例えば、オーディオ装置、TV,ナビゲーション装置、空調装置等を含んでよい。   The control unit 102 controls display on the display 20 in cooperation with the operation processing unit 104 and the display processing unit 106. The control unit 102 controls the function realizing device 40 in cooperation with the operation processing unit 104 and the display processing unit 106. The function realizing device 40 is optional, but may include, for example, an audio device, a TV, a navigation device, an air conditioner, and the like.

操作処理部104は、手振り検出器10からの入力を処理する。操作処理部104は、手振り検出器10からの入力に基づいて、各種手振り操作を検出する。各種手振り操作は、例えば左右に手全体を振る操作、上下に手全体を振る操作、任意の特定の方向を指で指す操作等であってよい。尚、ディスプレイ20における操作画面の相違に応じて操作処理部104による検出対象の手振り操作が変化されてもよい。即ち、後述する第1操作画面及び第2操作画面のそれぞれに対して割り当てられる手振り操作は異なってよい。また、操作処理部104は、決定スイッチ12からの入力を処理する。操作処理部104は、決定スイッチ12からの入力に基づいて、決定操作の有無を判定する。   The operation processing unit 104 processes an input from the hand shake detector 10. The operation processing unit 104 detects various hand gesture operations based on the input from the hand gesture detector 10. The various hand shaking operations may be, for example, an operation of shaking the entire hand left and right, an operation of shaking the entire hand up and down, and an operation of pointing an arbitrary specific direction with a finger. Note that the gesture operation to be detected by the operation processing unit 104 may be changed according to the difference in the operation screen on the display 20. That is, the hand gesture operation assigned to each of the first operation screen and the second operation screen described later may be different. In addition, the operation processing unit 104 processes an input from the determination switch 12. The operation processing unit 104 determines the presence / absence of a determination operation based on the input from the determination switch 12.

表示処理部106は、制御部102と協動して、手振り操作と同期させてディスプレイ20の表示を制御し、手振り操作を補助する。具体的には、表示処理部106は、ディスプレイ20において操作画面を表示すると共に、手振り操作等の検出結果に基づいて、各種選択項目の選択・決定処理等を行う。選択された選択項目の決定処理は、選択された選択項目に係る機能を実現する処理であり、例えば、画面遷移処理や、文字出力処理、機能実現装置40への指令(制御信号)を出力する処理を含む。   The display processing unit 106 cooperates with the control unit 102 to control the display on the display 20 in synchronization with the hand gesture operation and assist the hand gesture operation. Specifically, the display processing unit 106 displays an operation screen on the display 20, and performs selection / determination processing of various selection items based on a detection result of a hand gesture operation or the like. The selected selection item determination process is a process for realizing a function related to the selected selection item. For example, a screen transition process, a character output process, or a command (control signal) to the function realization device 40 is output. Includes processing.

選択項目は、仮想的(直接手で操作される類の機械式のボタンでないという意味)な操作ボタンを構成する。選択項目(操作ボタン)は、任意の種類(機能)に関するものであってよい。即ち、手振り操作で実行可能な機能(選択項目)は、任意であってよい。例えば、選択項目は、ナビゲーション装置の各種設定を行うための画面(操作画面)や地図画面(例えば現在地表示画面)をディスプレイ20上に表示させる(呼び出す)ための選択項目を含んでよい。また、選択項目は、空調装置の各種設定を行うための選択項目や、その画面をディスプレイ20上に表示させるための選択項目を含んでよい。また、選択項目は、オーディオやTVの各種設定(音量調整等)を行うための選択項目や、その画面をディスプレイ20上に表示させるための選択項目を含んでよい。また、選択項目は、任意のアプリケーションを起動するための選択項目(アイコン、ランチャ、ウィジェット)であってもよい。また、選択項目は、50音入力画面等のような操作画面における文字入力ボタンであってもよい。   The selection items constitute virtual operation buttons (meaning that the buttons are not mechanical buttons that are directly operated by hand). The selection item (operation button) may relate to an arbitrary type (function). That is, the function (selection item) that can be executed by the hand gesture operation may be arbitrary. For example, the selection item may include a selection item for displaying (calling) a screen (operation screen) or a map screen (for example, current location display screen) for performing various settings of the navigation device on the display 20. The selection items may include a selection item for performing various settings of the air conditioner and a selection item for displaying the screen on the display 20. The selection items may include a selection item for performing various settings of audio and TV (volume adjustment, etc.) and a selection item for displaying the screen on the display 20. Further, the selection item may be a selection item (icon, launcher, widget) for starting an arbitrary application. Further, the selection item may be a character input button on an operation screen such as a 50 sound input screen.

表示処理部106は、制御部102と協動して、車両走行状態又は停止状態に応じてディスプレイ20の操作画面を変化させる。具体的には、制御部102は、車両停止状態では、表示処理部106に対して第1操作画面を形成する指示を与える。第1操作画面は、手振り操作により相対的に複雑な操作が可能な操作画面である。制御部102は、車両走行状態では、表示処理部106に対して第2操作画面を形成する指示を与える。第2操作画面は、手振り操作により相対的に簡単な操作のみが可能な操作画面である。第1操作画面及び第2操作画面は、同一の機能に係る操作画面(同種の操作画面)であり、機能毎にそれぞれが用意されてもよい。例えば空調装置に係る操作画面として、第1操作画面及び第2操作画面がそれぞれ用意される。同一の機能に係る操作画面とは、例えば同一の機能実現装置40に関する操作画面、同一の機能実現装置40の同一の設定に関する操作画面、操作対象の機能実現装置40を選択する(呼び出す)ための操作画面(上位階層の操作画面)等であってよい。   The display processing unit 106 cooperates with the control unit 102 to change the operation screen of the display 20 according to the vehicle running state or the stopped state. Specifically, the control unit 102 gives an instruction to form a first operation screen to the display processing unit 106 when the vehicle is stopped. The first operation screen is an operation screen that allows relatively complicated operations by hand gesture operation. The control unit 102 gives an instruction to form a second operation screen to the display processing unit 106 in the vehicle running state. The second operation screen is an operation screen on which only relatively simple operations can be performed by hand gesture operation. The first operation screen and the second operation screen are operation screens (same type operation screens) related to the same function, and may be prepared for each function. For example, a first operation screen and a second operation screen are prepared as operation screens related to the air conditioner. The operation screen related to the same function is, for example, an operation screen related to the same function realization device 40, an operation screen related to the same setting of the same function realization device 40, or a function realization device 40 to be operated (selected). It may be an operation screen (upper layer operation screen) or the like.

図3は、第1操作画面の一例を示す図である。図3には、手振り操作中の手Sが模式的に示されている。   FIG. 3 is a diagram illustrating an example of the first operation screen. FIG. 3 schematically shows the hand S during the hand gesture operation.

図3に示す第1操作画面は、オーディオ装置で再生する楽曲を選択するための操作画面である。図3に示す第1操作画面は、3つのディスク(CD,MD等)内のそれぞれ7つの楽曲に係る選択項目を含む。この場合、ユーザは、この第1操作画面上において、ポインタ80を動かすことにより、選択可能な選択項目としては21通りの選択肢を持つ。   The first operation screen shown in FIG. 3 is an operation screen for selecting music to be played back by the audio device. The first operation screen shown in FIG. 3 includes selection items related to seven pieces of music in three discs (CD, MD, etc.). In this case, the user has 21 choices as selectable selection items by moving the pointer 80 on the first operation screen.

表示処理部106は、第1操作画面上にポインタ80を表示する。表示処理部106は、ポインタ80の表示位置を、操作処理部104により検出される指の指す方向に応じて変化させる。例えば、制御部102は、操作処理部104により検出される指の指す方向と指の位置とに基づいて、対応するディスプレイ20上の座標位置を算出する。即ち、制御部102は、指の指す方向の延長線が交わるディスプレイ20の操作画面上の座標位置を算出する。表示処理部106は、制御部102により算出された座標位置にポインタ80を描画する。ユーザが指の指す方向を変更すると、制御部102は、変更後の指の指す方向と指の位置とに基づいて、対応するディスプレイ20上の座標位置を算出する。表示処理部106は、制御部102により算出された座標位置にポインタ80を描画(移動)する。尚、ユーザが、所望の選択項目上にポインタ80が位置するときに決定スイッチ12を押すと、制御部102は、ポインタ80が位置する選択項目に係る機能を実現する。これにより、図3に示す例では、ユーザは、例えばディスク2内の"Song name3"という楽曲名を選択・再生することができる。   The display processing unit 106 displays the pointer 80 on the first operation screen. The display processing unit 106 changes the display position of the pointer 80 according to the direction indicated by the finger detected by the operation processing unit 104. For example, the control unit 102 calculates the corresponding coordinate position on the display 20 based on the direction indicated by the finger and the position of the finger detected by the operation processing unit 104. That is, the control unit 102 calculates the coordinate position on the operation screen of the display 20 where the extension line in the direction indicated by the finger intersects. The display processing unit 106 draws the pointer 80 at the coordinate position calculated by the control unit 102. When the user changes the direction indicated by the finger, the control unit 102 calculates a corresponding coordinate position on the display 20 based on the changed direction indicated by the finger and the finger position. The display processing unit 106 draws (moves) the pointer 80 at the coordinate position calculated by the control unit 102. When the user presses the determination switch 12 when the pointer 80 is positioned on a desired selection item, the control unit 102 realizes a function related to the selection item where the pointer 80 is positioned. Thereby, in the example shown in FIG. 3, the user can select and reproduce the song name “Song name 3” in the disc 2, for example.

尚、図3に示す例では、ポインタ80が例示されているが、ポインタ80に代えてカーソルが使用されてもよい。カーソルとは、選択表示されている選択項目自体を表す。従って、カーソルの位置は、選択表示されている選択項目の位置に対応する。尚、第1操作画面の初期状態では、任意の1つの選択項目がデフォルトで選択表示とされてもよいし、いずれの選択項目も非選択表示とされてもよい。尚、選択表示(即ちカーソルの態様)は、その選択項目が選択されていることを操作者が分かるような表示であれば任意であり、例えば、選択表示とすべき選択項目の表示の輝度や色などを他の選択項目と異ならすことで実現されてもよいし、選択項目の外枠が強調表示されてもよい。   In the example illustrated in FIG. 3, the pointer 80 is illustrated, but a cursor may be used instead of the pointer 80. The cursor represents the selection item itself that is selected and displayed. Therefore, the position of the cursor corresponds to the position of the selection item that is selected and displayed. In the initial state of the first operation screen, any one selection item may be selected and displayed by default, or any selection item may be non-selected. The selection display (that is, the mode of the cursor) is arbitrary as long as the operator can recognize that the selection item is selected. For example, the brightness of the display of the selection item to be selected and displayed It may be realized by making a color or the like different from other selection items, or an outer frame of the selection item may be highlighted.

図4は、第2操作画面の一例を示す図である。図4には、手振り操作中の手S1,S2が模式的に示されている。   FIG. 4 is a diagram illustrating an example of the second operation screen. FIG. 4 schematically shows the hands S1 and S2 during the hand gesture operation.

表示処理部106は、現在実行中の選択項目を第2操作画面上の特定位置(図4に示す例では中央)に描画する。以下、第2操作画面上の特定位置(図4に示す例では中央)に描画される選択項目を"実行選択項目"とも称する。図4に示す例では、ディスク2内の"Song name1"が実行選択項目であり、従って、第2操作画面は、ディスク2内の"Song name1"という楽曲が選択されて再生されている状態を示す。表示処理部106は、第2操作画面上にポインタ80は表示しない。   The display processing unit 106 draws the currently executed selection item at a specific position (center in the example shown in FIG. 4) on the second operation screen. Hereinafter, a selection item drawn at a specific position on the second operation screen (center in the example shown in FIG. 4) is also referred to as “execution selection item”. In the example shown in FIG. 4, “Song name 1” in the disc 2 is the execution selection item. Therefore, the second operation screen shows a state where the song “Song name 1” in the disc 2 is selected and played back. Show. The display processing unit 106 does not display the pointer 80 on the second operation screen.

表示処理部106は、操作処理部104により検出される手振り操作の方向に応じて、実行選択項目を変更すると共に、実行選択項目に応じた機能を実現する。このとき、ユーザによる決定スイッチ12により決定操作は不要である。即ち、表示処理部106は、第2操作画面の表示中は、手振り操作に応じて選択及び決定処理を同時に実現する。図4に示す例では、実行選択項目(ディスク2内の"Song name1")に対して上下それぞれにディスク2内の"Song name7"及びディスク2内の"Song name2"に係る各選択項目が描画されている。制御部102は、操作処理部104により上下方向の手振り操作(手全体を動かす動作)が検出されると、表示処理部106と協動して、選択項目を上下方向に1つずつ変更して実行選択項目を変更すると共に、変更後の実行選択項目に応じた機能を実現する。例えば、ユーザが上方向への手振り操作を行うと、ディスク2内の"Song name2"が実行選択項目となり再生される。同様に、図4に示す例では、実行選択項目(ディスク2内の"Song name1")に対して左右それぞれにディスク1内の"Song name1"及びディスク3内の"Song name1"に係る各選択項目が描画されている。制御部102は、操作処理部104により左右方向の手振り操作(手全体を動かす動作)が検出されると、表示処理部106と協動して、選択項目を左右方向に1つずつ変更して実行選択項目を変更すると共に、変更後の実行選択項目に応じた機能を実現する。即ち、ディスクの切り替えを実現する。例えば、ユーザが、図4にS1にて示すように、左方向への手振り操作を行うと、ディスク3内の"Song name1"が実行選択項目となり再生される。また、ユーザが、図4にS2にて示すように、右方向への手振り操作を行うと、ディスク1内の"Song name1"が実行選択項目となり再生される。このように、図4に示す例では、ユーザは、この第2操作画面上において、手振り操作より、変更可能な選択項目としては4通りの選択肢を持つ。但し、手振り操作を複数回繰り返すことで、所望の楽曲を再生することは可能である。   The display processing unit 106 changes the execution selection item according to the direction of the hand gesture operation detected by the operation processing unit 104 and realizes a function corresponding to the execution selection item. At this time, the determination operation by the determination switch 12 by the user is unnecessary. That is, the display processing unit 106 simultaneously realizes selection and determination processing according to a hand gesture operation while the second operation screen is displayed. In the example shown in FIG. 4, the selection items related to “Song name 7” in the disk 2 and “Song name 2” in the disk 2 are drawn vertically on the execution selection item (“Song name 1” in the disk 2). Has been. When the operation processing unit 104 detects an up-and-down hand shake operation (movement of moving the entire hand), the control unit 102 cooperates with the display processing unit 106 to change the selection items one by one in the up-down direction. The execution selection item is changed and a function corresponding to the changed execution selection item is realized. For example, when the user performs an upward hand gesture, “Song name 2” in the disc 2 is played as an execution selection item. Similarly, in the example shown in FIG. 4, each selection related to “Song name 1” in disk 1 and “Song name 1” in disk 3 on the left and right with respect to the execution selection item (“Song name 1” in disk 2). The item is drawn. When the operation processing unit 104 detects a left / right hand gesture operation (movement of moving the entire hand), the control unit 102 cooperates with the display processing unit 106 to change the selection items one by one in the left / right direction. The execution selection item is changed and a function corresponding to the changed execution selection item is realized. That is, disk switching is realized. For example, when the user performs a left hand gesture operation as indicated by S1 in FIG. 4, "Song name 1" in the disc 3 is played as an execution selection item. When the user performs a right hand shaking operation as shown by S2 in FIG. 4, "Song name 1" in the disc 1 is played as an execution selection item. As described above, in the example illustrated in FIG. 4, the user has four choices as selection items that can be changed by the hand gesture operation on the second operation screen. However, it is possible to reproduce a desired music piece by repeating the hand gesture operation a plurality of times.

このように第2操作画面は、第1操作画面に比べて、手振り操作により簡単な操作のみが可能である。これにより、車両走行状態においても、運転に対する運転者の集中力を実質的に阻害しない態様で、手振り操作の操作性を高めることができる。尚、図3及び図4に示す例では、オーディオ装置の再生機能に係る操作画面として、第1操作画面及び第2操作画面を例示したが、他の機能についても同様に実現することができる。但し、50音入力機能等、第2操作画面が形成されない機能(第1操作画面だけで対応する機能)が存在してもよい。   As described above, the second operation screen can be operated only by a simple hand gesture operation as compared with the first operation screen. Thereby, even in a vehicle running state, the operability of the hand gesture operation can be enhanced in a manner that does not substantially hinder the driver's concentration on driving. In the example shown in FIG. 3 and FIG. 4, the first operation screen and the second operation screen are illustrated as the operation screens related to the playback function of the audio device, but other functions can be similarly realized. However, there may be a function (a function corresponding only to the first operation screen) in which the second operation screen is not formed, such as a 50-sound input function.

図5は、処理装置100により実行される処理の一例を示すフローチャートである。図5に示す処理は、第1操作画面及び第2操作画面の双方が用意された機能に関する操作画面を出力中に実行される。   FIG. 5 is a flowchart illustrating an example of processing executed by the processing device 100. The process shown in FIG. 5 is executed while outputting an operation screen related to a function for which both the first operation screen and the second operation screen are prepared.

ステップ501では、処理装置100は、手振り検出器10からの検出結果に基づいて、手振り操作を検出する待ち状態となる。処理装置100は、手振り操作を検出すると、ステップ502に進む。   In step 501, the processing apparatus 100 enters a waiting state for detecting a hand gesture operation based on the detection result from the hand gesture detector 10. When the processing apparatus 100 detects a hand gesture operation, the processing apparatus 100 proceeds to step 502.

ステップ502では、処理装置100は、車速センサ30から車速情報を取得する。尚、車速情報は、GPS受信機からの自車位置の変化やトランスミッションの出力シャフトの回転数等から取得されてもよい。   In step 502, the processing apparatus 100 acquires vehicle speed information from the vehicle speed sensor 30. The vehicle speed information may be acquired from a change in the vehicle position from the GPS receiver, the rotation speed of the output shaft of the transmission, or the like.

ステップ503では、処理装置100は、車速情報に基づいて、車両が現在走行中であるか否かを判定する。車両が現在走行中である場合(即ち車両走行状態である場合)、ステップ504に進み、それ以外の場合(即ち車両停車状態である場合)、ステップ506に進む。尚、ステップ503では、処理装置100は、車速情報に基づいて、車両が現在停車中であるか否かを判定してもよい。この場合、処理装置100は、車速が0であり且つブレーキ操作がなされているときに現在停車中であると判定してもよい。   In step 503, the processing apparatus 100 determines whether or not the vehicle is currently traveling based on the vehicle speed information. If the vehicle is currently traveling (that is, if the vehicle is in a traveling state), the process proceeds to step 504. Otherwise (that is, if the vehicle is stopped), the process proceeds to step 506. In step 503, the processing apparatus 100 may determine whether or not the vehicle is currently stopped based on the vehicle speed information. In this case, the processing apparatus 100 may determine that the vehicle is currently stopped when the vehicle speed is 0 and the brake operation is performed.

ステップ504では、処理装置100は、第2操作画面を表示する。第2操作画面は上述のとおりである。   In step 504, the processing apparatus 100 displays a second operation screen. The second operation screen is as described above.

ステップ505では、処理装置100は、上記ステップ501で検出した手振り操作が現在表示中の第2操作画面に対して割り当てられた所定の手振り操作であるか否かを判定する。第2操作画面に対して割り当てられた所定の手振り操作は、例えば、左右及び/又は上下方向に手全体を振る操作(図4参照)であってよい。手振り操作が第2操作画面に対して割り当てられた所定の手振り操作である場合は、ステップ506に進み、それ以外の場合は、今回検出した手振り操作に対する処理はそのまま終了する(今回検出した手振り操作に対しては特段の処理が実行されずに終了する)。   In step 505, the processing apparatus 100 determines whether or not the hand gesture operation detected in step 501 is a predetermined hand gesture operation assigned to the second operation screen currently displayed. The predetermined hand shaking operation assigned to the second operation screen may be, for example, an operation of shaking the entire hand in the left and right and / or up and down directions (see FIG. 4). If the hand gesture operation is a predetermined hand gesture operation assigned to the second operation screen, the process proceeds to step 506. Otherwise, the processing for the hand gesture operation detected this time is terminated as it is (the hand gesture operation detected this time). Is terminated without executing any special processing).

ステップ506では、処理装置100は、上記ステップ501で検出した手振り操作に対応した機能を実行する(例えば、図4の説明参照)。   In step 506, the processing apparatus 100 executes a function corresponding to the hand gesture detected in step 501 (for example, see the description of FIG. 4).

ステップ507では、処理装置100は、第1操作画面を表示する。第1操作画面は上述のとおりである。   In step 507, the processing apparatus 100 displays a first operation screen. The first operation screen is as described above.

ステップ508では、処理装置100は、上記ステップ501で検出した手振り操作が現在表示中の第1操作画面に対して割り当てられた所定の手振り操作であるか否かを判定する。第1操作画面に対して割り当てられた所定の手振り操作は、例えば、指で特定方向を指す操作(図3参照)であってよい。手振り操作が第1操作画面に対して割り当てられた所定の手振り操作である場合は、ステップ509に進み、それ以外の場合は、今回検出した手振り操作に対する処理はそのまま終了する(今回検出した手振り操作に対しては特段の処理が実行されずに終了する)。   In step 508, the processing apparatus 100 determines whether or not the hand gesture operation detected in step 501 is a predetermined hand gesture operation assigned to the first operation screen currently displayed. The predetermined hand gesture operation assigned to the first operation screen may be, for example, an operation of pointing a specific direction with a finger (see FIG. 3). If the hand gesture operation is a predetermined hand gesture operation assigned to the first operation screen, the process proceeds to step 509. Otherwise, the processing for the hand gesture operation detected this time is terminated as it is (the hand gesture operation detected this time). Is terminated without executing any special processing).

ステップ509では、処理装置100は、上記ステップ501で検出した手振り操作に対応した機能を実行する(例えば、図3の説明参照)。   In step 509, the processing apparatus 100 executes a function corresponding to the hand gesture operation detected in step 501 (for example, see the description of FIG. 3).

図5に示す処理によれば、車両走行状態である場合に第2操作画面を出力し、車両停止状態である場合に第1操作画面を出力することができる。第2操作画面は、上述の如く第1操作画面と同一の機能に係る操作画面であるが、第2操作画面とは異なり、第1操作画面よりも簡易な態様で手振り操作を可能とする専用画面である。これにより、車両走行状態においても、運転に対する運転者の集中力を実質的に阻害しない態様で、手振り操作の操作性を高めることができる。   According to the process shown in FIG. 5, the second operation screen can be output when the vehicle is running, and the first operation screen can be output when the vehicle is stopped. As described above, the second operation screen is an operation screen having the same function as the first operation screen. However, unlike the second operation screen, the second operation screen is a dedicated operation that enables hand gesture operation in a simpler manner than the first operation screen. It is a screen. Thereby, even in a vehicle running state, the operability of the hand gesture operation can be enhanced in a manner that does not substantially hinder the driver's concentration on driving.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。   Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes can be made within the scope described in the claims. It is also possible to combine all or a plurality of the components of the above-described embodiments.

1 車両用操作装置
10 手振り検出器
20 ディスプレイ
30 車速センサ
40 機能実現装置
100 処理装置
DESCRIPTION OF SYMBOLS 1 Operation apparatus for vehicles 10 Hand shake detector 20 Display 30 Vehicle speed sensor 40 Function realization apparatus 100 Processing apparatus

Claims (9)

所定機能に関する第1操作画面と、前記第1操作画面とは異なる第2操作画面のいずれかを形成する処理装置を備え、
前記第1操作画面は、指の指す方向の延長線が交わる操作画面上の座標位置を算出してポインタを描画または選択項目が選択されていることを表示させる操作画面であり、
前記第2操作画面は、手全体を上下又は左右に動かす動作に応答して選択項目を1つずつ変更して実行選択項目を変更する操作画面であり、
前記第1操作画面及び前記第2操作画面は同一の表示装置に表示される、車両用操作装置。
A processing device for forming either a first operation screen related to a predetermined function or a second operation screen different from the first operation screen;
The first operation screen is an operation screen that calculates a coordinate position on the operation screen at which an extension line in a direction indicated by a finger intersects and draws a pointer or displays that a selection item is selected ,
The second operation screen is an operation screen for changing execution selection items by changing selection items one by one in response to an operation of moving the entire hand up and down or left and right.
The vehicle operation device, wherein the first operation screen and the second operation screen are displayed on the same display device.
前記処理装置は、検出された車速に基づいて前記第1操作画面と前記第2操作画面のいずれかを形成する、請求項1に記載の車両用操作装置。   The vehicle operation device according to claim 1, wherein the processing device forms either the first operation screen or the second operation screen based on the detected vehicle speed. 前記処理装置は、車両停止中の場合は前記第1操作画面を形成し、車両停止中でない場合は前記第2操作画面を形成する、請求項2に記載の車両用操作装置。   The vehicle operation device according to claim 2, wherein the processing device forms the first operation screen when the vehicle is stopped, and forms the second operation screen when the vehicle is not stopped. 前記処理装置は、前記第1操作画面の表示中は、前記手の動きとは別の決定操作を検出した場合に、前記ポインタ又はカーソルが位置する選択項目の決定処理を行う一方、前記第2操作画面の表示中は、前記手全体を動かす動作を検出した場合に、前記決定操作の検出を必要とせずに、前記手全体を動かす動作により変更された選択項目の決定処理を行う、請求項1から3のいずれか一項に記載の車両用操作装置。 While the first operation screen is being displayed, the processing device performs a selection item determination process where the pointer or cursor is positioned when a determination operation different from the movement of the hand is detected, while the second operation screen is displayed. When an operation for moving the entire hand is detected while an operation screen is displayed, the selection item changed by the operation for moving the entire hand is determined without detecting the determination operation. The vehicle operating device according to any one of 1 to 3 . 所定機能に関する第1操作画面と、前記第1操作画面とは異なる第2操作画面のいずれかを形成する操作画面形成ステップを備え、
前記第1操作画面は、指の指す方向の延長線が交わる操作画面上の座標位置を算出してポインタを描画または選択項目が選択されていることを表示させる操作画面であり、
前記第2操作画面は、手全体を上下又は左右に動かす動作に応答して選択項目を1つずつ変更して実行選択項目を変更する操作画面であり、
前記第1操作画面及び前記第2操作画面は同一の表示装置に表示される、操作画面形成方法。
An operation screen forming step of forming one of a first operation screen related to a predetermined function and a second operation screen different from the first operation screen;
The first operation screen is an operation screen that calculates a coordinate position on the operation screen at which an extension line in a direction indicated by a finger intersects and draws a pointer or displays that a selection item is selected ,
The second operation screen is an operation screen for changing execution selection items by changing selection items one by one in response to an operation of moving the entire hand up and down or left and right,
The operation screen forming method, wherein the first operation screen and the second operation screen are displayed on the same display device.
前記操作画面形成ステップにおいて、検出された車速に基づいて前記第1操作画面と前記第2操作画面のいずれかが形成される、請求項に記載の操作画面形成方法。 The operation screen forming method according to claim 5 , wherein, in the operation screen forming step, one of the first operation screen and the second operation screen is formed based on the detected vehicle speed. 前記操作画面形成ステップにおいて、車両停止中の場合は前記第1操作画面が形成され、車両停止中でない場合は前記第2操作画面が形成される、請求項に記載の操作画面形
成方法。
The operation screen forming method according to claim 6 , wherein, in the operation screen forming step, the first operation screen is formed when the vehicle is stopped, and the second operation screen is formed when the vehicle is not stopped.
前記操作画面形成ステップにおいて、前記第1操作画面の表示中は、前記手の動きとは別の決定操作を検出した場合に、前記ポインタ又はカーソルが位置する選択項目の決定処理が行われる一方、前記第2操作画面の表示中は、前記手全体を動かす動作を検出した場合に、前記決定操作の検出を必要とせずに、前記手全体を動かす動作により変更された選択項目の決定処理が行われる、請求項5から7のいずれか一項に記載の操作画面形成方法。 In the operation screen forming step, during the display of the first operation screen, when a determination operation different from the movement of the hand is detected, a determination process of a selection item where the pointer or the cursor is positioned is performed. During the display of the second operation screen, when an operation of moving the entire hand is detected, the selection item changed by the operation of moving the entire hand is performed without detecting the determination operation. The operation screen formation method according to any one of claims 5 to 7 . 車載コンピュータに、所定機能に関する第1操作画面と、前記第1操作画面とは異なる第2操作画面のいずれかを形成させる処理を実行させ、
前記第1操作画面は、指の指す方向の延長線が交わる操作画面上の座標位置を算出してポインタを描画または選択項目が選択されていることを表示させる操作画面であり、
前記第2操作画面は、手全体を上下又は左右に動かす動作に応答して選択項目を1つずつ変更して実行選択項目を変更する操作画面であり、
前記第1操作画面及び前記第2操作画面は同一の表示装置に表示される、操作画面形成プログラム。
Causing the in-vehicle computer to execute a process of forming either a first operation screen related to a predetermined function or a second operation screen different from the first operation screen;
The first operation screen is an operation screen that calculates a coordinate position on the operation screen at which an extension line in a direction indicated by a finger intersects and draws a pointer or displays that a selection item is selected ,
The second operation screen is an operation screen for changing execution selection items by changing selection items one by one in response to an operation of moving the entire hand up and down or left and right,
An operation screen formation program in which the first operation screen and the second operation screen are displayed on the same display device.
JP2017141123A 2017-07-20 2017-07-20 Vehicle control device Active JP6414288B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141123A JP6414288B2 (en) 2017-07-20 2017-07-20 Vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141123A JP6414288B2 (en) 2017-07-20 2017-07-20 Vehicle control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014128580A Division JP6269343B2 (en) 2014-06-23 2014-06-23 Vehicle control device

Publications (2)

Publication Number Publication Date
JP2017200820A JP2017200820A (en) 2017-11-09
JP6414288B2 true JP6414288B2 (en) 2018-10-31

Family

ID=60264574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141123A Active JP6414288B2 (en) 2017-07-20 2017-07-20 Vehicle control device

Country Status (1)

Country Link
JP (1) JP6414288B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6939451B2 (en) * 2017-11-15 2021-09-22 株式会社デンソー Input device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009154A (en) * 1999-06-30 2001-01-16 Namco Ltd Shooting game device
JP3860550B2 (en) * 2003-03-07 2006-12-20 日本電信電話株式会社 Interface method, apparatus, and program
JP2005063090A (en) * 2003-08-11 2005-03-10 Keio Gijuku Hand pattern switch device
DE102006037156A1 (en) * 2006-03-22 2007-09-27 Volkswagen Ag Interactive operating device and method for operating the interactive operating device
JP5158152B2 (en) * 2010-08-20 2013-03-06 株式会社デンソー Operation input device
JP2012096670A (en) * 2010-11-02 2012-05-24 Panasonic Corp Input device and input method
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
JP5579293B2 (en) * 2013-03-07 2014-08-27 富士通テン株式会社 Display device

Also Published As

Publication number Publication date
JP2017200820A (en) 2017-11-09

Similar Documents

Publication Publication Date Title
JP6269343B2 (en) Vehicle control device
EP2829440B1 (en) On-board apparatus
US20110265036A1 (en) Method and Device for Displaying Information Arranged in Lists
KR101609024B1 (en) Method and device for providing a user interface
KR101293860B1 (en) Method and display device for displaying information
JP2013125540A (en) Method and apparatus for executing menu of vehicle
WO2015136901A1 (en) Equipment operation device
JP2018097794A (en) Input device and input method
JP2009286175A (en) Display device for vehicle
KR101558354B1 (en) Blind control system for vehicle
JP2016097928A (en) Vehicular display control unit
US20220155088A1 (en) System and method for point of interest user interaction
WO2019111515A1 (en) Input device and input method
JP6414288B2 (en) Vehicle control device
JP2017210027A (en) Safety drive support system of vehicle and safety drive support method
US10052955B2 (en) Method for providing an operating device in a vehicle and operating device
JP7042931B2 (en) Display control device, display control system, and display control method
KR20170010066A (en) Method and device for providing a user interface in a vehicle
US11230189B2 (en) System and method for application interaction on an elongated display screen
JP2013061825A (en) Display device and display method thereof
JP2011107900A (en) Input display device
US11126282B2 (en) System and method for touchpad display interaction with interactive and non-interactive regions
US20210206272A1 (en) Screen operating unit and method of activating the operability of a functional unit of a motor vehicle and/or of activating a depiction of contents of a functional unit of a motor vehicle
JP2012053561A (en) Rotary input device
JPWO2019244811A1 (en) Vehicle display device, vehicle display device control method, vehicle display device control program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180917

R151 Written notification of patent or utility model registration

Ref document number: 6414288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151