JP2020126282A - Input system and input method - Google Patents
Input system and input method Download PDFInfo
- Publication number
- JP2020126282A JP2020126282A JP2017116226A JP2017116226A JP2020126282A JP 2020126282 A JP2020126282 A JP 2020126282A JP 2017116226 A JP2017116226 A JP 2017116226A JP 2017116226 A JP2017116226 A JP 2017116226A JP 2020126282 A JP2020126282 A JP 2020126282A
- Authority
- JP
- Japan
- Prior art keywords
- display
- gesture
- recognition space
- gesture recognition
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
Abstract
Description
本発明は、車両内におけるジェスチャ入力を用いた入力システム、入力方法に関する。 The present invention relates to an input system and an input method using gesture input in a vehicle.
近年、空中に映像を表示させる空中ディスプレイの開発が進められている。例えば、映像を、特殊な光学プレートを通過させることにより、実像の反対側の等距離の空中に実像を結像させる技術が開発されている(例えば、特許文献1参照)。当該光学プレートは、短冊状の鏡面ガラスを積層して形成した光学部材を2つ、交差させて接合することにより1枚のプレートを形成している。ディスプレイ等から発光された光が、直交する2つの光学部材で反射し、反対側の空中で再び結像する。 In recent years, development of an aerial display for displaying an image in the air has been advanced. For example, a technique has been developed in which a real image is formed in the air at an equal distance on the opposite side of the real image by passing the image through a special optical plate (see, for example, Patent Document 1). The optical plate is formed by laminating two optical members formed by laminating strip-shaped mirror-like glasses so as to cross each other and joining them. Light emitted from a display or the like is reflected by two optical members that are orthogonal to each other and forms an image again in the air on the opposite side.
また近年、タッチパネルやボタンに触れることなく、手の動きで操作入力するジェスチャ操作の開発が進められている。ジェスチャ操作は操作対象に触れる必要がないため、離れた位置から操作対象を操作することができる。 Further, in recent years, development of a gesture operation in which an operation input is performed by a motion of a hand without touching a touch panel or a button has been advanced. Since the gesture operation does not need to touch the operation target, the operation target can be operated from a distant position.
近年、車両の電装化が加速しており、車両内においてタッチ操作やボタン操作する機会が増えている。車両内において搭乗者は基本的に、シートに座った状態で各種機器を操作する必要があり、操作部の位置によっては手を大きく伸ばす必要がある。従って車両内の機器の操作に、ジェスチャ操作を導入すれば、搭乗者の操作にかかる負担を軽減することが期待できる。 In recent years, the electrification of vehicles has been accelerated, and the opportunities for touch operation and button operation inside the vehicle are increasing. In the vehicle, the occupant basically needs to operate various devices while sitting on a seat, and depending on the position of the operation part, the occupant needs to extend his/her hand greatly. Therefore, if the gesture operation is introduced into the operation of the device in the vehicle, it can be expected that the burden on the operation of the passenger can be reduced.
しかしながら、ジェスチャ操作は空中で行われるため、ジェスチャ操作の認識範囲から外れると操作入力が機器に認識されなくなる。その状況は、ジェスチャ操作を行っている搭乗者にとって大きなストレスとなる。 However, since the gesture operation is performed in the air, the operation input is not recognized by the device if it is out of the recognition range of the gesture operation. The situation becomes a great stress to the passenger who is performing the gesture operation.
本発明はこうした状況に鑑みなされたものであり、その目的は、車両内において快適にジェスチャ操作を行うことができる技術を提供することにある。 The present invention has been made in view of such a situation, and an object thereof is to provide a technique capable of comfortably performing a gesture operation in a vehicle.
上記課題を解決するために、本発明のある態様の入力システムは、車両内の搭乗者に情報を提示するためのディスプレイと、前記ディスプレイの近傍に設定されたジェスチャ認識空間内で行われる搭乗者のジェスチャ操作を認識するセンサと、前記ジェスチャ認識空間の外に設置される表示器と、前記ジェスチャ認識空間と前記表示器の間に設置され、前記表示器に表示されたジェスチャガイド映像を前記ジェスチャ認識空間に結像させる光学プレートと、を備える。前記ディスプレイは、前記センサにより認識されたジェスチャ操作を反映した情報を表示する。 In order to solve the above problems, an input system according to an aspect of the present invention is a display for presenting information to an occupant in a vehicle, and an occupant performed in a gesture recognition space set near the display. Sensor for recognizing the gesture operation, a display installed outside the gesture recognition space, and a gesture guide image displayed on the display installed between the gesture recognition space and the display. And an optical plate for forming an image in the recognition space. The display displays information that reflects the gesture operation recognized by the sensor.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を装置、システム、方法、プログラム、プログラムを記録した記録媒体、それらを搭載した自動運転車両などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above constituents, the expression of the present invention converted between an apparatus, a system, a method, a program, a recording medium storing the program, an automatic driving vehicle equipped with them, and the like are also included in the present invention. Is effective as a mode.
本発明によれば、車両内において快適にジェスチャ操作を行うことができる。 According to the present invention, it is possible to comfortably perform a gesture operation in a vehicle.
図1(a)、(b)は、ジェスチャ入力の構成例を示す図である。図1(a)は、ジェスチャ検知センサ50としてカメラを使用する構成例である。当該構成例では、情報表示用のディスプレイ30の下側に、ジェスチャ検知用のカメラが設置される。カメラの向きは、ディスプレイ30の画面から所定の距離、手前に離れた空間が画角に収まるように設定される。この画面手前のカメラの画角に収まる空間が、ジェスチャ認識空間S1となる。
1A and 1B are diagrams showing a configuration example of gesture input. FIG. 1A is a configuration example in which a camera is used as the
図1(b)は、ジェスチャ検知センサ50として、高感度な静電容量式のタッチパネルセンサを使用する構成例である。当該構成例では、ディスプレイ30の表面に、静電容量式のタッチパネルセンサが設置される。ディスプレイ30の表面に近接する、非接触の空間がジェスチャ認識空間S1となる。ユーザはこのジェスチャ認識空間S1内でホバー操作を行うことができる。ジェスチャ認識空間S1は、タッチパネルセンサの感度が高いほど広くなる。なお、カメラや静電容量式のタッチパネルセンサに代えて、赤外線センサや超音波センサ等を使用することも可能である。
FIG. 1B is a configuration example in which a highly sensitive capacitive touch panel sensor is used as the
ジェスチャ入力、特に図1(a)に示した構成例のジェスチャ入力には、以下の課題がある。(1)操作者がジェスチャ認識空間S1の範囲でジェスチャ操作を行うことが難しい。操作者から見てジェスチャ認識空間S1は何もない空間であり、操作者がその空間範囲を把握することは難しい。(2)ディスプレイ30にジェスチャ操作用のガイドを表示させると、操作者以外にとっては煩わしい。(3)目の前に表示されるディスプレイ30や目の前にある機器を操作するには、直接接触して操作するのが自然であり、ジェスチャ操作のメリットが訴求しにくい。
Gesture input, particularly the gesture input of the configuration example shown in FIG. 1A, has the following problems. (1) It is difficult for the operator to perform a gesture operation within the range of the gesture recognition space S1. The gesture recognition space S1 is an empty space seen from the operator, and it is difficult for the operator to grasp the spatial range. (2) Displaying a guide for gesture operation on the
そこで本発明の実施の形態では、ジェスチャ入力と空中ディスプレイを組み合わせて使用する。具体的には空中ディスプレイを使用して、ジェスチャ認識空間S1にジェスチャ操作のガイド映像を空中表示させる。 Therefore, in the embodiment of the present invention, the gesture input and the aerial display are used in combination. Specifically, an aerial display is used to display a gesture operation guide image in the air in the gesture recognition space S1.
図2(a)、(b)は、ジェスチャ入力と空中ディスプレイを組み合わせた構成例を示す図である。図2(a)は、ジェスチャ検知センサ50としてカメラを使用する構成例であり、図2(b)は、ジェスチャ検知センサ50として静電容量式のタッチパネルセンサを使用する構成例である。
2A and 2B are diagrams showing a configuration example in which a gesture input and an aerial display are combined. FIG. 2A is a configuration example in which a camera is used as the
空中ディスプレイは、表示器41と光学プレート42で実現される。上述した特殊加工が施された光学プレート42は、光学プレート42を挟んで一方側に設置された表示器41に表示された映像を、光学プレート42の反対側の線対称な空間位置に結像させることができる。光学プレート42及び表示器41の設置位置は、ディスプレイ30の手前に設定されたジェスチャ認識空間S1に表示させるべきガイド映像I1の位置と、上記反射の関係をもとに決定される。
The aerial display is realized by the
ジェスチャ入力と空中ディスプレイを組み合わせると、以下のメリットがある。(1)操作者のみ視認可能な空中ジェスチャ操作ガイドを表示することにより、ジェスチャ認識空間S1の範囲内でのジェスチャ操作が容易になる。(2)操作者のみ視認可能な空中ジェスチャ操作ガイドを表示することにより、操作者以外に煩わしさが発生しない。(3)ジェスチャ操作ガイドを表示するのみであるため、操作者の視覚的な煩わしさが少ない。(4)目の前に表示されるディスプレイや目の前の機器以外の機器を直感的に操作可能になる。(5)通常の情報表示用のディスプレイ30とは別に、ジェスチャ操作ガイド用の空中ディスプレイを装備することにより、提示する情報量を確保することができる。
Combining gesture input and aerial display has the following advantages. (1) By displaying the aerial gesture operation guide visible only to the operator, the gesture operation within the range of the gesture recognition space S1 becomes easy. (2) By displaying the aerial gesture operation guide visible only to the operator, no annoyance occurs to anyone other than the operator. (3) Since only the gesture operation guide is displayed, the operator is less visually annoyed. (4) It becomes possible to intuitively operate devices other than the display displayed in front of the eyes and the device in front of the eyes. (5) The amount of information to be presented can be secured by providing an aerial display for a gesture operation guide in addition to the
なお2017年現在の空中ディスプレイ技術は、一般的な液晶ディスプレイや有機ELディスプレイと比較して低輝度・低解像度であり、小さな文字や、絵などの表示には適していない。また、半透過な状態で映像が空中に浮かび上がるためコントラストが低く、明るい環境下では視認性が低下する。従って、空中ディスプレイは通常のディスプレイ30との併用が好ましい。なお2017年現在の空中ディスプレイ技術は、一般的なディスプレイより狭視野角であるため、特定の操作者にのみ情報を提示するという観点では優位性がある。
The aerial display technology as of 2017 has lower brightness and lower resolution than general liquid crystal displays and organic EL displays, and is not suitable for displaying small characters and pictures. In addition, since the image floats in the air in the semi-transparent state, the contrast is low, and the visibility is reduced in a bright environment. Therefore, the aerial display is preferably used together with the
以下、ジェスチャ入力と空中ディスプレイを組み合わせた入力システムを、車両内で使用する例を説明する。上述の空中ディスプレイは、表示器41と光学プレート42が必要であり、ディスプレイ30の下側に、表示器41と光学プレート42を格納するスペースが必要である。
Hereinafter, an example of using an input system combining a gesture input and an aerial display in a vehicle will be described. The above-described aerial display requires the
図3(a)−(c)は、本発明の実施の形態に係る入力システムの、車両内における設置例を示す図である。図3(a)は車両内の運転席付近の模式図である。情報提示用のディスプレイ30が、ダッシュボード4の上に設置されている。情報提示用のディスプレイ30には例えば、カーナビゲーション装置のセンタディスプレイを使用することができる。なお、ダッシュボード4上のホルダに固定されたスマートフォンやタブレットのディスプレイであってもよい。
FIGS. 3A to 3C are diagrams showing an installation example in a vehicle of the input system according to the embodiment of the present invention. FIG. 3A is a schematic view of the vicinity of the driver's seat in the vehicle. A
ジェスチャ認識空間S1は、ディスプレイ30の表示面に対して手前下方の空間に設定される。具体的にはダッシュボード4のディスプレイ30の設置位置から手前下方に傾斜しながら延びるセンタコンソール5の傾斜面に設置される。図3(a)では、当該傾斜面の上側にジェスチャ認識空間S1が設定されているが、当該傾斜面の中央部または下側に設定されてもよい。ステアリングホイール3aはセンタコンソール5の傾斜面の右側に設置されており、運転者はジェスチャ認識空間S1に対して、左手で容易にリーチすることができる。
The gesture recognition space S1 is set to a space below and near the display surface of the
図3(b)は、ディスプレイ30と光学プレート42の位置関係を示す概略図である。センタコンソール5の傾斜面と平行に光学プレート42が設置される。光学プレート42の上空に左矢印のガイド映像Iaが空中表示される。図3(c)は、ディスプレイ30と光学プレート42と表示器41の位置関係を側面方向から見た模式図である。運転者の視点E1からは、センタコンソール5の傾斜面にガイド映像Iaが浮かび上がって見える。
FIG. 3B is a schematic diagram showing the positional relationship between the
図4は、光学プレート42と表示器41の設置方法の一例を示す図である。表示器41は格納ボックス45に収納されて設置される。格納ボックス45の内側は低反射処理が施されている。表示器41には通常の液晶ディスプレモジュール(LCM)を使用することができる。表示器41の表示面側の表面にはライトコントロールフィルム(LCF)43が貼り付けられている。ライトコントロールフィルム43は拡散光を抑制し、光の平行度を向上させるフィルムであり、表示器41を正面から見た場合の輝度・視認性を向上させることができる。格納ボックス45の上蓋の位置に光学プレート42が設置される。
FIG. 4 is a diagram showing an example of a method of installing the
このように光学プレート42の一方側に設置される表示器41を格納ボックス45で覆うことにより、表示器41の周囲を暗くすることができ、光学プレート42の反対側の空中に結像される映像I1の視認性を向上させることができる。また表示器41にライトコントロールフィルム43を貼り、格納ボックス45の内側に低反射処理を施すことにより、空中にゴースト映像が結像されることを防止することができる。図4に示した格納ボックス45が例えば、図3(a)に示したセンタコンソール5の傾斜面の内側に設置される。
Thus, by covering the
図5は、本発明の実施の形態に係る入力システム2の構成を示すブロック図である。入力システム2は、制御装置10、ディスプレイ30、空中映像表示装置40及びジェスチャ検知センサ50を含む。空中映像表示装置40は主要部材として、表示器41及び光学プレート42を含む。なお図4に示したライトコントロールフィルム43は必須ではなく省略可能である。
FIG. 5 is a block diagram showing the configuration of the
制御装置10は処理部11、I/O部12、及び記録部13を備える。処理部11は、画面制御部111、ガイド制御部112、検知情報取得部113、操作内容判定部114、及び機器制御部115を含む。処理部11の機能はハードウェア資源とソフトウェア資源の協働により実現できる。ハードウェア資源としてCPU、GPU、DSP、FPGA、ROM、RAM、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション、ファームウェア等のプログラムを利用できる。記録部13は不揮発性メモリであり、NAND型フラッシュメモリチップ、SSD、HDD等の記録媒体を備える。
The
制御装置10は、専用の筐体内に実装されてもよいし、カーナビゲーション装置や、ディスプレイオーディオ等のヘッドユニット内に実装されてもよい。後者の場合、制御装置10の機能を実装した基板を、それらの筐体内に追加する形態でもよいし、それらの既存のハードウェア資源を時分割で活用する形態でもよい。また、スマートフォンやタブレット等の外部から持ち込まれた情報機器のハードウェア資源を活用する形態でもよい。
The
ディスプレイ30は上述のように車室内に設置されるディスプレイであり、液晶ディスプレイや有機ELディスプレイを使用することができる。ジェスチャ検知センサ50は、車室内のディスプレイ30の近傍に設定されたジェスチャ認識空間S1内で行われる搭乗者のジェスチャ操作を認識するセンサである。上述のようにカメラ、非接触式のタッチパネル等を使用することができる。
The
I/O部12は、処理部11から供給される画像信号をディスプレイ30に出力し、処理部11から供給される画像信号を表示器41に出力し、ジェスチャ検知センサ50から供給される検知信号を処理部11に出力する。
The I/
画面制御部111は、ディスプレイ30に表示させるべ画像データを生成し、ディスプレイ30に出力して表示させる。ガイド制御部112は、ジェスチャ認識空間S1にジェスチャガイド映像として空中に表示させるべき画像データを生成し、表示器41に出力して表示させる。例えばガイド制御部112は、ジェスチャガイド映像として、操作内容を示すシンボル映像を空中に表示させる。例えば、丸、三角、四角、バツ印、矢印、十字などの図形シンボルマークを空中に表示させてもよいし、操作内容を表象するアイコンを空中に表示させてもよい。
The
またガイド制御部112は、ジェスチャガイド映像として、ジェスチャ認識空間S1の範囲を規定する映像を空中に表示させてもよい。例えば、ジェスチャ認識空間S1の枠の映像を空中映像させてもよい。またジェスチャ認識空間S1の各頂点の位置に点の映像を空中表示させてもよい。
Further, the
検知情報取得部113は、ジェスチャ検知センサ50により検知された検知情報を取得する。例えば、カメラで撮影されたジェスチャ認識空間S1の画像データを取得する。操作内容判定部114は、検知情報取得部113により取得された検知情報をもとに操作内容を判定する。例えば、取得された画像内からオブジェクトとして手を検出し、検出した手の動きを追従する。操作内容判定部114は、検出した手の動きからジェスチャ操作内容を特定する。なお画像内における手の探索範囲は、ガイド映像が表示される近傍の領域に絞り込んでもよい。
The detection
画面制御部111は、操作内容判定部114により判定されたジェスチャ操作を反映した画像をディスプレイ30に表示させる。画面制御部111は、ジェスチャ操作の受け付け完了を示す画像(マーク、アイコン、ピクト、シンボルなど)を表示させる。また画面制御部111は、受け付けたジェスチャ操作に対応する機器動作の状況を示す画像(例えば、処理中のアイコン、処理完了のアイコン)を表示させる。
The
機器制御部115は、車両内の機器に対する、操作内容判定部114により判定されたジェスチャ操作に対応する操作内容を実行する。例えば、カーナビゲーション装置の操作、ディスプレイオーディオの操作、エアコンの操作、パワーウインドウの操作、ルームランプの点灯/消灯操作などを実行する。なお、ウインカの点灯/消灯、ギアシフト、クラクションの鳴動、パッシング、ワイパーの始動/終了など車両の運転操作を実行してもよい。
The
図6(a)−(c)は、本発明の実施の形態に係る入力システム2を用いたジェスチャ操作の具体例を示す図である。図6(a)は、操作者の目の前(ジェスチャ操作を実施する近辺)にある機器の、表示されていない機能を実行する場合の例である。
FIGS. 6A to 6C are diagrams showing a specific example of the gesture operation using the
図6(a)において、ディスプレイ30はカーナビゲーション装置のディスプレイであり、カーナビゲーション装置の音声案内の音量をジェスチャ操作で変更する。光学プレート42の上空のジェスチャ認識空間S1には、左矢印のガイド映像Iaと右矢印のガイド映像Ibが空中に結像されている。操作者が、左矢印のガイド映像Iaを左方向にはらうジェスチャで音量が低下し、右矢印のガイド映像Ibを右方向にはらうジェスチャで音量が増大する。図6(a)では、左矢印のガイド映像Iaを左方向にはらうことにより、音量が低下し、ディスプレイ30に表示されたボリュームバー30aの目盛りが低下している。
In FIG. 6A, a
図6(b)は、操作者の目の前にない機器を操作する場合の例である。光学プレート42の上空のジェスチャ認識空間S1には、上矢印のガイド映像Icが空中に結像されている。操作者が、上矢印のガイド映像Icを上方向にはらうジェスチャで右ウインカが点滅する。右ウインカが点滅すると、ディスプレイ30の画面に、右ウインカが点滅していることを示すアイコン30bが表示される。なお図示しないが右ウインカの点滅中、下矢印のガイド映像が空中に結像され、操作者が下矢印のガイド映像を下方向にはらうジェスチャで右ウインカが消灯する。
FIG. 6B shows an example of operating a device that is not in front of the operator's eyes. In the gesture recognition space S1 above the
図6(c)は、操作者の目の前だが、手が届きにくい機器を操作する場合の例である。 図6(c)において、ディスプレイ30はカーナビゲーション装置のディスプレイであり、ディスプレイ30に表示された地図をフリック又はスワイプする。ディスプレイ30の画面には地図30cが表示され、光学プレート42の上空のジェスチャ認識空間S1には、左矢印のガイド映像Iaと右矢印のガイド映像Ibが空中に結像されている。操作者が、左矢印のガイド映像Iaを左方向にはらうジェスチャで地図30cが左方向にフリック又はスワイプされ、右矢印のガイド映像Ibを右方向にはらうジェスチャで地図30cが右方向にフリック又はスワイプされる。手の動きが所定速度未満の場合はフリック操作になり、所定速度以上の場合はスワイプ操作となる。図6(c)では、左矢印のガイド映像Iaを左方向にはらうことにより、地図30cが左方向にフリックされている。
FIG. 6C is an example in the case of operating a device that is hard to reach, but in front of the operator. In FIG. 6C, the
図7は、本発明の実施の形態に係る入力システム2の動作を示すフローチャートである。ガイド制御部112は、ジェスチャ認識空間S1に所定のガイド映像を空中表示させる(S10)。検知情報取得部113は、ジェスチャ検知センサ50により検知された、操作者のジェスチャ操作に基づく検知情報を取得する(S11)。操作内容判定部114は、取得された検知情報をもとに操作内容を特定する(S12)。画面制御部111は、特定された操作内容の受付完了を示す画像をディスプレイ30に表示させる(S13)。機器制御部115は、特定された操作内容に応じて機器を制御する(S14)。
FIG. 7 is a flowchart showing the operation of the
以上説明したように本実施の形態によれば、ジェスチャ認識空間S1にガイド映像を表示させることにより、ジェスチャ認識空間S1の範囲内でのジェスチャ操作が容易になり、ジェスチャ操作が空振りになる確率を大きく低下させることができる。従って車両内の搭乗者が快適にジェスチャ操作を行うことができる。 As described above, according to the present embodiment, by displaying the guide image in the gesture recognition space S1, the gesture operation within the range of the gesture recognition space S1 is facilitated, and the probability that the gesture operation will be missed is increased. It can be greatly reduced. Therefore, the passenger in the vehicle can comfortably perform the gesture operation.
また運転者の方向に向けてガイド映像を空中表示させると、狭視野角の特性から助手席に座っている搭乗者には当該ガイド映像が見えない。従って、対象者以外の搭乗者の視覚的な煩わしさが発生しない。また、ジェスチャ操作時のみガイド映像を空中表示させれば、対象者の視覚的な煩わしさも発生しない。また情報表示用の既存のディスプレイと併用することにより、情報提示量を確保することができる。空中表示だけでは提示する情報量が制限される。 Further, when the guide image is displayed in the air in the direction of the driver, a passenger sitting in the passenger seat cannot see the guide image due to the characteristics of the narrow viewing angle. Therefore, the visual annoyance of passengers other than the target person does not occur. Further, if the guide image is displayed in the air only during the gesture operation, the visual annoyance of the subject does not occur. In addition, the amount of information presented can be secured by using it together with an existing display for displaying information. The amount of information presented is limited only by the aerial display.
以上、本発明を実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiment. It should be understood by those skilled in the art that these embodiments are mere examples, and that various modifications can be made to the combinations of their respective constituent elements and respective processing processes, and that such modifications are also within the scope of the present invention. By the way.
図8(a)、(b)は、変形例に係る入力システム2の、車両内における設置例を示す図である。図8(a)に示す変形例では、ジェスチャ認識空間S1は、ダッシュボード4の中央部の上に設置される。空中映像表示装置40はダッシュボード4の中央部の内部に設置される。情報提示用のディスプレイ30は、センタコンソール5の傾斜面のジェスチャ認識空間S1に近接する位置に設置される。情報提示用のディスプレイ30には例えば、ディスプレイオーディオ等のヘッドユニットのディスプレイを使用することができる。
FIGS. 8A and 8B are diagrams showing an installation example of the
図8(b)に示す変形例では、表示器41及び光学プレート42を備える空中映像表示装置40が、ステアリングコラム3bのステアリングホイール3aとの接合部分の上部に埋め込まれる。ガイド映像I1は、運転者から見てステアリングホイール3aの奥(ステアリングコラム3bの上空)に結像される。情報提示用のディスプレイには、インストルメントパネル6の内のディスプレイを使用することができる。
In the modification shown in FIG. 8B, the aerial
また図4では、表示器41に液晶ディスプレイモジュールを使用する例を説明したが、表示映像が限定される用途では、基板上に複数の発光ダイオードを設置して表示器41を作成してもよい。例えば、ジェスチャ認識空間S1の頂点に輝点を表示させるだけの場合、基板上の所定の位置に8個の発光ダイオードを設置するだけで表示器41を作成することができる。
Further, in FIG. 4, an example in which a liquid crystal display module is used for the
このような液晶層通過による減衰が発生しない表示器41を使用する場合、夜間の車室内では空中映像が眩しく見える場合がある。ガイド制御部112は、車両内の明るさに応じて発光ダイオードの輝度を調整してもよい。車両内の明るさは、車両に設置された照度センサ(不図示)により検知された照度情報をもとに判定する。なお気象庁または民間気象会社のサーバから無線通信ネットワークを介して、現在位置の照度を取得してもよい。ガイド制御部112は、車両内の照度が低いほど発光ダイオードの輝度を低下させる。発光ダイオードの輝度は、駆動電流またはPWM比を調整することによりコントロールすることができる。なお表示器41に液晶ディスプレイモジュールを使用している場合は、もともとの表示輝度が低いため夜間に輝度を低下させる必要性は低いが、液晶ディスプレイモジュール使用時における輝度コントロールを排除するものではない。
When using the
なお、実施の形態は、以下の項目によって特定されてもよい。 The embodiment may be specified by the following items.
[項目1]
車両内の搭乗者に情報を提示するためのディスプレイ(30)と、
前記ディスプレイ(30)の近傍に設定されたジェスチャ認識空間(S1)内で行われる搭乗者のジェスチャ操作を認識するセンサ(50)と、
前記ジェスチャ認識空間(S1)の外に設置される表示器(41)と、
前記ジェスチャ認識空間(S1)と前記表示器(41)の間に設置され、前記表示器(41)に表示されたジェスチャガイド映像を前記ジェスチャ認識空間(S1)に結像させる光学プレート(42)と、を備え、
前記ディスプレイ(30)は、前記センサ(50)により認識されたジェスチャ操作を反映した情報を表示する、
入力システム(2)。
これにより、ジェスチャ認識空間(S1)の範囲内でのジェスチャ操作が容易になり、ジェスチャ操作の操作性を向上させることができる。
[項目2]
前記表示器(41)は、前記ジェスチャガイド映像として、操作内容を示すシンボル映像を表示し、
前記光学プレート(42)は、前記シンボル映像を前記ジェスチャ認識空間(S1)に結像させる、
項目1に記載の入力システム(2)。
これにより、ジェスチャ操作による操作性をさらに向上させることができる。
[項目3]
前記表示器(41)は、前記ジェスチャガイド映像として、前記ジェスチャ認識空間(S1)の範囲を規定する映像を表示し、
前記光学プレート(42)は、前記ジェスチャ認識空間(S1)の範囲を規定する映像を前記ジェスチャ認識空間(S1)に結像させる、
項目1に記載の入力システム(2)。
これにより、ジェスチャ認識空間(S1)の外延が認識しやすくなる。
[項目4]
前記ディスプレイ(30)は、ダッシュボード(4)に設置されるセンタディスプレイ(30)であり、
前記ジェスチャ認識空間(S1)は、前記センタディスプレイ(30)の表示面に対して手前下方の空間に設定される、
項目1から3のいずれかに記載の入力システム(2)。
これにより、センタディスプレイ(30)をタッチ操作する場合と比較して、手を伸ばす距離が短くなるため、操作性が向上する。
[項目5]
前記ジェスチャ認識空間(S1)は、ダッシュボード(4)の中央部の上に設定され、
前記ディスプレイ(30)は、センタコンソール(5)の前記ジェスチャ認識空間(S1)に近接する位置に設置される、
項目1から3のいずれかに記載の入力システム(2)。
これにより、ジェスチャガイド映像がフロントガラスと同じ高さに表示されるため、運転中におけるジェスチャガイド映像の視認性を高めることができる。
[項目6]
車両(1)内の搭乗者に情報を提示するためのディスプレイ(30)の近傍に設定されたジェスチャ認識空間(S1)内で行われる搭乗者のジェスチャ操作を認識するステップと、
前記ジェスチャ認識空間(S1)と、前記ジェスチャ認識空間(S1)の外に設置される表示器(41)の間に設置される光学プレート(42)を使用して、前記表示器(41)に表示されたジェスチャガイド映像を前記ジェスチャ認識空間(S1)に結像させるステップと、
前記ディスプレイ(30)に、認識されたジェスチャ操作を反映した情報を表示させるステップと、を有する、
入力方法。
[Item 1]
A display (30) for presenting information to passengers in the vehicle,
A sensor (50) for recognizing a gesture operation of an occupant performed in a gesture recognition space (S1) set near the display (30);
A display device (41) installed outside the gesture recognition space (S1),
An optical plate (42) installed between the gesture recognition space (S1) and the display device (41) for forming an image of the gesture guide image displayed on the display device (41) in the gesture recognition space (S1). And
The display (30) displays information reflecting the gesture operation recognized by the sensor (50),
Input system (2).
This facilitates the gesture operation within the range of the gesture recognition space (S1), and improves the operability of the gesture operation.
[Item 2]
The display device (41) displays a symbol image showing the operation content as the gesture guide image,
The optical plate (42) forms an image of the symbol image in the gesture recognition space (S1),
The input system (2) according to
Thereby, the operability by the gesture operation can be further improved.
[Item 3]
The display (41) displays, as the gesture guide image, an image defining a range of the gesture recognition space (S1),
The optical plate (42) images an image defining the range of the gesture recognition space (S1) in the gesture recognition space (S1).
The input system (2) according to
This makes it easier to recognize the extension of the gesture recognition space (S1).
[Item 4]
The display (30) is a center display (30) installed on the dashboard (4),
The gesture recognition space (S1) is set in a space below and near the display surface of the center display (30).
The input system (2) according to any one of
As a result, as compared with the case where the center display (30) is touch-operated, the distance to reach the hand is shortened, so that the operability is improved.
[Item 5]
The gesture recognition space (S1) is set on the central part of the dashboard (4),
The display (30) is installed at a position close to the gesture recognition space (S1) of the center console (5),
The input system (2) according to any one of
Accordingly, the gesture guide image is displayed at the same height as the windshield, and thus the visibility of the gesture guide image during driving can be improved.
[Item 6]
Recognizing the gesture operation of the passenger performed in the gesture recognition space (S1) set near the display (30) for presenting information to the passenger in the vehicle (1),
An optical plate (42) installed between the gesture recognition space (S1) and the display (41) installed outside the gesture recognition space (S1) is used to display the display (41). Forming an image of the displayed gesture guide image in the gesture recognition space (S1);
Causing the display (30) to display information that reflects the recognized gesture operation.
input method.
2 入力システム、 3a ステアリングホイール、 3b ステアリングコラム、 4 ダッシュボード、 5 センタコンソール、 6 インストルメントパネル、 10 制御装置、 11 処理部、 12 I/O部、 13 記録部、 14 通信部、 30 ディスプレイ、 40 空中映像表示装置、 41 表示器、 42 光学プレート、 43 ライトコントロールフィルム、 45 格納ボックス、 50 ジェスチャ検知センサ、 111 画面制御部、 112 ガイド制御部、 113 検知情報取得部、 114 操作内容判定部、 115 機器制御部。 2 input system, 3a steering wheel, 3b steering column, 4 dashboard, 5 center console, 6 instrument panel, 10 control device, 11 processing unit, 12 I/O unit, 13 recording unit, 14 communication unit, 30 display, 40 aerial image display device, 41 display device, 42 optical plate, 43 light control film, 45 storage box, 50 gesture detection sensor, 111 screen control unit, 112 guide control unit, 113 detection information acquisition unit, 114 operation content determination unit, 115 Device control unit.
Claims (6)
前記ディスプレイの近傍に設定されたジェスチャ認識空間内で行われる搭乗者のジェスチャ操作を認識するセンサと、
前記ジェスチャ認識空間の外に設置される表示器と、
前記ジェスチャ認識空間と前記表示器の間に設置され、前記表示器に表示されたジェスチャガイド映像を前記ジェスチャ認識空間に結像させる光学プレートと、を備え、
前記ディスプレイは、前記センサにより認識されたジェスチャ操作を反映した情報を表示する、
入力システム。 A display for presenting information to passengers in the vehicle,
A sensor that recognizes a gesture operation of an occupant performed in a gesture recognition space set near the display,
An indicator installed outside the gesture recognition space,
An optical plate that is installed between the gesture recognition space and the display, and forms an image of the gesture guide image displayed on the display in the gesture recognition space,
The display displays information that reflects the gesture operation recognized by the sensor,
Input system.
前記光学プレートは、前記シンボル映像を前記ジェスチャ認識空間に結像させる、
請求項1に記載の入力システム。 As the gesture guide image, the display displays a symbol image showing the operation content,
The optical plate forms an image of the symbol image in the gesture recognition space,
The input system according to claim 1.
前記光学プレートは、前記ジェスチャ認識空間の範囲を規定する映像を前記ジェスチャ認識空間に結像させる、
請求項1に記載の入力システム。 The display, as the gesture guide image, displays an image defining a range of the gesture recognition space,
The optical plate forms an image in the gesture recognition space that defines a range of the gesture recognition space.
The input system according to claim 1.
前記ジェスチャ認識空間は、前記センタディスプレイの表示面に対して手前下方の空間に設定される、
請求項1から3のいずれかに記載の入力システム。 The display is a center display installed on the dashboard,
The gesture recognition space is set in a space below and near the display surface of the center display,
The input system according to any one of claims 1 to 3.
前記ディスプレイは、センタコンソールの前記ジェスチャ認識空間に近接する位置に設置される、
請求項1から3のいずれかに記載の入力システム。 The gesture recognition space is set on the central part of the dashboard,
The display is installed at a position close to the gesture recognition space of the center console,
The input system according to any one of claims 1 to 3.
前記ジェスチャ認識空間と、前記ジェスチャ認識空間の外に設置される表示器の間に設置される光学プレートを使用して、前記表示器に表示されたジェスチャガイド映像を前記ジェスチャ認識空間に結像させるステップと、
前記ディスプレイに、認識されたジェスチャ操作を反映した情報を表示させるステップと、を有する、
入力方法。 A step of recognizing a passenger's gesture operation performed in a gesture recognition space set in the vicinity of a display for presenting information to a passenger in a vehicle;
An optical plate installed between the gesture recognition space and a display installed outside the gesture recognition space is used to form a gesture guide image displayed on the display in the gesture recognition space. Steps,
Causing the display to display information that reflects the recognized gesture operation.
input method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116226A JP2020126282A (en) | 2017-06-13 | 2017-06-13 | Input system and input method |
PCT/JP2018/022305 WO2018230526A1 (en) | 2017-06-13 | 2018-06-12 | Input system and input method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017116226A JP2020126282A (en) | 2017-06-13 | 2017-06-13 | Input system and input method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020126282A true JP2020126282A (en) | 2020-08-20 |
Family
ID=64658632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017116226A Pending JP2020126282A (en) | 2017-06-13 | 2017-06-13 | Input system and input method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020126282A (en) |
WO (1) | WO2018230526A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022045294A1 (en) * | 2020-08-28 | 2022-03-03 | 大日本印刷株式会社 | Aerial image forming device, aerial input device, display device with aerial image forming device, mobile object, and hologram imaging lens |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111984117A (en) * | 2020-08-12 | 2020-11-24 | 深圳创维-Rgb电子有限公司 | Panoramic map control method, device, equipment and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005138755A (en) * | 2003-11-07 | 2005-06-02 | Denso Corp | Device and program for displaying virtual images |
JP2007326409A (en) * | 2006-06-06 | 2007-12-20 | Toyota Motor Corp | Display device for vehicle |
JP5509391B1 (en) * | 2013-06-07 | 2014-06-04 | 株式会社アスカネット | Method and apparatus for detecting a designated position of a reproduced image in a non-contact manner |
JP6394135B2 (en) * | 2014-07-11 | 2018-09-26 | 船井電機株式会社 | Image display device |
JP6516241B2 (en) * | 2015-10-28 | 2019-05-22 | アルパイン株式会社 | Gesture input device |
-
2017
- 2017-06-13 JP JP2017116226A patent/JP2020126282A/en active Pending
-
2018
- 2018-06-12 WO PCT/JP2018/022305 patent/WO2018230526A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022045294A1 (en) * | 2020-08-28 | 2022-03-03 | 大日本印刷株式会社 | Aerial image forming device, aerial input device, display device with aerial image forming device, mobile object, and hologram imaging lens |
JP2022039582A (en) * | 2020-08-28 | 2022-03-10 | 大日本印刷株式会社 | Aerial imaging device, aerial input device, display device with aerial imaging device, vehicle, and holographic imaging lens |
JP7216925B2 (en) | 2020-08-28 | 2023-02-02 | 大日本印刷株式会社 | Aerial imaging device, aerial input device, display device with aerial imaging device, moving body and hologram imaging lens |
Also Published As
Publication number | Publication date |
---|---|
WO2018230526A1 (en) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9057874B2 (en) | Virtual cursor for road scene object selection on full windshield head-up display | |
CN107351763B (en) | Control device for vehicle | |
TWI578021B (en) | Augmented reality interactive system and dynamic information interactive and display method thereof | |
US9008904B2 (en) | Graphical vehicle command system for autonomous vehicles on full windshield head-up display | |
US20170364148A1 (en) | Control device for vehicle and control method thereof | |
KR101367593B1 (en) | Interactive operating device and method for operating the interactive operating device | |
KR101610098B1 (en) | Curved display apparatus for vehicle | |
CN104723964B (en) | Curved-surface display equipment for vehicle | |
JP6331567B2 (en) | Display input device for vehicle | |
KR102051606B1 (en) | Electronic apparatus for vehicle | |
JP2007302116A (en) | Operating device of on-vehicle equipment | |
KR20180053290A (en) | Control device for a vehhicle and control metohd thereof | |
EP3659848A1 (en) | Operating module, operating method, operating system and storage medium for vehicles | |
US20160124224A1 (en) | Dashboard system for vehicle | |
KR20200067866A (en) | Method for operating a display device in a car | |
WO2018230526A1 (en) | Input system and input method | |
JP2017197015A (en) | On-board information processing system | |
TWM564749U (en) | Vehicle multi-display control system | |
JP2016149094A (en) | Vehicle information processing apparatus | |
JP5664336B2 (en) | Display control system, display control apparatus, and program | |
WO2017188098A1 (en) | Vehicle-mounted information processing system | |
KR20230034448A (en) | Vehicle and method for controlling thereof | |
JP2005313722A (en) | Operation display device of on-vehicle equipment and operation display method thereof | |
JP6236211B2 (en) | Display device for transportation equipment | |
JP6166931B2 (en) | Vehicle display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180417 |