JP2005050028A - Command input device and vehicle mounted with command input device - Google Patents

Command input device and vehicle mounted with command input device Download PDF

Info

Publication number
JP2005050028A
JP2005050028A JP2003204579A JP2003204579A JP2005050028A JP 2005050028 A JP2005050028 A JP 2005050028A JP 2003204579 A JP2003204579 A JP 2003204579A JP 2003204579 A JP2003204579 A JP 2003204579A JP 2005050028 A JP2005050028 A JP 2005050028A
Authority
JP
Japan
Prior art keywords
hand
command
support means
driver
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003204579A
Other languages
Japanese (ja)
Inventor
Yoshimi Ota
最実 太田
Masaki Hirota
正樹 廣田
Masabumi Tsuji
正文 辻
Makoto Iwashima
誠 岩島
Yuichi Igari
裕一 猪狩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003204579A priority Critical patent/JP2005050028A/en
Publication of JP2005050028A publication Critical patent/JP2005050028A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a command input device which does not induce visual line induction. <P>SOLUTION: The command input device is provided with a detecting means 1 to detect the shape of a certain object in a predetermined detection area and/or the movement of the object, an extracting means 2 to extract the shape of a hand and/or the movement of the hand from the detected information, a deciding means 3 to decide a command corresponding to the extracted shape and/or movement of the hand and an executing means 4 to execute the decided command. A supporting means 5 to support the hand or arm to input the command is arranged at a predetermined position in the detection area of the detecting means 1, and the supporting means 5 is provided with a switch 6. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【技術分野】
本発明は、車両に搭載され、乗員の手の形状および/または手の動きにより、車載コンピュータに与える命令の入力を受け付けるコマンド入力装置に関する。
【0002】
【背景技術】
車両に搭載される車載機器の多様化に伴い、ドライバが行う入力操作は複雑化している。運転中のドライバの負担を軽減するため、手の形状や手の動きによって命令を入力する入力装置が提案されている(特許文献1参照)。この操作入力装置によれば、入力ボタンを目視しなくても入力操作をすることができる。
【0003】
しかしながら、この種の入力装置は手の形状や手の動きを検出してコマンドを判断するため、ユーザの手が検出可能エリアに入っていなければ認識不能又は誤認識となってしまうという問題があった。すなわち、コマンドを正確に入力するためには、ユーザは検出可能エリアの位置を意識し、手が検出可能エリア内にあることを確認してからコマンドを示さなければならず、この確認動作において視線誘導を誘起してしまうという不都合があった。
【0004】
【従来の技術】
【特許文献1】
特開2001−216069号公報
【0005】
【発明の開示】
本発明は、視線誘導を誘起しないコマンド入力装置を提供することを目的とする。
【0006】
この発明によれば、車両に搭載され、車両の乗員の手の形状および/または手の動きにより表現されるコマンドの入力を、受け付けるコマンド入力装置であって、所定の検出領域にある対象物の形状および/または対象物の動きを検出する検出手段と、前記検出手段により検出された情報から、手の形状および/または手の動きを画像として抽出する抽出手段と、前記抽出手段により抽出された手の形状および/または手の動きに対応するコマンドを判定する判定手段と、前記判定手段により判定されたコマンドを実行させる実行手段とを有し、前記検出手段の検出領域に対する所定の位置に、前記コマンドの入力を行う手又は腕を支持する支持手段を設けたコマンド入力装置を提供することができる。
【0007】
これにより、乗員は目視による確認をしなくても手の形状および/または手の動きにより表現されるコマンドの検出可能エリアを認識することができ、視線を動かすことなくコマンドを正確に入力することができる。
【0008】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
本実施形態のコマンド入力装置100は、車両の乗員、具体的には運転するドライバの手の形状および/または手の動きにより表現されるハンドコマンドの入力を受け付ける装置である。本実施形態のハンドコマンドは、車両の乗員、たとえばドライバが車載装置を制御するコンピュータに与える命令であり、車両に搭載されたナビゲーション装置200、オーディオ装置300、エアコン制御装置400、通信装置500に対する制御命令である。これらの車載装置とコマンド入力装置100とは、車載LANにより情報授受が可能なように接続されている。すなわち、コマンド入力装置100が受け付けたコマンドは、車載LANを介して、命令実行のため各装置に向けて送出される。なお、コマンド入力手段100を操作するのはドライバに限定されるものではなく、コマンド入力装置100に手の届く乗員のハンドコマンドの入力を受け付けるようにすることもできる。
【0009】
本実施形態のコマンド入力装置100のブロック構成を図1に示した。図1に示すように、コマンド入力装置100は、検出手段1と、抽出手段2と、判定手段3と、実行手段4と、支持手段5と、スイッチ6とを備えている。具体的には、少なくとも乗員の手の形状および/または手の動きを検出し、検出結果から抽出された画像に基づいてコマンドの内容を判定するプログラムを格納したROMと、このROMに格納されたプログラムを実行することで、抽出手段2、判定手段3、実行手段4として機能するCPUと、必要な情報を記憶するRAMとを備えている。
【0010】
検出手段1は、所定の検出領域にある対象物の形状および/または手の動きを検出する。本実施形態では、対象物の温度を検出する赤外線センサを用いた。本実施形態の赤外線センサは、所定の二次元の検出領域における各点の温度および温度分布を検出する。「所定の検出領域」は、ドライバの手の形状および/または手の動きが検出しやすい位置に設定する。また、検出対象物の背景に熱を発する他の対象物が存在しないように、検出領域を設定することが好ましい。コマンド入力装置100において使用する赤外線センサ1は特に限定されず、熱型センサであってもよいし量子型センサであってもよい。本実施形態では、熱電対型の赤外線センサを用いるが、熱起電力型の赤外線センサ、焦電型の赤外線センサを用いてもよい。また、「所定の検出領域」は3次元の所定の空間であってもよい。
【0011】
コマンドを入力しようとするドライバは、赤外線センサ1の検出領域に手をかざし、検出領域において特定の手の形状および/または特定の手の動きを示す。検出領域において示された手の形状および/または手の動きは、温点の分布又は温点の分布の変化として赤外線センサ1により検出される。なお、本実施形態では検出手段1に赤外線センサを用いたが、CCDカメラを用いて手の形状および/または手の動きを検出してもよい。
【0012】
検出領域は車内空間に形成され、ドライバはその検出領域の境界を知覚することができない。このため、ドライバは目視して検出領域を確認する必要があった。本実施形態では、赤外線センサ1の検出領域に対して所定の位置に支持手段5を設けた。この支持手段5は、コマンドの入力を行う手又は腕を支持する。すなわち、ドライバが左手でコマンドを入力する場合、ドライバの左手の手、左手の手首、左手の腕、左手の肘等が支持手段5により支持される。このように、支持手段5を検出領域に対して所定の位置に設けたため、ドライバは支持手段5の位置を基準として検出領域の位置を認識し、これを学習することができる。言い換えると、ドライバは、知覚可能な支持手段5の位置から、知覚不可能な検出領域の位置を認識することができる。
【0013】
支持手段5を設ける位置は特に限定されないが支持手段5に手又は腕が支持された場合、特に検出対象となる部分(例えば手の指の部分)が検出領域内に位置するように、支持手段5を設けることが好ましい。これにより、コマンド入力を行う手が支持手段5により支持された状態であれば、ドライバの手を検出領域内に位置させるようにすることができる。
【0014】
本実施形態の支持手段5は、支持するドライバの手又は腕の形状に応じた凸形状部又は凹形状部を有する。本実施形態の支持手段5は、ドライバの手首を掌側から支持し、ドライバの手首の反り(甲側に曲げた反り)に応じた凹形状部を有している。この凹形状部はドライバの手首の反りにフィットするように曲面で構成した。このような支持手段5を設けることにより、ドライバが無意識のうちに支持手段5に手首を載せるようにすることができる。支持手段5に支持されたドライバの手は自然と検出領域に位置し、手の形や動きを検出手段1が正確に検出する。
【0015】
なお、支持手段5の形状は特に限定されず、ドライバの肘にフィットする形状、曲げた肘にフィットする凹形状部を有する形状としてもよいし、ドライバの肘から手首にフィットする凹形状部を有する形状としてもよいし、ドライバの手首、腕を支える凸形状部を有する形状としてもよい。
【0016】
抽出手段2は、検出手段1により検出された情報から、手の形状および/または手の動きを画像として抽出する。具体的には、人間の表皮温度(32〜34℃)を基準とした温度帯域に含まれる温点の分布を抽出し、この温度分布から人間の手の形状および/または人間の手の動きを抽出する。
【0017】
判定手段3は、抽出手段2により抽出された手の形状および/または手の動きに基づいてコマンドの内容を判定する。判定の手法は特に限定されず、抽出された手の形状および/または手の動きを、その特徴から認識してもよいし、パタンマッチング手法により判定してもよい。本実施形態では、抽出された手の形状および/または手の動きと、予めコマンドにそれぞれ割り振られた手の形状および/または手の動きとを対比して、抽出された手の形状および/または手の動きのコマンドを判定する。判定手段3は、コマンドの内容と手の形状および/または手の動きとを予め対応づけた対応情報を、読み込み可能な記憶手段(RAMまたはROM)から取得する。対応情報においては、手の形状および/または手の動きから予め対応づけられた所定のコマンドが特定される。所定の手の形状(例えば指の本数)等と所定のコマンド(例えば機器のON/OFF)とを対応づけてもよいし、コマンドの階層構造に応じて、所定の手の形状(例えば指の本数)等の組み合わせと、所定のコマンド(例えばオーディオ選択後の音量UP/DOWN)とを対応づけてもよい。
【0018】
コマンドには、「制御対象をナビゲーション装置200とする」、「制御対象をオーディオ装置300とする」などの制御対象を選択するコマンドを含ませてもよい。また、「オーディオ装置300をラジオモードとする」「オーディオ装置300をCD再生モードとする」などのモードを選択するコマンドを含ませてもよい。さらに、「CD再生の音量を大きくする」「エアコンの設定温度を低くする」などの変更可能なパラメータを調節するコマンドを含ませてもよい。
【0019】
実行手段4は、判定手段3により判定されたコマンドを実行させる。実行手段4は、判定されたコマンドが制御する装置へ向けて、そのコマンドを送出する。コマンドを取得した各装置(200〜500)は、取得したコマンドを実行する。
【0020】
さらに、本実施形態は、接触することにより所定の信号が入力されるスイッチ6を支持手段5に設けた。スイッチ6を介して信号が入力された場合、実行手段4は、スイッチ6を介して入力された信号に基づいて、判定手段3により判定されたコマンドを実行させる。
【0021】
スイッチ6により入力される所定の信号は、「コマンド入力完了を示す信号」、「認識されたコマンドを確認する信号」または「コマンド入力のトリガを示す信号」等と、任意に定義することができる。たとえば、検出した手の形状から1のコマンドが判定された場合、ドライバはスイッチ6を介して判定結果の正否を確認することができる。つまり、ドライバはスイッチ6を介して所定の信号を入力することにより、判定されたコマンドが自らの意思に基づいて入力されたものであることを示すことができる。言い換えると、スイッチ6を設けることにより、自らの意思により入力されたコマンドと、無意識のうちに認識されてしまったコマンドとを区別することができる。
【0022】
このようにスイッチ6を介して入力される信号がコマンド実行に用いられる場合、ドライバはコマンド入力時においてスイッチ6の操作とハンドコマンドの提示とを連続して行わなければならない。本実施形態ではスイッチ6を支持手段5に設けたため、スイッチ6の操作とハンドコマンドの入力とを、手を動かさずに片手で行うことができる。つまり、コマンド入力をしようとするドライバはスイッチ6を目印として支持手段5に手又は腕を置く。支持手段5に手又は腕を置くことにより、検出対象となるドライバの手は検出領域に位置する。その結果ドライバの手の形状等は正確に検出される。
【0023】
たとえば、支持手段5がドライバの手首を掌側から支持する凹形状部を有している場合、ドライバは手首を凹形状部に接触させた状態で所定の手の形状を示す。ドライバが示した手の形状がドライバの意図するコマンドとして認識された場合、ドライバは「認識されたコマンドを確認する信号」を入力するため、手首で凹形状部に設けられたスイッチ6を押下する。実行手段5は、入力された信号に基づいて判定手段3の判定結果が正しいと確認し、判定されたコマンドを対応する装置(200〜500)へ送出する。このように、スイッチ6を、コマンド入力を行う手又は腕を支持する支持手段5に設けたことにより、ドライバは手を動かさずに片手だけでハンドコマンドの入力および信号の入力を行うことができる。
【0024】
以下、図2〜図9に基づいて、支持手段5及びスイッチ6の配置例を5つのパターンに分けて説明する。これらの配置例に示すコマンド入力装置100は、上述した本実施形態と同様に作用し、同様の効果を奏する。
【0025】
第1の配置例は、支持手段5およびスイッチ6を車両のアームレスト15に設けた例である。図2及び図3は、支持手段5およびスイッチ6をアームレスト15に設けた車両の内部を示す図である。図2は、支持手段5およびスイッチ6等をドライバの斜め後方から見た図である。図3は、支持手段5およびスイッチ6等をドライバの上方から見下ろした図である。
【0026】
支持手段5は、検出手段1の検出領域11に対して所定の位置に設けられている。支持手段5の位置は、検出手段1との位置関係により定義してもよい。図2に示す例では、ドライバは左手でハンドコマンドの入力を行う。支持手段5はドライバの左手の手首を掌側から支える。支持手段5は、ドライバの手首があたる位置に配置されているため、ドライバの手首は自然と支持手段5に載置される。このため、支持手段5により手首が支持されたドライバの手は、自然と検出領域に誘導される。ドライバは検出領域の位置を探すことなく、検出領域に向けてコマンドを入力することができるため、視線を動かす必要がない。また、支持手段5にスイッチ6を設けたことにより、コマンドの入力と信号の入力とを手を動かさずに片方の手だけで行うことができる。
【0027】
この本実施形態の支持手段5を図4(a)に示した。図4(a)に示すように、本実施形態の支持手段5は、支持するドライバの手首の反りに応じた凹形状部を有する。この凹形状部の中心にスイッチ6を設けた。これにより支持手段5が手首の形状にフィットし、ドライバの手を心地よく支える。ドライバは、手を甲側に反らした状態でスイッチ6を押下することができる。凹形状部の底面部にあるスイッチは、手首の反った部分で意識的に押すことができ、ドライバの意識に基づく信号を入力することができる。なお、支持手段5の他の例を図4(b)に示した。図4(b)に示した支持手段5は、ドライバの手首が掌側へ曲げたときの、手首の曲げ部分に応じた凸形状部を有する。
【0028】
本実施形態のスイッチ6の例を図5に示した。図5(a)に示すように、支持手段5の凹形状部にボタンスイッチ5が設けられている。図5(b)には図5(a)に示したスイッチを横から見た概要図を示した。スイッチ5を矢印a方向に押下することにより所定の信号を入力することができる。
【0029】
第2の配置例は、支持手段5およびスイッチ6を、第1の配置例とは反対側のアームレスト15に設けた例である。すなわち、第1の配置例は支持手段5およびスイッチ6をドライバの左側のアームレスト15に設けたのに対し、第2の配置例はドライバの右側のアームレスト15に設けた。図6は、支持手段5およびスイッチ6をアームレスト15に設けた車両の内部を、ドライバシートの後方から見た図である。
【0030】
図6に示すように、支持手段5およびスイッチ6は、ドア側のアームレストの上に設けられている。また、支持手段5に支持されたドライバの手(特に指の部分)の位置が検出領域内に含まれるように検出手段1も車両のドア側に設けられている。図6に示すように支持手段5及びスイッチ6を配置することにより、第1の配置例と同様の効果を奏する。
【0031】
第3の配置例は、支持手段5及びスイッチ6をシフトレバー16に設けた例である。図7は、支持手段5及びスイッチ6をシフトレバー16に設けた車両の内部を、ドライバシートの後方から見た図である。図7に示すように、支持手段5およびスイッチ6は、シフトレバー16のグリップ部に設けられている。本実施形態では支持手段5の凸形状部をグリップ部の凸形状部とし、シフトレバー16のグリップ部に直接スイッチ6を設ける設計とした。また、支持手段5(シフトレバー16のグリップ部)に支持されたドライバの手(特に指の部分)の位置が検出領域内に含まれるように検出手段1もシフトレバー16近傍のインストルメントパネル部分に設けられている。図7に示すように支持手段5及びスイッチ6を配置することにより、シフトレバー16を握るドライバの手はコマンドを入力する検出領域に誘導され,ドライバは目視確認をしなくても検出領域内でコマンドを示すことができる。また、スイッチ6が支持手段5(シフトレバー16のグリップ部)に設けられているため、コマンド入力と信号入力とを片手のみで実行することができる。
【0032】
第4の配置例は、支持手段5及びスイッチ6をドア側面17に設けた例である。図8は、支持手段5及びスイッチ6を設けたドア側面17を示す概略図である。
【0033】
図8に示すように、支持手段5およびスイッチ6は、ドア側面17にドライバの肘から手首が延びる方向に沿って設けられている。支持手段5は凹形状部を有し、この凹形状部は腕から手首にフィットするような形状とした。ドライバはこの凹形状部に腕を載せ、信号を入力する場合は腕でドア側面17(ドア側面17に設けられたスイッチ6)を押せばよい。また、支持手段5に支持されたドライバの手(特に指の部分)の位置が検出領域内に含まれるように検出手段1もドア17近傍に設けられている。図8に示すように支持手段5及びスイッチ6を配置することにより、ドライバの手はコマンドを入力する検出領域に誘導され,ドライバは目視確認をしなくても検出領域内でコマンドを示すことができる。また、スイッチ6が支持手段5に設けられているため、コマンド入力と信号入力とを手を動かすことなく片手のみで実行することができる。
【0034】
第5の配置例は、支持手段5及びスイッチ6を車両のインストルメントパネル18に設けた例である。図9は、支持手段5及びスイッチ6を設けた車両内を示す概略図である。
【0035】
図9に示すように、支持手段5およびスイッチ6は、インストルメントパネルの下部に設けられている。また、支持手段5に支持されたドライバの手(特に指の部分)の位置が検出領域内に含まれるように検出手段1もインストルメントパネルに設けられている。図9に示すように支持手段5及びスイッチ6を配置することにより、ドライバの手はコマンドを入力する検出領域に誘導され,ドライバは目視確認をしなくても検出領域内でコマンドを示すことができる。また、スイッチ6が支持手段5に設けられているため、コマンド入力と信号入力とを片手のみで実行することができる。
【0036】
以上の構成を有するコマンド入力装置100の動作を図に基づいて説明する。
図10は、本実施形態におけるコマンド入力装置100の制御手順を説明するためのフローチャート図である。
【0037】
起動後、検出手段1の赤外線センサは、所定の検出領域にある対象物の形状および/または対象物の動きを検出する(S101)。抽出手段2は、検出された情報から手の形状および/または手の動きを画像として抽出する(S102)。判断手段3は、所定のコマンドに予めそれぞれ割り振られた手の形状および/または手の動きの対応情報を取得し、コマンドの定義を読み出す(S103)。判断手段3は、さらに抽出された手の形状および/または手の動きと、コマンドに対応づけられた手の形状および/手の動きを対比する(S104)。そして、判定手段3は、抽出された手の形および/または手の動きのコマンドを判定する(S105)。
【0038】
実行手段4は、判定手段3により判定されたコマンドをドライバに提示する。この提示は、ディスプレイを介して行ってもよいし、音声で行ってもよい。ドライバは判定結果が意図に沿うものであるか否かを判断する。本実施形態では、検出された対象物の形状等がドライバの意思に基づくコマンドであるか否かを判断するため、スイッチ6を介して入力される信号を用いる。つまり、ドライバが入力したコマンドが正しく認識された場合、ドライバはスイッチ6を押して「確認信号」を入力する。他方、ドライバが入力したコマンドが正しく認識されなかった場合、ドライバはスイッチ6を押さない。
【0039】
実行手段4は、スイッチ6がオンされたか否か、すなわち「確認信号」が入力されたか否かを判断する。スイッチ6がオンされた場合は、コマンドの判定結果が正しい。よって、実行手段4は、判定手段4により判定されたコマンドを、コマンドに対応する装置(200〜500)へ送出し、実行させる(S108)。
【0040】
本実施形態のコマンド入力装置100は、以上のように構成され機能するので、以下の効果を奏する。
【0041】
コマンドの入力を行うドライバの手又は腕を支持する支持手段5を、検出領域に対して所定の位置に設けたことから、コマンドを示すドライバの手は検出領域に自然に導かれる。すなわち、ユーザに検出領域の位置を確認させることなく、検出領域内でコマンドを入力させることができる。これにより、ドライバの視線誘導を誘起することなく、入力されたコマンドを正確に受け付けることができる。
【0042】
所定の信号が入力されるスイッチ6を支持手段5に設けたため、ドライバは手を動かさずに片手だけでコマンドの入力と所定の信号の入力を行うことができる。つまり、コマンド入力に際し必要な操作を片手のみで行うことができる。
【0043】
支持手段5がドライバの手又は腕の形状に応じた凸形状部または凹形状部を有するため、ドライバの手又は腕は支持手段5にフィットし、ドライバに意識させることなく手又は腕を支持手段5に載せるように誘導することができる。ドライバの手又は腕が支持手段5に支持されれば、コマンドを示す手を検出領域内に位置させることができる。これにより正確なコマンド入力の認識および判定を確保することができる。
【0044】
ドライバが自然に手又は腕を載せることができる(支持手段5に支持させることができる)ようにする観点から、支持手段5を、車両のアームレスト、車両のシフトレバー、車両のドア側面、車両のインストルメントパネルのいずれかの位置に配置するようにした。これにより、ドライバは自然な姿勢で支持手段5に手又は腕を載せ、自然な姿勢でコマンド入力を行うことができる。姿勢を保ってコマンド入力ができるため、ドライバは運転に集中することができる。
【0045】
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
【図面の簡単な説明】
【図1】本実施形態のコマンド入力装置のブロック構成図である。
【図2】支持手段5及びスイッチ6の第1の配置例を示す図である。
【図3】支持手段5及びスイッチ6の第1の配置例を示す他の図である。
【図4】図4(a)(b)は、支持手段5とスイッチ6を説明するための図である。
【図5】図5(a)(b)は、支持手段5とスイッチ6を説明するための他の図である。
【図6】支持手段5及びスイッチ6の第2の配置例を示す図である。
【図7】支持手段5及びスイッチ6の第3の配置例を示す図である。
【図8】支持手段5及びスイッチ6の第4の配置例を示す図である。
【図9】支持手段5及びスイッチ6の第5の配置例を示す図である。
【図10】本実施形態のおける制御手順を示すフローチャート図である。
【符号の説明】
100…コマンド入力装置
1・・・検出手段
11…検出領域
2・・・抽出手段
3・・・判定手段
4・・・実行手段
5・・・支持手段
6・・・スイッチ
9…ドライバ
91…ドライバの手
10…車両
200・・・ナビゲーション装置
300・・・オーディオ装置
400・・・エアコン制御装置
500・・・通信装置
15・・・アームレスト
16・・・シフトレバー
17・・・ドア側面
18・・・インストルメントパネル
[0001]
【Technical field】
The present invention relates to a command input device that is mounted on a vehicle and that receives an input of a command given to an in-vehicle computer by the shape and / or movement of a passenger's hand.
[0002]
[Background]
With the diversification of in-vehicle devices mounted on vehicles, input operations performed by drivers have become complicated. In order to reduce the burden on the driver during driving, there has been proposed an input device that inputs commands according to hand shape and hand movement (see Patent Document 1). According to this operation input device, an input operation can be performed without viewing the input button.
[0003]
However, since this type of input device detects the shape of the hand and the movement of the hand to determine the command, there is a problem that the user's hand cannot be recognized or misrecognized unless it is in the detectable area. It was. In other words, in order to accurately input a command, the user must be aware of the position of the detectable area and indicate the command after confirming that the hand is within the detectable area. There was the inconvenience of inducing induction.
[0004]
[Prior art]
[Patent Document 1]
Japanese Patent Laid-Open No. 2001-216069
DISCLOSURE OF THE INVENTION
It is an object of the present invention to provide a command input device that does not induce gaze guidance.
[0006]
According to the present invention, a command input device that is mounted on a vehicle and accepts an input of a command expressed by the shape and / or movement of an occupant's hand of the vehicle, the object being in a predetermined detection region Extracted by the detecting means for detecting the shape and / or movement of the object, the extracting means for extracting the shape and / or hand movement of the hand as an image from the information detected by the detecting means, and extracted by the extracting means A determination means for determining a command corresponding to the shape of the hand and / or the movement of the hand; and an execution means for executing the command determined by the determination means; and at a predetermined position with respect to the detection region of the detection means, It is possible to provide a command input device provided with support means for supporting a hand or an arm for inputting the command.
[0007]
This allows the occupant to recognize the detectable area of the command expressed by the shape of the hand and / or the movement of the hand without visual confirmation, and accurately input the command without moving the line of sight. Can do.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The command input device 100 according to the present embodiment is a device that receives input of a hand command expressed by the shape and / or hand movement of a vehicle occupant, specifically, a driver driving. The hand command of the present embodiment is a command given to a computer that controls a vehicle-mounted device by a vehicle occupant, for example, a driver, and controls the navigation device 200, the audio device 300, the air conditioner control device 400, and the communication device 500 mounted on the vehicle. It is an instruction. These in-vehicle devices and the command input device 100 are connected so as to be able to exchange information via an in-vehicle LAN. That is, the command received by the command input device 100 is sent to each device for command execution via the in-vehicle LAN. The operation of the command input means 100 is not limited to the driver, and it is also possible to accept an input of an occupant's hand command that can reach the command input device 100.
[0009]
A block configuration of the command input device 100 of the present embodiment is shown in FIG. As shown in FIG. 1, the command input device 100 includes a detection unit 1, an extraction unit 2, a determination unit 3, an execution unit 4, a support unit 5, and a switch 6. Specifically, a ROM that stores a program for detecting at least the shape and / or movement of the occupant's hand and determining the content of the command based on an image extracted from the detection result, and the ROM stored in the ROM By executing the program, the CPU includes a CPU functioning as the extraction unit 2, the determination unit 3, and the execution unit 4, and a RAM that stores necessary information.
[0010]
The detection means 1 detects the shape of the object and / or the movement of the hand in a predetermined detection area. In this embodiment, an infrared sensor that detects the temperature of the object is used. The infrared sensor of this embodiment detects the temperature and temperature distribution of each point in a predetermined two-dimensional detection region. The “predetermined detection area” is set to a position where the shape of the driver's hand and / or hand movement can be easily detected. Moreover, it is preferable to set the detection region so that there is no other object that generates heat in the background of the detection object. The infrared sensor 1 used in the command input device 100 is not particularly limited, and may be a thermal sensor or a quantum sensor. In this embodiment, a thermocouple type infrared sensor is used, but a thermoelectromotive force type infrared sensor or a pyroelectric type infrared sensor may be used. Further, the “predetermined detection area” may be a three-dimensional predetermined space.
[0011]
A driver who wants to input a command places his hand over the detection area of the infrared sensor 1 and shows a specific hand shape and / or a specific hand movement in the detection area. The hand shape and / or hand movement shown in the detection area is detected by the infrared sensor 1 as a distribution of hot spots or a change in the distribution of hot spots. In the present embodiment, an infrared sensor is used as the detection means 1, but a hand shape and / or hand movement may be detected using a CCD camera.
[0012]
The detection area is formed in the vehicle interior space, and the driver cannot perceive the boundary of the detection area. For this reason, the driver has to visually confirm the detection area. In the present embodiment, the support means 5 is provided at a predetermined position with respect to the detection region of the infrared sensor 1. The support means 5 supports a hand or an arm for inputting a command. That is, when the driver inputs a command with the left hand, the driver's left hand, left hand wrist, left hand arm, left hand elbow and the like are supported by the support means 5. As described above, since the support means 5 is provided at a predetermined position with respect to the detection area, the driver can recognize the position of the detection area on the basis of the position of the support means 5 and learn this. In other words, the driver can recognize the position of the non-perceptible detection area from the position of the perceptible support means 5.
[0013]
The position where the support means 5 is provided is not particularly limited, but when the hand or arm is supported by the support means 5, the support means is particularly arranged so that the part to be detected (for example, the finger part of the hand) is located in the detection region. 5 is preferably provided. Thus, if the hand for inputting the command is supported by the support means 5, the driver's hand can be positioned in the detection region.
[0014]
The support means 5 of this embodiment has a convex part or a concave part corresponding to the shape of the hand or arm of the driver to be supported. The support means 5 of the present embodiment supports the wrist of the driver from the palm side and has a concave portion corresponding to the warp of the driver's wrist (the warp bent toward the back side). This concave shape part was comprised by the curved surface so that the curvature of the wrist of a driver might be fitted. By providing such support means 5, the driver can unconsciously place the wrist on the support means 5. The driver's hand supported by the support means 5 is naturally located in the detection area, and the detection means 1 accurately detects the shape and movement of the hand.
[0015]
The shape of the support means 5 is not particularly limited, and may be a shape that fits the elbow of the driver, a shape having a concave shape that fits the bent elbow, or a concave shape that fits the wrist from the elbow of the driver. It is good also as a shape which has, and it is good also as a shape which has a convex-shaped part which supports a wrist and an arm of a driver.
[0016]
The extraction unit 2 extracts the hand shape and / or hand movement as an image from the information detected by the detection unit 1. Specifically, the distribution of the hot spots included in the temperature band based on the human skin temperature (32 to 34 ° C.) is extracted, and the shape of the human hand and / or the movement of the human hand is determined from this temperature distribution. Extract.
[0017]
The determination unit 3 determines the content of the command based on the hand shape and / or hand movement extracted by the extraction unit 2. The determination method is not particularly limited, and the extracted hand shape and / or hand movement may be recognized from its characteristics, or may be determined by a pattern matching method. In the present embodiment, the extracted hand shape and / or hand movement is compared with the hand shape and / or hand movement previously assigned to the command, and Determine hand movement commands. The determination unit 3 acquires correspondence information in which the content of the command is associated with the hand shape and / or hand movement in advance from a readable storage unit (RAM or ROM). In the correspondence information, a predetermined command associated in advance from the hand shape and / or hand movement is specified. A predetermined hand shape (for example, the number of fingers) or the like may be associated with a predetermined command (for example, device ON / OFF), or a predetermined hand shape (for example, a finger A combination of the number (number), etc., and a predetermined command (for example, volume UP / DOWN after audio selection) may be associated.
[0018]
The command may include a command for selecting a control target such as “the control target is the navigation device 200” or “the control target is the audio device 300”. Further, a command for selecting a mode such as “set audio device 300 in radio mode” or “set audio device 300 in CD playback mode” may be included. Further, a command for adjusting a changeable parameter such as “increase the volume of CD playback” or “decrease the set temperature of the air conditioner” may be included.
[0019]
The execution unit 4 causes the command determined by the determination unit 3 to be executed. The execution means 4 sends the command to the device controlled by the determined command. Each device (200 to 500) that has acquired the command executes the acquired command.
[0020]
Further, in the present embodiment, the support unit 5 is provided with a switch 6 to which a predetermined signal is input by contact. When a signal is input via the switch 6, the execution means 4 executes the command determined by the determination means 3 based on the signal input via the switch 6.
[0021]
The predetermined signal input by the switch 6 can be arbitrarily defined as “a signal indicating completion of command input”, “a signal indicating confirmation of a recognized command”, “a signal indicating a trigger for command input”, or the like. . For example, when one command is determined from the detected hand shape, the driver can check whether the determination result is correct via the switch 6. That is, the driver can indicate that the determined command is input based on his / her own intention by inputting a predetermined signal via the switch 6. In other words, by providing the switch 6, it is possible to distinguish between a command input by one's own intention and a command that has been unknowingly recognized.
[0022]
As described above, when the signal input through the switch 6 is used for command execution, the driver must continuously operate the switch 6 and present the hand command when inputting the command. In this embodiment, since the switch 6 is provided in the support means 5, the operation of the switch 6 and the input of a hand command can be performed with one hand without moving the hand. That is, the driver who wants to input a command places his hand or arm on the support means 5 using the switch 6 as a mark. By placing a hand or arm on the support means 5, the hand of the driver to be detected is positioned in the detection area. As a result, the shape of the driver's hand is accurately detected.
[0023]
For example, when the support means 5 has a concave shape portion that supports the wrist of the driver from the palm side, the driver shows a predetermined hand shape with the wrist in contact with the concave shape portion. When the hand shape indicated by the driver is recognized as a command intended by the driver, the driver presses the switch 6 provided in the concave shape portion with the wrist in order to input a “signal for confirming the recognized command”. . The execution unit 5 confirms that the determination result of the determination unit 3 is correct based on the input signal, and sends the determined command to the corresponding device (200 to 500). In this way, by providing the switch 6 on the support means 5 that supports the hand or arm for command input, the driver can input a hand command and a signal with one hand without moving the hand. .
[0024]
Hereinafter, based on FIGS. 2-9, the example of arrangement | positioning of the support means 5 and the switch 6 is divided into five patterns, and is demonstrated. The command input device 100 shown in these arrangement examples operates in the same manner as the above-described embodiment, and has the same effects.
[0025]
The first arrangement example is an example in which the support means 5 and the switch 6 are provided on the armrest 15 of the vehicle. 2 and 3 are views showing the interior of the vehicle in which the support means 5 and the switch 6 are provided on the armrest 15. FIG. FIG. 2 is a view of the support means 5, the switch 6 and the like as viewed obliquely from behind the driver. FIG. 3 is a view of the support means 5 and the switch 6 as viewed from above the driver.
[0026]
The support means 5 is provided at a predetermined position with respect to the detection area 11 of the detection means 1. The position of the support means 5 may be defined by the positional relationship with the detection means 1. In the example shown in FIG. 2, the driver inputs a hand command with the left hand. The support means 5 supports the wrist of the left hand of the driver from the palm side. Since the support means 5 is disposed at a position where the wrist of the driver hits, the wrist of the driver is naturally placed on the support means 5. For this reason, the driver's hand whose wrist is supported by the support means 5 is naturally guided to the detection area. Since the driver can input a command toward the detection area without searching for the position of the detection area, it is not necessary to move the line of sight. Further, by providing the support 6 with the switch 6, it is possible to input a command and a signal with only one hand without moving the hand.
[0027]
The support means 5 of this embodiment is shown in FIG. As shown in FIG. 4 (a), the support means 5 of the present embodiment has a concave portion corresponding to the warp of the wrist of the driver to be supported. A switch 6 is provided at the center of the concave portion. Thereby, the support means 5 fits the shape of the wrist, and comfortably supports the driver's hand. The driver can press the switch 6 with his hand bent to the back side. The switch on the bottom surface of the concave shaped portion can be consciously pressed at the warped portion of the wrist, and can input a signal based on the driver's consciousness. In addition, the other example of the support means 5 was shown in FIG.4 (b). The support means 5 shown in FIG. 4B has a convex portion corresponding to the bent portion of the wrist when the driver's wrist is bent toward the palm.
[0028]
An example of the switch 6 of this embodiment is shown in FIG. As shown in FIG. 5A, the button switch 5 is provided in the concave portion of the support means 5. FIG. 5B shows a schematic view of the switch shown in FIG. 5A viewed from the side. A predetermined signal can be input by pressing the switch 5 in the direction of arrow a.
[0029]
The second arrangement example is an example in which the support means 5 and the switch 6 are provided on the armrest 15 on the opposite side to the first arrangement example. That is, in the first arrangement example, the support means 5 and the switch 6 are provided on the armrest 15 on the left side of the driver, whereas in the second arrangement example, the armrest 15 on the right side of the driver is provided. FIG. 6 is a view of the interior of the vehicle in which the support means 5 and the switch 6 are provided on the armrest 15 as viewed from the rear of the driver seat.
[0030]
As shown in FIG. 6, the support means 5 and the switch 6 are provided on the armrest on the door side. The detection means 1 is also provided on the door side of the vehicle so that the position of the driver's hand (particularly the finger portion) supported by the support means 5 is included in the detection area. By arranging the support means 5 and the switch 6 as shown in FIG. 6, the same effects as in the first arrangement example can be obtained.
[0031]
The third arrangement example is an example in which the support means 5 and the switch 6 are provided on the shift lever 16. FIG. 7 is a view of the interior of the vehicle in which the support means 5 and the switch 6 are provided on the shift lever 16 as viewed from the rear of the driver seat. As shown in FIG. 7, the support means 5 and the switch 6 are provided in the grip portion of the shift lever 16. In this embodiment, the convex portion of the support means 5 is a convex portion of the grip portion, and the switch 6 is directly provided on the grip portion of the shift lever 16. The detection means 1 also includes an instrument panel portion in the vicinity of the shift lever 16 so that the position of the driver's hand (particularly the finger portion) supported by the support means 5 (the grip portion of the shift lever 16) is included in the detection region. Is provided. By arranging the support means 5 and the switch 6 as shown in FIG. 7, the driver's hand holding the shift lever 16 is guided to the detection area where the command is input, and the driver does not need to visually check in the detection area. Commands can be shown. Moreover, since the switch 6 is provided in the support means 5 (grip part of the shift lever 16), command input and signal input can be executed with only one hand.
[0032]
The fourth arrangement example is an example in which the support means 5 and the switch 6 are provided on the door side surface 17. FIG. 8 is a schematic view showing the door side surface 17 provided with the support means 5 and the switch 6.
[0033]
As shown in FIG. 8, the support means 5 and the switch 6 are provided on the door side surface 17 along the direction in which the wrist extends from the elbow of the driver. The support means 5 has a concave portion, and the concave portion is shaped to fit from the arm to the wrist. The driver puts his arm on the concave portion, and when inputting a signal, the driver may press the door side surface 17 (the switch 6 provided on the door side surface 17) with the arm. The detection means 1 is also provided in the vicinity of the door 17 so that the position of the driver's hand (particularly the finger portion) supported by the support means 5 is included in the detection region. By arranging the support means 5 and the switch 6 as shown in FIG. 8, the driver's hand is guided to the detection area where the command is input, and the driver can show the command in the detection area without visual confirmation. it can. Moreover, since the switch 6 is provided in the support means 5, command input and signal input can be executed with only one hand without moving the hand.
[0034]
The fifth arrangement example is an example in which the support means 5 and the switch 6 are provided on the instrument panel 18 of the vehicle. FIG. 9 is a schematic view showing the inside of the vehicle provided with the support means 5 and the switch 6.
[0035]
As shown in FIG. 9, the support means 5 and the switch 6 are provided in the lower part of the instrument panel. The detection means 1 is also provided on the instrument panel so that the position of the driver's hand (particularly the finger portion) supported by the support means 5 is included in the detection region. By arranging the support means 5 and the switch 6 as shown in FIG. 9, the driver's hand is guided to the detection area where the command is input, and the driver can show the command in the detection area without visual confirmation. it can. Further, since the switch 6 is provided on the support means 5, command input and signal input can be executed with only one hand.
[0036]
The operation of the command input device 100 having the above configuration will be described with reference to the drawings.
FIG. 10 is a flowchart for explaining the control procedure of the command input device 100 according to this embodiment.
[0037]
After the activation, the infrared sensor of the detecting means 1 detects the shape of the object and / or the movement of the object in the predetermined detection area (S101). The extraction unit 2 extracts the hand shape and / or hand movement from the detected information as an image (S102). The determination means 3 acquires correspondence information on the hand shape and / or hand movement previously assigned to the predetermined command, and reads the definition of the command (S103). The judging means 3 further compares the extracted hand shape and / or hand movement with the hand shape and / or hand movement associated with the command (S104). Then, the determination unit 3 determines the extracted hand shape and / or hand movement command (S105).
[0038]
The execution unit 4 presents the command determined by the determination unit 3 to the driver. This presentation may be performed via a display or by voice. The driver determines whether the determination result is in accordance with the intention. In the present embodiment, a signal input via the switch 6 is used to determine whether or not the detected shape of the object is a command based on the driver's intention. That is, when the command input by the driver is correctly recognized, the driver presses the switch 6 and inputs a “confirmation signal”. On the other hand, if the command input by the driver is not correctly recognized, the driver does not press the switch 6.
[0039]
The execution means 4 determines whether or not the switch 6 is turned on, that is, whether or not a “confirmation signal” is input. When the switch 6 is turned on, the command determination result is correct. Therefore, the execution means 4 sends the command determined by the determination means 4 to the device (200 to 500) corresponding to the command and executes it (S108).
[0040]
Since the command input device 100 of the present embodiment is configured and functions as described above, the following effects can be obtained.
[0041]
Since the support means 5 that supports the driver's hand or arm for inputting a command is provided at a predetermined position with respect to the detection area, the driver's hand indicating the command is naturally guided to the detection area. That is, it is possible to input a command within the detection area without allowing the user to confirm the position of the detection area. Thereby, the input command can be received correctly without inducing the driver's line-of-sight guidance.
[0042]
Since the switch 6 to which a predetermined signal is input is provided in the support means 5, the driver can input a command and a predetermined signal with only one hand without moving the hand. That is, an operation necessary for command input can be performed with only one hand.
[0043]
Since the support means 5 has a convex or concave portion corresponding to the shape of the driver's hand or arm, the driver's hand or arm fits the support means 5 and supports the hand or arm without making the driver aware of it. 5 can be guided. If the driver's hand or arm is supported by the support means 5, the hand indicating the command can be positioned in the detection region. As a result, accurate command input recognition and determination can be ensured.
[0044]
From the viewpoint of allowing the driver to place his / her hand or arm naturally (can be supported by the support means 5), the support means 5 is provided with a vehicle armrest, a vehicle shift lever, a vehicle door side, It was arranged at any position on the instrument panel. As a result, the driver can place a hand or arm on the support means 5 in a natural posture and perform command input in a natural posture. Since the command can be input while maintaining the posture, the driver can concentrate on driving.
[0045]
The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.
[Brief description of the drawings]
FIG. 1 is a block diagram of a command input device according to an embodiment.
FIG. 2 is a diagram showing a first arrangement example of the support means 5 and the switch 6;
FIG. 3 is another view showing a first arrangement example of the support means 5 and the switch 6;
FIGS. 4A and 4B are diagrams for explaining the support means 5 and the switch 6; FIG.
FIGS. 5A and 5B are other views for explaining the support means 5 and the switch 6. FIGS.
6 is a view showing a second arrangement example of the support means 5 and the switch 6. FIG.
7 is a view showing a third arrangement example of the support means 5 and the switch 6. FIG.
FIG. 8 is a diagram showing a fourth arrangement example of the support means 5 and the switch 6;
9 is a view showing a fifth arrangement example of the support means 5 and the switch 6. FIG.
FIG. 10 is a flowchart showing a control procedure in the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Command input device 1 ... Detection means 11 ... Detection area 2 ... Extraction means 3 ... Determination means 4 ... Execution means 5 ... Support means 6 ... Switch 9 ... Driver 91 ... Driver Hand 10 ... Vehicle 200 ... Navigation device 300 ... Audio device 400 ... Air conditioner control device 500 ... Communication device 15 ... Armrest 16 ... Shift lever 17 ... Door side surface 18 ... ·instrument panel

Claims (7)

車両に搭載され、車両の乗員の手の形状および/または手の動きにより表現されるコマンドの入力を、受け付けるコマンド入力装置であって、
所定の検出領域にある対象物の形状および/または対象物の動きを検出する検出手段と、
前記検出手段により検出された情報から、手の形状および/または手の動きを抽出する抽出手段と、
前記抽出手段により抽出された手の形状および/または手の動きに対応するコマンドを判定する判定手段と、
前記判定手段により判定されたコマンドを実行させる実行手段とを有し、
前記検出手段の検出領域に対する所定の位置に、前記コマンドの入力を行う手又は腕を支持する支持手段を設けたコマンド入力装置。
A command input device that is mounted on a vehicle and receives an input of a command expressed by the shape and / or movement of a hand of an occupant of the vehicle,
Detection means for detecting the shape of the object and / or movement of the object in a predetermined detection area;
Extraction means for extracting a hand shape and / or hand movement from the information detected by the detection means;
Determining means for determining a command corresponding to the hand shape and / or hand movement extracted by the extracting means;
Execution means for executing the command determined by the determination means,
A command input device provided with support means for supporting a hand or an arm for inputting the command at a predetermined position with respect to a detection area of the detection means.
接触することにより所定の信号が入力されるスイッチを前記支持手段に設け、
前記実行手段は、前記スイッチを介して入力された信号に基づいて、前記判定手段により判定されたコマンドを実行させる請求項1記載のコマンド入力装置。
A switch for inputting a predetermined signal by contact is provided in the support means,
The command input device according to claim 1, wherein the execution unit executes a command determined by the determination unit based on a signal input through the switch.
前記支持手段は、支持する前記乗員の手又は腕の形状に応じた凸形状部または凹形状部を有する請求項1又は2記載のコマンド入力装置。The command input device according to claim 1, wherein the support means has a convex portion or a concave portion corresponding to the shape of the hand or arm of the occupant to be supported. 前記請求項1〜3のいずれかに記載のコマンド入力装置を搭載した車両であって、
前記支持手段は、前記車両のアームレストに設けられた車両。
A vehicle equipped with the command input device according to any one of claims 1 to 3,
The support means is a vehicle provided on an armrest of the vehicle.
前記請求項1〜3のいずれかに記載のコマンド入力装置を搭載した車両であって、
前記支持手段は、前記車両のシフトレバーに設けられた車両。
A vehicle equipped with the command input device according to any one of claims 1 to 3,
The support means is a vehicle provided on a shift lever of the vehicle.
前記請求項1〜3のいずれかに記載のコマンド入力装置を搭載した車両であって、
前記支持手段は、前記車両のドア側面に設けられた車両。
A vehicle equipped with the command input device according to any one of claims 1 to 3,
The support means is a vehicle provided on a side surface of the door of the vehicle.
前記請求項1〜3のいずれかに記載のコマンド入力装置を搭載した車両であって、
前記支持手段は、前記車両のインストルメントパネルに設けられた車両。
A vehicle equipped with the command input device according to any one of claims 1 to 3,
The support means is a vehicle provided on an instrument panel of the vehicle.
JP2003204579A 2003-07-31 2003-07-31 Command input device and vehicle mounted with command input device Pending JP2005050028A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003204579A JP2005050028A (en) 2003-07-31 2003-07-31 Command input device and vehicle mounted with command input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003204579A JP2005050028A (en) 2003-07-31 2003-07-31 Command input device and vehicle mounted with command input device

Publications (1)

Publication Number Publication Date
JP2005050028A true JP2005050028A (en) 2005-02-24

Family

ID=34263551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003204579A Pending JP2005050028A (en) 2003-07-31 2003-07-31 Command input device and vehicle mounted with command input device

Country Status (1)

Country Link
JP (1) JP2005050028A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020172135A (en) * 2019-04-08 2020-10-22 株式会社東海理化電機製作所 Steering device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196852A (en) * 1997-09-22 1999-04-09 Nissan Motor Co Ltd Operation display control device for vehicle
JP2000006687A (en) * 1998-06-25 2000-01-11 Yazaki Corp Onboard equipment switch safety operation system
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196852A (en) * 1997-09-22 1999-04-09 Nissan Motor Co Ltd Operation display control device for vehicle
JP2000006687A (en) * 1998-06-25 2000-01-11 Yazaki Corp Onboard equipment switch safety operation system
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020172135A (en) * 2019-04-08 2020-10-22 株式会社東海理化電機製作所 Steering device

Similar Documents

Publication Publication Date Title
JP6214752B2 (en) Display control device, display control method for display control device, gaze direction detection system, and calibration control method for gaze direction detection system
US10095313B2 (en) Input device, vehicle having the input device, and method for controlling the vehicle
JP3752246B2 (en) Hand pattern switch device
US20100226539A1 (en) Device for manipulating vehicle built-in devices
US7289645B2 (en) Hand pattern switch device
EP2295277B1 (en) Vehicle operator control input assistance
KR101071777B1 (en) Handling device for vehicle
CN110968184B (en) Equipment control device
JP2012069114A (en) Finger-pointing, gesture based human-machine interface for vehicle
RU2617621C2 (en) Method and device for display hand in hand operator controls the vehicle
JP2009181423A (en) Operation input device
JP3933139B2 (en) Command input device
JP2006312347A (en) Command input device
JP4848997B2 (en) Incorrect operation prevention device and operation error prevention method for in-vehicle equipment
JP2005063092A (en) Hand pattern switch device
JP2005063090A (en) Hand pattern switch device
JP2005047331A (en) Control device
JP2006282145A (en) Command input device
JP5011806B2 (en) Vehicle input device
JP2005050028A (en) Command input device and vehicle mounted with command input device
JP4849193B2 (en) Incorrect operation prevention device and operation error prevention method for in-vehicle equipment
US10870436B2 (en) Operation assistance system and operation assistance method
JP2004142656A (en) Hand pattern switch device
JP4020036B2 (en) Command input device
KR101714997B1 (en) Arm rest Interface System

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061115

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070522