JP2016157457A - 操作入力装置、操作入力方法及び操作入力プログラム - Google Patents
操作入力装置、操作入力方法及び操作入力プログラム Download PDFInfo
- Publication number
- JP2016157457A JP2016157457A JP2016070094A JP2016070094A JP2016157457A JP 2016157457 A JP2016157457 A JP 2016157457A JP 2016070094 A JP2016070094 A JP 2016070094A JP 2016070094 A JP2016070094 A JP 2016070094A JP 2016157457 A JP2016157457 A JP 2016157457A
- Authority
- JP
- Japan
- Prior art keywords
- operation input
- article
- detection reference
- input device
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】一般的なカメラを用いてユーザの手形状に基づいた操作入力を行うことが可能な操作入力装置を提供する。
【解決手段】操作入力装置は、移動体の運転席付近の撮影画像に基づいて、利用者による操作入力を認識する。まず、カメラにより得られた撮影画像から、運転席付近の実体物、例えばハンドルを基準として、検出基準領域が決定される。次に、検出基準領域において、実体物と、例えば指/手などの操作入力に使用される操作物との関係により決まる操作物の見え方の制約に基づいて、操作物が検出される。そして、検出された操作物の状態が推定され、推定された操作物の状態に基づいて操作入力が特定され、当該操作入力に対応する操作信号が装置へ出力される。
【選択図】図3
【解決手段】操作入力装置は、移動体の運転席付近の撮影画像に基づいて、利用者による操作入力を認識する。まず、カメラにより得られた撮影画像から、運転席付近の実体物、例えばハンドルを基準として、検出基準領域が決定される。次に、検出基準領域において、実体物と、例えば指/手などの操作入力に使用される操作物との関係により決まる操作物の見え方の制約に基づいて、操作物が検出される。そして、検出された操作物の状態が推定され、推定された操作物の状態に基づいて操作入力が特定され、当該操作入力に対応する操作信号が装置へ出力される。
【選択図】図3
Description
本発明は、カメラで撮影した画像中における操作物の状態の変化を利用して、装置に対する操作を入力する手法に関する。
装置に対して操作入力を行うインターフェースとして各種の手法が提案されている。特に、車両の運転席のハンドル付近におけるユーザの手形状を利用して機器のための操作入力を行う手法として、以下のものが提案されている。
特許文献1は、車載機器の操作のためのインターフェース装置を記載している。この装置は、ハンドルを把持したユーザの手をハンドルの裏側から撮影し、ジェスチャを取得する。これにより、この装置は、ハンドルを握りながら前方を指差す状態の手を撮影し、その形状を判定する。
特許文献2は、車両の乗員の手を含む所定の検出領域を複数のカメラにより撮影し、それに基づいて手の形状や動きを抽出し、操作コマンドを判定する手法を記載している。
その他、手形状や手によるジェスチャに基づいて操作入力を行う手法が特許文献3、4に記載されている。
しかし、上記の特許文献に記載の手法では、ハンドルにカメラを取り付けたり、複数のカメラや特殊なカメラを使用したりする必要がある。
本発明が解決しようとする課題としては、上記のものが例として挙げられる。本発明は、一般的なカメラを用いてユーザの手形状に基づいた操作入力を行うことが可能な操作入力装置を提供することを目的とする。
請求項1に記載の発明は、操作入力を行う操作入力装置であって、移動体の運転席付近を撮影するカメラにより撮影された撮影画像において、前記運転席付近に設置された実体物の一部分を検出基準領域として決定する決定手段と、前記撮影画像中の前記検出基準領域において、前記操作入力に使用される操作物によって遮蔽されていない領域に基づき、前記操作物を検出する検出手段と、検出された前記操作物に基づいて前記操作入力を特定する特定手段と、を備えることを特徴とする。
請求項7に記載の発明は、操作入力を行う操作入力装置により実行される操作入力方法であって、移動体の運転席付近を撮影するカメラにより撮影された撮影画像において、前記運転席付近に設置された実体物の一部分を検出基準領域として決定する決定工程と、前記撮影画像中の前記検出基準領域において、前記操作入力に使用される操作物によって遮蔽されていない領域に基づき、前記操作物を検出する検出工程と、検出された前記操作物に基づいて前記操作入力を特定する特定工程と、を備えることを特徴とする。
請求項8に記載の発明は、操作入力を行う操作入力装置により実行される操作入力プログラムであって、移動体の運転席付近を撮影するカメラにより撮影された撮影画像において、前記運転席付近に設置された実体物の一部分を検出基準領域として決定する決定工程と、前記撮影画像中の前記検出基準領域において、前記操作入力に使用される操作物によって遮蔽されていない領域に基づき、前記操作物を検出する検出工程と、検出された前記操作物に基づいて前記操作入力を特定する特定工程と、を前記操作入力装置に実行させることを特徴とする。
本発明の好適な実施形態では、移動体に搭載される装置に対して操作入力を行う操作入力装置は、前記移動体の運転席付近を撮影するカメラと、前記カメラにより撮影された撮影画像において、前記運転席付近に設置された実体物を基準として検出基準領域を決定する検出基準領域決定手段と、前記検出基準領域において、前記実体物と操作入力に使用される操作物との関係により決まる前記操作物の見え方の制約に基づいて、前記操作物を検出する操作物検出手段と、検出された前記操作物の状態を推定する操作物状態推定手段と、推定された前記操作物の状態に基づいて操作入力を特定し、当該操作入力に対応する操作信号を前記装置へ出力する操作決定手段と、を備える。
上記の操作入力装置は、移動体の運転席付近の撮影画像に基づいて、利用者による操作入力を認識する。まず、カメラにより得られた撮影画像から、運転席付近の実体物、例えばハンドルを基準として、検出基準領域が決定される。次に、検出基準領域において、実体物と、例えば指/手などの操作入力に使用される操作物との関係により決まる操作物の見え方の制約に基づいて、操作物が検出される。そして、検出された操作物の状態が推定され、推定された操作物の状態に基づいて操作入力が特定され、当該操作入力に対応する操作信号が装置へ出力される。これにより、運転席付近において利用者が手や指などでジェスチャを行うことにより、容易に操作入力を行うことができる。
上記の操作入力装置の一態様では、前記移動体は自動車であり、前記実体物は運転席付近に設置されたハンドルであり、前記カメラは前記ハンドルを含む領域を撮影する。
上記の操作入力装置の他の一態様では、前記検出基準領域決定手段は、予め決められた前記実体物の形状を前記撮影画像から抽出し、その一部分を前記検出基準領域に決定する。例えば、検出基準領域決定手段は、実体物としてのハンドルの形状を抽出し、その一部を検出基準領域とする。
上記の操作入力装置の他の一態様では、前記操作物の見え方の制約は、前記実体物と前記操作物との間の幾何学的な関係に起因して生じる制約である。例えば、操作物検出手段は、実体物としてのハンドル上に操作物としての指や手が位置する状態において、ハンドルに対する指の位置、太さ、向きなどの幾何学的な関係に起因する指の見え方に基づいて、操作物としての指や手を検出する。
上記の操作入力装置の他の一態様では、前記操作物の見え方の制約は、前記実体物上に前記操作物が位置する状態において、前記実体物と前記操作物のそれぞれの光の反射特性による見え方の差に起因して生じる制約である。例えば、操作物検出手段は、実体物としてのハンドルと、その上に位置する操作物としての指や手の明るさの違いにより、操作物としての指や手を検出する。
1つの好適な例では、前記操作物は指であり、前記操作物の状態は指の本数である。
上記の操作入力装置の他の一態様では、前記操作物状態推定手段は、前記操作物の状態として、前記操作物の形状を推定する。例えば、操作物状態推定手段は、操作物である手の状態として手形状を推定する。具体的には、前記操作物状態推定手段は、前記検出基準領域内における前記操作物の検出結果に基づいて、前記検出基準領域外にまたがる前記操作物の形状を推定する。また、前記操作物状態推定手段は、検出された前記操作物の輝度あるいは色の少なくとも一方の特徴を抽出し、前記検出基準領域外で、その特徴に当てはまる領域を検出することにより、前記検出基準領域外に存在する前記操作物の領域を検出して前記操作物の形状を推定する。好適な例では、前記操作物は手であり、前記操作物の形状は手全体の形状である。
本発明の他の好適な実施形態は、カメラを備え、移動体に搭載される装置に対して操作入力を行う操作入力装置により実行される操作入力方法であって、前記カメラにより撮影された撮影画像において、前記運転席付近に設置された実体物を基準として検出基準領域を決定する検出基準領域決定工程と、前記検出基準領域において、前記実体物と操作入力に使用される操作物との関係により決まる前記操作物の見え方の制約に基づいて、前記操作物を検出する操作物検出工程と、検出された前記操作物の状態を推定する操作物状態推定工程と、推定された前記操作物の状態に基づいて操作入力を特定し、当該操作入力に対応する操作信号を前記装置へ出力する操作決定工程と、を有する。
本発明の他の好適な実施形態は、カメラを備え、移動体に搭載される装置に対して操作入力を行う操作入力装置により実行される操作入力プログラムであって、前記カメラにより撮影された撮影画像において、前記運転席付近に設置された実体物を基準として検出基準領域を決定する検出基準領域決定工程と、前記検出基準領域において、前記実体物と操作入力に使用される操作物との関係により決まる前記操作物の見え方の制約に基づいて、前記操作物を検出する操作物検出工程と、検出された前記操作物の状態を推定する操作物状態推定工程と、推定された前記操作物の状態に基づいて操作入力を特定し、当該操作入力に対応する操作信号を前記装置へ出力する操作決定工程と、を前記操作入力装置に実行させる。この操作入力プログラムは、記憶媒体に記憶して取り扱うことができる。
以下、図面を参照して本発明の好適な実施例について説明する。
[装置構成]
図1は、実施例に係る操作入力装置の構成を示す。本実施例では、操作入力装置は、車載機器に対する操作入力に使用される。ここで、車載機器とは、車両に搭載されるカーエアコン、カーAV機器、ナビゲーション装置など、車両に搭載される各種の機器を含む。
図1は、実施例に係る操作入力装置の構成を示す。本実施例では、操作入力装置は、車載機器に対する操作入力に使用される。ここで、車載機器とは、車両に搭載されるカーエアコン、カーAV機器、ナビゲーション装置など、車両に搭載される各種の機器を含む。
図1に示すように、操作入力装置は、カメラ5と、操作認識処理部10とを含む。カメラ5は、使用者(自動車の運転者)が、運転操作するハンドルの周辺を撮影する位置に固定して設置される。図2は、カメラ5の設置状態を模式的に示す。図2は、運転者が運転席に座ってハンドル2を握っている状態を側方から見た図である。
カメラ5の設置場所は、運転席の頭上の正面前方のサンバイザー付近が好ましい。これにより、カメラ5は、運転席付近のハンドル(ステアリング)2、ダッシュボード3、左右のレバー4(図4(A)を参照)などを含む領域を撮影し、その撮影画像を操作認識処理部10へ出力する。車両の運転中に運転者はハンドル2を操作するため、運転者の手や指なども撮影画像に含まれることになる。なお、本実施例では、運転席にあるハンドル2は、多くの車種の自動車で同じような形状、大きさ、配置であり、黒色又は黒色に近い色であると想定する。
本実施例では、カメラ5は、距離計測カメラ、赤外線カメラ、ステレオカメラ等の特殊なものではなく、通常のカメラとし、例えば秒間30フレームを撮影できるものとする。ただし、カメラ5には、通常は設けられていることが多い赤外線カットフィルタを設けない。また、カメラ5の近傍に補助光の赤外線照射装置を設けて、夜間はハンドル2の付近に赤外線を照射する。これにより、夜間でも使用者の手元周辺をカメラ5で撮影できるようにする。
操作認識処理部10は、カメラ5が撮影した映像(秒間30フレームの連続するフレーム画像)を受け取って解析し、ハンドル2の周辺で行われる操作(ジェスチャ)を認識する。そして、操作を認識すると、操作認識処理部10は、操作対象の車載機器に対して、操作信号を出力する。この実施例では、操作認識処理部10は、コンピュータを用いたソフトウェア処理により実現される。
図1に示すように、操作認識処理部10は、検出基準領域決定部11と、操作物検出部12と、操作物状態推定部13と、操作決定部14と、を備える。
検出基準領域決定部11は、カメラ5から入力された撮影画像を解析し、検出基準領域を決定する。これを、「検出基準領域決定処理」という。検出基準領域とは、撮影画像において、利用者による操作入力を認識する際に基準となる領域をいう。
操作物検出部12は、検出基準領域決定処理により決定された検出基準領域に基づいて、利用者が操作入力に使用する操作物(例えば利用者の指や手)を検出する。これを「操作物検出処理」という。
操作物状態推定部13は、操作物検出処理により検出された操作物の状態を推定する。これを「操作物状態推定処理」と呼ぶ。具体的には、操作物状態推定部13は、利用者の指や手の操作物の形状を推定する。
操作決定部14は、操作物状態推定処理により推定された操作物の状態に基づいて、それに対応する操作を決定し、操作信号を出力する。
[操作認識処理]
次に、操作認識処理部10により実行される操作認識処理について詳しく説明する。図3は、操作認識処理のフローチャートである。図3に示すように、操作認識処理部10は、検出基準領域決定処理(ステップS11)、操作物検出処理(ステップS12)、操作物状態推定処理(ステップS13)、及び、操作決定処理(ステップS14)を実行する。以下、順に説明する。
次に、操作認識処理部10により実行される操作認識処理について詳しく説明する。図3は、操作認識処理のフローチャートである。図3に示すように、操作認識処理部10は、検出基準領域決定処理(ステップS11)、操作物検出処理(ステップS12)、操作物状態推定処理(ステップS13)、及び、操作決定処理(ステップS14)を実行する。以下、順に説明する。
(1.検出基準領域決定処理)
操作認識処理部10の検出基準領域決定部11は、検出基準領域決定処理を行う(ステップS11)。具体的に、検出基準領域決定部11は、まずカメラ5から入力された撮影画像から、実体物としてのハンドル2を検出し、次に、ハンドル2をよりどころとして検出基準領域を決定する。
操作認識処理部10の検出基準領域決定部11は、検出基準領域決定処理を行う(ステップS11)。具体的に、検出基準領域決定部11は、まずカメラ5から入力された撮影画像から、実体物としてのハンドル2を検出し、次に、ハンドル2をよりどころとして検出基準領域を決定する。
まず、ハンドル2の検出について説明する。運転席上部から見下ろすように設置されるカメラの設置条件と、多くの車種でハンドルが同じような位置・大きさ・形と想定されるという運転席構造とから、ハンドル2の見え方、即ち、撮影画像中でのハンドル2の位置・大きさ・形状は概ね予想できる。ハンドル2を含む撮影画像の例を図4(A)に示す。この例では、撮影画像は、ハンドル2、ダッシュボード3、レバー4などを含んでいる。
検出基準領域決定部11は、撮影画像からエッジ(輝度勾配)を求め、様々なパラメータの楕円をマッチングすることにより、楕円形状のエッジを検出し、これをハンドル2の外周部と解釈する。具体的に、図4(B)に示すように、検出基準領域決定部11はハンドル2の外周部に相当する楕円2xを検出する。
カメラ5とハンドル2はいずれも固定されているため、ある程度の時間にわたって撮影した撮影画像を重ね合わせれば、日当り・影や運転者の手などの動的要因を取り除いた、ハンドル2の周辺画像を生成できる。ここで、「ある程度の時間」とは、日当りの変化や運転者の手の見え方の偏りが十分少ないと言える程度である。ハンドル2の検出に使用される撮影画像は、数日間で、運転中・運転中以外、様々な方向からの光が当る場合、曇りの場合などの撮影画像を含む。なお、必ずしも全ての時間の撮影画像を重ね合わせる必要はなく、例えば日当たりが変わった時や、運転を始めた時、運転をやめた時などの条件で、フレーム画像を切り出してもよい。
また、撮影画像中に複数の楕円が検出されるような場合は、複数の楕円の中から、車が走行している間に比較的長時間にわたって楕円中の同じような位置が隠れて見えることを条件に、ハンドル2の外周部に相当する楕円2xを選択するようにしてもよい。これは、運転者の手が長時間にわたってハンドル2の同じような位置を握っていることを想定した条件である。例えば、ダッシュボード3の境界からハンドル2に似た半円状のエッジが検出されたとしても、ダッシュボード3に対して、ハンドル2のように運転者が長時間にわたって手を添えていることはないので、その半円状のエッジはハンドル候補から除外することができる。
次に、検出基準領域の決定について説明する。上記のようにして検出された、実体物としてのハンドル2の外周部に相当する楕円2xを基準に検出基準領域が決定される。具体的には、図4(C)に示すように、検出されたハンドル2の外周部に相当する楕円2xの上側の所定の範囲の弧から、楕円の内側に向かって所定の幅の円弧状の領域を形成し、これを検出基準領域DAとして決定する。ここで言う「上側」とは、ハンドル2の外周部に相当する楕円2xのうち、運転者がハンドル2の上側と認識する側である。「所定の範囲」は、例えば、楕円2xの真上(時計の12時の位置)から左右にそれぞれ45度の範囲とする。所定の範囲は、操作者がジェスチャ操作する範囲に相当する。また、「所定の幅」は、例えば、楕円2xの短軸の半径の0.2倍とする。所定の幅は、ハンドル2のわっかの幅に相当する。
検出基準領域の決定は、カメラ5を設置したとき、ハンドル2の位置を調整するなどしてカメラ5とハンドル2の位置関係が変わったときに行う必要がある。具体的には、位置関係が変化したことをカメラ5の画像から検出したときに検出基準領域の決定を行ってもよい。また、利用者によるスイッチ操作などに応じて、検出基準領域の再決定を行うようにしてもよい。
(2.操作物検出処理)
検出基準領域が決まれば、利用者がハンドル2に触れるように指を置いた場合の見え方を、検出基準領域を基準にして想定することができる。即ち、ハンドル2に指を置いた場合の指の向きや指の幅を想定することができる。図5は、ハンドル2に3本の指を置いた状態を模式的に示す。
検出基準領域が決まれば、利用者がハンドル2に触れるように指を置いた場合の見え方を、検出基準領域を基準にして想定することができる。即ち、ハンドル2に指を置いた場合の指の向きや指の幅を想定することができる。図5は、ハンドル2に3本の指を置いた状態を模式的に示す。
具体的に、指の向きは検出基準領域DAを横切る方向となる。指の幅は、ハンドル2の見た目の大きさからハンドル2のスケールを想定し、ハンドル2上に指を置いた時の見た目上の指の太さを推定することにより決定できる。また、ハンドル表面は暗い色であるとの想定から、指を置いた場合に指はハンドル2の表面よりも明るく見え、ハンドル2の表面と指領域の境界には急峻な輝度値の変化が線状に存在することも想定できる。なお、ハンドル2が白い色であれば、指を置いた時に指がハンドル2の表面より暗く見えることも想定できる。なお、ここではハンドル2は暗い色との想定で説明を進める。
操作物検出部12は操作物検出処理を行う(ステップS12)。操作物検出処理は、検出基準領域において操作物(指/手)を検出する。具体的には、操作物検出処理部12は、実体物と操作物との関係により決まる操作物の見え方の制約に基づいて、操作物を検出する。本実施例では、実体物であるハンドル2と、操作物である指/手との関係により決まる指/手の見え方の制約に基づいて、操作物である指/手が検出される。
1つの例では、操作物の見え方の制約は、実体物上に操作物が位置する状態において、実体物と操作物との間の幾何学的な関係に起因して生じる制約である。「幾何学的な関係」は位置、太さ、向きなどを含む。即ち、実体物としてのハンドル2に対する操作物としての指の位置、太さ、向きなどに基づいて、操作物である指が検出される。
別の例では、操作物の見え方の制約は、実体物上に操作物が位置する状態において、実体物と操作物のそれぞれの光の反射特性による見え方の差に起因して生じる制約である。本実施例では前述のようにハンドル2は黒色に近い暗い色を有しており、黒色のハンドル2上に位置する、白色に近い(明るい)領域を操作物である指として検出することができる。
図6は、操作物検出処理のフローチャートである。まず、操作物検出部12は、撮影画像から検出基準領域DA内の各ピクセルの輝度値を抽出し、各ピクセルにおける輝度値勾配の強度と方向を求めることにより、検出基準領域DAを横切る直線を抽出する(ステップS21)。なお、あるピクセルにおける輝度値勾配とは、そのピクセルを中心としそのピクセルに隣接する複数のピクセルの輝度値が作る勾配をいう。検出基準領域DAを横切る直線の例を図7(A)に示す。
次に、操作物検出部12は、抽出された1つの直線を構成する複数のピクセルについて、輝度値勾配の強度及び方向を集計する(ステップS22)。そして、その直線を構成する複数のピクセルについて、そのピクセルにおける輝度値勾配の強度が予め決められた所定値よりも強く、かつ、その輝度値勾配の方向がその直線と概ね直交しているものが所定割合以上存在する場合に(ステップS23:Yes)、その直線を操作物の境界候補とする(ステップS24)。操作物の境界候補は、具体的にはハンドル2を横切る指又は手などの操作物の左右の境界線に相当する。
なお、操作物の境界候補は、検出基準領域DAにおいてその境界候補の左右の領域のいずれが明るくいずれが暗いかにより2種類に区別される。具体的には、ステップS24では、1つの直線が、図7(B)に示すように、左側が暗く右側が明るい左側境界候補31と、左側が明るく右側が暗い右側境界候補32のうちのいずれかであるかが検出される。こうして、ステップS21で抽出された全ての横切る直線についてステップS22〜S24の処理が実行され、境界候補が抽出される。
次に、操作物検出部12は、左側境界候補31と右側境界候補32のペアを操作物候補とし、ステップS22〜S25で抽出された全ての境界候補から、全ての操作物候補を特定する(ステップS26)。ここで、操作物候補は、左側境界候補31と右側境界候補が左側からこの順で並んでいるペアを特定する。言い換えると、左側境界候補31と、その右側に位置する右側境界候補32とのペアを特定する。操作物候補は、図7(C)に示すように、2つの境界候補の内側が明るく、外側が暗いという組み合わせであり、暗い色のハンドル2上に置かれた指などの操作物と推測することができる。
次に、操作物検出部12は、その操作物候補の幅(即ち、明るい部分の幅)が操作物(利用者の指又は手)として適切と考えられる場合、その操作物候補を操作物として検出する(ステップS28)。なお、操作物候補を操作物と決定する条件として、その操作物候補を形成する2つの境界候補がほぼ平行であることを追加してもよい。
図7(C)の例では操作物候補35、36が存在する。この場合、操作物候補35は一般的な人間の指の幅に相当するので操作物(指)として検出される。一方、操作物候補36は一般的な人間の指の幅より狭いので、操作物(指)として検出されない。
こうして、全ての操作物候補についてステップS27〜S29の処理が行われると(ステップS29:Yes)、撮影画像に含まれる全ての操作物(指/手)が検出されたこととなる。
(3.操作物状態推定処理)
次に、操作物状態推定部13は操作物状態推定処理を行う(ステップS13)。操作物状態推定処理は、操作物検出部12が検出した操作物の状態、具体的には指又は手の形状を推定する。操作物の状態は、利用者により入力された操作命令に対応するものである。操作物の状態の推定には2つの方法がある。
次に、操作物状態推定部13は操作物状態推定処理を行う(ステップS13)。操作物状態推定処理は、操作物検出部12が検出した操作物の状態、具体的には指又は手の形状を推定する。操作物の状態は、利用者により入力された操作命令に対応するものである。操作物の状態の推定には2つの方法がある。
(1)第1の方法
第1の方法は、操作物の状態として、単純に検出された指の情報を使うものである。例えば、操作物状態推定部13は、操作物の状態として、検出された指の本数、即ち操作のためにハンドル2上に出された「指本数」を推定する。この場合、指本数が操作命令に対応することになる。
第1の方法は、操作物の状態として、単純に検出された指の情報を使うものである。例えば、操作物状態推定部13は、操作物の状態として、検出された指の本数、即ち操作のためにハンドル2上に出された「指本数」を推定する。この場合、指本数が操作命令に対応することになる。
これに加えて、検出された複数の指の間の距離(指の開き方)、ハンドル2に対する指の位置(例えば、ハンドル2のなす円弧上の何度の位置に指が存在するか)、角度(例えば、ハンドル2の中心と、指を検出した位置のハンドル外周とを結ぶ基準線に対する、指の境界線のなす角度)などを操作命令に対応する操作物の状態として使用してもよい。
なお、操作物状態推定部13は、カメラ5からの撮影画像に含まれる複数のフレーム間で、指などの操作物の位置を対応つける処理も行う。これにより、撮影画像のフレーム間での手の動きを操作物の状態として使用することができる。
(2)第2の方法
第2の方法は、操作物の状態として手全体の形状(以下、「手形状」と呼ぶ。)を使用する。例えば図8に示す手形状A〜Dをそれぞれ操作命令に対応付ける。操作物状態推定部13は、操作物検出部12により検出された操作物(手)が手形状A〜Dのいずれかを示しているかを判定する。
第2の方法は、操作物の状態として手全体の形状(以下、「手形状」と呼ぶ。)を使用する。例えば図8に示す手形状A〜Dをそれぞれ操作命令に対応付ける。操作物状態推定部13は、操作物検出部12により検出された操作物(手)が手形状A〜Dのいずれかを示しているかを判定する。
上述の操作物検出処理では、検出基準領域DA(ハンドル2上)のみで操作物を検出しているので、それだけで手形状を判定することは難しい。例えば、図8に示す手形状Aと手形状Bは、検出基準領域DAにおいてはいずれも図9(B)に示すような検出結果が得られ、両者を区別することは難しい。そのため、手形状を推定するために以下のような処理を行う。
まず、操作物状態推定部13は、判定したい手形状の中から、現在、検出基準領域DA上で検出された指形状を含むもののみを抽出する。いま手形状A〜Dのみを使用するものと仮定すると、検出基準領域DA上で検出した操作物の形状が図9(a)の形状であれば、検出された操作物の手形状は手形状Cか手形状Dと推定することができ、手形状A及び手形状Bを除外することができる。
次に、操作物状態推定部13は、検出基準領域DA上で検出した操作物の見え方の特徴を抽出する。具体的には、操作物状態推定部13は、色情報(肌の色)を抽出する。色によって手を検出する方法は、外光などの撮影環境によって肌色の見え方が変わる場合があるので、様々な環境下で必ずしも安定して利用できる方法ではない。しかし、この場合は、操作物検出部12が色情報よりも適切な別の条件、即ち、検出基準領域DAにおける操作物(指/手)の見え方の制約(具体的には、操作物がハンドル2に重なっているか否かなど)に基づいて操作物を検出しているため、操作物状態推定部13は色情報(肌の色)によって指や手を検出する必要はない。逆に、操作物検出部12により検出された操作物(指/手)の領域から色情報又は輝度情報を抽出すれば、操作物状態推定部13はその時点でのその人物の肌の色の見え方を正確に取得することができる。よって、操作物状態推定部13は、操作物検出部12により操作物(指/手)と検出された領域の色情報又は輝度情報から、その人物の肌色の見え方を取得する。
次に、操作物状態推定部13は、取得した色情報又は輝度情報を用いて、撮影画像から検出基準領域DA以外の操作物領域(手領域)を検出する。具体的には、撮影画像中の検出基準領域DA近傍において、先に取得された操作物(指/手)の色と同じ又は近い色又は輝度を有する領域を、操作物領域(手領域)として抽出する。この際、操作物状態推定部13は、検出基準領域DAに操作物(指/手)が存在しない状態での撮影画像との相関を用いて、検出基準領域DA以外の操作物領域を検出することが好ましい。
次に、操作物状態推定部13は、検出基準領域内で検出された操作物領域(手領域)と、検出基準領域外で検出された操作物領域(手領域)とを合わせて形成される手形状が、図8に示す手形状A〜Dのいずれかに当てはまるか否かを判定する。この場合、操作物状態推定部13は、単純な重ね合わせによる形状マッチング処理により、手形状を判定することができる。なお、操作物状態推定部13は、検出基準領域内で検出された手領域に対して、検出基準領域外で検出された手領域よりも高い重みをつけて、形状マッチング処理を行うこととしてもよい。
こうして、操作物状態推定部13は、第1の方法及び第2の方法を実行することにより、操作命令に対応する操作物の状態(指本数、手形状など)を推定する。
(4.操作決定処理)
次に、操作決定部14は、操作決定処理を行う(ステップS14)。具体的には、操作決定部14は、操作物状態推定部13の推定結果に基づいて、利用者が入力した操作命令を特定する。前述のように、操作物の状態(指本数、手形状など)は、予め決められた操作命令に対応付けられている。よって、操作決定部14は、操作物状態推定部13が推定した操作物の状態に対応する操作命令を、利用者が入力した操作命令と判定し、その操作命令に対応する操作信号を出力する。
次に、操作決定部14は、操作決定処理を行う(ステップS14)。具体的には、操作決定部14は、操作物状態推定部13の推定結果に基づいて、利用者が入力した操作命令を特定する。前述のように、操作物の状態(指本数、手形状など)は、予め決められた操作命令に対応付けられている。よって、操作決定部14は、操作物状態推定部13が推定した操作物の状態に対応する操作命令を、利用者が入力した操作命令と判定し、その操作命令に対応する操作信号を出力する。
例えば、操作物状態推定部13が、撮影画像中のあるフレームにおいて、それより前のフレームでは検出されなかった特定の手形状を検出したときに、操作決定部14は、その手形状に対応する操作命令の操作信号を1回出力する。また、操作物である指の位置が前のフレームでの位置に対して変化したことを操作物状態推定部13が検出したときに、操作決定部14はその移動量を操作信号として出力する。例えば、ある時点で指1本がハンドル上の角度0度の位置にあり、次の時点でその指1本がハンドル上の角度3度の位置にあったことを操作物状態推定部13が推定した場合、操作決定部14は、その2つの時点の間で指が左から右に3度に相当する距離移動したものと判定し、その移動量に対応する操作信号を出力する。また、操作状態推定部13が上記の手形状A〜Dのいずれかを検出した場合、操作決定部14はその手形状に対応する操作命令を出力する。
以上のように、操作認識処理部10は、利用者が検出基準領域において、指/手などの操作物を利用して行った操作入力を解釈し、それに対応する操作信号を出力することができる。
[ハンドルを利用する利点]
上記の実施例では、車両のハンドルを検出基準領域とし、その上で指又は手を操作物として使用して操作入力を行う。これは以下のような利点を有する。
上記の実施例では、車両のハンドルを検出基準領域とし、その上で指又は手を操作物として使用して操作入力を行う。これは以下のような利点を有する。
(1)ハンドルは自動車の車種を問わずほぼ形状・位置が決まっており、固定配置されているため、カメラによって検出しやすい。
(2)ハンドル上に検出基準領域を設定することにより、操作物の検出を簡単に行うことができる。これは指の見え方を限定できるためである。即ち、ハンドルをよりどころにすることにより、空中の自由な位置で指差しジェスチャをさせる場合と比較して、利用者が指を出す範囲を限定しやすい。
(3)ハンドル上で検出した操作物の情報を確実性の高い情報として使うことにより、ハンドル上以外(ハンドルの外側の領域)に渡る手の形状も高精度で検出することができる。また、ハンドル上で検出した操作物の情報から、操作物の見た目の情報(例えばその時の肌の色あるいは輝度)を抽出し、ハンドル上以外の領域からの操作物領域の検出に使うことができる。これにより、操作物領域の検出精度を上げることができる。
(4)ハンドル上で利用者がジェスチャを行う方法は、ハンドル脇やシフトレバー付近でジェスチャを行う方法と比較して、ヘッドアップディスプレイ(HUD)のような、前方に像を表示するタイプの表示装置と組み合わせて使用するのに適している。これは、利用者が前方に表示された像を見ながら、その方向を指差す形のインターフェースを実現できるためである。
[変形例]
ハンドル以外に、ダッシュボードの縁、ハンドル周りのレバーなど、ハンドルと同様に見え方が想定できる車内構造物を利用して検出基準領域を設定することができる。
ハンドル以外に、ダッシュボードの縁、ハンドル周りのレバーなど、ハンドルと同様に見え方が想定できる車内構造物を利用して検出基準領域を設定することができる。
2 ハンドル
5 カメラ
10 操作認識処理部
11 検出基準領域決定部
12 操作物検出部
13 操作物状態推定部
14 操作決定部
5 カメラ
10 操作認識処理部
11 検出基準領域決定部
12 操作物検出部
13 操作物状態推定部
14 操作決定部
Claims (9)
- 操作入力を行う操作入力装置であって、
移動体の運転席付近を撮影するカメラにより撮影された撮影画像において、前記運転席付近に設置された実体物の一部分を検出基準領域として決定する決定手段と、
前記撮影画像中の前記検出基準領域において、前記操作入力に使用される操作物によって遮蔽されていない領域に基づき、前記操作物を検出する検出手段と、
検出された前記操作物に基づいて前記操作入力を特定する特定手段と、
を備えることを特徴とする操作入力装置。 - 前記検出手段は、前記実体物上に前記操作物が位置する状態において、前記実体物が前記操作物を遮蔽することで生じる幾何学的な関係に基づき前記操作物を検出することを特徴とする請求項1に記載の操作入力装置。
- 前記検出手段は、前記実体物上に前記操作物が位置する状態において、前記実体物と前記操作物のそれぞれの光の反射特性による見え方の差に基づき前記操作物を検出することを特徴とする請求項1又は2に記載の操作入力装置。
- 検出された前記操作物の状態を推定する推定手段をさらに備え、
前記特定手段は、推定された前記操作物の状態に基づいて前記操作入力を特定し、当該操作入力に対応する操作信号を前記装置へ出力することを特徴とする請求項1乃至3のいずれか一項に記載の操作入力装置。 - 前記推定手段は、前記操作物の検出結果に基づいて、前記操作物の状態として、前記操作物の形状を推定することを特徴とする請求項4に記載の操作入力装置。
- 前記推定手段は、検出された前記操作物の輝度あるいは色の少なくとも一方の特徴を抽出し、その特徴に当てはまる領域を検出することにより、前記操作物の領域を検出して前記操作物の形状を推定することを特徴とする請求項5に記載の操作入力装置。
- 操作入力を行う操作入力装置により実行される操作入力方法であって、
移動体の運転席付近を撮影するカメラにより撮影された撮影画像において、前記運転席付近に設置された実体物の一部分を検出基準領域として決定する決定工程と、
前記撮影画像中の前記検出基準領域において、前記操作入力に使用される操作物によって遮蔽されていない領域に基づき、前記操作物を検出する検出工程と、
検出された前記操作物に基づいて前記操作入力を特定する特定工程と、
を備えることを特徴とする操作入力方法。 - 操作入力を行う操作入力装置により実行される操作入力プログラムであって、
移動体の運転席付近を撮影するカメラにより撮影された撮影画像において、前記運転席付近に設置された実体物の一部分を検出基準領域として決定する決定工程と、
前記撮影画像中の前記検出基準領域において、前記操作入力に使用される操作物によって遮蔽されていない領域に基づき、前記操作物を検出する検出工程と、
検出された前記操作物に基づいて前記操作入力を特定する特定工程と、
を前記操作入力装置に実行させることを特徴とする操作入力プログラム。 - 請求項8に記載の操作入力プログラムを記憶したことを特徴とする記憶媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016070094A JP2016157457A (ja) | 2016-03-31 | 2016-03-31 | 操作入力装置、操作入力方法及び操作入力プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016070094A JP2016157457A (ja) | 2016-03-31 | 2016-03-31 | 操作入力装置、操作入力方法及び操作入力プログラム |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014516581A Division JP5912177B2 (ja) | 2012-05-24 | 2012-05-24 | 操作入力装置、操作入力方法及び操作入力プログラム |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017051677A Division JP2017142820A (ja) | 2017-03-16 | 2017-03-16 | 操作入力装置、操作入力方法及び操作入力プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016157457A true JP2016157457A (ja) | 2016-09-01 |
Family
ID=56826433
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016070094A Ceased JP2016157457A (ja) | 2016-03-31 | 2016-03-31 | 操作入力装置、操作入力方法及び操作入力プログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016157457A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110235178A (zh) * | 2017-03-14 | 2019-09-13 | 欧姆龙株式会社 | 驾驶员状态推定装置以及驾驶员状态推定方法 |
| CN117392649A (zh) * | 2023-12-11 | 2024-01-12 | 武汉未来幻影科技有限公司 | 一种车辆部件指示操作的识别方法、装置以及处理设备 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003131785A (ja) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
| JP2005047412A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
| JP2005178473A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車載機器用インターフェース |
| JP2007237919A (ja) * | 2006-03-08 | 2007-09-20 | Toyota Motor Corp | 車両用入力操作装置 |
-
2016
- 2016-03-31 JP JP2016070094A patent/JP2016157457A/ja not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003131785A (ja) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
| JP2005047412A (ja) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | 非接触式情報入力装置 |
| JP2005178473A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車載機器用インターフェース |
| JP2007237919A (ja) * | 2006-03-08 | 2007-09-20 | Toyota Motor Corp | 車両用入力操作装置 |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110235178A (zh) * | 2017-03-14 | 2019-09-13 | 欧姆龙株式会社 | 驾驶员状态推定装置以及驾驶员状态推定方法 |
| CN110235178B (zh) * | 2017-03-14 | 2023-05-23 | 欧姆龙株式会社 | 驾驶员状态推定装置以及驾驶员状态推定方法 |
| CN117392649A (zh) * | 2023-12-11 | 2024-01-12 | 武汉未来幻影科技有限公司 | 一种车辆部件指示操作的识别方法、装置以及处理设备 |
| CN117392649B (zh) * | 2023-12-11 | 2024-02-27 | 武汉未来幻影科技有限公司 | 一种车辆部件指示操作的识别方法、装置以及处理设备 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5261554B2 (ja) | 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース | |
| JP5228439B2 (ja) | 操作入力装置 | |
| CN105612473B (zh) | 操作输入装置及方法 | |
| CN104364735B (zh) | 汽车用户界面的徒手手势控制 | |
| US8085243B2 (en) | Input device and its method | |
| KR101490908B1 (ko) | 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법 | |
| US20140361989A1 (en) | Method and Device for Operating Functions in a Vehicle Using Gestures Performed in Three-Dimensional Space, and Related Computer Program Product | |
| JP2016520946A (ja) | 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法 | |
| JP6671288B2 (ja) | ジェスチャー装置、その動作方法及びこれを備えた車両 | |
| US9141185B2 (en) | Input device | |
| JP6589796B2 (ja) | ジェスチャ検出装置 | |
| JP5912177B2 (ja) | 操作入力装置、操作入力方法及び操作入力プログラム | |
| JP5382313B2 (ja) | 車両用操作入力装置 | |
| JP2016111509A (ja) | 車両用画像処理装置、車両用画像処理方法およびプログラム | |
| JP2006285370A (ja) | ハンドパターンスイッチ装置及びハンドパターン操作方法 | |
| US20170300120A1 (en) | User interface, means of movement, and methods for recognizing a user's hand | |
| JP2018195052A (ja) | 画像処理装置、画像処理プログラム及びジェスチャ認識システム | |
| KR101976498B1 (ko) | 차량용 제스처 인식 시스템 및 그 방법 | |
| JP2016157457A (ja) | 操作入力装置、操作入力方法及び操作入力プログラム | |
| JP7163649B2 (ja) | ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム | |
| JP6581482B2 (ja) | 画像認識装置 | |
| KR100939831B1 (ko) | 입력 에러를 감소시키기 위한 조작 입력 장치 및 정보 기기조작 장치 | |
| JP5396298B2 (ja) | 顔向き検知装置 | |
| JP2018147500A (ja) | 操作入力装置、操作入力方法及び操作入力プログラム | |
| JP2017142820A (ja) | 操作入力装置、操作入力方法及び操作入力プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161011 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161130 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170214 |
|
| A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20170627 |