JP2009104297A - 操作入力装置 - Google Patents

操作入力装置 Download PDF

Info

Publication number
JP2009104297A
JP2009104297A JP2007273870A JP2007273870A JP2009104297A JP 2009104297 A JP2009104297 A JP 2009104297A JP 2007273870 A JP2007273870 A JP 2007273870A JP 2007273870 A JP2007273870 A JP 2007273870A JP 2009104297 A JP2009104297 A JP 2009104297A
Authority
JP
Japan
Prior art keywords
hand
area
determination
contour
hand region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007273870A
Other languages
English (en)
Other versions
JP5228439B2 (ja
JP2009104297A5 (ja
Inventor
Yoshihiro Nishida
好宏 西田
Masayuki Tsuji
雅之 辻
Isao Otsuka
功 大塚
Reiko Okada
玲子 岡田
Kiyoshi Matsutani
清志 松谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007273870A priority Critical patent/JP5228439B2/ja
Priority to CN2008102133290A priority patent/CN101419498B/zh
Priority to DE102008048325A priority patent/DE102008048325B4/de
Priority to US12/289,063 priority patent/US8378970B2/en
Publication of JP2009104297A publication Critical patent/JP2009104297A/ja
Publication of JP2009104297A5 publication Critical patent/JP2009104297A5/ja
Priority to US13/671,931 priority patent/US8681099B2/en
Application granted granted Critical
Publication of JP5228439B2 publication Critical patent/JP5228439B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】 ユーザーの手振りやジェスチャーをカメラで撮影してカーナビゲーション等の操作を行う場合、機器や操作対象の数が増えるに従い、それぞれに対応した手の形状や手の動きが増える。そのため、ユーザーにとって操作が複雑になるという問題があった。また、カメラで手を検出する場合に、カメラ撮影画像の中に色情報が似た顔等が入った場合や太陽光や照明の外光が変化した場合は、検出制度が低下するという問題があった。
【解決手段】 限定した手の操作判定手段とメニュー表示手段を備えることで、簡単に操作でき、かつ正確に操作を判定できるようにする。また、複数のカメラを用いて複数の判定手段から一つの結果を選択する手段を備えることにより、検出精度を高める。
【選択図】 図13

Description

この発明は、車載情報機器を始めとする各種の情報機器に対し、手の操作によって入力を行う操作入力装置に関するものである。
近年、自動車にカーナビゲーションを始めオーディオやエアコン等多くの機器が搭載されており、運転者にとってそれらの機器を操作する時のボタン操作や操作パネルの表示確認が煩雑であり、視線の動きが増えるという問題があった。
この改善策として、手振りやジェスチャーを使うことが考えられており、例えばカメラにより、形状ジェスチャーとして手の形状、方向ジェスチャーとして手の動きを検出し、一方のジェスチャーによって操作モードを選択し、他方のジェスチャーによってその操作モード内のパラメータを変更する装置が提案されている(例えば、特許文献1、特許文献2参照)。
特開2001−216069号公報 特開2005−50177号公報
このような装置を使用する場合、機器や操作対象の数が増えるに従って、それぞれに対応した手の形状や手の動きが増えるため、ユーザーがジェスチャーを覚える負担が増すという問題があった。
また、カメラで撮影した画像を用いてジェスチャーを検出する場合、明るさ等の周囲環境が検出精度に大きく影響する。特に自動車は周囲環境が大きく変化するため、ジェスチャーを常に高精度で検出することは困難であるという問題があった。
本発明は上記の課題を解決するためになされたものであり、機器や操作対象が増えても簡単にジェスチャー操作できる操作入力装置を提供することを目的とする。
また、様々な周囲環境に対して、カメラで撮影した画像からジェスチャーを高精度で検出することができる操作入力装置を提供することを目的とする。
この発明に係る操作入力装置は、撮像手段と、撮像手段で撮影された映像から人体の手の領域を検出する手領域検出手段と、検出した手領域の形状および動きから手の操作を判定する手操作判定手段と、判定した操作に基づいて選択したメニューをユーザーに知らせる選択メニュー表現手段とを備えたものである。
また、複数の撮像手段と、撮像手段で撮影された映像から人体の手の領域を検出する複数の手領域検出手段と、検出した手領域の形状および動きから手の操作を判定する複数の手操作判定手段と、複数の手操作判定手段で判定した結果から一つの判定結果を選択する手操作判定選択手段と、判定した操作に基づいて選択したメニューをユーザーに知らせる選択メニュー表現手段とを備えたものである。
この発明は、上記のように構成して簡単な操作によって選択したメニューをユーザーに知らせるため、機器や操作対象が増えても、操作入力に必要な手の形状や手の動きの数を増やすことなく簡単に操作できるという効果がある。
また、複数のカメラを用い、複数の手操作判定手段の判定結果から一つの判定結果を選択する構成としたため、様々な周囲環境において高い検出精度が得られという効果がある。
実施の形態1.
図1はこの発明を実施するための実施の形態1における操作入力装置を示すブロック図であって、例えば運転者がハンドル横に差し出した手を撮影するための可視光カメラや赤外線カメラなどの撮像手段11と、撮影手段11で撮影された映像の映像信号から手の領域を検出する手領域検出手段12と、手領域検出手段12によって検出した手領域の形状や動きから手の操作を判定する手操作判定手段13と、手操作判定手段13で判定した操作に基づいて選択したメニューをユーザーに知らせる選択メニュー表現手段14とを備える。
図2は撮像手段11として可視光カメラ20を用いた場合の手領域検出手段12の構成を示すブロック図であって、可視光カメラ20で撮影された映像の映像信号から肌色の領域を抽出する肌色領域抽出手段21と、同じく可視光カメラ20で撮影された映像の映像信号から背景画像を生成し、その背景画像と現在の映像との差分の領域を抽出する差分領域抽出手段22と、肌色領域抽出手段21および差分領域抽出手段22で抽出した領域の画像データを2値化して補正する2値化補正手段23と、2値化補正手段23で得られた2値化画像領域の内部の点から輪郭までの最短距離を算出し、その値が最大となる距離最大点を手の中心として検出する距離算出手段24と、距離最大点の位置が撮像画面の中央部に近いほど大きく撮像画面の端に近いほど小さい補正値を距離最大点の距離の値に加算する中央重点補正手段25と、補正値を加算した値が最大となる点が含まれる2値化画像領域のうち前記距離最大点から所定の距離の範囲を手領域の候補として検出する手領域候補検出手段26と、手領域候補検出手段26で検出された手領域候補の輪郭を追跡して輪郭の長さおよび領域の面積を算出する輪郭長/面積算出手段27、輪郭長/面積算出手段27によって得られた輪郭長と面積から手領域候補が手であるか否かを判定する手領域決定手段28とを備える。
図3は機器構成の例を示しており、可視光カメラ20からハンドル横付近を撮影し、そこでの手の操作に基づいてフロントガラス上の映像重畳手段33によりメニュー表示を行う。手振りやジェスチャー操作はハンドルのすぐ横あたりで小さな動作で行うのが安全である。また、手を撮影する可視光カメラ20は、操作する手が画像の中央部にあり、外乱となる人の顔や窓の外の景色は映らず、逆光にならない位置に設置することが好ましい。例えば、図3のようにダッシュボード31の中央下付近に設置し、そこから斜め上方向のハンドル横付近を撮影する。
可視光カメラ20からの撮像画像は、図4(ア)のような画像が出力され、運転者がハンドル横あたりの操作エリアに手を出すと図4(イ)のような画像が出力される。この時に肌色領域抽出手段21で肌色領域を抽出すると、図4(ウ)のような顔と手の領域が抽出される。ここでは明るさの影響を少なくできる肌色抽出として、HSV(Hue、Saturation、Value:色相、彩度、明度)色空間に変換して抽出する。
HSV色空間に変換すると、逆光等による明るさや肌の色の変化に対して広く検出できる。しかし、肌色領域には検出したい手以外に、検出したくない運転者およびその他の乗客の顔等も含まれ、またシートや天井にも肌色に近い色が存在した場合にはそれらの領域も検出される。
一方、差分領域抽出手段22では、図4(ア)のような背景画像と図4(イ)のような現在の画像との差分が大きい図4(エ)のような領域を検出する。この例では、図4(ア)と(イ)で手の位置が変わっているため、これらの画像の差分として、動く前後の2つの手が検出される。差分領域抽出においては、しばらく動きがないと背景にしたくない対象物も背景になってしまうという問題や、背景と対象物が近い画像信号レベルの場合にはうまく抽出できないという問題がある。
そこで2値化補正手段23では、肌色領域抽出手段21と差分領域抽出手段22の出力を基に検出領域に補正を行う。具体的には両方の領域の論理和を求め、膨張処理、収縮処理やフィルタ処理により、小さな穴領域を穴埋めしたり小さな突起領域やノイズを消去したりする。これらの処理によって、例えば図4(オ)の領域が得られる。この2値化補正手段23で、1または複数の2値化画像領域が得られる。
距離算出手段24では2値化補正手段23で得られた2値化画像領域において各領域の内部の点から輪郭までの最短距離を算出し、その値が最大となる距離最大点を検出し、この位置を手の中心の候補とする。図4(カ)において、抽出領域内の複数の閉曲線は上記の最短距離が等しい点の集合であり、黒点で示す距離最大点が手の中心の候補である。ここで、領域の重心を手の中心としないのは、例えば図4(キ)のように袖のない服装で腕の領域が検出された場合に、領域の重心は手ではなく腕に位置するためである。
中央重点補正手段25では、距離最大点の位置が撮像画面の中央部に近いほど大きく撮像画面の端に近いほど小さくなるような補正値を距離最大点の距離の値に加算する。このように中央重点補正を行って手の領域の候補として検出するのは、画面の中央には検出対象となる手が撮影される可能性が高く、画面の端の方には顔のような外乱となる物が撮影される可能性が高いからである。例えば図4(ク)のように画面の中央付近に手、右側に顔の領域を検出した場合に、距離算出手段24だけによる単純な距離最大点は顔の方が高くなり、誤ってこれを手の候補と判断してしまうが、中央重点補正手段25で補正することで、中央に近い手の領域を手の候補として検出することができる。
中央重点補正手段25を追加することにより画面の端の方に検出された外乱領域の方が大きくても、画面の中央部の手を検出できるという効果がある。なお、上記の例では距離最大点の距離の算出結果に補正値を加算したが、補正値を乗算しても同様の効果がある。
次に、手領域候補検出手段26では、中央重点補正手段25により補正された距離最大点の距離の値が最大となる点を検出して、その点が含まれる2値化画像領域のうち手の中心である距離最大点から上の領域部分を手領域の候補とする。他の手領域候補検出の方法として、距離最大点から所定の距離の範囲を手の領域の候補としてもよい。
輪郭長/面積算出手段27では、手領域候補検出手段26によって得られた領域に対して、2値化画像領域の輪郭を追跡して輪郭の長さおよび領域の面積を算出する。
手領域決定手段28では輪郭長/面積算出手段27で算出した輪郭の長さおよび領域の面積が所定の範囲に入っているか否かを調べて、所定の範囲に入っている時に手の領域と判断して、手領域検出手段12の出力とする。
図5は手操作判定手段13の構成例を示すブロック図であって、手領域検出手段12から得た領域に対して輪郭方向をコード化して、輪郭方向の度数分布を表すヒストグラムを算出する輪郭方向ヒストグラム算出手段51、輪郭方向ヒストグラム算出手段51で算出したヒストグラムから輪郭の方向成分の頻度を求め、その結果から手領域の傾きを検出する手方向判定手段52、手方向判定手段52の判定結果を所定時間保存する判定結果記憶手段53、判定結果記憶手段53に蓄積された所定時間の判定結果から動き情報を含めて手の操作を判定する時系列データ判定手段54で構成される。
輪郭方向ヒストグラム算出手段51では、手領域検出手段12で得られた2値化画像領域の輪郭に対して、例えば図6(ア)のような方向コードに従って輪郭の方向をコード化してそのヒストグラムを作成する。例えば、図6(イ)のように簡単のために画素を大きくした領域に対して、反時計周りの方向に輪郭(同図において黒く塗りつぶした画素)を追跡して全周についてヒストグラムを求めると図6(ウ)のようになる。
手方向判定手段52では輪郭方向ヒストグラム算出手段51により算出されたヒストグラムから手の傾きを判定する。図6(ウ)のヒストグラムに対して逆方向のコードを加算するとヒストグラムは図6(エ)のように変換される。このヒストグラムの多い成分を検出することで手の方向を判定する。例えば、図6(オ)のように右斜め上成分(方向コード6)と左斜め下成分(方向コード2)が多い場合には手を右斜め上に傾けている、図6(カ)のように上下成分(方向コード3と7)が多い場合には手をまっすぐ立てている、図6(キ)のように左斜め上成分(方向コード0)と右斜め下成分(方向コード4)が多い場合には手を左斜め上に傾けている、図6(ク)のようにどの成分もほぼ同じ場合には指を曲げている、と判定する。このように輪郭方向ヒストグラムを用いることで手の傾き状態および指の曲げ伸ばし動作を検出することができる。
手方向判定手段52の判定結果は判定結果記憶手段53に保存し、時系列データ判定手段54は判定結果記憶手段53の所定時間の判定結果を基に手の操作を判定する。1回の判定は1フレームの画像でも判定可能であるが、数フレームの時系列情報として判断することで検出精度を向上させることができ、手を振る操作のような動き情報を含めた検出も可能になる。また、数フレームについて判定することで、例えば別の意図で一瞬手を差出しただけや対向車のヘッドライトが差込むという外乱があった場合にも確実な判定が可能になる。
図7は手操作判定手段13の他の構成例を示すブロック図であって、手領域検出手段12から得た手領域の中心から前記手領域の輪郭上の全ての点までの距離を算出するする中心輪郭間距離算出手段71、中心輪郭間距離算出手段71で算出した距離が最大の点および最小の点から前記手領域の中心を結ぶ2つの線分の距離と方向により、手の方向を判定する手方向判定手段72、手方向判定手段72の判定結果を所定時間保存する判定結果記憶手段73、判定結果記憶手段73に蓄積された所定時間の判定結果から動き情報を含めて手の操作を判定する時系列データ判定手段74で構成される。
中心輪郭間距離算出手段71では手領域検出手段12で得られた2値化画像領域の輪郭を追跡して、手中心から輪郭線上までの距離が最大となる点とその距離の値、および最小となる点とその距離の値を算出する。例えば人指し指を伸ばした場合では、図8(ア)のように手中心点(A)に対して、距離が最大となる点が指の先(B)、距離が最小となる点がこぶしの位置(C)として検出される。
手方向判定手段72では中心輪郭間距離算出手段71で算出した点および距離から手の操作、具体的にはA−B間距離とA−C間距離の比率で指の曲げ伸ばしや、A−Bの方向ベクトルから指の方向が判定できる。例えば、図8(イ)のようにA−B間距離がA−C間距離の2倍よりも小さい場合は指を閉じている、図8(ウ)のようにA−B間距離がA−C間距離の2倍よりも大きくて(B)が(A)の右上方向の場合には手を右斜め上に傾けている、という判定を行う。このように手中心、指の先の位置、こぶしの位置から手の傾き状態および指の曲げ伸ばし動作を検出できる。
その後の判定結果記憶手段73および時系列データ判定手段74は、図5の判定結果記憶手段53および時系列データ判定手段54と同じである。
手操作判定手段13あるいは13Aが判定する操作は、どのような状況やメニュー階層であっても一律に操作ができ、操作が直感的であることが望ましい。上記の二つの手操作判定手段では、例えば、人指し指を伸ばしてその指を傾ける操作で選択メニューの候補を順次変更し、ボタンを押すように指を曲げる操作で選択しているメニューを実行し、戻りたい場合には否定を表示するに手を左右に振る操作でキャンセル操作することができる。ユーザーは少なくともこれらの手の操作でメニューの候補の階層を移動し、所望のメニューを選択し、実行することができる。そのため、上記の手操作判定手段13あるいは13Aにより、機器や操作対象が増えても、操作入力に必要な手の形状や手の動きの数を増やすことなく簡単に操作することができる。
以上、二つの手操作判定手段について説明したが、両方利用してもどちらか一方を利用してもよい。
図1の選択メニュー表現手段14は、手操作判定手段13が判定した操作に基づいて選択したメニューを音声または画像によって表現してユーザーに知らせる。画像で表現する場合は、例えば図3のフロントガラス上の映像重畳表示装置33で選択メニューを表示する。
本発明による操作入力装置は音声認識機能付きカーナビゲーション装置と組合せることが可能である。例えば、音声認識機能付きカーナビゲーション装置では、「近くのコンビニ」と発話するとコンビニを検索して候補をカーナビゲーション上に表示し、タッチパネルやボタンで目的地を選択する機能がある。これに対して、例えば図9(ア)のように候補を表示し、ユーザーがタッチパネルやボタンに触れずに、例えば手を右に傾けて図9(イ)のように候補をスクロールして、指を曲げる操作で目的地を確定することができる。
実施の形態2.
図10はこの発明を実施するための実施の形態2における操作入力装置を示すブロック図であって、赤外線カメラ110で撮影された映像の映像信号から背景画像を生成し、その背景画像と撮像手段で撮影された現在の映像との差分の領域を抽出する差分領域抽出手段111と、差分領域抽出手段111の情報から手領域の画像データを2値化して補正する2値化補正手段112と、2値化補正手段112から得られた手領域の2値化画像領域の画素と撮像画面の領域の端までの最短距離を算出する距離算出手段113と、距離算出手段113の算出結果の出力に対して画面の中央ほど大きく画面の端に近いほど小さい補正値を加算する中央重点補正手段114と、中央重点補正手段114の出力が最大となる位置を手の中心としてその点を含む2値化画像領域を手の位置候補として検出する手領域候補検出手段115と、手領域候補検出手段115で得られた2値化画像領域の輪郭を追跡して輪郭の長さおよび領域の面積を算出する輪郭長/面積算出手段116、輪郭長/面積算出手段116によって得られた輪郭長と面積から2値化画像領域が手であるか否かを判定する手領域決定手段117とを備える。
図11は実施の形態2における機器構成の例を示す図である。実施の形態1の場合は撮像手段が可視光カメラ20であるが、この実施の形態では撮像手段が赤外線カメラ110であり、発光部の赤外線LED104が追加されている。
赤外線カメラ110からの撮影画像は周囲の明るさにも依存するが、周囲の赤外線レベルに比較してして赤外線LED104が十分な赤外線を発光できる場合には、図12(ア)のように赤外線LED104および赤外線カメラ110との距離が近い手の部分は赤外線の反射成分が多いために高輝度レベル、背景は反射量が少ないために低輝度レベルの画像を得ることができる。
差分領域抽出手段111では、図12(イ)の背景画像と図12(ア)の画像の差が大きい図12(ウ)のような領域を検出する。可視光カメラ20の場合と同様に、しばらく手の動きがないと検出対象物である手が背景画像になってしまう問題があるが、可視光カメラ20と異なり、背景に手と同じような色や明るさの物があっても赤外線LED104や赤外線カメラ110からの距離の違いにより手と区別できるというメリットがある。
2値化補正手段112では、差分領域抽出手段111の検出領域に、膨張処理、収縮処理、フィルタ処理等により小さな穴領域を穴埋めし小さな突起領域やノイズを消す等の補正処理を行って図12(エ)の領域を得る。
その後の距離算出手段113、中央重点補正手段114、手領域候補検出手段115、輪郭長/面積算出手段116、手領域決定手段117は、それぞれ図2の距離算出手段24、中央重点補正手段25、手領域候補検出手段26、輪郭長/面積算出手段27、手領域決定手段28と同じである。
ただし、この実施の形態のように撮影手段11が赤外線カメラ110の場合は、中央重点補正手段114を省くことができる。これは赤外線LEDの照射の向きを手の操作位置に設定することで、赤外線カメラ110の撮影画像の端に顔が入っても、顔に照射・反射される赤外線レベルは画面中央部の手の部分に比べて少ないため、その画像信号のレベルが低くなるからである。
周囲の赤外線レベルに比較して赤外線LED104による赤外線レベルが低い場合、例えば直接夕日が窓から差し込むなど、赤外線LED104が手の近くにあってもその反射成分以上の赤外線が入射されるような場合には、赤外線LED104を消灯することで、図12(オ)のように背景が高輝度、手の部分が低輝度になる画像が得られ、差分領域抽出手段111により手を検出することができる。周囲の赤外線レベルの判定は、差分領域抽出手段111にて保持している背景画像の平均の輝度レベル、あるいは周辺部に重点を置いた輝度レベルによって可能である。
この実施の形態では赤外線として近赤外線を使用しているが、遠赤外線を使用しても同様の動作が実現できる。ただし、遠赤外線を使用する場合には、発光部の赤外線LED104は不要である。
実施の形態3.
図13はこの発明を実施するための実施の形態3における操作入力装置を示すブロック図である。撮像手段11として可視光カメラ20と赤外線カメラ110を備え、可視光カメラ20から得られた映像信号から手の領域を検出する手領域検出手段12、手領域検出手段12から得られた手の領域から互いに異なる方法で操作を判定する手操作判定手段13および13A、赤外線カメラ110から得られた映像信号から手の領域を検出する手領域検出手段12A、手領域検出手段12Aから得られた手の領域から互いに異なる方法で操作を判定する手操作判定手段13および13A、可視光カメラ20による複数の手操作判定手段と赤外線カメラ110による複数の手操作判定手段の複数の判定結果から一つの判定結果を選択する手操作判定選択手段131、手操作判定選択手段131により選択した操作に基づいて選択したメニューをユーザーに知らせる選択メニュー表現手段14を備える。
図14は可視光カメラ20と赤外線カメラ110の両方を備えた場合の機器構成の例を示す図である。可視光カメラ20から複数の手操作判定手段13および13Aまでの処理、ならびに赤外線カメラ110から複数の手操作判定手段13および13Aまでの処理は実施の形態1および実施の形態2と同様である。
この実施の形態3は、可視光カメラ20と赤外線カメラ110で得られた複数の判定結果を選択する手操作判定選択手段131を備えている。手操作判定選択手段131における最も単純な選択方法は判定結果の多数決であるが、可視光カメラ20からの検出は昼間の明るい時に検出の精度が高く、夜間の暗い時には精度が下がり、赤外線カメラ110からの検出は背景の赤外線レベルが高い昼間は精度が低く、夜間の方が精度が高くなるという特徴がある。そこで、昼間は可視光カメラ20の判定結果を選択し、夜間は赤外線カメラ110の判定結果を選択することで検出の精度を高めることができる。昼間と夜間の判定は、時計の時刻情報やライトを点灯しているか否かで判断できる。
また、可視光カメラ20によって高精度で検出するために十分な明るさがあるか否かは、赤外線カメラ110で撮影した画像の赤外線レベルと相関が高く、赤外線レベルが高い場合は可視光カメラ20によって高精度で検出するために十分な明るさがある。そのため、赤外線カメラ110から得られる赤外線レベルが所定の値よりも低い時には赤外線カメラ110による判定を選択し、逆に高い時には可視光カメラ20による判定を選択することで、検出の精度を高くすることが可能である。
また、手領域検出が正しく検出できない場合には手操作判定手段の判定結果も正しく判定できないため、複数の手操作判定手段による判定結果が互いに異なる。そのため、手操作判定手段の結果の差が少ない方の撮像手段による判定結果を選択することにより信頼性が高くなる。
この実施の形態では可視光カメラ20および赤外線カメラ110の取付け位置を図14のように同じダッシュボード中央の下部としたが、これらのカメラは共にバックミラーあるいはルームミラーの付近に取り付けてもよく、それぞれ異なる位置に取り付けてもよい。
この発明の実施形態1を示す操作入力装置のブロック図である。 この発明の実施形態1における手領域検出手段のブロック図である。 この発明の実施形態1における機器構成例を示す図である。 この発明の実施形態1における画像と検出領域を説明する図である。 この発明の実施形態1における手操作判定手段のブロック図である。 この発明の実施形態1における輪郭方向ヒストグラムを説明する図である。 この発明の実施形態1における他の手操作判定手段のブロック図である。 この発明の実施形態1における手方向判定手段を説明する図である。 この発明の実施形態1における検索候補の表示と操作を説明する図である。 この発明の実施形態2における手領域検出手段のブロック図である。 この発明の実施形態2における機器構成例を示す図である。 この発明の実施形態2における画像と検出領域を説明する図である。 この発明の実施形態3を示す操作入力装置のブロック図である。 この発明の実施形態3における機器構成例を示す図である。
符号の説明
11 撮像手段
12 手領域検出手段
12A 手領域検出手段
13 手操作判定手段
13A 手操作判定手段
14 選択メニュー表現手段
20 可視光カメラ
21 肌色領域抽出手段
22 差分領域抽出手段
23 2値化補正手段
24 距離算出手段
25 中央重点補正手段
26 手領域候補検出手段
27 輪郭長/面積算出手段
28 手領域決定手段
51 輪郭方向ヒストグラム算出手段
52 手方向判定手段
53 判定結果記憶手段
54 時系列データ判定手段
71 中心輪郭間距離算出手段
72 手方向判定手段
73 判定結果記憶手段
74 時系列データ判定手段
110 赤外線カメラ
111 差分領域抽出手段
112 2値化補正手段
113 距離算出手段
114 中央重点補正手段
115 手領域候補検出手段
116 輪郭長/面積算出手段
117 手領域決定手段
131 手操作判定選択手段

Claims (10)

  1. 撮像手段と、
    前記撮像手段で撮影された映像から人体の手の領域を検出する手領域検出手段と、
    検出した手領域の形状および動きから手の操作を判定する手操作判定手段と、
    判定した操作に基づいて選択したメニューをユーザーに知らせる選択メニュー表現手段と
    を備えたことを特徴とする操作入力装置。
  2. 複数の撮像手段と、
    前記複数の撮像手段で撮影された映像から人体の手の領域を検出する複数の手領域検出手段と、
    検出した手領域の形状および動きから手の操作を判定する複数の手操作判定手段と、
    前記複数の手操作判定手段で判定した結果から一つの判定結果を選択する手操作判定選択手段と、
    前記手操作判定選択手段で選択した操作に基づいて選択したメニューをユーザーに知らせる選択メニュー表現手段と
    を備えたことを特徴とする操作入力装置。
  3. 前記手領域検出手段は、
    可視光カメラで撮影された映像から肌色の領域を抽出する肌色領域抽出手段と、
    可視光カメラで撮影された背景画像と現在の映像との差分の領域を抽出する差分領域抽出手段と、
    前記肌色領域抽出手段と前記差分領域抽出手段で抽出した領域の画像データを2値化して補正する2値化補正手段と、
    前記2値化補正手段で得られた2値化画像領域の内部の点から輪郭までの最短距離を算出し、その値が最大となる距離最大点を手の中心として検出する距離算出手段と、
    前記距離最大点の位置が撮像画面の中央部に近いほど大きく撮像画面の端に近いほど小さい補正値を距離最大点の距離の値に加算する中央重点補正手段と、
    前記補正値を加算した距離最大点の距離の値が最大となる点が含まれる2値化画像領域から手領域を検出する手領域候補検出手段と、
    前記手領域候補の輪郭の長さおよび面積を算出する輪郭長/面積算出手段と、
    算出した輪郭長および面積から前記手領域候補が手であるか否かを決定する手領域決定手段と
    を含んで構成されることを特徴とする請求項1または請求項2に記載の操作入力装置。
  4. 前記手領域検出手段は、
    赤外線カメラで撮影された背景画像と現在の映像との差分の領域を抽出する差分領域抽出手段と、
    前記差分領域抽出手段で抽出した領域の画像データを2値化して補正する2値化補正手段と、
    前記2値化補正手段で得られた2値化画像領域の内部の点から輪郭までの最短距離を算出し、その値が最大となる距離最大点を手の中心として検出する距離算出手段と、
    前記距離最大点の位置が撮像画面の中央部に近いほど大きく撮像画面の端に近いほど小さい補正値を距離最大点の距離の値に加算する中央重点補正手段と、
    前記補正値を加算した距離最大点の距離の値が最大となる点が含まれる2値化画像領域から手領域を検出する手領域候補検出手段と、
    前記手領域候補の輪郭の長さおよび面積を算出する輪郭長/面積算出手段と、
    算出した輪郭長および面積から前記手領域候補が手であるか否かを決定する手領域決定手段と
    を含んで構成されることを特徴とする請求項1または請求項2に記載の操作入力装置。
  5. 前記手操作判定手段は、
    検出した手領域の輪郭の方向の度数分布を表すヒストグラムを算出する輪郭方向ヒストグラム算出手段と、
    前記輪郭方向ヒストグラム算出手段により得られたヒストグラムの大小により手の方向を判定する手方向判定手段と、
    前記手方向判定手段から得られた判定結果を保存する判定結果記憶手段と、
    前記判定結果記憶手段に保存された所定時間の判定結果から現在の手の操作を判定する時系列データ判定手段と
    を含んで構成されることを特徴とする請求項第1または請求項2に記載の操作入力装置。
  6. 前記手操作判定手段は、
    検出した手領域検出手段で得られた手領域の中心から前記手領域の輪郭上の全ての点までの距離を算出する中心輪郭間距離算出手段と、
    算出した距離が最大の点および最小の点から前記手領域の中心を結ぶ2つの線分の距離と方向により、手の方向を判定する手方向判定手段と、
    前記手方向判定手段から得られた判定結果を保存する判定結果記憶手段と、
    前記判定結果記憶手段に保存された所定時間の判定結果から現在の手の操作を判定する時系列データ判定手段と
    を含んで構成されることを特徴とする請求項第1または請求項2に記載の操作入力装置。
  7. 前記手操作判定手段は手領域検出手段からの検出結果に基づいて、少なくともメニューの候補変更、実行、キャンセルの判定を含む
    ことを特徴とする請求項第1または請求項2に記載の操作入力装置。
  8. 撮像手段が赤外線カメラからなり、
    赤外線カメラで撮影された画像の平均の赤外線レベルが所定の値よりも低い時には赤外線LED104を点灯し、高い時には赤外線LED104を消灯する
    ことを特徴とする請求項第1または請求項2に記載の操作入力装置。
  9. 前記複数の撮像手段が可視光カメラと赤外線カメラからなり、
    それぞれの撮像手段において、前記複数の手操作判定手段により手の操作の判定を行い、同じ撮像手段における複数の手操作判定手段の判定結果の差が小さい方の撮像手段による判定結果を選択する手操作判定結果選択手段と
    を含んで構成されることを特徴とする請求項2に記載の操作入力装置。
  10. 前記複数の撮像手段が可視光カメラと赤外線カメラからなり、
    赤外線カメラで撮影された画像の平均の赤外線レベルが所定の値よりも低い時には赤外線カメラからの手操作判定結果を選択し、高い時には可視光カメラからの手操作判定結果を選択する手操作判定結果選択手段と
    を含んで構成されることを特徴とする請求項2に記載の操作入力装置。
JP2007273870A 2007-10-22 2007-10-22 操作入力装置 Active JP5228439B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007273870A JP5228439B2 (ja) 2007-10-22 2007-10-22 操作入力装置
CN2008102133290A CN101419498B (zh) 2007-10-22 2008-08-22 操作输入装置
DE102008048325A DE102008048325B4 (de) 2007-10-22 2008-09-22 Betätigungseingabegerät
US12/289,063 US8378970B2 (en) 2007-10-22 2008-10-20 Manipulation input device which detects human hand manipulations from captured motion images
US13/671,931 US8681099B2 (en) 2007-10-22 2012-11-08 Manipulation input device which detects human hand manipulations from captured motion images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007273870A JP5228439B2 (ja) 2007-10-22 2007-10-22 操作入力装置

Publications (3)

Publication Number Publication Date
JP2009104297A true JP2009104297A (ja) 2009-05-14
JP2009104297A5 JP2009104297A5 (ja) 2010-10-28
JP5228439B2 JP5228439B2 (ja) 2013-07-03

Family

ID=40459136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007273870A Active JP5228439B2 (ja) 2007-10-22 2007-10-22 操作入力装置

Country Status (4)

Country Link
US (2) US8378970B2 (ja)
JP (1) JP5228439B2 (ja)
CN (1) CN101419498B (ja)
DE (1) DE102008048325B4 (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011252746A (ja) * 2010-06-01 2011-12-15 Nippon Telegr & Teleph Corp <Ntt> ケーブル位置検出装置、ケーブル位置検出方法及びケーブル位置検出プログラム
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
KR101293313B1 (ko) * 2011-03-28 2013-08-06 카부시키 가이샤 혼다 아쿠세스 손의 판정 방법, 손의 판정 장치 및 자동차에서의 차재 기기의 조작 장치
JP2013182457A (ja) * 2012-03-02 2013-09-12 Toshiba Tec Corp 商品読取装置および商品読取プログラム
JP2013205953A (ja) * 2012-03-27 2013-10-07 Nippon Telegr & Teleph Corp <Ntt> 一筆書き図形方向検出装置
WO2013175603A1 (ja) * 2012-05-24 2013-11-28 パイオニア株式会社 操作入力装置、操作入力方法及び操作入力プログラム
WO2014034049A1 (ja) * 2012-08-30 2014-03-06 パナソニック株式会社 スタイラス検出装置およびスタイラス検出方法
JP2014142851A (ja) * 2013-01-25 2014-08-07 Kyocera Corp 電子機器、視線入力プログラムおよび視線入力方法
JP2014525081A (ja) * 2011-06-29 2014-09-25 アマゾン・テクノロジーズ、インコーポレイテッド ジェスチャ認識によるユーザの識別
WO2014196208A1 (ja) 2013-06-07 2014-12-11 島根県 カーナビ用ジェスチャ入力装置
US8917906B2 (en) 2011-04-06 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for motion recognition
JPWO2012173001A1 (ja) * 2011-06-13 2015-02-23 シチズンホールディングス株式会社 情報入力装置
JP2015509634A (ja) * 2012-03-01 2015-03-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated 複数のタイプのセンサーからの情報に基づくジェスチャー検出
WO2015045550A1 (ja) 2013-09-27 2015-04-02 株式会社Jvcケンウッド 操作入力装置、操作入力方法およびプログラム
US9129182B2 (en) 2012-06-07 2015-09-08 Canon Kabushiki Kaisha Information processing apparatus and method for controlling the same
US9152850B2 (en) 2012-10-09 2015-10-06 Sony Corporation Authentication apparatus, authentication method, and program
JP2016503741A (ja) * 2012-12-21 2016-02-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 自動車用の入力装置
JP2017510875A (ja) * 2014-01-22 2017-04-13 エルジー イノテック カンパニー リミテッド ジェスチャー装置、その動作方法及びこれを備えた車両
US9807320B2 (en) 2013-09-27 2017-10-31 JVC Kenwood Corporation Operation input device, operation input method, and computer-readable recording medium
US9857869B1 (en) 2014-06-17 2018-01-02 Amazon Technologies, Inc. Data optimization
US9939909B2 (en) 2013-09-12 2018-04-10 Mitsubishi Electric Corporation Gesture manipulation device and method, program, and recording medium
WO2018150569A1 (ja) * 2017-02-20 2018-08-23 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
WO2022157880A1 (ja) * 2021-01-21 2022-07-28 三菱電機株式会社 手検出装置、ジェスチャー認識装置および手検出方法
WO2023042433A1 (ja) * 2021-09-15 2023-03-23 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法、及び、プログラム
JP7514331B2 (ja) 2020-06-05 2024-07-10 北京字節跳動網絡技術有限公司 制御方法、装置、端末および記憶媒体

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
WO2004055776A1 (en) * 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
JP4794453B2 (ja) * 2003-10-24 2011-10-19 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー インタラクティブ・ビデオ・ディスプレイ・システムを管理する方法及びシステム
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) * 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
JP4942814B2 (ja) * 2007-06-05 2012-05-30 三菱電機株式会社 車両用操作装置
US8230367B2 (en) * 2007-09-14 2012-07-24 Intellectual Ventures Holding 67 Llc Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US9002119B2 (en) * 2008-06-04 2015-04-07 University Of Tsukuba, National University Corporation Device method and program for human hand posture estimation
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
KR101581954B1 (ko) * 2009-06-25 2015-12-31 삼성전자주식회사 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
DE102009039114B4 (de) 2009-08-27 2019-02-07 Audi Ag Bedienvorrichtung für ein Fahrzeug
JP5343773B2 (ja) * 2009-09-04 2013-11-13 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
KR101652110B1 (ko) * 2009-12-03 2016-08-29 엘지전자 주식회사 사용자의 제스쳐로 제어가능한 장치의 전력 제어 방법
JP5005758B2 (ja) * 2009-12-25 2012-08-22 株式会社ホンダアクセス 自動車における車載機器の操作装置
KR100959347B1 (ko) * 2010-02-24 2010-05-20 조성호 자동차의 좌우후방 시야확보 장치
EP2544148A4 (en) * 2010-03-04 2014-10-29 Nec Corp FOREIGN OBJECT EVALUATION DEVICE, FOREIGN OBJECT EVALUATION METHOD, AND FOREIGN OBJECT EVALUATION PROGRAM
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
US8817087B2 (en) 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
KR101789071B1 (ko) * 2011-01-13 2017-10-24 삼성전자주식회사 깊이 영상의 특징 추출 방법 및 장치
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
US9073433B2 (en) * 2011-08-23 2015-07-07 Continental Automotive Systems, Inc Vehicle control system
JP2013069273A (ja) * 2011-09-07 2013-04-18 Nitto Denko Corp 入力体の動き検出方法およびそれを用いた入力デバイス
WO2013036632A1 (en) * 2011-09-09 2013-03-14 Thales Avionics, Inc. Eye tracking control of vehicle entertainment systems
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
DE102012000201A1 (de) * 2012-01-09 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
JP5799817B2 (ja) * 2012-01-12 2015-10-28 富士通株式会社 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
US9223415B1 (en) * 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
JP5858850B2 (ja) * 2012-04-02 2016-02-10 三菱電機株式会社 空気調和機の室内機
DE102012007761A1 (de) * 2012-04-20 2013-10-24 Marquardt Gmbh Bedienvorrichtung
DE102012012697A1 (de) 2012-06-26 2014-01-02 Leopold Kostal Gmbh & Co. Kg Bediensystem für ein Kraftfahrzeug
US20140002336A1 (en) * 2012-06-27 2014-01-02 Greg D. Kaine Peripheral device for visual and/or tactile feedback
US9208580B2 (en) * 2012-08-23 2015-12-08 Qualcomm Incorporated Hand detection, location, and/or tracking
CN103631157A (zh) * 2012-08-29 2014-03-12 杨尧任 利用手势识别技术控制汽车电器的装置及其应用方法
JP6011165B2 (ja) * 2012-08-31 2016-10-19 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
DE102012216184A1 (de) 2012-09-12 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Komfortable Steuerung von Infotainmenteinrichtungen und/oder Klimaeinrichtungen eines Fahrzeugs von außen
DE102012216193B4 (de) * 2012-09-12 2020-07-30 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
KR101969318B1 (ko) 2012-11-05 2019-04-17 삼성전자주식회사 디스플레이장치 및 그 제어방법
US9176539B2 (en) * 2012-11-10 2015-11-03 Ebay Inc. Key input using an active pixel camera
CN102957800B (zh) * 2012-11-12 2014-05-21 北京小米科技有限责任公司 一种移动终端待机方法及装置
CN103000054B (zh) * 2012-11-27 2015-07-22 广州中国科学院先进技术研究所 智能厨房烹饪教学机及其控制方法
JP6202810B2 (ja) * 2012-12-04 2017-09-27 アルパイン株式会社 ジェスチャ認識装置および方法ならびにプログラム
TW201423480A (zh) * 2012-12-10 2014-06-16 Pixart Imaging Inc 開關裝置
JP6030430B2 (ja) * 2012-12-14 2016-11-24 クラリオン株式会社 制御装置、車両及び携帯端末
CN103885572B (zh) * 2012-12-19 2018-03-09 原相科技股份有限公司 开关装置
JP5489377B1 (ja) * 2012-12-28 2014-05-14 パナソニック株式会社 表示装置、表示方法及び表示プログラム
JP6322364B2 (ja) * 2013-01-29 2018-05-09 矢崎総業株式会社 電子制御装置
CN103152626A (zh) * 2013-03-08 2013-06-12 苏州百纳思光学科技有限公司 一种智能电视的远红外三维手势探测装置
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
SE537579C2 (sv) * 2013-04-11 2015-06-30 Crunchfish Ab Bärbar enhet nyttjandes en passiv sensor för initiering av beröringsfri geststyrning
DE102013010932B4 (de) 2013-06-29 2015-02-12 Audi Ag Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
KR101472455B1 (ko) * 2013-07-18 2014-12-16 전자부품연구원 손동작 기반 사용자 인터페이스장치 및 그 방법
US20160162039A1 (en) * 2013-07-21 2016-06-09 Pointgrab Ltd. Method and system for touchless activation of a device
DE102013012466B4 (de) 2013-07-26 2019-11-07 Audi Ag Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
CN103399699A (zh) * 2013-07-31 2013-11-20 华南理工大学 一种以人手为中心的手势交互方法
DE102013013225B4 (de) 2013-08-08 2019-08-29 Audi Ag Kraftfahrzeug mit umschaltbarer Bedieneinrichtung
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
US20150139483A1 (en) * 2013-11-15 2015-05-21 David Shen Interactive Controls For Operating Devices and Systems
CN103576862B (zh) * 2013-11-18 2015-05-20 合一网络技术(北京)有限公司 一种手势控制拍摄的方法和装置
KR101610092B1 (ko) * 2013-12-18 2016-04-07 현대자동차 주식회사 차량용 곡면 디스플레이 장치
JP2015184906A (ja) * 2014-03-24 2015-10-22 富士通株式会社 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム
US10409382B2 (en) 2014-04-03 2019-09-10 Honda Motor Co., Ltd. Smart tutorial for gesture control system
US9342797B2 (en) 2014-04-03 2016-05-17 Honda Motor Co., Ltd. Systems and methods for the detection of implicit gestures
US10466657B2 (en) 2014-04-03 2019-11-05 Honda Motor Co., Ltd. Systems and methods for global adaptation of an implicit gesture control system
US10936050B2 (en) 2014-06-16 2021-03-02 Honda Motor Co., Ltd. Systems and methods for user indication recognition
US9778750B2 (en) * 2014-09-30 2017-10-03 Xerox Corporation Hand-gesture-based region of interest localization
CN104317397A (zh) * 2014-10-14 2015-01-28 奇瑞汽车股份有限公司 车载人机交互方法
DE102014224641A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102014118387A1 (de) 2014-12-12 2016-06-16 Valeo Schalter Und Sensoren Gmbh Erfassungsvorrichtung zum Erkennen einer Geste und/oder einer Blickrichtung eines Insassen eines Kraftfahrzeugs durch synchrone Ansteuerung von Leuchteinheiten, Bedienanordnung, Kraftfahrzeug sowie Verfahren
US9994231B2 (en) * 2014-12-31 2018-06-12 Harman International Industries, Incorporated Force measuring steering wheel
GB2534152B (en) * 2015-01-14 2017-12-20 Jaguar Land Rover Ltd Apparatus and method for controlling operation of a component
JP6766066B2 (ja) * 2015-03-31 2020-10-07 シグニファイ ホールディング ビー ヴィSignify Holding B.V. カラーピッカー
JP6597235B2 (ja) * 2015-11-30 2019-10-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP7054634B2 (ja) * 2018-02-21 2022-04-14 セーレン株式会社 測定装置
TWI662940B (zh) * 2018-06-01 2019-06-21 廣達電腦股份有限公司 影像擷取裝置
JP7173811B2 (ja) * 2018-09-27 2022-11-16 株式会社アイシン 乗員モニタリング装置、乗員モニタリング方法、および乗員モニタリングプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
WO2007088939A1 (ja) * 2006-02-03 2007-08-09 Matsushita Electric Industrial Co., Ltd. 情報処理装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5062060A (en) * 1987-01-05 1991-10-29 Motorola Inc. Computer human interface comprising user-adjustable window for displaying or printing information
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US20030093805A1 (en) * 2001-11-15 2003-05-15 Gin J.M. Jack Dual camera surveillance and control system
US10242255B2 (en) * 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
JP3752246B2 (ja) * 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
JP2005242694A (ja) 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置
WO2005104010A2 (en) * 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
FR2911983B1 (fr) * 2007-01-25 2009-05-29 St Microelectronics Sa Procede de suivi automatique des mouvements de la mains dans une sequence d'images.
US8230367B2 (en) * 2007-09-14 2012-07-24 Intellectual Ventures Holding 67 Llc Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2005050177A (ja) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd 非接触式情報入力装置
WO2007088939A1 (ja) * 2006-02-03 2007-08-09 Matsushita Electric Industrial Co., Ltd. 情報処理装置

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012094103A (ja) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd 画像表示システム
JP2015099603A (ja) * 2010-02-24 2015-05-28 大日本印刷株式会社 画像表示システム
JP2011252746A (ja) * 2010-06-01 2011-12-15 Nippon Telegr & Teleph Corp <Ntt> ケーブル位置検出装置、ケーブル位置検出方法及びケーブル位置検出プログラム
KR101293313B1 (ko) * 2011-03-28 2013-08-06 카부시키 가이샤 혼다 아쿠세스 손의 판정 방법, 손의 판정 장치 및 자동차에서의 차재 기기의 조작 장치
US8917906B2 (en) 2011-04-06 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for motion recognition
US9229584B2 (en) 2011-06-13 2016-01-05 Citizen Holdings Co., Ltd. Information input apparatus
JPWO2012173001A1 (ja) * 2011-06-13 2015-02-23 シチズンホールディングス株式会社 情報入力装置
US9465982B2 (en) 2011-06-29 2016-10-11 Amazon Technologies, Inc. User identification by gesture recognition
JP2014525081A (ja) * 2011-06-29 2014-09-25 アマゾン・テクノロジーズ、インコーポレイテッド ジェスチャ認識によるユーザの識別
JP2015509634A (ja) * 2012-03-01 2015-03-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated 複数のタイプのセンサーからの情報に基づくジェスチャー検出
JP2013182457A (ja) * 2012-03-02 2013-09-12 Toshiba Tec Corp 商品読取装置および商品読取プログラム
JP2013205953A (ja) * 2012-03-27 2013-10-07 Nippon Telegr & Teleph Corp <Ntt> 一筆書き図形方向検出装置
JPWO2013175603A1 (ja) * 2012-05-24 2016-01-12 パイオニア株式会社 操作入力装置、操作入力方法及び操作入力プログラム
WO2013175603A1 (ja) * 2012-05-24 2013-11-28 パイオニア株式会社 操作入力装置、操作入力方法及び操作入力プログラム
US9129182B2 (en) 2012-06-07 2015-09-08 Canon Kabushiki Kaisha Information processing apparatus and method for controlling the same
US9513720B2 (en) 2012-08-30 2016-12-06 Panasonic Intellectual Property Corporation Of America Stylus detecting device and stylus detecting method
WO2014034049A1 (ja) * 2012-08-30 2014-03-06 パナソニック株式会社 スタイラス検出装置およびスタイラス検出方法
JPWO2014034049A1 (ja) * 2012-08-30 2016-08-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America スタイラス検出装置およびスタイラス検出方法
US9152850B2 (en) 2012-10-09 2015-10-06 Sony Corporation Authentication apparatus, authentication method, and program
JP2016503741A (ja) * 2012-12-21 2016-02-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 自動車用の入力装置
JP2014142851A (ja) * 2013-01-25 2014-08-07 Kyocera Corp 電子機器、視線入力プログラムおよび視線入力方法
US9662980B2 (en) 2013-06-07 2017-05-30 Shimane Prefectural Government Gesture input apparatus for car navigation system
WO2014196208A1 (ja) 2013-06-07 2014-12-11 島根県 カーナビ用ジェスチャ入力装置
US9939909B2 (en) 2013-09-12 2018-04-10 Mitsubishi Electric Corporation Gesture manipulation device and method, program, and recording medium
US9807320B2 (en) 2013-09-27 2017-10-31 JVC Kenwood Corporation Operation input device, operation input method, and computer-readable recording medium
WO2015045550A1 (ja) 2013-09-27 2015-04-02 株式会社Jvcケンウッド 操作入力装置、操作入力方法およびプログラム
JP2017510875A (ja) * 2014-01-22 2017-04-13 エルジー イノテック カンパニー リミテッド ジェスチャー装置、その動作方法及びこれを備えた車両
US9857869B1 (en) 2014-06-17 2018-01-02 Amazon Technologies, Inc. Data optimization
WO2018150569A1 (ja) * 2017-02-20 2018-08-23 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JPWO2018150569A1 (ja) * 2017-02-20 2019-12-12 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP7514331B2 (ja) 2020-06-05 2024-07-10 北京字節跳動網絡技術有限公司 制御方法、装置、端末および記憶媒体
WO2022157880A1 (ja) * 2021-01-21 2022-07-28 三菱電機株式会社 手検出装置、ジェスチャー認識装置および手検出方法
JP7483060B2 (ja) 2021-01-21 2024-05-14 三菱電機株式会社 手検出装置、ジェスチャー認識装置および手検出方法
WO2023042433A1 (ja) * 2021-09-15 2023-03-23 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
DE102008048325B4 (de) 2011-12-08
CN101419498A (zh) 2009-04-29
CN101419498B (zh) 2011-05-04
DE102008048325A1 (de) 2009-04-23
US20090102788A1 (en) 2009-04-23
JP5228439B2 (ja) 2013-07-03
US8378970B2 (en) 2013-02-19
US8681099B2 (en) 2014-03-25
US20130162535A1 (en) 2013-06-27

Similar Documents

Publication Publication Date Title
JP5228439B2 (ja) 操作入力装置
JP5423631B2 (ja) 画像認識装置
US9939909B2 (en) Gesture manipulation device and method, program, and recording medium
JP4797752B2 (ja) 移動体用操作物体抽出装置
EP2541493B1 (en) Pupil detection device and pupil detection method
JP5740822B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9807320B2 (en) Operation input device, operation input method, and computer-readable recording medium
US20090167682A1 (en) Input device and its method
US8503723B2 (en) Histogram-based object tracking apparatus and method
JP5912177B2 (ja) 操作入力装置、操作入力方法及び操作入力プログラム
JP4701961B2 (ja) 歩行者検知装置
JP6465197B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6252657B2 (ja) 調整装置、調整方法およびプログラム
JP2016157457A (ja) 操作入力装置、操作入力方法及び操作入力プログラム
JP5559121B2 (ja) 対象物種別判定装置
JP6222306B2 (ja) 調整装置、およびプログラム
JP6260673B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2005092448A (ja) 画像認識装置及び画像認識方法
JP2018147500A (ja) 操作入力装置、操作入力方法及び操作入力プログラム
EP3051384B1 (en) Infrared based gesture detection
JP6052193B2 (ja) 操作入力装置、操作入力方法およびプログラム
JP2017142820A (ja) 操作入力装置、操作入力方法及び操作入力プログラム
CN115797815A (zh) Ar翻译的处理方法及电子设备
JP2020095663A (ja) 認識処理装置、認識処理方法及びプログラム
JP2015172939A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5228439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250