JP2014119295A - 制御装置、及び携帯端末 - Google Patents

制御装置、及び携帯端末 Download PDF

Info

Publication number
JP2014119295A
JP2014119295A JP2012273081A JP2012273081A JP2014119295A JP 2014119295 A JP2014119295 A JP 2014119295A JP 2012273081 A JP2012273081 A JP 2012273081A JP 2012273081 A JP2012273081 A JP 2012273081A JP 2014119295 A JP2014119295 A JP 2014119295A
Authority
JP
Japan
Prior art keywords
hand
unit
user
recognition
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012273081A
Other languages
English (en)
Other versions
JP6030430B2 (ja
JP2014119295A5 (ja
Inventor
Takuma Terada
卓馬 寺田
Tomoaki Yoshinaga
智明 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012273081A priority Critical patent/JP6030430B2/ja
Priority to US14/063,193 priority patent/US9547792B2/en
Priority to EP13190604.2A priority patent/EP2743799B1/en
Priority to CN201310525082.7A priority patent/CN103869967B/zh
Publication of JP2014119295A publication Critical patent/JP2014119295A/ja
Publication of JP2014119295A5 publication Critical patent/JP2014119295A5/ja
Application granted granted Critical
Publication of JP6030430B2 publication Critical patent/JP6030430B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】運転を妨げない目視不要であってかつ簡易な操作によって機器の機能を制御可能な制御装置を提供する。
【解決手段】経路案内装置に接続される制御装置であって、撮像画像からユーザの手に関する情報を検出する手情報検出部と、経路案内装置又は経路案内装置に接続される複数の機器に制御命令を出力する機器操作命令部と、を備え、機器操作命令部は、手情報検出部によって検出されるユーザの手の向きに基づいて、経路案内装置又は機器への制御命令を出力することを特徴とする。
【選択図】図1

Description

本発明は、経路を案内する制御装置に関し、特に、ユーザの手を認識し、ユーザの手の動作によって機器を制御する制御装置に関する。
車両には、走行に必要な機器及び快適な空間を作り出す機器、並びにこれらの機器を制御するためにユーザによって操作されるスイッチが配置される。走行に必要な機器としては、例えば、ハンドル、ミラー、ライト、及び方向指示器等がある。快適な空間を作り出す機器としては、例えば、エアコン、オーディオ、及びカーナビゲーション等がある。
車両に配置されるこれらの機器の数の増加、及びこれらの機器を動作させる機能の数の増加に伴って、スイッチの数も増加傾向にある。このようにスイッチの数の増加及びスイッチの多機能化は、機器を制御するための操作が複雑化してしまい、運転手に負担がかかる。このため、スイッチを削減して運転手の負担を軽減するインタフェースの提供が必要となる。
例えば、非接触のインタフェースとしてユーザのジェスチャ(身振り及び手振りの動作)を検出し、検出したジェスチャに基づいて機器を制御するインタフェースが知られている。このインタフェースでは、ユーザはスイッチを操作する必要がなくなり、直感的に操作可能なジェスチャによって機器を制御できるため、運転手の負担を軽減することができる。しかしながら、車両のように配置される機器の数が多い場合には、スイッチの数を減少させることができても、機器を操作するために必要なジェスチャの動作数が増加してしまい、運転手に負担がかかる。
本技術分野の背景技術として、特開2004−171476号公報(特許文献1)がある。この公報には、「ハンドパターンスイッチ装置は、カメラ3の入力画像から認識される手指の形状により運転員(スイッチ操作者)によるスイッチ装置の操作意図であると認識し、その上でスイッチ制御対象設定手段14によりその後の手指の形状や動きを認識してグループ分けした複数の制御対象の中から1つの制御対象を選択し、所定のスイッチ操作情報を出力する。各制御対象における複数のスイッチは、操作・調整形態が類似したものを集合させていることで、関連づけて覚えやすく操作性が向上する。」と記載されている。
特開2004−171476号公報
特許文献1では、運転手が操作したい機器を選択し、機器の機能を実行するまでに複数回の動作が必要となり、操作性が悪化する可能性がある。
また、運転手が、車両に配置された機器を制御するには、運転を妨げない操作となる必要があり、目視不要であって、かつ簡易な操作が必要となる。
本発明の目的は、運転を妨げない目視不要であってかつ簡易な操作によって機器の機能を制御可能な制御装置を提供することである。
上記課題を解決するために、本発明は、経路案内装置に接続される制御装置であって、撮像画像からユーザの手に関する情報を検出する手情報検出部と、前記経路案内装置又は前記経路案内装置に接続される複数の機器に制御命令を出力する機器操作命令部と、を備え、前記機器操作命令部は、前記手情報検出部によって検出される前記ユーザの手の向きに基づいて、前記経路案内装置又は前記機器への制御命令を出力することを特徴とする。
本発明によれば、運転を妨げない目視不要であってかつ簡易な操作によって機器の機能を制御可能な制御装置を提供できる。
上記した以外、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施例1の車載機器インタフェースを搭載した車両のブロック図である。 本発明の実施例1の手形状認識部による手形状認識処理のフローチャートである。 本発明の実施例1の手形状認識部が認識する手形状の例の説明図である。 本発明の実施例1の手向き認識部による手向き認識処理のフローチャートである。 本発明の実施例1の手向き認識部が認識する手の向きの例の説明図である。 本発明の実施例1の手形状と車載機器群の機器との関係の説明図である。 本発明の実施例1の手形状及び手の向きと制御対象の機器の機能との関係の説明図である。 本発明の実施例1の効果の一例の説明図である。 本発明の実施例2のジェスチャ領域の説明図である。 本発明の実施例3の照明装置の照射範囲の説明図である。 本発明の実施例4のカメラの配置位置の説明図である。 本発明の実施例5の車載機器インタフェースを搭載した車両のブロック図である。 本発明の実施例5の音声によるトリガ操作の説明図である。 本発明の実施例5の手のジェスチャによるトリガ操作の説明図である。 本発明の実施例5の変形例の手によるトリガ操作の説明図である。 本発明の実施例6の音声による質問に対する返答を出力するナビゲーション装置の説明図である。 本発明の実施例7のジェスチャ認識を搭載した携帯端末のブロック図である。 本発明の実施例8の認識結果確定部がユーザのジェスチャがジェスチャ操作であるか否かを判定する処理の説明図である。 本発明の実施例8の手の向き及び手の移動方向をオーディオの機能との関係の説明図である。 本発明の実施例8のユーザの手の回転動作の説明図である。 本発明の実施例8の回転角度と閾値との関係の説明図である。 本発明の実施例8のナビゲーションの画面変更の説明図である。
以下、実施例を図面を用いて説明する。
本発明の実施例1を図1〜図16を用いて説明する。
本実施例では、ユーザの手形状と手の向きとによって機器の機能を制御可能な制御装置の例を説明する。例えば、この制御装置は経路案内装置(ナビゲーション装置)に接続される。
図1は、本発明の実施例1の車載機器インタフェース1を搭載した車両のブロック図である。
図1に示す車両には、車載機器インタフェース1及び車載機器群2が搭載される。車載機器インタフェース1は、ユーザの手形状及び手の向きを認識し、車載機器群2に含まれる機器を制御する。
車載機器インタフェース1は、画像入力部11、手情報検出部12、手形状認識部13、手向き認識部14、機器操作命令部15、認識結果確定部720、CPU10、及びRAM19を有する。手情報検出部12、手形状認識部13、手向き認識部14、認識結果確定部720、及び機器操作命令部15に対応するプログラムがRAM19に格納され、CPU10がこれらのプログラムを実行する。なお、手情報検出部12、手形状認識部13、手向き認識部14、認識結果確定部720、及び機器操作命令部15を手情報検出部という。
画像入力部11は、例えばカメラ等であり、画像データを取得し、取得した画像データを手情報検出部12に出力する。例えば、カメラは、二次元画像データを取得するRGBカメラ、及び距離データを取得可能な赤外線カメラを用いることができるが、これら以外のカメラを用いてもよい。
手情報検出部12は、画像入力部11が取得した画像からユーザの手に関する情報を検出する。ユーザの手に関する情報は、例えば、手の領域情報及び手の位置情報等である。手の領域情報の検出方法としては、特定の色の箇所を手の領域として検出する肌色検出、及び予め大量の手の画像データを学習しておき、学習データに基づいて手の領域を検出するAdaBoost等がある。AdaBoostの詳細は、P.Viola and M.Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features”, In Proc. IEEE Conf. on Computer Vision and Pattern Recognition(CVPR), Kauai, USA, 2001.に記載されているので、説明を省略する。
また、画像入力部11が取得する画像データは、手の向き及び手の位置によって学習データと背景が異なる場合があり、照明環境の変化によってテクスチャも変化する場合があるため、手情報検出部12は、手の領域情報を検出できない場合がある。これを解決するためには、手情報検出部12に背景を統一した手の画像データを学習させておき、手情報検出部12は、当該画像データに基づいて手の領域を検出すればよい。なお、手情報検出部12は、学習した画像データから、手の領域に検出に不適切な画像データを除外し、不適切なデータが除外された画像データを手の領域に検出に用いることによって、手の領域の誤検出を削減できる。
手情報検出部12は、検出された手の領域の中心又は重心の二次元座標を算出することによって、手の位置情報を算出する。なお、手形状の変化による影響を削減するために、手情報検出部12は、重心の二次元座標を算出する方が好ましい。また、手の位置情報を時系列に収集することで、手の動き情報を算出できる。手の動き情報は、動きの方向と動き量で表せる。
手形状認識部13は、手情報検出部12が検出した手の領域情報から手形状を認識し、認識結果を認識結果確定部720に出力する。手形状認識部13の詳細は図2で説明する。手向き認識部14は、手情報検出部12が検出した手の領域情報及び手の位置情報に基づいて、手の手首から指先にかけての手の向きを認識し、認識結果を認識結果確定部720に出力する。手向き認識部14の詳細は図4で説明する。
認識結果確定部720は、手形状認識部13及び手向き認識部14による認識結果が入力されると、入力された認識結果を機器操作命令部15に出力する。
機器操作命令部15は、認識結果確定部720から入力された手形状認識部13及び手向き認識部14の一方の認識結果に基づいて、車載機器群2に含まれる機器から制御対象となる機器を選択する。そして、機器操作命令部15は、他方の認識結果に基づいて、選択された制御対象となる機器が所定の機能を実現するように、当該機器に制御命令を出力することによって、制御対象となる機器を制御する。
以降の説明では、機器操作命令部15は、手形状認識部13の認識結果(手形状)に基づいて、制御対象となる機器を選択し、手向き認識部14の認識結果(手の向き)に基づいて、制御対象となる機器の機能を特定する例について説明するが、手の向きに基づいて、制御対象となる機器を選択し、手の向きに基づいて、制御対象となる機器の機能を特定してもよい。
機器操作命令部15には、手形状認識部13の各認識結果と車載機器群2に含まれる各機器との関係を登録した機器関係情報、及び、手向き認識部14の各認識結果と車載機器群2に含まれる各機器の各機能とを関係を登録した機能関係情報が予め設定される。
手の向きは小さな動きであるため、機器操作命令部15は、手向き認識部14の認識結果から手の向きの小さな変化を認識することは困難であり、また、小さな動きを認識しようとすると、手のぶれによって誤った機器の機能を特定してしまい、ユーザが意図しない制御命令が機器に出力される可能性がある。したがって、機器操作命令部15は、ユーザが意図しない制御命令を機器に出力しないようにするために、手形状認識部13の認識結果及び手向き認識部14の認識結果を事前に予測結果として保持する。機器操作命令部15は、認識結果と予測結果とが一致しない場合には、認識結果を棄却することによって、ユーザの意図しない制御命令を出力することを防止する。
また、機器操作命令部15は、機器を瞬時に動作させるためには、ユーザによる手の動きが一瞬の動作であるので、どのタイミングで制御命令を出力するかが課題となる。例えば、ユーザの手の動きが停止する前に機器を動作させる場合について説明する。手が第1停止状態から動き始め、第2停止状態で停止するとする。この場合、機器操作命令部15は、第1停止状態の段階の状態でユーザの動作特徴を捉え、次の動作を予測する。そして、機器操作命令部15は、手が動き始めてから処理を開始し、第2停止状態で手の動きが停止すると処理を完了すると、認識結果と予測結果とが一致すれば、認識結果に対応する制御命令を出力する。これによって、早いタイミングで制御命令を与え、誤動作を削減することができる。
車載機器群2は、オーディオ21、ヘッドアップディスプレイ(HUD)22、テレビ23、ナビゲーション24、及びエアコン25を含む。また、車載機器群2は、車両の走行に必要な機器を含んでもよい。車両の走行に必要な機器は、例えば、ライト、ミラー、方向指示器、及びワイパー等である。
車載機器インタフェース1と目的地までの経路を案内するナビゲーション24とを有する装置をナビゲーション装置(経路案内装置)という。ナビゲーション装置は、車載機器インタフェース1及びナビゲーション24を有していれば、カーナビ等の車両に搭載される装置であってもよいし、高機能携帯電話等のユーザが携帯できる装置であってもよい。
図2は、本発明の実施例1の手形状認識部13による手形状認識処理のフローチャートである。
手形状認識処理は、手情報検出部12によって出力された手に関する情報が手形状認識部13に入力された場合に実行される。手形状認識処理は、手のテクスチャ及び指先と点の重心との距離に基づいて手形状を認識する処理であって、車載機器インタフェース1が有する図示しないCPUによって実行される。
まず、手形状認識部13は、入力された手に関する情報に含まれる手の領域情報から手のテクスチャを取得する(201)。
次に、手形状認識部13は、ステップ201の処理で取得したテクスチャに対して主成分分析又は独立成分分析を実行することによって、手の大まかな形状を算出し、手が表か裏か判定する(202)。
次に、手形状認識部13は、入力された手に関する情報に含まれる手の領域情報に基づいて手の輪郭を抽出し(203)、手の領域情報に基づいて手の重心の座標を算出する(204)。
次に、手形状認識部13は、ステップ203の処理で抽出された輪郭の曲率を算出し、算出した曲率が予め設定された指先を示す曲率の範囲に属する箇所を指先として検出する(205)。次に、手形状認識部13は、ステップ205の処理で検出された指先同士の距離を算出する(206)。
具体的には、手形状認識部13は、指先同士の距離が第1所定値以下であれば、手が閉じている状態であると判定し、指先同士の距離が第1所定値より大きければ、手が開いている状態であると判定する。ステップ205の処理では手首が指先として誤検出される可能性がある。ステップ206の処理で、手形状認識部13は、指先同士の距離が第2所定値より大きい場合には、どちらかの指先が手首であると仮定し、手首と仮定した指先のうち、手首と仮定していない他の指先との距離が第2所定値より大きい指先があれば、当該指先が手首であると特定し、当該指先を削除する。これによって、手形状認識部13は、手首を指先として誤検出することを防止できる。なお、第2所定値には、第1所定値より大きい値が設定されるものとする。
次に、手形状認識部13は、ステップ206の処理で検出された各指先と重心との間の距離を算出する(207)。手形状認識部13は、指先と重心との間の距離が第3所定値より大きければ、当該指先は伸びている状態であると判定し、指先と重心との間の距離が第3所定値以下であれば、当該指先は曲げている状態であると判定する。これによって、手形状認識部13は、ユーザがどの指を伸ばしているのか、どの指を曲げているのかを特定できる。
次に、手形状認識部13は、ステップ202の処理の結果、及びステップ205〜207の処理の結果に基づいて、手形状を認識し(208)、処理を終了する。
ステップ201〜202の処理は、手のテクスチャに基づいて手形状を認識する処理であり、ステップ203〜207の処理は、指先と点の重心との距離に基づいて手形状を認識する処理である。
図2に示す手形状認識処理では、ステップ201〜202の処理及びステップ203〜207の処理を実行するが、ステップ201〜202の処理及びステップ203〜207の処理のどちらか一方のみを実行してもよい。ただし、例えば、ステップ203〜207の処理のみを実行した場合には、手形状認識部13は、図3の手形状F及び手形状Hに示すような手の表と裏とを認識できない可能性が高いため、ステップ201〜202の処理及びステップ203〜207の処理の両方を実行したほうが、手形状認識部13の手形状の認識は正確になる。
その他にも、手形状認識部13は、抽出した手の画像から局所領域毎のエッジや色エッジヒストグラムを特徴量として抽出して、抽出した特徴量をSVM、AdaBoost及びRandomForest等のクラス識別器によって手の形状を認識してもよい。
図3は、本発明の実施例1の手形状認識部13が認識する手形状の例の説明図である。
手形状認識部13が認識する手形状の例としては、図3に示す手形状A〜手形状Nがある。
手形状Aは人差し指を伸ばした形状である。手形状Bは人差し指及び中指を伸ばした形状である。手形状Cは人差し指、中指、及び薬指を伸ばした形状である。手形状Dは人差し指、中指、薬指、及び小指を伸ばした形状である。手形状Eは親指、人差し指、中指、薬指、及び小指を伸ばした形状である。
手形状Fは、全ての指を伸ばし、手の平側(手の裏側)をカメラに向けた形状である。手形状Gは、全ての指を伸ばし、小指側をカメラに向けた形状である。手形状Hは、全ての指を伸ばし、手の甲側(手の表側)をカメラに向けた形状である。手形状Iは、人差し指と親指とで円を形成した形状である。手形状Nは親指を伸ばした形状である。
なお、これらの手形状A〜手形状Nは、制御対象となる機器と関連付けられ、機器操作命令部15に設定される機器関係情報に登録される。
また、手形状認識部13は、手形状A〜手形状N以外の手形状を認識してもよい。
図4は、本発明の実施例1の手向き認識部14による手向き認識処理のフローチャートである。
手向き認識処理は、手情報検出部12によって出力された手に関する情報が手向き認識部14に入力された場合に実行される。手向き認識処理は、主成分分析によって得られた指先と重心とを通る直線、並びに指先の座標及び重心の座標に基づいて、手の向きを認識する処理であって、車載機器インタフェース1が有する図示しないCPUによって実行される。
まず、手向き認識部14は、入力された手に関する情報に含まれる手の領域情報に基づいて手の輪郭を抽出し(401)、手の領域情報に基づいて手の重心の座標を算出する(402)。
次に、手向き認識部14は、ステップ401の処理で抽出された輪郭の曲率を算出し、算出した曲率が予め設定された指先を示す曲率の範囲に属する箇所を指先として検出する(403)。
次に、手向き認識部14は、入力された手に関する情報に含まれる手の領域情報に対して、分散が最大となる軸を求める主成分分析を実行することによって、式(1)を算出する(404)。
y=a1x+b・・・式(1)
式(1)のa1は、重心の座標を指先の座標を通る直線の傾きを示し、式(1)のbは手の領域の座標の平均値を示す。
手の領域情報に対して主成分分析が実行されることによって、分散が最大となる軸が算出されるので、複数の指先が検出されている場合であっても一つの直線が算出される。また、手の領域情報に対して主成分分析が実行されることによって、手首が指先として誤検出された場合であっても、指先として誤検出された手首と中心とを通る直線が算出されること防止できる。
ステップ404の処理で算出された式(1)で示される直線のいずれかの向きが手の向きであるが、式(1)で示される直線のどちらの向きが手の向きであるかを特定するために、ステップ405及び406の処理を実行する。
手向き認識部14は、ステップ404の処理で算出された式(1)の直線上の指先の座標を取得する(405)。
次に、手向き認識部14は、ステップ405の処理で取得した指先の座標、重心の座標、及びステップ404の処理で算出された式(1)に基づいて手の向きを認識し(406)、処理を終了する。具体的には、手向き認識部14は、式(1)で示される直線のいずれかの方向のうち、重心の座標から指先の座標に向かう方向を手の向きと認識する。
手の向きには個人のばらつきがあり、例えば同じ上方向を指した場合でもユーザ毎に手の向きが異なる。また、手を動かすスピードにも個人のばらつきがある。このため、ユーザ毎のばらつきを示すデータを収集した学習データが手向き認識部14に予め設定されており、手向き認識部14は、学習データから手の向きの認識の対象となるユーザとの共通点を抽出して、ユーザの手の向きを認識する。
例えば、手を動き出しには溜めがあり、手を動かしている最中は普段の動きより速い傾向にあるユーザの場合、手向き認識部14は、手の位置及び当該位置の時刻に基づいて手の動きの速さを算出し、算出した速さが所定の速さ以上であれば、機器制御のための動作として判定する。また、手向き認識部14は、算出した速さが所定の速さより小さい場合、機器制御のための動きでないと判定し、この場合の手形状及び向きを機器の制御に用いないようにする。なお、所定の速さは、収集したばらつきを示すデータの平均値であってもよいし、任意の値であってもよい。
また、手向き認識部14は、抽出した手の画像から局所領域毎のエッジや色エッジヒストグラムを特徴量として抽出して、抽出した特徴量をSVM、AdaBoost、及びRandomForest等のクラス識別器を用いて、予め定めた上下左右のどの方向に最も近いかを判定することによって、手の向きを識別してもよい。この際の特徴量としては、HoG(Histgram Oriented Gradient)及びHaar等を用いることで、手の特徴を抽出できる。また、クラス識別器としてRegression Forest等を用いることで、手の左右回転角度(−90〜90度等)を推定できる。
図5は、本発明の実施例1の手向き認識部14が認識する手の向きの例の説明図である。
手向き認識部14が認識する手の向きの例としては、図5に示すUP、RIGHT、DOWN、及びLEFTがある。
図5に示すUPは、手がユーザから見て上を向いている状態であり、指先が手の重心より上に位置する。図5に示すRIGHTは、手がユーザから見て右を向いている状態であり、指先が手の重心の右に位置する。図5に示すDOWNは、手がユーザから見て下を向いている状態であり、指先が手の重心より下に位置する。図5に示すLEFTは、手がユーザから見て左を向いている状態であり、指先が手の重心の左に位置する。
なお、これらの手の向きは、制御対象となる機器の機能と関連付けられ、機器操作命令部15に設定される機能関係情報に登録される。
また、手向き認識部14は、図5に示す手の向き以外の向きも認識してもよい。
図6は、本発明の実施例1の手形状と車載機器群2の機器との関係の説明図である。
手形状Aはオーディオ21に関連付けられているので、機器操作命令部15は、手形状認識部13から手形状Aの認識結果が入力されると、制御対象の機器としてオーディオ21を選択する。
また、手形状Bはテレビ23に関連付けられており、手形状Cはエアコン25に関連付けられている。
なお、これらの関連付けは、機器関係情報として機器操作命令部15に設定される。また、手形状と制御対象の機器との関連付けは図6に限定されない。
図7は、本発明の実施例1の手形状及び手の向きと制御対象の機器の機能との関係の説明図である。
機器操作命令部15は、手形状認識部13の認識結果から制御対象の機器を特定し、手向き認識部14の認識結果から制御対象の機器の機能を特定する。そして、機器操作命令部15は、特定した機能に制御するための制御命令を制御対象の機器に出力する。
図7では、パターンa〜パターンfの六つのパターンを説明する。
パターンa〜パターンcでは、手形状Aであるので制御対象の機器がオーディオ21であり、パターンd〜パターンfでは、手形状Cであるので制御対象の機器がエアコン25である。
パターンaでは、手形状Aを上向きにしているので、機器操作命令部15はオーディオ21の機能を再生又は停止に制御する。パターンbでは、手形状Aを左向きにしているので、機器操作命令部15はオーディオ21の機能を次の曲に制御する。パターンcでは、手形状Aを右向きにしているので、機器操作命令部15はオーディオ21の機能を前の曲に制御する。
パターンdでは、手形状Cを左向きにしているので、機器操作命令部15はエアコン25の機能を、風量を強めるように制御する。パターンeでは、手形状Cを上向きにしているので、機器操作命令部15はエアコン25の機能を、温度を上げるように制御する。パターンfでは、手形状Cを下向きしているので、機器操作命令部15はエアコン25の機能を、温度を下げるように制御する。
上記したように、手の向きに基づいて制御対象の機器の機能を特定するほうが、手形状に基づいて制御対象の機器の機能を特定するよりも、ユーザは直感的に機器を操作することができる。
図8は、本発明の実施例1の効果の一例の説明図である。
図8では、車載機器群2に含まれる機器からHUD22の機能を運転手のジェスチャによって操作する場合について説明する。機器操作命令部15に設定された機器関係情報には、手形状NとHUD22との関係が登録される。また、機器操作命令部15に設定された機能関係情報には、手形状NのUPとHUD22の画面表示を開始する機能との関係、手形状NのLEFTとHUD22の前の画面に切り替える機能との関係、及び手形状NのRIGHTとHUD22の次の画面に切り替える機能との関係が登録される。
運転手は、HUD22に画面表示を開始させるために、カメラの撮像領域で手形状を手形状Nにし、かつ手の向きを上向きにする。これによって、手形状認識部13がカメラによって撮像された運転手の手形状が手形状Nであると認識し、手向き認識部14がカメラによって撮像された運転手の手の向きがUPであると認識することによって、機器操作命令部15は、画面表示を開始する旨の制御命令をHUD22に出力する。
運転手は、手形状Nをした手を右向き又は左向きにすることによって、HUD22の画面を切り替えることができる。
HUD22には、通常操作ボタン等がないので、ユーザのジェスチャによる操作を可能とすることは有効である。
以上のように、本実施例では、ユーザの手形状と手の向きとからなる一動作によって、車載機器群2に含まれる複数の機器から制御対象となる機器を所定の機能を実現するように制御できる。これによって、運転を妨げない目視不要であってかつ簡易な操作によって機器の機能を制御することができる。
本実施例では、手情報検出部12が手に関する情報を検出する領域であるジェスチャ領域をユーザの顔の領域に基づいて設定するナビゲーション装置について説明する。これによって、機器を操作するユーザ以外の人のジェスチャによる機器の誤動作を防止できる。
図9は、本発明の実施例2のジェスチャ領域の説明図である。
実施例1では、図9の上部に示すように、カメラの撮像領域の中からユーザの手を検出する。換言すれば、実施例1では、カメラの全撮像領域をジェスチャ領域とするものである。
実施例1では、運転手以外の後部座席及び助手席に座っている同乗者の手を検出してしまい、同乗者の意図しない手の動きを機器の操作のためのジェスチャとして検出し、機器を誤動作させてしまう可能性がある。
本実施例では、車載機器インタフェース1は、運転手の顔の領域を検出して、検出した顔の領域に基づいてジェスチャ領域を手情報検出部12に設定する。例えば、車両が右ハンドルである場合、車載機器インタフェース1は、検出した運転手の顔の領域の左下の領域をジェスチャ領域に設定する。また、車両が左ハンドルである場合、車載機器インタフェース1は、検出した運転手の顔の領域の右下の領域をジェスチャ領域に設定する。また、手情報検出部12は、車載機器制御群2を制御するための操作時以外に手が置かれる領域(例えば、ハンドル等の常に手が置かれる領域)をジェスチャ領域から除外することもできる。これは、事前にハンドル位置等の車載機器制御群2を制御するための操作時以外に手が置かれる領域をユーザが手情報検出部12に設定してもよいし、手情報検出部12が、手が一定時間以上連続で存在した領域を過去履歴から推定し、当該領域を車載機器制御群2を制御するための操作時以外に手が置かれる領域としてもよい。
手情報検出部12は、ジェスチャ領域のみからユーザの手に関する情報を検出し、ジェスチャ領域以外の撮像領域からユーザの手に関する情報を検出しない。
また、車載機器インタフェース1は、運転手の所定の手形状及び手の向きを検出した場合、手情報検出部12に設定されたジェスチャ領域を所定の領域に切り替える。例えば、図9に示すように、切替え先の領域は助手席の同乗者の手を検出可能な領域とする。また、車載機器インタフェース1は、同乗者の顔の領域を検出し、検出した顔の領域基づいて、切替先の領域を特定してもよい。
以上によって、ジェスチャ領域を全撮像領域から限定することができ、同乗者の意図しない手の動きによる機器の誤動作を防止することができる。
本実施例では、照明装置がジェスチャ領域を照射することについて説明する。これによって、照明環境が変動しやすい車両で、一定の照明環境を維持することができ、ジェスチャの誤検出を防止する。本実施例は実施例1及び実施例2に適用可能である。
図10は、本発明の実施例3の照明装置の照射範囲の説明図である。
本実施例の照明装置は、車両に備わる室内灯であってもよいし、カメラに備わる照明装置であってもよいし、カメラとは独立して車両に取り付けられた照明装置であってもよい。
照明装置はジェスチャ領域を照射するように配置される。実施例1の場合、ジェスチャ領域はカメラの全撮像領域であるため、照明装置は運転手が手を動かす領域を照射するように配置される。また、実施例2のように、ジェスチャ領域の切替えが可能である場合には、車載機器インタフェース1は、ジェスチャ領域を切り替えた場合、照明装置の向きを切替先のジェスチャ領域を照射する向きに制御してもよい。
このように、機器を操作するユーザの手の動作領域を照射することによって、当該ユーザ以外の同乗者の手の誤検出を防止できる。
また、照明装置が色つきの光を照射することによって、手情報検出部12は、カメラによって撮像された撮像領域のうち手の領域の色を他の領域の色と区別することができ、手の領域を正確に検出することができる。また、これによって、手形状認識部13の手形状認識精度及び手向き認識部14の手向き認識精度もさらに向上する。
なお、照明装置は、常にジェスチャ領域を照射してもよいが、必要なときだけジェスチャ領域を照射してもよい。例えば、車両のヘッドライトの照射を開始すると同時に照明装置のジェスチャ領域の照射を開始してもよい。また、赤外線センサ等によってジェスチャ領域に手を検出した場合に、照明装置のジェスチャ領域の照射を開始してもよい。
本実施例では、カメラをユーザの手を撮像するように車両に配置する。これによって、カメラが手を撮像した場合の背景が天井となり、外部環境(後部座席に座っている人の動作、車両の外の景色等)の変化の影響を受けにくいので、ジェスチャの誤検出を防止できる。
図11は、本発明の実施例4のカメラの配置位置の説明図である。
カメラは、運転席と助手席との中間であって、かつハンドルの中心より低い位置に配置されるため、上方に位置することになるユーザの顔付近にカメラが向けられる。これによって、カメラはユーザの手を下から撮像するように配置され、カメラが撮像した画像の背景を天井にすることができるので、外部環境の変化を受けにくくなり、ジェスチャの誤検出を防止できる。
本実施例では、機器操作命令部15は、ユーザからの所定の操作(トリガ操作)を受け付けるまで、制御対象の機器に制御命令を出力しない。これによって、ユーザが意図しない制御命令が機器に出力されることを防止できる。
例えば、トリガ操作には音声による操作、及び手のジェスチャによる操作があり、音声による操作については図12及び図13で詳細を説明し、手のジェスチャによる操作については図14で詳細を説明する。
まず、音声による操作がトリガ操作となる場合について説明する。
図12は、本発明の実施例5の車載機器インタフェース1を搭載した車両のブロック図である。なお、図12に示す構成のうち実施例1の図1と同じ構成は、同じ符号を付与し、説明を省略する。
本実施例の車載機器インタフェース1は、画像入力部11、手情報検出部12、手形状認識部13、手向き認識部14、及び機器操作命令部15の他に、音声入力部16及び音声認識部17を有する。
音声入力部16は、マイク等であり、音声データを取得し、取得した音声データを音声認識部17に出力する。
音声認識部17は、音声入力部16から入力された音声データを音声認識し、音声認識結果がトリガ操作を示す所定の音声である場合には、撮像データの手情報検出部12への出力開始命令を画像入力部11に出力する。また、音声認識部17は、音声認識結果が車載機器群2に含まれる機器の機能を制御する所定の音声認識結果である場合には、当該音声認識結果を認識結果確定部720を介して機器操作命令部15に出力し、機器操作命令部15から音声認識結果に対応する制御命令が車載機器群2に含まれる機器に出力されるようにしてもよい。
図13は、本発明の実施例5の音声によるトリガ操作の説明図である。
図13では、音声認識部17による音声認識結果が例えば「ジェスチャ開始」である場合にトリガ操作がなされたと判定し、音声認識部17は、出力開始命令を画像入力部11に出力する。
以上のように、所定の音声が車載機器インタフェース1に入力された場合に、画像入力部11から手情報検出部12への撮像データの入力が開始される。このため、ユーザは、車載機器群2に含まれる機器を操作する場合には、所定の音声を発話してから手形状及び手の向きをカメラに読み取らせることになるので、意図しないジェスチャによって機器に対して意図しない操作がなされることを防止できる。
なお、上記した音声によるトリガ操作では、音声認識部17が所定の音声を認識した場合、画像入力部11から手情報検出部12への撮像データの入力を開始するとした。換言すれば、音声認識部12が所定の音声を認識しなければ、機器操作命令部15には手形状認識部13及び手向き認識部14の認識結果が入力されないので、機器操作命令部15は、制御命令を車載機器群2に含まれる機器に制御命令を出力することはなく、音声認識部17が所定の音声を認識した場合にのみ、機器操作命令部15は、制御命令を車載機器群2に含まれる機器に制御命令を出力する。
次に、手のジェスチャによる操作がトリガ操作となる場合について説明する。
図14は、本発明の実施例5の手のジェスチャによるトリガ操作の説明図である。
図14では、上向きの手形状F、上向きの手形状G、及び上向きの手形状Hのように時系列的に変化するジェスチャをトリガ操作としている。このトリガ操作は、カメラの前で手の平から手の甲へと手を回転させるだけでよいので、ユーザの操作性を考慮したものである。
機器操作命令部15は、手形状認識部13及び手向き認識部14の認識結果からトリガ操作を検出すると、トリガ操作以降の手形状認識部13及び手向き認識部14の認識結果に基づいて、制御対象の機器と制御対象の機器の機能とを特定し、当該制御対象の機器に制御命令の出力を許可する。換言すれば、機器操作命令部15は、トリガ操作を検出しない場合に入力された手形状認識部13及び手向き認識部14の認識結果に基づく制御命令の出力を禁止する。
なお、手のジェスチャによるトリガ操作は、時系列的に変化するジェスチャに限定されず、一つ手形状及び手の向きからなるジェスチャであってもよいが、時系列的に変化するジェスチャをトリガ操作としたほうが、意図しないジェスチャがトリガ操作として検出されることによる機器の誤動作を防止できる。
また、音声による操作及び手のジェスチャによる操作を組み合わせた操作をトリガ操作としてもよい。
実施例5では、機器を操作するためのジェスチャの前にトリガ操作がなされる必要があるが、機器を操作するためのジェスチャの後にトリガ操作がなされてもよい。これについて実施例5の変形例として図15を用いて説明する。
図15は、本発明の実施例5の変形例の手によるトリガ操作の説明図である。
本変形例のトリガ操作は、上記したように、機器を操作するためのジェスチャの後になされ、図15では、トリガ操作は上向きの手形状Iとする。
機器操作命令部15は、手形状認識部13及び手向き認識部14からトリガ操作となる認識結果が入力された場合、当該認識結果の直前に入力された手形状認識部13及び手向き認識部14による認識結果に基づいて制御命令を制御対象の機器に出力する。換言すれば、機器操作命令部15は、出力する制御命令を決定しても、ジェスチャ操作が入力されない限りは、当該制御命令の出力を禁止する。
図15に示すパターンaでは、機器操作命令部15は、トリガ操作となる上向きの手形状Iの認識結果の直前に上向きの手形状Aの認識結果が入力されているので、手形状Aに対応するオーディオ21を制御対象の機器に選択し、オーディオ21を上向きに対応する機能に制御する制御命令を、オーディオ21に出力する。
また、図15に示すパターンbでは、機器操作命令部15は、トリガ操作となる上向きの手形状Iの認識結果の直前に上向きの手形状Bの認識結果が入力されているので、手形状Bに対応するテレビ23を制御対象の機器に選択し、テレビ23を上向きに対応する機能に制御する制御命令を、テレビ23に出力する。
また、図15に示すパターンcでは、機器操作命令部15は、トリガ操作となる上向きの手形状Iの認識結果の直前に上向きの手形状Cの認識結果が入力されているので、手形状Bに対応するエアコン25を制御対象の機器に選択し、エアコン25を上向きに対応する機能に制御する制御命令を、エアコン25に出力する。
なお、本変形例では、機器を操作するためのジェスチャの後のトリガ操作として、手のジェスチャによる操作について説明したが、音声による操作であってもよいし、手のジェスチャによる操作と音声による操作とを組み合わせたものであってもよい。
また、上記した実施例5及び実施例5の変形例では、手のジェスチャによる操作がトリガ操作となる場合、手形状及び手の向きによる操作がトリガ操作となることについて説明したが、手形状のみの操作がトリガ操作となってもよい。手の向きのみの操作がトリガ操作とすれば、トリガ操作が誤検出される可能性が高く、少なくとも手形状を含む操作をトリガ操作としたほうが、トリガ操作が誤検出される可能性は低くなる。
本実施例では、手のジェスチャによる操作と音声による操作とを組み合わせたナビゲーション装置について説明する。例えば、ユーザが車両の外の建造物等を指差し、質問を発話すると、車載機器インタフェース1は、手形状認識部13及び手向き認識部14による認識結果とGPS等による位置情報とに基づいて、指差した方向の建造物等に関する情報を質問に対する返答を出力する。
図16は、本発明の実施例6の音声による質問に対する返答を出力するナビゲーション装置の説明図である。
本実施例の車載機器インタフェース1は、実施例5の図12に示す車載機器インタフェース1と同じく、画像入力部11、手情報検出部12、手形状認識部13、手向き認識部14、及び機器操作命令部15の他に、音声入力部16及び音声認識部17を有する。
音声認識部17が予め設定された質問を示す音声データを認識した場合、当該音声認識結果を認識結果確定部720を介して機器操作命令部15に出力する。機器操作命令部15は、音声認識結果が入力された場合、手形状認識部13の認識結果である手形状と手向き認識部14の認識結果である手の向きから、ユーザが指差している方向を特定する。そして、機器操作命令部15は、図示しない方位検出部から方位を取得し、取得した方位と特定したユーザが指差している方向とに基づいて、ユーザが指差している方角を特定する。
次に、機器操作命令部15は、現在位置からユーザが指差している方角にある地図情報を、ナビゲーション装置に記憶された地図情報から取得し、取得した地図情報から所定の条件を利用して一つの地図情報を選択する。そして、機器操作命令部15は、選択した地図情報を質問に対する返答として出力する制御命令を、オーディオ21が有する図示しないスピーカ、HUD22、又はテレビ23に出力する。なお、機器操作命令部15は、地図情報を取得する場合、ネットワークに接続され、地図情報を格納した地図情報サーバから取得してもよい。
複数の地図情報から一つの地図情報を選択する場合に利用する条件は、例えば、重要度が最も高い地図情報であってもよいし、現在位置から最も近い地図情報であってもよい。また、必ずしも複数の地図情報から一つの地図情報を選択する必要はなく、複数の地図情報をユーザの質問に対する返答としてもよい。
図16では、助手席に座っているユーザが、東京タワーの方向を指差し、「あれは何?」と質問し、ナビゲーション装置が、表示装置又はスピーカを介して「東京タワー」である旨の返答を出力する。
なお、ユーザの意図しない質問を受け付けることを防止するために、音声認識部17が音声認識を開始又は終了するトリガ操作を設定してもよい。例えば、トリガ操作は手のジェスチャによる操作であり、指先を閉じた手形状でユーザの口に向かって移動する操作を音声認識部17に音声認識を開始させるトリガ操作とし、手を振る操作を音声認識部17に音声認識を終了させるトリガ操作としてもよい。
本実施例では、車載機器群2に接続可能な携帯端末701が、ユーザの手形状及び手の向きを認識し、車載機器インタフェース1を介して車載機器群2を制御するための構成について説明する。
図17は、本発明の実施例7の車載機器インタフェース1を介して車載機器群2に接続された携帯端末701のブロック図である。なお、図17に示す構成のうち、図1に示す構成と同じ構成は、同じ符号を付与し、説明を省略する。
携帯端末701は,画像入力部710、手領域認識部12、手形状認識部13、手向き認識部14、認識結果確定部720、CPU711、RAM712、ディスプレイ713、及び外部I/F(インタフェース)714を有する。手領域検出部12、手形状認識部13、手向き認識部14は、実施例1と同じであるので説明を省略する。
画像入力部710は、携帯端末2に搭載されているカメラであり、手情報検出部12へ撮像画像を出力する。なお、認識結果確定部720には、手形状認識部13の認識結果Aと手向き認識部14の認識結果Bが入力される。認識結果確定部720は、入力された認識結果A及び認識結果Bを認識結果として外部I/F714を経由して車載機器インタフェース1が有する機器操作命令部15に送信する。認識結果の内容は、時間、手の位置(座標)、手の大きさ、手の向き、及び手の形状等を含む。
手領域認識部12、手形状認識部13、手向き認識部14、及び認識結果確定部720に対応するプログラムがRAM712に格納され、CPU711がこれらのプログラムを実行する。なお、手領域認識部12、手形状認識13、手向き認識部14及び認識結果確定部720を手情報検出部という。また、ディスプレイ713には、手領域認識部12、手形状認識部13、及び手向き認識部14によるユーザの手の認識結果が表示される。
外部I/F714は、無線通信又は有線接続等によって、車載機器インタフェース1の機器操作命令部15へ認識結果を送り出す。無線通信には、例えば、Bluetooth(登録商標)及びWi−Fi(登録商標)があり、有線接続には、USBによる接続、LANによる接続、及び携帯専用端子による接続等がある。
機器操作命令部15は、認識結果を受信した場合、実施例1の機器操作命令部15と同じく、制御対象の機器を特定し、制御対象の機器の機能を特定し、特定した機能に制御するための制御命令を制御対象の機器に出力する。
なお、本実施例では、車載機器群2を制御対象の一例として示したが、制御対象はテレビ又はPC(パーソナルコンピュータ)等であってもよい。
本実施例では、ユーザの意図しないジェスチャを認識せずに、ユーザが意図したジェスチャ(ジェスチャ操作)を認識する認識方法について説明する。
図18は、本発明の実施例8の認識結果確定部720がユーザのジェスチャがジェスチャ操作であるか否かを判定する処理の説明図である。
認識結果確定部720は、手向き認識部14が取得する手の向きの情報、及び手情報検出部12が取得する手の位置の情報に基づいて算出可能な手の移動方向、手の移動量を時系列で扱う。このように、本実施例における認識結果確定部720は、手の移動方向及び手の移動量等の手の動きを認識する動き認識部として機能する。ここで、認識結果確定部720は、手の移動量が所定の閾値以上である場合には、ジェスチャ操作が終了していないと判断し、入力された認識結果を機器操作命令部15に出力しない。これによって、機器操作命令部15が制御命令を出力することはないので、ユーザの意図しないジェスチャによる車載機器群2の誤動作を防止できる。なお、認識結果各停部720は、手の移動量が閾値より小さい場合には、ジェスチャが終了したと判断し、入力された認識結果を機器操作命令部15に出力する。例えば、認識結果確定部720は、図18に示す時刻t0及びt1の認識結果のみを機器操作命令部15に出力する。換言すれば、図18に示す時刻t0及びt1が認識対象時間となる。
さらに、認識結果確定部720は、手の移動量が閾値より小さくなった時刻の手の向きと手の移動方向とを比較し、手の向きと手の移動方向とが同じである場合に、ジェスチャ操作がなされたと判断し、認識結果を機器操作命令部15に出力してもよい。図18に示す時刻t0の手の向きが左であるのに対して手の移動方向は右であるため認識結果確定部720は、ジェスチャ操作がなされたと判断せず、認識結果を出力しない。一方、認識結果確定部720は、図18に示す時刻t1の手の向き及び手の移動方向が右で同じとなるため、時刻t1のジェスチャをジェスチャ操作と判断し、時刻t1の認識結果を機器操作命令部15に出力する。
この場合、認識結果確定部720は、手の移動量が閾値より小さくなる前に所定時間連続して出現した手の移動方向を判定に用いることとする。これは、手の移動量が閾値より小さくなり、手が静止している状態では、ユーザのわずかな震えによって手の方向が上下左右に定まらなくなり、手の移動方向を誤検出してしまうことを防止するためである。
上記した通り、手の移動方向及び手の向きの両者をジェスチャ操作か否かの判定に用いることによって、認識結果各停部720は、ユーザの意図しないジェスチャを認識せずに、ユーザが意図したジェスチャを瞬時に認識できる。
手を所定方向に移動した場合には、手を元の位置に戻すために手を逆方向に移動することとなる。このため、認識結果確定部720が手の移動方向のみに基づいてジェスチャ操作か否かを判定する場合には、手を元の位置に戻すための手の移動もジェスチャ操作として誤認識してしまう。例えば、手を右に動かすとオーディオ21が「次の曲」を再生するように制御され、手を左に動かすとオーディオ21が「前の曲」を再生するように制御される場合において、手を右に移動した後に左に戻す動作が必要となり、この左に戻すためのジェスチャがジェスチャ操作として誤認識され、オーディオ21が「前の曲」を再生してしまうことが生じる。
一方、認識結果確定部720が手の向きのみに基づいてジェスチャ操作か否かを判定する場合、操作中に偶然手が右向きになった瞬間にオーディオ21が「次の曲」を再生するように制御されてしまう。これを防止するために、認識結果確定部720手の向きが所定の方向を所定時間差す場合にジェスチャ操作として判断するようにすることも可能であるが、ユーザは手の向きを所定の方向で所定時間静止する必要があるので、操作が不便となる。これに対し、上記したように、認識結果確定部720が手の移動方向と手の向きとをジェスチャ操作か否かの判定に用いることによって、手を元に戻すための手の移動の誤検出、及び手の方向が偶然所定方向となった場合の誤検出等を防止できる。
図19は、本発明の実施例8の手の向き及び手の移動方向をオーディオ21の機能との関係の説明図である。このように手の向き及び手の移動方向を制御対象の機器の機能に割り当てるようにすることによって、ジェスチャを誤認識することなく機器を制御できる。
なお、図19では、「上方向」の手の向きと「右、左、右、左」の手の移動方向との組み合せが「再生/停止」機能に割り当てられている。この場合、認識結果確定部720は、「上方向」の手の向きで「右、左、右、左」に手が移動した場合(例えば、左右に手を振る動作)のジェスチャをジェスチャ動作として判断する。ここで、手の向きと手の移動方向とは必ずしも同じでなくてもよいが、これらを同じ方向にすることによって、ユーザは自然かつ直感的な操作が可能となる。
次に、認識結果確定部720は、手向き認識部14が取得する手の向きの情報、及び手情報検出部12が取得する手の位置の情報に基づいて、回転角度を算出し、機器操作命令部15が算出した回転角度に応じて機器を制御する場合について、図20A〜図20Cを用いて説明する。
図20Aは、本発明の実施例8のユーザの手の回転動作の説明図である。ユーザは、例えば、図20Aに示すように、手を左右方向に回転させる動作をジェスチャとして行うことができる。
図20Bは、本発明の実施例8の回転角度と閾値との関係の説明図である。
認識結果確定部720には、回転角度の第1閾値及び第2閾値が設定されている。ここで、第2閾値は第1閾値より大きな値に設定される。認識結果確定部720は、回転角度が第1閾値を超えた場合又は第2閾値を超えた場合、手形状認識部13による認識結果及び手向き認識部14による認識結果、及びどちらの閾値を超えたかを示す情報を認識結果として、機器操作命令部15に出力する。
機器操作命令部15は、認識結果が入力された場合、入力された手形状認識部13による認識結果及び手向き認識部14による認識結果に基づいて、制御対象の機器と当該機器で制御される機能とを特定する。そして、機器操作命令部15は、第1閾値を超えたと判定した場合には、映像又は音声等によってユーザのジェスチャに対応する機器の制御内容をユーザに確認できるようにする。
例えば、ナビゲーション24の画面を変更する場合の画面変更の様子について図20Cを用いて説明する。図20Cは、本発明の実施例8のナビゲーション24の画面変更の説明図である。
ナビゲーション24の地図画面が表示されていて、ユーザが地図画面からメニュー画面への変更を所望する場合において、機器操作命令部15は、回転角度が第1閾値を超えたと判定した場合、地図画面の一部にメニュー画面を表示し、ユーザに変更後の制御内容を確認させる。そして、ユーザは、メニュー画面を確認し、自身の所望する制御内容と一致するので、手をさらに回転させる。認識結果確定部720は、回転角度が第2閾値を超えた場合、認識結果を機器操作命令部15に出力し、機器操作命令部15は、回転角度が第2閾値を超えたと判定した場合、ユーザがメニュー画面への変更を決定したと判断し、地図画面の全てをメニュー画面に変更する。
この他、例えば、オーディオ21で再生中の曲を変更する場合には、回転角度が第1閾値を超えた場合、現在の曲を再生しながら、次の曲の出だし部分又はサビ部分を所定時間再生する等再生する等して、ユーザの操作中のジェスチャに対応する制御内容をユーザに通知することによって、ユーザにフィードバックの機会を付与する。これによって、ユーザの操作性が向上するとともに、ユーザの意図しない機器の制御を防止できる。
なお、回転角度に対して閾値が設定されたが、手の移動速度に対して閾値が設定されてもよい。例えば、移動速度が閾値以下でユーザが手を回転させた場合、機器操作命令部15は、一画面だけ表示を切り替え、移動速度が閾値より大きくユーザが手を回転させた場合、機器操作命令部15は、二画面以上表示を切り替えるようにしてもよい。すなわち、移動速度に応じて類似しているが異なる機能を割り当てることによって、ユーザは直感的かつ簡易に車載機器群2を操作できる。
なお、上述した種々の実施例は、組み合わせることができる。例えば、実施例1の手の形状及び手の向きに加え実施例8の手の動きを組み合わせて、制御対象の機器及び当該機器の機能を特定してもよい。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることも可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
1 車載機器インタフェース
2 車載機器群
11 画像入力部
12 手情報検出部
13 手形状認識部
14 手向き認識部
15 機器操作命令部
21 オーディオ
22 ヘッドアップディスプレイ(HUD)
22 車載機器群
23 テレビ
24 ナビゲーション
25 エアコン

Claims (9)

  1. 経路案内装置に接続される制御装置であって、
    撮像画像からユーザの手に関する情報を検出する手情報検出部と、
    前記経路案内装置又は前記経路案内装置に接続される複数の機器に制御命令を出力する機器操作命令部と、を備え、
    前記機器操作命令部は、前記手情報検出部によって検出される前記ユーザの手の向きに基づいて、前記経路案内装置又は前記機器への制御命令を出力することを特徴とする制御装置。
  2. 請求項1に記載の制御装置であって、
    前記手情報検出部は、
    前記ユーザの手の領域を検出する領域認識部と、
    検出された前記手の領域に基づいて、前記ユーザの手形状を認識する形状認識部と、
    検出された前記手の領域に基づいて、前記ユーザの手の向きを認識する向き認識部と、
    前記手の領域と前記手の向きとに基づいて、前記ユーザの手の動きを認識する動き認識部と、を有し、
    前記機器操作命令部は、さらに前記動き認識部によって認識される前記手の動きにも基づいて制御命令を出力することを特徴とする制御装置。
  3. 請求項2に記載の制御装置であって、
    前記機器操作命令部は、さらに前記形状認識部によって認識される前記手の形状にも基づいて制御命令を出力することを特徴とする制御装置。
  4. 請求項2に記載の制御装置であって、
    前記機器操作命令部は、さらに前記形状認識部によって認識される前記手の形状にも基づいて制御命令を出力することを特徴とする制御装置。
  5. 請求項4に記載の制御装置であって、
    前記形状認識部が認識し得る認識結果と、当該認識結果に対応して制御対象として選択される機器との関係を登録した機器関係情報と、
    前記向き認識部が認識し得る認識結果と、当該認識結果に対応して制御される機能との関係を登録した機能関係情報と、を保持し、
    前記機器操作命令部は、
    前記機器関係情報を参照し、前記形状認識部の認識結果に対応する機器を、前記制御対象となる機器として選択し、
    前記機能関係情報を参照し、前記向き認識部の認識結果に対応する機能を特定し、制御命令を出力することを特徴とする制御装置。
  6. 請求項2に記載の制御装置であって、
    前記手情報検出部は、
    前記撮像画像からユーザの顔領域を検出し、
    前記撮像画像内における前記顔領域の位置に基づいて、前記ユーザの手を検出する領域を設定し、
    前記経路案内装置又は前記機器を制御するための操作時以外の時間にユーザの手が置かれる領域を、前記手を検出する領域から除外することを特徴とする制御装置。
  7. 請求項2に記載の制御装置であって、
    さらに照明装置を備え、
    前記照明装置は、ユーザの手が置かれる領域を照射するように配置されることを特徴とする制御装置。
  8. 請求項2に記載の制御装置及び経路案内装置を備える車両であって、
    さらに撮像装置を備え、
    前記撮像装置は、車載ハンドルの中心より下に位置し、前記車両内の天井が前記ユーザの手の背景となるように配置されることを特徴とする車両。
  9. 経路案内装置に制御装置を介して接続可能な携帯端末であって、
    前記制御装置は、前記経路案内装置又は前記経路案内装置に接続される複数の機器に制御命令を出力する機器操作命令部を有し、
    前記携帯端末は、
    撮像装置と、
    前記撮像装置による撮像画像からユーザの手に関する情報を検出する手情報検出部を有し、
    前記手情報検出部は、
    検出された前記手の領域に基づいて、前記ユーザの手形状を認識する形状認識部と、
    検出された前記手の領域に基づいて、前記ユーザの手の向きを認識する向き認識部と、
    前記形状認識部による認識結果及び前記向き認識部による認識結果を、前記機器操作命令部に出力する認識結果出力部と、を有し、
    前記機器操作命令部が、前記認識結果出力部によって出力された前記形状認識部による認識結果及び前記向き認識部による認識結果に基づいて、前記経路案内装置又は前記機器への制御命令を出力することを特徴とする携帯端末。
JP2012273081A 2012-12-14 2012-12-14 制御装置、車両及び携帯端末 Active JP6030430B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012273081A JP6030430B2 (ja) 2012-12-14 2012-12-14 制御装置、車両及び携帯端末
US14/063,193 US9547792B2 (en) 2012-12-14 2013-10-25 Control apparatus, vehicle, and portable terminal
EP13190604.2A EP2743799B1 (en) 2012-12-14 2013-10-29 Control apparatus, vehicle, and portable terminal using hand information for command generation
CN201310525082.7A CN103869967B (zh) 2012-12-14 2013-10-30 控制装置、车辆以及便携终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012273081A JP6030430B2 (ja) 2012-12-14 2012-12-14 制御装置、車両及び携帯端末

Publications (3)

Publication Number Publication Date
JP2014119295A true JP2014119295A (ja) 2014-06-30
JP2014119295A5 JP2014119295A5 (ja) 2015-12-03
JP6030430B2 JP6030430B2 (ja) 2016-11-24

Family

ID=49518697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012273081A Active JP6030430B2 (ja) 2012-12-14 2012-12-14 制御装置、車両及び携帯端末

Country Status (4)

Country Link
US (1) US9547792B2 (ja)
EP (1) EP2743799B1 (ja)
JP (1) JP6030430B2 (ja)
CN (1) CN103869967B (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015219885A (ja) * 2014-05-21 2015-12-07 株式会社デンソー ジェスチャ入力装置
WO2016002872A1 (ja) * 2014-07-04 2016-01-07 クラリオン株式会社 情報処理装置
JP2016015077A (ja) * 2014-07-03 2016-01-28 Necパーソナルコンピュータ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム
WO2017018428A1 (ja) * 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
EP3147755A1 (en) 2015-09-24 2017-03-29 Panasonic Intellectual Property Management Co., Ltd. Equipment control device, equipment control method, and non-transitory recording medium
JP2017068572A (ja) * 2015-09-30 2017-04-06 京セラ株式会社 ウェアラブル装置
WO2018061603A1 (ja) * 2016-09-30 2018-04-05 島根県 ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2018097280A (ja) * 2016-12-16 2018-06-21 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JPWO2017138545A1 (ja) * 2016-02-08 2018-07-26 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置
WO2019159818A1 (ja) * 2018-02-14 2019-08-22 京セラ株式会社 電子機器、移動体、プログラムおよび制御方法
JP2019149066A (ja) * 2018-02-28 2019-09-05 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020057139A (ja) * 2018-10-01 2020-04-09 トヨタ自動車株式会社 機器制御装置
JP2020147106A (ja) * 2019-03-12 2020-09-17 トヨタ自動車株式会社 車両運転システム
JP2021073579A (ja) * 2015-02-25 2021-05-13 京セラ株式会社 電子機器、方法及びプログラム
JP2021133877A (ja) * 2020-02-28 2021-09-13 株式会社Subaru 車両の乗員監視装置
JP7470069B2 (ja) 2021-02-17 2024-04-17 株式会社日立製作所 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709228B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
US9967522B2 (en) * 2013-02-27 2018-05-08 GM Global Technology Operations LLC Driver monitoring camera system
US9405375B2 (en) * 2013-09-13 2016-08-02 Qualcomm Incorporated Translation and scale invariant features for gesture recognition
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
KR101556520B1 (ko) * 2013-12-11 2015-10-02 현대자동차주식회사 단말기, 그를 가지는 차량 및 그 제어 방법
EP2907730B1 (en) 2014-01-29 2017-09-06 Steering Solutions IP Holding Corporation Hands on steering wheel detect
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
KR102209354B1 (ko) * 2014-06-20 2021-01-29 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
JP6310787B2 (ja) 2014-06-24 2018-04-11 株式会社デンソー 車両用入力装置および車両用コックピットモジュール
US10341544B2 (en) * 2014-07-23 2019-07-02 Orcam Technologies Ltd. Determining a matching score between users of wearable camera systems
WO2016017695A1 (ja) * 2014-07-30 2016-02-04 オリンパス株式会社 画像処理装置
KR20160036242A (ko) * 2014-09-25 2016-04-04 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법
CN105630142A (zh) * 2014-11-07 2016-06-01 中兴通讯股份有限公司 一种发布和传递识别信息的方法和装置及信息识别系统
DE102014017166A1 (de) * 2014-11-20 2016-05-25 Audi Ag Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung
DE102014224898A1 (de) * 2014-12-04 2016-06-09 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
JP6426025B2 (ja) * 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置
TWI572503B (zh) * 2015-02-24 2017-03-01 晶典有限公司 行車平視投影儀系統
CN104699244B (zh) * 2015-02-26 2018-07-06 小米科技有限责任公司 智能设备的操控方法及装置
US9630628B2 (en) * 2015-05-15 2017-04-25 Ford Global Technologies, Llc Hand-on steering wheel detection
US9766370B2 (en) * 2015-05-18 2017-09-19 Apple Inc. Wrist-detection algorithm
DE102016110791A1 (de) * 2015-06-15 2016-12-15 Steering Solutions Ip Holding Corporation Gestensteuerung für ein einfahrbares Lenkrad
US10112639B2 (en) 2015-06-26 2018-10-30 Steering Solutions Ip Holding Corporation Vehicle steering arrangement and method of making same
US10029725B2 (en) 2015-12-03 2018-07-24 Steering Solutions Ip Holding Corporation Torque feedback system for a steer-by-wire vehicle, vehicle having steering column, and method of providing feedback in vehicle
CN106886275B (zh) * 2015-12-15 2020-03-20 比亚迪股份有限公司 车载终端的控制方法、装置以及车辆
EP3392740A4 (en) * 2015-12-18 2018-12-19 Sony Corporation Information processing device, information processing method, and program
US10496102B2 (en) 2016-04-11 2019-12-03 Steering Solutions Ip Holding Corporation Steering system for autonomous vehicle
DE102016206142A1 (de) * 2016-04-13 2017-10-19 Volkswagen Aktiengesellschaft Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Erkennung einer Hand eines Anwenders
DE102017108692B4 (de) 2016-04-25 2024-09-26 Steering Solutions Ip Holding Corporation Steuerung einer elektrischen Servolenkung unter Verwendung von Systemzustandsvorhersagen
WO2017203102A1 (en) * 2016-05-25 2017-11-30 Valo Motion Oy An arrangement for controlling a computer program
US10160477B2 (en) 2016-08-01 2018-12-25 Steering Solutions Ip Holding Corporation Electric power steering column assembly
CN107728482A (zh) * 2016-08-11 2018-02-23 阿里巴巴集团控股有限公司 控制系统、控制处理方法及装置
US10384708B2 (en) 2016-09-12 2019-08-20 Steering Solutions Ip Holding Corporation Intermediate shaft assembly for steer-by-wire steering system
US10399591B2 (en) 2016-10-03 2019-09-03 Steering Solutions Ip Holding Corporation Steering compensation with grip sensing
US10239552B2 (en) 2016-10-14 2019-03-26 Steering Solutions Ip Holding Corporation Rotation control assembly for a steering column
US10481602B2 (en) 2016-10-17 2019-11-19 Steering Solutions Ip Holding Corporation Sensor fusion for autonomous driving transition control
US10310605B2 (en) 2016-11-15 2019-06-04 Steering Solutions Ip Holding Corporation Haptic feedback for steering system controls
US10780915B2 (en) 2016-12-07 2020-09-22 Steering Solutions Ip Holding Corporation Vehicle steering system having a user experience based automated driving to manual driving transition system and method
KR102560598B1 (ko) 2016-12-21 2023-07-28 삼성전자주식회사 디스플레이 장치 및 그 제어방법
US10449927B2 (en) 2017-04-13 2019-10-22 Steering Solutions Ip Holding Corporation Steering system having anti-theft capabilities
DE102017007119B4 (de) * 2017-07-27 2022-12-29 Mercedes-Benz Group AG Verfahren zur Fernsteuerung einer Funktion eines Fahrzeugs
US11437031B2 (en) * 2019-07-30 2022-09-06 Qualcomm Incorporated Activating speech recognition based on hand patterns detected using plurality of filters
CN111523435A (zh) * 2020-04-20 2020-08-11 安徽中科首脑智能医疗研究院有限公司 一种基于目标检测ssd的手指检测方法、系统及存储介质
CN116627260A (zh) * 2023-07-24 2023-08-22 成都赛力斯科技有限公司 一种隔空操作方法、装置、计算机设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236534A (ja) * 2001-02-13 2002-08-23 Mitsubishi Motors Corp 車載機器操作装置
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
JP2004168264A (ja) * 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
JP2004298988A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
JP2007241833A (ja) * 2006-03-10 2007-09-20 Kagoshima Univ 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体
US20100185341A1 (en) * 2009-01-16 2010-07-22 Gm Global Technology Operations, Inc. Vehicle mode activation by gesture recognition
US20120068921A1 (en) * 2010-09-20 2012-03-22 Kopin Corporation Wireless video headset with spread spectrum overlay

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100575906B1 (ko) * 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
JP2004171476A (ja) 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
KR20060070280A (ko) * 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
KR101592999B1 (ko) * 2009-02-09 2016-02-11 삼성전자주식회사 휴대용 단말기에서 손 모양을 인식하기 위한 장치 및 방법
WO2010137325A1 (ja) * 2009-05-27 2010-12-02 パナソニック株式会社 行動認識装置
TWI398818B (zh) * 2009-06-30 2013-06-11 Univ Nat Taiwan Science Tech 手勢辨識方法與系統
US9551590B2 (en) * 2009-08-28 2017-01-24 Robert Bosch Gmbh Gesture-based information and command entry for motor vehicle
US8396252B2 (en) * 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236534A (ja) * 2001-02-13 2002-08-23 Mitsubishi Motors Corp 車載機器操作装置
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
JP2004168264A (ja) * 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
JP2004298988A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
JP2007241833A (ja) * 2006-03-10 2007-09-20 Kagoshima Univ 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体
US20100185341A1 (en) * 2009-01-16 2010-07-22 Gm Global Technology Operations, Inc. Vehicle mode activation by gesture recognition
US20120068921A1 (en) * 2010-09-20 2012-03-22 Kopin Corporation Wireless video headset with spread spectrum overlay

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015219885A (ja) * 2014-05-21 2015-12-07 株式会社デンソー ジェスチャ入力装置
JP2016015077A (ja) * 2014-07-03 2016-01-28 Necパーソナルコンピュータ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、及び、プログラム
US11226719B2 (en) 2014-07-04 2022-01-18 Clarion Co., Ltd. Information processing device
JP2016018223A (ja) * 2014-07-04 2016-02-01 クラリオン株式会社 情報処理装置
WO2016002872A1 (ja) * 2014-07-04 2016-01-07 クラリオン株式会社 情報処理装置
JP2021073579A (ja) * 2015-02-25 2021-05-13 京セラ株式会社 電子機器、方法及びプログラム
WO2017018428A1 (ja) * 2015-07-29 2017-02-02 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JPWO2017018428A1 (ja) * 2015-07-29 2018-03-29 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
EP3147755A1 (en) 2015-09-24 2017-03-29 Panasonic Intellectual Property Management Co., Ltd. Equipment control device, equipment control method, and non-transitory recording medium
JP2017062607A (ja) * 2015-09-24 2017-03-30 パナソニックIpマネジメント株式会社 機器制御装置、機器制御方法、機器制御プログラムおよび記録媒体
US10228769B2 (en) 2015-09-24 2019-03-12 Panasonic Intellectual Property Management Co., Ltd. Equipment control device, equipment control method, and non-transitory recording medium
JP2017068572A (ja) * 2015-09-30 2017-04-06 京セラ株式会社 ウェアラブル装置
JPWO2017138545A1 (ja) * 2016-02-08 2018-07-26 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
US10296101B2 (en) 2016-02-08 2019-05-21 Nec Corporation Information processing system, information processing apparatus, control method, and program
JP2019519049A (ja) * 2016-06-23 2019-07-04 アリババ グループ ホウルディング リミテッド 手検出及び追跡方法並びに装置
US10885639B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
US10885638B2 (en) 2016-06-23 2021-01-05 Advanced New Technologies Co., Ltd. Hand detection and tracking method and device
WO2018061603A1 (ja) * 2016-09-30 2018-04-05 島根県 ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2018097280A (ja) * 2016-12-16 2018-06-21 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP2019139633A (ja) * 2018-02-14 2019-08-22 京セラ株式会社 電子機器、移動体、プログラムおよび制御方法
WO2019159818A1 (ja) * 2018-02-14 2019-08-22 京セラ株式会社 電子機器、移動体、プログラムおよび制御方法
US11307669B2 (en) 2018-02-14 2022-04-19 Kyocera Corporation Electronic device, moving body, program and control method
JP2019149066A (ja) * 2018-02-28 2019-09-05 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020057139A (ja) * 2018-10-01 2020-04-09 トヨタ自動車株式会社 機器制御装置
JP7091983B2 (ja) 2018-10-01 2022-06-28 トヨタ自動車株式会社 機器制御装置
JP2020147106A (ja) * 2019-03-12 2020-09-17 トヨタ自動車株式会社 車両運転システム
US11932270B2 (en) 2019-03-12 2024-03-19 Toyota Jidosha Kabushiki Kaisha Vehicle driving system
JP2021133877A (ja) * 2020-02-28 2021-09-13 株式会社Subaru 車両の乗員監視装置
JP7495795B2 (ja) 2020-02-28 2024-06-05 株式会社Subaru 車両の乗員監視装置
JP7470069B2 (ja) 2021-02-17 2024-04-17 株式会社日立製作所 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Also Published As

Publication number Publication date
CN103869967A (zh) 2014-06-18
CN103869967B (zh) 2017-04-26
EP2743799A2 (en) 2014-06-18
EP2743799A3 (en) 2017-05-03
JP6030430B2 (ja) 2016-11-24
EP2743799B1 (en) 2022-10-12
US20140172231A1 (en) 2014-06-19
US9547792B2 (en) 2017-01-17

Similar Documents

Publication Publication Date Title
JP6030430B2 (ja) 制御装置、車両及び携帯端末
US11726577B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
CN109643166B (zh) 用于自主车辆的基于手势的控制的方法和系统
US9235269B2 (en) System and method for manipulating user interface in vehicle using finger valleys
CN113302664B (zh) 运载工具的多模态用户接口
KR101330810B1 (ko) 원거리 제스쳐 인식 기능을 갖는 디바이스 및 그 방법
US10635184B2 (en) Information processing device, information processing method, and program
US8823642B2 (en) Methods and systems for controlling devices using gestures and related 3D sensor
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
US20130211843A1 (en) Engagement-dependent gesture recognition
JP6747446B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114578951B (zh) 显示装置及其控制方法
JP2003131785A (ja) インタフェース装置および操作制御方法およびプログラム製品
WO2022226736A1 (zh) 一种多屏交互的方法、装置、终端设备和车辆
US20140168068A1 (en) System and method for manipulating user interface using wrist angle in vehicle
KR20160106691A (ko) 제스처를 사용하여 미디어의 재생을 제어하기 위한 시스템 및 방법
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
US20230078074A1 (en) Methods and devices for hand-on-wheel gesture interaction for controls
KR101314641B1 (ko) 사용자 제스처를 이용한 조작 방법 및 디지털 장치
CN109976515A (zh) 一种信息处理方法、装置、车辆及计算机可读存储介质
CN112383826A (zh) 车载娱乐终端的控制方法、装置、存储介质、终端及汽车
CN116501167A (zh) 一种基于手势操作的车内交互系统及车辆
JP2020071641A (ja) 入力操作装置及びユーザインタフェースシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161020

R150 Certificate of patent or registration of utility model

Ref document number: 6030430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250