JP7483060B2 - 手検出装置、ジェスチャー認識装置および手検出方法 - Google Patents

手検出装置、ジェスチャー認識装置および手検出方法 Download PDF

Info

Publication number
JP7483060B2
JP7483060B2 JP2022576293A JP2022576293A JP7483060B2 JP 7483060 B2 JP7483060 B2 JP 7483060B2 JP 2022576293 A JP2022576293 A JP 2022576293A JP 2022576293 A JP2022576293 A JP 2022576293A JP 7483060 B2 JP7483060 B2 JP 7483060B2
Authority
JP
Japan
Prior art keywords
hand
hand detection
detection
detected
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022576293A
Other languages
English (en)
Other versions
JPWO2022157880A1 (ja
JPWO2022157880A5 (ja
Inventor
翔悟 甫天
拓也 村上
大貴 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022157880A1 publication Critical patent/JPWO2022157880A1/ja
Publication of JPWO2022157880A5 publication Critical patent/JPWO2022157880A5/ja
Application granted granted Critical
Publication of JP7483060B2 publication Critical patent/JP7483060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本開示は、ユーザの手を検出する技術に関し、特に、車両内を撮影した映像からユーザの手を検出する技術に関するものである。
カメラが撮影した映像からユーザの手を検出し、検出した手の形状を認識することで、ユーザの手によるジェスチャー(いわゆる「ハンドジェスチャー」)を認識するするジェスチャー認識装置が知られている。例えば下記の特許文献1には、カメラが撮影した映像において手の検出に用いる領域を限定することによって、ユーザの手の誤検知の防止および検出率の向上が図られている。
特開2009-064199号公報
ジェスチャー認識装置を車載装置のジェスチャー操作の認識に適用する場合、運転席の乗員(運転者)または助手席の乗員が主なユーザになるため、車両内の映像において手の検出に用いる領域(手検出用領域)を、運転席と助手席との間の領域に設定することが考えられる。しかし、運転席と助手席との間の領域には、後部座席の乗員や後部座席に置いた荷物など、ユーザの手以外の物体が映り込むことがあり、それらがユーザの手として誤検出されるおそれがある。
本開示は以上のような課題を解決するためになされたものであり、車両内の映像からユーザの手を精度よく検出可能な手検出装置を提供することを目的とする。
本開示に係る手検出装置は、車両内の手検出用領域を撮影した映像である手検出用映像を取得する映像取得部と、手検出用映像のフレーム間の輝度差分を算出する輝度差分算出部と、手検出用映像からユーザの手を検出する手検出部と、手検出用映像の手が検出されたフレームとその直前フレームとの輝度差分に基づいて、検出された手が誤検出されたものか否かを判定する誤検出判定部と、を備え、輝度差分算出部は、輝度差分として、手検出用映像の平均輝度のフレーム間の差分を算出し、誤検出判定部は、手検出用映像の手が検出されたフレームとその直前フレームとの平均輝度の差分が予め定められた閾値以下の場合に、手が誤検出されたと判定する。

本開示に係る手検出装置によれば、手の誤検出を検出できるため、車両内の映像からユーザの手を精度よく検出することが可能となる。
本開示の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1~3に係る手検出装置およびジェスチャー認識装置の構成を示す図である。 車両内の映像および手検出領域の例を示す図である。 車両内の映像および手検出領域の例を示す図である。 実施の形態1~3に係るジェスチャー認識装置の動作を示すフローチャートである。 実施の形態1における誤検出判定処理を示すフローチャートである。 実施の形態2における誤検出判定処理を示すフローチャートである。 実施の形態3における誤検出判定処理を示すフローチャートである。 手検出装置のハードウェア構成例を示す図である。 手検出装置のハードウェア構成例を示す図である。
<実施の形態1>
図1は、実施の形態1に係るジェスチャー認識装置1の構成を示す図である。実施の形態1では、ジェスチャー認識装置1は車両に搭載されているものと仮定する。ただし、ジェスチャー認識装置1は、車両に常設されなくてもよく、例えば、携帯電話やスマートフォンのなど車両に持ち込み可能な携帯型の装置上に構築されていてもよい。また、ジェスチャー認識装置1の機能の一部が、車両外に設置されジェスチャー認識装置1との通信が可能なサーバー上に構築されていてもよい。
ジェスチャー認識装置1には、車両内を撮影するカメラ2と、例えばナビゲーション装置、オーディオ機器、空調装置などの車載装置3とが接続されている。また、ジェスチャー認識装置1は、カメラ2が撮影した映像からユーザの手を検出する手検出装置10と、手検出装置10が検出したユーザの手によるジェスチャー(ハンドジェスチャー)を認識してその認識結果を車載装置3へ出力するジェスチャー認識部15とを備えている。車載装置3の動作は、ジェスチャー認識部15が認識したジェスチャーに基づいて制御される。よって、ユーザは、ジェスチャー認識装置1を通して、車載装置3のジェスチャー操作を行うことができる。
ジェスチャー認識部15によるジェスチャーの認識方法は任意の方法でよく、例えば、検出されたユーザの手の形状と予め用意されたテンプレートとのパターンマッチングによりジェスチャーを認識する方法や、車両内の映像から抽出した任意の特徴量からユーザの手の形状を判断してジェスチャーを認識する方法などが考えられる。なお、ジェスチャー認識部15が認識するジェスチャーは、手の形状で表現されるジェスチャー、手の動きで表現されるジェスチャー、手の形状および動きの両方で表現されるジェスチャーのいずれであってもよい。
本実施の形態では、ジェスチャー認識装置1のユーザ、すなわちジェスチャー認識装置1によるジェスチャー認識の対象となる人物は、車両の運転席および助手席の乗員であるものとする。また、カメラ2は、車両のダッシュボードの中央部に配置され、図2のように、ユーザである運転席の乗員P1(運転者)および助手席の乗員P2の映像を含む車両内の映像を撮影する。
カメラ2の撮影範囲内には、図2のように、ユーザの手を検出するための領域である手検出用領域DRが規定されている。ここでは、手検出用領域DRが車両の運転席と助手席との間に設定されている。通常の状態では、図2のように、ユーザの手は手検出用領域DR内には無く、ユーザは、車載装置3のジェスチャー操作を行うときに、図3のように手を手検出用領域DR内に入れて、ハンドジェスチャーを行う必要がある。このように、手検出用領域DRを、通常の状態でユーザの手が入らない領域に規定することで、ハンドジェスチャーの誤検出を抑制できる。
しかし、運転席と助手席との間に手検出用領域DRを設定する場合、図2および図3のように手検出用領域DR内に後部座席の乗員P3が写り込んだり、後部座席に置いた荷物(不図示)などが写り込んだりすることがある。そのような場合、後部座席の乗員P3や荷物が、ジェスチャー認識装置1によって運転席の乗員P1または助手席の乗員P2の手として誤検出されることを防止する必要がある。
図1に示すように、手検出装置10は、映像取得部11、輝度差分算出部12、手検出部13および誤検出判定部14を備えている。
映像取得部11は、カメラ2が撮影した車両内の映像から、手検出用領域DRを撮影した映像である手検出用映像をトリミングして取得する。輝度差分算出部12は、映像取得部11が取得した手検出用映像におけるフレーム間の輝度差分を算出する。
手検出部13は、輝度差分算出部12が取得した手検出用映像からユーザの手を検出する。手検出部13による手の検出方法は任意の方法でよく、例えば、手検出用映像と予め用意された手の画像のテンプレートとのパターンマッチングにより手を検出する方法や、手検出用映像から抽出した任意の特徴量からユーザの手の位置を判断することで手を検出する方法などが考えられる。
誤検出判定部14は、輝度差分算出部12が算出した手検出用映像のフレーム間の輝度差分に基づいて、手検出部13により検出された手が誤検出されたものか否かを判定する。より具体的には、誤検出判定部14は、手検出用映像の手が検出されたフレームとその直前フレームとの輝度差分が予め定められた閾値を超える場合は、手が正常に検出されたと判定し、手検出用映像の手が検出されたフレームとその直前フレームとの輝度差分が閾値以下の場合に、手が誤検出されたと判定する。なお、輝度差分の算出に用いる「直前フレームの輝度」は、直前の1フレームの輝度でもよいし、直前の複数フレーム(例えば3フレーム)の輝度の平均値でもよい。
誤検出判定部14は、手が正常に検出されたと判定した場合は、手検出部13による手の検出結果をジェスチャー認識部15に伝達するが、手が誤検出されたと判定した場合は、手検出部13による手の検出結果をジェスチャー認識部15に伝達しない、あるいは、手が誤検出された旨の通知をジェスチャー認識部15へ送信する。
ジェスチャー認識部15は、誤検出判定部14から伝達された手の検出結果、すなわち、正常に検出されたと判定された手の検出結果に基づいて、ユーザの手によるジェスチャーを認識する。ジェスチャー認識部15によるジェスチャーの認識結果は、車載装置3へ出力され、車載装置3はその認識結果に基づいて制御される。これにより、車載装置3は、ユーザのジェスチャー操作に従って動作することとなる。
実施の形態1では、輝度差分算出部12は、手検出用映像のフレーム間の輝度差分として、手検出用映像の平均輝度のフレーム間の差分を算出する。また、誤検出判定部14は、手検出用映像の手が検出されたフレームとその直前フレームとの平均輝度の差分が予め定められた閾値を超える場合は、手が正常に検出されたと判定し、当該平均輝度の差分が予め定められた閾値以下の場合に、手が誤検出されたと判定する。例えば、手検出用映像の階調数が256である場合、上記の閾値は15程度でよい。
上述したように、通常の状態では、図2のようにユーザ(運転席の乗員P1および助手席の乗員P2)の手は手検出用領域DR内には無く、ユーザは、車載装置3のジェスチャー操作を行うときに、図3のように手を手検出用領域DR内に入れて、ハンドジェスチャーを行う。ユーザの手が手検出用領域DR内に無い状態(図2)から、ユーザの手が手検出用領域DR内ある状態(図3)へ変化するとき、手検出用領域DRの映像である手検出用映像の輝度は大きく変化する。一方、後部座席の乗員P3や荷物は手検出用領域DRに常に写り込んでいるため、後部座席の乗員P3や荷物が手検出用映像の輝度の変化を引き起こす可能性は低い。
よって、手検出用映像の手が検出されたフレームとその直前フレームとの平均輝度の差分が閾値を超えるときは、ユーザの手が手検出用領域DRに出し入れされた可能性が高く、そのとき手検出用映像から検出された手は、ユーザの手である可能性が高い。また、手検出用映像の手が検出されたフレームとその直前フレームとの平均輝度の差分が閾値以下のときに検出された手は、常に手検出用領域DRに写り込んでいる後部座席の乗員P3や荷物がユーザの手として誤検出されたものである可能性が高い。したがって、誤検出判定部14が上記のような誤検出の判定を行うことで、手検出部13による検出結果から誤った検出結果を排除して、ユーザの手を精度よく検出することが可能となる。その結果、ジェスチャー認識部15によるジェスチャーの誤認識を防止でき、さらには、ジェスチャーの誤認識による車載装置3の誤動作を防止することができる。
以下、図4のフローチャートに基づいて、ジェスチャー認識装置1の動作を説明する。ジェスチャー認識装置1が起動すると、映像取得部11が、カメラ2が撮影した車両内の映像から、手検出用領域DRを撮影した映像である手検出用映像をトリミングして取得する(ステップS101)。
次に、輝度差分算出部12が、ステップS101で取得した最新フレームの手検出用映像と直前フレームの手検出用映像との輝度差分を算出する(ステップS102)。なお、ジェスチャー認識装置1の起動直後のステップS102では、1フレーム分の手検出用映像しか取得されていないため、輝度差分の算出は行われない。本実施の形態では、輝度差分算出部12は、手検出用映像のフレーム間の輝度差分として、手検出用映像の平均輝度のフレーム間の差分を算出する。
続いて、手検出部13が、輝度差分算出部12が取得した手検出用映像からユーザの手を探索する(ステップS103)。このとき手が検出されなければ(ステップS104でNO)、ステップS101へ戻る。
手検出用映像から手が検出された場合は(ステップS104でYES)、誤検出判定部14が、輝度差分算出部12が算出した手検出用映像のフレーム間の輝度差分に基づいて、手検出部13により検出された手が誤検出されたものか否かを判定する誤検出判定処理を実施する(ステップS105)。
誤検出判定処理では、誤検出判定部14により図5のフローチャートに示す処理が行われる。すなわち、誤検出判定部14は、最新フレームの手検出用映像と直前フレームの手検出用映像との平均輝度の差分が予め定められた閾値を超えるか否かを確認する(ステップS201)。当該差分が閾値を超えていれば(ステップS201でYES)、誤検出判定部14は、手検出部13により検出された手は正常に検出されたものと判定する(ステップS202)。当該差分が閾値以下であれば(ステップS201でNO)、誤検出判定部14は、手検出部13により検出された手は誤検出されたものと判定する(ステップS203)。
図4に戻り、誤検出判定処理(ステップS105)の結果、検出された手が誤検出されたものと判定された場合は(ステップS106でYES)、ステップS101へ戻る。また、検出された手が正常に検出されたものと判定された場合は(ステップS106でNO)、ジェスチャー認識部15が、手検出部13による手の検出結果に基づいて、ユーザの手によるジェスチャーを認識し(ステップS107)、その認識結果を車載装置3へ出力して(ステップS108)、ステップS101へ戻る。
以上のように、実施の形態1に係る手検出装置10によれば、手検出部13による手の検出結果から誤った検出結果を排除して、ユーザの手を精度よく検出することができる。その結果、ジェスチャー認識装置1のジェスチャー認識部15によるジェスチャーの誤認識を防止でき、さらには、ジェスチャーの誤認識に起因する車載装置3の誤動作を防止することができる。
なお、上の説明では、カメラ2が手検出用領域DRよりも広い範囲を撮影し、カメラ2が撮影した映像の一部分を手検出用映像とする例を示したが、カメラ2が手検出用領域DRだけを撮影し、カメラ2が撮影した映像の全体を手検出用映像としてもよい。
また、手検出装置10およびジェスチャー認識装置1の構成は図1の例に限られない。例えば、ジェスチャー認識装置1と手検出装置10とは別々の装置として構成されてもよい。また、カメラ2は、手検出装置10またはジェスチャー認識装置1に内蔵されていてもよい。さらに、手検出装置10およびジェスチャー認識装置1は、車載装置3に内蔵されてもよい。
<実施の形態2>
実施の形態1では、手検出用映像のフレーム間の輝度差分として、手検出用映像の平均輝度のフレーム間の差分を用いた。実施の形態2では、手検出用映像のフレーム間の輝度差分として、手検出用映像のHOG(Histograms of Oriented Gradients)特徴量のフレーム間の差分を用いる例を示す。HOG特徴量とは、映像を複数のブロックに分割し、各ブロックにおける輝度の勾配方向をヒストグラム化した特徴量である。
実施の形態2の手検出装置10およびジェスチャー認識装置1の構成は、図1と同様であり、その動作は図4と同様である。ただし、実施の形態2では、輝度差分算出部12は、図4のステップS102において、手検出用映像を複数のブロックに分割し、手検出用映像のフレーム間の輝度差分として、各ブロックのHOG特徴量のフレーム間の差分を算出する。また、誤検出判定部14は、手検出用映像における手が検出されたフレームとその直前フレームとのHOG特徴量の差分に基づいて、誤検出判定処理(図4のステップS105)を行う。
具体的には、誤検出判定処理では、誤検出判定部14により図6のフローチャートに示す処理が行われる。すなわち、誤検出判定部14は、最新フレームの手検出用映像と直前フレームの手検出用映像とのHOG特徴量の差分が予め定められた閾値を超えるブロックの個数が一定個数よりも多いか否かを確認する(ステップS301)。HOG特徴量の差分が閾値を超えるブロックの個数が一定個数よりも多ければ(ステップS301でYES)、誤検出判定部14は、手検出部13により検出された手は正常に検出されたものと判定する(ステップS302)。HOG特徴量の差分が閾値を超えるブロックの個数が一定個数以下であれば(ステップS301でNO)、誤検出判定部14は、手検出部13により検出された手は誤検出されたものと判定する(ステップS303)。例えば、HOG特徴量の差分の閾値は0.2程度でよく、ブロックの総数が9個である場合、一定個数は2個程度でよい。
実施の形態2に係る手検出装置10においても、実施の形態1と同様に、手検出部13による手の検出結果から誤った検出結果を排除して、ユーザの手を精度よく検出することができる。その結果、ジェスチャー認識装置1のジェスチャー認識部15によるジェスチャーの誤認識を防止でき、さらには、ジェスチャーの誤認識による車載装置3の誤動作を防止することができる。
なお、図6に示した誤検出判定処理では過度に誤検出と判断され、手検出装置10の動作が不安定になる場合には、誤検出判定部14が、手が正常に検出されたと判定した後に、検出された手が誤検出と判断される確率を一時的に低くしてもよい。例えば、誤検出判定部14が、手が正常に検出されたと判定した後は、直前フレームとのHOG特徴量の差分が閾値を超えるブロックの個数が一定個数以下のフレームが予め定められた回数(例えば5回)連続するまで、手検出用映像から検出された手を正常に検出されたものと判定するようにしてもよい。
<実施の形態3>
実施の形態3では、実施の形態1と実施の形態2とを組み合わせた例を示す。実施の形態3の手検出装置10およびジェスチャー認識装置1の構成は、図1と同様であり、その動作は図4と同様である。
ただし、実施の形態3では、輝度差分算出部12は、図4のステップS102において、手検出用映像を複数のブロックに分割し、手検出用映像のフレーム間の輝度差分として、各ブロックのHOG特徴量のフレーム間の差分と、手検出用映像の平均輝度のフレーム間の差分とを算出する。また、誤検出判定部14は、それら2つの輝度差分に基づいて、誤検出判定処理(図4のステップS105)を行う。
具体的には、誤検出判定処理では、誤検出判定部14により図7のフローチャートに示す処理が行われる。すなわち、誤検出判定部14は、まず、最新フレームの手検出用映像と直前フレームの手検出用映像との平均輝度の差分が予め定められた閾値(第1の閾値)を超えるか否かを確認する(ステップS401)。当該差分が閾値を超えていれば(ステップS401でYES)、誤検出判定部14はさらに、最新フレームの手検出用映像と直前フレームの手検出用映像とのHOG特徴量の差分が予め定められた閾値(第2の閾値)を超えるブロックの個数が一定個数よりも多いか否かを確認する(ステップS402)。当該差分が閾値を超えるブロックの個数が一定個数よりも多ければ(ステップS402でYES)、誤検出判定部14は、手検出部13により検出された手は正常に検出されたものと判定する(ステップS403)。
一方、最新フレームの手検出用映像と直前フレームの手検出用映像との平均輝度の差分が閾値(第1の閾値)以下の場合(ステップS401でNO)、または、最新フレームの手検出用映像と直前フレームの手検出用映像とのHOG特徴量の差分が閾値(第2の閾値)を超えるブロックの個数が一定個数以下の場合には(ステップS402でNO)、誤検出判定部14は、手検出部13により検出された手は誤検出されたものと判定する(ステップS404)。
実施の形態3に係る手検出装置10においても、実施の形態1および2と同様に、手検出部13による手の検出結果から誤った検出結果を排除して、ユーザの手を精度よく検出することができる。その結果、ジェスチャー認識装置1のジェスチャー認識部15によるジェスチャーの誤認識を防止でき、さらには、ジェスチャーの誤認識による車載装置3の誤動作を防止することができる。
なお、図7に示した誤検出判定処理では過度に誤検出と判断され、手検出装置10の動作が不安定になる場合には、誤検出判定部14が、手が正常に検出されたと判定した後に、検出された手が誤検出と判断される確率を一時的に低くしてもよい。例えば、誤検出判定部14が、手が正常に検出されたと判定した後は、直前フレームとの平均輝度の差分が閾値(第1の閾値)以下になる、または、直前フレームとのHOG特徴量の差分が閾値(第2の閾値)を超えるブロックの個数が一定個数以下のフレームが予め定められた回数(例えば5回)連続するまで、手検出用映像から検出された手を正常に検出されたものと判定するようにしてもよい。
<ハードウェア構成例>
図8および図9は、それぞれ手検出装置10のハードウェア構成の例を示す図である。図1に示した手検出装置10の構成要素の各機能は、例えば図8に示す処理回路50により実現される。すなわち、手検出装置10は、車両内の手検出用領域を撮影した映像である手検出用映像を取得し、手検出用映像のフレーム間の輝度差分を算出し、手検出用映像からユーザの手を検出し、手検出用映像の手が検出されたフレームとその直前フレームとの輝度差分に基づいて、検出された手が誤検出されたものか否かを判定するための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。手検出装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。
図9は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における手検出装置10のハードウェア構成の例を示している。この場合、手検出装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、手検出装置10は、プロセッサ51により実行されるときに、車両内の手検出用領域を撮影した映像である手検出用映像を取得する処理と、手検出用映像のフレーム間の輝度差分を算出する処理と、手検出用映像からユーザの手を検出する処理と、手検出用映像の手が検出されたフレームとその直前フレームとの輝度差分に基づいて、検出された手が誤検出されたものか否かを判定する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、手検出装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。
ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。
以上、手検出装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、手検出装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
以上のように、手検出装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
なお、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
上記した説明は、すべての態様において、例示であって、例示されていない無数の変形例が想定され得るものと解される。
1 ジェスチャー認識装置、2 カメラ、3 車載装置、10 手検出装置、11 映像取得部、12 輝度差分算出部、13 手検出部、14 誤検出判定部、15 ジェスチャー認識部、50 処理回路、51 プロセッサ、52 メモリ、DR 手検出用領域、P1 運転席の乗員、P2 助手席の乗員、P3 後部座席の乗員。

Claims (10)

  1. 車両内の手検出用領域を撮影した映像である手検出用映像を取得する映像取得部と、
    前記手検出用映像のフレーム間の輝度差分を算出する輝度差分算出部と、
    前記手検出用映像からユーザの手を検出する手検出部と、
    前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記輝度差分に基づいて、検出された前記手が誤検出されたものか否かを判定する誤検出判定部と、
    を備え、
    前記輝度差分算出部は、前記輝度差分として、前記手検出用映像の平均輝度のフレーム間の差分を算出し、
    前記誤検出判定部は、前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記平均輝度の差分が予め定められた閾値以下の場合に、前記手が誤検出されたと判定する、
    手検出装置。
  2. 車両内の手検出用領域を撮影した映像である手検出用映像を取得する映像取得部と、
    前記手検出用映像のフレーム間の輝度差分を算出する輝度差分算出部と、
    前記手検出用映像からユーザの手を検出する手検出部と、
    前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記輝度差分に基づいて、検出された前記手が誤検出されたものか否かを判定する誤検出判定部と、
    を備え、
    前記輝度差分算出部は、前記手検出用映像を複数のブロックに分割し、前記輝度差分として、各ブロックのHOG(Histograms of Oriented Gradients)特徴量のフレーム間の差分を算出し、
    前記誤検出判定部は、前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記HOG特徴量の差分が予め定められた閾値を超える前記ブロックの個数が一定個数以下の場合に、前記手が誤検出されたと判定する、
    手検出装置。
  3. 前記手検出用映像は、前記車両に搭載されたカメラが撮影した映像から前記手検出用領域に対応する部分をトリミングした映像である、
    請求項1または請求項2に記載の手検出装置。
  4. 前記手検出用領域は、前記車両の運転席と助手席との間の領域である、
    請求項1または請求項2に記載の手検出装置。
  5. 前記誤検出判定部は、前記手が誤検出されたと判定しなかった場合には前記手が正常に検出されたと判定し、前記手が正常に検出されたと判定した後は、直前フレームとの前記HOG特徴量の差分が前記閾値を超える前記ブロックの個数が前記一定個数以下のフレームが予め定められた回数連続するまで、前記手検出用映像から検出された前記手を正常に検出されたものと判定する、
    請求項2に記載の手検出装置。
  6. 前記手検出用映像を含む前記車両内の映像を撮影するカメラをさらに備える、
    請求項1または請求項2に記載の手検出装置。
  7. 前記カメラは前記車両のダッシュボードの中央部に配置される、
    請求項6に記載の手検出装置。
  8. 請求項1または請求項2に記載の手検出装置と、
    記手によるジェスチャーを認識するジェスチャー認識部と、
    を備え
    前記誤検出判定部は、前記手が誤検出されたと判定しなかった場合には前記手が正常に検出されたと判定し、
    前記ジェスチャー認識部は、正常に検出されたと判定された前記手によるジェスチャーの認識を行い、誤検出されたと判定された前記手によるジェスチャーの認識は行わない、
    ジェスチャー認識装置。
  9. 手検出装置の映像取得部が、車両内の手検出用領域を撮影した映像である手検出用映像を取得し、
    前記手検出装置の輝度差分算出部が、前記手検出用映像のフレーム間の輝度差分を算出し、
    前記手検出装置の手検出部が、前記手検出用映像からユーザの手を検出し、
    前記手検出装置の誤検出判定部が、前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記輝度差分に基づいて、検出された前記手が誤検出されたものか否かを判定し、
    前記輝度差分算出部は、前記輝度差分として、前記手検出用映像の平均輝度のフレーム間の差分を算出し、
    前記誤検出判定部は、前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記平均輝度の差分が予め定められた閾値以下の場合に、前記手が誤検出されたと判定する、
    手検出方法。
  10. 手検出装置の映像取得部が、車両内の手検出用領域を撮影した映像である手検出用映像を取得し、
    前記手検出装置の輝度差分算出部が、前記手検出用映像のフレーム間の輝度差分を算出し、
    前記手検出装置の手検出部が、前記手検出用映像からユーザの手を検出し、
    前記手検出装置の誤検出判定部が、前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記輝度差分に基づいて、検出された前記手が誤検出されたものか否かを判定し、
    前記輝度差分算出部は、前記手検出用映像を複数のブロックに分割し、前記輝度差分として、各ブロックのHOG(Histograms of Oriented Gradients)特徴量のフレーム間の差分を算出し、
    前記誤検出判定部は、前記手検出用映像の前記手が検出されたフレームとその直前フレームとの前記HOG特徴量の差分が予め定められた閾値を超える前記ブロックの個数が一定個数以下の場合に、前記手が誤検出されたと判定する、
    手検出方法。
JP2022576293A 2021-01-21 2021-01-21 手検出装置、ジェスチャー認識装置および手検出方法 Active JP7483060B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/002016 WO2022157880A1 (ja) 2021-01-21 2021-01-21 手検出装置、ジェスチャー認識装置および手検出方法

Publications (3)

Publication Number Publication Date
JPWO2022157880A1 JPWO2022157880A1 (ja) 2022-07-28
JPWO2022157880A5 JPWO2022157880A5 (ja) 2023-04-18
JP7483060B2 true JP7483060B2 (ja) 2024-05-14

Family

ID=82548551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022576293A Active JP7483060B2 (ja) 2021-01-21 2021-01-21 手検出装置、ジェスチャー認識装置および手検出方法

Country Status (3)

Country Link
US (1) US20230401898A1 (ja)
JP (1) JP7483060B2 (ja)
WO (1) WO2022157880A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104297A (ja) 2007-10-22 2009-05-14 Mitsubishi Electric Corp 操作入力装置
JP2012150837A (ja) 2012-04-27 2012-08-09 Casio Comput Co Ltd ジェスチャー認識装置、ジェスチャー認識方法及びそのプログラム
JP2016171511A (ja) 2015-03-13 2016-09-23 リコーイメージング株式会社 撮像装置および撮像方法
JP2018055614A (ja) 2016-09-30 2018-04-05 島根県 ジェスチャ操作システム、ジェスチャ操作方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104297A (ja) 2007-10-22 2009-05-14 Mitsubishi Electric Corp 操作入力装置
JP2012150837A (ja) 2012-04-27 2012-08-09 Casio Comput Co Ltd ジェスチャー認識装置、ジェスチャー認識方法及びそのプログラム
JP2016171511A (ja) 2015-03-13 2016-09-23 リコーイメージング株式会社 撮像装置および撮像方法
JP2018055614A (ja) 2016-09-30 2018-04-05 島根県 ジェスチャ操作システム、ジェスチャ操作方法およびプログラム

Also Published As

Publication number Publication date
WO2022157880A1 (ja) 2022-07-28
JPWO2022157880A1 (ja) 2022-07-28
US20230401898A1 (en) 2023-12-14

Similar Documents

Publication Publication Date Title
US9706100B2 (en) Imaging apparatus, method for setting voice command, and storage medium
KR101573744B1 (ko) 입력 사운드 신호에 기반한 영상 저장장치 및 방법
CN109460697B (zh) 人脸辨识的辅助过滤装置及电子装置的启动方法
JP2012121386A (ja) 車載装置
US10503885B2 (en) Electronic device and unlocking method therefor
CN102939617A (zh) 姿势识别装置、姿势识别方法和程序
JP4942604B2 (ja) 車両用電話通話判定装置
JP2009117978A (ja) 車両周辺表示装置
JP7483060B2 (ja) 手検出装置、ジェスチャー認識装置および手検出方法
US20100014760A1 (en) Information Extracting Method, Registration Device, Verification Device, and Program
JP2008243111A (ja) 画像処理装置および画像処理方法
US20150070267A1 (en) Misrecognition reducing motion recognition apparatus and method
US20180005016A1 (en) Image processing apparatus, image processing method, and storage medium for detecting object from image
WO2019030855A1 (ja) 運転不能状態判定装置および運転不能状態判定方法
JP6735801B2 (ja) 物体認識装置およびこれを用いた車両制御装置並びに物体認識方法およびこれを用いた車両制御方法
JP7289406B2 (ja) ジェスチャ検出装置およびジェスチャ検出方法
JP7072737B2 (ja) ジェスチャ検出装置およびジェスチャ検出方法
US20190208100A1 (en) Vehicle camera device and exposure parameter setting method thereof
JP2020194224A (ja) 運転者判定装置、運転者判定方法、および運転者判定プログラム
JP7412614B1 (ja) 追跡装置、追跡方法及び追跡プログラム
JP7217838B2 (ja) 開口度算出装置
WO2021186710A1 (ja) ジェスチャ検出装置及びジェスチャ検出方法
WO2021240668A1 (ja) ジェスチャ検出装置およびジェスチャ検出方法
JPWO2020188788A1 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
WO2022234632A1 (ja) 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430

R150 Certificate of patent or registration of utility model

Ref document number: 7483060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150