JP7267517B2 - ジェスチャ認識装置およびジェスチャ認識方法 - Google Patents

ジェスチャ認識装置およびジェスチャ認識方法 Download PDF

Info

Publication number
JP7267517B2
JP7267517B2 JP2022573870A JP2022573870A JP7267517B2 JP 7267517 B2 JP7267517 B2 JP 7267517B2 JP 2022573870 A JP2022573870 A JP 2022573870A JP 2022573870 A JP2022573870 A JP 2022573870A JP 7267517 B2 JP7267517 B2 JP 7267517B2
Authority
JP
Japan
Prior art keywords
hand
hand candidate
candidate
light source
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022573870A
Other languages
English (en)
Other versions
JPWO2022149251A1 (ja
JPWO2022149251A5 (ja
Inventor
大貴 樋口
乃輔 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022149251A1 publication Critical patent/JPWO2022149251A1/ja
Publication of JPWO2022149251A5 publication Critical patent/JPWO2022149251A5/ja
Application granted granted Critical
Publication of JP7267517B2 publication Critical patent/JP7267517B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、ジェスチャ認識装置およびジェスチャ認識方法に関する。
画像内の情報から顔、ジェスチャ、ボディランゲージ等を識別する技術が知られている(例えば、特許文献1)。そのような識別技術は、車両の乗員が操作するHMI(Human Machine Interface)に利用可能である。例えば、ジェスチャ認識装置は、車両内の映像に基づいて乗員の手のジェスチャを識別する。
特表2019-505011号公報
車両の外部の光源が映像内に車外風景として映り込む場合がある。その光源像が識別対象である乗員の手の像と類似している場合、ジェスチャ認識装置はその光源像を乗員の手の像として判定する可能性がある。誤判定が生じた場合、乗員の手は正確に識別されない。
本開示は、上記の課題を解決するため、識別対象物である手を正確に識別するジェスチャ認識装置を提供する。
本開示に係るジェスチャ認識装置は、手候補識別部、車外風景識別部および誤認識識別部を備える。手候補識別部は、車両の室内の映像に基づいて、映像における車両の乗員の手の候補である少なくとも1つの手候補を識別する。車外風景識別部は、手候補の形状に関する予め定められた条件に基づいて、その少なくとも1つの手候補が車両の外部に存在する光源に起因する光源像に該当するか否かを判定する。誤認識識別部は、光源像に該当しないと判定された手候補を、乗員のジェスチャにおける手として識別する。車外風景識別部は、手候補の形状に関する予め定められた条件を満たす手候補の周辺に、円弧パターン、リングパターンおよび多角形パターンのうち少なくとも1つのパターンが存在するか否かに基づいて、手候補が光源像に該当するか否かを判定する。

本開示によれば、識別対象物である手を正確に識別するジェスチャ認識装置が提供される。
本開示の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによって、より明白になる。
実施の形態1におけるジェスチャ認識装置の構成を示す機能ブロック図である。 ジェスチャ認識装置が含む処理回路の構成の一例を示す図である。 ジェスチャ認識装置が含む処理回路の構成の別の一例を示す図である。 実施の形態1におけるジェスチャ認識方法を示すフローチャートである。 実施の形態2におけるジェスチャ認識装置の構成を示す機能ブロック図である。 実施の形態2におけるジェスチャ認識方法を示すフローチャートである。 車内映像の一例を示す図である。 車内映像の一例を示す図である。 車内映像の一例を示す図である。 光源像の一例を示す図である。 実施の形態3におけるジェスチャ認識装置の構成を示す機能ブロック図である。 実施の形態3におけるジェスチャ認識方法を示すフローチャートである。 車内映像の一例を示す図である。 車内映像の一例を示す図である。 車内映像の一例を示す図である。 実施の形態6におけるジェスチャ認識装置およびそれに関連して動作する装置の構成を示す機能ブロック図である。
<実施の形態1>
図1は、実施の形態1におけるジェスチャ認識装置100の構成を示す機能ブロック図である。図1には、ジェスチャ認識装置100と関連して動作する装置として、撮像装置110が示されている。
撮像装置110は、車両に設けられている。撮像装置110は、車両の室内の乗員の映像を撮影する。
ジェスチャ認識装置100は、車両内の映像に基づいて乗員の手を識別する。ジェスチャ認識装置100は、その識別された乗員の手によって示されるジェスチャを検出する。以下、「ジェスチャ」とは、車両に搭載された機器等を操作するための予め定められた「手の形状」を意味するが、それに限定されるものではない。「ジェスチャ」とは、予め定められた「手の動き」であってもよい。
ジェスチャ認識装置100は、手候補識別部10、車外風景識別部20および誤認識識別部30を備える。
手候補識別部10は、車両の室内の映像に基づいて、その映像における車両の乗員の手の候補である少なくとも1つの手候補を識別する。
車外風景識別部20は、手候補の形状に関する予め定められた条件に基づいて、その少なくとも1つの手候補が光源像に該当するか否かを判定する。その光源像は、車両の外部に存在する光源に起因している。光源は、例えば、太陽、街灯、後続車両のヘッドライト等である。光源像は、例えば、光源から出射された光が車両の窓を透過することによって得られる透過像である。または光源像は、光源から出射された光が車両の室内に存在する物体(窓、ミラー、乗員の装身具等)で反射することによって得られる反射像であってもよい。手候補の形状に関する予め定められた条件は、例えば、ジェスチャ認識装置100に記憶されている。
誤認識識別部30は、光源像に該当しないと判定された手候補を、乗員のジェスチャにおける手として識別する。誤認識識別部30は、その手の識別結果を出力する。
図2は、ジェスチャ認識装置100が含む処理回路90の構成の一例を示す図である。手候補識別部10、車外風景識別部20および誤認識識別部30の各機能は、処理回路90により実現される。言い換えると、処理回路90は、手候補識別部10、車外風景識別部20および誤認識識別部30を有する。
処理回路90が専用のハードウェアである場合、処理回路90は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせた回路等である。手候補識別部10、車外風景識別部20および誤認識識別部30の各機能は、複数の処理回路により個別に実現されてもよいし、1つの処理回路によりまとめて実現されてもよい。
図3は、ジェスチャ認識装置100が含む処理回路の構成の別の一例を示す図である。処理回路は、プロセッサ91とメモリ92とを有する。プロセッサ91がメモリ92に格納されたプログラムを実行することにより、手候補識別部10、車外風景識別部20および誤認識識別部30の各機能が実現される。例えば、プログラムとして記載されたソフトウェアが、プロセッサ91によって実行されることにより、各機能が実現される。このように、ジェスチャ認識装置100は、プログラムを格納するメモリ92と、そのプログラムを実行するプロセッサ91とを有する。
プログラムには、ジェスチャ認識装置100が、車両の室内の映像に基づいて、その映像における車両の乗員の手の候補である少なくとも1つの手候補を識別する機能が記載されている。また、プログラムには、ジェスチャ認識装置100が、手候補の形状に関する予め定められた条件に基づいて、その少なくとも1つの手候補が光源像に該当するか否かを判定する機能が記載されている。その光源像は、車両の外部に存在する光源に起因している。さらに、プログラムには、光源像に該当しないと判定された手候補を、乗員のジェスチャにおける手として識別する機能が記載されている。プログラムは、手候補識別部10、車外風景識別部20および誤認識識別部30の手順または方法をコンピュータに実行させるものである。
プロセッサ91は、例えば、CPU(Central Processing Unit)等である。メモリ92は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の、不揮発性または揮発性の半導体メモリである。または、メモリ92は、HDD(Hard Disk Drive)等の記憶媒体であってもよい。
上記の手候補識別部10、車外風景識別部20および誤認識識別部30の各機能は、一部が専用のハードウェアによって実現され、他の一部がソフトウェアにより実現されてもよい。処理回路は、ハードウェアおよびソフトウェアの組み合わせによって、上記の各機能を実現する。
図4は、実施の形態1におけるジェスチャ認識方法を示すフローチャートである。
ステップS1にて、手候補識別部10は、車両の室内の映像に基づいて少なくとも1つの手候補を識別する。
ステップS2にて、車外風景識別部20は、手候補の形状に関する予め定められた条件に基づいて、その少なくとも1つの手候補が光源像に該当するか否かを判定する。
ステップS3にて、誤認識識別部30は、光源像に該当しないと判定された手候補を、乗員のジェスチャにおける手として識別する。誤認識識別部30は、その手の識別結果を出力する。
以上をまとめると、実施の形態1におけるジェスチャ認識装置100は、手候補識別部10、車外風景識別部20および誤認識識別部30を備える。手候補識別部10は、車両の室内の映像に基づいて、その映像における車両の乗員の手の候補である少なくとも1つの手候補を識別する。車外風景識別部20は、手候補の形状に関する予め定められた条件に基づいて、その少なくとも1つの手候補が光源像に該当するか否かを判定する。その光源像は、車両の外部に存在する光源に起因している。誤認識識別部30は、光源像に該当しないと判定された手候補を、乗員のジェスチャにおける手として識別する。
このようなジェスチャ認識装置100は、識別対象物である手を正確に識別する。
<実施の形態2>
実施の形態2におけるジェスチャ認識装置およびジェスチャ認識方法を説明する。実施の形態2は実施の形態1の下位概念である。実施の形態2において、実施の形態1と同様の構成要素には、同一の参照符号を付し、それらの詳細な説明は省略する。
図5は、実施の形態2におけるジェスチャ認識装置101の構成を示す機能ブロック図である。また、図5には、ジェスチャ認識装置101と関連して動作する装置として、撮像装置110および車載機器120が示されている。
撮像装置110は、例えば、赤外線を検知するカメラ、可視光を検知するカメラ等である。撮像装置110は、車両の室内の前方中央に設けられている。撮像装置110は、車両の室内の前方から後方を広角で撮影し、運転席および助手席の両方を一度に撮影する。撮像装置110によって撮影される映像には、車両の外部に存在する光源像が映る場合がある。例えば、光源から出射された光が車両の後部窓を透過することによって、その光源の透過像が映像に映る。
ジェスチャ認識装置101は、映像取得部40、手候補識別部10、車外風景識別部20および誤認識識別部30を含む。
映像取得部40は、撮像装置110によって撮影された車両の室内の映像のデータを取得する。
手候補識別部10は、その映像に基づいて、車両の乗員の手の候補である手候補を識別する。実施の形態2における手候補識別部10は、映像内の予め定められた第1領域における第1手候補と、映像内の予め定められた第2領域における第2手候補とを識別する。第1領域は、例えば、映像における車両の運転席と助手席との間の領域を含む。第1領域は、例えば、車載機器120を操作するために乗員が手のジェスチャを行う領域として予め設定されている領域に対応する。第2領域は、車両のハンドルが映っている領域の少なくとも一部と、そのハンドルから予め定められた距離以内の領域とを含む。予め定められた距離は、例えば、ハンドルから車両の運転席と助手席との間の地点までの距離よりも短い距離である。第2領域は、第1領域よりもハンドルに近い領域である。
手候補識別部10は、例えば各領域内のパターン(例えば、輝度分布の情報)と予め定められた手のパターンとをマッチングして、手候補を検出するつまり識別する。識別対象の手は、開いた状態の手および閉じた状態の手のうちいずれの手であってもよい。識別対象の手は、例えば、グーの手またはパーの手である。識別対象の手は、例えば、数を示す手、方向を示す手、乗員の意思(OKまたはGoodなど)を示す手等であってもよい。識別対象の手は、例えば、操作対象の車載機器120ごとに定められていてもよいし、操作の種類ごとに定められていてもよい。実施の形態2の第1領域における識別対象の手は、サムズアップの手である。すなわち、手候補識別部10は、第1領域において、サムズアップの手に類似するパターンを手候補として検出する。第2領域における識別対象の手は、任意であるが、例えば、ハンドルを握っている手である。
車外風景識別部20は、形状判定部21Aおよび検出判定部21Bを含む。形状判定部21Aは、手候補の形状に関する予め定められた条件に基づいて、その第1手候補が光源像に該当するか否かを判定する。その際、形状判定部21Aは、第1手候補の形状を、第1手候補の映像に基づいて自ら検出してもよいし、手候補識別部10からその第1手候補の形状の情報を取得してもよい。検出判定部21Bは、第2手候補が第2領域に検出されたか否かを判定する。
光源が、太陽、街灯、後続車両のヘッドライト等である場合、光源像は1つの丸いパターンを有する可能性が高い。そのため、手候補の形状に関する予め定められた条件は、第1手候補の形状が1つの丸いパターンを有するか否かである。丸いパターンは、例えば円形および楕円形のうち少なくともいずれか1つを含む。
光源像が映像に映り込んだ場合、その光源像の中心から径方向に向かって光芒と呼ばれる放射状のパターンが現れる場合がある。よって、手候補の形状に関する予め定められた条件は、第1手候補の形状が1つの丸いパターンと、その丸いパターンの周囲に放射状のパターンとを有するか否かであってもよい。
誤認識識別部30は、形状判定部21Aの判定結果と検出判定部21Bの判定結果とに基づいて、光源像に該当すると判定された手候補を棄却する。そして、誤認識識別部30は、光源像に該当しないと判定された第1手候補を乗員の手として識別する。
ジェスチャ認識装置101は、その識別結果に基づく乗員の手によって示されるジェスチャを検出する。ジェスチャ認識装置101は、そのジェスチャに基づく制御信号を車載機器120に出力する。車載機器120は、その制御信号に基づいて制御される。車載機器120とは、例えば、エアコン、オーディオ等である。ジェスチャ認識装置101から出力される制御信号に従って、エアコンの温度が調節される、または、オーディオの音量が調節される。ただし、車載機器120は、エアコンおよびオーディオに限定されるものではない。
以上の手候補識別部10、車外風景識別部20および誤認識識別部30の機能は、図2または図3に示される処理回路によって実現される。
図6は、実施の形態2におけるジェスチャ認識方法を示すフローチャートである。
ステップS10にて、映像取得部40は、撮像装置110によって撮影された車両の室内の映像を取得する。図7から図9は、車内映像の一例をそれぞれ示す図である。図7から図9においては、右ハンドルの車両が一例として示されているが、車両は左ハンドルの車両であってもよい。図7の映像には、車両の後部窓3に対応する領域に丸い光源像が写っている。図8の映像には、後部窓3に対応する領域に木の影、標識等、光源像以外の物体像が写っている。その物体像の形状は、おおよそ三角形である。図9の映像には、ジェスチャを構成する乗員の手が写っている。図7に示される光源像の形は丸い形状に限定されるものではない。図10は、光源像の一例を示す図である。図10に示される光源像は、1つの丸いパターン5Aと、その丸いパターン5Aの周囲に放射状のパターン5Bとを有する。
ステップS20にて、手候補識別部10は、その映像に基づいて、第1領域Aにおける第1手候補11と第2領域Bにおける第2手候補12とを識別する。ここでは、第1領域Aは、運転席と助手席との間の領域を含む。第2領域Bは、ハンドル2が映っている領域の少なくとも一部と、そのハンドル2から予め定められた距離以内の領域とを含む。第1領域における識別対象の手は、サムズアップの手である。手候補識別部10は、サムズアップの手に類似するパターンを第1手候補11として識別する。そのため、手候補識別部10は、実際にはサムズアップの手の像ではない物体像も第1手候補11として識別する場合がある。第2領域における識別対象の手は、任意であるが、ここでは、ハンドル2を握っている手である。図7の第1領域Aおいては、丸いパターンを有する光源像が第1手候補11として識別されている。第2領域Bにおいては、乗員の手の像が第2手候補12として識別されている。図8の第1領域Aにおいては、おおよそ三角形を有する物体像が第1手候補11として識別されている。第2領域Bにおいては、乗員の手の像が第2手候補12として識別されている。図9の第1領域Aにおいては、乗員の手の像が第1手候補11として識別されている。第2領域Bにおいて第2手候補12は識別されていない、つまり検出されていない。
ステップS30にて、車外風景識別部20の形状判定部21Aは、第1手候補11の形状が、その形状に関する予め定められた条件を満たすか否か判定する。ここでは、その条件は、第1手候補11の形状が1つの丸いパターンを有するか否かである。または、その条件は、第1手候補11の形状が1つの丸いパターン5Aと、その丸いパターン5Aの周囲に放射状のパターン5Bとを有するか否かである。図7においては、第1手候補11の形状は、予め定められた条件を満たす。そのため、ステップS50が実行される。つまり、形状判定部21Aは第1手候補11が光源像に該当すると判定する。言い換えると、形状判定部21Aは第1手候補11が真の手ではないと判定する。図8および図9においては、第1手候補11の形状は、予め定められた条件を満たさない。そのため、ステップS40が実行される。つまり、形状判定部21Aは第1手候補11が光源像に該当しないと判定する。
ステップS40にて、車外風景識別部20の検出判定部21Bは、第2手候補12が第2領域Bに検出されたか否かを判定する。図8においては、第2手候補12が第2領域Bに検出されている。そのため、ステップS50が実行される。つまり、ステップS30において、第1手候補11が光源像に該当しないと判定された場合であっても、第2手候補12がハンドル2付近に検出された場合、検出判定部21Bは第1手候補11が真の手でないと判定する。図9においては、第2手候補12が第2領域Bに検出されていない。そのため、ステップS60が実行される。つまり、検出判定部21Bは第1手候補11が真の手であると判定する。
ステップS50にて、誤認識識別部30は、真の手でない第1手候補11を棄却する。ここでは、誤認識識別部30は、光源像に該当する図7の第1手候補11に加えて、図8に示される第1手候補11も棄却する。
ステップS60にて、誤認識識別部30は、真の手である第1手候補11を、乗員の手の識別結果として出力する。ここでは、図9に示される第1手候補11が、手の識別結果として出力される。
このようなジェスチャ認識装置101は、識別対象物である手を正確に識別する。特に乗員のうち運転手のジェスチャの認識精度が向上する。
(実施の形態2の変形例1)
車外風景識別部20は、手候補の形状に関する条件を、任意のタイミングで更新してもよい。手候補の形状に関する条件は、学習済みモデルであってもよい。例えば、車外風景識別部20は、新しい学習済みモデルを外部から取得し、手候補の形状に関する予め定められた条件として記憶する。言い換えると、手候補の形状に関する条件は、車外風景識別部20が上記の判定処理を行う際に、予め定められていればよい。
(実施の形態2の変形例2)
手候補が車両のいずれかの窓に対応する領域内に位置する場合、その手候補は、車両の外部の光源に起因する光源像である可能性が高い。よって、第1領域Aは、映像における車両の窓に対応する領域であってもよい。車両の窓に対応する領域は、例えば実施の形態2に示されたように後部窓3であるが、それ以外の窓であってもよい。手候補識別部10は、その車両の窓に対応する領域において、第1手候補11を識別する。
車外風景識別部20は、手候補の形状に関する予め定められた条件に加えて、第1手候補11が第2手候補12の輝度よりも明るい場合に、第1手候補11が光源像に該当すると判定してもよい。または、車外風景識別部20は、第1手候補11の輝度が予め定められた輝度以上である場合に、第1手候補11が光源像に該当すると判定してもよい。例えば、車外風景識別部20は、第1手候補11の丸いパターンの中心部の輝度値が飽和している場合に、第1手候補11が光源像に該当すると判定してもよい。さらに、車外風景識別部20は、その第1手候補11の輝度値が中央から周囲にかけて単調に減少するような分布を有している場合に、第1手候補11が光源像に該当すると判定してもよい。
光源像が映る映像には、レンズフレアと呼ばれるパターンが現れる場合がある。車外風景識別部20は、形状に関する予め定められた条件を満たす第1手候補11の周辺に、円弧パターン、リングパターンおよび多角形パターンのうち少なくとも1つのパターンが存在するか否かに基づいて、その第1手候補11が光源像に該当するか否かを判定してもよい。
このようなジェスチャ認識装置101によれば、第1手候補11が光源像に該当するか否かの判定精度がさらに向上する。
<実施の形態3>
実施の形態3におけるジェスチャ認識装置およびジェスチャ認識方法を説明する。実施の形態3は実施の形態1の下位概念である。実施の形態3において、実施の形態1または2と同様の構成要素には、同一の参照符号を付し、それらの詳細な説明は省略する。
図11は、実施の形態3におけるジェスチャ認識装置102の構成を示す機能ブロック図である。
ジェスチャ認識装置102は、映像取得部40、手候補識別部10、車外風景識別部20および誤認識識別部30を含む。
手候補識別部10は、少なくとも1つの手候補として、第1手候補11と第2手候補12とを識別する。識別対象の手は、任意であるが、例えば、サムズアップの手およびハンドル2を握っている手である。手候補識別部10は、その映像において、識別対象の手に類似するパターンを手候補として検出する。
車外風景識別部20は、形状判定部22Aおよび位置判定部22Bを含む。形状判定部22Aは、手候補の形状に関する予め定められた条件に基づいて、その第1手候補11が光源像に該当するか否かを判定する。形状に関する条件は、実施の形態2と同様である。位置判定部22Bは、第1手候補11よりも車両のハンドル2の近くに位置する第2手候補12が検出されたか否かを判定する。その際、位置判定部22Bは、第1手候補11および第2手候補12の位置を、映像に基づいて自ら検出してもよいし、手候補識別部10からそれら位置の情報を取得してもよい。位置情報は、例えば映像における座標情報である。
誤認識識別部30は、形状判定部22Aの判定結果と位置判定部22Bの判定結果とに基づいて、光源像に該当すると判定された第1手候補11を棄却する。そして、誤認識識別部30は、光源像に該当しないと判定された第1手候補11を乗員の手として識別する。
以上の映像取得部40、手候補識別部10、車外風景識別部20および誤認識識別部30の機能は、図2または図3に示される処理回路によって実現される。
図12は、実施の形態3におけるジェスチャ認識方法を示すフローチャートである。
ステップS110にて、映像取得部40は、撮像装置110によって撮影された車両の室内の映像を取得する。図13から図15は、車内映像の一例をそれぞれ示す図である。図13の映像には、車両の後部窓3に対応する領域に丸い光源像が写っている。図14の映像には、後部窓3に対応する領域に木の影、標識等、光源像以外の物体像が写っている。図15の映像には、ジェスチャを構成する乗員の手が写っている。
ステップS120にて、手候補識別部10は、その映像に基づいて少なくとも1つの手候補を識別する。ここでは、手候補識別部10は、予め定められた領域C内で第1手候補11と第2手候補12とを識別する。図13においては、丸いパターンを有する光源像が第1手候補11として識別されている。また、ハンドル2を握っている手の像が第2手候補12として識別されている。図14においては、おおよそ三角形を有する物体像が第1手候補11として識別されている。また、ハンドル2を握っている手の像が第2手候補12として識別されている。図15においては、乗員の手の像が第1手候補11として識別されている。第2手候補12は識別されていない、つまり検出されていない。
ステップS130にて、車外風景識別部20の形状判定部22Aは、第1手候補11の形状が、その形状に関する予め定められた条件を満たすか否かを判定する。ここでは、その条件は、実施の形態2と同様である。図13においては、第1手候補11は、予め定められた条件を満たす。そのため、ステップS150が実行される。つまり、形状判定部22Aは第1手候補11が光源像に該当すると判定する。図14および図15においては、第1手候補11は、予め定められた条件を満たさないため、ステップS140が実行される。つまり、形状判定部22Aは第1手候補11が光源像に該当しないと判定する。
ステップS140にて、車外風景識別部20の位置判定部22Bは、第1手候補11よりも車両のハンドル2の近くに位置する第2手候補12が検出されたか否かを判定する。図14においては、第2手候補12が検出されており、その第2手候補12は第1手候補11よりも車両のハンドル2の近くに位置する。そのため、ステップS150が実行される。つまり、ステップS130において、第1手候補11が光源像に該当しないと判定された場合であっても、第2手候補12が第1手候補11よりもハンドル2の近くに位置する場合、位置判定部22Bは第1手候補11が真の手でないと判定する。図15においては、第2手候補12が検出されていないため、ステップS160が実行される。つまり、位置判定部22Bは第1手候補11が真の手であると判定する。
ステップS150にて、誤認識識別部30は、真の手でない第1手候補11を棄却する。ここでは、誤認識識別部30は、光源像に該当する図13の第1手候補11に加えて、図14に示される第1手候補11も棄却する。
ステップS160にて、誤認識識別部30は、真の手である第1手候補11を、乗員の手の識別結果として出力する。ここでは、図15に示される第1手候補11が、手の識別結果として出力される。
このようなジェスチャ認識装置102は、識別対象物である手を正確に識別する。特に乗員のうち運転手のジェスチャの認識精度が向上する。
<実施の形態4>
実施の形態4におけるジェスチャ認識装置およびジェスチャ認識方法を説明する。実施の形態4は実施の形態1の下位概念である。実施の形態4において、実施の形態1から3のいずれかと同様の構成要素には、同一の参照符号を付し、それらの詳細な説明は省略する。
手候補識別部10は、映像のフレームごとに手候補を識別する。
車外風景識別部20は、その手候補が光源像に該当するか否かをフレームごとに判定する。
誤認識識別部30は、1つのフレームにおける手候補が光源像に該当しないと判定された場合であっても、Nフレーム連続で同一の形状を有する手候補が識別されない場合には、光源像に該当しないと判定されたその手候補を棄却する。例えば、1つのフレームにおける手候補が真の手であると判定された場合であっても、Nフレーム連続で同一の形状を有する手候補が識別されない場合には、誤認識識別部30は、その手候補を棄却する。「N」は、予め定められた2以上の整数である。
以上の手候補識別部10、車外風景識別部20および誤認識識別部30の機能は、図2または図3に示される処理回路によって実現される。
このようなジェスチャ認識装置によれば、手候補が光源像に該当するか否かの判定精度がさらに向上する。
<実施の形態5>
実施の形態5におけるジェスチャ認識装置およびジェスチャ認識方法を説明する。実施の形態5は実施の形態1の下位概念である。実施の形態5において、実施の形態1から4のいずれかと同様の構成要素には、同一の参照符号を付し、それらの詳細な説明は省略する。
手候補識別部10は、映像のフレームごとに手候補を識別する。
車外風景識別部20は、その手候補が光源像に該当するか否かをフレームごとに判定する。
誤認識識別部30は、手候補がMフレーム連続で光源像に該当すると判定された場合に、手候補を棄却する。「M」は、予め定められた2以上の整数である。
以上の手候補識別部10、車外風景識別部20および誤認識識別部30の機能は、図2または図3に示される処理回路によって実現される。
このようなジェスチャ認識装置によれば、手候補が光源像に該当するか否かの判定精度がさらに向上する。
<実施の形態6>
以上の各実施の形態に示されたジェスチャ認識装置は、ナビゲーション装置と、通信端末と、サーバと、これらにインストールされるアプリケーションの機能とを適宜に組み合わせて構築されるシステムにも適用することができる。ここで、ナビゲーション装置とは、例えば、PND(Portable Navigation Device)などを含む。通信端末とは、例えば、携帯電話、スマートフォンおよびタブレットなどの携帯端末を含む。
図16は、実施の形態6におけるジェスチャ認識装置100およびそれに関連して動作する装置の構成を示す機能ブロック図である。
ジェスチャ認識装置100および通信装置130がサーバ300に設けられている。ジェスチャ認識装置100は、車両1に設けられた撮像装置110から通信装置140および通信装置130を介して車両1の室内の映像を取得する。ジェスチャ認識装置100は、その映像に基づいて手候補を識別する。ジェスチャ認識装置100は、手候補の形状に関する予め定められた条件に基づいて、手候補が光源像に該当するか否かを判定する。ジェスチャ認識装置100は、光源像に該当しないと判定された手候補を、乗員のジェスチャにおける手として識別する。ジェスチャ認識装置100は、その識別結果に基づく乗員の手によって示されるジェスチャを検出する。ジェスチャ認識装置100は、そのジェスチャに基づく制御信号を、通信装置130,140を介して車載機器120に出力する。車載機器120は、その制御信号に基づいて制御される。
このように、ジェスチャ認識装置100がサーバ300に配置されることにより、車両1に設けられる装置の構成が簡素化される。
また、ジェスチャ認識装置100の機能あるいは構成要素の一部がサーバ300に設けられ、他の一部が車両1に設けられるなど、それらは分散して配置されてもよい。
なお、本開示は、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
1 車両、2 ハンドル、3 後部窓、5A パターン、5B パターン、10 手候補識別部、11 第1手候補、12 第2手候補、20 車外風景識別部、21A 形状判定部、21B 検出判定部、22A 形状判定部、22B 位置判定部、30 誤認識識別部、40 映像取得部、90 処理回路、91 プロセッサ、92 メモリ、100 ジェスチャ認識装置、101 ジェスチャ認識装置、102 ジェスチャ認識装置、110 撮像装置、120 車載機器、130 通信装置、140 通信装置、300 サーバ、A 第1領域、B 第2領域、C 領域。

Claims (11)

  1. 車両の室内の映像に基づいて、前記映像における前記車両の乗員の手の候補である少なくとも1つの手候補を識別する手候補識別部と、
    手候補の形状に関する予め定められた条件に基づいて、前記少なくとも1つの手候補が前記車両の外部に存在する光源に起因する光源像に該当するか否かを判定する車外風景識別部と、
    前記光源像に該当しないと判定された手候補を、前記乗員のジェスチャにおける前記手として識別する誤認識識別部と、を備え、
    前記車外風景識別部は、前記手候補の前記形状に関する前記予め定められた条件を満たす前記手候補の周辺に、円弧パターン、リングパターンおよび多角形パターンのうち少なくとも1つのパターンが存在するか否かに基づいて、前記手候補が前記光源像に該当するか否かを判定する、ジェスチャ認識装置。
  2. 前記誤認識識別部は、前記光源像に該当すると判定された手候補を棄却する、請求項1に記載のジェスチャ認識装置。
  3. 車両の室内の映像に基づいて、前記映像における前記車両の乗員の手の候補である少なくとも1つの手候補を識別する手候補識別部と、
    手候補の形状に関する予め定められた条件に基づいて、前記少なくとも1つの手候補が前記車両の外部に存在する光源に起因する光源像に該当するか否かを判定する車外風景識別部と、
    前記光源像に該当しないと判定された手候補を、前記乗員のジェスチャにおける前記手として識別する誤認識識別部と、を備え、
    前記誤認識識別部は、前記光源像に該当すると判定された手候補を棄却し、
    前記手候補識別部は、前記少なくとも1つの手候補として、前記映像内の予め定められた第1領域における第1手候補と、前記映像内の予め定められた第2領域における第2手候補とを識別し、
    前記車外風景識別部は、
    前記手候補の前記形状に関する前記予め定められた条件に基づいて、前記第1手候補が前記光源像に該当するか否かを判定する形状判定部と、
    前記第2手候補が前記予め定められた第2領域に検出されたか否かを判定する検出判定部と、を含み、
    前記誤認識識別部は、
    前記形状判定部の判定結果と前記検出判定部の判定結果とに基づいて、前記光源像に該当すると判定された前記第1手候補を棄却する、ジェスチャ認識装置。
  4. 前記手候補の前記形状に関する前記予め定められた条件は、前記手候補の前記形状が1つの丸いパターンを有するか否か、または、前記手候補の前記形状が1つの丸いパターンと前記丸いパターンの周囲に放射状のパターンとを有するか否かである、請求項1から請求項3のうちのいずれか1項に記載のジェスチャ認識装置。
  5. 前記予め定められた第1領域は、前記映像における前記車両の運転席と助手席との間の領域を含み、
    前記予め定められた第2領域は、前記映像における前記車両のハンドルの少なくとも一部と、前記ハンドルから予め定められた距離以内の領域とを含む、請求項3に記載のジェスチャ認識装置。
  6. 前記予め定められた第1領域は、前記映像における前記車両の窓に対応する領域であり、
    前記予め定められた第2領域は、前記映像における前記車両のハンドルの少なくとも一部と、前記ハンドルから予め定められた距離以内の領域とを含む、請求項3に記載のジェスチャ認識装置。
  7. 前記手候補識別部は、前記少なくとも1つの手候補として、第1手候補と第2手候補とを識別し、
    前記車外風景識別部は、
    前記手候補の前記形状に関する前記予め定められた条件に基づいて、前記第1手候補が前記光源像に該当するか否かを判定する形状判定部と、
    前記第1手候補よりも前記車両のハンドルの近くに位置する前記第2手候補が検出されたか否かを判定する位置判定部と、を含み、
    前記誤認識識別部は、
    前記形状判定部の判定結果と前記位置判定部の判定結果とに基づいて、前記光源像に該当しないと判定された前記第1手候補を棄却する、請求項2に記載のジェスチャ認識装置。
  8. 前記手候補識別部は、前記映像のフレームごとに前記手候補を識別し、
    前記誤認識識別部は、前記手候補が前記光源像に該当しないと判定された場合であっても、予め定められた2以上の整数であるNフレーム連続で同一の形状を有する前記手候補が識別されない場合には、前記光源像に該当しないと判定された前記手候補を棄却する、請求項2または請求項3に記載のジェスチャ認識装置。
  9. 前記車外風景識別部は、前記映像のフレームごとに前記手候補が前記光源像に該当するか否かを判定し、
    前記誤認識識別部は、前記手候補が予め定められた2以上の整数であるMフレーム連続で前記光源像に該当すると判定された場合に、前記手候補を棄却する、請求項2または請求項3に記載のジェスチャ認識装置。
  10. 手候補識別部は、車両の室内の映像に基づいて、前記映像における前記車両の乗員の手の候補である少なくとも1つの手候補を識別し、
    車外風景識別部は、手候補の形状に関する予め定められた条件に基づいて、前記少なくとも1つの手候補が前記車両の外部に存在する光源に起因する光源像に該当するか否かを判定し、かつ、前記手候補の前記形状に関する前記予め定められた条件を満たす前記手候補の周辺に、円弧パターン、リングパターンおよび多角形パターンのうち少なくとも1つのパターンが存在するか否かに基づいて、前記手候補が前記光源像に該当するか否かを判定し、
    誤認識識別部は、前記光源像に該当しないと判定された手候補を、前記乗員のジェスチャにおける前記手として識別する、ジェスチャ認識方法。
  11. 手候補識別部は、車両の室内の映像に基づいて、前記映像における前記車両の乗員の手の候補である少なくとも1つの手候補として、前記映像内の予め定められた第1領域における第1手候補と、前記映像内の予め定められた第2領域における第2手候補とを識別し、
    車外風景識別部は、手候補の形状に関する予め定められた条件に基づいて、前記少なくとも1つの手候補が前記車両の外部に存在する光源に起因する光源像に該当するか否かを判定することとして、前記第1手候補が前記光源像に該当するか否かを判定する第1判定と、前記第2手候補が前記予め定められた第2領域に検出されたか否かを判定する第2判定とを行い
    誤認識識別部は、前記第1判定の結果と、前記第2判定の結果とに基づいて、前記光源像に該当すると判定された前記第1手候補を棄却し、前記光源像に該当しないと判定された手候補を、前記乗員のジェスチャにおける前記手として識別する、ジェスチャ認識方法。
JP2022573870A 2021-01-08 2021-01-08 ジェスチャ認識装置およびジェスチャ認識方法 Active JP7267517B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/000437 WO2022149251A1 (ja) 2021-01-08 2021-01-08 ジェスチャ認識装置およびジェスチャ認識方法

Publications (3)

Publication Number Publication Date
JPWO2022149251A1 JPWO2022149251A1 (ja) 2022-07-14
JPWO2022149251A5 JPWO2022149251A5 (ja) 2023-04-17
JP7267517B2 true JP7267517B2 (ja) 2023-05-01

Family

ID=82357831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022573870A Active JP7267517B2 (ja) 2021-01-08 2021-01-08 ジェスチャ認識装置およびジェスチャ認識方法

Country Status (3)

Country Link
US (1) US20240013575A1 (ja)
JP (1) JP7267517B2 (ja)
WO (1) WO2022149251A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037273A1 (ja) 2013-09-12 2015-03-19 三菱電機株式会社 操作入力装置及び方法、並びにプログラム及び記録媒体
WO2016185916A1 (ja) 2015-05-20 2016-11-24 コニカミノルタ株式会社 ウェアラブル電子機器、ウェアラブル電子機器のジェスチャー検知方法およびウェアラブル電子機器のジェスチャー検知プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015037273A1 (ja) 2013-09-12 2015-03-19 三菱電機株式会社 操作入力装置及び方法、並びにプログラム及び記録媒体
WO2016185916A1 (ja) 2015-05-20 2016-11-24 コニカミノルタ株式会社 ウェアラブル電子機器、ウェアラブル電子機器のジェスチャー検知方法およびウェアラブル電子機器のジェスチャー検知プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中村 雄大,映像情報メディア学会 2013年年次大会講演予稿集 [CD-ROM] 映像情報メディア学会 2013,2015年07月15日

Also Published As

Publication number Publication date
JPWO2022149251A1 (ja) 2022-07-14
US20240013575A1 (en) 2024-01-11
WO2022149251A1 (ja) 2022-07-14

Similar Documents

Publication Publication Date Title
JP6866440B2 (ja) 物体識別方法、装置、機器、車両及び媒体
US10943400B2 (en) Multimodal user interface for a vehicle
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP5228439B2 (ja) 操作入力装置
JP6611353B2 (ja) 画像処理装置、外界認識装置
JP6175430B2 (ja) 車両の周辺区域にある物体を認識する方法および装置
JP5423631B2 (ja) 画像認識装置
JP5866545B1 (ja) 表示制御装置および表示制御プログラム
JP2015180561A (ja) 表示制御装置、表示装置および表示制御プログラム
US10812745B2 (en) Bit depth reduction of image pixels
US10635278B2 (en) Apparatus and method for controlling display of vehicle, and vehicle system
WO2019016936A1 (ja) 操作支援装置および操作支援方法
US20200192466A1 (en) Virtual Human-Machine Interface System and Corresponding Virtual Human-Machine Interface Method for a Vehicle
US20200062173A1 (en) Notification control apparatus and method for controlling notification
KR20210024854A (ko) 영상을 증강하는 방법 및 장치
US20210331628A1 (en) A-pillar display device, a-pillar display method, and non-transitory medium
US10824240B2 (en) Gesture operation method based on depth values and system thereof
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP7267517B2 (ja) ジェスチャ認識装置およびジェスチャ認識方法
JP4151571B2 (ja) 車載用障害物検出装置
JP6413645B2 (ja) 操作入力装置
TW201800719A (zh) 物體辨識系統及辨識物體的方法
JP7289406B2 (ja) ジェスチャ検出装置およびジェスチャ検出方法
WO2021240668A1 (ja) ジェスチャ検出装置およびジェスチャ検出方法
US20230123623A1 (en) Gesture detecting apparatus and gesture detecting method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7267517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150