JP7051014B2 - 顔検出処理装置および顔検出処理方法 - Google Patents

顔検出処理装置および顔検出処理方法 Download PDF

Info

Publication number
JP7051014B2
JP7051014B2 JP2021530389A JP2021530389A JP7051014B2 JP 7051014 B2 JP7051014 B2 JP 7051014B2 JP 2021530389 A JP2021530389 A JP 2021530389A JP 2021530389 A JP2021530389 A JP 2021530389A JP 7051014 B2 JP7051014 B2 JP 7051014B2
Authority
JP
Japan
Prior art keywords
face
image
person
face detection
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021530389A
Other languages
English (en)
Other versions
JPWO2021005702A1 (ja
Inventor
翔悟 甫天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021005702A1 publication Critical patent/JPWO2021005702A1/ja
Application granted granted Critical
Publication of JP7051014B2 publication Critical patent/JP7051014B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、顔検出処理装置および顔検出処理方法に関する。
近年、開発が盛んであるドライバーモニタリングシステムは、部分的自動運転車両における車両から人間への運転主導権の委譲判断に必要な技術である。中でも、搭乗者の顔または顔のパーツの特徴部位を検出する処理は、ドライバーモニタリングシステムにおける要素技術である。特徴部位検出処理には、その判定精度だけでなく、計算量を削減して高速に処理することが求められている。
特許文献1に記載の車輌制御装置には、計算量を削減して処理速度を高速化する顔検出処理技術が開示されている。カメラが固定されている場合、ドライバーが動くことにより、顔の位置が画面の中心からずれることがある。しかし、その顔の位置は、通常ヘッドレストの位置にある。特許文献1の車輌制御装置は、予め撮影画面におけるヘッドレストの位置を把握することで、ドライバーの顔が存在する可能性の高い部分から顔を探索する。それにより、探索時間の短縮を実現している。
特開2005―205943号公報
顔検出対象の画像における探索領域の限定は、顔検出のための計算量を削減する。しかし、画像内に検出対象の人物と非検出対象の人物の2名が含まれる場合、顔検出装置が非検出対象の人物の顔を検出することがある。その場合、検出対象の人物の顔が、その後の探索領域から除外されるため、検出精度が低下する。
本発明は、以上のような課題を解決するためになされたものであり、顔検出装置が検出対象の人物の顔を正確に検出することを可能にする顔検出処理装置の提供を目的とする。
本発明に係る顔検出処理装置は、顔検出装置に対し画像を出力する。顔検出装置は、順次入力される画像の少なくとも一部の領域に設定される探索領域に写っている人物の顔を検出し、かつ、人物の顔の検出の成否に基づいて次に入力される画像における探索領域を変更する。顔検出処理装置は、妥当性判断部および画像挿入部を含む。妥当性判断部は、顔検出装置によって検出された人物の顔に関する予め定められた条件に基づいて、顔検出装置によって検出された人物の顔が、予め定められた検出対象の人物の顔であるか否かを判定する。画像挿入部は、妥当性判断部の判定結果に基づいて、探索領域における人物の顔の検出を顔検出装置に失敗させて探索領域を変更させるためのダミー画像を、画像として、顔検出装置に出力する。
本発明によれば、顔検出装置が検出対象の人物の顔を正確に検出することを可能にする顔検出処理装置が提供できる。
本発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによって、より明白になる。
実施の形態1における顔検出処理装置の構成を示すブロック図である。 顔検出処理装置が有する処理回路の構成の一例を示す図である。 顔検出処理装置が有する処理回路の構成の別の一例を示す図である。 実施の形態1における顔検出処理方法を示すフローチャートである。 実施の形態2における顔検出処理装置および顔検出処理システムの構成を示すブロック図である。 実施の形態2における顔検出処理方法を示すフローチャートである。 実施の形態2における画像取得装置によって撮像された画像の一例を示す図である。 実施の形態2における画像取得装置によって撮像された画像の一例を示す図である。 実施の形態3における顔検出処理方法を示すフローチャートである。 実施の形態3における模擬画像の一例を示す図である。 実施の形態3における画像取得装置によって撮像された画像の一例を示す図である。 実施の形態4における顔検出処理装置およびそれに関連して動作する装置の構成を示すブロック図である。
<実施の形態1>
図1は、実施の形態1における顔検出処理装置100の構成を示すブロック図である。
顔検出処理装置100は、画像に写っている人物の顔を検出する顔検出装置110に対し、顔検出装置110が顔の検出を行うための画像を出力する。その顔検出装置110は、順次入力される画像の少なくとも一部の領域に設定される探索領域に写っている人物の顔を検出する機能を有する。さらに、顔検出装置110は、その顔の検出の成否に基づいて次に入力される画像における探索領域を変更する機能を有する。
顔検出処理装置100は、妥当性判断部10と画像挿入部20とを含む。
妥当性判断部10は、顔検出装置110によって検出された人物の顔に関する予め定められた条件に基づいて、顔検出装置110によって検出された人物の顔が、予め定められた検出対象の人物の顔であるか否かを判定する。言い換えると、妥当性判断部10は、検出された人物の顔についての妥当性を判断する。予め定められた条件とは、例えば、画像内での顔の位置もしくは画像内での顔の特徴部位の位置に関する条件、画像内での顔の大きさに関する条件、または顔の特徴に関する条件である。または、予め定められた条件とは、例えば、人物が搭乗している車両の走行状態とその人物の顔の向きとの関係に関する条件であってもよい。
画像挿入部20は、妥当性判断部10の判定結果に基づいて、ダミー画像を顔検出装置110に出力する。ダミー画像とは、探索領域において前回検出された人物の顔の検出を顔検出装置110に失敗させて探索領域を変更させるための画像である。言い換えると、ダミー画像は、探索領域をリセットするための画像である。
顔検出装置110にダミー画像が入力された場合、顔検出装置110は、そのダミー画像において前回検出された人物の顔の検出に失敗する。顔検出装置110は、ダミー画像の次に入力される画像における探索領域を変更する。そして、顔検出装置110は、変更された探索領域における人物の顔を検出する。その変更された探索領域には、検出対象の人物の顔が含まれている可能性が高い。そのため、顔検出装置110は検出対象の人物の顔を正確に検出することができる。
図2は、顔検出処理装置100が有する処理回路90の構成の一例を示す図である。妥当性判断部10および画像挿入部20の各機能は、処理回路90により実現される。すなわち、処理回路90は、妥当性判断部10および画像挿入部20を有する。
処理回路90が専用のハードウェアである場合、処理回路90は、例えば、単一回路、複合回路、プログラム化されたプロセッサ、並列プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせた回路等である。妥当性判断部10および画像挿入部20の各機能は、複数の処理回路により個別に実現されてもよいし、1つの処理回路によりまとめて実現されてもよい。
図3は、顔検出処理装置100が有する処理回路の構成の別の一例を示す図である。処理回路は、プロセッサ91とメモリ92とを有する。プロセッサ91がメモリ92に格納されるプログラムを実行することにより、妥当性判断部10および画像挿入部20の各機能が実現される。例えば、プログラムとして記述されたソフトウェアまたはファームウェアがプロセッサ91により実行されることにより各機能が実現される。このように、顔検出処理装置100は、プログラムを格納するメモリ92と、そのプログラムを実行するプロセッサ91とを有する。
プログラムには、顔検出処理装置100が、顔検出装置110によって検出された人物の顔に関する予め定められた条件に基づいて、顔検出装置110によって検出された人物の顔が、その予め定められた検出対象の人物の顔であるか否かを判定し、判定結果に基づいて、探索領域における人物の顔の検出を顔検出装置110に失敗させて探索領域を変更させるためのダミー画像を顔検出装置110に出力する機能が記述されている。また、プログラムは、妥当性判断部10および画像挿入部20の手順または方法をコンピュータに実行させるものである。
プロセッサ91は、例えば、CPU(Central Processing Unit)、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等である。メモリ92は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の、不揮発性または揮発性の半導体メモリである。または、メモリ92は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等、今後使用されるあらゆる記憶媒体であってもよい。
上述した妥当性判断部10および画像挿入部20の各機能は、一部が専用のハードウェアによって実現され、他の一部がソフトウェアまたはファームウェアにより実現されてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現する。
図4は、実施の形態1における顔検出処理方法を示すフローチャートである。
ステップS1にて、妥当性判断部10は、顔検出装置110によって検出される人物の顔に関する予め定められた条件に基づいて、顔検出装置110によって検出された人物の顔が、予め定められた検出対象の人物の顔であるか否かを判定する。検出された人物の顔が、予め定められた検出対象の人物である場合、顔検出処理方法は終了する。検出された人物の顔が、予め定められた検出対象の人物の顔でない場合、ステップS2が実行される。
ステップS2にて、画像挿入部20は、ダミー画像を顔検出装置110に出力する。
顔検出装置110にダミー画像が入力された場合、顔検出装置110は、そのダミー画像において前回検出された人物の顔の検出に失敗する。顔検出装置110は、ダミー画像の次に入力される画像における探索領域を変更する。そして、顔検出装置110は、変更された探索領域における人物の顔を検出する。その変更された探索領域には、検出対象の人物の顔が含まれている可能性が高い。そのため、顔検出装置110は検出対象の人物の顔を正確に検出することができる。
以上をまとめると、実施の形態1における顔検出処理装置100は、顔検出装置110に対し、画像を出力する。顔検出装置110は、順次入力される画像の少なくとも一部の領域に設定される探索領域に写っている人物の顔を検出し、かつ、人物の顔の検出の成否に基づいて次に入力される画像における探索領域を変更する。顔検出処理装置100は、妥当性判断部10および画像挿入部20を含む。妥当性判断部10は、顔検出装置110によって検出される人物の顔に関する予め定められた条件に基づいて、顔検出装置110によって検出された人物の顔が、予め定められた検出対象の人物の顔であるか否かを判定する。画像挿入部20は、妥当性判断部10の判定結果に基づいて、ダミー画像を顔検出装置110に出力する。ダミー画像は、探索領域における人物の顔の検出を顔検出装置110に失敗させて探索領域を変更させるための画像である。
このような顔検出処理装置100は、顔検出装置110が検出対象の人物の顔を正確に検出することを可能にする。
また、実施の形態1における顔検出処理方法は、顔検出装置110に対し、画像を出力する。顔検出装置110は、順次入力される画像の少なくとも一部の領域に設定される探索領域に写っている人物の顔を検出し、かつ、人物の顔の検出の成否に基づいて次に入力される画像における探索領域を変更する。顔検出処理方法は、顔検出装置110によって検出される人物の顔に関する予め定められた条件に基づいて、顔検出装置110によって検出された人物の顔が、予め定められた検出対象の人物の顔であるか否かを判定し、その判定結果に基づいて、ダミー画像を顔検出装置110に出力する。ダミー画像は、探索領域における人物の顔の検出を顔検出装置110に失敗させて探索領域を変更させるための画像である。
このような顔検出処理方法は、顔検出装置110が検出対象の人物の顔を正確に検出することを可能にする。
<実施の形態2>
実施の形態2における顔検出処理装置および顔検出処理方法を説明する。実施の形態2は実施の形態1の下位概念であり、実施の形態2における顔検出処理装置は、実施の形態1における顔検出処理装置100の各構成を含む。なお、実施の形態1と同様の構成および動作については説明を省略する。
図5は、実施の形態2における顔検出処理装置101および顔検出処理システム200の構成を示すブロック図である。
顔検出処理システム200は、画像取得装置120、顔検出処理装置101および顔検出装置110を含む。顔検出処理装置101は、記憶部30、画像挿入部20および妥当性判断部10を含む。顔検出装置110は、特徴部位検出部111を含む。
画像取得装置120は、人物の顔を含む画像を順次取得する。画像取得装置120は、例えば、移動体に搭載されており、移動体の搭乗者の画像を取得するカメラである。移動体とは、車両、飛行機、鉄道、バス、バイク等である。搭乗者は、ドライバーを含む。移動体が車両である場合、カメラは、車内のセンターコンソール部など車内前方の中央部に設置され、ドライバーおよび助手席の搭乗者の両方を撮影する。そのカメラは、レンズ、絞り部、シャッター部およびイメージセンサを含む。
記憶部30は、画像取得装置120によって順次取得された画像を時系列データとして記憶する。さらに、記憶部30は、探索領域における人物の顔の検出を顔検出装置110に失敗させるためのダミー画像を記憶する。ダミー画像は、例えば、全画素の輝度が同じ均一画像である。実施の形態2における均一画像は、全画素の輝度が0の黒画像である。
画像挿入部20は、妥当性判断部10の判定結果に基づいて、ダミー画像もしくは画像取得装置120にて取得された画像を、記憶部30から読み込んで顔検出装置110に出力する。
妥当性判断部10は、顔検出装置110によって検出される人物の顔に関する予め定められた条件に基づいて、顔検出装置110によって検出された人物の顔が、予め定められた検出対象の人物の顔であるか否かを判定する。言い換えると、妥当性判断部10は、検出された人物の顔についての妥当性を判断する。
予め定められた条件は、例えば、画像内での顔の位置もしくは顔の特徴部位の位置に関する条件を含む。この場合、妥当性判断部10は、検出された人物の顔の位置または検出された顔の特徴部位の位置が、予め定められた範囲に含まれるか否かを判定する。予め定められた範囲は、検出対象の人物の顔の位置もしくは顔の特徴の位置を含む。
または、妥当性判断部10は、1つ前に入力された画像において検出された顔の位置と、その次に入力された画像において検出された顔の位置との変動量が、統計的に求められる検出対象の人物の動作範囲内であるか否かを判定してもよい。この場合、1つ前に入力された画像において検出された顔の位置は、検出対象の人物の顔の位置であることが前提である。移動体が車両であり、検出対象の人物がドライバーである場合、その動作範囲は、例えば、車内のシートレイアウトの情報と、ドライバーの体格情報とに基づいて、統計的に求められる。
予め定められた条件は、例えば、顔の大きさに関する条件を含む。この場合、妥当性判断部10は、検出された人物の顔の大きさが、予め定められた大きさの範囲に含まれるか否かを判定する。予め定められた大きさの範囲とは、例えば、画像内での検出対象の人物の平均的な顔の大きさに基づいて定められる。
または、妥当性判断部10は、1つ前に入力された画像において検出された顔の大きさと、その次に入力された画像において検出された顔の大きさとの変動量が、上記と同様に、統計的に求められる検出対象の人物の動作範囲内であるか否かを判定してもよい。この場合、1つ前に入力された画像において検出された顔の大きさは、検出対象の人物の顔の大きさであることが前提である。
予め定められた条件は、例えば、顔の特徴に関する条件を含む。この場合、妥当性判断部10は、検出された人物の顔の特徴が、予め登録されている検出対象の人物の顔の特徴と一致するか否かを判定する。
以上に示された予め定められた条件は、顔検出装置110によって検出された人物の顔と、予め定められた検出対象の人物の顔との関係についての条件であったが、妥当性の判断には、必ずしも、予め定められた検出対象の人物の顔の情報は必要ではない。その一例を次に示す。
予め定められた条件は、例えば、顔検出装置110によって検出された人物が搭乗している車両の走行状態と、その検出された人物の顔の向きとの関係に関する条件を含む。例えば、妥当性判断部10は、車両の進行方向とその検出された人物の顔の向きとが成す角度が、予め定められた角度範囲に含まれる場合、検出された人物の顔が検出対象の人物の顔であると判断する。この際、妥当性判断部は、車両の進行方向の情報として、車両の操舵角の情報を、車両の制御装置等から取得する。このように、妥当性判断部10は、予め定められた検出対象の人物の顔の情報は使用せず、車両の走行状態の情報と、顔検出装置110によって検出される人物の顔に関する情報とに関する予め定められた条件に基づいて、妥当性を判断している。
顔検出装置110によって検出された人物の顔が上記の予め定められた条件を満たす場合、妥当性判断部10は、検出対象の人物の顔が検出されたと判断する。検出対象の人物の顔が検出された場合、妥当性判断部10は、顔検出装置110による顔検出結果を外部に出力する。非検出対象の人物の顔が検出された場合、妥当性判断部10は、顔検出装置110による顔検出結果を棄却し、検出失敗を外部に出力する。
実施の形態2における顔検出処理装置101は、検出対象の人物の顔が検出されたか否かの判定結果に関するカウンタを有する。検出対象の人物の顔が検出された場合、または、顔検出装置110が人物の顔の検出自体に失敗した場合、顔検出処理装置101はカウンタをリセットする。一方で、時系列データにおいて連続して検出対象でない人物の顔が検出された場合、顔検出処理装置101はカウンタをカウントアップする。
特徴部位検出部111は、時系列データとして順次入力される画像の少なくとも一部の領域に設定される探索領域に写っている人物の顔を検出する。その際、特徴部位検出部111は、パターンマッチング処理によって、顔の検出または顔の特徴部位の検出を行う。特徴部位検出部111は、パターンマッチング処理として、例えば、複数の識別子の各々において、特定の角度の顔、または特定の顔の特徴部位の画像をモデルとして学習する。特徴部位検出部111は、学習モデルの画像と画像挿入部20から入力される画像との一致度を評価する。その評価結果に基づいて、特徴部位検出部111は、人物の顔、または特徴部位を検出する。
特徴部位検出部111は、画像挿入部20から入力される画像がダミー画像である場合であっても、探索領域においてパターンマッチング処理を行う。ただし、特徴部位検出部111は、ダミー画像における人物の顔の検出に失敗する。
また、特徴部位検出部111は、顔の検出の成否に基づいて、時系列データとして次に入力される画像における探索領域を変更する。例えば、特徴部位検出部111は、顔の検出に成功した場合、時系列データの時間間隔から予想される人物の移動量に基づいて、次に入力される画像における探索領域を設定する。例えば、時系列データが10fpsで構成される場合、各画像の時間間隔は100msecである。その時間間隔において、人間の顔が移動可能と予想される範囲が統計的に求められる。特徴部位検出部111は、その予想移動範囲と、前回の画像で検出された顔の位置からカメラまでの距離と、に基づいて推測される顔存在範囲を探索領域として設定する。なお、前回の画像で検出された顔の位置からカメラまでの距離は、前回の顔の検出結果から推定可能である。特徴部位検出部111は、前回の画像において検出された顔の位置に基づいて、その前回の探索領域を一定量拡大した新たな探索領域を設定してもよい。
一方で、特徴部位検出部111は、顔の検出に失敗した場合、次に入力される画像における全領域を探索領域に設定する。上述のとおり、画像挿入部20から入力される画像がダミー画像である場合、特徴部位検出部111は、人物の顔の検出に失敗する。したがって、ダミー画像の次に入力される画像における探索領域は、その入力された画像の全領域に設定される。
顔検出処理装置101は、図2または図3に示される処理回路を含み、上記の妥当性判断部10および画像挿入部20の機能は、その処理回路により実現される。また、記憶部30の機能は、例えば、図3に示されるメモリによって実現される。また、顔検出装置110も同様に、図2または図3に示される処理回路を含み、上記の特徴部位検出部111の機能は、その処理回路によって実現される。
次に顔検出処理装置101の動作を説明する。図6は、実施の形態2における顔検出処理方法を示すフローチャートである。図6にされるフローチャートは、時系列データ内の1つの画像に対して、顔検出処理システム200が顔の検出動作を実行する場合を示している。その開始時点では、画像取得装置120によって撮像された画像は、既に記憶部30に記憶されている。
ステップS10にて、画像挿入部20は、カウンタの値が予め定められた値以上であるか否かを判定する。カウンタの値が予め定められた値以上である場合、ステップS20が実行される。カウンタの値が予め定められた値未満である場合、ステップS30が実行される。
ステップS20にて、画像挿入部20は、記憶部30からダミー画像を読み込み、顔検出装置110の特徴部位検出部111に出力する。
ステップS30にて、画像挿入部20は、記憶部30から画像取得装置120で撮像された画像を顔検出装置110の特徴部位検出部111に出力する。この際、画像挿入部20は、時系列データを構成する画像のうち、前回、顔検出装置110に出力した画像の次の画像を特徴部位検出部111に出力する。
ステップS40にて、特徴部位検出部111は、前回、入力された画像における顔の検出の成否を判定する。顔の検出が成功していた場合、ステップS50が実行される。顔の検出が成功していなかった場合、ステップS60が実行される。
ステップS50にて、特徴部位検出部111は、前回の画像における顔の検出結果に基づいて、今回、画像挿入部20から入力された画像における探索領域を設定する。
ステップS60にて、特徴部位検出部111は、今回、画像挿入部20から入力された画像の全体を探索領域に設定する。
ステップS70にて、特徴部位検出部111は、パターンマッチング処理を用いて、設定された探索領域に写っている人物の顔を検出する。
ステップS80にて、妥当性判断部10は、顔検出装置110が人物の顔の検出に成功したか否かを判定する。顔検出装置110が人物の顔の検出に成功している場合、ステップS90が実行される。顔検出装置110が人物の顔の検出に失敗している場合、ステップS120が実行される。
ステップS90にて、妥当性判断部10は、顔検出装置110によって検出された人物の顔と、予め定められた条件とを比較し妥当性を確認する。例えば、妥当性判断部10は、検出された人物の顔の画像内での位置と、画像内の予め定められた範囲とを比較する。
ステップS100にて、妥当性判断部10は、顔検出装置110によって検出された人物の顔が、予め定められた条件を満たすか否かを判定する。言い換えると、妥当性判断部10は、顔の検出結果が妥当であるか否かを判定する。検出された人物の顔が、予め定められた条件を満たす、つまり検出結果が妥当である場合、ステップS120が実行される。検出された人物の顔が、予め定められた条件を満たさない、つまり検出結果が妥当でない場合、ステップS110が実行される。
ステップS110にて、顔検出処理装置101は、カウンタをカウントアップする。この状態は、顔検出装置110が人物の顔の検出には成功したものの、検出対象の人物の顔の検出には失敗している状態である。
ステップS120にて、顔検出処理装置101は、カウンタをリセットする。この状態は、顔検出装置110が検出対象の人物の顔の検出には成功した状態、または、顔検出装置110がそもそも人物の顔の検出に失敗した状態である。
以上で、顔検出処理方法は終了するが、上述したように、ステップS10からS120は、時系列データ内の1つの画像に対する処理である。したがって、実際には、ステップS110またはS120の後、次の画像に対する処理として、ステップS10が再び実行される。
次に、顔検出装置110がダミー画像によって探索領域をリセットする詳細な動作を、図6のフローチャートに基づいて説明する。ここでは、ステップS30から説明を開始する。また、ここでは、画像取得装置120は、車両に搭載され、車内の搭乗者を撮像するカメラであり、予め定められた検出対象の人物は、車両の搭乗者のうちのドライバーである。図7は、画像取得装置120によって撮像された画像の一例であって、画像挿入部20が特徴部位検出部111に出力した画像を示す図である。画像には、車両のドライバーを含む4人の搭乗者2が写っている。また、以下においては、顔検出装置110が図7の画像の1つ前の画像における顔の検出に成功している場合を説明する。
ステップS40にて、特徴部位検出部111は、前回の画像における顔の検出に成功したと判断する。次に、ステップS50が実行される。
ステップS50にて、特徴部位検出部111は、前回の画像における顔の検出結果に基づいて探索領域を設定する。ここでは、特徴部位検出部111は、図7に示されるように、車両の運転席に対応する画像の左側の領域に探索領域3を設定する。
ステップS70にて、特徴部位検出部111は、探索領域3に写っている人物の顔を検出する。図7に示されるように、探索領域3内には、ドライバーである前席の搭乗者2Aの顔の一部と、後方の座席の搭乗者2Bの顔の全部とが写っている。例えば、ドライバーが、運転の都合上、一時的に顔が探索領域3からはみ出るような姿勢をとった場合に、図7のような状態が得られる。この場合、後方の座席の搭乗者2Bの顔の全部が探索領域3に含まれるため、特徴部位検出部111は、後方の座席の搭乗者2Bの顔を優先して検出する。
ステップS80にて、妥当性判断部10は、特徴部位検出部111が顔の検出に成功したと判断する。ステップS90が実行される。
ステップS90にて、妥当性判断部10は、特徴部位検出部111によって検出された後方の座席の搭乗者2Bの顔の画像内での座標と、ドライバーの顔が存在すべき座標範囲とを比較し妥当性を確認する。
ステップS100にて、妥当性判断部10は、後方の座席の搭乗者2Bの顔の座標が、ドライバーの顔が存在すべき座標範囲内に含まれていないと判断する。すなわち、妥当性判断部10は、検出対象であるドライバーの顔の検出に失敗したと判断し、ステップS110が実行される。
ステップS110にて、顔検出処理装置101は、カウンタをカウントアップする。つづいて、ステップS10が実行される。
ステップS10にて、画像挿入部20は、カウンタの値が予め定められた値以上であるか否かを判定する。ここでは、カウンタの値が予め定められた値以上に達している場合を説明する。
ステップS20にて、画像挿入部20は、記憶部30からダミー画像を読み込み、顔検出装置110の特徴部位検出部111に出力する。ここでは、ダミー画像は、黒画像である。
ステップS40にて、特徴部位検出部111は、図7の画像つまり前回の画像において、後方の座席の搭乗者2Bの顔の検出に成功したと判断する。次に、ステップS50が実行される。
ステップS50にて、特徴部位検出部111は、図7の画像における顔の検出結果に基づいて、ダミー画像の左側の領域に探索領域3を設定する。
ステップS70にて、特徴部位検出部111は、ダミー画像における探索領域3に写っている人物の顔の検出を試みる。しかし、ダミー画像は黒画像であるため、特徴部位検出部111は、そのダミー画像における人物の顔の検出に失敗する。
ステップS80にて、妥当性判断部10は、特徴部位検出部111が顔の検出に失敗したと判断する。次に、ステップS120が実行される。
ステップS120にて、顔検出処理装置101は、カウンタをリセットする。再び、ステップS10が実行される。
ステップS10にて、画像挿入部20は、カウンタの値が予め定められた値以上であるか否かを判定する。カウンタの値は、リセットされたため、予め定められた値未満である。次に、ステップS30が実行される。
ステップS30にて、画像挿入部20は、記憶部30に記憶されている時系列データのうち、前回、顔検出装置110に出力された画像の次の画像を読み込み、顔検出装置110に出力する。なお、画像挿入部20は、記憶部30に記憶されている時系列データのうち、ダミー画像を読み込んだフレーム分だけ読み飛ばして次の画像を読み込んでもよい。図8は、画像取得装置120によって撮像された画像の一例であって、画像挿入部20が本ステップS30にて、特徴部位検出部111に出力した画像を示す図である。図8に示される画像は、図7に示される画像よりも後に、画像取得装置120によって撮像された画像である。
ステップS40にて、特徴部位検出部111は、前回のダミー画像における顔の検出に失敗したと判断する。次に、ステップS60が実行される。
ステップS60にて、特徴部位検出部111は、図8に示される画像の全体を探索領域3に設定する。
ステップS70にて、特徴部位検出部111は、探索領域3に写っている4人の搭乗者2の顔を検出する。
ステップS80にて、妥当性判断部10は、特徴部位検出部111が顔の検出に成功したと判断する。次に、ステップS90が実行される。
ステップS90にて、妥当性判断部10は、特徴部位検出部111によって検出された4人の搭乗者2の顔の画像内での座標と、ドライバーの顔が存在すべき座標範囲とを比較し妥当性を確認する。
ステップS100にて、妥当性判断部10は、4人の搭乗者2のうち前席の1人の搭乗者2Aの顔の座標が、ドライバーの顔が存在すべき座標範囲に含まれていると判断する。すなわち、妥当性判断部10は、検出対象であるドライバーの顔の検出に成功したと判断し、ステップS120が実行される。
ステップS120にて、顔検出処理装置101は、カウンタをリセットする。
このように、顔検出装置110は、原則として、探索領域3を限定して検出対象の人物の顔を検出する。そのため、顔の検出のための計算量が削減され、処理速度が向上する。また、顔検出装置110が非検出対象の人物の顔を検出した場合には、顔検出処理装置101は、その非検出対象の人物の顔検出結果を棄却し、ダミー画像を顔検出装置110に出力する。実施の形態2におけるダミー画像は、黒画像であることから、顔検出装置110は、その入力されたダミー画像における顔の検出に失敗する。そのため、顔検出装置110は、その後に入力される画像における探索領域3を変更する。顔検出装置110は、変更された探索領域3において顔の検出動作を行うため、予め定められた条件を満たす検出対象の人物の顔を検出することができる。実施の形態2の顔検出装置110および顔検出処理システム200は、顔検出装置110の顔の検出速度を向上させつつ、検出対象の人物の顔の検出精度をも向上させる。
実施の形態2における予め定められた条件とは、画像内での顔の位置もしくは画像内での顔の特徴部位の位置に関する条件、画像内での顔の大きさに関する条件、顔の特徴に関する条件、または、人物が搭乗している車両の走行状態と顔の向きとの関係に関する条件を含む。このような構成により、顔検出処理装置101は、様々条件下においても、顔検出装置110が検出対象の人物の顔を正確に検出することを可能にする。
実施の形態2においては、顔検出装置110の検出結果の妥当性についての判断処理を顔検出処理装置101が実行しているが、その判断処理を、顔検出装置110に組み込むことも可能である。しかし、その組み込みには、顔検出装置110の改造または新規設計が必要となる。一方で、実施の形態2における顔検出処理装置101は、既存の画像取得装置120および顔検出装置110に接続するだけで、上記の効果を奏する。すなわち、顔検出処理装置101は、既存の画像取得装置120および顔検出装置110の入出力のインターフェースを変更することなく、顔検出装置110が検出対象の人物の顔を正確に検出することを可能にする。
また、顔検出処理装置101および顔検出処理システム200は、移動体に搭載されたドライバーモニタリングシステムに組み込むことが可能である。例えば、ドライバーモニタリングシステムは、顔検出処理装置101が出力する検出結果に基づいて、ドライバーに対し、居眠り、脇見に関する警告を出力することができる。また、車両の運転を支援する運転支援装置や車両の自動運転を制御する自動運転制御装置が、ドライバーモニタリングシステムと連携している場合、顔検出処理装置101が出力する検出結果に基づいて、部分的自動運転車両における車両から人間への運転主導権の委譲判断を正確に行うことができる。例えば、ドライバーモニタリングシステムが取得した画像に後部座席の搭乗員の顔が写り込んでいる場合であっても、正確に検出されたドライバーの顔の状態に基づいて、運転主導権の委譲についての判断を下すことができる。また、顔検出処理装置101および顔検出処理システム200は、人物の顔に基づいて認証を行う個人認証システムにも組み込むことが可能である。個人認証システムは、顔検出処理装置101が出力する検出結果に基づいて、正確に個人認証をすることができる。
(実施の形態2の変形例1)
記憶部30は、ダミー画像として、加工画像を記憶していてもよい。加工画像とは、妥当性判断部10による妥当性が否定された人物の顔が塗りつぶされた画像である。例えば、加工画像とは、図7に示される後方の座席の搭乗者2Bの顔が塗りつぶされた画像である。
実施の形態2のステップS20において、画像挿入部20は、黒画像に代えて、加工画像を顔検出装置110の特徴部位検出部111に出力する。黒画像と同様に、ステップS70において、特徴部位検出部111は、探索領域3に写っている人物の顔の検出に失敗する。その他の処理は、実施の形態2と同様である。このような顔検出処理装置101も、実施の形態2と同様の効果を奏する。
(実施の形態2の変形例2)
記憶部30は、ダミー画像として、マスク画像を記憶していてもよい。マスク画像とは、画像取得装置120によって取得された画像に重ね合わせるための画像である。マスク画像は、妥当性判断部10による妥当性が否定された人物の顔に対応する画素を不透過にする。例えば、マスク画像を、図7に示される画像に重ね合わせることにより、後方の座席の搭乗者2Bの顔に対応する画素が透過せず、その顔が顔検出装置110によって検出されない状態が生成される。
実施の形態2のステップS20において、画像挿入部20は、黒画像に代えて、画像取得装置120にて取得された次の画像にマスク画像を重ね合わせた画像を出力してもよい。黒画像と同様に、ステップS70において、特徴部位検出部111は、探索領域3に写っている人物の顔の検出に失敗する。その他の処理は、実施の形態2と同様である。このような顔検出処理装置101も、実施の形態2と同様の効果を奏する。
<実施の形態3>
実施の形態3における顔検出処理装置101および顔検出処理方法を説明する。実施の形態3は実施の形態1の下位概念であり、実施の形態3における顔検出処理装置101は、実施の形態1における顔検出処理装置100の各構成を含む。なお、実施の形態1または2と同様の構成および動作については説明を省略する。
実施の形態3における顔検出処理装置101および顔検出処理システム200の構成は、図5に示されるブロック図と同様である。
実施の形態3における記憶部30は、ダミー画像として、黒画像および模擬画像を記憶している。模擬画像とは、予め定められた条件を満たし、かつ、予め定められた検出対象の人物が模擬されたダミーの人物の顔が描かれている画像である。例えば、検出対象の人物が車両のドライバーである場合、ダミーの人物の顔は、画像取得装置120によって取得される画像内でドライバーの顔が存在すべき範囲に描かれている。
図9は、実施の形態3における顔検出処理方法を示すフローチャートである。実施の形態2の図6に示されたフローチャートに、ステップS115およびステップS130が追加されている。図9のフローチャートに基づいて、顔検出装置110がダミー画像によって探索領域3をリセットする詳細な動作を説明する。特徴部位検出部111が、ダミー画像である黒画像の探索領域3に写っている人物の顔の検出に失敗するステップS70までは、実施の形態2と同様であるため、その説明は省略する。
ステップS80にて、妥当性判断部10は、特徴部位検出部111が顔の検出に失敗したと判断する。次に、ステップS115が実行される。
ステップS115にて、妥当性判断部10は、特徴部位検出部111に出力した画像はダミー画像であったか否かを判定する。ここでは、その画像はダミー画像であったため、ステップS130が実行される。
ステップS130にて、顔検出処理装置101は、カウンタをホールドする。再び、ステップS10が実行される。
ステップS10にて、画像挿入部20は、カウンタの値が予め定められた値以上であるか否かを判定する。ここでは、カウンタの値は、ホールドされているため、未だ予め定められた値以上に達している。そのため、ステップS20が実行される。
ステップS20にて、画像挿入部20は、記憶部30からダミー画像を読み込み、顔検出装置110の特徴部位検出部111に出力する。この際、画像挿入部20は、前回、ダミー画像として黒画像を読み込んだことを記憶している。画像挿入部20は、黒画像の次のダミー画像として、模擬画像を読み込んで、特徴部位検出部111に出力する。図10は、実施の形態3における模擬画像の一例を示す図である。模擬画像におけるダミーの搭乗者2Cの顔の位置は、ドライバーが運転席に着座し、正面を向いている場合のドライバーの顔の位置に対応する。
ステップS40にて、特徴部位検出部111は、前回の黒画像における顔の検出に失敗したと判断する。次に、ステップS60が実行される。
ステップS60にて、特徴部位検出部111は、図10に示される画像の全体を探索領域3に設定する。
ステップS70にて、特徴部位検出部111は、探索領域3に写っているダミーの搭乗者2Cの顔を検出する。
ステップS80にて、妥当性判断部10は、特徴部位検出部111が顔の検出に成功したと判断する。次に、ステップS90が実行される。
ステップS90にて、妥当性判断部10は、特徴部位検出部111によって検出されたダミーの搭乗者2Cの顔の画像内での座標と、ドライバーの顔が存在すべき座標範囲とを比較し、妥当性を確認する。
ステップS100にて、妥当性判断部10は、ダミーの搭乗者2Cの顔の座標が、ドライバーの顔が存在すべき座標範囲に含まれていると判断する。すなわち、妥当性判断部10は、検出対象であるドライバーの顔の検出に成功したと判断し、ステップS120が実行される。
ステップS120にて、顔検出処理装置101は、カウンタをリセットする。再び、ステップS10が実行される。
ステップS10にて、画像挿入部20は、カウンタの値が予め定められた値以上であるか否かを判定する。カウンタの値は、リセットされたため、予め定められた値未満である。次に、ステップS30が実行される。
ステップS30にて、画像挿入部20は、記憶部30に記憶されている時系列データのうち、前回、顔検出装置110に出力された画像の次の画像を読み込み、顔検出装置110に出力する。図11は、画像取得装置120によって撮像された画像の一例であって、画像挿入部20が本ステップS30において、特徴部位検出部111に出力した画像を示す図である。
ステップS40にて、特徴部位検出部111は、前回の模擬画像における顔の検出に成功したと判断する。次に、ステップS50が実行される。
ステップS50にて、特徴部位検出部111は、前回の模擬画像における顔の検出結果に基づいて探索領域3を設定する。ここでは、特徴部位検出部111は、図11の画像において、図10に示されるダミーの搭乗者2Cの顔に対応する領域に探索領域3を設定する。
ステップS70にて、特徴部位検出部111は、探索領域3に写っている搭乗者2の顔を検出する。図11に示されるように、探索領域3内には、前席の搭乗者2Aの顔の全部と、後方の座席の搭乗者2Bの顔の一部とが写っている。この場合、前席の搭乗者2Aの顔の全部が探索領域3に含まれるため、特徴部位検出部111は、前席の搭乗者2Aの顔を優先して検出する。
ステップS80にて、妥当性判断部10は、特徴部位検出部111が顔の検出に成功したと判断する。ステップS90が実行される。
ステップS90にて、妥当性判断部10は、特徴部位検出部111によって検出された前席の搭乗者2Aの顔の画像内での座標と、ドライバーの顔が存在すべき座標範囲とを比較し妥当性を確認する。
ステップS100にて、妥当性判断部10は、前席の搭乗者2Aの顔の座標が、ドライバーの顔が存在すべき座標範囲に含まれていると判断する。すなわち、妥当性判断部10は、検出対象であるドライバーの顔の検出に成功したと判断し、ステップS120が実行される。
ステップS120にて、顔検出処理装置101は、カウンタをリセットする。
このように、実施の形態3におけるダミー画像は、黒画像およびダミーの人物の顔が描かれた模擬画像である。顔検出装置110は、ダミー画像における顔の検出に失敗した後、模擬画像によって適正な探索領域に変更する。顔検出装置110は、その適正に変更された探索領域3において顔の検出動作を行うため、予め定められた条件を満たす検出対象の人物の顔を検出することができる。実施の形態3の顔検出装置110および顔検出処理システム200は、顔検出装置110の顔の検出速度を向上させつつ、検出対象の人物の顔の検出精度をも向上させる。
<実施の形態4>
以上の各実施の形態に示された顔検出処理装置は、ナビゲーション装置と、通信端末と、サーバと、これらにインストールされるアプリケーションの機能とを適宜に組み合わせて構築されるシステムにも適用することができる。ここで、ナビゲーション装置とは、例えば、PND(Portable Navigation Device)などを含む。通信端末とは、例えば、携帯電話、スマートフォンおよびタブレットなどの携帯端末を含む。
図12は、実施の形態4における顔検出処理装置100およびそれに関連して動作する装置の構成を示すブロック図である。
顔検出処理装置100、顔検出装置110および通信装置130がサーバ300に設けられている。顔検出処理装置100は、車両1に設けられた画像取得装置120から通信装置140および通信装置130を介して車両1の内部の画像を取得する。顔検出処理装置100は、顔検出装置110によって検出された人物の顔が、予め定められた条件を満たすか否かを判定する。顔検出処理装置100は、判定結果に基づいて、ダミー画像または画像取得装置120から取得した画像を顔検出装置110に出力する。また、顔検出処理装置100は、顔検出装置110による顔の検出結果を、車両1に設けられた制御装置150に、各通信装置を介して出力する。制御装置150は、その検出結果に基づいて、報知や車両1の運転支援を行う。
このように、顔検出処理装置100がサーバ300に配置されることにより、車載装置の構成を簡素化することができる。
また、顔検出処理装置100の機能あるいは構成要素の一部がサーバ300に設けられ、他の一部が車両1に設けられるなど、分散して配置されてもよい。
なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
本発明は詳細に説明されたが、上記した説明は、全ての局面において、例示であって、本発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
2 搭乗者、2A 前席の搭乗者、2B 後方の座席の搭乗者、3 探索領域、10 妥当性判断部、20 画像挿入部、30 記憶部、100 顔検出処理装置、101 顔検出処理装置、110 顔検出装置、111 特徴部位検出部、120 画像取得装置、200 顔検出処理システム。

Claims (5)

  1. 順次入力される画像の少なくとも一部の領域に設定される探索領域に写っている人物の顔を検出し、かつ、前記人物の前記顔の検出の成否に基づいて次に入力される画像における前記探索領域を変更する顔検出装置に対し、前記画像を出力する顔検出処理装置であって、
    前記顔検出装置によって検出された前記人物の前記顔に関する予め定められた条件に基づいて、前記顔検出装置によって検出された前記人物の前記顔が、予め定められた検出対象の人物の顔であるか否かを判定する妥当性判断部と、
    前記妥当性判断部の判定結果に基づいて、前記探索領域における前記人物の前記顔の前記検出を前記顔検出装置に失敗させて前記探索領域を変更させるためのダミー画像を、前記画像として、前記顔検出装置に出力する画像挿入部と、を備える顔検出処理装置。
  2. 前記ダミー画像は、全画素の輝度が同じ均一画像である、請求項1に記載の顔検出処理装置。
  3. 前記ダミー画像は、前記予め定められた条件を満たし、かつ、前記予め定められた検出対象の前記人物が模擬されたダミーの人物の顔が描かれた模擬画像である、請求項1に記載の顔検出処理装置。
  4. 前記予め定められた条件とは、前記画像内での前記顔の位置もしくは前記画像内での前記顔の特徴部位の位置に関する条件、前記画像内での前記顔の大きさに関する条件、前記顔の特徴に関する条件、または、前記人物が搭乗している車両の走行状態と前記顔の向きとの関係に関する条件を含む、請求項1に記載の顔検出処理装置。
  5. 順次入力される画像の少なくとも一部の領域に設定される探索領域に写っている人物の顔を検出し、かつ、前記人物の前記顔の検出の成否に基づいて次に入力される画像における前記探索領域を変更する顔検出装置に対し、前記画像を出力する顔検出処理方法であって、
    妥当性判断部が、前記顔検出装置によって検出された前記人物の前記顔に関する予め定められた条件に基づいて、前記顔検出装置によって検出された前記人物の前記顔が、予め定められた検出対象の人物の顔であるか否かを判定し、
    画像挿入部が、前記妥当性判断部の判定結果に基づいて、前記探索領域における前記人物の前記顔の前記検出を前記顔検出装置に失敗させて前記探索領域を変更させるためのダミー画像を、前記画像として、前記顔検出装置に出力する、顔検出処理方法。
JP2021530389A 2019-07-09 2019-07-09 顔検出処理装置および顔検出処理方法 Active JP7051014B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/027103 WO2021005702A1 (ja) 2019-07-09 2019-07-09 顔検出処理装置および顔検出処理方法

Publications (2)

Publication Number Publication Date
JPWO2021005702A1 JPWO2021005702A1 (ja) 2021-10-14
JP7051014B2 true JP7051014B2 (ja) 2022-04-08

Family

ID=74114457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021530389A Active JP7051014B2 (ja) 2019-07-09 2019-07-09 顔検出処理装置および顔検出処理方法

Country Status (3)

Country Link
JP (1) JP7051014B2 (ja)
DE (1) DE112019007033T5 (ja)
WO (1) WO2021005702A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024122476A1 (ja) * 2022-12-06 2024-06-13 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026146A (ja) 2007-07-20 2009-02-05 Canon Inc 画像処理装置及び画像処理方法
JP2011138388A (ja) 2009-12-28 2011-07-14 Canon Inc データ補正装置及び方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026146A (ja) 2007-07-20 2009-02-05 Canon Inc 画像処理装置及び画像処理方法
JP2011138388A (ja) 2009-12-28 2011-07-14 Canon Inc データ補正装置及び方法

Also Published As

Publication number Publication date
JPWO2021005702A1 (ja) 2021-10-14
WO2021005702A1 (ja) 2021-01-14
DE112019007033T5 (de) 2021-12-09

Similar Documents

Publication Publication Date Title
US11461595B2 (en) Image processing apparatus and external environment recognition apparatus
EP3357793A1 (en) Parking assist apparatus
WO2016117401A1 (ja) 車載用カメラ装置
US20200034982A1 (en) Information processing system, storing medium storing program, and information processing device controlling method
JP2001028746A (ja) フェールセーフ機能を有する車外監視装置
JP7051014B2 (ja) 顔検出処理装置および顔検出処理方法
WO2019068699A1 (en) METHOD FOR CLASSIFYING AN OBJECT POINT AS STATIC OR DYNAMIC, DRIVER ASSISTANCE SYSTEM, AND MOTOR VEHICLE
JP7109649B2 (ja) 覚醒度推定装置、自動運転支援装置および覚醒度推定方法
JP2022143854A (ja) 乗員状態判定装置および乗員状態判定方法
CN113784875B (zh) 相机位置检测装置和方法、相机单元以及存储介质
JP7302534B2 (ja) 状態判定装置および状態判定方法
US11440407B2 (en) Non-contact operating apparatus for vehicle and vehicle
JP2016030478A (ja) 車内情報処理装置、車内情報処理方法、プログラム、及びカメラ
JP2018101898A (ja) 画像処理装置及び画像処理方法
JP6847323B2 (ja) 視線検出装置および視線検出方法
WO2021240668A1 (ja) ジェスチャ検出装置およびジェスチャ検出方法
US20230306707A1 (en) Around view monitoring system and the method thereof
JP2019074965A (ja) 運転不能状態検出装置及び運転不能状態検出システム
JP2019205032A (ja) 車載用故障検出装置、及び故障検出方法
JP2019031264A (ja) 情報処理方法、情報処理システム、および、プログラム
JP2019074964A (ja) 運転不能状態予測装置及び運転不能状態予測システム
JP7567303B2 (ja) オブジェクト認識制御装置およびオブジェクト認識制御方法
JP2019008688A (ja) 駐車支援装置、駐車支援システム、駐車支援方法及びプログラム
KR20230096530A (ko) 주행 제어 장치 및 방법
EP3315366B1 (en) Imaging and display device for vehicle and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210616

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7051014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350