JP7435298B2 - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
JP7435298B2
JP7435298B2 JP2020106754A JP2020106754A JP7435298B2 JP 7435298 B2 JP7435298 B2 JP 7435298B2 JP 2020106754 A JP2020106754 A JP 2020106754A JP 2020106754 A JP2020106754 A JP 2020106754A JP 7435298 B2 JP7435298 B2 JP 7435298B2
Authority
JP
Japan
Prior art keywords
area
motion
detection
region
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020106754A
Other languages
English (en)
Other versions
JP2022002019A (ja
Inventor
真也 阪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2020106754A priority Critical patent/JP7435298B2/ja
Priority to PCT/JP2021/019505 priority patent/WO2021261141A1/ja
Publication of JP2022002019A publication Critical patent/JP2022002019A/ja
Application granted granted Critical
Publication of JP7435298B2 publication Critical patent/JP7435298B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像された画像から物体の領域を検出する技術に関する。
物体検出や動き検出に関する従来技術として、様々な技術が提案されている。例えば、特許文献1では、顔検出に関する技術が提案されている。
特開2006-293720号公報
しかしながら、従来の物体検出では、検出された領域が物体の領域に対して大きすぎたり、小さすぎたりすることがある。つまり、物体の領域を高精度に検出することができない。大きすぎることだけでなく、小さすぎることもあるため、検出された領域のサイズを所定の倍率で変更(常に拡大または常に縮小)するのは適切ではない。動き検出でも、1つの動体に対して、動きのある領域として、複数の領域が検出されることがある(1つの動体の領域が複数に分裂して検出されることがある)。つまり、動体の領域を高精度に検出することができない。
そして、物体(動体を含む)の領域が正確に検出されない場合には、当該領域に基づく他の処理を好適に行えないことがある。
本発明は上記実情に鑑みなされたものであって、物体の領域を高精度に検出することのできる技術を提供することを目的とする。
上記目的を達成するために本発明は、以下の構成を採用する。
本発明の第一側面は、撮像された画像から、物体の領域である物体領域を検出する物体検出手段と、前記画像のうち、前記物体検出手段により検出された前記物体領域から、動きのある領域である動き領域を検出する検出手段と、前記検出手段により検出された前記動き領域に基づいて、前記物体領域を補正する補正手段とを有することを特徴とする物体検出装置を提供する。物体は、例えば、乗り物(車や飛行機など)、自然物(木や花、山など)、人体、顔などである。動き領域は、例えば、動き画素(動きのある画素)のみからなる領域や、動き画素のみからなる領域を含む最小の矩形領域などである。
検出された物体領域が大きすぎる場合に、検出された物体領域よりも、その中で検出された動き領域のほうが、真の物体領域を正確に表す。上述した構成によれば、物体領域から検出された動き領域に基づいて当該物体領域が補正されるため、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。ひいては、物体領域に基づく他の処理(AEやAF、誤検出された領域の排除など)を好適に行うことができる。
検出された物体領域から複数の動き領域が検出された場合には、各動き領域が同じ物体の一部である可能性が高い。このため、前記検出手段が複数の動き領域を検出した場合に、前記補正手段は、前記複数の動き領域を含む最小の領域に基づいて、前記物体領域を補
正するとしてもよい。こうすることで、複数の動き領域が検出された場合においても、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。
前記検出手段は、前記画像から動き領域を検出する動き検出手段と、前記動き検出手段の検出結果から、前記物体領域に位置する動き領域を選択する選択手段とを有し、前記補正手段は、前記選択手段により選択された前記動き領域に基づいて、前記物体領域を補正するとしてもよい。このとき、前記選択手段は、中心位置が前記物体領域に含まれた動き領域を選択するとしてもよい。前記選択手段は、全体が前記物体領域に含まれた動き領域を選択するとしてもよい。
小さい動き領域は、ノイズなどを誤検出した領域である可能性が高い。このため、前記補正手段は、前記検出手段により検出された、サイズが閾値以上である動き領域に基づいて、前記物体領域を補正するとしてもよい。こうすることで、物体領域の誤った補正を抑制することができる。ここで、サイズが閾値未満の動き領域を検出手段が検出しないようにしてもよいし、サイズが閾値未満の動き領域を補正手段が使用しないようにしてもよい。動き領域のサイズは、動き領域全体のサイズ(動き領域の全画素数)であってもよいし、動き画素の数などであってもよい。
前記検出手段は、背景差分法により前記動き領域を検出するとしてもよい。背景差分法は、例えば、撮像された画像のうち、所定の背景画像との画素値の差分(絶対値)が所定の閾値以上の画素を、動き画素として検出する方法である。
前記検出手段は、フレーム間差分法により前記動き領域を検出するとしてもよい。フレーム間差分法は、例えば、撮像された現在の画像(現在のフレーム)のうち、撮像された過去の画像(過去のフレーム)との画素値の差分が所定の閾値以上の画素を、動き画素として検出する方法である。
前記検出手段は、前記物体領域とその周辺の領域とからなる領域から、前記動き領域を検出するとしてもよい。こうすることで、検出された物体領域が小さすぎる場合にも、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。ここで、周辺の領域は、例えば、検出された物体領域を所定倍に拡大した領域から当該物体領域を除いた領域や、検出された物体領域の縁から所定画素数だけ外側の位置までの領域などである。
前記物体は人体であるとしてもよい。
本発明の第二側面は、撮像された画像から、物体の領域である物体領域を検出する物体検出ステップと、前記画像のうち、前記物体検出ステップにおいて検出された前記物体領域から、動きのある領域である動き領域を検出する検出ステップと、前記検出ステップにおいて検出された前記動き領域に基づいて、前記物体領域を補正する補正ステップとを有することを特徴とする物体検出方法を提供する。
なお、本発明は、上記構成ないし機能の少なくとも一部を有する物体検出システムとして捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、物体検出方法又は物体検出システムの制御方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
本発明によれば、物体の領域を高精度に検出することができる。
図1は、本発明が適用された物体検出装置の構成例を示すブロック図である。 図2(A)は、本発明の実施形態に係る物体検出システムの大まかな構成例を示す模式図であり、図2(B)は、当該実施形態に係るPC(物体検出装置)の構成例を示すブロック図である。 図3は、本発明の実施形態に係るPCの処理フロー例を示すフローチャートである。 図4は、本発明の実施形態に係る動作の具体例を示す図である。 図5は、本発明の実施形態に係る動作の具体例を示す図である。 図6は、本発明の実施形態に係る動作の具体例を示す図である。
<適用例>
本発明の適用例について説明する。
従来の物体検出では、検出された領域が物体の領域に対して大きすぎたり、小さすぎたりすることがある。つまり、物体の領域を高精度に検出することができない。大きすぎることだけでなく、小さすぎることもあるため、検出された領域のサイズを所定の倍率で変更(常に拡大または常に縮小)するのは適切ではない。動き検出でも、1つの動体に対して、動きのある領域として、複数の領域が検出されることがある(1つの動体の領域が複数に分裂して検出されることがある)。つまり、動体の領域を高精度に検出することができない。
そして、物体(動体を含む)の領域が正確に検出されない場合には、当該領域に基づく他の処理を好適に行えないことがある。例えば、検出された領域に物体の背景が多く含まれている場合には、AE(自動露出)において、背景に適した露出に制御されるなどし、物体に適した露出に制御されないことがある。同様に、AF(オートフォーカス)において、背景に合焦されるなどし、物体に合焦されないことがある。また、大きすぎる領域や、小さすぎる領域などを、誤検出された領域として排除する処理において、物体に対応する領域が意図に反して排除されることがある。
図1は、本発明が適用された物体検出装置100の構成例を示すブロック図である。物体検出装置100は、物体検出部101、検出部102、及び、補正部103を有する。物体検出部101は、撮像された画像から、物体の領域である物体領域を検出する。検出部102は、撮像された画像のうち、物体検出部101により検出された物体領域から、動きのある領域である動き領域を検出する。補正部103は、物体検出部101により検出された物体領域を、検出部102により検出された動き領域に基づいて補正する。物体検出部101は本発明の物体検出手段の一例であり、検出部102は本発明の検出手段の一例であり、補正部103は本発明の補正手段の一例である。ここで、物体は、例えば、乗り物(車や飛行機など)、自然物(木や花、山など)、人体、顔などである。動き領域は、例えば、動き画素(動きのある画素)のみからなる領域や、動き画素のみからなる領域を含む最小の矩形領域などである。
検出された物体領域が大きすぎる場合に、検出された物体領域よりも、その中で検出された動き領域のほうが、真の物体領域を正確に表す。上述した構成によれば、物体領域から検出された動き領域に基づいて当該物体領域が補正されるため、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。ひいては、物体領域に基
づく他の処理(AEやAF、誤検出された領域の排除など)を好適に行うことができる。
<実施形態>
本発明の実施形態について説明する。
図2(A)は、本実施形態に係る物体検出システムの大まかな構成例を示す模式図である。本実施形態に係る物体検出システムは、カメラ10と、PC200(パーソナルコンピュータ;物体検出装置)とを有する。カメラ10とPC200は有線または無線で互いに接続されている。カメラ10は、画像を撮像してPC200へ出力する。カメラ10は特に限定されず、例えば、自然光を検知するカメラ、距離を測定するカメラ(例えばステレオカメラ)、温度を測定するカメラ(例えば、赤外光(IR(Infrared Ray)光)を検知するIRカメラ)などのいずれであってもよい。撮像された画像も特に限定されず、例えば、RGB画像、HSV画像、グレースケール画像などのいずれであってもよい。PC200は、カメラ10で撮像された画像から物体を検出する。PC200は、物体の検出結果(物体の有無、物体が検出された領域など)を表示部に表示したり、物体の検出結果を記憶媒体に記録したり、物体の検出結果を他の端末(遠隔地にいる管理者のスマートフォンなど)へ出力したりする。
なお、本実施形態ではPC10がカメラ10とは別体の装置であるものとするが、PC200はカメラ10に内蔵されてもよい。上述した表示部や記憶媒体は、PC200の一部であってもよいし、そうでなくてもよい。また、PC200の設置場所は特に限定されない。例えば、PC200はカメラ10と同じ部屋に設置されてもよいし、そうでなくてもよい。PC200はクラウド上のコンピュータであってもよいし、そうでなくてもよい。PC200は、管理者に携帯されるスマートフォンなどの端末であってもよい。
図2(B)は、PC200の構成例を示すブロック図である。PC200は、入力部210、制御部220、記憶部230、及び、出力部240を有する。
本実施形態では、カメラ10が動画を撮像するとする。入力部210は、撮像された画像(動画のフレーム)をカメラ10から取得して制御部220へ出力する処理を、順次行う。なお、カメラ10は静止画の撮像を順次行うものであってもよく、その場合は、入力部210は、撮像された静止画をカメラ10から取得して制御部220へ出力する処理を、順次行う。
制御部220は、CPU(Central Processing Unit)やRAM(Random Access Memory)、ROM(Read Only Memory)などを含み、各構成要素の制御や、各種情報処理などを行う。本実施形態では、制御部220は、撮像された画像から物体を検出し、物体の検出結果(物体の有無、物体が検出された領域など)を出力部240へ出力する。
記憶部230は、制御部220で実行されるプログラムや、制御部220で使用される各種データなどを記憶する。例えば、記憶部230は、ハードディスクドライブ、ソリッドステートドライブ、等の補助記憶装置である。
出力部240は、制御部220により出力された検出結果(物体の検出結果)を、表示部に表示したり、記憶媒体に記録したり、他の端末(遠隔地にいる管理者のスマートフォンなど)へ出力したりする。
制御部220について、より詳細に説明する。制御部220は、物体検出部221、検出部222、及び、補正部223を有する。
物体検出部221は、カメラ10により撮像された画像を入力部210から取得し、取得した画像から、物体の領域である物体領域を検出する。そして、物体検出部221は、物体領域の検出結果を、検出部222へ出力する。物体検出部221により検出された物体領域は、真の物体領域に対して大きすぎたり、小さすぎたりすることがある。物体検出部221は本発明の物体検出手段の一例である。
なお、物体検出部221による物体検出にはどのようなアルゴリズムを用いてもよい。例えば、HoGやHaar-likeなどの画像特徴とブースティングを組み合わせた検出器(識別器)を用いて物体領域を検出してもよい。既存の機械学習により生成された学習済みモデルを用いて物体領域を検出してもよく、具体的にはディープラーニング(例えば、R-CNN、Fast R-CNN、YOLO、SSDなど)により生成された学習済みモデルを用いて物体領域を検出してもよい。
検出部222は、カメラ10により撮像された画像を入力部210から取得し、物体領域の検出結果を物体検出部221から取得する。検出部222は、取得した画像のうち、物体検出部221により検出された物体領域から、動きのある領域である動き領域を検出する。そして、検出部222は、動き領域の検出結果を、補正部223へ出力する。検出部222は本発明の検出手段の一例である。
なお、検出部222による動き検出にはどのようなアルゴリズムを用いてもよい。例えば、検出部222は、背景差分法により動き領域を検出してもよいし、フレーム間差分法により動き領域を検出してもよい。背景差分法は、例えば、撮像された画像のうち、所定の背景画像との画素値の差分(絶対値)が所定の閾値以上の画素を、動き画素として検出する方法である。フレーム間差分法は、例えば、撮像された現在の画像(現在のフレーム)のうち、撮像された過去の画像(過去のフレーム)との画素値の差分が所定の閾値以上の画素を、動き画素として検出する方法である。フレーム間差分法において、例えば、過去のフレームは、現在のフレームの所定数前のフレームであり、所定数は1以上である。所定数(現在のフレームから過去のフレームまでのフレーム数)は、制御部220の処理(物体領域を検出し補正する処理)のフレームレートや、カメラ10による撮像のフレームレートなどに応じて決定されてもよい。
また、上述したように、動き領域は、動き画素(動きのある画素)のみからなる領域であってもよいし、動き画素のみからなる領域を含む最小の矩形領域であってもよい。例えば、検出部222は、動き画素のみからなる領域に外接する矩形状の輪郭を検出し、当該輪郭を有する領域を、動き領域として検出してもよい。この方法によれば、動き画素のみからなる領域を含む最小の矩形領域が、動き領域として検出される。検出部222は、ラベリングにより動き領域を検出してもよい。ラベリングでは、撮像された画像の各動き画素が注目画素として選択される。そして、ラベル(動き領域の番号)が付与された動き画素が注目画素の周囲に存在する場合に、当該動き画素と同じラベルが注目画素に付与される。ラベルが付与された動き画素が注目画素の周囲に存在しない場合には、新たなラベルが注目画素に付与される。この方法によれば、動き画素のみからなる領域が、動き領域として検出される。なお、ラベリングにおいて参照される動き画素(注目画素の周囲の動き画素)は特に限定されない。例えば、注目画素に隣接する8画素が参照されてもよいし、注目画素から2画素分離れた18画素が参照されてもよい。
補正部223は、検出部222の検出結果に基づいて、物体検出部221により検出された物体領域を補正する。そして、補正部223は、物体の検出結果として、補正後の物体領域の情報を出力部240へ出力する。補正部223は本発明の補正手段の一例である。
例えば、検出された物体領域が大きすぎる場合に、検出された物体領域よりも、その中で検出された動き領域のほうが、真の物体領域を正確に表す。このため、検出部222が1つ動き領域を検出した場合に、補正部223は、物体検出部221により検出された物体領域を、動き領域に基づいて補正する。こうすることで、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。
また、検出された物体領域から複数の動き領域が検出された場合には、各動き領域が同じ物体の一部である可能性が高い。このため、検出部222が複数の動き領域を検出した場合に、補正部223は、物体検出部221により検出された物体領域を、複数の動き領域を含む最小の領域に基づいて補正する。こうすることで、複数の動き領域が検出された場合においても、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。なお、補正後の物体領域の形状は所定の形状(矩形など)であってもよいし、そうでなくてもよい。
検出部222について、より詳細に説明する。検出部222は、動き検出部222-1と選択部222-2を有する。
動き検出部222-1は、カメラ10により撮像された画像を入力部210から取得し、取得した画像から動き領域を検出する。そして、動き検出部222-1は、動き領域の検出結果を、選択部222-2へ出力する。動き検出部222-1は、取得した画像の全体から動き領域を検出してもよいし、取得した画像の一部(所定の領域)から動き領域を検出してもよい。上述したように、動き検出部222-1による動き検出にはどのようなアルゴリズムを用いてもよい。動き検出部222-1は本発明の動き検出手段の一例である。
選択部222-2は、動き領域の検出結果を動き検出部222-1から取得し、物体領域の検出結果を物体検出部221から取得する。選択部222-2は、動き検出部222-1により検出された1つ以上の動き領域から、物体検出部221により検出された物体領域に位置する動き領域を選択する。動き領域の選択方法は特に限定されず、例えば、選択部222-2は、中心位置が物体領域に含まれた動き領域を選択してもよいし、全体が物体領域に含まれた動き領域を選択してもよい。そして、選択部222-2は、動き領域の選択結果を、検出部222による動き領域の検出結果として、補正部223へ出力する。選択部222-2は本発明の選択手段の一例である。
図3は、PC200の処理フロー例を示すフローチャートである。PC200は、図3の処理フローを繰り返し実行する。図3の処理フローの繰り返し周期は特に限定されないが、本実施形態では、カメラ10による撮像のフレームレート(例えば30fps)で図3の処理フローが繰り返されるとする。
まず、入力部210は、撮像された画像をカメラ10から取得する(ステップS301)。図4は、カメラ10により撮像された画像400の一例を示す。画像400には、人体410が写っている。
次に、物体検出部221は、ステップS301で取得された画像から物体領域を検出する(ステップS302)。例えば、図4の画像400から、人体410の領域として、人体410を含む物体領域420が検出される。物体領域420は、人体410よりもはるかに大きい。
次に、動き検出部222-1は、ステップS301で取得された画像から動き領域を検
出する(ステップS303)。例えば、図4の画像400から、動き領域431~435が検出される。
次に、選択部222-2は、ステップS303で検出された1つ以上の動き領域から、ステップS302で検出された物体領域に位置する動き領域を選択する(ステップS304)。例えば、図4の動き領域431~435のうち、物体領域420に含まれた動き領域431~434が選択される。
次に、補正部223は、ステップS302で検出された物体領域を、ステップS304で選択された動き領域を含む最小の領域に基づいて補正する(ステップS305)。例えば、図4の物体領域420が、動き領域431~434を含む最小の矩形領域440に補正される。矩形領域440(補正後の物体領域)は、物体領域420よりも、人体410の真の領域を正確に表している。つまり、ステップS305の補正により、物体領域を高精度に検出することができる。なお、物体領域の補正では、基準となる領域に物体領域が近づけられればよく、基準となる領域に物体領域を完全に一致させなくてもよい。例えば、物体領域420は、矩形領域440と若干異なる領域に補正されてもよい。
次に、出力部240は、ステップS305の補正結果(補正後の物体領域)を、表示部、記憶媒体、スマートフォンなどへ出力する(ステップS306)。
以上述べたように、本実施形態によれば、物体領域から検出された動き領域に基づいて当該物体領域が補正されるため、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。ひいては、物体領域に基づく他の処理(AEやAF、誤検出された領域の排除など)を好適に行うことができる。
なお、小さい動き領域は、ノイズなどを誤検出した領域である可能性が高い。このため、補正部223は、検出部222により検出された、サイズが閾値以上である動き領域に基づいて、物体領域を補正してもよい。こうすることで、物体領域の誤った補正を抑制することができる。ここで、サイズが閾値未満の動き領域を検出部222が検出しないようにしてもよいし、サイズが閾値未満の動き領域を補正部223が使用しないようにしてもよい。動き領域のサイズは、動き領域全体のサイズ(動き領域の全画素数)であってもよいし、動き画素の数などであってもよい。
図5を用いて具体例を説明する。図5において、図4と同じ物体や領域には、図4と同じ符号が付されている。図5の例では、撮像された画像500の物体領域420内で、図4の動き領域431~434の他に、ノイズによる動き領域531,532が検出されている。動き領域のサイズを考慮しない場合には、物体領域420は、動き領域431~434,531,532を含む最小の矩形領域540に補正されるため、ほぼ変わらない(誤った補正)。動き領域のサイズを考慮すれば、動き領域531,532を除外して、動き領域431~434を用いて、物体領域420を矩形領域440に補正することができる。
また、検出部222は、物体検出部221により検出された物体領域とその周辺の領域とからなる領域から、動き領域を検出してもよい。換言すれば、選択部222-2は、物体検出部221により検出された物体領域とその周辺の領域とからなる領域に位置する動き領域を選択してもよい。こうすることで、検出された物体領域が小さすぎる場合にも、補正後の物体領域として、真の物体領域をより正確に表した領域を得ることができる。ここで、周辺の領域は、例えば、検出された物体領域を所定倍に拡大した領域から当該物体領域を除いた領域や、検出された物体領域の縁から所定画素数だけ外側の位置までの領域などである。画像の水平方向(左右方向)と垂直方向(上下方向)とで、所定倍や所定画
素数が異なっていてもよい。
図6を用いて具体例を説明する。図6の例では、撮像された画像600から、人体610の領域として、人体610よりもはるかに小さい物体領域620が検出されており、物体領域620内では動き領域631のみが検出されている。このため、物体領域620の周辺の領域650を考慮しない場合には、物体領域420は、動き領域631に縮小されてしまう(誤った補正)。周辺の領域650内で動き領域632~634が検出されているため、周辺の領域650を考慮すれば、物体領域420を、動き領域631~634を含む最小の矩形領域640に拡大できる。領域640(補正後の物体領域)は、物体領域620よりも、人体610の真の領域を正確に表している。
<その他>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。
<付記1>
撮像された画像から、物体の領域である物体領域を検出する物体検出手段(101,221)と、
前記画像のうち、前記物体検出手段により検出された前記物体領域から、動きのある領域である動き領域を検出する検出手段(102,222)と、
前記検出手段により検出された前記動き領域に基づいて、前記物体領域を補正する補正手段(103,223)と
を有することを特徴とする物体検出装置(100,200)。
<付記2>
撮像された画像から、物体の領域である物体領域を検出する物体検出ステップ(S302)と、
前記画像のうち、前記物体検出ステップにおいて検出された前記物体領域から、動きのある領域である動き領域を検出する検出ステップ(S303,S304)と、
前記検出ステップにおいて検出された前記動き領域に基づいて、前記物体領域を補正する補正ステップ(S305)と
を有することを特徴とする物体検出方法。
100:物体検出装置 101:物体検出部 102:検出部 103:補正部
10:カメラ 200:PC(物体検出装置)
210:入力部 220:制御部 230:記憶部 240:出力部
221:物体検出部 222:検出部 223:補正部
222-1:動き検出部 222-2:選択部
400:画像 410:人体 420:物体領域
431~435:動き領域 440:矩形領域(補正後の物体領域)
500:画像 531,532:動き領域 540:矩形領域(補正後の物体領域)
600:画像 610:人体 620:物体領域 631~634:動き領域
640:矩形領域(補正後の物体領域)
650:領域(検出された物体領域の周辺の領域)

Claims (11)

  1. 撮像された画像から、物体の領域である物体領域を検出する物体検出手段と、
    前記画像のうち、前記物体検出手段により検出された前記物体領域の中、または、前記物体領域とその周辺の領域とからなる領域の中から、動きのある領域である動き領域を1つ以上検出する検出手段と、
    前記検出手段により検出された前記1つ以上の動き領域に基づいて、前記物体領域の大きさを補正する補正手段と
    を有することを特徴とする物体検出装置。
  2. 前記検出手段が複数の動き領域を検出した場合に、前記補正手段は、前記複数の動き領域を含む最小の領域に基づいて、前記物体領域を補正する
    ことを特徴とする請求項1に記載の物体検出装置。
  3. 前記検出手段は、
    前記画像から動き領域を検出する動き検出手段と、
    前記動き検出手段の検出結果から、前記物体領域に位置する動き領域を選択する選択手段と
    を有し、
    前記補正手段は、前記選択手段により選択された前記動き領域に基づいて、前記物体領域を補正する
    ことを特徴とする請求項1または2に記載の物体検出装置。
  4. 前記選択手段は、中心位置が前記物体領域に含まれた動き領域を選択する
    ことを特徴とする請求項3に記載の物体検出装置。
  5. 前記選択手段は、全体が前記物体領域に含まれた動き領域を選択する
    ことを特徴とする請求項3に記載の物体検出装置。
  6. 前記補正手段は、前記検出手段により検出された、サイズが閾値以上である動き領域に
    基づいて、前記物体領域を補正する
    ことを特徴とする請求項1~5のいずれか1項に記載の物体検出装置。
  7. 前記検出手段は、背景差分法により前記動き領域を検出する
    ことを特徴とする請求項1~6のいずれか1項に記載の物体検出装置。
  8. 前記検出手段は、フレーム間差分法により前記動き領域を検出する
    ことを特徴とする請求項1~6のいずれか1項に記載の物体検出装置。
  9. 前記物体は人体である
    ことを特徴とする請求項1~のいずれか1項に記載の物体検出装置。
  10. 撮像された画像から、物体の領域である物体領域を検出する物体検出ステップと、
    前記画像のうち、前記物体検出ステップにおいて検出された前記物体領域の中、または、前記物体領域とその周辺の領域とからなる領域の中から、動きのある領域である動き領域を1つ以上検出する検出ステップと、
    前記検出ステップにおいて検出された前記1つ以上の動き領域に基づいて、前記物体領域の大きさを補正する補正ステップと
    を有することを特徴とする物体検出方法。
  11. 請求項10に記載の物体検出方法の各ステップをコンピュータに実行させるためのプログラム。
JP2020106754A 2020-06-22 2020-06-22 物体検出装置および物体検出方法 Active JP7435298B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020106754A JP7435298B2 (ja) 2020-06-22 2020-06-22 物体検出装置および物体検出方法
PCT/JP2021/019505 WO2021261141A1 (ja) 2020-06-22 2021-05-24 物体検出装置および物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020106754A JP7435298B2 (ja) 2020-06-22 2020-06-22 物体検出装置および物体検出方法

Publications (2)

Publication Number Publication Date
JP2022002019A JP2022002019A (ja) 2022-01-06
JP7435298B2 true JP7435298B2 (ja) 2024-02-21

Family

ID=79244472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020106754A Active JP7435298B2 (ja) 2020-06-22 2020-06-22 物体検出装置および物体検出方法

Country Status (2)

Country Link
JP (1) JP7435298B2 (ja)
WO (1) WO2021261141A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020722A (ja) 1998-07-03 2000-01-21 Nec Corp 動画像中の物体抽出装置及び方法
JP2002163657A (ja) 2000-11-24 2002-06-07 Matsushita Electric Ind Co Ltd 画像認識装置、画像認識方法およびそのプログラムを格納した記録媒体。
JP2019036009A (ja) 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
WO2019069581A1 (ja) 2017-10-02 2019-04-11 ソニー株式会社 画像処理装置及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020722A (ja) 1998-07-03 2000-01-21 Nec Corp 動画像中の物体抽出装置及び方法
JP2002163657A (ja) 2000-11-24 2002-06-07 Matsushita Electric Ind Co Ltd 画像認識装置、画像認識方法およびそのプログラムを格納した記録媒体。
JP2019036009A (ja) 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
WO2019069581A1 (ja) 2017-10-02 2019-04-11 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
WO2021261141A1 (ja) 2021-12-30
JP2022002019A (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
US9373034B2 (en) Apparatus and method for tracking object
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
US9536321B2 (en) Apparatus and method for foreground object segmentation
US20170293413A1 (en) Virtual viewpoint image generation system, virtual viewpoint image generation apparatus, and method of controlling same
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
US20140037212A1 (en) Image processing method and device
JP2016085487A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP6924932B2 (ja) 移動体追跡方法、移動体追跡装置、およびプログラム
US11153479B2 (en) Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium
US10593044B2 (en) Information processing apparatus, information processing method, and storage medium
KR20200014694A (ko) 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
US11457158B2 (en) Location estimation device, location estimation method, and program recording medium
US20190156138A1 (en) Method, system, and computer-readable recording medium for image-based object tracking
US20190110032A1 (en) Image processing apparatus and method
US20190318485A1 (en) Image analysis apparatus, method, and program
JP7435298B2 (ja) 物体検出装置および物体検出方法
US20230177705A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JPWO2020095644A1 (ja) 変状検出装置、変状検出方法、及びプログラム
JP6939065B2 (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
CN116363753A (zh) 一种基于运动历史图像的摔倒检测方法和装置、电子设备
KR101827114B1 (ko) 축사 근접 개체 탐지 장치 및 방법
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
US11507768B2 (en) Information processing apparatus, information processing method, and storage medium
US10885348B2 (en) Information processing device, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7435298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150