JPWO2017094140A1 - 物体検出装置及び物体検出方法 - Google Patents
物体検出装置及び物体検出方法 Download PDFInfo
- Publication number
- JPWO2017094140A1 JPWO2017094140A1 JP2016552354A JP2016552354A JPWO2017094140A1 JP WO2017094140 A1 JPWO2017094140 A1 JP WO2017094140A1 JP 2016552354 A JP2016552354 A JP 2016552354A JP 2016552354 A JP2016552354 A JP 2016552354A JP WO2017094140 A1 JPWO2017094140 A1 JP WO2017094140A1
- Authority
- JP
- Japan
- Prior art keywords
- optical flow
- unit
- evaluation value
- region
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 109
- 230000003287 optical effect Effects 0.000 claims abstract description 276
- 238000011156 evaluation Methods 0.000 claims abstract description 176
- 238000004364 calculation method Methods 0.000 claims abstract description 143
- 238000003384 imaging method Methods 0.000 claims abstract description 35
- 238000012937 correction Methods 0.000 claims description 49
- 239000006185 dispersion Substances 0.000 claims description 9
- 238000000034 method Methods 0.000 description 51
- 238000012545 processing Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 26
- 239000004065 semiconductor Substances 0.000 description 10
- 238000003909 pattern recognition Methods 0.000 description 6
- 230000007812 deficiency Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 101000760620 Homo sapiens Cell adhesion molecule 1 Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 108090000237 interleukin-24 Proteins 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
所望の物体の検出する際には、機械学習に基づくパターン認識処理などの判別処理が用いられることが多い。
パターン認識処理などの判別処理は演算量が多いことが知られている。また、一般的には、映像の各フレームのどの位置にどの程度の大きさの物体が存在しているかは未知であるため、ウィンドウのサイズや位置を少しずつ変えながら、パターン認識処理などの判別処理が繰り返し実行される。
以下の特許文献1には、判別処理の回数を減らして演算量を削減する目的で、時間方向に輝度変化が大きい画素などを予め物体領域として検出し、その検出した物体領域だけを判別処理の対象としている物体検出装置が開示されている。
図1はこの発明の実施の形態1による物体検出装置を示す構成図であり、図2はこの発明の実施の形態1による物体検出装置を示すハードウェア構成図である。
図1及び図2において、映像撮像部1は例えば車両やロボットに搭載されているカメラあるいはハンディカメラのように、撮影時に移動可能なカメラ11から構成されており、映像を繰り返し撮像する。映像撮像部1により繰り返し撮像された映像である各フレームの映像データは、後段のオプティカルフロー算出部2に出力される。
ここで、オプティカルフローは、時間的に連続している映像の中での物体の動きをベクトルで表しているものである。したがって、2つのフレーム間のオプティカルフローを算出するには、2つのフレームに存在している物体、即ち、移動物体や背景を含む静止物などの各物体の対応点が探索されたのち、2つのフレーム間の対応点の移動がベクトルで表現される。
評価値算出部4は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている評価値算出処理回路13で実現されるものであり、映像撮像部1により撮像された映像であるフレームを複数の領域に分割し、その分割した領域毎に、当該分割領域に属する複数の画素についてのオプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する処理を実施する。
領域特定部5は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている領域特定処理回路14で実現されるものであり、評価値算出部4により算出された各分割領域の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する処理を実施する。
図3はオプティカルフロー算出部2及び物体検出部3がコンピュータで構成される場合のハードウェア構成図である。
オプティカルフロー算出部2及び物体検出部3がコンピュータで構成される場合、オプティカルフロー算出部2及び物体検出部3の処理内容を記述しているプログラムをコンピュータのプログラムメモリ21に格納し、コンピュータのプロセッサ22がプログラムメモリ21に格納されているプログラムを実行するようにすればよい。なお、プログラムの実行結果や中間処理結果などは適宜RAM(Random Access Memory)23に格納される。
図4はオプティカルフロー算出部2及び物体検出部3の処理内容を示すフローチャートである。
撮影時に移動可能なカメラ11から構成されている映像撮像部1は、時間的に連続している映像を繰り返し撮像する。
即ち、映像撮像部1は、例えば、映像のサンプリング間隔がtであれば、時間tを経過する毎に、当該時刻でのフレーム映像を撮像し、そのフレームの映像データをオプティカルフロー算出部2に出力する。
オプティカルフロー算出部2がコンピュータで構成されている場合、プロセッサ22がプログラムメモリ21に格納されているプログラムを実行することで、映像撮像部1から出力されたフレームの映像データをRAM23に格納するとともに、例えば、最新のフレームの映像データと1つ前のフレームの映像データとを用いて、最新のフレームと1つ前のフレームとの間のオプティカルフローを算出する。
図5の例では、フレームを構成している画素毎に、最新のフレームと1つ前のフレームとの間のオプティカルフローを算出しており、12×8個の画素についてのオプティカルフローを算出している。
図5では、各画素についてのオプティカルフローをベクトルで表しており、ベクトルの基端の位置が1つ前のフレームの画素位置、ベクトルの先端の位置が最新のフレームの画素位置を示している。ベクトルの基端の位置とベクトルの先端の位置とが、物体の同一部分の対応点となっている。
[非特許文献1]
C. Zach, T. Pock and H. Bischof. “A Duality Based Approach for Realtime TV-L1 Optical Flow”, In Proceedings of Pattern Recognition (DAGM), Germany, pp. 214-223, 2007
以下、物体検出部3による領域検出処理を具体的に説明する。
図5では、フレームを6×4個の領域に分割し、各分割領域であるブロックが、それぞれ4個のオプティカルフローを含んでいる例を示している。
ここでは、ブロックの大きさが2×2の一定サイズである例を示しているが、ブロックの大きさは一定サイズである必要はなく、任意のサイズであってもよい。また、ブロックの形状は矩形である必要はない。
ただし、オプティカルフロー算出部2により算出されたオプティカルフローにはある程度の誤差が含まれている可能性がある。
そこで、評価値算出部4は、上記のように評価値を算出する前に、オプティカルフローに誤差が含まれていても、高精度な評価値を算出することができるようにする目的で、オプティカルフロー算出部2による算出時刻が異なる複数のオプティカルフローの中で、空間位置が同じブロックに属する複数の画素についてのオプティカルフローの空間的な集合を時間方向に集約して更に大きな集合を生成する(図4のステップST3)。
1つの算出時刻でのオプティカルフローだけでは、評価値を算出する上で誤差の影響を受ける可能性があるが、異なる算出時刻でのオプティカルフローの誤差の方向は様々な方向であることが考えられるため、時間方向にオプティカルフローの集合を生成することで、異なる算出時刻での複数のオプティカルフローの誤差を相殺して、誤差の影響を軽減することができる。
図6では、4つの連続するオプティカルフローの中で、同じ空間位置にあるオプティカルフローの空間的な集合を時間方向に集約している例を示している。これにより、同じ空間位置にある1つのブロック内に4×4個(=16個)のオプティカルフローの集合が生成される。
集約するオプティカルフローの数は、例えば、映像のフレームレートやカメラ11及び検出対象の物体の移動速度に応じて決めることなどが考えられる。
物体領域である可能性の尺度を示す評価値として、様々な尺度が考えられるが、効果的な尺度として、例えば、オプティカルフローのばらつきが挙げられる。一般的に、映像中の物体領域では、ばらつきが小さい安定したオプティカルフローの集合が得られるのに対し、物体領域以外の領域では、ばらつきが大きい不安定なオプティカルフローの集合が得られることが多いからである。
したがって、集合に含まれるオプティカルフローのばらつきを評価し、ばらつきが小さければ、その集合は物体領域に属し、ばらつきが大きければ、物体領域以外の領域に属すると判断することができる。ばらつきの評価尺度としては分散が知られている。
式(1)において、Oは時間方向に集約されているオプティカルフローの集合、Noはオプティカルフローの集合の要素数である。
また、θiはi番目のオプティカルフローの角度、niはi番目のオプティカルフローの長さである。
さらに、mθは時間方向に集約されているオプティカルフローの角度の平均値、mnは時間方向に集約されているオプティカルフローの長さの平均値である。
式(1)の第一項はオプティカルフローの角度の分散を示し、第二項はオプティカルフローの長さの分散を示している。
なお、集合に含まれるオプティカルフローのばらつきが小さければ、大きな値の評価値が算出され、集合に含まれるオプティカルフローのばらつきが大きければ、小さな値の評価値が算出される。
式(1)において、第一項と第二項のそれぞれに、補正のための係数を乗ずるようにしてもよい。
式(2)において、θjはj番目のオプティカルフローの角度、njはj番目のオプティカルフローの長さである。
なお、2つのオプティカルフローの角度と長さの差分絶対値の総和が小さければ、大きな値の評価値が算出され、2つのオプティカルフローの角度と長さの差分絶対値の総和が大きければ、小さな値の評価値が算出される。
差分絶対値の総和を算出する場合、分散のように平均値の計算や二乗計算を含まないため、分散を算出する場合よりも演算量が小さくなり、高速に算出することが可能となる。
なお、第一項と第二項のそれぞれに、補正のための係数を乗ずるようにしてもよい。
一方、その評価値が閾値未満であれば(ステップST5:NOの場合)、当該ブロックが検出対象の物体の一部又は全部を表している物体領域ではないと判断する(ステップST7)。
閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各ブロックの評価値をそれぞれ算出し、全てのブロックの評価値の中で、最も大きい評価値より少し大きい値となる当該評価値の1.2倍程度の値などが考えられる。
ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、評価値が小さくなるため、閾値も小さくなることが想定される。
領域特定部5は、全てのブロックについて、物体領域であるか否かを判定すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、その特定した領域に属する1つ以上のブロックの空間上の位置を示す位置情報を出力する。
また、物体検出部3の評価値算出部4がブロックの評価値を算出して、領域特定部5が当該評価値から当該ブロックが物体領域であるか否かを判定する際、ブロックのサイズを変えながら評価値の算出処理と判定処理を繰り返す必要がないため、少ない演算量で検出対象の物体が存在している領域を検出することができる効果を奏する。
なお、ここでの判定処理は、評価値に対する閾値処理であって、演算量が多いパターン認識処理などの判別処理とは異なるため、少ない演算量でブロックが物体領域であるか否かを判定することができる。
P(%)の値は、例えば、プロセッサ22の性能やRAM23のサイズに応じて決めればよく、任意の値に設定することができる。
上記実施の形態1では、分割領域であるブロックが物体領域であるか否かを判定するものを示したが、1つ以上のブロックからなる探索ウィンドウを設定し、その探索ウィンドウ内に物体が存在しているか否かを判定するようにしてもよい。
図7及び図8において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
領域特定部6は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている領域特定処理回路15で実現されるものであり、複数のブロックからなる探索ウィンドウを設定する処理を実施する。
また、領域特定部6は評価値算出部4により算出された各ブロックの評価値の中から、その探索ウィンドウに含まれるブロックの評価値を読み出し、その読み出した評価値から、その探索ウィンドウ内に物体が存在している可能性の尺度を示すスコアを算出し、そのスコアと閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する処理を実施する。
即ち、領域補正部7は領域特定部6により特定された領域内の映像特徴量、領域特定部6により特定された領域のサイズを拡大した領域内の映像特徴量及び領域特定部6により特定された領域を縮小した領域内の映像特徴量を算出して、算出した複数の映像特徴量を比較し、領域特定部6により特定された領域の補正後の領域として、領域特定部6により特定された領域、そのサイズを拡大した領域及び縮小した領域の中から、複数の映像特徴量の比較結果にしたがっていずれか1つの領域を選択する処理を実施する。
オプティカルフロー算出部2、物体検出部3及び領域補正部7が図3に示すようなコンピュータで構成される場合、オプティカルフロー算出部2、物体検出部3及び領域補正部7の処理内容を記述しているプログラムがコンピュータのプログラムメモリ21に格納し、コンピュータのプロセッサ22がプログラムメモリ21に格納されているプログラムを実行するようにすればよい。
図9は物体検出部3における領域特定部6の処理内容を示すフローチャートであり、図10は領域補正部7の処理内容を示すフローチャートである。
ただし、領域特定部6及び領域補正部7以外は、上記実施の形態1と同様であるため、ここでは、領域特定部6及び領域補正部7の処理内容を説明する。
領域特定部6は、評価値算出部4が、空間位置が同じブロックに属する複数の画素についてのオプティカルフローの空間的な集合を時間方向に集約して更に大きな集合を生成すると、複数のブロックからなる探索ウィンドウを設定する(図9のステップST11)。
図11は領域特定部6による探索ウィンドウの設定例を示す説明図である。
図11では、評価値算出部4により算出された各ブロックの評価値が、映像の各フレームと対応する形で平面上に分布しているものとして、各ブロックの評価値が分布している面を評価値面と表しており、その評価値面上に探索ウィンドウを設定している。図11の例では、2つのブロックからなる探索ウィンドウを設定している。
図11のように、探索ウィンドウが矩形の形状である場合、その探索ウィンドウを特定するパラメータとして、矩形の縦・横サイズと、矩形の左上隅等の位置を示す座標とが用いられる。
ただし、探索ウィンドウの形状は矩形であるものに限るものではなく、任意の形状でよい。
領域特定部6により算出されるスコアとして、例えば、探索ウィンドウに含まれるブロックの評価値の総和などが考えられる。
ただし、探索ウィンドウのスコアとして、探索ウィンドウに含まれるブロックの評価値の総和を算出する場合、探索ウィンドウのサイズが大きい程、スコアが大きくなる。探索ウィンドウのサイズに比例してスコアが大きくならないようにするため、評価値面内に分布している評価値の平均値などをオフセットとして計算して、探索ウィンドウに含まれる各ブロックの評価値から当該オフセットをそれぞれ減算し、オフセット減算後の各ブロックの評価値の総和などを算出するようにしてもよい。
図12は探索ウィンドウと検出対象の物体との関係を示す説明図である。
図12において、探索ウィンドウ(1)は検出対象の物体を過不足なく含んでいる場合を示し、探索ウィンドウ(2)は検出対象の物体を含んでいない場合を示している。
また、探索ウィンドウ(3)は検出対象の物体を含んでいても、その物体の大きさが、探索ウィンドウのサイズと比べて小さい場合を示している。
そのスコアが閾値未満であれば(ステップST13:NOの場合)、その探索ウィンドウ内に物体が存在していないと判断する(ステップST15)。
閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各探索ウィンドウのスコアをそれぞれ算出し、全ての探索ウィンドウのスコアの中で、最も大きいスコアより少し大きい値となる当該スコアの1.2倍程度の値などが考えられる。
ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、スコアが小さくなるため、閾値も小さくなることが想定される。
領域特定部6は、図13に示すように、評価値面で探索ウィンドウの位置をずらしながら、評価値面の全ての位置で判定処理が終了するまで、ステップST12〜ST15の処理を繰り返し実行する(ステップST16,ST17)。探索ウィンドウの位置のずらしは、例えば、1画素ずつずらすことなどが考えられる。
領域特定部6は、評価値面の全ての位置で判定処理が終了すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、即ち、検出対象の物体が存在している探索ウィンドウの位置を特定し、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズ及び位置座標を出力する。
この場合、サイズが異なる複数の探索ウィンドウの中で、評価値が最も高くなる探索ウィンドウは、そのサイズが検出対象の物体の大きさとほぼ一致していることが考えられるため、評価値が最も高くなる探索ウィンドウを特定するようにすれば、検出対象の物体の大きさが未知であっても、検出対象の物体が存在している映像内の領域を特定することができる。即ち、検出対象の物体の大きさを特定することができる。
ただし、サイズが異なる複数の探索ウィンドウを用いる場合、判定処理の演算量が増加して、処理に要する時間が長くなるため、用意する探索ウィンドウの個数は、領域特定部6を実現する領域特定処理回路15、あるいは、領域特定部6を構成するコンピュータにおけるプロセッサ22の処理能力に応じて適宜決定される。
しかし、時間方向にオプティカルフローの集合を生成することで、異なる算出時刻での複数のオプティカルフローの誤差を相殺しても、オプティカルフローの誤差が残存する場合がある。
オプティカルフローの誤差が残存する場合、サイズが異なる複数の探索ウィンドウの中で、評価値が最も高くなる探索ウィンドウを特定しても、評価値が最も高くなる探索ウィンドウのサイズ及び位置と、検出対象の物体の大きさ及び位置との一致度が小さくなることがある。
これにより、領域特定部6から出力された矩形の縦・横サイズや位置座標を参照しても、検出対象の物体の大きさや位置を正確に把握できないことがある。
図14は領域特定部6から出力された矩形の縦・横サイズや位置座標を参照しても、検出対象の物体の大きさや位置を正確に把握できない場合の一例を示す説明図である。
図14では、評価値が最も高くなる探索ウィンドウのサイズより、検出対象の物体の大きさが小さくなっている例を示している。
以下、図10を参照しながら、領域補正部7の処理内容を具体的に説明する。
図15は領域補正部7による探索ウィンドウの設定例を示す説明図である。
この探索ウィンドウの形状は矩形に限るものではないが、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウよりも十分に小さなウィンドウを探索ウィンドウとして設定する。例えば、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウのサイズの0.5倍程度のサイズの探索ウィンドウを設定する。
ただし、設定する探索ウィンドウの中心座標が、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウの中心座標と一致するように設定する。
映像特徴量は、処理対象の映像フレームの画素値から計算される特徴量であり、映像の色、エッジ、勾配などに基づく特徴量が考えられる。
色に基づく特徴量としては、探索ウィンドウ内の映像における各色の出現頻度を表す色ヒストグラムが考えられる。
エッジに基づく特徴量としては、探索ウィンドウの周上に存在するエッジの密度を表すエッジ密度が考えられる。
勾配に基づく特徴量としては、探索ウィンドウ内の映像における画素値の勾配方向の出現頻度を表すHOG(Histogram of Oriented Gradients)などが考えられる。
この実施の形態2では、映像特徴量がエッジ密度である例を説明する。
エッジ画像は、例えば、画像のエッジに位置する画素(以下、「エッジ画素」と称する)が“1”、画像のエッジに位置しない画素(以下、「非エッジ画素」と称する)が“0”となるような画像のことである。
領域補正部7は、エッジ画像を取得すると、その探索ウィンドウの周上において、エッジ画素の総数を計数し、そのエッジ画素の総数を探索ウィンドウの周囲長で除算することで、エッジ密度を算出する。
図16では、10×10の画素からなるエッジ画像の例を示しており、グレーで表す画素が非エッジ画素、白で表す画素がエッジ画素である。
このエッジ画像において、領域補正部7により設定された探索ウィンドウが、8×8の画素からなる場合、探索ウィンドウの周囲の画素は、図16に示すように、太い実線で囲まれている28個の画素である。
したがって、図16の例では、エッジ画素の総数が7で、ウィンドウの周囲長が28であるため、エッジ密度は、7÷28=0.25となる。
過去の最大エッジ密度は、領域補正部7により過去に算出されたエッジ密度の中で、最も大きなエッジ密度を意味する。ただし、領域補正部7により最初にエッジ密度が算出される時点では、過去の最大エッジ密度として、0の初期値がRAM23に格納されているものとする。
図17は探索ウィンドウとエッジ密度の関係を示す説明図である。
図17の例では、想定している最大のサイズが探索ウィンドウ(4)のサイズであるため、現在設定中の探索ウィンドウのサイズが探索ウィンドウ(4)のサイズより小さければ、現在設定中の探索ウィンドウのサイズを拡大する。
図17において、探索ウィンドウ(1)は最初に設定されたウィンドウであり、探索ウィンドウ(2)は探索ウィンドウ(1)が拡大されたウィンドウである。
また、探索ウィンドウ(3)は探索ウィンドウ(2)が拡大されたウィンドウであり、探索ウィンドウ(4)は探索ウィンドウ(3)が拡大されたウィンドウである。
このとき、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウと同じサイズのウィンドウのほかに、その探索ウィンドウよりも小さなサイズのウィンドウと大きなサイズのウィンドウとを含んでいれば、領域補正部7により設定される探索ウィンドウの個数は問わないが、領域補正部7により設定される探索ウィンドウの個数が増えると、領域補正部7の演算量が増加して、処理に要する時間が長くなるため、領域補正部7により設定される探索ウィンドウの個数は、領域補正部7を実現する領域補正処理回路16、あるいは、領域補正部7を構成するコンピュータにおけるプロセッサ22の処理能力に応じて適宜決定される。
領域補正部7は、探索ウィンドウ内の映像特徴量として、エッジ密度を算出すると、そのエッジ密度とRAM23に格納されている過去の最大エッジ密度を比較し、その算出したエッジ密度が過去の最大エッジ密度より大きければ(ステップST23:YESの場合)、その算出したエッジ密度を過去の最大エッジ密度として、RAM23に上書き保存する。また、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズと位置座標をRAM23に格納する(ステップST24)。
図17の例では、探索ウィンドウ(1)〜(4)のエッジ密度の中で、最大のエッジ密度が、探索ウィンドウ(3)のエッジ密度であるため、探索ウィンドウ(3)が特定される。
探索ウィンドウの境界と物体領域の境界とが正確に一致したときにエッジ密度が非常に大きくなる。探索ウィンドウ(3)は、探索ウィンドウ(1)(2)(4)よりも、物体領域の境界に対して、ウィンドウ境界がより一致しているため、最大のエッジ密度となっている。
上記実施の形態1,2では、オプティカルフロー算出部2により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出するものを示したが、オプティカルフロー算出部2により算出されたオプティカルフローのほかに、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローを予測し、その予測したオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出するようにしてもよい。
図18及び図19において、図7及び図8と同一符号は同一または相当部分を示すので説明を省略する。
カメラパラメータ取得部31は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されているカメラパラメータ取得処理回路41で実現されるものであり、映像撮像部1を構成しているカメラ11の焦点距離や撮像素子の大きさなどのカメラパラメータを取得する。
なお、カメラパラメータ取得部31は、カメラ11から直接カメラパラメータを読み出すものであってもよいが、例えば、ハードディスク45からカメラパラメータを読み出すものであってもよい。
カメラ位置取得部33は位置センサ43によって構成されており、カメラ11の空間中の位置座標を取得する。位置センサ43としては、例えば、GPS(Global Positioning System)、磁気センサや超音波センサなどが考えられる。
3次元地図取得部34は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている3次元地図取得処理回路44で実現されるものであり、カメラ位置取得部33により取得された位置座標を参照して、3次元地図記憶部35からカメラ11が存在している空間の3次元地図を読み出す処理を実施する。
3次元地図は、レーザースキャナやステレオカメラなどを用いて計測されることで、事前に3次元地図記憶部35に格納されているものとする。なお、屋内施設であれば、その屋内施設の設計図などから3次元地図が生成されて、3次元地図記憶部35に格納されていることも考えられる。
3次元地図記憶部35はハードディスク45から構成されており、3次元地図を記憶している。
また、オプティカルフロー予測部36はカメラパラメータ取得部31により取得されたカメラパラメータを用いて、その予測した3次元形状に依存するオプティカルフローを2次元画像平面に投影することで、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローを求め、そのオプティカルフローを評価値算出部37に出力する処理を実施する。
評価値算出部37は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている評価値算出処理回路47で実現されるものであり、オプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたオプティカルフローとから、映像を構成している画素毎に、当該画素が検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出する処理を実施する。
領域特定部38は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている領域特定処理回路48で実現されるものであり、評価値算出部37により算出された各画素の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する処理を実施する。
オプティカルフロー算出部2、オプティカルフロー予測部36、物体検出部3及び領域補正部7が図3に示すようなコンピュータで構成される場合、オプティカルフロー算出部2、オプティカルフロー予測部36、物体検出部3及び領域補正部7の処理内容を記述しているプログラムをコンピュータのプログラムメモリ21に格納し、コンピュータのプロセッサ22がプログラムメモリ21に格納されているプログラムを実行するようにすればよい。
図20はオプティカルフロー予測部36の処理内容を示すフローチャートであり、図21は物体検出部3における評価値算出部37及び領域特定部38の処理内容を示すフローチャートである。
撮影時に移動可能なカメラ11から構成されている映像撮像部1は、上記実施の形態1と同様に、時間的に連続している映像を繰り返し撮像する。
即ち、映像撮像部1は、例えば、映像のサンプリング間隔がtであれば、時間tを経過する毎に、当該時刻でのフレーム映像を撮像し、そのフレームの映像データをオプティカルフロー算出部2に出力する。
カメラ運動取得部32は、カメラ11の傾きや移動速度などの運動パラメータを取得し、その運動パラメータをオプティカルフロー予測部36に出力する。
カメラ位置取得部33は、カメラ11の空間中の位置座標を取得し、その位置座標をオプティカルフロー予測部36及び3次元地図取得部34に出力する。
3次元地図取得部34は、カメラ位置取得部33から位置座標を受けると、その位置座標を参照して、3次元地図記憶部35からカメラ11が存在している空間の3次元地図を読み出し、カメラ11が存在している空間の3次元地図をオプティカルフロー予測部36に出力する。
一方、検出対象の物体が存在している映像から算出されるオプティカルフローは、カメラ11の運動と、カメラ11が写している空間の背景などの3次元形状と、空間中の検出対象の物体の形状及び運動とに依存して決まる。
また、カメラ11が写している3次元空間が、どのように2次元の画像平面に投影されるかは、カメラパラメータに依存して決まる。
この実施の形態3では、オプティカルフロー予測部36により予測されるオプティカルフローは、カメラ11が写している空間中に検出対象の物体が存在していない状態で予測されているものとする。
なお、カメラ11の運動パラメータと、カメラ11の空間中の位置座標と、カメラ11が存在する空間の3次元地図とを用いて、その空間の3次元形状に依存するオプティカルフローを予測する処理自体は公知の技術であるため詳細な説明を省略する。
予測したオプティカルフローを2次元画像平面に投影する処理自体は公知の技術であるため詳細な説明を省略する。
また、図23はオプティカルフロー算出部2により算出されたオプティカルフローの一例を示す説明図である。
この実施の形態3では、オプティカルフロー算出部2により算出されたオプティカルフローは、カメラ11が写している空間中に検出対象の物体が存在している状態で算出されているものとする。このため、図23に示すオプティカルフローは、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローと、空間に存在する検出対象の物体の形状及び運動に依存するオプティカルフローとが合成された状態となる。
フレーム中の座標iにおける評価値として、例えば、下記の式(3)に示すように、双方のオプティカルフローの差分ノルムを用いることができる。
式(3)において、fiはオプティカルフロー算出部2から出力された座標iのオプティカルフロー、giはオプティカルフロー予測部36から出力された座標iのオプティカルフロー、||・||はノルムを表す記号である。
図24はオプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたオプティカルフローとの差分を示す説明図である。
図24において、物体領域は、双方のオプティカルフローの差分に相当している。
一方、当該画素の評価値が閾値未満であれば(ステップST42:NOの場合)、当該画素が検出対象の物体の一部を表している画素ではないと判断する(ステップST44)。
閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各画素の評価値をそれぞれ算出し、全ての画素の評価値の中で、最も大きい評価値より少し大きい値となる当該評価値の1.2倍程度の値などが考えられる。
ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、評価値が小さくなるため、閾値も小さくなることが想定される。
領域特定部38は、全ての画素について、検出対象の物体の一部を表している画素であるか否かを判定すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、その特定した領域に属する1つ以上の画素の空間上の位置を示す位置情報を出力する。
具体的には、以下の通りである。
領域特定部38は、評価値算出部37が映像フレームを構成している各画素の評価値を算出すると、複数の画素からなる探索ウィンドウを設定する。
探索ウィンドウの形状は特に問わないが、探索ウィンドウの形状を矩形とする場合、その探索ウィンドウを特定するパラメータとして、矩形の縦・横サイズと、矩形の左上隅等の位置を示す座標とが用いられる。
領域特定部38により算出されるスコアとして、例えば、探索ウィンドウに含まれる画素の評価値の総和などが考えられる。
ただし、探索ウィンドウのスコアとして、探索ウィンドウに含まれる画素の評価値の総和を算出する場合、探索ウィンドウのサイズが大きい程、スコアが大きくなる。探索ウィンドウのサイズに比例してスコアが大きくならないようにするため、評価値面内に分布している評価値の平均値などをオフセットとして計算して、探索ウィンドウに含まれる各画素の評価値から当該オフセットをそれぞれ減算し、オフセット減算後の各画素の評価値の総和などを算出するようにしてもよい。
このことは、上記実施の形態2と同様であり、図12には探索ウィンドウと検出対象の物体との関係を示している。
図12において、探索ウィンドウ(1)は検出対象の物体を過不足なく含んでいる場合を示し、探索ウィンドウ(2)は検出対象の物体を含んでいない場合を示している。
また、探索ウィンドウ(3)は検出対象の物体を含んでいても、その物体の大きさが、探索ウィンドウのサイズと比べて小さい場合を示している。
そのスコアが閾値未満であれば、その探索ウィンドウ内に物体が存在していないと判断する。
閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各探索ウィンドウのスコアをそれぞれ算出し、全ての探索ウィンドウのスコアの中で、最も大きいスコアより少し大きい値となる当該スコアの1.2倍程度の値などが考えられる。
ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、スコアが小さくなるため、閾値も小さくなることが想定される。
領域特定部38は、評価値面の全ての位置で判定処理が終了すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、即ち、検出対象の物体が存在している探索ウィンドウの位置を特定し、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズ及び位置座標を出力する。
この場合、検出対象の物体の大きさが未知であっても、検出対象の物体が存在している映像内の領域を特定することができる。即ち、検出対象の物体の大きさを特定することができる。
ただし、サイズが異なる複数の探索ウィンドウを用いる場合、判定処理の演算量が増加して、処理に要する時間が長くなるため、用意する探索ウィンドウの個数は、領域特定部38を実現する領域特定処理回路48、あるいは、領域特定部38を構成するコンピュータにおけるプロセッサ22の処理能力に応じて適宜決定される。
しかし、オプティカルフロー算出部2により算出されたオプティカルフローに誤差がある場合、サイズが異なる複数の探索ウィンドウの中で、評価値が最も高くなる探索ウィンドウを特定しても、評価値が最も高くなる探索ウィンドウのサイズ及び位置と、検出対象の物体の大きさ及び位置との一致度が小さくなることがある。
これにより、領域特定部38から出力された矩形の縦・横サイズや位置座標を参照しても、検出対象の物体の大きさや位置を正確に把握できないことがある。
そこで、この実施の形態3でも、領域特定部38により特定された領域を補正する領域補正部7を設けている。
領域補正部7の処理内容は、上記実施の形態2と同様であるため詳細な説明を省略する。
Claims (11)
- 映像を繰り返し撮像する映像撮像部と、
前記映像撮像部により異なる時刻に撮像された映像間のオプティカルフローを算出するオプティカルフロー算出部と、
前記オプティカルフロー算出部により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出する物体検出部と
を備えた物体検出装置。 - 前記物体検出部により検出された領域を補正する領域補正部を備え、
前記領域補正部は、前記物体検出部により検出された領域内の映像特徴量、前記検出された領域の位置及びサイズを変更した領域内の映像特徴量を算出して、算出した複数の映像特徴量を比較し、
前記物体検出部により検出された領域の補正後の領域として、前記物体検出部により検出された領域、前記変更した領域の中から、前記複数の映像特徴量の比較結果にしたがっていずれか1つの領域を選択することを特徴とする請求項1記載の物体検出装置。 - 前記オプティカルフロー算出部は、前記映像を構成している画素毎に、異なる時刻に撮像された映像間のオプティカルフローを算出し、
前記物体検出部は、
前記映像撮像部により撮像された映像を一つあるいは複数の領域に分割し、その分割した領域毎に、当該分割領域に属する複数の画素についての前記オプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する評価値算出部と、
前記評価値算出部により算出された各分割領域の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。 - 前記オプティカルフロー算出部は、前記映像を構成している画素毎に、異なる時刻に撮像された映像間のオプティカルフローを算出し、
前記物体検出部は、
前記映像撮像部により撮像された映像を一つあるいは複数の領域に分割し、その分割した領域毎に、当該分割領域に属する複数の画素についての前記オプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する評価値算出部と、
前記評価値算出部により算出された各分割領域の評価値が映像内で最大となる領域を探索することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。 - 前記評価値算出部は、前記分割領域に属する複数の画素についての前記オプティカルフローから特徴量を算出して、前記特徴量から前記評価値を算出することを特徴とする請求項3記載の物体検出装置。
- 前記評価値算出部は、前記分割領域に属する複数の画素についての前記オプティカルフローの角度の分散と、前記オプティカルフローの長さの分散とを算出して、前記角度の分散と前記長さの分散から前記評価値を算出することを特徴とする請求項3記載の物体検出装置。
- 前記評価値算出部は、前記分割領域に属する複数の画素についての前記オプティカルフローの角度の差分絶対値の総和と、前記オプティカルフローの長さの差分絶対値の総和とを算出して、前記角度の差分絶対値の総和と前記長さの差分絶対値の総和から前記評価値を算出することを特徴とする請求項3記載の物体検出装置。
- 前記評価値算出部は、前記オプティカルフロー算出部により異なる時刻に撮像された映像間のオプティカルフローが算出される毎に、その算出時刻が異なる複数のオプティカルフローの中で、空間位置が同じ分割領域に属する複数の画素についてのオプティカルフローを時間方向に集約し、その集約したオプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出することを特徴とする請求項3記載の物体検出装置。
- 前記映像撮像部の撮像に用いられるカメラのカメラパラメータ、位置及び運動パラメータと、前記カメラが存在する空間の3次元地図とを用いて、前記カメラの運動と前記カメラが写している空間形状に依存するオプティカルフローを予測するオプティカルフロー予測部を備え、
前記物体検出部は、
前記オプティカルフロー算出部により算出されたオプティカルフローと前記オプティカルフロー予測部により予測されたオプティカルフローとから、前記映像を構成している画素毎に、当該画素が検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出する評価値算出部と、
前記評価値算出部により算出された各画素の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。 - 前記映像撮像部の撮像に用いられるカメラのカメラパラメータ、位置及び運動パラメータと、前記カメラが存在する空間の3次元地図とを用いて、前記カメラの運動と前記カメラが写している空間形状に依存するオプティカルフローを予測するオプティカルフロー予測部を備え、
前記物体検出部は、
前記オプティカルフロー算出部により算出されたオプティカルフローと前記オプティカルフロー予測部により予測されたオプティカルフローとから、前記映像を構成している画素毎に、当該画素が検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出する評価値算出部と、
前記評価値算出部により算出された各分割領域の評価値が映像内で最大となる領域を探索することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。 - 映像撮像部が、映像を繰り返し撮像し、
オプティカルフロー算出部が、前記映像撮像部により異なる時刻に撮像された映像間のオプティカルフローを算出し、
物体検出部が、前記オプティカルフロー算出部により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出する
物体検出方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/083880 WO2017094140A1 (ja) | 2015-12-02 | 2015-12-02 | 物体検出装置及び物体検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6116765B1 JP6116765B1 (ja) | 2017-04-19 |
JPWO2017094140A1 true JPWO2017094140A1 (ja) | 2017-11-30 |
Family
ID=58666882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016552354A Active JP6116765B1 (ja) | 2015-12-02 | 2015-12-02 | 物体検出装置及び物体検出方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10643338B2 (ja) |
EP (1) | EP3376468B1 (ja) |
JP (1) | JP6116765B1 (ja) |
CN (1) | CN108369739B (ja) |
WO (1) | WO2017094140A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6797854B2 (ja) * | 2018-03-16 | 2020-12-09 | 日本電信電話株式会社 | 情報処理装置および情報処理方法 |
JP7117169B2 (ja) * | 2018-06-19 | 2022-08-12 | 日産自動車株式会社 | 物体検出方法及び物体検出装置 |
CN111105428B (zh) * | 2019-11-08 | 2023-11-14 | 上海航天控制技术研究所 | 一种星敏感器前向滤波硬件图像处理方法 |
US11317137B2 (en) * | 2020-06-18 | 2022-04-26 | Disney Enterprises, Inc. | Supplementing entertainment content with ambient lighting |
JP2022159694A (ja) * | 2021-04-05 | 2022-10-18 | 日立Astemo株式会社 | 物体追跡装置 |
US12047682B1 (en) * | 2023-01-17 | 2024-07-23 | Motorola Solutions, Inc. | Method and apparatus for adjusting a field of view of a camera based on a detection of a blemish on a camera lens |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07262375A (ja) | 1994-03-25 | 1995-10-13 | Toshiba Corp | 移動体検出装置 |
JPH1011585A (ja) * | 1996-06-20 | 1998-01-16 | Toyota Motor Corp | 物体検出装置 |
JP3885999B2 (ja) * | 2001-12-28 | 2007-02-28 | 本田技研工業株式会社 | 物体検出装置 |
US7266220B2 (en) * | 2002-05-09 | 2007-09-04 | Matsushita Electric Industrial Co., Ltd. | Monitoring device, monitoring method and program for monitoring |
JP2007266652A (ja) | 2004-05-31 | 2007-10-11 | Matsushita Electric Ind Co Ltd | 移動物体検出装置、移動物体検出方法、移動物体検出プログラム、映像復号化装置、映像符号化装置、撮像装置及び映像管理システム |
US20060050953A1 (en) * | 2004-06-18 | 2006-03-09 | Farmer Michael E | Pattern recognition method and apparatus for feature selection and object classification |
JP2006215655A (ja) * | 2005-02-01 | 2006-08-17 | Sharp Corp | 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体 |
JP4610005B2 (ja) | 2005-07-08 | 2011-01-12 | 財団法人電力中央研究所 | 画像処理による侵入物体検出装置および方法およびプログラム |
JP4817384B2 (ja) | 2006-12-06 | 2011-11-16 | 学校法人早稲田大学 | 移動物体検出装置及び移動物体検出装置用プログラム |
JP4845715B2 (ja) | 2006-12-22 | 2011-12-28 | キヤノン株式会社 | 画像処理方法、画像処理装置、プログラム、及び記憶媒体 |
JP4962304B2 (ja) * | 2007-12-26 | 2012-06-27 | 株式会社豊田中央研究所 | 歩行者検出装置 |
JP4453775B2 (ja) * | 2008-06-27 | 2010-04-21 | トヨタ自動車株式会社 | 物体検出装置 |
JP5421072B2 (ja) * | 2008-11-19 | 2014-02-19 | クラリオン株式会社 | 接近物体検知システム |
JP5002575B2 (ja) * | 2008-11-28 | 2012-08-15 | 日本電信電話株式会社 | 非定常度推定装置、非定常度推定方法、非定常度推定プログラム |
JP5279517B2 (ja) * | 2009-01-09 | 2013-09-04 | キヤノン株式会社 | 物体検知装置及び物体検知方法 |
WO2010084739A1 (ja) * | 2009-01-23 | 2010-07-29 | 日本電気株式会社 | 映像識別子抽出装置 |
JP5400718B2 (ja) * | 2010-07-12 | 2014-01-29 | 株式会社日立国際電気 | 監視システムおよび監視方法 |
JP6120395B2 (ja) * | 2012-07-03 | 2017-04-26 | クラリオン株式会社 | 車載装置 |
WO2014007153A1 (ja) * | 2012-07-03 | 2014-01-09 | クラリオン株式会社 | 車両周囲監視装置 |
US9445057B2 (en) * | 2013-02-20 | 2016-09-13 | Magna Electronics Inc. | Vehicle vision system with dirt detection |
US9213901B2 (en) * | 2013-09-04 | 2015-12-15 | Xerox Corporation | Robust and computationally efficient video-based object tracking in regularized motion environments |
CN103871076B (zh) * | 2014-02-27 | 2017-07-28 | 西安电子科技大学 | 基于光流法和超像素分割的运动目标提取方法 |
WO2015183889A1 (en) * | 2014-05-27 | 2015-12-03 | Robert Bosch Gmbh | Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems |
CN104091351B (zh) * | 2014-06-27 | 2017-03-15 | 江苏慧眼数据科技股份有限公司 | 基于聚类法的人数计数方法 |
CN104881645B (zh) * | 2015-05-26 | 2018-09-14 | 南京通用电器有限公司 | 基于特征点互信息量和光流法的车辆前方目标的检测方法 |
-
2015
- 2015-12-02 CN CN201580085019.3A patent/CN108369739B/zh active Active
- 2015-12-02 US US15/744,026 patent/US10643338B2/en active Active
- 2015-12-02 WO PCT/JP2015/083880 patent/WO2017094140A1/ja active Application Filing
- 2015-12-02 JP JP2016552354A patent/JP6116765B1/ja active Active
- 2015-12-02 EP EP15909770.8A patent/EP3376468B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN108369739B (zh) | 2021-07-27 |
EP3376468B1 (en) | 2020-01-29 |
EP3376468A4 (en) | 2018-10-03 |
EP3376468A1 (en) | 2018-09-19 |
US20180204333A1 (en) | 2018-07-19 |
CN108369739A (zh) | 2018-08-03 |
US10643338B2 (en) | 2020-05-05 |
WO2017094140A1 (ja) | 2017-06-08 |
JP6116765B1 (ja) | 2017-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6116765B1 (ja) | 物体検出装置及び物体検出方法 | |
CN111693972B (zh) | 一种基于双目序列图像的车辆位置与速度估计方法 | |
US11037325B2 (en) | Information processing apparatus and method of controlling the same | |
US10762643B2 (en) | Method for evaluating image data of a vehicle camera | |
US9330471B2 (en) | Camera aided motion direction and speed estimation | |
US10311595B2 (en) | Image processing device and its control method, imaging apparatus, and storage medium | |
KR101776620B1 (ko) | 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
JP2017526082A (ja) | 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体 | |
JP6021689B2 (ja) | 車両諸元計測処理装置、車両諸元計測方法及びプログラム | |
JP2010085240A (ja) | 車両用画像処理装置 | |
CN107578424B (zh) | 一种基于时空分类的动态背景差分检测方法、系统及装置 | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
JP6061770B2 (ja) | カメラ姿勢推定装置及びそのプログラム | |
JP6429466B2 (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム | |
KR101806453B1 (ko) | 무인 비행체 충돌 회피를 위한 이동 객체 검출 장치 및 방법 | |
WO2021230157A1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
JP2012181710A (ja) | オブジェクト追跡装置、方法、及びプログラム | |
KR101741501B1 (ko) | 카메라와 객체 간 거리 추정 장치 및 그 방법 | |
JP2018151940A (ja) | 障害物検出装置および障害物検出方法 | |
JP2019176261A (ja) | 画像処理装置 | |
US10855918B2 (en) | Image processing device, image processing method, image pickup apparatus, and program storage medium that calculates a matching degree between an estimated target of interest and tracked feature points, then selects a feature point to which tracking is continued according to the matching degree | |
JP7337165B2 (ja) | デジタル画像シーケンスを用いた相対運動の決定方法 | |
JP5614100B2 (ja) | 画像処理装置及び移動体位置推定方法 | |
KR20060095593A (ko) | 색상 유사도 영상을 이용한 물체 검출 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170321 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6116765 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |