JP6188592B2 - Object detection apparatus, object detection method, and object detection program - Google Patents
Object detection apparatus, object detection method, and object detection program Download PDFInfo
- Publication number
- JP6188592B2 JP6188592B2 JP2014008472A JP2014008472A JP6188592B2 JP 6188592 B2 JP6188592 B2 JP 6188592B2 JP 2014008472 A JP2014008472 A JP 2014008472A JP 2014008472 A JP2014008472 A JP 2014008472A JP 6188592 B2 JP6188592 B2 JP 6188592B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- region
- image
- detected
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、カメラによって撮影された画像から物体領域を検出する物体検出装置、物体検出方法、および物体検出プログラムに関する。 The present invention relates to an object detection device, an object detection method, and an object detection program for detecting an object region from an image photographed by a camera.
自動車などの車両の運転を支援するために、例えば車両にカメラを設置し、カメラで撮影された画像から車両の障害となりうる物体を検出する技術がある。 In order to support driving of a vehicle such as an automobile, for example, there is a technique in which a camera is installed in a vehicle and an object that can be an obstacle of the vehicle is detected from an image captured by the camera.
特許文献1には、カメラにより撮像された複数の画像間の動きベクトルを検出し、検出された動きベクトルから自車の移動パラメータと背景ベクトルとを検出し、背景ベクトルとして検出されなかった動きベクトルを物体ベクトルとして扱い、この物体ベクトルから物体を検出し、得られた物体の接近状況に応じて運転者に警告を行う技術が開示されている。
In
しかし、カメラにより撮影された複数の画像から動きベクトルを検出し、検出された動きベクトルのみに基づいて物体領域を検出する構成では、物体領域を正確に検出することができない。 However, in a configuration in which a motion vector is detected from a plurality of images taken by a camera and an object region is detected based only on the detected motion vector, the object region cannot be accurately detected.
本発明は、動きベクトルのみに基づいて物体領域を検出する場合と比べて、正確に物体領域を検出することができる物体検出装置、物体検出方法、および物体検出プログラムを提供することを目的とする。 It is an object of the present invention to provide an object detection device, an object detection method, and an object detection program that can detect an object region more accurately than when detecting an object region based only on a motion vector. .
本発明に係る物体検出装置は、カメラにより順次撮影された複数の画像を取得する画像取得部と、前記画像取得部により取得された複数の画像のうちの対象画像および少なくとも1つの参照画像から、前記対象画像の各部分の動きベクトルを検出する動きベクトル検出部と、前記画像取得部により取得された複数の画像のうちの2つの画像間の差分画像を算出する差分算出部と、前記動きベクトル検出部により検出された動きベクトルと、前記差分算出部により算出された差分画像とに基づいて、物体が存在する物体領域を検出する物体検出部とを備え、前記物体検出部は、前記動きベクトルに基づいて前記対象画像から物体の領域を検出する領域検出部と、前記差分画像から物体の輪郭を抽出する輪郭抽出部と、前記領域検出部により検出された領域に対応する、前記輪郭抽出部により抽出された輪郭で囲まれた領域を、前記物体領域として検出する物体領域検出部とを有することを特徴とする。 An object detection device according to the present invention includes an image acquisition unit that acquires a plurality of images sequentially captured by a camera, and a target image and at least one reference image among the plurality of images acquired by the image acquisition unit, A motion vector detection unit that detects a motion vector of each part of the target image, a difference calculation unit that calculates a difference image between two images of the plurality of images acquired by the image acquisition unit, and the motion vector An object detection unit that detects an object region in which an object exists based on the motion vector detected by the detection unit and the difference image calculated by the difference calculation unit ; and the object detection unit includes the motion vector Based on the target image, a region detection unit that detects a region of the object, a contour extraction unit that extracts a contour of the object from the difference image, and a detection by the region detection unit Corresponding to the region, the region surrounded by the contour extracted by the contour extracting unit, and having a body area detection unit for detecting as the object region.
本発明に係る物体検出方法は、カメラにより順次撮影された複数の画像を取得する画像取得ステップと、前記画像取得ステップで取得された複数の画像のうちの対象画像および少なくとも1つの参照画像から、前記対象画像の各部分の動きベクトルを検出する動きベクトル検出ステップと、前記画像取得ステップで取得された複数の画像のうちの2つの画像間の差分画像を算出する差分算出ステップと、前記動きベクトル検出ステップで検出された動きベクトルと、前記差分算出ステップで算出された差分画像とに基づいて、物体が存在する物体領域を検出する物体検出ステップとを含み、前記物体検出ステップは、前記動きベクトルに基づいて前記対象画像から物体の領域を検出する領域検出ステップと、前記差分画像から物体の輪郭を抽出する輪郭抽出ステップと、前記領域検出ステップで検出された領域に対応する、前記輪郭抽出ステップで抽出された輪郭で囲まれた領域を、前記物体領域として検出する物体領域検出ステップとを有することを特徴とする。 The object detection method according to the present invention includes an image acquisition step of acquiring a plurality of images sequentially captured by a camera, a target image and at least one reference image among the plurality of images acquired in the image acquisition step, A motion vector detection step for detecting a motion vector of each part of the target image, a difference calculation step for calculating a difference image between two images of the plurality of images acquired in the image acquisition step, and the motion vector a motion vector detected in the detection step, the based on the difference image calculated by the difference calculation step, seen including a object detection step of detecting an object area where an object exists, the object detection step, the motion A region detecting step of detecting a region of the object from the target image based on the vector; and extracting an outline of the object from the difference image. To a contour extraction step, corresponding to the detected in the area detecting step region, a region surrounded by the extracted at the contour extraction step contour, in that it has an object area detection step of detecting as said object area Features.
本発明に係る物体検出プログラムは、カメラにより順次撮影された複数の画像を取得する画像取得ステップと、前記画像取得ステップで取得された複数の画像のうちの対象画像および少なくとも1つの参照画像から、前記対象画像の各部分の動きベクトルを検出する動きベクトル検出ステップと、前記画像取得ステップで取得された複数の画像のうちの2つの画像間の差分画像を算出する差分算出ステップと、前記動きベクトル検出ステップで検出された動きベクトルと、前記差分算出ステップで算出された差分画像とに基づいて、物体が存在する物体領域を検出する物体検出ステップとをコンピュータに実行させ、前記物体検出ステップは、前記動きベクトルに基づいて前記対象画像から物体の領域を検出する領域検出ステップと、前記差分画像から物体の輪郭を抽出する輪郭抽出ステップと、前記領域検出ステップで検出された領域に対応する、前記輪郭抽出ステップで抽出された輪郭で囲まれた領域を、前記物体領域として検出する物体領域検出ステップとを有することを特徴とする。 The object detection program according to the present invention includes an image acquisition step of acquiring a plurality of images sequentially captured by a camera, a target image and at least one reference image among the plurality of images acquired in the image acquisition step, A motion vector detection step for detecting a motion vector of each part of the target image, a difference calculation step for calculating a difference image between two images of the plurality of images acquired in the image acquisition step, and the motion vector Based on the motion vector detected in the detection step and the difference image calculated in the difference calculation step, the computer executes an object detection step for detecting an object region where the object exists , and the object detection step includes: A region detecting step of detecting a region of an object from the target image based on the motion vector; and the difference An object region for detecting, as the object region, a region surrounded by the contour extracted in the contour extraction step, which corresponds to the region detected in the region detection step and a contour extraction step for extracting the contour of the object from the image And a detecting step .
本発明によれば、動きベクトルに加えて差分画像に基づいて物体領域を検出することにより、動きベクトルのみに基づいて物体領域を検出する場合と比べて、正確に物体領域を検出することができる。 According to the present invention, by detecting an object region based on a difference image in addition to a motion vector, the object region can be detected more accurately than when detecting an object region based only on a motion vector. .
以下、本発明の実施の形態を図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る物体検出装置20を含む物体検出システム1の構成の一例を示すブロック図である。この物体検出システム1は、カメラにより撮影された画像から物体を検出するシステムである。本実施の形態では、物体検出システム1は、自動車などの車両に搭載されたカメラによって撮影された画像から車両周辺の障害物を検出する障害物検出システムである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating an example of a configuration of an
図1に示されるように、物体検出システム1は、カメラ10、物体検出装置20、および障害物通知部30を備えている。
As shown in FIG. 1, the
カメラ10は、撮影対象領域を順次撮影し、撮影された複数の画像を物体検出装置20に出力する。ここで、画像は、画像データ(または画像信号)である。画像データは、画像を構成する各画素の画素値を表すデータであり、具体的には2次元状に配列された複数の画素の各々の画素値を表すデータである。本実施の形態では、カメラ10は、画像データである画像フレーム(以下、単に「フレーム」という)を出力する。例えば、カメラ10は、所定のフレームレートで撮影を行い、得られたフレームを物体検出装置20に順次出力する。また、カメラ10は、車両に設置されており、車両の周囲を撮影する。例えば、カメラ10は、車両のサイドミラーの位置に車両後方を撮像する方向に取り付けられる。サイドミラーの位置に設置することで、サイドミラーをカメラに置き換えることが可能となる。この場合、サイドミラーよりも広角のカメラを使用することにより、後側方の死角をなくすことが可能となる。
The
物体検出装置20は、カメラ10により撮影された画像を取得し、取得された画像から物体を検出する。本例では、物体検出装置20は、取得された画像から車両周辺の障害物を検出する障害物検出装置である。図1において、物体検出装置20は、画像取得部21、動きベクトル検出部22、差分算出部23、および物体検出部24を有する。
The
画像取得部21は、カメラ10により順次撮影された複数のフレームを取得する。画像取得部21は、カメラ10から出力されるフレームをすべて取り込んでもよいし、間引いて取り込んでもよい。例えば、画像取得部21は、30fpsのフレームレートで撮影された複数のフレームを、撮影時と同じフレームレート(すなわちフレーム間隔1/30秒)で取得してもよいし、撮影時と異なるフレームレート(例えば、3フレームに1フレームの割合、すなわちフレーム間隔1/10秒)で取得してもよい。画像取得部21は、取得した複数のフレームを動きベクトル検出部22と差分算出部23とに出力する。
The
動きベクトル検出部22は、画像取得部21により取得された複数の画像から画像の各部分の動きベクトルを検出する。具体的には、動きベクトル検出部22は、入力された複数の画像のうちの対象画像および少なくとも1つの参照画像から、対象画像の各部分の動きベクトルを検出する。動きベクトル検出部22は、検出結果を物体検出部24に出力する。
The motion
差分算出部23は、画像取得部21により取得された複数の画像のうちの2つの画像間の差分画像を算出する。差分算出部23は、算出結果を物体検出部24に出力する。
The
物体検出部24は、動きベクトル検出部22により検出された動きベクトルと、差分算出部23により算出された差分画像とに基づいて、物体が存在する物体領域を検出する。また、物体検出部24は、物体領域を検出した場合に、当該物体領域の位置と当該物体領域内の動きベクトルとに基づき、当該物体領域に存在する物体が車両に対する障害物であるか否かを判定し、これにより車両周辺の障害物を検出する。物体検出部24は、障害物を検出した場合、その旨を障害物通知部30に通知する。このとき、物体検出部24は、障害物と判定された物体の物体領域を通知してもよいし、物体領域から特定される物体の位置または形状を通知してもよい。
The
障害物通知部30は、物体検出部24からの通知を受けると、障害物が存在することを車両の運転者に対して通知または警告する。このとき、障害物通知部30は、物体検出部24からの通知に基づき、障害物の物体領域、位置、または形状を運転者に通知してもよい。障害物通知部30は、例えば、表示装置による表示や音声出力装置による音声出力により通知を行う。
When the
上記構成において、画像取得部21は、カメラ10からの画像を記憶する画像記憶部21aを含んでもよく、動きベクトル検出部22および差分算出部23は、処理に用いる画像を画像記憶部21aから取得してもよい。
In the above configuration, the
以下、動きベクトル検出部22、差分算出部23、および物体検出部24の構成および処理について、具体的に説明する。
Hereinafter, the configuration and processing of the motion
動きベクトル検出部22は、画像取得部21から入力された複数のフレームのうちの対象フレームおよび参照フレームから、対象フレームの各部分の動きベクトルを検出する。例えば、対象フレームは現在のフレーム(以下、「現フレーム」という)であり、参照フレームは現フレームよりも時間的に前に撮影されたフレーム(以下、「前フレーム」という)である。本実施の形態では、対象フレームを複数のブロックに分割し、動きベクトル検出部22は、対象フレームのブロック単位で動きベクトルを検出し、検出されたブロック単位の動きベクトルを用いて、対象フレームの画素単位で動きベクトルを検出する。各ブロックは、対象フレームの複数の画素により構成され、例えば矩形状の画素領域である。ブロックのサイズは、適宜決められればよいが、ここでは16×16画素である。
The motion
図1の例では、動きベクトル検出部22は、ブロック動きベクトル検出部22aと、画素動きベクトル検出部22bとを有する。
In the example of FIG. 1, the motion
ブロック動きベクトル検出部22aは、対象フレームの各ブロックの動きベクトルを検出する。動きベクトルを検出する方法としては、公知の方法を含む様々な方法を利用することができるが、ここではブロックマッチング法を用いる。ブロック動きベクトル検出部22aは、複数のブロックのうちの対象ブロックの動きベクトルを求める場合、参照フレームに探索範囲を設定し、この探索範囲内で対象ブロックと最も類似するブロックを探索し、探索されたブロックの位置から対象ブロックの位置へのベクトルを対象ブロックの動きベクトルとして求める。ブロック動きベクトル検出部22aは、検出結果として、対象フレームの各ブロックの動きベクトルを画素動きベクトル検出部22bに出力する。
The block motion
画素動きベクトル検出部22bは、ブロック動きベクトル検出部22aからの対象フレームの各ブロックの動きベクトルに基づき、対象フレームの各画素の動きベクトルを検出する。画素動きベクトル検出部22bは、ブロック単位の動きベクトルを画素単位の動きベクトルに詳細化する。具体的には、画素動きベクトル検出部22bは、対象フレームのブロックを段階的に小さくしていきながら、ブロック単位の動きベクトルの検出を行い、最終的に画素単位の動きベクトルを検出する。この場合、ブロック単位または画素単位の動きベクトルを検出するとき、その前の段階で検出された動きベクトルに基づいて探索範囲を決定することができる。例えば、画素動きベクトル検出部22bは、16×16画素の各ブロックを8×8画素のブロックに4分割し、8×8画素の各ブロックの動きベクトルを求める。このとき、動きベクトルを求める対象となる8×8画素のブロックが属する16×16画素のブロックの動きベクトルに基づき、動きベクトルを求める際の探索範囲を絞り込む。同様に、8×8画素の各ブロックを4×4画素のブロックに4分割して4×4画素の各ブロックの動きベクトルを求め、4×4画素の各ブロックを2×2画素のブロックに4分割して2×2画素の各ブロックの動きベクトルを求める。そして、2×2画素の各ブロックの動きベクトルに基づき、対象フレームの各画素の動きベクトルを求める。以下、この処理について、図2(a)〜(c)を参照して説明する。
The pixel motion vector detection unit 22b detects the motion vector of each pixel of the target frame based on the motion vector of each block of the target frame from the block motion
ここでは、図2(a)に示される対象フレーム40の対象画素41の動きベクトルを求める場合について説明する。図2(b)に示されるように、対象画素41が属する2×2画素のブロックの動きベクトル42に基づき、参照フレーム43に探索範囲44を設定する。具体的には、対象画素41に対応する参照フレーム43上の画素の位置45を動きベクトル42から求め、位置45を中心とする所定サイズの領域を探索範囲44として設定する。そして、参照フレーム43において、参照画素46を探索範囲44内の各画素位置に移動させる。このとき、各画素位置において、参照画素46およびその周辺画素の画素値と対象画素41の画素値との差分値の和を算出する。例えば、図2(c)のように、対象画素41の画素値をpとし、参照画素46を中心とする3×3の画素群47の各画素の画素値をp1〜p9とした場合、差分値の和Sを下記式(1)により算出する。そして、探索範囲44内において和Sが最小となる参照画素の位置48を特定し、特定された参照画素の位置48から対象画素41の位置へのベクトル49を、対象画素41の動きベクトルとして決定する。
S=(p1−p)+(p2−p)+・・・+(p9−p) …(1)
Here, a case where the motion vector of the
S = (p1−p) + (p2−p) +... + (P9−p) (1)
図3は、動きベクトル検出部22の検出結果の一例を示す図である。図3には、参照フレーム50を参照して対象フレーム51の各画素の動きベクトルを検出した場合の結果が示されている。一例では、対象フレーム51は現フレームであり、参照フレーム50は前フレームである。図3において、対象フレーム51内には、検出結果である各画素の動きベクトルのうちの一部が矢印で示されている。矢印の長さは動きベクトルの大きさを示し、矢印の方向は動きベクトルの方向を示し、矢印の始点は動きベクトルに対応する画素の位置を示す。参照フレーム50の領域52には物体が写っており、これと同じ物体が対象フレーム51の領域53に写っている。対象フレーム51の座標(x2,y2)の画素について、差分値の和Sが最小となる参照画素の位置として座標(x1,y1)が算出された場合、座標(x1,y1)から座標(x2,y2)へのベクトル(x2−x1,y2−y1)が動きベクトル54として検出される。座標(x2,y2)は物体の位置に相当し、動きベクトル54は、物体の動きの方向と大きさを表す。図3において動きベクトル54と同様に実線矢印で示される他の動きベクトルも、物体の動きの方向と大きさを表す。これらの実線矢印で示される動きベクトルは、互いに同じ大きさおよび方向を有し、物体の動きベクトルと呼べる。一方、図3において、動きベクトル55を含む一点鎖線矢印で示される複数の動きベクトルは、物体の背景の動きの方向と大きさを表し、物体の動きベクトルとは異なる大きさおよび方向を有する。これらの一点鎖線矢印で示される動きベクトルは、背景の動きベクトルと呼べる。
FIG. 3 is a diagram illustrating an example of a detection result of the motion
なお、動きベクトルを検出するためには、対象フレームと参照フレームとの少なくとも2つのフレームが必要であるが、より多くの参照フレームが用いられてもよい。例えば、動きベクトル検出部22は、対象フレームとその前後の参照フレームとの合計3枚のフレームを使用して動きベクトルを検出してもよい。対象フレームの前後のフレームを使用することで、より精度の高い動きベクトルを検出することができる。
Note that in order to detect a motion vector, at least two frames of a target frame and a reference frame are necessary, but more reference frames may be used. For example, the motion
また、動きベクトルの検出に用いられる対象フレームと参照フレームとの間隔は、適宜決められればよい。対象フレームの1フレーム前のフレームが参照フレームとして用いられてもよいし、対象フレームのNフレーム(Nは2以上の整数)前のフレームが参照フレームとして用いられてもよい。例えば、30fpsで撮影される場合、隣接するフレーム間の間隔は1/30秒であるが、この間隔では画像の変化が小さすぎて動きベクトルが検出されにくい場合がある。このような場合、動きベクトルの検出に用いられるフレーム間の間隔を1/30秒ではなく、1/15秒としてもよい。ただし、フレーム間の間隔が大きすぎると、接近速度が非常に速い障害物など、動きが速い物体の動きベクトルを適切に検出できない可能性がある。動きベクトルの検出に用いられるフレーム間の間隔は、以上のような事情を考慮して最適化されることが望ましい。 The interval between the target frame and the reference frame used for motion vector detection may be determined as appropriate. A frame one frame before the target frame may be used as a reference frame, or a frame N frames (N is an integer of 2 or more) before the target frame may be used as a reference frame. For example, in the case of shooting at 30 fps, the interval between adjacent frames is 1/30 second. However, at this interval, the change in the image is too small and it may be difficult to detect the motion vector. In such a case, the interval between frames used for motion vector detection may be 1/15 seconds instead of 1/30 seconds. However, if the interval between frames is too large, there is a possibility that a motion vector of a fast moving object such as an obstacle with a very fast approach speed cannot be detected properly. It is desirable that the interval between frames used for motion vector detection be optimized in consideration of the above situation.
また、動きベクトルの検出の対象となる対象フレームの間隔も、適宜決められればよい。例えば、動きベクトル検出部22は、撮影されたフレーム毎に動きベクトルを検出してもよいし、Nフレーム(Nは2以上の整数)に1フレームの割合で動きベクトルを検出してもよい。例えば、30fpsで撮影される場合、フレーム毎に動きベクトルを検出しようとすると、1/30秒毎に動きベクトルの検出を行わなければならず、速い演算速度が必要となる。そこで、動きベクトルの検出を行う間隔を1/30秒ではなく、1/15秒としてもよい。ただし、動きベクトルを検出するフレームの間隔が大きすぎると、障害物の接近速度が非常に速い場合に、危険通知が遅れる可能性がある。動きベクトルを検出するフレームの間隔は、以上のような事情を考慮して最適化されることが望ましい。
In addition, the interval between target frames for which motion vectors are to be detected may be determined as appropriate. For example, the motion
差分算出部23は、画像取得部21から入力された複数のフレームのうちの2つのフレーム間の差分を算出して差分画像を生成する。具体的には、差分算出部23は、2つのフレーム間の各画素の画素値の差分を算出し、算出された各画素の差分を画素値として有する差分画像を生成する。一つの態様では、2つのフレームのうちの一方は、動きベクトルの検出に用いられる対象フレームと同じフレームである。2つのフレームのうちの他方は、例えば動きベクトルの検出に用いられる参照フレームと同じフレームであるが、異なるフレームであってもよい。差分算出部23は、例えば、動きベクトル検出の対象フレーム毎に、当該対象フレームを含む2つのフレーム間の差分画像を算出する。
The
図4は、差分算出部23の処理の一例を示す図である。図4の例では、差分算出部23は、第1のフレーム61と第2のフレーム62との差分画像63を生成する。例えば、第1のフレーム61は前フレームであり、第2のフレーム62は現フレームである。各フレームは、座標(x,y)(x=1,2,・・・,X、y=1,2,・・・,Y)に位置する合計X×Y個の画素で構成され、第1のフレーム61の座標(x,y)の画素の画素値はp1(x,y)で表され、第2のフレーム62の座標(x,y)の画素の画素値はp2(x,y)で表されるものとする。このとき、差分画像63は、座標(x,y)(x=1,2,・・・,X、y=1,2,・・・,Y)に位置する合計X×Y個の画素で構成され、差分画像63の座標(x,y)の画素の画素値p3(x,y)は、下記式(2)で表される。
p3(x,y)=p1(x,y)−p2(x,y) …(2)
FIG. 4 is a diagram illustrating an example of processing of the
p3 (x, y) = p1 (x, y) -p2 (x, y) (2)
図4において、第1のフレーム61の領域61aには物体が写っており、これと同じ物体が第2のフレーム62の領域62aに写っている。2つのフレーム間では、フレーム内の物体の位置が移動しており、物体の輪郭がずれている。この輪郭のずれにより、2つのフレーム間の差分画像63には物体の輪郭が現れる。具体的には、差分画像63には、第1のフレーム61の領域61aの輪郭L1と、第2のフレーム62の領域62aの輪郭L2とが現れる。より詳しく説明すると、差分画像63において、領域63aは、第1のフレーム61の物体の領域61aと第2のフレーム62の背景の領域62bとの差分領域であり、この領域の画素値の絶対値は比較的大きい。領域63bは、第1のフレーム61の背景の領域61bと第2のフレーム62の物体の領域62aとの差分領域であり、この領域の画素値の絶対値は比較的大きい。領域63cは、第1のフレーム61の物体の領域61aと第2のフレーム62の物体の領域62aとの差分領域であり、この領域の画素値の絶対値は比較的小さい。領域63dは、第1のフレーム61の背景の領域61bと第2のフレーム62の背景の領域62bとの差分領域であり、この領域の画素値の絶対値は比較的小さい。このような領域間の画素値の違いにより、領域間の境界に輪郭L1およびL2が現れる。
In FIG. 4, an object is shown in the
なお、差分画像の算出に用いられる2つのフレームの間隔は適宜決められればよく、隣接する2つのフレーム間の差分画像が算出されてもよいし、1以上のフレームを間に挟む2つのフレーム間の差分画像が算出されてもよい。例えば、30fpsで撮影される場合、隣接するフレーム間の間隔は1/30秒であるが、この間隔では画像の変化が小さすぎて輪郭が検出されにくい場合がある。このような場合、2枚のフレーム間の間隔を1/30秒ではなく、1/15秒としてもよい。ただし、フレーム間の間隔が大きすぎると、接近速度が非常に速い障害物など、動きが速い物体の輪郭を適切に検出できない可能性がある。差分画像の算出に用いられる2枚のフレーム間の間隔は、以上のような事情を考慮して最適化されることが望ましい。 The interval between two frames used for calculating the difference image may be determined as appropriate, a difference image between two adjacent frames may be calculated, or between two frames sandwiching one or more frames in between. The difference image may be calculated. For example, in the case of shooting at 30 fps, the interval between adjacent frames is 1/30 second. However, at this interval, the change in the image is too small and the contour may not be detected. In such a case, the interval between two frames may be 1/15 seconds instead of 1/30 seconds. However, if the interval between frames is too large, there is a possibility that the contour of an object that moves fast, such as an obstacle with a very fast approach speed, cannot be detected properly. It is desirable that the interval between the two frames used for calculating the difference image be optimized in consideration of the above situation.
また、差分画像を算出するフレームの間隔(例えば第2のフレームとなるフレームの間隔)についても、適宜決められればよい。例えば、差分算出部23は、撮影された各フレームを第2のフレームとして差分画像を算出してもよいし、Nフレーム(Nは2以上の整数)毎に1つのフレームを第2のフレームとして差分画像を算出してもよい。例えば、30fpsで撮影される場合、フレーム毎に差分画像を算出しようとすると、1/30秒毎に算出を行わなければならず、速い演算速度が必要となる。そこで、差分画像の算出を行う間隔を1/30秒ではなく、1/15秒としてもよい。ただし、差分画像を算出するフレームの間隔が大きすぎると、障害物の接近速度が非常に速い場合に、危険通知が遅れる可能性がある。差分画像を算出するフレームの間隔は、以上のような事情を考慮して最適化されることが望ましい。
In addition, the frame interval for calculating the difference image (for example, the interval between the frames serving as the second frames) may be determined as appropriate. For example, the
物体検出部24は、動きベクトル検出部22の検出結果と、差分算出部23の算出結果とに基づいて、フレーム中の物体が存在する物体領域を検出する。物体検出部24は、例えば、動きベクトル検出の対象フレームの各々について、物体領域の検出を行う。以下に詳しく説明するように、物体検出部24は、対象フレーム中の同じ動きベクトルを有する複数の部分で構成される領域(または対象フレーム中の動きベクトルが均一な領域)に対応する、差分画像中の輪郭で囲まれた領域を物体領域として検出する。
The
図1の例では、物体検出部24は、領域検出部24a、輪郭抽出部24b、物体領域検出部24c、および障害物判定部24dを有する。
In the example of FIG. 1, the
領域検出部24aは、動きベクトル検出部22により検出された動きベクトルに基づいて対象フレームから物体の領域を検出する。具体的には、領域検出部24aは、対象フレーム中の同じ動きベクトルを有する複数の画素で構成される領域を物体の領域として検出する。具体的には、領域検出部24aは、同じ大きさおよび方向の動きベクトルを有する複数の画素によって構成される一塊の領域を物体の領域として検出する。上記の「同じ」とは、厳密な意味での同じに限られず、同じ物体の動きベクトルとみなせる程度に同じであればよく、略同じであってもよい。
The
例えば、動きベクトル検出部22により図3に示される検出結果が得られた場合、領域検出部24aは、図5に示されるように、同じ大きさおよび方向の動きベクトルを有する複数の画素によって形成される一塊の領域70を、物体の領域として検出する。図5において、検出された物体の領域70は、実際に物体が写っている領域53と概ね一致しているが、輪郭がずれている。
For example, when the detection result shown in FIG. 3 is obtained by the motion
輪郭抽出部24bは、差分算出部23により算出された差分画像から物体の輪郭を抽出する。例えば、差分算出部23により図4に示される差分画像63が得られた場合、輪郭抽出部24bは、例えばラベリング処理によって、図6に示されるように、差分画像63から領域63a〜63dを特定し、特定された領域間の境界線B1〜B4を物体の輪郭として抽出する。境界線B1およびB3は輪郭L1に相当し、境界線B2およびB4は輪郭L2に相当する。なお、画像から輪郭を抽出する方法としては、公知の方法を含む様々な方法を利用することができる。
The
物体領域検出部24cは、領域検出部24aにより検出された領域に対応する、輪郭抽出部24bにより抽出された輪郭で囲まれた領域を、物体領域として検出する。具体的には、物体領域検出部24cは、領域検出部24aにより検出された領域と輪郭抽出部24bにより抽出された輪郭とを重ね合わせることにより(または対象フレームと差分画像とを重ね合わせることにより)、検出された領域に対応する、抽出された輪郭で囲まれた領域を、物体領域として検出する。
The object
領域検出部24aにより図5の領域70が検出され、輪郭抽出部24bにより図6の輪郭B1〜B4が抽出された場合、物体領域検出部24cは、図7に示されるように、領域70に輪郭B1〜B4を重ね合わせて、領域70に対応する輪郭B2およびB4(すなわち輪郭L2)で囲まれた領域80を物体領域として検出する。
When the
一例では、物体領域検出部24cは、抽出された輪郭B1〜B4により構成可能な領域のうち、検出された領域70と最も一致する領域(ここでは輪郭B2およびB4で構成される領域)を物体領域として検出する。例えば、輪郭B1〜B4により構成可能な各候補領域について、領域70との重複率Dを求め、重複率Dが最も高い候補領域を物体領域として検出する。重複率Dは、例えば、領域70の面積をS1、候補領域の面積をS2、領域70と候補領域とが重複する領域の面積をS3とした場合、下記式(3)により計算される。なお、計算された重複率の中で最も高い重複率が予め定められた閾値以下である場合には、物体領域検出部24cは、領域70に対応する物体領域を検出しないこととしてもよい。
D=S3/(S1+S2−S3) …(3)
In one example, the object
D = S3 / (S1 + S2-S3) (3)
別の例では、物体領域検出部24cは、抽出された輪郭B1〜B4のそれぞれについて、領域70の輪郭との一致度を計算し、一致度が閾値以上の輪郭を特定し、特定された輪郭(ここでは輪郭B2およびB4)で囲まれた領域を物体領域として検出する。なお、一致度が閾値以上の輪郭が存在しない場合や、特定された輪郭だけでは領域を構成できない場合には、物体領域検出部24cは、領域70に対応する物体領域を検出しないこととしてもよい。
In another example, the object
障害物判定部24dは、物体領域検出部24cにより物体領域が検出された場合に、当該物体領域の位置、当該物体領域内の動きベクトルの大きさおよび方向、ならびに車両の移動方向および速度に基づき、当該物体領域にある物体が車両に対する障害物であるか否かを判定する。ここで、車両に対する障害物とは、車両に障害となる物体であり、車両に障害となりうる物体を含んでもよい。上記物体領域内の動きベクトルとしては、動きベクトル検出部22によって検出された動きベクトルが用いられる。具体的には、障害物判定部24dは、物体と車両との相対速度および移動方向の関係に基づき、物体が車両に衝突する可能性があると判断した場合に、物体が障害物であると判定する。例えば、車両に対して一定以上の速度で接近してきている物体については、障害物であると判定する。
When the object region is detected by the object
図8は、物体検出装置20による障害物検出処理(または実施の形態1に係る物体検出方法を含む障害物検出方法)の一例を示すフローチャートである。図8の処理は、物体検出装置20によって繰り返し実行される。
FIG. 8 is a flowchart illustrating an example of an obstacle detection process (or an obstacle detection method including the object detection method according to Embodiment 1) by the
物体検出装置20は、自車の走行状態を検知する(S1)。走行状態は、自車の移動方向および速度を含む。
The
次に、物体検出装置20は、カメラ10から撮影されたフレームを取得し、取得されたフレームを画像記憶部21aに記憶する(S2)。
Next, the
次に、物体検出装置20は、ステップS2で取得されたフレームを対象フレームとして動きベクトル検出処理を行い、対象フレームの各画素の動きベクトルを検出し(S3)、検出された動きベクトルを用いて、対象フレーム中の物体が存在する領域を検出する(S4)。
Next, the
次に、物体検出装置20は、ステップS2で取得されたフレームに対して差分算出処理を行って差分画像を算出し(S5)、得られた差分画像から物体の輪郭を抽出する(S6)。
Next, the
次に、物体検出装置20は、ステップS4の領域検出結果とステップS6の輪郭抽出結果とを合わせて、物体領域を検出する(S7)。例えば、ステップS4で検出された物体の領域に、ステップS6で抽出された物体の輪郭を重ね合わせて、検出された物体の領域に対応する、抽出された物体の輪郭で囲まれた領域を物体領域として特定する。
Next, the
次に、物体検出装置20は、ステップS1で検知された自車の走行状態と、ステップS7で検出された物体領域の位置と、当該物体領域内のステップS3で検出された動きベクトルとから、当該物体領域にある物体が自車の障害物であるか否かを判定する(S8)。例えば、物体検出装置20は、物体領域にある物体の移動方向および速度と自車の移動方向および速度との関係から、衝突の危険があると判断した場合には、障害物であると判定する。また、物体領域の物体と自車とで移動方向および速度が等しく、物体と自車とが互いに平行に移動している場合にも、自車または物体の移動方向または速度が変化すれば、物体が自車の障害となる可能性があるので、障害物であると判定する。自車の移動方向と反対方向に移動している物体については、障害物でないと判定する。
Next, the
物体検出装置20は、物体が障害物であると判定した場合(S8:Yes)、その旨を障害物通知部30に通知し(S9)、物体が障害物でないと判定した場合には(S8:No)、処理を終了する。
When the
図9は、図8のステップS3の動きベクトル検出処理の内容を示すフローチャートである。以下、図9を参照して、動きベクトル検出処理について説明する。 FIG. 9 is a flowchart showing the contents of the motion vector detection process in step S3 of FIG. Hereinafter, the motion vector detection process will be described with reference to FIG.
まず、物体検出装置20は、動きベクトルの検出に用いる複数のフレームを画像記憶部21aから取得する(S11)。具体的には、物体検出装置20は、今回のステップS2で取得されたフレームを対象フレームとして取り出し、前回のステップS2で取得されたフレームを参照フレームとして取り出す。
First, the
次に、物体検出装置20は、ステップS11で取得された各フレームに対して画像の解像度を下げる解像度変換処理を行い、各フレームの低解像度画像(または縮小画像)を生成する(S12)。
Next, the
次に、物体検出装置20は、ステップS12で生成された各フレームの低解像度画像から動きベクトルを検出する。具体的には、まず、対象フレームの低解像度画像を複数のブロックに分割し、ブロック毎の動きベクトルを検出する(S13)。そして、ブロック毎の動きベクトルの検出結果を用いて、画素毎の動きベクトルを検出する(S14)。
Next, the
なお、上記の処理において、各フレームの解像度を下げて低解像度画像を使用するのは、動きベクトル検出の演算量を抑えるためである。撮影されたフレームの解像度が大きい場合には、フレームをそのまま使用すると動きベクトル検出の演算量が多くなる一方、解像度を下げても問題なく動きベクトル検出が可能であることから、上記のように解像度を下げることが有効である。一方、元のフレームの解像度が小さい場合には、ステップS12の処理は省略されてもよい。 In the above processing, the reason why the resolution of each frame is lowered and the low-resolution image is used is to suppress the calculation amount of motion vector detection. If the resolution of the shot frame is large, using the frame as it is will increase the amount of motion vector detection, but the motion vector can be detected without any problem even if the resolution is lowered. Is effective. On the other hand, when the resolution of the original frame is small, the process of step S12 may be omitted.
また、ステップS12において、複数段階の低解像度画像を生成して、解像度が低いものから順番に、各段階の低解像度画像に対して動きベクトルの検出(ステップS13およびS14の処理)を行ってもよい。この場合、2段階目以降の低解像度画像に対する動きベクトル検出においては、1段階前の低解像度画像に対する動きベクトル検出の結果を用いて、動きベクトル検出の探索範囲を絞り込むことができ、これにより演算量を削減することができる。 Alternatively, in step S12, a plurality of low-resolution images may be generated, and motion vectors may be detected for the low-resolution images at each level in order from the lowest resolution (steps S13 and S14). Good. In this case, in the motion vector detection for the low-resolution image after the second stage, the search range of the motion vector detection can be narrowed down by using the result of the motion vector detection for the low-resolution image one stage before. The amount can be reduced.
図10は、図8のステップS5の差分算出処理の内容を示すフローチャートである。以下、図10を参照して、差分算出処理について説明する。 FIG. 10 is a flowchart showing the contents of the difference calculation process in step S5 of FIG. Hereinafter, the difference calculation process will be described with reference to FIG.
まず、物体検出装置20は、差分画像の算出に用いる複数のフレームを画像記憶部21aから取得する(S21)。例えば、物体検出装置20は、図8のステップS3の動きベクトル検出処理に使用される複数のフレームと同じものを取得する。具体的には、物体検出装置20は、今回のステップS2で取得されたフレームと、前回のステップS2で取得されたフレームとを取り出す。ただし、物体検出装置20は、動きベクトル検出処理に使用されるフレームとは異なるタイミングで取得されたフレームを使用してもよい。例えば、物体検出装置20は、今回のステップS2で取得されたフレームと、前々回のステップS2で取得されたフレームとを取り出してもよい。
First, the
次に、物体検出装置20は、ステップS21で取得した2つのフレームの各画素の差分を算出して、2つのフレーム間の差分画像を生成する(S22)。
Next, the
以上のとおり、本実施の形態では、物体検出装置20は、動きベクトルと差分画像とに基づいて物体領域を検出する。これにより、動きベクトルのみに基づいて物体領域を検出する場合と比べて、正確に物体領域を検出することができる。具体的には、動きベクトルのみに基づいて物体領域を検出する構成では、1つの物体内で動きベクトルが異なる方向を示す場合があり、また、背景部分であっても物体領域として誤検出される場合もあることなどから、物体領域の輪郭を正確に検出することができず、物体領域を精度良く検出することができないという問題がある。これに対し、本実施の形態では、動きベクトルから検出された物体の領域と、差分画像から抽出された物体の輪郭とを重ね合わせることで、物体領域を輪郭まで正確に検出することができる。つまり、動きベクトルによって大まかに物体の領域を検出し、この領域の輪郭を差分画像によって詳細に決定することで、精度良く物体領域を検出することができる。また、物体の輪郭を把握するためには、エッジ検出を行う方法もあるが、この方法では演算量が多くなってしまう。これに対し、差分画像の算出は、画像の各画素値の差分を計算するだけの非常に単純な演算であり、演算量が非常に少ない。このため、本実施の形態によれば、演算量を大きく増やすことなく、物体領域の検出精度を上げることが可能となる。
As described above, in the present embodiment, the
また、本実施の形態では、物体検出装置20は、物体領域が検出された場合に、当該物体領域の位置と当該物体領域内の動きベクトルとに基づき、当該物体領域に存在する物体が車両に対する障害物であるか否かを判定する。このため、障害物を正確に検出することができる。
Further, in the present embodiment, when the object region is detected, the
なお、上記の処理の順序は、一例であり、適宜変更されてもよい。例えば、動きベクトルから検出された物体の領域に対して障害物であるか否かの判定を行い、障害物であると判定された物体の領域と、差分画像から抽出された輪郭とから物体領域を検出してもよい。以下、この変形例について説明する。 Note that the order of the above processes is an example, and may be changed as appropriate. For example, it is determined whether or not the object area detected from the motion vector is an obstacle, and the object area is determined from the object area determined to be an obstacle and the contour extracted from the difference image. May be detected. Hereinafter, this modification will be described.
障害物判定部24dは、領域検出部24aにより物体の領域が検出された場合に、当該検出された領域の位置と当該検出された領域内の動きベクトルとに基づき、当該検出された領域に存在する物体が車両に対する障害物であるか否かを判定する。
The
物体領域検出部24cは、障害物判定部24dにより上記検出された領域に存在する物体が障害物であると判定された場合に、当該検出された領域に対応する、輪郭抽出部24bにより抽出された輪郭で囲まれた領域を、物体領域として検出する。
The object
図11は、変形例における物体検出装置20による障害物検出処理の一例を示すフローチャートである。図11の処理は、物体検出装置20によって繰り返し実行される。
FIG. 11 is a flowchart illustrating an example of an obstacle detection process performed by the
物体検出装置20は、図8のステップS1〜S4と同様に、自車の走行状態を検知し(S31)、カメラ10からフレームを取得し(S32)、動きベクトル検出処理を行い(S33)、検出された動きベクトルを用いて物体の領域を検出する(S34)。
The
そして、物体検出装置20は、図8のステップS8と同様に、ステップS31で検知された自車の走行状態と、ステップS34で検出された領域の位置と、当該領域内の動きベクトルとから、当該領域にある物体が自車の障害物であるか否かを判定する(S35)。
Then, similarly to step S8 in FIG. 8, the
物体検出装置20は、物体が障害物であると判定した場合(S35:Yes)、ステップS36に進み、物体が障害物でないと判定した場合には(S35:No)、処理を終了する。
If the
ステップS36では、物体検出装置20は、図8のステップS5と同様に、差分画像を算出する。そして、物体検出装置20は、図8のステップS6〜S7と同様に、差分画像から物体の輪郭を抽出し(S37)、物体領域を検出する(S38)。この場合に検出される物体領域は、障害物が存在する領域である。そして、物体検出装置20は、障害物が存在する物体領域を障害物通知部30に通知する(S39)。
In step S36, the
実施の形態2.
図12は、実施の形態2に係る物体検出装置220を含む物体検出システム2の構成の一例を示すブロック図である。以下、図12を参照して、物体検出システム2について説明する。以下の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。
Embodiment 2. FIG.
FIG. 12 is a block diagram illustrating an example of the configuration of the object detection system 2 including the
図12に示されるように、物体検出システム2は、図1の物体検出システム1と略同様の構成を有するが、画素動きベクトル検出部22bが省略されている。
As shown in FIG. 12, the object detection system 2 has substantially the same configuration as the
本実施の形態では、動きベクトル検出部222は、対象フレームのブロック単位で動きベクトルを検出する。具体的には、動きベクトル検出部222において、ブロック動きベクトル検出部222aは、対象フレームの各ブロックの動きベクトルを検出し、検出された各ブロックの動きベクトルを物体検出部24に出力する。画素単位の動きベクトルの検出は省略される。
In the present embodiment, the motion
物体検出部24は、動きベクトル検出部222から入力されるブロック単位の動きベクトルを用いて、物体領域の検出および障害物の判定を行う。物体検出部24の処理は、画素単位の動きベクトルの代わりにブロック単位の動きベクトルを用いる点を除いて、実施の形態1と同様である。
The
物体検出装置220の動作は、図8に示される物体検出装置20の動作と略同様であるが、ステップS3の動きベクトル検出処理が異なる。
The operation of the
図13は、実施の形態2における動きベクトル検出処理の内容を示すフローチャートである。以下、図13を参照して、動きベクトル検出処理について説明する。 FIG. 13 is a flowchart showing the contents of motion vector detection processing in the second embodiment. Hereinafter, the motion vector detection process will be described with reference to FIG.
物体検出装置220は、図9のステップS11〜S12と同様に、動きベクトルの検出に用いる複数のフレームを取得し(S41)、各フレームの解像度を下げる解像度変換処理を行う(S42)。
The
次に、物体検出装置220は、ステップS42で生成された各フレームの低解像度画像から、対象フレームのブロック毎の動きベクトルを検出する(S43)。実施の形態1ではブロック単位の動きベクトルを詳細化することによって画素単位の動きベクトルの検出を行ったが、本実施の形態では、画素単位の動きベクトルの検出は行われず、ブロック単位の動きベクトルの検出結果を用いて以降の処理が行われる。
Next, the
以上のとおり、本実施の形態では、物体検出装置220は、ブロック単位で動きベクトルを検出し、ブロック単位の動きベクトルを用いて物体領域の検出を行う。本構成によれば、画素単位で動きベクトルを検出する場合と比較して、動きベクトル検出の処理負荷または演算量を軽減することができ、処理速度を上げることができる。また、ブロック単位の動きベクトルを用いる場合、動きベクトルのみから物体の詳細な形状を検出することはできないが、画素単位の差分値を有する差分画像を用いることによって、物体の詳細な形状を検出することが可能となる。したがって、本実施の形態によれば、物体検出の精度を維持しながら、処理負荷を軽減することができる。
As described above, in the present embodiment, the
実施の形態3.
図14は、実施の形態3に係る物体検出装置320を含む物体検出システム3の構成の一例を示すブロック図である。以下、図14を参照して、物体検出システム3について説明する。以下の説明では、実施の形態1と同様の部分については説明を省略または簡略化し、実施の形態1と同一または対応する要素については同一の符号を付す。
FIG. 14 is a block diagram illustrating an example of the configuration of the
図14に示されるように、物体検出システム3は、図1の物体検出システム1と略同様の構成を有するが、動きベクトル検出部322と差分算出部323とが接続されている。
As shown in FIG. 14, the
本実施の形態では、差分算出部323は、2つのフレーム間の各画素の画素値の差分を算出し、算出された各画素の差分を画素値として有する画像を差分画像として生成し、生成された差分画像を物体検出部24に出力するとともに、動きベクトル検出部322にも出力する。
In the present embodiment, the
動きベクトル検出部322は、差分算出部323から差分画像を受け、対象フレームのうち、差分画像中の画素値の絶対値が閾値以下である部分に対応する部分を除いて、動きベクトルの検出を行う。
The motion
図15は、実施の形態3における物体検出装置320による障害物検出処理の一例を示すフローチャートである。図15の処理は、物体検出装置320によって繰り返し実行される。
FIG. 15 is a flowchart illustrating an example of an obstacle detection process performed by the
物体検出装置320は、図8のステップS1〜S2と同様に、自車の走行状態を検知し(S51)、カメラ10からフレームを取得する(S52)。
The
次に、物体検出装置320は、図8のステップS5〜S6と同様に、ステップS52で取得されたフレームに対して差分算出処理を行って差分画像を算出し(S53)、得られた差分画像から物体の輪郭を抽出する(S54)。
Next, similarly to steps S5 to S6 in FIG. 8, the
次に、物体検出装置320は、ステップS53で得られた差分画像を用いて、ステップS52で取得されたフレームに対して背景フィルタ処理(または遠景フィルタ処理)を行う(S55)。この背景フィルタ処理では、差分画像のうち、画素値の絶対値が予め定められた閾値以下である部分を背景部分(または遠景部分)として検出する。そして、ステップS52で取得されたフレームから背景部分を除去し、背景除去後のフレームを生成する。
Next, the
次に、物体検出装置320は、ステップS55で生成された背景除去後のフレームを対象フレームとして、動きベクトル検出処理を行う(S56)。すなわち、物体検出装置320は、ステップS52で取得されたフレームのうち背景部分を除去した残りの部分について、動きベクトルの検出を行う。ステップS56の動きベクトル検出処理では、実施の形態1と同様に画素単位の動きベクトルまで算出してもよいし、実施の形態2と同様にブロック単位の動きベクトルの算出で処理をとどめてもよい。
Next, the
次に、物体検出装置320は、ステップS56で検出された動きベクトルを用いて、対象フレーム中の物体が存在する領域を検出する(S57)。
Next, the
次に、物体検出装置320は、ステップS57の領域検出結果とステップS54の輪郭抽出結果とを合わせて、物体領域を検出する(S58)。
Next, the
次に、物体検出装置320は、ステップS51で検知された自車の走行状態と、ステップS58で検出された物体領域の位置と、当該物体領域内のステップS56で検出された動きベクトルとから、当該物体領域にある物体が自車の障害物であるか否かを判定する(S59)。
Next, the
物体検出装置320は、物体が障害物であると判定した場合(S59:Yes)、その旨を障害物通知部30に通知し(S60)、物体が障害物でないと判定した場合には(S59:No)、処理を終了する。
If the
以上のとおり、本実施の形態では、物体検出装置320は、差分画像から背景部分を検出し、対象フレームから当該背景部分を除いて動きベクトル検出を行う。これにより、動きベクトル検出処理の負荷を軽減することができる。
As described above, in the present embodiment, the
上記実施の形態1〜3において、物体検出装置の機能は、電子回路などのハードウェア資源のみにより実現されてもよいし、ハードウェア資源とソフトウェアとの協働により実現されてもよい。後者の場合、物体検出装置の機能は、例えば、物体検出プログラムがコンピュータにより実行されることによって実現され、より具体的には、ROM(Read Only Memory)等の記録媒体に記録された物体検出プログラムが主記憶装置に読み出されて中央処理装置(CPU:Central Processing Unit)により実行されることによって実現される。物体検出プログラムは、光ディスク等のコンピュータ読み取り可能な記録媒体に記録されて提供されてもよいし、インターネット等の通信回線を介して提供されてもよい。 In the first to third embodiments, the function of the object detection apparatus may be realized only by hardware resources such as an electronic circuit, or may be realized by cooperation of hardware resources and software. In the latter case, the function of the object detection device is realized by, for example, an object detection program being executed by a computer, more specifically, an object detection program recorded on a recording medium such as a ROM (Read Only Memory). Is read out to the main memory and executed by a central processing unit (CPU). The object detection program may be provided by being recorded on a computer-readable recording medium such as an optical disk, or may be provided via a communication line such as the Internet.
なお、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の態様で実施することができる。例えば、差分画像の算出に用いられる2つのフレームのうちの一方は、動きベクトル検出の対象フレームと同じフレームであることが望ましいが、対象フレームと略同じタイミングまたは十分に近いタイミングで撮影されたフレームであってもよい。また、物体検出装置は、車両以外の移動体に搭載されてもよく、当該移動体の障害物を検出してもよい。また、物体検出装置は、障害物の検出以外の用途に適用されてもよい。 In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it can implement with a various aspect. For example, one of the two frames used for calculating the difference image is preferably the same frame as the target frame for motion vector detection, but the frame is captured at substantially the same timing as the target frame or sufficiently close to the target frame. It may be. Further, the object detection device may be mounted on a moving body other than the vehicle, and may detect an obstacle on the moving body. Further, the object detection device may be applied to uses other than the detection of an obstacle.
1〜3 物体検出システム、 10 カメラ、 20,220,320 物体検出装置、 21 画像取得部、 22,222,322 動きベクトル検出部、 23,323 差分算出部、 24 物体検出部、 24a 領域検出部、 24b 輪郭抽出部、 24c 物体領域検出部、 24d 障害物判定部、 30 障害物通知部。
1 to 3 object detection system, 10 cameras, 20, 220, 320 object detection device, 21 image acquisition unit, 22, 222, 322 motion vector detection unit, 23, 323 difference calculation unit, 24 object detection unit, 24a
Claims (9)
前記画像取得部により取得された複数の画像のうちの対象画像および少なくとも1つの参照画像から、前記対象画像の各部分の動きベクトルを検出する動きベクトル検出部と、
前記画像取得部により取得された複数の画像のうちの2つの画像間の差分画像を算出する差分算出部と、
前記動きベクトル検出部により検出された動きベクトルと、前記差分算出部により算出された差分画像とに基づいて、物体が存在する物体領域を検出する物体検出部と
を備え、
前記物体検出部は、
前記動きベクトルに基づいて前記対象画像から物体の領域を検出する領域検出部と、
前記差分画像から物体の輪郭を抽出する輪郭抽出部と、
前記領域検出部により検出された領域に対応する、前記輪郭抽出部により抽出された輪郭で囲まれた領域を、前記物体領域として検出する物体領域検出部と
を有することを特徴とする物体検出装置。 An image acquisition unit for acquiring a plurality of images sequentially taken by the camera;
A motion vector detection unit that detects a motion vector of each part of the target image from the target image and at least one reference image of the plurality of images acquired by the image acquisition unit;
A difference calculating unit that calculates a difference image between two images of the plurality of images acquired by the image acquiring unit;
An object detection unit for detecting an object region where an object exists based on the motion vector detected by the motion vector detection unit and the difference image calculated by the difference calculation unit ;
The object detection unit is
An area detection unit for detecting an area of an object from the target image based on the motion vector;
A contour extraction unit that extracts a contour of an object from the difference image;
An object region detection unit for detecting, as the object region, a region surrounded by the contour extracted by the contour extraction unit corresponding to the region detected by the region detection unit;
An object detection apparatus comprising:
前記物体検出部は、前記物体領域が検出された場合に、当該物体領域の位置と当該物体領域内の前記動きベクトルとに基づき、当該物体領域に存在する物体が前記移動体に対する障害物であるか否かを判定する障害物判定部を有することを特徴とする請求項1または2に記載の物体検出装置。 The camera is provided on a moving body,
When the object area is detected, the object detection unit is configured such that an object existing in the object area is an obstacle to the moving body based on the position of the object area and the motion vector in the object area. object detection apparatus according to claim 1 or 2 characterized by having a determining obstacle determining unit that determines whether.
前記物体検出部は、
前記動きベクトルに基づいて前記対象画像から物体の領域を検出する領域検出部と、
前記差分画像から物体の輪郭を抽出する輪郭抽出部と、
前記領域検出部により領域が検出された場合に、前記検出された領域の位置と前記検出された領域内の前記動きベクトルとに基づき、前記検出された領域に存在する物体が前記移動体に対する障害物であるか否かを判定する障害物判定部と、
前記障害物判定部により前記検出された領域に存在する物体が障害物であると判定された場合に、前記検出された領域に対応する、前記輪郭抽出部により抽出された輪郭で囲まれた領域を、前記物体領域として検出する物体領域検出部と
を有することを特徴とする請求項1または2に記載の物体検出装置。 The camera is provided on a moving body,
The object detection unit is
An area detection unit for detecting an area of an object from the target image based on the motion vector;
A contour extraction unit that extracts a contour of an object from the difference image;
When an area is detected by the area detection unit, an object present in the detected area is an obstacle to the moving body based on the position of the detected area and the motion vector in the detected area. An obstacle determination unit for determining whether the object is an object,
A region surrounded by the contour extracted by the contour extraction unit corresponding to the detected region when the obstacle determination unit determines that the object existing in the detected region is an obstacle. the object detection apparatus according to claim 1 or 2, characterized in that it has a object area detection unit for detecting as the object region.
前記動きベクトル検出部は、前記対象画像のうち、前記差分画像中の画素値の絶対値が閾値以下である部分に対応する部分を除いて、前記動きベクトルの検出を行うことを特徴とする請求項1から6のいずれか1項に記載の物体検出装置。 The difference calculation unit calculates a difference between pixel values of each pixel between the two images, generates an image having the calculated difference between the pixels as a pixel value as the difference image,
The said motion vector detection part detects the said motion vector except the part corresponding to the part whose absolute value of the pixel value in the said difference image is below a threshold value among the said target images. Item 7. The object detection device according to any one of Items 1 to 6 .
前記画像取得ステップで取得された複数の画像のうちの対象画像および少なくとも1つの参照画像から、前記対象画像の各部分の動きベクトルを検出する動きベクトル検出ステップと、
前記画像取得ステップで取得された複数の画像のうちの2つの画像間の差分画像を算出する差分算出ステップと、
前記動きベクトル検出ステップで検出された動きベクトルと、前記差分算出ステップで算出された差分画像とに基づいて、物体が存在する物体領域を検出する物体検出ステップと
を含み、
前記物体検出ステップは、
前記動きベクトルに基づいて前記対象画像から物体の領域を検出する領域検出ステップと、
前記差分画像から物体の輪郭を抽出する輪郭抽出ステップと、
前記領域検出ステップで検出された領域に対応する、前記輪郭抽出ステップで抽出された輪郭で囲まれた領域を、前記物体領域として検出する物体領域検出ステップと
を有することを特徴とする物体検出方法。 An image acquisition step of acquiring a plurality of images sequentially taken by the camera;
A motion vector detection step of detecting a motion vector of each part of the target image from the target image and at least one reference image of the plurality of images acquired in the image acquisition step;
A difference calculating step of calculating a difference image between two images of the plurality of images acquired in the image acquiring step;
A motion vector detected by said motion vector detection step, the based on the difference image calculated by the difference calculation step, seen including a object detection step of detecting an object area where an object is present,
The object detection step includes
A region detecting step of detecting a region of an object from the target image based on the motion vector;
A contour extracting step of extracting a contour of the object from the difference image;
An object region detection step for detecting, as the object region, a region surrounded by the contour extracted in the contour extraction step corresponding to the region detected in the region detection step;
An object detection method characterized by comprising:
前記画像取得ステップで取得された複数の画像のうちの対象画像および少なくとも1つの参照画像から、前記対象画像の各部分の動きベクトルを検出する動きベクトル検出ステップと、
前記画像取得ステップで取得された複数の画像のうちの2つの画像間の差分画像を算出する差分算出ステップと、
前記動きベクトル検出ステップで検出された動きベクトルと、前記差分算出ステップで算出された差分画像とに基づいて、物体が存在する物体領域を検出する物体検出ステップと
をコンピュータに実行させ、
前記物体検出ステップは、
前記動きベクトルに基づいて前記対象画像から物体の領域を検出する領域検出ステップと、
前記差分画像から物体の輪郭を抽出する輪郭抽出ステップと、
前記領域検出ステップで検出された領域に対応する、前記輪郭抽出ステップで抽出された輪郭で囲まれた領域を、前記物体領域として検出する物体領域検出ステップと
を有することを特徴とする物体検出プログラム。 An image acquisition step of acquiring a plurality of images sequentially taken by the camera;
A motion vector detection step of detecting a motion vector of each part of the target image from the target image and at least one reference image of the plurality of images acquired in the image acquisition step;
A difference calculating step of calculating a difference image between two images of the plurality of images acquired in the image acquiring step;
Based on the motion vector detected in the motion vector detection step and the difference image calculated in the difference calculation step, causing the computer to execute an object detection step of detecting an object region where an object exists ,
The object detection step includes
A region detecting step of detecting a region of an object from the target image based on the motion vector;
A contour extracting step of extracting a contour of the object from the difference image;
An object region detection step for detecting, as the object region, a region surrounded by the contour extracted in the contour extraction step corresponding to the region detected in the region detection step;
An object detection program characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008472A JP6188592B2 (en) | 2014-01-21 | 2014-01-21 | Object detection apparatus, object detection method, and object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008472A JP6188592B2 (en) | 2014-01-21 | 2014-01-21 | Object detection apparatus, object detection method, and object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015138319A JP2015138319A (en) | 2015-07-30 |
JP6188592B2 true JP6188592B2 (en) | 2017-08-30 |
Family
ID=53769298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014008472A Expired - Fee Related JP6188592B2 (en) | 2014-01-21 | 2014-01-21 | Object detection apparatus, object detection method, and object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6188592B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017018310A (en) * | 2015-07-10 | 2017-01-26 | 京楽産業.株式会社 | Game machine |
US11229107B2 (en) | 2017-02-06 | 2022-01-18 | Ideal Industries Lighting Llc | Image analysis techniques |
JP6681965B2 (en) * | 2018-04-19 | 2020-04-15 | クラウドワークス インコーポレイテッドCrowdWorks, Inc. | Apparatus and method for extracting learning target image for autonomous driving |
KR102015939B1 (en) * | 2018-09-27 | 2019-08-28 | 주식회사 크라우드웍스 | Method, apparatus and program for sampling a learning target frame image of video for image learning of artificial intelligence and image learning method thereof |
CN113614777A (en) * | 2019-03-28 | 2021-11-05 | 索尼集团公司 | Information processing apparatus, information processing method, and program |
US20220165066A1 (en) | 2019-03-28 | 2022-05-26 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
CN113379985B (en) * | 2020-02-25 | 2022-09-27 | 北京君正集成电路股份有限公司 | Nursing electronic fence alarm device |
CN113379984B (en) * | 2020-02-25 | 2022-09-23 | 北京君正集成电路股份有限公司 | Electronic nursing fence system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0737099A (en) * | 1993-07-22 | 1995-02-07 | Nippondenso Co Ltd | Moving object detector |
JP4330914B2 (en) * | 2003-04-09 | 2009-09-16 | 株式会社エヌ・ティ・ティ・データ | Moving object detection apparatus and moving object detection method |
JP4704998B2 (en) * | 2006-10-26 | 2011-06-22 | 本田技研工業株式会社 | Image processing device |
CN103733607B (en) * | 2011-08-10 | 2015-08-26 | 富士胶片株式会社 | For detecting the apparatus and method of moving object |
-
2014
- 2014-01-21 JP JP2014008472A patent/JP6188592B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015138319A (en) | 2015-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6188592B2 (en) | Object detection apparatus, object detection method, and object detection program | |
CN107851318B (en) | System and method for object tracking | |
JP6230751B1 (en) | Object detection apparatus and object detection method | |
JP6525545B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM | |
JP6569385B2 (en) | Vehicle detection device, vehicle detection system, vehicle detection method, and vehicle detection program | |
WO2014002692A1 (en) | Stereo camera | |
JP2014137815A (en) | System and method for correcting camera image with distortion | |
JP2006338272A (en) | Vehicle behavior detector and vehicle behavior detection method | |
JP6592991B2 (en) | Object detection apparatus, object detection method, and program | |
JP6194604B2 (en) | Recognizing device, vehicle, and computer executable program | |
WO2018211930A1 (en) | Object detection device, object detection method, and computer-readable recording medium | |
JP6795224B2 (en) | Mobile detection device, mobile detection method, and program | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP2018142828A (en) | Deposit detector and deposit detection method | |
JP2008026999A (en) | Obstacle detection system and obstacle detection method | |
JP6949090B2 (en) | Obstacle detection device and obstacle detection method | |
JP6221283B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6577595B2 (en) | Vehicle external recognition device | |
JP5541099B2 (en) | Road marking line recognition device | |
JP2020201876A (en) | Information processing device and operation support system | |
JP2007233487A (en) | Pedestrian detection method, device, and program | |
KR101628931B1 (en) | Method and apparatus for controlling view angle of blackbox | |
JP2018151940A (en) | Obstacle detection device and obstacle detection method | |
JP2011203766A (en) | Image processing apparatus for vehicle | |
JP2008040724A (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6188592 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |