JP2004220059A - Moving image processing device and method - Google Patents
Moving image processing device and method Download PDFInfo
- Publication number
- JP2004220059A JP2004220059A JP2003002892A JP2003002892A JP2004220059A JP 2004220059 A JP2004220059 A JP 2004220059A JP 2003002892 A JP2003002892 A JP 2003002892A JP 2003002892 A JP2003002892 A JP 2003002892A JP 2004220059 A JP2004220059 A JP 2004220059A
- Authority
- JP
- Japan
- Prior art keywords
- moving
- image processing
- processing apparatus
- moving image
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する利用分野】
本発明は,一連の画像を解析することにより,例えば交通流の計測や,不法侵入者の出現検知,自律移動車や移動ロボットの制御などを行う動画像処理装置において用いられる,動画像処理装置及び方法に関する.
【0002】
【従来の技術】
近年,TVカメラの民生化による普及と共に,PCの普及に伴う小型化,高速化が進行し,従来は専用ハードウェアを用いて実現していた画像処理応用機能が安価に実現できる環境が整ってきた.一方で,知能移動作業ロボット,アミューズメント・ホビーロボット,自律移動車などの研究開発が活発に行われており,実用化が強く望まれている.これら知能移動ロボットや自律移動車などのシステムを構築する際には,時々刻々変化する画像を解析し,移動中に出現する他の移動物体を高速かつ安定に検出する動画像処理装置及び方法が不可欠となる.
【0003】
従来の移動物体検出処理においては,固定カメラ等の静止した観測系における画像を差分,閾値処理し,新規に出現した物体の検出を行う手法が一般的に用いられている.また,動画像を処理して各点の動きベクトル(オプティカルフロー)を検出する技術は,動画像処理研究の一環として活発に研究されている.このオプティカルフローは,移動観測系に対する3次元空間における相対的な動きが画像平面に投影されたものとみなすことができるが,実際に検出する際には照明変動などによる明度変化により誤りフローが混在し,高精度なフローを高速に検出することは容易ではない.このオプティカルフローに基づき移動物体を検出する手法として例えば,「移動物体検知装置及びその方法」(特願平7−7446号,平成7年1月20日出願)が提案されている.
【0004】
【発明が解決しようとする課題】
知能移動ロボットや自律移動車のように観測系自身も移動する場合には,画像に投影された環境全体も時々刻々変化するため,上記の静止カメラ画像を対象とした差分,閾値処理では新規に出現した移動物体領域を背景と切り分けて検出することができない,という課題があった.また,オプティカルフローを利用した背景・自律移動物体の分離を行う際には,上記の誤りフローへの対処,及び,画像全域に渡って発生するオプティカルフロー情報を効率的に解析する手法の開発が課題となっていた.前記「移動物体検知装置及びその方法」においては,オプティカルフローを用いて動きの消失点(FOE)を検出し,この位置の変化または小領域における推定残差を用いて独立に移動する物体を検出する手法を提案しているが,フロー精度が低下した場合,移動物体が遠方に出現し画像中に占める割合が小さい場合などにおける検出性能が低下するという問題があった.本発明は以上の点を鑑み,観測系の移動と独立な移動を行う物体を高速かつ安定に検出するための動画像処理装置及び方法を提供することを目的とする.
【0005】
【課題を解決するための手段】
本発明による動画像処理装置及び方法は,移動観測系に具備された各カメラにおいてそれぞれオプティカルフローを検出する手段を有することを特徴とする.
本発明による動画像処理装置及び方法は,抽出したオプティカルフローを予め設定した評価基準に基づきグループ化する手段を有することを特徴とする.本発明による動画像処理装置及び方法は,上記グループ化されたオプティカルフローの集合に対して,この集合に含まれるオプティカルフロー情報を解析することにより,独立に移動する物体を検出する手段を有することを特徴とする.
【0006】
【発明の実施の形態】
図1に,特許請求項間の関係を示す.以下,本発明の実施の形態について,図2〜図5を用いて説明する.
【0007】
最初に,請求項1,請求項2,請求項4,請求項6の実施例を示す.図2に,本発明全体の構成を示す.動きベクトル抽出手段a1においては,移動観測系に搭載された単数または複数の各カメラ画像に対して画面上の動きベクトル(オプティカルフロー)を推定する.動きベクトル統合手段a2においては,抽出したオプティカルフローを予め設定した評価基準に基づき,グループ化する.移動物体検出手段a3においては,例えば,上記グループ化されたオプティカルフローの集合に対して,この集合が独立した移動物体の投影領域に含まれる場合に各フローの延長線上に存在する移動物体の動きの消失点(移動物体FOE)と移動観測系の自己移動による動きの消失点(背景FOE)との位置が異なることを利用することにより,移動観測系に対し独立に移動する物体領域の検出を行う.
【0008】
以下,各部の具体的な構成方法について述べる.図3に,動きベクトル抽出手段a1の具体化構成の一例を示す.関心領域設定部b1においては,移動観測系に搭載された単数または複数のカメラを介して時々刻々入力される画像に対し,移動物体検出処理を実施するM画素×N画素の局所領域を設定する.領域サイズM,Nの値は,用途と処理速度要求に応じて適宜設定する.類似度計算部b2においては,上記関心領域に属する各画素の連続時点間の類似度を計算しこの極大を持つ位置を検出することにより,動きベクトル(オプティカルフロー)を検出する.類似度としては,相関係数,明度値の差の絶対値和などが利用可能であるが,本構成例では,各画素の近傍領域内の明度分布を解析した後に連続時点における近傍領域内各対応画素明度値の差の絶対値和に−1を掛けた値を類似度として採る場合について以下に述べる.
【0009】
t時点での画素位置(xi(t),yi(t))を始点としたオプティカルフローを求める際,まずこの(xi(t),yi(t))を中心位置とするK画素×L画素の近傍領域を設定する.K,Lの値は処理時間を考慮して適宜設定する.次にこの近傍領域内の全画素KL個の明度分布を求め,例えば分布曲線における最大値と最小値の差が閾値以上である等,充分な情報量があると判定された場合に,この画素をオプティカルフロー抽出の対象として選択する.充分な情報量があると判定されなかった場合は,オプティカルフロー抽出精度向上が見込めないため,この画素でのオプティカルフロー抽出は行わず,関心領域内の次の画素に移り上記の処理を繰り返し実行する.オプティカルフロー抽出の対象として選択された画素については,t+1時点における予め定めた探索領域内の各候補点について,上記の明度分布評価を実行する.充分な情報量があると判定されなかった候補点に関しては,類似度計算の対象とせず,次の候補点に移る.充分な情報量があると判定された候補点に関しては,総和メモリS(k)を0にクリヤした後,t時点での(xi(t),yi(t))を中心位置とした近傍領域における点の画素値gi(t)とt+1時点における上記候補点を中心位置とした近傍領域の対応する点の画素値gi(t+1)の差の絶対値和|gi(t)− gi(t+1)|を計算し,総和メモリS(k)に加算することを全近傍領域内の画素に関して繰り返し,最終的に得られた総和値に−1を掛けた値を総和メモリSに新たに記憶しておく.上記の処理を全候補点に関して実行し,得られた総和メモリ値が最大となる候補点(xi(t+1),yi(t+1))を,動きベクトルの終点位置として検出する.動きベクトルメモリ格納部b3においては,上記類似度計算部b2において求められた類似度最大となるt+1時点の画素位置(xi(t+1),yi(t+1))とこれに対応したt時点での画素位置(xi(t),yi(t))の差ベクトル(xi(t+1)− xi(t),yi(t+1)− yi(t))をこのt時点での画素位置(xi(t),yi(t))におけるオプティカルフローベクトルとして求め,位置座標値(xi(t),yi(t))と合せてメモリに順次格納する.
【0010】
図4に,動きベクトル統合手段a2の具体化構成の一例を示す.まず局所領域分割部c1にて,関心領域全体をA画素×B画素の大きさを持つ局所領域群に分割する.A,Bは各々,関心領域サイズM,Nの約数となるように設定する.これにより,関心領域全体に対し重なりのないように(M/A)×(N/B)個に分割することも可能であるが,本実施例では,できるだけ移動物体の見逃しを少なくするため,上記重なりのない分割結果得られた局所領域の隣り合う2つの領域の間に新たに1つの局所領域を設定する方式を用いることとする.この結果,約(9MN/4AB)個の局所領域が生成されることになる.次に局所領域選択部c2にて,所定の基準に基づき上記設定した局所領域の中から移動物体検出に用いるものの選択を行う.この選択の基準として例えば,各局所領域に含まれるオプティカルフローの本数を,前記動きベクトル抽出手段a1における動きベクトルメモリ格納部b3の内容を参照することにより求め,この値が予め設定した閾値より大きいものを選択する方式を採ることが有効である.局所領域メモリ格納部c3においては,上記局所領域選択部c2にて選出した移動物体検出に用いる各局所領域の位置・サイズ情報を,メモリに順次格納する.
【0011】
図5に,移動物体検出手段a3の具体化構成の一例を示す.まず背景FOE推定部d1において,移動観測系自身の移動により生じる背景領域の動きの消失点(背景FOE)を推定する.この方式としては,移動開始前に予め環境に静止した物体を検出しておき,この領域に包含されるオプティカルフローベクトルの集合より得られる直線群の交点位置として求めることが可能である.局所領域FOE推定部d2においては,前記動きベクトル統合手段a2における局所領域メモリ格納部c3の内容を参照することにより,移動物体検出に用いる局所領域の各位置・サイズ情報を得た後,この領域に含まれるオプティカルフローの集合を前記動きベクトル抽出手段a1における動きベクトルメモリ格納部b3の内容を参照することにより求め,このフローベクトル情報に基づき設定した直線群の交点位置として,各局所領域における動きの消失点(局所領域FOE)位置を推定する.
移動物体存在判定部d3においては,移動観測系に対し独立移動する物体の投影領域に含まれる場合に各フローの延長線上に存在する移動物体の動きの消失点(移動物体FOE)と移動観測系の自己移動による動きの消失点(背景FOE)との位置が異なることを利用することにより,移動観測系に対し独立に移動する物体領域の検出を行う.具体的には上記背景FOEの位置ベクトルと各局所領域におけるオプティカルフロー直線の交点(局所領域FOE)の差ベクトルを求め,この長さが予め設定した閾値以上である場合に,この局所領域を独立に移動する物体に属する領域として検出することが可能である.なお,本発明は上述した実施例に限定されるものではない.
【0012】
次に,請求項3の実施例を示す.請求項3では,前記動きベクトル統合手段a2において,画像からエッジを抽出し,このエッジの近傍領域に含まれるオプティカルフローを選択するという評価基準に基づきグループ化を行う方式を採る.
【0013】
次に,請求項5の実施例を示す.請求項5では,前記移動物体検出手段a3の背景FOE推定部d1において,移動観測系は視線方向に直進することを用いて,移動観測系自身の移動により生じる背景領域の動きの消失点(背景FOE)を画像中心位置で代用する.
【0014】
次に,請求項7の実施例を示す.請求項7では,前記動きベクトル統合手段a2において,各局所領域に含まれるオプティカルフローの始点画素,または終点画素の平均明度または色相値が類似しているという基準を併用することによりグループ化を行う方式を採る.また,オプティカルフロー本数を用いて選択した局所領域間における,平均明度または色相値の類似性を用いて,更にグループ化を行う方式を採ることも可能である.
【0015】
次に,請求項8の実施例を示す.請求項8では,前記移動物体検出手段a3において,移動物体検出を行う局所領域に含まれる各オプティカルフローを延長した直線と,移動観測系の自己移動による動きの消失点(背景FOE)との距離を計算し,この距離値を予め設定した閾値と比較することにより上記オプティカルフローが独立移動する物体により生じたものか否かを判定する方式を採る.
【0016】
次に,請求項9の実施例を示す.請求項9では,複数の移動観測系における同時点の画像対から前記移動物体検出手段a3により各々検出された,独立移動物体の投影領域の各代表位置座標を,ステレオ対応付けすることにより,上記独立移動物体の移動観測系からの3次元位置情報を抽出する手段を付加することにより,移動速度の推定や衝突危険性などの判定を実施する.
【0017】
次に,請求項10の実施例を示す.請求項10では,請求項9における複数の移動観測系における同時点の画像対から前記移動物体検出手段a3により各々検出された,独立移動物体の投影領域の各代表位置座標として独立移動物体の重心座標を使用する.
【0018】
以上,本発明はその趣旨を逸脱しない範囲で種々変形して実施することが可能である.
【0019】
【発明の効果】
以下に本発明の効果を述べる.
【0020】
請求項1の実施例では,動きベクトル抽出手段と,動きベクトル統合手段と,移動物体検出手段を具備することにより,移動観測手段に搭載された単数または複数のカメラにより撮影された一連の画像から移動物体を検出することが可能となる.
【0021】
請求項2の実施例では,動きベクトル統合手段において,画像の全体または一部を複数の小領域に分割し,検出されたオプティカルフローの本数が規定値よりも大きい小領域を選択するという評価基準に基づきグループ化を行う手段を具備することにより,誤りフローの発生を抑制し,グループ化を効率的に行うことが可能となる.
【0022】
請求項3の実施例では,動きベクトル統合手段において,画像からエッジを抽出し,このエッジの近傍領域に含まれるオプティカルフローを選択するという評価基準に基づきグループ化を行う手段を具備することにより,オプティカルフローの計算を行う領域を限定し,誤りフローの発生を抑制し,グループ化を効率的に行うことが可能となる.
【0023】
請求項4の実施例では,移動物体検出手段において,画像中の静止環境物体領域に含まれるオプティカルフロー群を抽出し,これらの動きベクトル情報を基に移動観測系の自己移動による動きの消失点(背景FOE)を推定する手段を具備することにより,移動物体の動きの消失点(移動物体FOE)と背景FOEの分離を可能とし,移動観測手段に搭載された単数または複数のカメラにより撮影された一連の画像から移動物体を検出することが可能となる.
【0024】
請求項5の実施例では,移動物体検出手段において,移動観測系の自己移動による動きの消失点(背景FOE)を画像中心で代用し用いる手段を具備することにより,処理速度を向上させることが可能となる.
【0025】
請求項6の実施例では,移動物体検出手段において,前記グループ化された小領域集合に含まれるオプティカルフローベクトル群に基づき移動物体の動きの消失点(移動物体FOE)を推定し,この位置ベクトルと移動観測系の自己移動による動きの消失点(背景FOE)の位置ベクトル間の差ベクトルの長さを閾値と比較することにより,上記グループ化された小領域集合が独立に移動する物体に含まれるか否かを判定することが可能となる.
【0026】
請求項7の実施例では,動きベクトル統合手段において,各小領域における平均明度または色相値が類似しているという基準を併用することによりグループ化を行う手段を具備することにより,グループ化の精度を向上させることが可能となる.
【0027】
請求項8の実施例では,請求項3に記載の動画像処理装置及び方法における,移動物体検出手段において,選択された各オプティカルフローを延長した直線と,移動観測系の自己移動による動きの消失点(背景FOE)との距離を計算し,この距離値を規定閾値と比較することにより上記オプティカルフローが独立に移動する物体により生じたものか否かを判定する手段を具備することにより,移動観測手段に搭載された単数または複数のカメラにより撮影された一連の画像から移動物体を検出することが可能となる.
【0028】
請求項9の実施例では,複数の移動観測系における同時点の画像対から各々検出された,独立に移動する物体に属する領域の各代表位置座標を,ステレオ対応付けすることにより,上記独立移動物体の移動観測系からの3次元位置情報を抽出することが可能となる.
【0029】
請求項10の実施例では,複数の移動観測系における同時点の画像対から各々検出された,独立に移動する物体に属する領域の各代表位置座標を,領域の重心座標で代表することにより計算を容易にすることが可能となる.
【0030】
本発明を用いることにより,動的に変化する屋内・屋外環境において,知能移動ロボットや自律移動車を制御するために不可欠である障害物検出機能を,安定かつ高信頼に実現するための効率的な動画像処理装置及び方法を提供することが可能となり,この社会的・実用的効果は多大である.
【図面の簡単な説明】
【図1】特許請求項間の関係を示す.
【図2】本発明全体の構成を示す.
【図3】動きベクトル抽出手段a1の構成例を示す.
【図4】動きベクトル統合手段a2の構成例を示す.
【図5】移動物体検出手段a3の構成例を示す.[0001]
FIELD OF THE INVENTION
The present invention relates to a moving image processing apparatus used in a moving image processing apparatus that analyzes a series of images to measure, for example, a traffic flow, detect the appearance of an illegal intruder, and control an autonomous mobile vehicle or a mobile robot. And methods.
[0002]
[Prior art]
In recent years, with the popularization of TV cameras due to the popularization of personal computers, the miniaturization and the speeding up of PCs have been progressing with the spread of PCs. Was. On the other hand, research and development of intelligent mobile work robots, amusement hobby robots, autonomous mobile vehicles, etc. are being actively conducted, and practical application is strongly desired. When constructing systems such as intelligent mobile robots and autonomous mobile vehicles, a moving image processing apparatus and method for analyzing images that change every moment and detecting other moving objects appearing while moving at high speed and stability are known. Indispensable.
[0003]
In the conventional moving object detection processing, a method is generally used in which images in a stationary observation system such as a fixed camera are subjected to difference and threshold processing to detect a newly appearing object. In addition, the technology to detect the motion vector (optical flow) of each point by processing the moving image has been actively studied as a part of the moving image processing research. This optical flow can be considered as the movement of the mobile observation system relative to the three-dimensional space projected onto the image plane. However, when actually detecting the optical flow, error flows are mixed due to brightness changes due to illumination fluctuations. However, it is not easy to detect highly accurate flows at high speed. As a method for detecting a moving object based on this optical flow, for example, a "moving object detection device and method" (Japanese Patent Application No. 7-7446, filed on January 20, 1995) has been proposed.
[0004]
[Problems to be solved by the invention]
When the observation system itself moves, such as an intelligent mobile robot or an autonomous mobile vehicle, the entire environment projected on the image changes every moment. There was a problem that it was not possible to detect the appearing moving object area separately from the background. In addition, when separating background and autonomous moving objects using optical flow, there is a need to deal with the above error flow and to develop a method to efficiently analyze optical flow information generated over the entire image. Had been an issue. In the "moving object detection apparatus and method", a vanishing point of motion (FOE) is detected using an optical flow, and an object that moves independently is detected using a change in this position or an estimated residual in a small area. However, when the flow accuracy is reduced, there is a problem that the detection performance decreases when the moving object appears in the distance and occupies a small proportion in the image. In view of the above points, an object of the present invention is to provide a moving image processing apparatus and method for quickly and stably detecting an object that moves independently of the movement of an observation system.
[0005]
[Means for Solving the Problems]
The moving image processing apparatus and method according to the present invention are characterized in that each camera provided in the moving observation system has means for detecting an optical flow.
A moving image processing apparatus and method according to the present invention include means for grouping extracted optical flows based on preset evaluation criteria. The moving image processing apparatus and method according to the present invention include means for detecting an independently moving object by analyzing optical flow information included in the grouped optical flow set. It is characterized by
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
Figure 1 shows the relationship between the claims. Hereinafter, embodiments of the present invention will be described with reference to FIGS.
[0007]
First, embodiments of the first, second, fourth, and sixth aspects will be described. FIG. 2 shows the overall configuration of the present invention. The motion vector extracting means a1 estimates a motion vector (optical flow) on the screen for one or a plurality of camera images mounted on the mobile observation system. In the motion vector integrating means a2, the extracted optical flows are grouped based on a preset evaluation criterion. In the moving object detecting means a3, for example, when a set of the grouped optical flows is included in the projection area of the independent moving object, the movement of the moving object existing on the extension of each flow is considered. By using the difference between the vanishing point (moving object FOE) and the vanishing point of the movement (background FOE) caused by the self-movement of the moving observation system, the detection of the object region that moves independently to the moving observation system can be performed. Do it.
[0008]
The specific configuration of each part is described below. FIG. 3 shows an example of a concrete configuration of the motion vector extracting means a1. The region-of-interest setting unit b1 sets a local region of M pixels × N pixels for performing a moving object detection process on an image that is momentarily input via one or more cameras mounted on the moving observation system. . The values of the region sizes M and N are appropriately set according to the application and the processing speed requirement. The similarity calculation unit b2 calculates a similarity between successive points in time of each pixel belonging to the region of interest and detects a position having this maximum, thereby detecting a motion vector (optical flow). As the degree of similarity, a correlation coefficient, a sum of absolute values of differences in lightness values, and the like can be used. In this configuration example, after analyzing the lightness distribution in the vicinity area of each pixel, each of the pixels in the vicinity area at a continuous point in time is analyzed. The case where the value obtained by multiplying the sum of the absolute values of the differences of the corresponding pixel brightness values by -1 is used as the similarity is described below.
[0009]
When obtaining an optical flow starting from a pixel position (xi (t), yi (t)) at time t, first, a K pixel × L pixel having this (xi (t), yi (t)) as a center position This sets the neighborhood of. The values of K and L are appropriately set in consideration of the processing time. Next, the brightness distribution of all the pixels KL in this neighboring area is obtained. Is selected as the target for optical flow extraction. If it is not determined that there is a sufficient amount of information, the optical flow extraction accuracy cannot be improved, so the optical flow extraction is not performed at this pixel, and the process moves to the next pixel in the region of interest and the above processing is repeatedly performed. I do. For the pixel selected as the target of the optical flow extraction, the above brightness distribution evaluation is executed for each candidate point in the predetermined search area at the time point t + 1. Candidate points that are not determined to have sufficient information are not subject to similarity calculation and move to the next candidate point. For a candidate point determined to have a sufficient amount of information, after clearing the sum memory S (k) to 0, a neighboring area centered at (xi (t), yi (t)) at time t And the absolute value sum | gi (t) -gi (t + 1) of the difference between the pixel value gi (t) of the point at and the pixel value gi (t + 1) of the corresponding point in the neighboring area centered on the candidate point at time t + 1 Is calculated and added to the sum total memory S (k) for the pixels in all the neighboring areas, and the finally obtained sum value multiplied by -1 is newly stored in the sum total memory S. deep. The above processing is executed for all the candidate points, and the candidate point (xi (t + 1), yi (t + 1)) at which the obtained total memory value is the maximum is detected as the end point position of the motion vector. In the motion vector memory storage unit b3, the pixel position (xi (t + 1), yi (t + 1)) at the time t + 1 at which the similarity calculated by the similarity calculation unit b2 becomes the maximum, and the corresponding pixel at the time t The difference vector (xi (t + 1) -xi (t), yi (t + 1) -yi (t)) of the position (xi (t), yi (t)) is converted to the pixel position (xi (t), yi (t)) is obtained as an optical flow vector, and sequentially stored in a memory together with position coordinate values (xi (t), yi (t)).
[0010]
FIG. 4 shows an example of a specific configuration of the motion vector integrating means a2. First, the local region dividing unit c1 divides the entire region of interest into local region groups having a size of A pixels × B pixels. A and B are set to be divisors of the region of interest M and N, respectively. This makes it possible to divide the entire region of interest into (M / A) × (N / B) pieces without overlapping, but in this embodiment, in order to minimize missing of a moving object, A method is used in which a new local region is set between two adjacent regions of the local region obtained as a result of the non-overlapping division. As a result, about (9 MN / 4AB) local regions are generated. Next, a local area selection unit c2 selects a local area to be used for moving object detection from the set local areas based on a predetermined criterion. As a criterion for this selection, for example, the number of optical flows included in each local area is obtained by referring to the contents of the motion vector memory storage unit b3 in the motion vector extraction unit a1, and this value is larger than a preset threshold value. It is effective to adopt a method of selecting things. In the local area memory storage unit c3, the position and size information of each local area used for detecting a moving object selected by the local area selection unit c2 is sequentially stored in a memory.
[0011]
FIG. 5 shows an example of a specific configuration of the moving object detection means a3. First, the background FOE estimating unit d1 estimates a vanishing point (background FOE) of the motion of the background region caused by the movement of the mobile observation system itself. In this method, it is possible to detect an object that is stationary in the environment before moving, and to find the intersection point of a group of straight lines obtained from a set of optical flow vectors included in this area. The local area FOE estimating unit d2 obtains each position and size information of the local area used for the moving object detection by referring to the contents of the local area memory storage unit c3 in the motion vector integrating unit a2. Is obtained by referring to the contents of the motion vector memory storage unit b3 in the motion vector extracting means a1, and the set of optical flows included in the motion vector extraction means a1 is defined as the intersection point of the line group set based on the flow vector information. Of the vanishing point (local area FOE) is estimated.
In the moving object existence determination unit d3, the vanishing point of the movement of the moving object (moving object FOE) existing on the extension of each flow when the moving object is included in the projection area of the object that moves independently of the moving observation system and the moving observation system The detection of the object region that moves independently from the mobile observation system is performed by utilizing the difference in position with the vanishing point (background FOE) of the motion due to the self-movement. Specifically, the difference vector between the position vector of the background FOE and the intersection (local region FOE) of the optical flow straight line in each local region is determined. If this length is equal to or greater than a preset threshold, the local region is determined to be independent. It can be detected as a region belonging to an object that moves to. The present invention is not limited to the above-described embodiment.
[0012]
Next, a third embodiment will be described. In the third aspect, the motion vector integrating means a2 employs a method of extracting an edge from an image and performing grouping based on an evaluation criterion of selecting an optical flow included in a region near the edge.
[0013]
Next, an embodiment of claim 5 will be described. In the fifth aspect, the background FOE estimating unit d1 of the moving object detection unit a3 uses the fact that the moving observation system goes straight in the direction of the line of sight, and the vanishing point of the movement of the background region caused by the movement of the moving observation system itself (background FOE) is substituted for the image center position.
[0014]
Next, an embodiment of claim 7 will be described. In the seventh aspect, the motion vector integrating means a2 performs grouping by using together a criterion that the average brightness or the hue value of the start pixel or the end pixel of the optical flow included in each local region is similar. Adopt the method. It is also possible to adopt a method of further grouping using the similarity of average brightness or hue value between local regions selected using the number of optical flows.
[0015]
Next, an eighth embodiment will be described. In the eighth aspect, a distance between a straight line obtained by extending each optical flow included in a local area for detecting a moving object and a vanishing point (background FOE) of the movement due to the self-movement of the moving observation system in the moving object detection means a3. Is calculated, and this distance value is compared with a preset threshold to determine whether the optical flow is caused by an independently moving object.
[0016]
Next, an embodiment of claim 9 will be described. In the ninth aspect, the representative position coordinates of the projection area of the independent moving object, which are respectively detected by the moving object detecting means a3 from the image pairs of the simultaneous points in the plurality of moving observation systems, are associated with each other in stereo. By adding a means to extract 3D position information from the moving observation system of an independent moving object, we estimate the moving speed and judge the risk of collision.
[0017]
Next, a tenth embodiment will be described. According to a tenth aspect, the center of gravity of an independent moving object is used as each representative position coordinate of a projection area of the independent moving object detected by the moving object detecting means a3 from the image pair at the same point in the plurality of moving observation systems in the ninth aspect. Use coordinates.
[0018]
As described above, the present invention can be variously modified and implemented without departing from the spirit thereof.
[0019]
【The invention's effect】
The effects of the present invention will be described below.
[0020]
In the embodiment of the present invention, by providing a motion vector extracting means, a motion vector integrating means, and a moving object detecting means, a series of images taken by one or a plurality of cameras mounted on the moving observation means is provided. Moving objects can be detected.
[0021]
According to an embodiment of the present invention, the motion vector integrating means divides the whole or a part of an image into a plurality of small areas and selects a small area in which the number of detected optical flows is larger than a specified value. By providing a means for grouping based on, it is possible to suppress the occurrence of error flows and perform grouping efficiently.
[0022]
According to an embodiment of the present invention, the motion vector integrating means includes means for extracting an edge from an image and performing grouping based on an evaluation criterion of selecting an optical flow included in a region near the edge. It is possible to limit the area where optical flows are calculated, suppress the occurrence of error flows, and perform grouping efficiently.
[0023]
In the embodiment of the present invention, the moving object detecting means extracts an optical flow group included in the still environment object region in the image, and based on the motion vector information, a vanishing point of the motion due to the self-movement of the mobile observation system. By providing a means for estimating (background FOE), it is possible to separate the vanishing point of the movement of the moving object (moving object FOE) from the background FOE, and the image is captured by one or more cameras mounted on the moving observation means. Moving objects can be detected from a series of images.
[0024]
In the fifth embodiment, the moving object detecting means is provided with means for substituting the vanishing point (background FOE) of the movement due to the self-movement of the moving observation system at the center of the image, thereby improving the processing speed. It becomes possible.
[0025]
According to an embodiment of the present invention, the moving object detecting means estimates a vanishing point (moving object FOE) of the moving object based on an optical flow vector group included in the group of small areas. By comparing the length of the difference vector between the position vector of the vanishing point (background FOE) of the movement due to the self-movement of the mobile observation system with the threshold value, the grouped small area set is included in the independently moving object. It is possible to determine whether or not it is possible.
[0026]
In the embodiment of the present invention, the motion vector integrating means includes means for performing grouping by using together a criterion that the average brightness or the hue value in each small area is similar, thereby improving the accuracy of grouping. Can be improved.
[0027]
According to an eighth aspect of the present invention, in the moving image processing apparatus and method according to the third aspect, in the moving object detecting means, a straight line extending each of the selected optical flows and a motion disappearance due to self-movement of the moving observation system. Calculating a distance to a point (background FOE) and comparing the distance value with a specified threshold to determine whether the optical flow is caused by an independently moving object; Moving objects can be detected from a series of images taken by one or more cameras mounted on the observation means.
[0028]
In the embodiment of the ninth aspect, each of the representative position coordinates of an area belonging to an independently moving object, which is detected from a pair of images at the same point in a plurality of moving observation systems, is associated with the stereo, thereby achieving the independent movement. It is possible to extract 3D position information from the moving observation system of the object.
[0029]
In the tenth embodiment, each representative position coordinate of an area belonging to an independently moving object, which is detected from an image pair at the same point in a plurality of mobile observation systems, is calculated by representing the coordinate of the center of gravity of the area. Can be made easier.
[0030]
By using the present invention, it is possible to efficiently and efficiently realize an obstacle detection function that is indispensable for controlling intelligent mobile robots and autonomous vehicles in dynamically changing indoor and outdoor environments. It is possible to provide a simple moving image processing apparatus and method, and this social and practical effect is enormous.
[Brief description of the drawings]
FIG. 1 shows the relationship between the claims.
FIG. 2 shows the overall configuration of the present invention.
FIG. 3 shows a configuration example of a motion vector extraction unit a1.
FIG. 4 shows a configuration example of a motion vector integration means a2.
FIG. 5 shows a configuration example of a moving object detection unit a3.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003002892A JP2004220059A (en) | 2003-01-09 | 2003-01-09 | Moving image processing device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003002892A JP2004220059A (en) | 2003-01-09 | 2003-01-09 | Moving image processing device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004220059A true JP2004220059A (en) | 2004-08-05 |
Family
ID=32894313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003002892A Pending JP2004220059A (en) | 2003-01-09 | 2003-01-09 | Moving image processing device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004220059A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006053823A (en) * | 2004-08-13 | 2006-02-23 | National Univ Corp Shizuoka Univ | Moving object detection system and method thereof |
EP1705917A2 (en) | 2005-03-22 | 2006-09-27 | Nissan Motor Co., Ltd. | Detection apparatus and method |
-
2003
- 2003-01-09 JP JP2003002892A patent/JP2004220059A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006053823A (en) * | 2004-08-13 | 2006-02-23 | National Univ Corp Shizuoka Univ | Moving object detection system and method thereof |
JP4538630B2 (en) * | 2004-08-13 | 2010-09-08 | 国立大学法人静岡大学 | System and method for detecting moving objects |
EP1705917A2 (en) | 2005-03-22 | 2006-09-27 | Nissan Motor Co., Ltd. | Detection apparatus and method |
US7437243B2 (en) | 2005-03-22 | 2008-10-14 | Nissan Motor Co., Ltd. | Detecting device and method to detect an object based on a road boundary |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2858008B1 (en) | Target detecting method and system | |
EP2619728B1 (en) | An adaptable framework for cloud assisted augmented reality | |
US20060078197A1 (en) | Image processing apparatus | |
US20010008561A1 (en) | Real-time object tracking system | |
US9679384B2 (en) | Method of detecting and describing features from an intensity image | |
US20120020524A1 (en) | Tracked object determination device, tracked object determination method and tracked object determination program | |
US10650535B2 (en) | Measurement device and measurement method | |
CN105279372A (en) | Building height computing method and apparatus | |
Burgin et al. | Using depth information to improve face detection | |
Wang et al. | A unified framework for mutual improvement of SLAM and semantic segmentation | |
US10607350B2 (en) | Method of detecting and describing features from an intensity image | |
EP3593322B1 (en) | Method of detecting moving objects from a temporal sequence of images | |
CN104156932A (en) | Moving object segmentation method based on optical flow field clustering | |
Krinidis et al. | A robust and real-time multi-space occupancy extraction system exploiting privacy-preserving sensors | |
JP2016004446A (en) | Motion estimation device | |
KR100994722B1 (en) | Method for tracking moving object on multiple cameras using probabilistic camera hand-off | |
Tsai et al. | Vision-Based Obstacle Detection for Mobile Robot in Outdoor Environment. | |
JP2004220059A (en) | Moving image processing device and method | |
US20110085699A1 (en) | Method and apparatus for tracking image patch considering scale | |
Mehta et al. | Region graph based method for multi-object detection and tracking using depth cameras | |
JP4269781B2 (en) | Optical flow detection system, detection method and detection program | |
JP2010286963A (en) | Moving object detection device and moving object detection method | |
JPH10208059A (en) | Mobile object extracting device | |
Paul et al. | A realtime object tracking system using a color camera | |
CN104980623A (en) | Method For Detecting Foreground |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040702 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051221 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20051221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090331 |