JP2004220059A - Moving image processing device and method - Google Patents

Moving image processing device and method Download PDF

Info

Publication number
JP2004220059A
JP2004220059A JP2003002892A JP2003002892A JP2004220059A JP 2004220059 A JP2004220059 A JP 2004220059A JP 2003002892 A JP2003002892 A JP 2003002892A JP 2003002892 A JP2003002892 A JP 2003002892A JP 2004220059 A JP2004220059 A JP 2004220059A
Authority
JP
Japan
Prior art keywords
moving
image processing
processing apparatus
moving image
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003002892A
Other languages
Japanese (ja)
Inventor
Mutsumi Watanabe
睦 渡邊
Yukio Koga
由紀夫 古賀
Atsushi Iwata
穆 岩田
Yoshiko Yamamoto
美子 山本
Yuki Watabe
悠紀 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagoshima University NUC
Hiroshima Industrial Promotion Organization
Original Assignee
Kagoshima University NUC
Hiroshima Industrial Promotion Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagoshima University NUC, Hiroshima Industrial Promotion Organization filed Critical Kagoshima University NUC
Priority to JP2003002892A priority Critical patent/JP2004220059A/en
Publication of JP2004220059A publication Critical patent/JP2004220059A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving image processing device and method that quickly and stably detect an object independent of an observing system in movement. <P>SOLUTION: An optical flow showing a movement of each image point is detected every certain time from a moving image acquired from an image sensor such as a television camera provided in a mobile observing system. The detected optical flow is grouped in a plurality of areas according to preset criteria. An analysis is then made with a feature value such as a movement vanishing point obtained from optical flow information included in each area. This realizes processing of separately detecting a moving object moving independently of the background. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する利用分野】
本発明は,一連の画像を解析することにより,例えば交通流の計測や,不法侵入者の出現検知,自律移動車や移動ロボットの制御などを行う動画像処理装置において用いられる,動画像処理装置及び方法に関する.
【0002】
【従来の技術】
近年,TVカメラの民生化による普及と共に,PCの普及に伴う小型化,高速化が進行し,従来は専用ハードウェアを用いて実現していた画像処理応用機能が安価に実現できる環境が整ってきた.一方で,知能移動作業ロボット,アミューズメント・ホビーロボット,自律移動車などの研究開発が活発に行われており,実用化が強く望まれている.これら知能移動ロボットや自律移動車などのシステムを構築する際には,時々刻々変化する画像を解析し,移動中に出現する他の移動物体を高速かつ安定に検出する動画像処理装置及び方法が不可欠となる.
【0003】
従来の移動物体検出処理においては,固定カメラ等の静止した観測系における画像を差分,閾値処理し,新規に出現した物体の検出を行う手法が一般的に用いられている.また,動画像を処理して各点の動きベクトル(オプティカルフロー)を検出する技術は,動画像処理研究の一環として活発に研究されている.このオプティカルフローは,移動観測系に対する3次元空間における相対的な動きが画像平面に投影されたものとみなすことができるが,実際に検出する際には照明変動などによる明度変化により誤りフローが混在し,高精度なフローを高速に検出することは容易ではない.このオプティカルフローに基づき移動物体を検出する手法として例えば,「移動物体検知装置及びその方法」(特願平7−7446号,平成7年1月20日出願)が提案されている.
【0004】
【発明が解決しようとする課題】
知能移動ロボットや自律移動車のように観測系自身も移動する場合には,画像に投影された環境全体も時々刻々変化するため,上記の静止カメラ画像を対象とした差分,閾値処理では新規に出現した移動物体領域を背景と切り分けて検出することができない,という課題があった.また,オプティカルフローを利用した背景・自律移動物体の分離を行う際には,上記の誤りフローへの対処,及び,画像全域に渡って発生するオプティカルフロー情報を効率的に解析する手法の開発が課題となっていた.前記「移動物体検知装置及びその方法」においては,オプティカルフローを用いて動きの消失点(FOE)を検出し,この位置の変化または小領域における推定残差を用いて独立に移動する物体を検出する手法を提案しているが,フロー精度が低下した場合,移動物体が遠方に出現し画像中に占める割合が小さい場合などにおける検出性能が低下するという問題があった.本発明は以上の点を鑑み,観測系の移動と独立な移動を行う物体を高速かつ安定に検出するための動画像処理装置及び方法を提供することを目的とする.
【0005】
【課題を解決するための手段】
本発明による動画像処理装置及び方法は,移動観測系に具備された各カメラにおいてそれぞれオプティカルフローを検出する手段を有することを特徴とする.
本発明による動画像処理装置及び方法は,抽出したオプティカルフローを予め設定した評価基準に基づきグループ化する手段を有することを特徴とする.本発明による動画像処理装置及び方法は,上記グループ化されたオプティカルフローの集合に対して,この集合に含まれるオプティカルフロー情報を解析することにより,独立に移動する物体を検出する手段を有することを特徴とする.
【0006】
【発明の実施の形態】
図1に,特許請求項間の関係を示す.以下,本発明の実施の形態について,図2〜図5を用いて説明する.
【0007】
最初に,請求項1,請求項2,請求項4,請求項6の実施例を示す.図2に,本発明全体の構成を示す.動きベクトル抽出手段a1においては,移動観測系に搭載された単数または複数の各カメラ画像に対して画面上の動きベクトル(オプティカルフロー)を推定する.動きベクトル統合手段a2においては,抽出したオプティカルフローを予め設定した評価基準に基づき,グループ化する.移動物体検出手段a3においては,例えば,上記グループ化されたオプティカルフローの集合に対して,この集合が独立した移動物体の投影領域に含まれる場合に各フローの延長線上に存在する移動物体の動きの消失点(移動物体FOE)と移動観測系の自己移動による動きの消失点(背景FOE)との位置が異なることを利用することにより,移動観測系に対し独立に移動する物体領域の検出を行う.
【0008】
以下,各部の具体的な構成方法について述べる.図3に,動きベクトル抽出手段a1の具体化構成の一例を示す.関心領域設定部b1においては,移動観測系に搭載された単数または複数のカメラを介して時々刻々入力される画像に対し,移動物体検出処理を実施するM画素×N画素の局所領域を設定する.領域サイズM,Nの値は,用途と処理速度要求に応じて適宜設定する.類似度計算部b2においては,上記関心領域に属する各画素の連続時点間の類似度を計算しこの極大を持つ位置を検出することにより,動きベクトル(オプティカルフロー)を検出する.類似度としては,相関係数,明度値の差の絶対値和などが利用可能であるが,本構成例では,各画素の近傍領域内の明度分布を解析した後に連続時点における近傍領域内各対応画素明度値の差の絶対値和に−1を掛けた値を類似度として採る場合について以下に述べる.
【0009】
t時点での画素位置(xi(t),yi(t))を始点としたオプティカルフローを求める際,まずこの(xi(t),yi(t))を中心位置とするK画素×L画素の近傍領域を設定する.K,Lの値は処理時間を考慮して適宜設定する.次にこの近傍領域内の全画素KL個の明度分布を求め,例えば分布曲線における最大値と最小値の差が閾値以上である等,充分な情報量があると判定された場合に,この画素をオプティカルフロー抽出の対象として選択する.充分な情報量があると判定されなかった場合は,オプティカルフロー抽出精度向上が見込めないため,この画素でのオプティカルフロー抽出は行わず,関心領域内の次の画素に移り上記の処理を繰り返し実行する.オプティカルフロー抽出の対象として選択された画素については,t+1時点における予め定めた探索領域内の各候補点について,上記の明度分布評価を実行する.充分な情報量があると判定されなかった候補点に関しては,類似度計算の対象とせず,次の候補点に移る.充分な情報量があると判定された候補点に関しては,総和メモリS(k)を0にクリヤした後,t時点での(xi(t),yi(t))を中心位置とした近傍領域における点の画素値gi(t)とt+1時点における上記候補点を中心位置とした近傍領域の対応する点の画素値gi(t+1)の差の絶対値和|gi(t)− gi(t+1)|を計算し,総和メモリS(k)に加算することを全近傍領域内の画素に関して繰り返し,最終的に得られた総和値に−1を掛けた値を総和メモリSに新たに記憶しておく.上記の処理を全候補点に関して実行し,得られた総和メモリ値が最大となる候補点(xi(t+1),yi(t+1))を,動きベクトルの終点位置として検出する.動きベクトルメモリ格納部b3においては,上記類似度計算部b2において求められた類似度最大となるt+1時点の画素位置(xi(t+1),yi(t+1))とこれに対応したt時点での画素位置(xi(t),yi(t))の差ベクトル(xi(t+1)− xi(t),yi(t+1)− yi(t))をこのt時点での画素位置(xi(t),yi(t))におけるオプティカルフローベクトルとして求め,位置座標値(xi(t),yi(t))と合せてメモリに順次格納する.
【0010】
図4に,動きベクトル統合手段a2の具体化構成の一例を示す.まず局所領域分割部c1にて,関心領域全体をA画素×B画素の大きさを持つ局所領域群に分割する.A,Bは各々,関心領域サイズM,Nの約数となるように設定する.これにより,関心領域全体に対し重なりのないように(M/A)×(N/B)個に分割することも可能であるが,本実施例では,できるだけ移動物体の見逃しを少なくするため,上記重なりのない分割結果得られた局所領域の隣り合う2つの領域の間に新たに1つの局所領域を設定する方式を用いることとする.この結果,約(9MN/4AB)個の局所領域が生成されることになる.次に局所領域選択部c2にて,所定の基準に基づき上記設定した局所領域の中から移動物体検出に用いるものの選択を行う.この選択の基準として例えば,各局所領域に含まれるオプティカルフローの本数を,前記動きベクトル抽出手段a1における動きベクトルメモリ格納部b3の内容を参照することにより求め,この値が予め設定した閾値より大きいものを選択する方式を採ることが有効である.局所領域メモリ格納部c3においては,上記局所領域選択部c2にて選出した移動物体検出に用いる各局所領域の位置・サイズ情報を,メモリに順次格納する.
【0011】
図5に,移動物体検出手段a3の具体化構成の一例を示す.まず背景FOE推定部d1において,移動観測系自身の移動により生じる背景領域の動きの消失点(背景FOE)を推定する.この方式としては,移動開始前に予め環境に静止した物体を検出しておき,この領域に包含されるオプティカルフローベクトルの集合より得られる直線群の交点位置として求めることが可能である.局所領域FOE推定部d2においては,前記動きベクトル統合手段a2における局所領域メモリ格納部c3の内容を参照することにより,移動物体検出に用いる局所領域の各位置・サイズ情報を得た後,この領域に含まれるオプティカルフローの集合を前記動きベクトル抽出手段a1における動きベクトルメモリ格納部b3の内容を参照することにより求め,このフローベクトル情報に基づき設定した直線群の交点位置として,各局所領域における動きの消失点(局所領域FOE)位置を推定する.
移動物体存在判定部d3においては,移動観測系に対し独立移動する物体の投影領域に含まれる場合に各フローの延長線上に存在する移動物体の動きの消失点(移動物体FOE)と移動観測系の自己移動による動きの消失点(背景FOE)との位置が異なることを利用することにより,移動観測系に対し独立に移動する物体領域の検出を行う.具体的には上記背景FOEの位置ベクトルと各局所領域におけるオプティカルフロー直線の交点(局所領域FOE)の差ベクトルを求め,この長さが予め設定した閾値以上である場合に,この局所領域を独立に移動する物体に属する領域として検出することが可能である.なお,本発明は上述した実施例に限定されるものではない.
【0012】
次に,請求項3の実施例を示す.請求項3では,前記動きベクトル統合手段a2において,画像からエッジを抽出し,このエッジの近傍領域に含まれるオプティカルフローを選択するという評価基準に基づきグループ化を行う方式を採る.
【0013】
次に,請求項5の実施例を示す.請求項5では,前記移動物体検出手段a3の背景FOE推定部d1において,移動観測系は視線方向に直進することを用いて,移動観測系自身の移動により生じる背景領域の動きの消失点(背景FOE)を画像中心位置で代用する.
【0014】
次に,請求項7の実施例を示す.請求項7では,前記動きベクトル統合手段a2において,各局所領域に含まれるオプティカルフローの始点画素,または終点画素の平均明度または色相値が類似しているという基準を併用することによりグループ化を行う方式を採る.また,オプティカルフロー本数を用いて選択した局所領域間における,平均明度または色相値の類似性を用いて,更にグループ化を行う方式を採ることも可能である.
【0015】
次に,請求項8の実施例を示す.請求項8では,前記移動物体検出手段a3において,移動物体検出を行う局所領域に含まれる各オプティカルフローを延長した直線と,移動観測系の自己移動による動きの消失点(背景FOE)との距離を計算し,この距離値を予め設定した閾値と比較することにより上記オプティカルフローが独立移動する物体により生じたものか否かを判定する方式を採る.
【0016】
次に,請求項9の実施例を示す.請求項9では,複数の移動観測系における同時点の画像対から前記移動物体検出手段a3により各々検出された,独立移動物体の投影領域の各代表位置座標を,ステレオ対応付けすることにより,上記独立移動物体の移動観測系からの3次元位置情報を抽出する手段を付加することにより,移動速度の推定や衝突危険性などの判定を実施する.
【0017】
次に,請求項10の実施例を示す.請求項10では,請求項9における複数の移動観測系における同時点の画像対から前記移動物体検出手段a3により各々検出された,独立移動物体の投影領域の各代表位置座標として独立移動物体の重心座標を使用する.
【0018】
以上,本発明はその趣旨を逸脱しない範囲で種々変形して実施することが可能である.
【0019】
【発明の効果】
以下に本発明の効果を述べる.
【0020】
請求項1の実施例では,動きベクトル抽出手段と,動きベクトル統合手段と,移動物体検出手段を具備することにより,移動観測手段に搭載された単数または複数のカメラにより撮影された一連の画像から移動物体を検出することが可能となる.
【0021】
請求項2の実施例では,動きベクトル統合手段において,画像の全体または一部を複数の小領域に分割し,検出されたオプティカルフローの本数が規定値よりも大きい小領域を選択するという評価基準に基づきグループ化を行う手段を具備することにより,誤りフローの発生を抑制し,グループ化を効率的に行うことが可能となる.
【0022】
請求項3の実施例では,動きベクトル統合手段において,画像からエッジを抽出し,このエッジの近傍領域に含まれるオプティカルフローを選択するという評価基準に基づきグループ化を行う手段を具備することにより,オプティカルフローの計算を行う領域を限定し,誤りフローの発生を抑制し,グループ化を効率的に行うことが可能となる.
【0023】
請求項4の実施例では,移動物体検出手段において,画像中の静止環境物体領域に含まれるオプティカルフロー群を抽出し,これらの動きベクトル情報を基に移動観測系の自己移動による動きの消失点(背景FOE)を推定する手段を具備することにより,移動物体の動きの消失点(移動物体FOE)と背景FOEの分離を可能とし,移動観測手段に搭載された単数または複数のカメラにより撮影された一連の画像から移動物体を検出することが可能となる.
【0024】
請求項5の実施例では,移動物体検出手段において,移動観測系の自己移動による動きの消失点(背景FOE)を画像中心で代用し用いる手段を具備することにより,処理速度を向上させることが可能となる.
【0025】
請求項6の実施例では,移動物体検出手段において,前記グループ化された小領域集合に含まれるオプティカルフローベクトル群に基づき移動物体の動きの消失点(移動物体FOE)を推定し,この位置ベクトルと移動観測系の自己移動による動きの消失点(背景FOE)の位置ベクトル間の差ベクトルの長さを閾値と比較することにより,上記グループ化された小領域集合が独立に移動する物体に含まれるか否かを判定することが可能となる.
【0026】
請求項7の実施例では,動きベクトル統合手段において,各小領域における平均明度または色相値が類似しているという基準を併用することによりグループ化を行う手段を具備することにより,グループ化の精度を向上させることが可能となる.
【0027】
請求項8の実施例では,請求項3に記載の動画像処理装置及び方法における,移動物体検出手段において,選択された各オプティカルフローを延長した直線と,移動観測系の自己移動による動きの消失点(背景FOE)との距離を計算し,この距離値を規定閾値と比較することにより上記オプティカルフローが独立に移動する物体により生じたものか否かを判定する手段を具備することにより,移動観測手段に搭載された単数または複数のカメラにより撮影された一連の画像から移動物体を検出することが可能となる.
【0028】
請求項9の実施例では,複数の移動観測系における同時点の画像対から各々検出された,独立に移動する物体に属する領域の各代表位置座標を,ステレオ対応付けすることにより,上記独立移動物体の移動観測系からの3次元位置情報を抽出することが可能となる.
【0029】
請求項10の実施例では,複数の移動観測系における同時点の画像対から各々検出された,独立に移動する物体に属する領域の各代表位置座標を,領域の重心座標で代表することにより計算を容易にすることが可能となる.
【0030】
本発明を用いることにより,動的に変化する屋内・屋外環境において,知能移動ロボットや自律移動車を制御するために不可欠である障害物検出機能を,安定かつ高信頼に実現するための効率的な動画像処理装置及び方法を提供することが可能となり,この社会的・実用的効果は多大である.
【図面の簡単な説明】
【図1】特許請求項間の関係を示す.
【図2】本発明全体の構成を示す.
【図3】動きベクトル抽出手段a1の構成例を示す.
【図4】動きベクトル統合手段a2の構成例を示す.
【図5】移動物体検出手段a3の構成例を示す.
[0001]
FIELD OF THE INVENTION
The present invention relates to a moving image processing apparatus used in a moving image processing apparatus that analyzes a series of images to measure, for example, a traffic flow, detect the appearance of an illegal intruder, and control an autonomous mobile vehicle or a mobile robot. And methods.
[0002]
[Prior art]
In recent years, with the popularization of TV cameras due to the popularization of personal computers, the miniaturization and the speeding up of PCs have been progressing with the spread of PCs. Was. On the other hand, research and development of intelligent mobile work robots, amusement hobby robots, autonomous mobile vehicles, etc. are being actively conducted, and practical application is strongly desired. When constructing systems such as intelligent mobile robots and autonomous mobile vehicles, a moving image processing apparatus and method for analyzing images that change every moment and detecting other moving objects appearing while moving at high speed and stability are known. Indispensable.
[0003]
In the conventional moving object detection processing, a method is generally used in which images in a stationary observation system such as a fixed camera are subjected to difference and threshold processing to detect a newly appearing object. In addition, the technology to detect the motion vector (optical flow) of each point by processing the moving image has been actively studied as a part of the moving image processing research. This optical flow can be considered as the movement of the mobile observation system relative to the three-dimensional space projected onto the image plane. However, when actually detecting the optical flow, error flows are mixed due to brightness changes due to illumination fluctuations. However, it is not easy to detect highly accurate flows at high speed. As a method for detecting a moving object based on this optical flow, for example, a "moving object detection device and method" (Japanese Patent Application No. 7-7446, filed on January 20, 1995) has been proposed.
[0004]
[Problems to be solved by the invention]
When the observation system itself moves, such as an intelligent mobile robot or an autonomous mobile vehicle, the entire environment projected on the image changes every moment. There was a problem that it was not possible to detect the appearing moving object area separately from the background. In addition, when separating background and autonomous moving objects using optical flow, there is a need to deal with the above error flow and to develop a method to efficiently analyze optical flow information generated over the entire image. Had been an issue. In the "moving object detection apparatus and method", a vanishing point of motion (FOE) is detected using an optical flow, and an object that moves independently is detected using a change in this position or an estimated residual in a small area. However, when the flow accuracy is reduced, there is a problem that the detection performance decreases when the moving object appears in the distance and occupies a small proportion in the image. In view of the above points, an object of the present invention is to provide a moving image processing apparatus and method for quickly and stably detecting an object that moves independently of the movement of an observation system.
[0005]
[Means for Solving the Problems]
The moving image processing apparatus and method according to the present invention are characterized in that each camera provided in the moving observation system has means for detecting an optical flow.
A moving image processing apparatus and method according to the present invention include means for grouping extracted optical flows based on preset evaluation criteria. The moving image processing apparatus and method according to the present invention include means for detecting an independently moving object by analyzing optical flow information included in the grouped optical flow set. It is characterized by
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
Figure 1 shows the relationship between the claims. Hereinafter, embodiments of the present invention will be described with reference to FIGS.
[0007]
First, embodiments of the first, second, fourth, and sixth aspects will be described. FIG. 2 shows the overall configuration of the present invention. The motion vector extracting means a1 estimates a motion vector (optical flow) on the screen for one or a plurality of camera images mounted on the mobile observation system. In the motion vector integrating means a2, the extracted optical flows are grouped based on a preset evaluation criterion. In the moving object detecting means a3, for example, when a set of the grouped optical flows is included in the projection area of the independent moving object, the movement of the moving object existing on the extension of each flow is considered. By using the difference between the vanishing point (moving object FOE) and the vanishing point of the movement (background FOE) caused by the self-movement of the moving observation system, the detection of the object region that moves independently to the moving observation system can be performed. Do it.
[0008]
The specific configuration of each part is described below. FIG. 3 shows an example of a concrete configuration of the motion vector extracting means a1. The region-of-interest setting unit b1 sets a local region of M pixels × N pixels for performing a moving object detection process on an image that is momentarily input via one or more cameras mounted on the moving observation system. . The values of the region sizes M and N are appropriately set according to the application and the processing speed requirement. The similarity calculation unit b2 calculates a similarity between successive points in time of each pixel belonging to the region of interest and detects a position having this maximum, thereby detecting a motion vector (optical flow). As the degree of similarity, a correlation coefficient, a sum of absolute values of differences in lightness values, and the like can be used. In this configuration example, after analyzing the lightness distribution in the vicinity area of each pixel, each of the pixels in the vicinity area at a continuous point in time is analyzed. The case where the value obtained by multiplying the sum of the absolute values of the differences of the corresponding pixel brightness values by -1 is used as the similarity is described below.
[0009]
When obtaining an optical flow starting from a pixel position (xi (t), yi (t)) at time t, first, a K pixel × L pixel having this (xi (t), yi (t)) as a center position This sets the neighborhood of. The values of K and L are appropriately set in consideration of the processing time. Next, the brightness distribution of all the pixels KL in this neighboring area is obtained. Is selected as the target for optical flow extraction. If it is not determined that there is a sufficient amount of information, the optical flow extraction accuracy cannot be improved, so the optical flow extraction is not performed at this pixel, and the process moves to the next pixel in the region of interest and the above processing is repeatedly performed. I do. For the pixel selected as the target of the optical flow extraction, the above brightness distribution evaluation is executed for each candidate point in the predetermined search area at the time point t + 1. Candidate points that are not determined to have sufficient information are not subject to similarity calculation and move to the next candidate point. For a candidate point determined to have a sufficient amount of information, after clearing the sum memory S (k) to 0, a neighboring area centered at (xi (t), yi (t)) at time t And the absolute value sum | gi (t) -gi (t + 1) of the difference between the pixel value gi (t) of the point at and the pixel value gi (t + 1) of the corresponding point in the neighboring area centered on the candidate point at time t + 1 Is calculated and added to the sum total memory S (k) for the pixels in all the neighboring areas, and the finally obtained sum value multiplied by -1 is newly stored in the sum total memory S. deep. The above processing is executed for all the candidate points, and the candidate point (xi (t + 1), yi (t + 1)) at which the obtained total memory value is the maximum is detected as the end point position of the motion vector. In the motion vector memory storage unit b3, the pixel position (xi (t + 1), yi (t + 1)) at the time t + 1 at which the similarity calculated by the similarity calculation unit b2 becomes the maximum, and the corresponding pixel at the time t The difference vector (xi (t + 1) -xi (t), yi (t + 1) -yi (t)) of the position (xi (t), yi (t)) is converted to the pixel position (xi (t), yi (t)) is obtained as an optical flow vector, and sequentially stored in a memory together with position coordinate values (xi (t), yi (t)).
[0010]
FIG. 4 shows an example of a specific configuration of the motion vector integrating means a2. First, the local region dividing unit c1 divides the entire region of interest into local region groups having a size of A pixels × B pixels. A and B are set to be divisors of the region of interest M and N, respectively. This makes it possible to divide the entire region of interest into (M / A) × (N / B) pieces without overlapping, but in this embodiment, in order to minimize missing of a moving object, A method is used in which a new local region is set between two adjacent regions of the local region obtained as a result of the non-overlapping division. As a result, about (9 MN / 4AB) local regions are generated. Next, a local area selection unit c2 selects a local area to be used for moving object detection from the set local areas based on a predetermined criterion. As a criterion for this selection, for example, the number of optical flows included in each local area is obtained by referring to the contents of the motion vector memory storage unit b3 in the motion vector extraction unit a1, and this value is larger than a preset threshold value. It is effective to adopt a method of selecting things. In the local area memory storage unit c3, the position and size information of each local area used for detecting a moving object selected by the local area selection unit c2 is sequentially stored in a memory.
[0011]
FIG. 5 shows an example of a specific configuration of the moving object detection means a3. First, the background FOE estimating unit d1 estimates a vanishing point (background FOE) of the motion of the background region caused by the movement of the mobile observation system itself. In this method, it is possible to detect an object that is stationary in the environment before moving, and to find the intersection point of a group of straight lines obtained from a set of optical flow vectors included in this area. The local area FOE estimating unit d2 obtains each position and size information of the local area used for the moving object detection by referring to the contents of the local area memory storage unit c3 in the motion vector integrating unit a2. Is obtained by referring to the contents of the motion vector memory storage unit b3 in the motion vector extracting means a1, and the set of optical flows included in the motion vector extraction means a1 is defined as the intersection point of the line group set based on the flow vector information. Of the vanishing point (local area FOE) is estimated.
In the moving object existence determination unit d3, the vanishing point of the movement of the moving object (moving object FOE) existing on the extension of each flow when the moving object is included in the projection area of the object that moves independently of the moving observation system and the moving observation system The detection of the object region that moves independently from the mobile observation system is performed by utilizing the difference in position with the vanishing point (background FOE) of the motion due to the self-movement. Specifically, the difference vector between the position vector of the background FOE and the intersection (local region FOE) of the optical flow straight line in each local region is determined. If this length is equal to or greater than a preset threshold, the local region is determined to be independent. It can be detected as a region belonging to an object that moves to. The present invention is not limited to the above-described embodiment.
[0012]
Next, a third embodiment will be described. In the third aspect, the motion vector integrating means a2 employs a method of extracting an edge from an image and performing grouping based on an evaluation criterion of selecting an optical flow included in a region near the edge.
[0013]
Next, an embodiment of claim 5 will be described. In the fifth aspect, the background FOE estimating unit d1 of the moving object detection unit a3 uses the fact that the moving observation system goes straight in the direction of the line of sight, and the vanishing point of the movement of the background region caused by the movement of the moving observation system itself (background FOE) is substituted for the image center position.
[0014]
Next, an embodiment of claim 7 will be described. In the seventh aspect, the motion vector integrating means a2 performs grouping by using together a criterion that the average brightness or the hue value of the start pixel or the end pixel of the optical flow included in each local region is similar. Adopt the method. It is also possible to adopt a method of further grouping using the similarity of average brightness or hue value between local regions selected using the number of optical flows.
[0015]
Next, an eighth embodiment will be described. In the eighth aspect, a distance between a straight line obtained by extending each optical flow included in a local area for detecting a moving object and a vanishing point (background FOE) of the movement due to the self-movement of the moving observation system in the moving object detection means a3. Is calculated, and this distance value is compared with a preset threshold to determine whether the optical flow is caused by an independently moving object.
[0016]
Next, an embodiment of claim 9 will be described. In the ninth aspect, the representative position coordinates of the projection area of the independent moving object, which are respectively detected by the moving object detecting means a3 from the image pairs of the simultaneous points in the plurality of moving observation systems, are associated with each other in stereo. By adding a means to extract 3D position information from the moving observation system of an independent moving object, we estimate the moving speed and judge the risk of collision.
[0017]
Next, a tenth embodiment will be described. According to a tenth aspect, the center of gravity of an independent moving object is used as each representative position coordinate of a projection area of the independent moving object detected by the moving object detecting means a3 from the image pair at the same point in the plurality of moving observation systems in the ninth aspect. Use coordinates.
[0018]
As described above, the present invention can be variously modified and implemented without departing from the spirit thereof.
[0019]
【The invention's effect】
The effects of the present invention will be described below.
[0020]
In the embodiment of the present invention, by providing a motion vector extracting means, a motion vector integrating means, and a moving object detecting means, a series of images taken by one or a plurality of cameras mounted on the moving observation means is provided. Moving objects can be detected.
[0021]
According to an embodiment of the present invention, the motion vector integrating means divides the whole or a part of an image into a plurality of small areas and selects a small area in which the number of detected optical flows is larger than a specified value. By providing a means for grouping based on, it is possible to suppress the occurrence of error flows and perform grouping efficiently.
[0022]
According to an embodiment of the present invention, the motion vector integrating means includes means for extracting an edge from an image and performing grouping based on an evaluation criterion of selecting an optical flow included in a region near the edge. It is possible to limit the area where optical flows are calculated, suppress the occurrence of error flows, and perform grouping efficiently.
[0023]
In the embodiment of the present invention, the moving object detecting means extracts an optical flow group included in the still environment object region in the image, and based on the motion vector information, a vanishing point of the motion due to the self-movement of the mobile observation system. By providing a means for estimating (background FOE), it is possible to separate the vanishing point of the movement of the moving object (moving object FOE) from the background FOE, and the image is captured by one or more cameras mounted on the moving observation means. Moving objects can be detected from a series of images.
[0024]
In the fifth embodiment, the moving object detecting means is provided with means for substituting the vanishing point (background FOE) of the movement due to the self-movement of the moving observation system at the center of the image, thereby improving the processing speed. It becomes possible.
[0025]
According to an embodiment of the present invention, the moving object detecting means estimates a vanishing point (moving object FOE) of the moving object based on an optical flow vector group included in the group of small areas. By comparing the length of the difference vector between the position vector of the vanishing point (background FOE) of the movement due to the self-movement of the mobile observation system with the threshold value, the grouped small area set is included in the independently moving object. It is possible to determine whether or not it is possible.
[0026]
In the embodiment of the present invention, the motion vector integrating means includes means for performing grouping by using together a criterion that the average brightness or the hue value in each small area is similar, thereby improving the accuracy of grouping. Can be improved.
[0027]
According to an eighth aspect of the present invention, in the moving image processing apparatus and method according to the third aspect, in the moving object detecting means, a straight line extending each of the selected optical flows and a motion disappearance due to self-movement of the moving observation system. Calculating a distance to a point (background FOE) and comparing the distance value with a specified threshold to determine whether the optical flow is caused by an independently moving object; Moving objects can be detected from a series of images taken by one or more cameras mounted on the observation means.
[0028]
In the embodiment of the ninth aspect, each of the representative position coordinates of an area belonging to an independently moving object, which is detected from a pair of images at the same point in a plurality of moving observation systems, is associated with the stereo, thereby achieving the independent movement. It is possible to extract 3D position information from the moving observation system of the object.
[0029]
In the tenth embodiment, each representative position coordinate of an area belonging to an independently moving object, which is detected from an image pair at the same point in a plurality of mobile observation systems, is calculated by representing the coordinate of the center of gravity of the area. Can be made easier.
[0030]
By using the present invention, it is possible to efficiently and efficiently realize an obstacle detection function that is indispensable for controlling intelligent mobile robots and autonomous vehicles in dynamically changing indoor and outdoor environments. It is possible to provide a simple moving image processing apparatus and method, and this social and practical effect is enormous.
[Brief description of the drawings]
FIG. 1 shows the relationship between the claims.
FIG. 2 shows the overall configuration of the present invention.
FIG. 3 shows a configuration example of a motion vector extraction unit a1.
FIG. 4 shows a configuration example of a motion vector integration means a2.
FIG. 5 shows a configuration example of a moving object detection unit a3.

Claims (10)

一連の画像を処理することにより,物体の認識や状況の変化の検出を行う動画像処理装置及び方法において,移動観測手段に搭載された単数または複数のカメラにより撮影された画像中の各点の動きを表す動きベクトル(オプティカルフロー)を抽出する,動きベクトル抽出手段と,上記抽出したオプティカルフローを予め設定した評価基準に基づきグループ化する,動きベクトル統合手段と,上記動きベクトル統合手段によりグループ化されたオプティカルフローの集合に対して,この集合が独立した移動物体の投影領域に含まれる場合に各フローの延長線上に存在する移動物体の動きの消失点(移動物体FOE:Focus of Expansion)と移動観測系の自己移動による動きの消失点(背景FOE)との位置が異なることを利用することにより,独立に移動する物体を検出する移動物体検出手段を具備することを特徴とする動画像処理装置及び方法.In a moving image processing apparatus and method for recognizing an object or detecting a change in a situation by processing a series of images, each point in an image captured by a camera or a plurality of cameras mounted on a moving observation means is obtained. A motion vector extracting means for extracting a motion vector (optical flow) representing a motion, a grouping of the extracted optical flows based on a predetermined evaluation criterion, a motion vector integrating means, and a grouping by the motion vector integrating means For the set of optical flows obtained, when the set is included in the projection area of the independent moving object, the vanishing point of the motion of the moving object existing on the extension of each flow (moving object FOE: Focus of Expansion) Check that the position of the moving observation system is different from the vanishing point (background FOE) due to the self-movement. A moving image processing apparatus and method comprising moving object detection means for detecting an object that moves independently by using the moving image detection apparatus. 請求項1に記載の動画像処理装置及び方法における,動きベクトル統合手段において,画像の全体または一部を複数の小領域に分割し,検出されたオプティカルフローの本数が規定値よりも大きい小領域を選択するという評価基準に基づきグループ化を行う手段を具備することを特徴とする動画像処理装置及び方法.2. The moving image processing apparatus and method according to claim 1, wherein the motion vector integrating means divides the whole or a part of the image into a plurality of small regions, and detects the number of optical flows larger than a specified value. A moving image processing apparatus and method, comprising: means for performing grouping based on an evaluation criterion for selecting a moving image. 請求項1に記載の動画像処理装置及び方法における,動きベクトル統合手段において,画像からエッジを抽出し,このエッジの近傍領域に含まれるオプティカルフローを選択するという評価基準に基づきグループ化を行う手段を具備することを特徴とする動画像処理装置及び方法.2. The moving image processing device and method according to claim 1, wherein the motion vector integrating means extracts edges from the image and performs grouping based on an evaluation criterion of selecting an optical flow included in a region near the edges. A moving image processing apparatus and method, comprising: 請求項1に記載の動画像処理装置及び方法における,移動物体検出手段において,画像中の静止環境物体領域に含まれるオプティカルフロー群を抽出し,これらの動きベクトル情報を基に移動観測系の自己移動による動きの消失点(背景FOE)を推定する手段を具備することを特徴とする動画像処理装置及び方法.2. The moving object detecting means in the moving image processing apparatus and method according to claim 1, wherein an optical flow group included in a still environment object region in the image is extracted, and a moving observation system self-extracts based on the motion vector information. A moving image processing apparatus and method, comprising: means for estimating a vanishing point (background FOE) of movement due to movement. 請求項1に記載の動画像処理装置及び方法における,移動物体検出手段において, 移動観測系の自己移動による動きの消失点(背景FOE)を画像中心で代用し用いる手段を具備することを特徴とする動画像処理装置及び方法.2. The moving image detecting apparatus and method according to claim 1, further comprising means for using a vanishing point (background FOE) of a movement due to self-movement of the moving observation system at the center of the image. Moving image processing apparatus and method. 請求項2に記載の動画像処理装置及び方法における,移動物体検出手段において,前記グループ化された小領域集合に含まれるオプティカルフローベクトル群に基づき 移動物体の動きの消失点(移動物体FOE)を推定し,この位置ベクトルと 移動観測系の自己移動による動きの消失点(背景FOE)の位置ベクトル間の差ベクトルの長さを閾値と比較することにより,上記グループ化された小領域集合が独立に移動する物体に含まれるか否かを判定する手段を具備することを特徴とする動画像処理装置及び方法.3. The moving object detecting means in the moving image processing apparatus and method according to claim 2, wherein a vanishing point (moving object FOE) of the moving object is determined based on an optical flow vector group included in the grouped small areas. By estimating and comparing the length of the difference vector between this position vector and the position vector of the vanishing point (background FOE) of the movement due to the self-movement of the mobile observation system with a threshold value, the grouped small region sets can be independently obtained. A moving image processing apparatus and method comprising: means for determining whether or not a moving object is included. 請求項2に記載の動画像処理装置及び方法における,動きベクトル統合手段において,各小領域における明度値で規定される条件または色相値で規定される条件が類似しているという基準を併用することによりグループ化を行う手段を具備することを特徴とする動画像処理装置及び方法.3. The motion image processing apparatus and method according to claim 2, wherein the motion vector integrating means uses together a criterion that conditions defined by lightness values or conditions defined by hue values in each small area are similar. Moving image processing apparatus and method, comprising: means for performing grouping according to (1). 請求項3に記載の動画像処理装置及び方法における,移動物体検出手段において,選択された各オプティカルフローを延長した直線と,移動観測系の自己移動による動きの消失点(背景FOE)との距離を計算し,この距離値を規定閾値と比較することにより上記オプティカルフローが独立に移動する物体により生じたものか否かを判定する手段を具備することを特徴とする動画像処理装置及び方法.4. The moving image processing apparatus and method according to claim 3, wherein, in the moving object detecting means, a distance between a straight line extending each of the selected optical flows and a vanishing point (background FOE) of the movement due to self-movement of the moving observation system. And a means for determining whether the optical flow is caused by an independently moving object by comparing the distance value with a prescribed threshold value. 請求項1に記載の動画像処理装置及び方法において,複数の移動観測系における同時点の画像対から各々検出された,独立に移動する物体に属する領域の各代表位置座標を,ステレオ対応付けすることにより,上記独立移動物体の移動観測系からの3次元位置情報を抽出する手段を具備することを特徴とする動画像処理装置及び方法.2. The moving image processing apparatus and method according to claim 1, wherein each representative position coordinate of an area belonging to an independently moving object, which is detected from a pair of images at the same time in a plurality of moving observation systems, is associated with a stereo. And a means for extracting three-dimensional position information from the movement observation system of the independent moving object. 請求項9に記載の動画像処理装置及び方法において,複数の移動観測系における同時点の画像対から各々検出された,独立に移動する物体に属する領域の各代表位置座標として重心座標を使用することを特徴とする動画像処理装置及び方法.10. The moving image processing apparatus and method according to claim 9, wherein the barycentric coordinates are used as the representative position coordinates of the region belonging to the independently moving object detected from the image pairs at the same point in the plurality of moving observation systems. A moving image processing apparatus and method.
JP2003002892A 2003-01-09 2003-01-09 Moving image processing device and method Pending JP2004220059A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003002892A JP2004220059A (en) 2003-01-09 2003-01-09 Moving image processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003002892A JP2004220059A (en) 2003-01-09 2003-01-09 Moving image processing device and method

Publications (1)

Publication Number Publication Date
JP2004220059A true JP2004220059A (en) 2004-08-05

Family

ID=32894313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003002892A Pending JP2004220059A (en) 2003-01-09 2003-01-09 Moving image processing device and method

Country Status (1)

Country Link
JP (1) JP2004220059A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053823A (en) * 2004-08-13 2006-02-23 National Univ Corp Shizuoka Univ Moving object detection system and method thereof
EP1705917A2 (en) 2005-03-22 2006-09-27 Nissan Motor Co., Ltd. Detection apparatus and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053823A (en) * 2004-08-13 2006-02-23 National Univ Corp Shizuoka Univ Moving object detection system and method thereof
JP4538630B2 (en) * 2004-08-13 2010-09-08 国立大学法人静岡大学 System and method for detecting moving objects
EP1705917A2 (en) 2005-03-22 2006-09-27 Nissan Motor Co., Ltd. Detection apparatus and method
US7437243B2 (en) 2005-03-22 2008-10-14 Nissan Motor Co., Ltd. Detecting device and method to detect an object based on a road boundary

Similar Documents

Publication Publication Date Title
EP2858008B1 (en) Target detecting method and system
EP2619728B1 (en) An adaptable framework for cloud assisted augmented reality
US20060078197A1 (en) Image processing apparatus
US20010008561A1 (en) Real-time object tracking system
US9679384B2 (en) Method of detecting and describing features from an intensity image
US20120020524A1 (en) Tracked object determination device, tracked object determination method and tracked object determination program
US10650535B2 (en) Measurement device and measurement method
CN105279372A (en) Building height computing method and apparatus
Burgin et al. Using depth information to improve face detection
Wang et al. A unified framework for mutual improvement of SLAM and semantic segmentation
US10607350B2 (en) Method of detecting and describing features from an intensity image
EP3593322B1 (en) Method of detecting moving objects from a temporal sequence of images
CN104156932A (en) Moving object segmentation method based on optical flow field clustering
Krinidis et al. A robust and real-time multi-space occupancy extraction system exploiting privacy-preserving sensors
JP2016004446A (en) Motion estimation device
KR100994722B1 (en) Method for tracking moving object on multiple cameras using probabilistic camera hand-off
Tsai et al. Vision-Based Obstacle Detection for Mobile Robot in Outdoor Environment.
JP2004220059A (en) Moving image processing device and method
US20110085699A1 (en) Method and apparatus for tracking image patch considering scale
Mehta et al. Region graph based method for multi-object detection and tracking using depth cameras
JP4269781B2 (en) Optical flow detection system, detection method and detection program
JP2010286963A (en) Moving object detection device and moving object detection method
JPH10208059A (en) Mobile object extracting device
Paul et al. A realtime object tracking system using a color camera
CN104980623A (en) Method For Detecting Foreground

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051221

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090331