JP3432937B2 - Moving object detecting device and moving object detecting method - Google Patents

Moving object detecting device and moving object detecting method

Info

Publication number
JP3432937B2
JP3432937B2 JP05529295A JP5529295A JP3432937B2 JP 3432937 B2 JP3432937 B2 JP 3432937B2 JP 05529295 A JP05529295 A JP 05529295A JP 5529295 A JP5529295 A JP 5529295A JP 3432937 B2 JP3432937 B2 JP 3432937B2
Authority
JP
Japan
Prior art keywords
image
optical flow
moving object
unit
partial area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP05529295A
Other languages
Japanese (ja)
Other versions
JPH08249472A (en
Inventor
睦 渡辺
信之 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP05529295A priority Critical patent/JP3432937B2/en
Priority to US08/588,845 priority patent/US5777690A/en
Publication of JPH08249472A publication Critical patent/JPH08249472A/en
Application granted granted Critical
Publication of JP3432937B2 publication Critical patent/JP3432937B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、自律移動車、知能作業
ロボット、画像監視等の分野に用いられる移動物体検知
装置及び移動物体検知方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object detecting device and a moving object detecting method used in the fields of autonomous mobile vehicles, intelligent work robots, image monitoring and the like.

【0002】[0002]

【従来の技術】近年、集積化技術の進歩によるTVカメ
ラなどの画像センサの小型化、高機能化、そして、その
画像センサで得た画像を処理する処理プロセッサの小型
化、高機能化に伴い、TVカメラをセンサとして利用す
る自律移動車、知能作業ロボット、高度画像監視などの
研究が実用化に向けて活発に行なわれている。
2. Description of the Related Art In recent years, with the advancement of integration technology, image sensors such as TV cameras have become smaller and have higher functions, and a processor for processing an image obtained by the image sensor has become smaller and more sophisticated. Research on autonomous mobile vehicles that use TV cameras as sensors, intelligent work robots, advanced image monitoring, etc. is being actively conducted toward practical application.

【0003】すなわち、これら自律移動車、知能作業ロ
ボット、画像監視装置などのシステムを構築する際に
は、時々刻々変化する画像を捉え、この画像を処理し
て、画像中の移動する物体を検出することで移動物体の
情報を得る必要があり、このような移動する物体を画像
から高速かつ安定に検出する移動体検出装置が不可欠と
なる。
That is, when constructing a system such as an autonomous mobile vehicle, an intelligent work robot, or an image monitoring device, an image that changes from moment to moment is captured, this image is processed, and a moving object in the image is detected. By doing so, it is necessary to obtain information on a moving object, and a moving object detection device that detects such a moving object at high speed and stably is indispensable.

【0004】ところで従来における移動体検出装置とし
ては、固定カメラなどの静止した観測系から時間経過と
ともに逐次得られる画像を用い、画像間の画像差分処
理、しきい値処理を施すことにより、侵入した物体の領
域を検出する手法が一般的であった。しかし、この手法
では自律移動車などのように観測系が移動するような対
象に設置して使用することを考えた場合、得られる画像
は観測系の移動と共に移動するものとなり、従って、背
景全体も変化することとなるため、移動物体領域を背景
から安定に分離・検出することが難しくなる。
By the way, as a conventional moving body detection apparatus, an image successively obtained from a stationary observation system such as a fixed camera over time is used, and image difference processing between images and threshold processing are performed to intrude. The method of detecting the area of the object was common. However, in this method, when considering to use by installing it in an object such as an autonomous mobile vehicle where the observation system moves, the obtained image moves along with the movement of the observation system, and therefore the entire background Therefore, it becomes difficult to stably separate and detect the moving object region from the background.

【0005】[0005]

【発明が解決しようとする課題】従来における移動体検
出装置としては、固定カメラなどの静止した観測系から
時間経過とともに逐次得られる画像を用い、画像間の画
像差分処理、しきい値処理を施すことにより、侵入した
物体の領域を検出する手法が一般的であったが、この手
法では自律移動車などのように観測系が移動するような
対象に設置して使用することを考えた場合、得られる画
像は観測系の移動と共に移動するものとなり、従って、
背景全体も変化することとなるため、移動物体領域を背
景から安定に分離・検出することが難しくなるという問
題がある。
As a conventional moving body detection apparatus, images obtained sequentially from a stationary observation system such as a fixed camera over time are used to perform image difference processing between images and threshold processing. Therefore, the method of detecting the area of the invading object was general, but in this method, when considering to install and use it in an object such as an autonomous mobile vehicle where the observation system moves, The image obtained will move as the observation system moves, and
Since the entire background also changes, there is a problem that it is difficult to stably separate and detect the moving object area from the background.

【0006】しかし、このような画像であっても動きの
情報を直接検出する技術がある。例えば、画像情報処理
技術におけるオプティカルフローである。すなわち、オ
プティカルフローとは、画像における局所領域単位の動
きであり、画像情報処理技術の分野では、画像から動き
の情報を直接検出する技術として、オプティカルフロー
抽出という課題が広く研究されている。
However, there is a technique for directly detecting motion information even in such an image. For example, it is an optical flow in image information processing technology. That is, the optical flow is a movement in units of local areas in an image, and in the field of image information processing technology, a subject called optical flow extraction has been widely studied as a technique for directly detecting motion information from the image.

【0007】このオプティカルフローは3次元空間にお
ける動きが画像平面上に投影されたものであり、画像中
の局所領域毎の動きベクトルとして求められるため、上
記の変化検出手法に対し、移動物体・背景分離が安定に
行なうことができるという利点がある。
This optical flow is a motion in a three-dimensional space projected on an image plane and is obtained as a motion vector for each local region in the image. Therefore, in contrast to the above change detection method, a moving object / background is detected. There is an advantage that the separation can be performed stably.

【0008】しかし、オプティカルフローの検出処理は
本来、画像中の局所領域に対して行なわれる処理である
ため、明るさ変化の平坦性、揺らぎ、ノイズが存在する
環境下では推定精度が低下するという問題点がある。
However, since the optical flow detection process is originally performed on a local area in an image, the estimation accuracy is lowered in an environment where there are flatness, fluctuations, and noises in the brightness change. There is a problem.

【0009】このため、自律移動車等のように屋外環境
でも使用する可能性のある装置を対象とする場合には新
たにつぎのような対策を講じる必要がある。つまり、個
々のオプティカルフローの一部に誤差があっても安定に
働く処理系を備えることである。
Therefore, when a device that may be used in an outdoor environment such as an autonomous mobile vehicle is targeted, it is necessary to newly take the following measures. That is, it is necessary to provide a processing system that works stably even if there is an error in a part of each optical flow.

【0010】屋外環境で安定に動き情報を抽出するため
には、このように個々のオプティカルフローの一部に誤
差があっても安定に働く処理系を備えることが不可欠と
なる。
In order to stably extract motion information in an outdoor environment, it is indispensable to provide a processing system that works stably even if there is an error in a part of each optical flow.

【0011】また、観測系が移動する場合には、この動
きにより背景領域も動きを生ずるため、両者の動きが混
在することとなって、移動物体が出現した場合の検知が
簡単にはできないという問題点があった。
Further, when the observation system moves, this movement also causes the background area to move, so that the movements of both are mixed and it is not possible to easily detect the appearance of a moving object. There was a problem.

【0012】従って、観測系が移動する場合に、この観
測系の動きにより背景領域も動きを生じても、移動物体
が出現すればその検知を容易に行なうことができ、しか
も、オプティカルフローの一部に誤差があっても安定に
働く処理系を備える必要をなくした精度の高い移動物検
知を可能にする移動物体検知装置の実現が嘱望されてい
る。
Therefore, when the observation system moves, even if the background region also moves due to the movement of the observation system, it is possible to easily detect the moving object if it appears, and further, to detect the optical flow. There is a strong demand for realization of a moving object detection device that enables highly accurate detection of a moving object without having to provide a processing system that works stably even if there is an error in a part.

【0013】そこでこの発明の目的とするところは、観
測系が移動する場合においても高速かつ安定に移動物体
検知を行なうことができる移動物体検知装置及び移動物
体検知方法を提供することにある。
Therefore, an object of the present invention is to provide a moving object detecting device and a moving object detecting method capable of detecting a moving object at high speed and stably even when the observation system moves.

【0014】[0014]

【課題を解決するための手段】上記目的を達成するた
め、本発明はつぎのように構成する。すなわち、第1に
は、時間的経過に伴う観測対象の画像を取得して出力す
る観測手段と、この観測手段からの画像の時間的変化を
解析することにより、前記画像中の局所領域単位の動き
であるオプティカルフロー情報を抽出するオプティカル
フロー抽出手段と、このオプティカルフロー抽出手段に
より得られたオプティカルフロー情報に基づきこのオプ
ティカルフローが生じた前記画像内の部分を中心とする
部分領域に画像を分割し、この部分領域単位で、次時点
での予測画像を作成する予測画像作成手段と、この予測
画像作成手段により作成した予測画像における前記部分
領域の移動状態を解析することにより、移動物体を検知
する移動物体検知手段とから構成する。
In order to achieve the above object, the present invention is configured as follows. That is, firstly, by observing an observation means for acquiring and outputting an image of an observation target with the passage of time, and analyzing a temporal change of the image from this observation means, Optical flow extraction means for extracting optical flow information that is motion, and based on the optical flow information obtained by this optical flow extraction means, divides the image into partial areas centered on the portion in the image where this optical flow has occurred Then, a moving object is detected by analyzing the moving state of the partial area in the predicted image created by this predicted image creating means and the predicted image creating means for creating the predicted image at the next point of time by this partial area unit. And a moving object detecting means.

【0015】また、第2には、時間的経過に伴う観測対
象の画像を取得して出力する観測手段と、この観測手段
からの画像の時間的変化を解析することにより、前記画
像中の局所領域単位の動きであるオプティカルフロー情
報を抽出するオプティカルフロー抽出手段と、画像を所
定の大きさ単位に区分することにより、予測を行なうた
めの部分領域を設定し、この設定された部分領域のう
ち、オプティカルフロー抽出手段により得られたオプテ
ィカルフロー情報に基づきこのオプティカルフローが生
じた前記画像内の部分を中心とする部分領域の次時点の
画像位置を予測し、この部分領域単位での当該次時点で
の予測位置から当該次時点での予測画像を作成する予測
画像作成手段と、この予測画像作成手段により作成した
予測画像における前記部分領域の移動状態を解析するこ
とにより、移動物体を検知する移動物体検知手段とより
構成する。
Secondly, by observing means for acquiring and outputting an image of an observation object with the passage of time, and analyzing the temporal change of the image from this observing means, the local in the image is analyzed. Optical flow extraction means for extracting optical flow information, which is a movement in a region unit, and the image is divided into units of a predetermined size to set a partial region for prediction, and among the set partial regions, ,, based on the optical flow information obtained by the optical flow extraction means, predict the image position of the next time point of the partial area centered on the part in the image in which this optical flow has occurred, the next time point in this partial area unit Predicted image creating means for creating a predicted image at the next point in time from the predicted position at, and the predicted image created by the predicted image creating means. By analyzing the moving state of the partial region, more configuration and moving object detection means for detecting a moving object.

【0016】第3には、時間経過に伴う観測対象の画像
を取得して出力する観測手段と、この観測手段からの画
像の時間的変化を解析することにより、前記画像中の局
所領域単位の動きであるオプティカルフロー情報を抽出
するオプティカルフロー抽出手段と、画像を所定の大き
さ単位に区分することにより、予測を行なうための部分
領域を設定し、この設定された部分領域のうち、オプテ
ィカルフロー抽出手段により得られたオプティカルフロ
ー情報に基づきこのオプティカルフローが生じた前記画
像内の部分を中心とする部分領域の次時点の画像位置を
予測し、この部分領域単位での当該次時点での予測位置
から当該次時点での予測画像を作成する予測画像作成手
段と、この予測画像作成手段により作成した移動状態を
解析することにより、予測画像における前記部分領域の
重なり部分の有無を検知して、これより移動物体の存在
検知を行なう移動物体検知手段とより構成する。
Thirdly, by observing means for acquiring and outputting an image of an observation object with the passage of time, and analyzing the temporal change of the image from this observing means, a local area unit in the image is analyzed. An optical flow extraction unit that extracts optical flow information that is a motion, and a partial area for prediction is set by dividing an image into units of a predetermined size. Of the set partial areas, the optical flow is set. Based on the optical flow information obtained by the extraction means, predict the image position at the next time point of the partial area centered on the part in the image where the optical flow has occurred, and predict at the next time point in this partial area unit A predicted image creating unit that creates a predicted image at the next point in time from the position and an analysis of the moving state created by the predicted image creating unit. Detects the presence of the overlapping portion of the partial region in the prediction image, more configuration and moving object detection means for presence detection of the moving object than this.

【0017】第4には、時間的経過に伴う観測対象の画
像を取得して出力する観測手段と、この観測手段からの
画像の時間的変化を解析することにより、前記画像中の
局所領域単位の動きであるオプティカルフロー情報を抽
出するオプティカルフロー抽出手段と、画像を所定の大
きさ単位に区分することにより、予測を行なうための部
分領域を設定し、この設定された部分領域のうち、オプ
ティカルフロー抽出手段により得られたオプティカルフ
ロー情報に基づきこのオプティカルフローが生じた前記
画像内の部分を中心とする部分領域の次時点の画像位置
を予測し、この部分領域単位での当該次時点での予測位
置から当該次時点での予測画像を作成する予測画像作成
手段と、この予測画像作成手段により作成した予測画像
を解析し、予測画像における前記部分領域の重なり部分
を抽出し、重なり部分の大きさを測定して所定値以上の
大きさを持つとき、移動物体が存在すると判定して移動
物体検知する移動物体検知手段とを具備する。
Fourthly, by observing means for acquiring and outputting an image of an observation object with the passage of time, and analyzing the temporal change of the image from this observing means, a unit of local area in the image is obtained. Optical flow extraction means for extracting optical flow information, which is the motion of the image, and a partial area for prediction is set by dividing the image into units of a predetermined size. Based on the optical flow information obtained by the flow extraction means to predict the image position of the next time point of the partial area centered on the portion in the image in which this optical flow has occurred, at the next time point in this partial area unit A predicted image creating unit that creates a predicted image at the next point in time from the predicted position and a predicted image created by this predicted image creating unit are analyzed to obtain a predicted image. And a moving object detecting means for detecting a moving object by determining that a moving object is present when the overlapping portion of the partial area is measured, the size of the overlapping portion is measured, and the size is equal to or larger than a predetermined value. .

【0018】[0018]

【作用】第1の構成の場合、観測手段は観測対象の刻々
の画像を取得し、オプティカルフロー抽出手段は、この
取得した画像の時間的変化を解析することにより、画像
中の局所領域単位の動きであるオプティカルフロー情報
を抽出する。そして、予測画像作成手段はこのオプティ
カルフロー抽出手段により得られたオプティカルフロー
情報に基づき、このオプティカルフローが生じた画像内
の部分を中心とする部分領域に画像を分割し、予測画像
作成手段は次時点での前記部分領域単位の位置を予測し
て当該次時点での予測画像を作成する。そして、移動物
体検知手段は、この予測画像作成手段により作成した予
測画像における前記部分領域の移動状態を解析すること
により、移動物体の存在を検知する。
In the case of the first configuration, the observing means acquires every image of the observation target, and the optical flow extracting means analyzes the temporal change of the acquired image to determine the local area unit in the image. Extract optical flow information, which is a motion. Then, the predictive image creating means divides the image into partial regions centered on the part in the image where the optical flow occurs, based on the optical flow information obtained by the optical flow extracting means, and the predictive image creating means The position of the partial area unit at the time point is predicted and a predicted image at the next time point is created. Then, the moving object detecting means detects the presence of the moving object by analyzing the moving state of the partial area in the predicted image created by the predicted image creating means.

【0019】第2の構成の場合は、観測手段は観測対象
の刻々の画像を取得し、オプティカルフロー抽出手段
は、この得られた画像の時間的変化を解析することによ
り、画像中の局所領域単位の動きであるオプティカルフ
ロー情報を抽出する。そして、予測画像作成手段は、画
像を所定の大きさ単位に区分することにより、予測を行
なうための部分領域を設定し、この設定された部分領域
のうち、オプティカルフロー抽出手段により得られたオ
プティカルフロー情報に基づき、このオプティカルフロ
ーが生じた画像内の部分を中心とする部分領域の次時点
での画像位置を予測し、この部分領域単位での当該次時
点での予測位置から当該次時点での予測画像を作成す
る。そして、移動物体検知手段は、この予測画像作成手
段により作成された予測画像における前記部分領域の移
動状態を解析することにより、移動物体の存在を検知す
る。
In the case of the second configuration, the observing means acquires every image of the observation target, and the optical flow extracting means analyzes the temporal change of the obtained image to obtain a local region in the image. Optical flow information, which is a unit movement, is extracted. Then, the predicted image creating means sets a partial area for performing prediction by dividing the image into units of a predetermined size, and among the set partial areas, an optical flow obtained by the optical flow extracting means is set. Based on the flow information, the image position at the next time point of the partial area centered on the part in the image where this optical flow has occurred is predicted, and at the next time point from the predicted position at the next time point in units of this partial area. Create a prediction image of. Then, the moving object detecting means detects the presence of the moving object by analyzing the moving state of the partial area in the predicted image created by the predicted image creating means.

【0020】第3の構成の場合は、観測手段は観測対象
の刻々の画像を取得し、オプティカルフロー抽出手段
は、この得られた画像の時間的変化を解析することによ
り、画像中の局所領域単位の動きであるオプティカルフ
ロー情報を抽出する。そして、予測画像作成手段は、画
像を所定の大きさ単位に区分することにより、予測を行
なうための部分領域を設定し、この設定された部分領域
のうち、オプティカルフロー抽出手段により得られたオ
プティカルフロー情報に基づき、このオプティカルフロ
ー情報が得られた画像内の部分を中心とする部分領域の
次時点での画像位置を予測し、この部分領域単位での当
該次時点での予測位置から当該次時点での予測画像を作
成する。そして、移動物体検知手段は、この予測画像作
成手段により作成した予測画像における前記部分領域の
重なり部分の有無を調べ、重なり部分の存在から移動物
体の存在を検知する。
In the case of the third configuration, the observing means acquires every image of the observation target, and the optical flow extracting means analyzes the temporal change of the obtained image to obtain a local region in the image. Optical flow information, which is a unit movement, is extracted. Then, the predicted image creating means sets a partial area for performing prediction by dividing the image into units of a predetermined size, and among the set partial areas, an optical flow obtained by the optical flow extracting means is set. Based on the flow information, the image position at the next time point of the partial area centered on the part in the image for which this optical flow information was obtained is predicted, and the next position is predicted from the predicted position at the next time point in this partial area unit. Create a predicted image at the point in time. Then, the moving object detection means checks the presence or absence of the overlapping portion of the partial areas in the predicted image created by the predicted image creating means, and detects the presence of the moving object from the existence of the overlapping portion.

【0021】第4の構成の場合は、観測手段は観測対象
の刻々の画像を取得し、オプティカルフロー抽出手段
は、この得られた画像の時間的変化を解析することによ
り、局所領域単位の動きであるオプティカルフロー情報
を抽出する。そして、予測画像作成手段は、画像を所定
の大きさ単位に区分することにより、予測を行なうため
の部分領域を設定し、この設定された部分領域のうち、
オプティカルフロー抽出手段により得られたオプティカ
ルフロー情報に基づき、このオプティカルフローが生じ
た画像内の部分を中心とする部分領域の次時点での画像
位置を予測し、この部分領域単位での当該次時点での予
測位置から当該次時点での予測画像を作成する。そし
て、移動物体検知手段は、この予測画像作成手段により
作成した予測画像における前記部分領域の重なり部分の
有無を調べ、重なり部分があったときはその重なり部分
の大きさを測定して所定値以上の大きさを持つとき、移
動物体が存在すると判定して移動物体の存在を検知す
る。
In the case of the fourth configuration, the observing means acquires every image of the observation target, and the optical flow extracting means analyzes the temporal change of the obtained image to thereby analyze the movement of each local area unit. The optical flow information is extracted. Then, the predicted image creating means sets a partial area for performing prediction by dividing the image into units of a predetermined size, and among the set partial areas,
Based on the optical flow information obtained by the optical flow extraction means, predict the image position at the next time point of the partial area centered on the part in the image where this optical flow occurred, and the next time point in this partial area unit A predicted image at the next time is created from the predicted position in. Then, the moving object detection means examines the presence or absence of an overlapping portion of the partial areas in the predicted image created by the predicted image creating means, and if there is an overlapping portion, measures the size of the overlapping portion to obtain a predetermined value or more. When it has a size of, the presence of a moving object is detected by determining that a moving object exists.

【0022】このように本発明では、観測手段から観測
対象の刻々の画像を得て、オプティカルフロー抽出手段
により、その画像の時間的変化を解析することにより、
画像中の局所領域単位の動きであるオプティカルフロー
情報を抽出する。例えば、観測手段が直線運動するとす
れば、この場合、環境に静止した背景領域のオプティカ
ルフローは1点(FOE)から沸き出す直線上に存在す
る。そして、予測画像作成手段では、画像を部分領域に
分割し、これらのうち、前記オプティカルフローが生じ
た点を中心とする部分領域単位で次時点の位置予測を行
ない、予測画像を生成し、そして、移動物体検知手段で
は、この予測画像における複数の領域が重なる部分を抽
出することにより、背景領域が移動物体により遮蔽され
た領域が検出されれば、移動物体が存在すると判定する
ようにした。
As described above, according to the present invention, an image of the observation target is obtained from the observing means, and the optical flow extracting means analyzes the temporal change of the image.
The optical flow information, which is the movement of each local area in the image, is extracted. For example, if the observing means makes a linear motion, in this case, the optical flow in the background area stationary in the environment exists on a straight line boiling from one point (FOE). Then, in the predicted image creating means, the image is divided into partial regions, among these, the position prediction at the next time point is performed in partial region units centered on the point where the optical flow occurs, and a predicted image is generated, and The moving object detection means extracts a portion where a plurality of areas in the predicted image overlap each other, and if the area in which the background area is shielded by the moving object is detected, the moving object is determined to exist.

【0023】また、上記抽出した“複数の領域が重なる
部分”のサイズを計測し、しきい値と比較してオプティ
カルフローの検出誤りによるものを排除するようにした
ことにより、精度を維持するようにした。
Further, by measuring the size of the extracted "portion where a plurality of regions overlap" and comparing it with a threshold value to eliminate those caused by optical flow detection error, accuracy is maintained. I chose

【0024】これらにより、本発明によれば、観測系が
移動する場合において、観測系がとらえた画像中に含ま
れる移動物体の検知を簡単かつ高精度に行なうことがで
きるようになって、自律移動車、知能作業ロボット、画
像監視等の分野に用いて最適な移動体検出装置が得られ
るようになる。
As a result, according to the present invention, when the observation system moves, it becomes possible to easily and highly accurately detect a moving object included in an image captured by the observation system. An optimum moving body detection device can be obtained for use in fields such as mobile vehicles, intelligent work robots, and image monitoring.

【0025】[0025]

【実施例】以下、図面に基づき本発明の一実施例につい
て説明する。図1に本発明装置のシステム構成の概要を
ブロック図で示す。図において、1は観測系、10はオ
プティカルフロー抽出部、20は予測画像作成部、30
は移動物体検知部である。観測系1はTVカメラなどに
より構成されており、観測対象の画像を撮像して時々刻
々、画像情報を出力する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the outline of the system configuration of the device of the present invention. In the figure, 1 is an observation system, 10 is an optical flow extraction unit, 20 is a prediction image creation unit, and 30 is
Is a moving object detection unit. The observation system 1 is composed of a TV camera or the like, captures an image of an observation target, and outputs image information moment by moment.

【0026】オプティカルフロー抽出部10では、観測
系1の持つTVカメラから時系列的な画像を得て、その
画像の時間的変化を解析することにより、局所領域単位
の動きであるオプティカルフローを抽出する。本実施例
では、観測系が直線運動をするとする。この場合、環境
に静止した背景領域のオプティカルフローは1点(FO
E)から沸き出す直線上に存在する。
The optical flow extraction unit 10 obtains a time-series image from the TV camera of the observation system 1 and analyzes the temporal change of the image to extract an optical flow which is a movement in a local region unit. To do. In this embodiment, it is assumed that the observation system makes a linear motion. In this case, the optical flow of the background area stationary in the environment is one point (FO
It exists on the straight line boiled from E).

【0027】予測画像作成部20では、画像を予め所定
のサイズ単位に分割して複数の部分領域にしてあり、こ
れら部分領域のうち、前記オプティカルフローが得られ
た点を中心とする部分領域単位で次時点での位置予測を
行ない、その位置予測結果からその位置予測結果を反映
した画像を予測画像として生成する。
In the predictive image creating unit 20, the image is divided into a plurality of partial areas in advance in a predetermined size unit, and among these partial areas, a partial area unit having a point at which the optical flow is obtained as a center is used. Then, the position prediction at the next time point is performed, and an image reflecting the position prediction result is generated from the position prediction result as a predicted image.

【0028】移動物体検知部30では、この予測画像作
成部20の生成した予測画像における、複数の領域が重
なる部分を抽出することにより、背景領域が移動物体に
より遮蔽された領域を検出し、移動物体の存在検知を行
なう。すなわち、移動物体検知部30では、前記予測画
像における背景領域が移動物体により遮蔽される領域が
あることを知ることで移動物体の存在を検知するという
機能を有する。
The moving object detection unit 30 detects a region in which the background region is occluded by the moving object by extracting a portion in which the plurality of regions overlap in the predicted image generated by the predicted image generation unit 20, and moves. Detects the presence of an object. That is, the moving object detection unit 30 has a function of detecting the presence of a moving object by knowing that there is an area in which the background area in the predicted image is occluded by the moving object.

【0029】図2に、上記の構成要素間の情報の流れに
対応した処理の流れを示す。この図2を参照して本シス
テムの作用を説明する。すなわち、観測系1から観測対
象の画像が撮像されて時々刻々、画像情報が出力され、
オプティカルフロー抽出部10に入力されるので、オプ
ティカルフロー抽出部10では、この観測系1から画像
情報を時系列的に得る。そして、この時系列的に得られ
た画像の時間的変化を解析することにより、画像中の局
所領域単位の動きであるオプティカルフローを抽出する
(オプティカルフロー抽出処理(S11))。
FIG. 2 shows a flow of processing corresponding to the flow of information between the above constituent elements. The operation of this system will be described with reference to FIG. That is, the image of the observation target is picked up from the observation system 1 and the image information is output every moment,
Since it is input to the optical flow extraction unit 10, the optical flow extraction unit 10 obtains image information from the observation system 1 in time series. Then, by analyzing the temporal change of the images obtained in time series, the optical flow that is the movement of each local region in the image is extracted (optical flow extraction process (S11)).

【0030】本実施例では、観測系1が直線運動をする
ものとしている。この場合、環境に静止した背景領域の
オプティカルフローは1点(FOE)から沸き出す直線
上に存在する。
In this embodiment, the observation system 1 is assumed to make a linear motion. In this case, the optical flow of the background area stationary in the environment exists on the straight line boiling from one point (FOE).

【0031】予測画像作成部20では、このオプティカ
ルフローが得られた点を中心とする部分領域に分割し
(予測領域設定処理(S12))、この分割した部分領
域単位で当該部分領域の次時点での位置予測を行ない、
その結果から予測画像を生成する(次時点の領域位置予
測処理(S13))。
The predictive image creating section 20 divides the image into a partial area centered on the point where the optical flow is obtained (prediction area setting process (S12)), and the next time point of the partial area in units of the divided partial areas. Position prediction in
A predicted image is generated from the result (region position prediction process at the next time (S13)).

【0032】移動物体検知部30では、この予測画像に
おける複数の領域が重なる部分を抽出し(領域干渉部分
検出処理(S14))、これより背景領域が移動物体に
より遮蔽された領域を検出する(移動物体境界候補抽出
処理(S15))。そして、背景領域が移動物体により
遮蔽された領域があれば、このことを以て移動物体が存
在することを知する(移動物体検知処理(S16))。
The moving object detection unit 30 extracts a portion where a plurality of areas in this predicted image overlap (area interference portion detection processing (S14)), and detects an area in which the background area is shielded by the moving object (step S14). Moving object boundary candidate extraction processing (S15)). Then, if there is an area in which the background area is shielded by the moving object, the fact that the moving object exists is known from this (moving object detection processing (S16)).

【0033】このようにして本装置では時々刻々得られ
る観測系からの画像から、オプチカルフローにより、観
測系に移動物体が捕らえられた際における移動物体の検
知を行なうことができるようになる。
In this way, the present apparatus can detect the moving object when the moving object is captured by the observation system by the optical flow from the images from the observation system obtained every moment.

【0034】次に、本発明の装置における各構成要素の
詳細について説明する。図3に、上記オプティカルフロ
ー抽出部10の具体的構成例を示す。本例では、画像中
の特徴点の局所相関によるフロー検出の実現例について
説明することとする。
Next, the details of each component in the apparatus of the present invention will be described. FIG. 3 shows a specific configuration example of the optical flow extraction unit 10. In this example, an implementation example of flow detection by local correlation of feature points in an image will be described.

【0035】ここに示すオプティカルフロー抽出部10
は、候補点抽出部11、局所相関計算部12、最大相関
点位置検出部13、オプティカルフロー計算部14、オ
プティカルフローメモリ15とから構成されている。
Optical flow extraction unit 10 shown here
Is composed of a candidate point extraction unit 11, a local correlation calculation unit 12, a maximum correlation point position detection unit 13, an optical flow calculation unit 14, and an optical flow memory 15.

【0036】これらのうち、候補点検出部11は、基準
画像におけるオプティカルフローを求める候補点群を検
出する機能を有する。具体的には、画像中にK画素×K
画素の局所領域を設定し、この領域内の濃度分散値を計
算する処理を、移動物体が出現する可能性のある領域全
域に亙って行なう。
Of these, the candidate point detection unit 11 has a function of detecting a candidate point group for obtaining an optical flow in the reference image. Specifically, K pixels x K in the image
A process of setting a local region of pixels and calculating a density variance value in this region is performed over the entire region in which a moving object may appear.

【0037】領域の大きさKは、検出する対象の種類、
大きさに応じて設定する定数である。分散値が小さい点
は、濃度的に平坦な部分領域に含まれ、オプティカルフ
ロー抽出の精度が大幅に低下するため、候補点から排除
し、分散値が予め定めたしきい値以上の点のみを候補点
として順次選択し、この候補点の位置を局所相関値検出
部12に送信するといった処理を行なう。
The area size K is the type of the object to be detected,
It is a constant that is set according to the size. Points with a small variance value are included in the density-wise flat partial area, and the accuracy of optical flow extraction is greatly reduced, so they are excluded from candidate points and only those points with a variance value equal to or greater than a predetermined threshold value are excluded. A process of sequentially selecting the candidate points and transmitting the positions of the candidate points to the local correlation value detection unit 12 is performed.

【0038】上記局所相関値検出部12は、基準画像に
おける上記候補点(Xo ,Yo )を中心とするM画素×
M画素の局所領域と、次時点の画像の上記候補点近傍領
域内部の各点の周囲のM画素×M画素の局所領域との間
の相関値を順次計算するといった処理を行なう。近傍領
域の大きさは、移動物体の速度に応じて設定する。ま
た、相関窓の大きさMは、検出する対象の種類、大き
さ、及び速度に応じて設定する定数である。
The local correlation value detecting section 12 has M pixels centered on the candidate point (X o , Y o ) in the reference image.
The correlation value between the local region of M pixels and the local region of M pixels × M pixels around each point inside the candidate point neighboring region of the image at the next time is sequentially calculated. The size of the neighborhood area is set according to the speed of the moving object. The size M of the correlation window is a constant set according to the type, size, and speed of the target to be detected.

【0039】相関値は、以下の式で計算される。ここ
で、I(x,y),J(x,y)は各々基準画像、次時
点の画像の点(x,y)の画素濃度値、I,Jは各々基
準画像、次時点の画像中の候補点近傍領域内の平均濃度
である。
The correlation value is calculated by the following equation. Here, I (x, y) and J (x, y) are the reference image, the pixel density value of the point (x, y) of the image at the next time point, and I and J are the reference image and the image at the next time point, respectively. Is the average density in the area near the candidate point.

【0040】[0040]

【数1】 [Equation 1]

【0041】また、最大相関点位置検出部13は、この
相関値が最大となる次時点画像上の点の位置(Xs ,Y
s )を求めるという処理を行なう。オプティカルフロー
計算部14では、両者の差(vx,vy)=(Xs −X
o,Ys −Yo )を計算し、これを基準画像の点(X
o ,Yo )におけるオプティカルフローベクトルとし
て、オプティカルフローメモリ15に書き込むといった
処理を行なう機能を有している。
Further, the maximum correlation point position detecting section 13 detects the position (X s , Y) of the point on the next time point image where this correlation value becomes maximum.
s ) is calculated. In the optical flow calculation unit 14, the difference (vx, vy) = (X s −X) between them.
o , Y s −Y o ) is calculated, and is calculated as a point (X
(o , Y o ) has a function of performing processing such as writing to the optical flow memory 15 as an optical flow vector.

【0042】図4に、上記オプティカルフロー抽出部1
0の各構成要素に対応した処理の流れを示す。これは、
前記図2に示した処理の流れにおけるS11での処理
(オプティカルフロー抽出処理)の具体的手法を示して
いる。
FIG. 4 shows the optical flow extraction unit 1 described above.
The processing flow corresponding to each component of 0 is shown. this is,
3 shows a specific method of the processing (optical flow extraction processing) in S11 in the processing flow shown in FIG.

【0043】すなわち、候補点検出部11では、基準画
像におけるオプティカルフローを求める候補点群を検出
し、抽出する(候補点抽出処理(S11a))。これは
上述したように、画像中にK画素×K画素の局所領域を
設定し、この領域内の濃度分散値を計算する処理を、移
動物体が出現する可能性のある領域全域に亙って行なう
ことにより実現する。
That is, the candidate point detection unit 11 detects and extracts a candidate point group for obtaining an optical flow in the reference image (candidate point extraction processing (S11a)). As described above, the process of setting a local region of K pixels × K pixels in the image and calculating the density variance value in this region is performed over the entire region in which a moving object may appear. Realize by doing.

【0044】領域の大きさKは、検出する対象の種類、
大きさに応じて設定する定数である。分散値が小さい点
は、濃度的に平坦な部分領域に含まれ、オプティカルフ
ロー抽出の精度が大幅に低下するため、候補点から排除
し、分散値が予め定めたしきい値以上の点のみを候補点
として順次選択する。S11aではこのようにして、候
補点を順次選択して抽出し、この順次選択した候補点の
位置の情報を局所相関値検出部12に送る。
The area size K is the type of the object to be detected,
It is a constant that is set according to the size. Points with a small variance value are included in the density-wise flat partial area, and the accuracy of optical flow extraction is greatly reduced, so they are excluded from candidate points and only those points with a variance value equal to or greater than a predetermined threshold value are excluded. It selects sequentially as a candidate point. In this way, in S11a, the candidate points are sequentially selected and extracted, and the information on the positions of the sequentially selected candidate points is sent to the local correlation value detection unit 12.

【0045】局所相関値検出部12では、基準画像にお
ける上記候補点(Xo ,Yo )を中心とするM画素×M
画素の局所領域と、次時点の画像の上記候補点近傍領域
内部の各点の周囲のM画素×M画素の局所領域との間の
相関値を順次計算する(局所相関計算処理(S11
b))。近傍領域の大きさは、移動物体の速度に応じて
設定する。また、相関窓の大きさMは、検出する対象の
種類、大きさ、及び速度に応じて設定する定数である。
相関値は、上記[数1]にて示した式で計算される。
In the local correlation value detection unit 12, M pixels × M centered on the candidate point (X o , Y o ) in the reference image.
The correlation value between the local region of pixels and the local region of M pixels × M pixels around each point inside the candidate point neighboring region of the image at the next time is sequentially calculated (local correlation calculation process (S11
b)). The size of the neighborhood area is set according to the speed of the moving object. The size M of the correlation window is a constant set according to the type, size, and speed of the target to be detected.
The correlation value is calculated by the formula shown in [Equation 1] above.

【0046】こうしてS11bにより、相関値を求めた
ならば最大相関点位置検出部13により、この相関値が
最大となる次時点画像上の点の位置(Xs ,Ys )を求
める処理を行なう(最大相関値をとる点の位置抽出処理
(S11c))。
In this way, if the correlation value is obtained in S11b, the maximum correlation point position detection unit 13 carries out a process for obtaining the position (X s , Y s ) of the point on the next time point image having the maximum correlation value. (Position extraction processing of the point having the maximum correlation value (S11c)).

【0047】そして、つぎにオプティカルフロー計算部
14で、両者の差(vx,vy)=(Xs −Xo ,Ys
−Yo )を計算し、これを基準画像の点(Xo ,Yo
におけるオプティカルフローベクトルとして、オプティ
カルフローメモリ15に書き込む(オプティカルフロー
計算,メモリ書込み処理(S11d))。
Then, in the optical flow calculation unit 14, the difference (vx, vy) = (X s −X o , Y s ) between them.
-Y o ) is calculated, and this is calculated as the point (X o , Y o ) of the reference image.
Is written in the optical flow memory 15 as the optical flow vector in (1) (optical flow calculation, memory writing process (S11d)).

【0048】つぎに、上記予測画像作成部20の具体的
構成例を図5を参照して説明する。図に示すように、予
測画像作成部20は予測部分領域設定部21、次時点位
置予測部22、予測画像作成部23にて構成されてい
る。
Next, a specific configuration example of the predicted image creating section 20 will be described with reference to FIG. As shown in the figure, the predicted image creation unit 20 includes a predicted partial area setting unit 21, a next time position prediction unit 22, and a predicted image creation unit 23.

【0049】これらのうち、予測部分領域設定部21
は、予め画像をN画素×N画素の正方小領域のサイズに
分割しておき、前記オプティカルフロー抽出部10の構
成要素である前記オプティカルフローメモリ15に書き
込まれたフローベクトルの始点位置(Xs ,Ys )を順
次読出して、前記小領域のうち、この点(Xs ,Ys
の位置を含む小領域を予測部分領域として選択するとい
った処理を行なう機能を有する。小領域の大きさNは、
検出すべき物体の最小サイズに応じて決定される定数で
ある。
Of these, the prediction partial area setting unit 21
Divides the image in advance into a size of a square small region of N pixels × N pixels, and the start point position (X s of the flow vector written in the optical flow memory 15 which is a constituent element of the optical flow extraction unit 10). , Y s ) are sequentially read out and this point (X s , Y s ) in the small area is read.
It has a function of performing processing such as selecting a small area including the position of as the predicted partial area. The size N of the small area is
It is a constant determined according to the minimum size of the object to be detected.

【0050】また、次時点位置予測部22は、次時点で
のこれら予測部分領域の画像中の位置を、前記オプティ
カルフローメモリ15に書き込まれた対応するフローベ
クトルの大きさの情報を用いて推定する処理を行なう機
能を有する。
The next-time position predicting unit 22 estimates the positions of these predicted partial areas in the image at the next time using the size information of the corresponding flow vector written in the optical flow memory 15. It has a function of performing processing.

【0051】時系列画像の時間間隔が小さい場合、正方
小領域の中心位置を(Xc ,Yc )、対応するフローベ
クトルを(vx,vy)とすると、次時点での中心位置
は(Xc+vx,Yc+vy)なる位置に移動し、領域の大きさ
はN画素×N画素の正方領域で変化しないものと看做す
ことができるため、このことを利用して予測画像作成部
23では、フローベクトルに基づく正方小領域の平行移
動により次時点での各小領域の位置を求める処理を行な
い、当該次時点での各小領域の位置を反映させた画像を
予測画像として生成して図示しない記憶手段に記憶する
といった処理を行なうようにしてある。
When the time interval of the time series image is small, the center position of the square small area is (X c , Y c ), and the corresponding flow vector is (vx, vy). c + vx , Y c + vy ), and it can be considered that the size of the area does not change in a square area of N pixels × N pixels. The unit 23 performs a process of obtaining the position of each small area at the next time point by parallel movement of the square small area based on the flow vector, and generates an image in which the position of each small area at the next time point is reflected as a predicted image. Then, processing such as storing in a storage means (not shown) is performed.

【0052】図6に、このような構成の予測画像作成部
20の各構成要素21〜23に対応した処理の流れを示
す。これは、前記図2に示した処理の流れにおけるS1
2,S13の処理の具体的手法を示している。
FIG. 6 shows the flow of processing corresponding to each of the constituent elements 21 to 23 of the predictive image creating section 20 having such a configuration. This is S1 in the process flow shown in FIG.
2 shows a specific method of the processing of S13.

【0053】予測画像作成部20における予測部分領域
設定部21では、予め画像をN画素×N画素の正方小領
域に分割してある。そして、予測部分領域設定部21は
前記オプティカルフローメモリ15に書き込まれたフロ
ーベクトルの始点位置(Xs,Ys )を順次読出し(オ
プティカルフローベクトル読出し処理(S12a))、
上記小領域のうち、この読出したフローベクトルの始点
位置(Xs ,Ys )を含む小領域(上記のN画素×N画
素の各正方小領域中、(Xs ,Ys )を含んでいる正方
小領域)を予測部分領域として選択する(予測部分領域
選択処理(S12b))。上述したように小領域の大き
さNは、検出すべき物体の最小サイズに応じて決定され
た定数である。
The predictive partial area setting section 21 of the predictive image creating section 20 divides the image beforehand into square small areas of N pixels × N pixels. Then, the predictive partial area setting unit 21 sequentially reads out the start point positions (X s , Y s ) of the flow vector written in the optical flow memory 15 (optical flow vector read processing (S12a)),
Among the small areas, the starting point position (X s, Y s) of the read-out flow vectors in each square small region of the small region (above N pixels × N pixels including, include (X s, Y s) The square small area) is selected as the prediction partial area (prediction partial area selection processing (S12b)). As described above, the size N of the small area is a constant determined according to the minimum size of the object to be detected.

【0054】S12bの予測部分領域選択処理が終わる
と、次時点位置予測部22による各部分領域の予測位置
計算処理を行なう。次時点位置予測部22では、S12
bの予測部分領域選択処理において得たこれら予測部分
領域の、次時点での画像中の位置を、前記オプティカル
フローメモリ15に書き込まれた対応するフローベクト
ルの大きさの情報を用いて推定する処理を行なう。
When the predicted partial area selection processing in S12b is completed, the predicted position calculation processing for each partial area is performed by the next time position prediction section 22. In the next time point position prediction unit 22, S12
The process of estimating the position in the image at the next point of time of these predicted partial regions obtained in the predicted partial region selection processing of b using the information of the magnitude of the corresponding flow vector written in the optical flow memory 15. Do.

【0055】時系列画像の時間間隔が小さい場合、正方
小領域の中心位置を(Xc ,Yc )とし、対応するフロ
ーベクトルを(vx,vy)とすると、次時点での中心
位置は(Xc+vx,Yc+vy)に移動し、領域の大きさはN
画素×N画素の正方領域で変化しないものと看做すこと
ができる。そのため、予測画像作成部23では、フロー
ベクトルに基づく正方小領域の平行移動により、次時点
での各小領域の位置を求める(各部分領域の予測位置計
算処理(S13a))。そして、この正方小領域の平行
移動を行なった結果、得られる画像を、予測画像として
記憶する(予測画像作成処理(S13a))。
When the time interval of the time series image is small, the center position of the square small area is (X c , Y c ) and the corresponding flow vector is (vx, vy), the center position at the next time point is ( X c + vx , Y c + vy ) and the area size is N
It can be considered that there is no change in the square region of pixels × N pixels. Therefore, the predicted image creation unit 23 obtains the position of each small area at the next time point by the parallel movement of the square small area based on the flow vector (predicted position calculation process of each partial area (S13a)). Then, the image obtained as a result of the parallel movement of the square small region is stored as a predicted image (predicted image creating process (S13a)).

【0056】以上により、予測画像作成が行なえる。図
7に、上記移動物体検知部30の具体的構成例を示す。
移動物体検知部30は、重なり部分検出部31と移動物
体境界候補領域検出部32と移動物体検知部33より構
成される。
As described above, the predicted image can be created. FIG. 7 shows a specific configuration example of the moving object detection unit 30.
The moving object detection unit 30 includes an overlapping portion detection unit 31, a moving object boundary candidate area detection unit 32, and a moving object detection unit 33.

【0057】上記予測画像Pにおいては、おおもとの画
像を得る上記観測系1を直線的に移動させた場合、背景
に含まれる各小領域BAは、図9(a)に示す如く、動
き方向の画像への投影である1点F0Eより沸き出す方
向へ移動する。
In the predicted image P, when the observation system 1 for obtaining the original image is linearly moved, each small area BA included in the background moves as shown in FIG. 9 (a). It moves in the direction in which it boiled from one point F0E, which is the projection of the direction on the image.

【0058】また、観測系1を回転運動した場合には、
背景領域(背景に含まれる各小領域BA)は回転方向と
逆の方向に平行移動する。すなわち、図9(b)の如き
である。また、これら、移動物体が出現しない画像Pで
は、予測画像Pにおける小領域BAは重なり無く、各々
独立した部分に移動する。
When the observation system 1 is rotated,
The background area (each small area BA included in the background) translates in the direction opposite to the rotation direction. That is, it is as shown in FIG. Further, in these images P in which no moving object appears, the small areas BA in the predicted image P do not overlap each other and move to independent parts.

【0059】これに対し、移動物体が出現した場合は、
この上に存在する小領域MAは背景領域BAを遮蔽する
所に移動する。すなわち、図9(c)の如きであり、両
領域MA,BAが互いに近付く方向に移動し、両者の重
なり部分OLAが生じる。
On the other hand, when a moving object appears,
The small area MA existing thereabove moves to a position that shields the background area BA. That is, as shown in FIG. 9C, both areas MA and BA move in a direction of approaching each other, and an overlapping portion OLA of the both areas is generated.

【0060】実際には、背景の手前に移動物体がある場
合は、次時点の画像においては、この背景領域部分は遮
蔽され、移動物体のみ観測されることになる。一般的に
は、この遮蔽領域は縦に長い部分領域となる。
Actually, when there is a moving object in front of the background, in the image at the next time, this background area portion is covered and only the moving object is observed. Generally, this shielding area is a vertically long partial area.

【0061】このような事実関係から考えると、予測画
像Pにおける小領域の重なり部分OLAを検出、解析す
ることにより、移動物体が背景領域を遮蔽する境界部分
を検出すれば、移動物体の出現を簡単に検知できること
がわかる。
Considering such a factual relationship, if the moving object detects a boundary portion that shields the background area by detecting and analyzing the overlapping portion OLA of the small area in the predicted image P, the appearance of the moving object is detected. You can see that it can be easily detected.

【0062】本システムにおいては、このことを利用す
る。すなわち、移動物体検知部30の構成要素である重
なり部分抽出部31では、予測画像作成部20の構成要
素である上記予測画像作成部23で作成した予測画像に
おける各小領域同士が重なった部分を抽出して、これを
移動物体境界候補領域検出部32に渡す機能を持たせて
ある。
This system utilizes this fact. That is, in the overlapping portion extracting section 31 which is a constituent element of the moving object detecting section 30, a portion in which the small areas are overlapped with each other in the predicted image created by the predicted image creating section 23 which is a constituent element of the predicted image creating section 20 is detected. It has a function of extracting and passing this to the moving object boundary candidate area detection unit 32.

【0063】これを受け取る移動物体境界候補領域検出
部32には、この重なり部分における連結した領域を移
動物体の候補領域として各々検出する機能を持たせてあ
る。ところで、検出したこの候補領域には、オプティカ
ルフローの検出誤りによるものが含まれている。しか
し、この検出誤りは局所的に出現するものであるのに対
し、移動物体による遮蔽領域は移動物体の境界部分に、
一定以上の大きさをもって出現する。
The moving object boundary candidate area detecting unit 32 which receives this has a function of detecting the connected areas in the overlapping portion as moving object candidate areas. By the way, the detected candidate areas include those due to optical flow detection error. However, while this detection error appears locally, the area covered by the moving object is at the boundary of the moving object.
Appears with a certain size or more.

【0064】そこで移動物体検知部33には、移動物体
境界候補領域検出部32が検出したこれら候補領域に対
し、大きさと幅を計測する機能を持たせてあり、また、
大きさがしきい値以上であり、且つ、幅がしきい値以下
であるかどうか判定し、この条件に合う候補領域が存在
すれば移動物体が出現したと判定する機能を持たせてあ
る。そして、移動物体検知部33によるこの計測と判定
の結果、移動物体が出現したことを検知できるようにし
てある。
Therefore, the moving object detecting section 33 has a function of measuring the size and width of these candidate areas detected by the moving object boundary candidate area detecting section 32.
It has a function of determining whether the size is equal to or larger than the threshold and the width is equal to or smaller than the threshold, and determining that a moving object has appeared if there is a candidate area satisfying this condition. Then, as a result of this measurement and determination by the moving object detection unit 33, the appearance of the moving object can be detected.

【0065】図8に、上記移動物体検知部30の各構成
要素に対応した処理の流れを示す。これは、前記図2に
示した処理の流れにおけるS15,S16処理の具体的
手法を示している。
FIG. 8 shows a flow of processing corresponding to each component of the moving object detecting section 30. This shows a specific method of the S15 and S16 processes in the flow of the process shown in FIG.

【0066】すなわち、予測画像においては、おおもと
の画像を得る上記観測系1が直線的に移動する場合、背
景に含まれる各小領域は、図9(a)に示す如く、動き
方向の画像への投影である1点より沸き出す方向へ移動
する。また、観測系1が回転運動を行なう場合には、背
景領域は回転方向と逆の方向に平行移動する。すなわ
ち、図9(b)の如きである。また、これら、移動物体
が出現しない画像では、予測画像における小領域は重な
り無く、各々独立した部分に移動する。
In other words, in the predicted image, when the observation system 1 for obtaining the original image moves linearly, each small area included in the background has a movement direction as shown in FIG. 9A. Move in the direction of boiling from one point, which is the projection on the image. When the observation system 1 makes a rotational movement, the background area moves in parallel in the direction opposite to the rotational direction. That is, it is as shown in FIG. Further, in these images in which the moving object does not appear, the small areas in the predicted image do not overlap each other and move to independent parts.

【0067】これに対し、移動物体が出現した場合は、
この上に存在する小領域は背景領域を遮蔽する所に移動
する。すなわち、図9(c)の如きである。実際には、
背景の手前に移動物体がある場合は、次時点の画像にお
いては、この背景領域部分は遮蔽され、移動物体のみ観
測されることになる。一般的には、この遮蔽領域は縦に
長い部分領域となる。
On the other hand, when a moving object appears,
The small area existing above this moves to a place that shields the background area. That is, it is as shown in FIG. actually,
When there is a moving object in front of the background, this background area portion is blocked in the image at the next time point, and only the moving object is observed. Generally, this shielding area is a vertically long partial area.

【0068】従って、予測画像における小領域の重なり
部分を検出、解析することにより、移動物体が背景領域
を遮蔽する境界部分を検出することで、移動物体の出現
を簡便に検知できる。
Therefore, the appearance of the moving object can be easily detected by detecting and analyzing the overlapping portion of the small areas in the predicted image to detect the boundary portion where the moving object shields the background area.

【0069】重なり部分抽出部31では、予測画像作成
部20の構成要素である上記予測画像作成部23で作成
した予測画像における各小領域同士が重なった部分を抽
出して、これを移動物体境界候補領域検出部32に渡す
(予測画像中の小領域重なり部分抽出処理(S15
a))。
The overlapping portion extracting unit 31 extracts a portion in which the small areas overlap each other in the predicted image created by the predicted image creating unit 23, which is a constituent element of the predicted image creating unit 20, and extracts this as a moving object boundary. It is passed to the candidate area detection unit 32 (small area overlapping portion extraction processing in the predicted image (S15
a)).

【0070】これを受け取った移動物体境界候補領域検
出部32では、この重なり部分における連結した領域を
移動物体の候補領域として各々検出する。ところで、検
出したこの候補領域には、オプティカルフローの検出誤
りによるものが含まれている。しかし、この検出誤りは
局所的に出現するものであるのに対し、移動物体による
遮蔽領域は移動物体の境界部分に、一定以上の大きさを
もって出現する。そこで、これを重なり部分の連結性を
判定することによりこの候補がオプティカルフローの検
出誤りにより得られた候補であるか、否かを判定する
(重なり部分の連結性判定(S15b))。この判定処
理の結果、正しい候補のみを選別することができる。
Receiving this, the moving object boundary candidate area detection unit 32 detects the connected areas in the overlapping portion as moving object candidate areas. By the way, the detected candidate areas include those due to optical flow detection error. However, while this detection error appears locally, the occluded region by the moving object appears at the boundary of the moving object with a certain size or more. Therefore, by determining the connectivity of the overlapping portion, it is determined whether or not this candidate is a candidate obtained by a detection error of the optical flow (connectivity determination of the overlapping portion (S15b)). As a result of this determination processing, only correct candidates can be selected.

【0071】移動物体検知部33は、移動物体境界候補
領域検出部32が検出し、選別したこれら候補領域に対
し、大きさと幅を計測する(移動物体境界候補領域検出
処理(S16a))。そして、大きさがしきい値以上で
あり、且つ、幅がしきい値以下であるかどうか判定し、
この条件に合う候補領域が存在すれば移動物体が出現し
たと判定する(大きさ判定による移動物体検知(S16
b))。移動物体検知部33によるこの計測と判定の結
果、移動物体が出現したことを検知できることになる。
The moving object detection unit 33 measures the size and width of these candidate regions selected and selected by the moving object boundary candidate area detection unit 32 (moving object boundary candidate area detection processing (S16a)). Then, it is determined whether the size is greater than or equal to the threshold and the width is less than or equal to the threshold,
If there is a candidate area that meets this condition, it is determined that a moving object has appeared (moving object detection by size determination (S16
b)). As a result of this measurement and determination by the moving object detection unit 33, the appearance of a moving object can be detected.

【0072】このように本装置は、観測系1の持つTV
カメラ画像を得て、オプティカルフロー抽出部10で、
その画像の時間的変化を解析することにより、局所領域
単位の動きであるオプティカルフローを抽出する。例え
ば、観測系1が直線運動するとすればこの場合、環境に
静止した背景領域のオプティカルフローは1点(FO
E)から沸き出す直線上に存在する。そして、予測画像
作成部20では、画像を部分領域に分割し、これらのう
ち、前記オプティカルフローが得られた点を中心とする
部分領域単位で次時点の位置予測を行ない、予測画像P
を生成する。そして、移動物体検知部30では、この予
測画像Pにおける複数の領域が重なる部分OLAを抽出
することにより、背景領域が移動物体により遮蔽された
領域が検出されれば、移動物体が存在すると判定する。
As described above, this apparatus is a TV provided in the observation system 1.
After obtaining the camera image, the optical flow extraction unit 10
By analyzing the temporal change of the image, the optical flow, which is the movement of the local area unit, is extracted. For example, if the observation system 1 moves linearly, in this case, the optical flow in the background area stationary in the environment is one point (FO).
It exists on the straight line boiled from E). Then, the predicted image creation unit 20 divides the image into partial regions, and performs position prediction at the next time point in units of partial regions centered on the point at which the optical flow is obtained, of these, and the predicted image P is obtained.
To generate. Then, the moving object detection unit 30 extracts a portion OLA in which a plurality of areas in the predicted image P overlap each other. If a region in which the background area is shielded by the moving object is detected, it is determined that the moving object exists. .

【0073】また、上記抽出した“複数の領域が重なる
部分OLA”のサイズを計測し、しきい値と比較してオ
プティカルフローの検出誤りによるものを排除するよう
にしたことにより、精度を維持するようにした。
The accuracy is maintained by measuring the size of the extracted "portion OLA where a plurality of regions overlap" and comparing it with a threshold value so as to eliminate the error caused by the optical flow detection error. I did it.

【0074】これらにより、本発明によれば、観測系が
移動する場合において、観測系がとらえた画像中に含ま
れる移動物体の検知を簡単かつ高精度に行なうことがで
きるようになって、自律移動車、知能作業ロボット、画
像監視等の分野に用いて最適な移動体検出装置が得られ
る。以上、本発明の実施例を説明したが、本発明はその
趣旨を逸脱しない範囲で種々変形して実施することが可
能である。
As described above, according to the present invention, when the observation system moves, it becomes possible to easily and highly accurately detect a moving object included in an image captured by the observation system. An optimum moving object detecting device can be obtained for use in fields such as mobile vehicles, intelligent work robots, and image monitoring. Although the embodiments of the present invention have been described above, the present invention can be variously modified and implemented without departing from the spirit thereof.

【0075】[0075]

【発明の効果】以上、詳述したように本発明は、観測系
から得られる観測対象の時系列画像を処理して得られる
オプティカルフローを用いて次時点の予測画像を生成
し、この予測画像を解析し、背景領域が移動物体により
遮蔽された部分を求めることにより、高速かつ安定的に
移動物体の出現を検知することが実現でき、また、遮蔽
された部分の大きさを測定してその大きさにより、本来
のオプティカルフローとそれ以外の誤りによるものとを
分別するようにしたので、信頼性の高い移動物体の出現
検知が可能になるなど、その実用的効果は多大である。
As described above in detail, according to the present invention, the predicted image at the next time point is generated by using the optical flow obtained by processing the time-series image of the observation target obtained from the observation system, and the predicted image is generated. It is possible to detect the appearance of a moving object at high speed and stably by analyzing the background area and finding the part where the background area is covered by the moving object. Since the original optical flow and the error due to other errors are discriminated according to the size, it is possible to detect the appearance of a moving object with high reliability.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例を説明するための図であって、
本発明の一実施例の全体構成を示すブロック図。
FIG. 1 is a diagram for explaining an embodiment of the present invention,
The block diagram which shows the whole structure of one Example of this invention.

【図2】本発明の実施例を説明するための図であって、
図1の構成の本装置の作用を説明するためのフローチャ
ート。
FIG. 2 is a diagram for explaining an embodiment of the present invention,
3 is a flowchart for explaining the operation of the present apparatus having the configuration of FIG. 1.

【図3】本発明の実施例を説明するための図であって、
図1の構成におけるオプティカルフロー抽出部10の具
体的構成例を示すブロック図。
FIG. 3 is a diagram for explaining an embodiment of the present invention,
FIG. 3 is a block diagram showing a specific configuration example of an optical flow extraction unit 10 in the configuration of FIG. 1.

【図4】本発明の実施例を説明するための図であって、
図3に示すオプティカルフロー抽出部10の各構成要素
に対応した処理の流れを示す図。
FIG. 4 is a diagram for explaining an embodiment of the present invention,
FIG. 4 is a diagram showing a flow of processing corresponding to each component of the optical flow extraction unit 10 shown in FIG. 3.

【図5】本発明の実施例を説明するための図であって、
図1の構成における予測画像作成部20の具体的構成例
を示すブロック図。
FIG. 5 is a diagram for explaining an embodiment of the present invention,
FIG. 2 is a block diagram showing a specific configuration example of a predicted image creation unit 20 in the configuration of FIG. 1.

【図6】本発明の実施例を説明するための図であって、
図5に示す予測画像作成部20の各構成要素に対応した
処理の流れを示す図。
FIG. 6 is a diagram for explaining an embodiment of the present invention,
FIG. 6 is a diagram showing a flow of processing corresponding to each component of the predicted image creating unit 20 shown in FIG. 5.

【図7】本発明の実施例を説明するための図であって、
図1の構成における移動物体検知部30の具体的構成例
を示すブロック図。
FIG. 7 is a diagram for explaining an embodiment of the present invention,
FIG. 3 is a block diagram showing a specific configuration example of a moving object detection unit 30 in the configuration of FIG. 1.

【図8】本発明の実施例を説明するための図であって、
図7に示す移動物体検知部30の各構成要素に対応した
処理の流れを示す図。
FIG. 8 is a diagram for explaining an embodiment of the present invention,
FIG. 8 is a diagram showing a flow of processing corresponding to each component of the moving object detection unit 30 shown in FIG. 7.

【図9】本発明の実施例を説明するための図であって、
観測系1が動く場合での予測画像における小領域の動き
の各種例を説明する図。
FIG. 9 is a view for explaining the embodiment of the present invention,
The figure explaining various examples of the movement of the small area | region in a prediction image when the observation system 1 moves.

【符号の説明】[Explanation of symbols]

1…観測系 10…オプティカルフロー抽出部 11…候補点抽出部 12…局所相関計算部 13…最大相関点位置検出部 14…オプティカルフロー計算部 15…オプティカルフローメモリ 20…予測画像作成部 21…予測部分領域設定部 22…次時点位置予測部 23…予測画像作成部 30…移動物体検知部 31…重なり部分検出部 32…移動物体境界候補領域検出部 33…移動物体検知部 P…予測画像 BA…小領域 OLA…複数の領域が重なる部分 1 ... Observation system 10 ... Optical flow extraction unit 11 ... Candidate point extraction unit 12 ... Local correlation calculator 13 ... Maximum correlation point position detection unit 14 ... Optical flow calculator 15 ... Optical flow memory 20 ... Prediction image creation unit 21 ... Prediction partial area setting section 22 ... Next time position prediction unit 23 ... Prediction image creation unit 30 ... Moving object detector 31 ... Overlap detection unit 32 ... Moving object boundary candidate area detection unit 33 ... Moving object detector P ... Predicted image BA ... small area OLA ... A part where multiple areas overlap

フロントページの続き (56)参考文献 渡辺敏英外1名,動き検出ニューラル ネットワーク,NHK技研R&D,日本 放送出版協会,1993年 8月15日,N o.25,pp.42−43 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 H04N 7/18 Continued Front Page (56) References Toshihide Watanabe 1 person, Motion Detection Neural Network, NHK Giken R & D, Japan Broadcasting Corporation, August 15, 1993, No. 25, pp. 42-43 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 7/ 00-7/60 H04N 7/18

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 時間的経過に伴う観測対象の画像を取得
して出力する観測手段と、 この観測手段からの前記各画像の時間的変化を解析する
ことにより、前記画像中の局所領域単位の動きであるオ
プティカルフロー情報を抽出するオプティカルフロー抽
出手段と、 このオプティカルフロー抽出手段により得られたオプテ
ィカルフロー情報に基づきこのオプティカルフローが生
じた前記画像内の部分を中心とする部分領域に画像を分
割し、この部分領域単位で、次時点での予測画像を作成
する予測画像作成手段と、 この予測画像作成手段により作成した予測画像における
前記部分領域の移動状態を解析することにより、移動物
体を検知する移動物体検知手段と、から構成することを
特徴とする移動体検知装置。
1. An observing means for acquiring and outputting an image of an observation target with the passage of time, and analyzing a temporal change of each of the images from the observing means to determine a local area unit in the image. Optical flow extraction means for extracting optical flow information that is motion, and based on the optical flow information obtained by this optical flow extraction means, divides the image into partial areas centered on the portion in the image where this optical flow has occurred Then, a moving object is detected by analyzing the moving state of the partial area in the predicted image created by this predicted image creating means and the predicted image creating means for creating the predicted image at the next point of time by this partial area unit. And a moving object detecting means for performing the moving object detecting device.
【請求項2】 時間的経過に伴う観測対象の画像を取得
して出力する観測手段と、 この観測手段からの前記各画像の時間的変化を解析する
ことにより、前記画像中の局所領域単位の動きであるオ
プティカルフロー情報を抽出するオプティカルフロー抽
出手段と、 前記画像を所定の大きさ単位に区分することにより、予
測を行なうための部分領域を設定し、この設定された部
分領域のうち、オプティカルフロー抽出手段により得ら
れたオプティカルフロー情報に基づきこのオプティカル
フローが生じた前記画像内の部分を中心とする部分領域
の次時点の画像位置を予測し、この部分領域単位での当
該次時点での予測位置から当該次時点での予測画像を作
成する予測画像作成手段と、 この予測画像作成手段により作成した予測画像における
前記部分領域の移動状態を解析することにより、移動物
体を検知する移動物体検知手段と、を具備することを特
徴とする移動物体検知装置。
2. An observing means for acquiring and outputting an image of an observation target with the passage of time, and analyzing a temporal change of each of the images from the observing means to obtain a local region unit in the image. An optical flow extraction unit that extracts optical flow information that is a motion, and sets a partial region for prediction by dividing the image into units of a predetermined size. Of the set partial regions, an optical region is set. Based on the optical flow information obtained by the flow extraction means to predict the image position of the next time point of the partial area centered on the portion in the image in which this optical flow has occurred, at the next time point in this partial area unit Predictive image creating means for creating a predicted image at the next time point from the predicted position, and the part in the predicted image created by the predicted image creating means A moving object detecting device, comprising: a moving object detecting unit that detects a moving object by analyzing a moving state of a minute area.
【請求項3】 時間的経過に伴う観測対象の画像を取得
して出力する観測手段と、 この観測手段からの前記各画像の時間的変化を解析する
ことにより、前記画像中の局所領域単位の動きであるオ
プティカルフロー情報を抽出するオプティカルフロー抽
出手段と、 画像を所定の大きさ単位に区分することにより、予測を
行なうための部分領域を設定し、この設定された部分領
域のうち、オプティカルフロー抽出手段により得られた
オプティカルフロー情報に基づきこのオプティカルフロ
ーが生じた前記画像内の部分を中心とする部分領域の次
時点の画像位置を予測し、この部分領域単位での当該次
時点での予測位置から当該次時点での予測画像を作成す
る予測画像作成手段と、 この予測画像作成手段により作成した移動状態を解析す
ることにより、予測画像における前記部分領域の重なり
部分の有無を検知して、これより移動物体の存在検知を
行なう移動物体検知手段と、を具備することを特徴とす
る移動物体検知装置。
3. An observing unit that acquires and outputs an image of an observation target with the passage of time, and by analyzing a temporal change of each image from the observing unit, a local region unit in the image is analyzed. An optical flow extraction unit that extracts optical flow information that is a motion, and a partial area for prediction is set by dividing the image into units of a predetermined size. Of the set partial areas, the optical flow is set. Based on the optical flow information obtained by the extraction means, predict the image position at the next time point of the partial area centered on the part in the image where the optical flow has occurred, and predict at the next time point in this partial area unit A predictive image creating means for creating a predicted image at the next time point from the position and an analysis of the movement state created by the predictive image creating means. A moving object detecting device, comprising: a moving object detecting unit that detects the presence or absence of an overlapping portion of the partial areas in the predicted image, and detects the presence of a moving object from the overlapping portion.
【請求項4】 時間的経過に伴う観測対象の画像を取得
して出力する観測手段と、 この観測手段からの前記各画像の時間的変化を解析する
ことにより、前記画像中の局所領域単位の動きであるオ
プティカルフロー情報を抽出するオプティカルフロー抽
出手段と、 画像を所定の大きさ単位に区分することにより、予測を
行なうための部分領域を設定し、この設定された部分領
域のうち、オプティカルフロー抽出手段により得られた
オプティカルフロー情報に基づきこのオプティカルフロ
ーが生じた前記画像内の部分を中心とする部分領域の次
時点の画像位置を予測し、この部分領域単位での当該次
時点での予測位置から当該次時点での予測画像を作成す
る予測画像作成手段と、 この予測画像作成手段により作成した予測画像を解析
し、予測画像における前記部分領域の重なり部分を抽出
し、重なり部分の大きさを測定して所定値以上の大きさ
を持つとき、移動物体が存在すると判定して移動物体を
検知する移動物体検知手段と、を具備することを特徴と
する移動物体検知装置。
4. An observing unit that acquires and outputs an image of an observation target with the passage of time, and by analyzing a temporal change of each image from the observing unit, a local region unit in the image is analyzed. An optical flow extraction unit that extracts optical flow information that is a motion, and a partial area for prediction is set by dividing the image into units of a predetermined size. Of the set partial areas, the optical flow is set. Based on the optical flow information obtained by the extraction means, predict the image position at the next time point of the partial area centered on the part in the image where the optical flow has occurred, and predict at the next time point in this partial area unit A predicted image creating unit that creates a predicted image at the next point in time from a position, and a predicted image created by this predicted image creating unit is analyzed to obtain a predicted image. A moving object detecting unit that detects the moving object by determining that a moving object exists, by extracting the overlapping portion of the partial area in, and measuring the size of the overlapping portion and having a size of a predetermined value or more, A moving object detection device comprising.
【請求項5】 時間的経過に伴う観測対象の刻々の画像
を取得する画像取得ステップと、 この取得した前記画像の時間的変化を解析することによ
り、前記画像中の局所領域単位の動きであるオプティカ
ルフロー情報を抽出するオプティカルフロー抽出ステッ
プと、 このオプティカルフロー抽出ステップにより得られたオ
プティカルフロー情報に基づきこのオプティカルフロー
が生じた前記画像内の部分を中心とする部分領域に画像
を分割し、この部分領域単位で、次時点での予測画像を
作成する予測画像作成ステップと、 この予測画像作成ステップにより作成した予測画像にお
ける前記部分領域の移動状態を解析することにより、移
動物体を検知する移動物体検知ステップと、からなる移
動体検知方法。
5. An image acquisition step of acquiring every minute image of an observation target with the passage of time, and analyzing the temporal change of the acquired image to show the movement in units of local regions in the image. Optical flow extraction step to extract the optical flow information, and based on the optical flow information obtained by the optical flow extraction step, the image is divided into partial areas centered on the portion in the image where the optical flow occurs, this A moving object detecting a moving object by analyzing the moving state of the partial area in the predicted image created by this predicted image creating step A moving object detection method comprising a detection step.
【請求項6】 時間的経過に伴う観測対象の画像を取得
する画像取得ステップと、 この画像取得ステップにより得られた画像の時間的変化
を解析することにより、画像中の局所領域単位の動きで
あるオプティカルフロー情報を抽出するオプティカルフ
ロー抽出ステップと、 画像を所定の大きさ単位に区分することにより、予測を
行なうための部分領域を設定し、この設定された部分領
域のうち、オプティカルフロー抽出ステップにより得ら
れたオプティカルフロー情報に基づきこのオプティカル
フローが生じた前記画像内の部分を中心とする部分領域
の次時点の画像位置を予測し、この部分領域単位での当
該次時点での予測位置から当該次時点での予測画像を作
成する予測画像作成ステップと、 この予測画像作成ステップにより作成した予測画像にお
ける前記部分領域の移動状態を解析することにより、移
動物体を検知する移動物体検知ステップと、から構成す
ることを特徴とする移動物体検知方法。
6. An image acquisition step of acquiring an image of an observation target with the passage of time, and by analyzing a temporal change of the image obtained by this image acquisition step, the movement in units of local regions in the image is detected. An optical flow extraction step for extracting certain optical flow information and a partial area for prediction is set by dividing the image into units of a predetermined size, and the optical flow extraction step among the set partial areas is set. Based on the optical flow information obtained by predicting the image position of the next time point of the partial area centered on the portion in the image where this optical flow occurred, from the predicted position at the next time point in this partial area unit A prediction image creation step of creating a prediction image at the next point in time, and a prediction created by this prediction image creation step And a moving object detecting step of detecting a moving object by analyzing a moving state of the partial area in the image.
【請求項7】 時間的経過に伴う観測対象の画像を取得
する画像取得ステップと、 この画像取得ステップにより得られた画像の時間的変化
を解析することにより、画像の局所領域単位の動きであ
るオプティカルフロー情報を抽出するオプティカルフロ
ー抽出ステップと、 画像を所定の大きさ単位に区分することにより、予測を
行なうための部分領域を設定し、この設定された部分領
域のうち、オプティカルフロー抽出ステップにより得ら
れたオプティカルフロー情報に基づきこのオプティカル
フローが生じた前記画像内の部分を中心とする部分領域
の次時点の画像位置を予測し、この部分領域単位での当
該次時点での予測位置から当該次時点での予測画像を作
成する予測画像作成ステップと、 この予測画像作成ステップにより作成した予測画像にお
ける前記部分領域の重なり部分の有無を調べ、重なり部
分の存在から移動物体の存在検知する移動物体検知ステ
ップと、から構成することを特徴とする移動物体検知方
法。
7. An image acquisition step of acquiring an image of an observation target with the passage of time, and by analyzing a temporal change of the image obtained by this image acquisition step, it is a movement of an image in a local region unit. An optical flow extraction step for extracting optical flow information and a partial area for prediction is set by dividing the image into units of a predetermined size. Among the set partial areas, the optical flow extraction step is performed. Based on the obtained optical flow information to predict the image position of the next time point of the partial area centered on the portion in the image in which this optical flow has occurred, from the predicted position at the next time point in this partial area unit Prediction image creation step for creating the prediction image at the next time point and the prediction image created by this prediction image creation step A moving object detection method comprising: a moving object detection step of checking the presence or absence of an overlapping portion of the partial areas in an image and detecting the presence of a moving object from the presence of the overlapping portion.
【請求項8】 時間的経過に伴う観測対象の画像を取得
する画像取得ステップと、 この画像取得ステップにより得られた画像の時間的変化
を解析することにより、局所領域単位の動きであるオプ
ティカルフロー情報を抽出するオプティカルフロー抽出
ステップと、 画像を所定の大きさ単位に区分することにより、予測を
行なうための部分領域を設定し、この設定された部分領
域のうち、オプティカルフロー抽出ステップにより得ら
れたオプティカルフロー情報に基づきこのオプティカル
フローが生じた前記画像内の部分を中心とする部分領域
の次時点の画像位置を予測し、この部分領域単位での当
該次時点での予測位置から当該次時点での予測画像を作
成する予測画像作成ステップと、 この予測画像作成ステップにより作成した予測画像にお
ける前記部分領域の重なり部分の有無を調べ、重なり部
分があったときはその重なり部分の大きさを測定して所
定値以上の大きさを持つとき、移動物体が存在すると判
定して移動物体の存在を検知する移動物体検知ステップ
と、から構成することを特徴とする移動物体検知方法。
8. An image acquisition step for acquiring an image of an observation target with the passage of time, and by analyzing a temporal change of the image obtained by this image acquisition step, an optical flow which is a movement in a local region unit is analyzed. An optical flow extraction step that extracts information and a partial area for prediction is set by dividing the image into units of a predetermined size, and the partial area that is set is obtained by the optical flow extraction step. Based on the optical flow information, the image position at the next time point of the partial area centered on the part in the image where this optical flow has occurred is predicted, and the next time point is calculated from the predicted position at the next time point in this partial area unit. The predicted image creation step for creating the predicted image in Check the presence or absence of overlapping parts of the partial area, and if there is an overlapping part, measure the size of the overlapping part and if it has a size of a predetermined value or more, determine that a moving object exists and A moving object detection method comprising: a moving object detection step of detecting the presence.
JP05529295A 1995-01-20 1995-03-15 Moving object detecting device and moving object detecting method Expired - Lifetime JP3432937B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP05529295A JP3432937B2 (en) 1995-03-15 1995-03-15 Moving object detecting device and moving object detecting method
US08/588,845 US5777690A (en) 1995-01-20 1996-01-19 Device and method for detection of moving obstacles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05529295A JP3432937B2 (en) 1995-03-15 1995-03-15 Moving object detecting device and moving object detecting method

Publications (2)

Publication Number Publication Date
JPH08249472A JPH08249472A (en) 1996-09-27
JP3432937B2 true JP3432937B2 (en) 2003-08-04

Family

ID=12994512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05529295A Expired - Lifetime JP3432937B2 (en) 1995-01-20 1995-03-15 Moving object detecting device and moving object detecting method

Country Status (1)

Country Link
JP (1) JP3432937B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4425383B2 (en) * 1999-09-17 2010-03-03 株式会社データ・テック Sensor unit
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device
US20040091047A1 (en) * 2002-11-11 2004-05-13 Sony Corporation Method and apparatus for nonlinear multiple motion model and moving boundary extraction
WO2018235744A1 (en) * 2017-06-22 2018-12-27 株式会社ソニー・インタラクティブエンタテインメント Information processing device, control method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
渡辺敏英外1名,動き検出ニューラルネットワーク,NHK技研R&D,日本放送出版協会,1993年 8月15日,No.25,pp.42−43

Also Published As

Publication number Publication date
JPH08249472A (en) 1996-09-27

Similar Documents

Publication Publication Date Title
JP5001260B2 (en) Object tracking method and object tracking apparatus
JP2953712B2 (en) Moving object detection device
US10713798B2 (en) Low-complexity motion detection based on image edges
JP5459674B2 (en) Moving object tracking system and moving object tracking method
US10600189B1 (en) Optical flow techniques for event cameras
CN109727275B (en) Object detection method, device, system and computer readable storage medium
KR101897018B1 (en) Method for tracking an object and apparatus thereof
JP6551226B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2001324305A (en) Image correspondent position detector and range finder equipped with the same
KR102144394B1 (en) Apparatus and method for alignment of images
JPWO2014010174A1 (en) Angle of view variation detection device, angle of view variation detection method, and field angle variation detection program
JP7334432B2 (en) Object tracking device, monitoring system and object tracking method
EP3438875A1 (en) Image processing apparatus and control method therefor
KR20110023468A (en) Apparatus and method for detecting and tracking object based on adaptive background
Snidaro et al. Quality-based fusion of multiple video sensors for video surveillance
CN112541403A (en) Indoor personnel falling detection method utilizing infrared camera
CN111753587B (en) Ground falling detection method and device
US20230169674A1 (en) Information processing device, information processing method, and information processing program
JP2006318064A (en) Image sensor
CN110992393A (en) Target motion tracking method based on vision
JP3432937B2 (en) Moving object detecting device and moving object detecting method
JPH0614698B2 (en) Automatic tracking camera
CN114846513A (en) Motion analysis system and motion analysis program
KR102050418B1 (en) Apparatus and method for alignment of images
CN115767424A (en) Video positioning method based on RSS and CSI fusion

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100523

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140523

Year of fee payment: 11

EXPY Cancellation because of completion of term