JP4512690B2 - Monitoring system and method by image processing - Google Patents

Monitoring system and method by image processing Download PDF

Info

Publication number
JP4512690B2
JP4512690B2 JP2005176434A JP2005176434A JP4512690B2 JP 4512690 B2 JP4512690 B2 JP 4512690B2 JP 2005176434 A JP2005176434 A JP 2005176434A JP 2005176434 A JP2005176434 A JP 2005176434A JP 4512690 B2 JP4512690 B2 JP 4512690B2
Authority
JP
Japan
Prior art keywords
camera
image
cameras
shutter
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005176434A
Other languages
Japanese (ja)
Other versions
JP2006350713A (en
Inventor
宏 青山
正弘 河越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2005176434A priority Critical patent/JP4512690B2/en
Publication of JP2006350713A publication Critical patent/JP2006350713A/en
Application granted granted Critical
Publication of JP4512690B2 publication Critical patent/JP4512690B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動体上に搭載したカメラにより監視を行い、撮影画像の中から動く物を検知する画像処理による監視システム及び方法に関する。   The present invention relates to a monitoring system and method based on image processing in which monitoring is performed by a camera mounted on a moving body and a moving object is detected from captured images.

画像処理による監視システムでは従来、入力画像及び基準画像の2枚の画像を比較し、互いに異なる領域を検出して異なる領域が所定の面積を越える場合に、人物や車両、その他の移動物体が存在すると判断し警報等を発していた(特許文献1参照)。しかし、従来技術による監視システムは、固定カメラを用いるものであるために、広い範囲をカバーすることができないという問題がある。   Conventional monitoring systems based on image processing compare the two images of the input image and the reference image, detect different areas, and if different areas exceed a predetermined area, there are people, vehicles, and other moving objects As a result, a warning or the like was issued (see Patent Document 1). However, since the monitoring system according to the prior art uses a fixed camera, there is a problem that it cannot cover a wide range.

広い監視範囲をカバーするためには、移動体によるパトロールが必要になる。しかし、移動し続ける移動体上に搭載したカメラでは、フレーム毎に背景の見え方が違ってしまうので、その中から動く物を検知することは困難である。
また、固定カメラは、侵入者には予め位置がわかっているので、必要時には破壊されてしまう可能性が高い。
特開平8−320934号公報
In order to cover a wide monitoring range, patrol by a moving body is required. However, with a camera mounted on a moving body that continues to move, the background looks different from frame to frame, so it is difficult to detect moving objects.
Further, since the position of the fixed camera is known in advance by the intruder, there is a high possibility that the fixed camera will be destroyed when necessary.
JP-A-8-320934

本発明は、係る問題点を解決して、広い監視範囲をカバーするために、移動し続ける移動体上に搭載したカメラにより監視を行い、撮影画像の中から動く物を検知して、移動体によるパトロールを可能にすることを目的としている。   In order to solve such problems and cover a wide monitoring range, the present invention performs monitoring with a camera mounted on a moving body that continues to move, detects a moving object from the captured image, and moves the moving body. It is intended to enable patrol by.

本発明の画像処理による監視システムは、間隔をあけて移動体に取り付けた複数のカメラを用い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るように構成し、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得る手段と、これら複数画像の位置合わせを行う画像位置合わせ部と、位置合わせを行った画像の差分を取る差分算出部と、上記差分算出部の出力する差分に基づき、画像中の動く物体を検出する動き検出部と、から成る。   The monitoring system using image processing according to the present invention uses a plurality of cameras attached to a moving body at intervals, and adjusts the direction of the camera and the timing of the shutter, so that the rear camera is positioned at the point where the front camera releases the shutter. Is configured to release the shutter when the camera comes, and equivalently, means for obtaining a plurality of images with the same time difference from the same point, an image alignment unit for aligning these images, and a position A difference calculation unit that takes a difference between the combined images and a motion detection unit that detects a moving object in the image based on the difference output from the difference calculation unit.

また、本発明の画像処理による監視方法は、間隔をあけて移動体に取り付けた複数のカメラを用い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るように構成し、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得て、これら複数画像の位置合わせを行ない、位置合わせを行った画像の差分を取り、この差分に基づき、画像中の動く物体を検出する。   In addition, the monitoring method by image processing of the present invention uses a plurality of cameras attached to a moving body at intervals, and by adjusting the camera direction and shutter timing, at the point where the front camera releases the shutter, The camera was configured to release the shutter when the rear camera arrived. Equivalently, multiple images with the same time difference from the same point were obtained, and the multiple images were aligned and aligned. The difference between the images is taken, and a moving object in the image is detected based on the difference.

本発明によれば、カメラを積んだ移動体によるパトロールで、固定カメラの設置ができないような広い地域の監視が可能になる。また、固定カメラは、実際には侵入者による破壊により使えなくなることが避けられないが、移動体によるパトロールは、これに対抗する手段となる。   According to the present invention, it is possible to monitor a wide area where a fixed camera cannot be installed by patrol by a moving body loaded with cameras. In addition, it is inevitable that the fixed camera is actually unusable due to destruction by an intruder, but patrol by a moving body is a means to counter this.

図1は、複数のカメラ(2個として例示)を、移動体(車両)に取り付けた状態を示す図である。図示したように移動体に取り付けた複数のカメラを使い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るようにできる。これにより、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得ることができる。これにより地上の動く物を検知する。   FIG. 1 is a diagram illustrating a state in which a plurality of cameras (illustrated as two) are attached to a moving body (vehicle). As shown in the figure, using multiple cameras attached to a moving body, adjusting the camera direction and shutter timing so that the shutter is released when the rear camera arrives at the point where the front camera releases the shutter. it can. Thereby, it is possible to obtain a plurality of images equivalently having the same time difference from the same point. This detects moving objects on the ground.

図2は、本発明を具体化する画像処理による監視システムを例示する図である。図1に示すように、向きを平行にして取り付けた2台のカメラで、移動体速度に応じて2台目のカメラのシャッタータイミングの遅れを変化させて、等価的に同位置地点からの時間差画像を得る。この場合、移動体が直進している時にのみ、データを取るものとする。その理由は、カーブでは、移動体の向きが変化するため、2台目のカメラが1台目と同じ位置に来ても、カメラの向きが変わっているからである。機構は複雑になるが、カメラの向きを車軸方向に連動させるようにすれば、この問題は避けられる。   FIG. 2 is a diagram illustrating a monitoring system using image processing that embodies the present invention. As shown in FIG. 1, with two cameras mounted in parallel, the delay of the shutter timing of the second camera is changed according to the moving body speed, equivalently the time difference from the same position point Get an image. In this case, data is taken only when the moving body is traveling straight ahead. The reason is that the direction of the moving body changes on the curve, so the direction of the camera changes even if the second camera comes to the same position as the first. Although the mechanism is complicated, this problem can be avoided if the direction of the camera is linked to the axle direction.

2台目のシャッタータイミングの遅れは、以下の式で決まる。L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、T:シャッタータイミングの遅れ(msec)とすると、
T=( 3600×L )/V となる。
The delay of the second shutter timing is determined by the following equation. L: Interval between two cameras (m), V: Speed of moving body (km / h), T: Delay of shutter timing (msec)
T = (3600 × L) / V

このように、画像取り込みタイミング制御部は、速度検出した移動体速度に応じてシャッタータイミングを調整した2枚の時間差画像を得る。画像位置合わせ部では、個々のカメラによる明度の差に依らないようにするために、
1)原画像をモノクロ化する(2つの原画像は、それぞれの明かるさの平均を求め、それに基づいて明かるさを調整して、明かるさを同じにしておく)。
In this way, the image capturing timing control unit obtains two time difference images in which the shutter timing is adjusted according to the speed of the moving body whose speed has been detected. In the image alignment unit, in order not to depend on the difference in brightness by individual cameras,
1) Monochrome the original image (for the two original images, find the average of the respective brightness and adjust the brightness based on the average to keep the brightness the same).

2)モノクロ画像を細線化する。このために、例えば、ラプラシアン・オペレータを用いることができる。ラプラシアン・オペレータ:図3に示すように、入力画素中央の注目画素(A4)に対する出力画素値(B)を、入力画像における、中央画素の値(A4)および、その8近傍の画素値(A0,A1,A2,A3,A5,A6,A7,A8)の合計9つの画素値から、ラプラシアン・オペレータ(図中式)により求める。これは、画像の濃淡値を、縦横2次元に対する関数( つまり、f( x ,y ) )と考えた場合における、縦横斜めの4方向に対する、それぞれの2回微分(差分の差分)の和に相当する。また、濃淡の値自身に依存せず、濃淡の変化が大きいところで、大きな値をとるため、画像の輪郭線抽出に用いられる。 2) Thinning a monochrome image. For this purpose, for example, a Laplacian operator can be used. Laplacian operator: As shown in FIG. 3, the output pixel value (B) for the target pixel (A4) at the center of the input pixel is set to the value (A4) of the center pixel and the pixel values (A0) in the neighborhood of the input image. , A1, A2, A3, A5, A6, A7, A8), a total of nine pixel values is obtained by a Laplacian operator (formula in the figure). This is the sum of the second derivative (difference of difference) for each of the four diagonal directions when considering the gray value of the image as a function for two dimensions in length and breadth (that is, f (x, y)). Equivalent to. In addition, it does not depend on the density value itself, and takes a large value when the density change is large.

3)相関による位置合わせをおこなう。本来、2つの画像は、カメラが正確に同じ位置にきていれば、全く同一アングルであるはずであるが、移動体の揺れにより、わずかにずれが生じるので、画像の3%程度(この値は、2つのカメラがどのくらいの精度で同じ位置に来るかによって決まる。)の範囲内で縦横に変位させて相関をとって最大値をとる位置に合わせる。このとき、連続して取り込まれた2つのフレームのうち、分離帯やガードレール、白線、近隣建物など、地表との相対速度がゼロである部分の画像のみを用いて相関をとる。図4の太線で囲った部分は、カメラを斜め前方に向けた場合の、位置あわせのための指定した動きの少ない部分である。予め知っている場所を移動する場合は、これが可能であるが、予め背景がわからない場合は、図5に示すような、長い線分を用いて相関をとる。 3) Perform alignment by correlation. Originally, the two images should be at exactly the same angle if the cameras are exactly at the same position, but a slight shift occurs due to the shaking of the moving object, so about 3% of this image (this value) Is determined by the accuracy with which the two cameras are located at the same position.) Within the range, the position is displaced vertically and horizontally to obtain the maximum value by correlation. At this time, the correlation is obtained by using only the image of the portion where the relative speed with respect to the ground surface is zero, such as the separation band, the guardrail, the white line, and the neighboring building, among the two frames taken in succession. A portion surrounded by a thick line in FIG. 4 is a portion with little designated movement for alignment when the camera is directed obliquely forward. This is possible when moving in a known location, but when the background is not known in advance, a long line segment as shown in FIG. 5 is used for correlation.

4)位置合わせ後の画像をP1, P2とする。
次に、差分算出部(図2)では、連続する2つのモノクロ画像(P1,P2)間で差分をとる。
動き部分検出部では、連続する2枚のモノクロ画像(P1,P2)の差分画像から、閾値により動き部分を検出する。
4) Let the image after alignment be P1 and P2.
Next, the difference calculation unit (FIG. 2) calculates a difference between two continuous monochrome images (P1, P2).
The moving part detection unit detects a moving part based on a threshold value from a difference image between two continuous monochrome images (P1, P2).

図6は、動き部分の検出を説明する図である。
P1とP2の差分の絶対値をとった画像を、|P1 - P2|、
2値化オペレータをB( P, T ):Pはモノクロ画像、TはThreshold(閾値)、とする時、
B(|P1 - P2|, T)
により、地表に対して移動する物体の移動方向の輪郭の変化分を検出する。(実際のデータにおいては、ノイズ除去のために、膨張オペレータと収縮オペレータにより、膨張・収縮操作を行う。)
FIG. 6 is a diagram illustrating detection of a moving part.
An image obtained by taking the absolute value of the difference between P1 and P2 is represented by | P1-P2 |
When the binarization operator is B (P, T): P is a monochrome image, T is a threshold,
B (| P1-P2 |, T)
Thus, a change in the contour of the moving direction of the object moving with respect to the ground surface is detected. (In actual data, the expansion and contraction operations are performed by the expansion operator and the contraction operator in order to remove noise.)

図7は、本発明に従い、タイミングを遅らせて撮った場合について、各段階の画像を例示する図である。また、図8は、本発明との対比のために、2台のカメラで同時に撮った比較例を示している。図7及び図8のいずれにおいても、左中図:前カメラの画像、左下図:線画化した前カメラ画像、右中図:後カメラの画像、右下図:線画化した後カメラ画像、右上図:差分画像から検出した移動物体、左上図:移動体の速度計の表示、をそれぞれ示している。   FIG. 7 is a diagram illustrating an image of each stage in the case where the timing is taken in accordance with the present invention. FIG. 8 shows a comparative example taken simultaneously by two cameras for comparison with the present invention. 7 and 8, the middle left figure: the image of the front camera, the lower left figure: the front camera image made into a line drawing, the middle right figure: the image from the rear camera, the lower right figure: the camera image after the line drawing, the upper right figure. : A moving object detected from the difference image, upper left figure: display of the speedometer of the moving body.

図7において、移動物体が明白に検出されているのに対して、図8の比較例においては、差分画像から、移動物体が背景からうまく抽出・検出されていない。
以上、2台のカメラを用いる場合を例にして説明したが、カメラを3台以上にすれば、動くものの領域を精度良く抽出できる。具体的には、図9に示すように、3台のカメラから得られる連続する3枚の位置あわせしたモノクロ画像を、P1,P2,P3、
符号付きの差分画像を、(P2 - P1)、(P2 - P3)、
論理和画像を、P=(B(P2 - P1),T)OR(B(P2 - P3),T)とすれば、
Pで検出した動き部分は、P2中の動いた物の画像に重なって検出される(図9)。(先に図6に示した2枚からの動き部分の検出では、P2中の動いた物の画像には、一部しか重なっていない)
In FIG. 7, the moving object is clearly detected, whereas in the comparative example of FIG. 8, the moving object is not successfully extracted and detected from the background from the difference image.
As described above, the case where two cameras are used has been described as an example. However, if three or more cameras are used, it is possible to accurately extract a moving region. Specifically, as shown in FIG. 9, three consecutive monochrome images obtained from three cameras are represented by P1, P2, P3,
Signed difference images are represented by (P2-P1), (P2-P3),
If the logical sum image is P = (B (P2−P1), T) OR (B (P2−P3), T),
The moving portion detected by P is detected by overlapping the moving object image in P2 (FIG. 9). (In the detection of the moving part from the two images shown in FIG. 6, the moving object image in P2 only partially overlaps.)

また、膨張オペレータを、Expand(P, n):Pは2値画像,nは膨張回数、(膨張とは、2値画像の黒部分を8方向に1画素ずつ広げること)
収縮オペレータを、Shrink(P, n):Pは2値画像,nは収縮回数、(収縮とは、逆に2値画像の白部分を8方向に1画素ずつ広げること)、として、
Expand ( Shrink( Expand( P ,n ),2n ),n ) を行うことで、検出された動き部分のノイズや背景部分のノイスを消去できる(図9)。
Expand (P, n): P is a binary image, n is the number of expansions, (expansion is the expansion of the black portion of the binary image by one pixel in eight directions)
Shrink operator, Shrink (P, n): P is a binary image, n is the number of times of contraction (contrast is to expand the white portion of the binary image by 8 pixels by 8 directions)
By performing Expand (Shrink (Expand (P, n), 2n), n), the noise of the detected motion part and the noise of the background part can be eliminated (FIG. 9).

また、秒間のフレーム数が固定のカメラを用いた場合、速度に応じて2台のカメラの間隔を変えることによって、等価的に同位置地点からの時間差画像を得ることもできる。カメラの間隔は、
L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、F:秒間のフレーム数(1/sec)とすると、
L=V/(3.6・F) で決まる。
この場合も、カメラを3台以上にすれば、動くものの輪郭抽出が、精度良く行える。
Further, when a camera with a fixed number of frames per second is used, a time difference image from the same position point can be obtained equivalently by changing the interval between the two cameras according to the speed. The camera interval is
L: Interval between two cameras (m), V: Speed of moving body (km / h), F: Number of frames per second (1 / sec)
It is determined by L = V / (3.6 · F).
Also in this case, if three or more cameras are used, the outline of the moving object can be extracted with high accuracy.

図10は、図1とは異なるカメラの設置を例示する図である。図示したように、移動体(車両)の前後に水平回転するカメラを設置し、360度の全周囲を高速撮影を行って、後のカメラが、前カメラが撮影した位置と角度を、なぞるように、回転遅れとシャッター遅れを調整することによって、全周囲画像の位置あわせ・差分によって動くものを検出することができる。シャッター遅れは、回転遅れに同期させる。   FIG. 10 is a diagram illustrating installation of a camera different from that in FIG. As shown in the figure, a camera that rotates horizontally in front of and behind the moving body (vehicle) is installed, and the entire circumference of 360 degrees is photographed at high speed, and the rear camera follows the position and angle photographed by the front camera. In addition, by adjusting the rotation delay and the shutter delay, it is possible to detect a moving object by positioning / difference of the entire surrounding image. The shutter delay is synchronized with the rotation delay.

後カメラの位相のずれは、L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、ω:カメラの回転の角速度(度/sec)、D:後カメラの回転角の位相のすれ(度)、とすると、
D=( ω・3.6・L )/V となる。
The phase shift of the rear camera is as follows: L: Distance between two cameras (m), V: Speed of moving body (km / h), ω: Angular speed of camera rotation (degrees / sec), D: Rear camera If the phase of the rotation angle (degrees),
D = (ω · 3.6 · L) / V

上記したカメラの水平回転は、図11のような回転プリズム(もしくは回転鏡)とイメージローテーターによる全周囲撮影に置き換えることもできる。この場合はカメラの設置の仕方が異なるだけで、回転角の制御は、上記の水平回転方式と同じである。さらに、図12のような円錐鏡、球面鏡(或いは双曲面鏡)による全方位撮影に置き換えることもできる。この場合は、全方位を一度に撮影するので、角度の制御は不要で、シャッターのタイミングだけで良い。
また、カメラとして、赤外線カメラを用いると、エンジン停止したばかりの車や、人或いは動物が検出しやすくなる。
The above-mentioned horizontal rotation of the camera can be replaced with an all-around photographing using a rotating prism (or rotating mirror) and an image rotator as shown in FIG. In this case, only the way of installing the camera is different, and the control of the rotation angle is the same as the horizontal rotation method described above. Furthermore, it can be replaced with omnidirectional imaging using a conical mirror or a spherical mirror (or hyperboloidal mirror) as shown in FIG. In this case, since all directions are photographed at one time, it is not necessary to control the angle, and only the shutter timing is required.
Further, when an infrared camera is used as the camera, it becomes easy to detect a car, a person or an animal whose engine has just stopped.

図13は、移動体に対して、さらに異なるカメラの取付を例示する図である。図示したように、回転軸を進行方向にした、風車のように回るカメラにより、地面・ビルの1F・2F・.....・屋上・上空・反対側の屋上・.....・2F・1F・地面のように、ヘリカルスキャンして、高速撮影することにより、ビル街の1階から屋上まで監視できる画像が得られる。このカメラを移動体の前後に設置することにより、ビル街での移動物体の検出を行うことができる。図10を参照して前述した例と同様に、後のカメラが、前カメラが撮影した位置と角度を、なぞるように、回転遅れとシャッター遅れを調整し、全周囲画像の位置あわせ・差分によって動くものを検出することができる。シャッター遅れは、回転遅れに同期させる。   FIG. 13 is a diagram illustrating the attachment of still another camera to the moving body. As shown in the figure, the 1F, 2F,. . . . .・ The roof, the sky, the roof on the opposite side. . . . .・ Images that can be monitored from the first floor of the building to the rooftop can be obtained by helical scanning and high-speed shooting like 2F, 1F, and the ground. By installing this camera in front of and behind the moving body, it is possible to detect a moving object in a building street. Similar to the example described above with reference to FIG. 10, the rear camera adjusts the rotation delay and the shutter delay so that the position and angle taken by the front camera are traced, and the position and difference of the entire surrounding image are adjusted. It can detect moving objects. The shutter delay is synchronized with the rotation delay.

後カメラの位相のずれは、L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、ω:カメラの回転の角速度(度/sec)、D:後カメラの回転角の位相のすれ(度)、とすると、
D=( ω・3.6・L )/V となる。
The phase shift of the rear camera is as follows: L: Distance between two cameras (m), V: Speed of moving body (km / h), ω: Angular speed of camera rotation (degrees / sec), D: Rear camera If the phase of the rotation angle (degrees),
D = (ω · 3.6 · L) / V

図示の方式は、左右と屋上を監視しなければならない、ゲリラ地域の装甲車による市街地パトロール、要人警護の監視に有効である。図10の例と同様に、回転プリズムや円錐鏡を用いることもできる。また赤外線カメラを用いると、エンジン停止したばかりの車や、人・動物が検出しやすくなる。
また、高速撮影できるカメラの代わりに、図14に示すような、円盤に複数のカメラを取り付けたものを用いることもできる。これは、図10に示す例の場合も同様である。
The method shown in the figure is effective for monitoring city patrols and guards for people with armored vehicles in the guerrilla area, which must monitor the left and right sides and the rooftop. As in the example of FIG. 10, a rotating prism or a conical mirror can be used. In addition, when an infrared camera is used, it becomes easier to detect a car or a person / animal whose engine has just stopped.
Further, instead of a camera capable of high-speed shooting, a disk in which a plurality of cameras are attached as shown in FIG. 14 can be used. The same applies to the example shown in FIG.

移動体への複数のカメラの設置を例示する図である。It is a figure which illustrates installation of a plurality of cameras to a moving body. 図2は、本発明を具体化する画像処理による監視システムを例示する図である。FIG. 2 is a diagram illustrating a monitoring system using image processing that embodies the present invention. 図3は、細線化に用いたラプラシアン・オペレータを示す図である。FIG. 3 is a diagram showing a Laplacian operator used for thinning. 撮影時刻が異なる同一位置からの2枚のデータを示す図である。太線内は濃度相関により位置合わせを行う領域。It is a figure which shows the data of 2 sheets from the same position where imaging | photography time differs. The area within the bold line is the position to be aligned by density correlation. 撮影時刻が異なる同一位置からの2枚のデータから長い線分を抽出し、それにより位置あわせを行うことを示す図である。It is a figure which shows extracting a long line segment from two data from the same position where imaging | photography time differs, and performing alignment by it. 撮影時刻が異なる同一位置からの2枚のデータの差分から、動き部分を検出することを示す図である。It is a figure which shows detecting a moving part from the difference of two data from the same position where imaging | photography time differs. 本発明に基づき、前カメラの画像とその位置に後カメラが移動してきた時に撮った画像を示す図である。左中図:前カメラの画像、左下図:線画化した前カメラ画像、右中図:後カメラの画像、右下図:線画化した後カメラ画像、右上図:差分画像から検出した移動物体。It is a figure which shows the image taken when the back camera moved to the position and the image of the front camera based on this invention. Middle left figure: Front camera image, Lower left figure: Front camera image made into line drawing, Right middle figure: Rear camera image, Lower right figure: Camera image made after line drawing, Upper right figure: Moving object detected from difference image. 前カメラと後カメラで同時刻に撮った画像の比較例を示す図である。左中図:前カメラの画像、左下図:線画化した前カメラ画像、右中図:後カメラの画像、右下図:線画化した後カメラ画像、右上図:差分画像からは移動物はうまく検出されない。It is a figure which shows the comparative example of the image image | photographed with the front camera and the back camera at the same time. Middle left figure: Front camera image, Lower left figure: Front camera image made into line drawing, Right middle figure: Rear camera image, Lower right figure: Camera image after line drawing, Upper right figure: Moving object is detected well from the difference image Not. 撮影時刻が異なる同一位置からの3枚のデータの差分から、動き部分を検出することを示す図である。It is a figure which shows detecting a motion part from the difference of the 3 sheets of data from the same position where imaging | photography time differs. 移動体の前後に水平回転するカメラを例示する図である。It is a figure which illustrates the camera which rotates horizontally before and behind a moving body. 回転プリズムによる全周囲撮影を例示する図である。It is a figure which illustrates all the circumference photography by a rotating prism. 円錐鏡と球面鏡による全周囲撮影を例示する図である。It is a figure which illustrates all the circumference photography by a conical mirror and a spherical mirror. 回転軸を進行方向にした風車のように回るカメラの設置例を示す図である。カメラで左右の街並みをヘリカルスキャンさせて高速撮影する。It is a figure which shows the example of installation of the camera which rotates like a windmill which made the rotating shaft the advancing direction. The camera scans the left and right cityscapes in a helical manner and shoots at high speed. 高速撮影できるカメラの代わりに、回転盤に複数のカメラをつける例を示す図である。この場合は、一定時間内に、個々のカメラの3倍のフレームレートで撮れる。It is a figure which shows the example which attaches a some camera to a turntable instead of the camera which can be image | photographed at high speed. In this case, it can be taken at a frame rate three times that of each camera within a certain time.

Claims (7)

間隔をあけて移動体に取り付けた複数のカメラを用い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るように構成し、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得る手段と、
これら複数画像の位置合わせを行う画像位置合わせ部と、
位置合わせを行った画像の差分を取る差分算出部と、
上記差分算出部の出力する差分に基づき、画像中の動く物体を検出する移動物体検出部と、
かなら成る画像処理による監視システム。
Using multiple cameras attached to a moving object at intervals, adjusting the camera direction and shutter timing so that the shutter is released when the rear camera arrives at the point where the front camera releases the shutter Configured, and equivalently, means for obtaining a plurality of images with a time difference of the same angle from the same point;
An image alignment unit for aligning these multiple images;
A difference calculation unit that takes a difference between the images that have been aligned;
Based on the difference output from the difference calculation unit, a moving object detection unit that detects a moving object in the image;
A monitoring system using image processing.
秒間のフレーム数が固定のカメラを用いた場合、移動体速度に応じて複数のカメラの間隔を変えることによって、等価的に同位置地点からの時間差画像を得るよう構成した請求項1に記載の画像処理による監視システム。   2. The structure according to claim 1, wherein when a camera with a fixed number of frames per second is used, a time difference image from the same position point is equivalently obtained by changing an interval between the plurality of cameras according to the moving body speed. Monitoring system using image processing. 前記複数のカメラは、水平回転するよう設置して、全周囲の高速撮影を行って、後のカメラが、前カメラが撮影した位置と角度を、なぞるように、回転遅れとシャッター遅れを調整する請求項1に記載の画像処理による監視システム。   The plurality of cameras are installed so as to rotate horizontally, perform high-speed shooting of the entire periphery, and adjust the rotation delay and shutter delay so that the rear camera traces the position and angle captured by the front camera. The monitoring system by image processing according to claim 1. 前記複数のカメラの水平回転は、事実上、プリズムを回転させることにより行う請求項3に記載の画像処理による監視システム。 The horizontal rotation of the plurality of cameras, the monitoring system by the image processing according to claim 3 carried out by virtually rotate the prisms. 前記複数のカメラは、回転軸を進行方向にして設置して、全周囲の高速撮影を行って、後のカメラが、前カメラが撮影した位置と角度を、なぞるように、回転遅れとシャッター遅れを調整する請求項1に記載の画像処理による監視システム。   The plurality of cameras are installed with the rotation axis as the direction of travel, perform high-speed shooting of the entire circumference, and the rear camera follows the position and angle taken by the front camera, so that the rotation delay and shutter delay The monitoring system by image processing according to claim 1, wherein the adjustment is performed. 前記複数のカメラは、それぞれ円盤に複数のカメラを取り付けて構成し、各円盤に取り付けた複数のカメラによって、周囲の高速撮影を行って、後のカメラが、前カメラが撮影した位置と角度をなぞるように、回転遅れとシャッター遅れを調整する請求項1に記載の画像処理による監視システム。   The plurality of cameras are each configured by attaching a plurality of cameras to a disk, and a plurality of cameras attached to each disk are used to perform high-speed shooting of the surroundings, and the subsequent camera sets the position and angle captured by the front camera. The monitoring system by image processing according to claim 1, wherein the rotation delay and the shutter delay are adjusted so as to trace. 間隔をあけて移動体に取り付けた複数のカメラを用い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るように構成し、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得て、
これら複数画像の位置合わせを行ない、
位置合わせを行った画像の差分を取り、
この差分に基づき、画像中の動く物体を検出する、
ことから成る画像処理による監視方法。

Using multiple cameras attached to a moving object at intervals, adjusting the camera direction and shutter timing so that the shutter is released when the rear camera arrives at the point where the front camera releases the shutter Configured and equivalently obtained multiple images with the same angle time difference from the same point,
Align these multiple images,
Take the difference of the aligned images,
Based on this difference, detect moving objects in the image,
A monitoring method using image processing.

JP2005176434A 2005-06-16 2005-06-16 Monitoring system and method by image processing Expired - Fee Related JP4512690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005176434A JP4512690B2 (en) 2005-06-16 2005-06-16 Monitoring system and method by image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005176434A JP4512690B2 (en) 2005-06-16 2005-06-16 Monitoring system and method by image processing

Publications (2)

Publication Number Publication Date
JP2006350713A JP2006350713A (en) 2006-12-28
JP4512690B2 true JP4512690B2 (en) 2010-07-28

Family

ID=37646480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005176434A Expired - Fee Related JP4512690B2 (en) 2005-06-16 2005-06-16 Monitoring system and method by image processing

Country Status (1)

Country Link
JP (1) JP4512690B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2009210672B2 (en) 2008-02-08 2013-09-19 Google Llc Panoramic camera with multiple image sensors using timed shutters
JP5164700B2 (en) * 2008-07-08 2013-03-21 三菱電機株式会社 Multi-camera image processing apparatus and multi-camera image display apparatus

Also Published As

Publication number Publication date
JP2006350713A (en) 2006-12-28

Similar Documents

Publication Publication Date Title
CA2680646C (en) Moving object noise elimination processing device and moving object noise elimination processing program
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
US7557691B2 (en) Obstacle detector for vehicle
JP5421072B2 (en) Approaching object detection system
JP2002074339A (en) On-vehicle image pickup unit
JP4258539B2 (en) Multiple angle of view camera
US20110234761A1 (en) Three-dimensional object emergence detection device
US8477191B2 (en) On-vehicle image pickup apparatus
JP4722760B2 (en) Vehicle tracking device
JPH10512694A (en) Method and apparatus for detecting movement of an object in a continuous image
JP6032034B2 (en) Object detection device
JP5136071B2 (en) Vehicle rear monitoring device and vehicle rear monitoring method
JP2011095321A (en) Image display device for vehicle
JP2002120675A (en) Vehicle surroundings monitoring support system
JP6065629B2 (en) Object detection device
JP4512690B2 (en) Monitoring system and method by image processing
JP3930268B2 (en) Image processing device for detecting approaching vehicle and lane position
CN110536814B (en) Camera device and method for detecting a region of the surroundings of a vehicle in response to the surroundings
JP3868915B2 (en) Forward monitoring apparatus and method
JP4614826B2 (en) Road marking line detection device
JP4702802B2 (en) Vehicle orientation correction system
JP2008040965A (en) Road surface estimation device
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
KR102598630B1 (en) Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method
JP2009048261A (en) Camera system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees