JP4512690B2 - Monitoring system and method by image processing - Google Patents
Monitoring system and method by image processing Download PDFInfo
- Publication number
- JP4512690B2 JP4512690B2 JP2005176434A JP2005176434A JP4512690B2 JP 4512690 B2 JP4512690 B2 JP 4512690B2 JP 2005176434 A JP2005176434 A JP 2005176434A JP 2005176434 A JP2005176434 A JP 2005176434A JP 4512690 B2 JP4512690 B2 JP 4512690B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- cameras
- shutter
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Input (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、移動体上に搭載したカメラにより監視を行い、撮影画像の中から動く物を検知する画像処理による監視システム及び方法に関する。 The present invention relates to a monitoring system and method based on image processing in which monitoring is performed by a camera mounted on a moving body and a moving object is detected from captured images.
画像処理による監視システムでは従来、入力画像及び基準画像の2枚の画像を比較し、互いに異なる領域を検出して異なる領域が所定の面積を越える場合に、人物や車両、その他の移動物体が存在すると判断し警報等を発していた(特許文献1参照)。しかし、従来技術による監視システムは、固定カメラを用いるものであるために、広い範囲をカバーすることができないという問題がある。 Conventional monitoring systems based on image processing compare the two images of the input image and the reference image, detect different areas, and if different areas exceed a predetermined area, there are people, vehicles, and other moving objects As a result, a warning or the like was issued (see Patent Document 1). However, since the monitoring system according to the prior art uses a fixed camera, there is a problem that it cannot cover a wide range.
広い監視範囲をカバーするためには、移動体によるパトロールが必要になる。しかし、移動し続ける移動体上に搭載したカメラでは、フレーム毎に背景の見え方が違ってしまうので、その中から動く物を検知することは困難である。
また、固定カメラは、侵入者には予め位置がわかっているので、必要時には破壊されてしまう可能性が高い。
Further, since the position of the fixed camera is known in advance by the intruder, there is a high possibility that the fixed camera will be destroyed when necessary.
本発明は、係る問題点を解決して、広い監視範囲をカバーするために、移動し続ける移動体上に搭載したカメラにより監視を行い、撮影画像の中から動く物を検知して、移動体によるパトロールを可能にすることを目的としている。 In order to solve such problems and cover a wide monitoring range, the present invention performs monitoring with a camera mounted on a moving body that continues to move, detects a moving object from the captured image, and moves the moving body. It is intended to enable patrol by.
本発明の画像処理による監視システムは、間隔をあけて移動体に取り付けた複数のカメラを用い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るように構成し、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得る手段と、これら複数画像の位置合わせを行う画像位置合わせ部と、位置合わせを行った画像の差分を取る差分算出部と、上記差分算出部の出力する差分に基づき、画像中の動く物体を検出する動き検出部と、から成る。 The monitoring system using image processing according to the present invention uses a plurality of cameras attached to a moving body at intervals, and adjusts the direction of the camera and the timing of the shutter, so that the rear camera is positioned at the point where the front camera releases the shutter. Is configured to release the shutter when the camera comes, and equivalently, means for obtaining a plurality of images with the same time difference from the same point, an image alignment unit for aligning these images, and a position A difference calculation unit that takes a difference between the combined images and a motion detection unit that detects a moving object in the image based on the difference output from the difference calculation unit.
また、本発明の画像処理による監視方法は、間隔をあけて移動体に取り付けた複数のカメラを用い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るように構成し、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得て、これら複数画像の位置合わせを行ない、位置合わせを行った画像の差分を取り、この差分に基づき、画像中の動く物体を検出する。 In addition, the monitoring method by image processing of the present invention uses a plurality of cameras attached to a moving body at intervals, and by adjusting the camera direction and shutter timing, at the point where the front camera releases the shutter, The camera was configured to release the shutter when the rear camera arrived. Equivalently, multiple images with the same time difference from the same point were obtained, and the multiple images were aligned and aligned. The difference between the images is taken, and a moving object in the image is detected based on the difference.
本発明によれば、カメラを積んだ移動体によるパトロールで、固定カメラの設置ができないような広い地域の監視が可能になる。また、固定カメラは、実際には侵入者による破壊により使えなくなることが避けられないが、移動体によるパトロールは、これに対抗する手段となる。 According to the present invention, it is possible to monitor a wide area where a fixed camera cannot be installed by patrol by a moving body loaded with cameras. In addition, it is inevitable that the fixed camera is actually unusable due to destruction by an intruder, but patrol by a moving body is a means to counter this.
図1は、複数のカメラ(2個として例示)を、移動体(車両)に取り付けた状態を示す図である。図示したように移動体に取り付けた複数のカメラを使い、カメラの向きとシャッターのタイミングを調整することにより、前カメラがシャッターを切った地点に、後カメラが来たときにシャッターを切るようにできる。これにより、等価的に、同一地点からの同一アングルの時間差をおいた複数画像を得ることができる。これにより地上の動く物を検知する。 FIG. 1 is a diagram illustrating a state in which a plurality of cameras (illustrated as two) are attached to a moving body (vehicle). As shown in the figure, using multiple cameras attached to a moving body, adjusting the camera direction and shutter timing so that the shutter is released when the rear camera arrives at the point where the front camera releases the shutter. it can. Thereby, it is possible to obtain a plurality of images equivalently having the same time difference from the same point. This detects moving objects on the ground.
図2は、本発明を具体化する画像処理による監視システムを例示する図である。図1に示すように、向きを平行にして取り付けた2台のカメラで、移動体速度に応じて2台目のカメラのシャッタータイミングの遅れを変化させて、等価的に同位置地点からの時間差画像を得る。この場合、移動体が直進している時にのみ、データを取るものとする。その理由は、カーブでは、移動体の向きが変化するため、2台目のカメラが1台目と同じ位置に来ても、カメラの向きが変わっているからである。機構は複雑になるが、カメラの向きを車軸方向に連動させるようにすれば、この問題は避けられる。 FIG. 2 is a diagram illustrating a monitoring system using image processing that embodies the present invention. As shown in FIG. 1, with two cameras mounted in parallel, the delay of the shutter timing of the second camera is changed according to the moving body speed, equivalently the time difference from the same position point Get an image. In this case, data is taken only when the moving body is traveling straight ahead. The reason is that the direction of the moving body changes on the curve, so the direction of the camera changes even if the second camera comes to the same position as the first. Although the mechanism is complicated, this problem can be avoided if the direction of the camera is linked to the axle direction.
2台目のシャッタータイミングの遅れは、以下の式で決まる。L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、T:シャッタータイミングの遅れ(msec)とすると、
T=( 3600×L )/V となる。
The delay of the second shutter timing is determined by the following equation. L: Interval between two cameras (m), V: Speed of moving body (km / h), T: Delay of shutter timing (msec)
T = (3600 × L) / V
このように、画像取り込みタイミング制御部は、速度検出した移動体速度に応じてシャッタータイミングを調整した2枚の時間差画像を得る。画像位置合わせ部では、個々のカメラによる明度の差に依らないようにするために、
1)原画像をモノクロ化する(2つの原画像は、それぞれの明かるさの平均を求め、それに基づいて明かるさを調整して、明かるさを同じにしておく)。
In this way, the image capturing timing control unit obtains two time difference images in which the shutter timing is adjusted according to the speed of the moving body whose speed has been detected. In the image alignment unit, in order not to depend on the difference in brightness by individual cameras,
1) Monochrome the original image (for the two original images, find the average of the respective brightness and adjust the brightness based on the average to keep the brightness the same).
2)モノクロ画像を細線化する。このために、例えば、ラプラシアン・オペレータを用いることができる。ラプラシアン・オペレータ:図3に示すように、入力画素中央の注目画素(A4)に対する出力画素値(B)を、入力画像における、中央画素の値(A4)および、その8近傍の画素値(A0,A1,A2,A3,A5,A6,A7,A8)の合計9つの画素値から、ラプラシアン・オペレータ(図中式)により求める。これは、画像の濃淡値を、縦横2次元に対する関数( つまり、f( x ,y ) )と考えた場合における、縦横斜めの4方向に対する、それぞれの2回微分(差分の差分)の和に相当する。また、濃淡の値自身に依存せず、濃淡の変化が大きいところで、大きな値をとるため、画像の輪郭線抽出に用いられる。 2) Thinning a monochrome image. For this purpose, for example, a Laplacian operator can be used. Laplacian operator: As shown in FIG. 3, the output pixel value (B) for the target pixel (A4) at the center of the input pixel is set to the value (A4) of the center pixel and the pixel values (A0) in the neighborhood of the input image. , A1, A2, A3, A5, A6, A7, A8), a total of nine pixel values is obtained by a Laplacian operator (formula in the figure). This is the sum of the second derivative (difference of difference) for each of the four diagonal directions when considering the gray value of the image as a function for two dimensions in length and breadth (that is, f (x, y)). Equivalent to. In addition, it does not depend on the density value itself, and takes a large value when the density change is large.
3)相関による位置合わせをおこなう。本来、2つの画像は、カメラが正確に同じ位置にきていれば、全く同一アングルであるはずであるが、移動体の揺れにより、わずかにずれが生じるので、画像の3%程度(この値は、2つのカメラがどのくらいの精度で同じ位置に来るかによって決まる。)の範囲内で縦横に変位させて相関をとって最大値をとる位置に合わせる。このとき、連続して取り込まれた2つのフレームのうち、分離帯やガードレール、白線、近隣建物など、地表との相対速度がゼロである部分の画像のみを用いて相関をとる。図4の太線で囲った部分は、カメラを斜め前方に向けた場合の、位置あわせのための指定した動きの少ない部分である。予め知っている場所を移動する場合は、これが可能であるが、予め背景がわからない場合は、図5に示すような、長い線分を用いて相関をとる。 3) Perform alignment by correlation. Originally, the two images should be at exactly the same angle if the cameras are exactly at the same position, but a slight shift occurs due to the shaking of the moving object, so about 3% of this image (this value) Is determined by the accuracy with which the two cameras are located at the same position.) Within the range, the position is displaced vertically and horizontally to obtain the maximum value by correlation. At this time, the correlation is obtained by using only the image of the portion where the relative speed with respect to the ground surface is zero, such as the separation band, the guardrail, the white line, and the neighboring building, among the two frames taken in succession. A portion surrounded by a thick line in FIG. 4 is a portion with little designated movement for alignment when the camera is directed obliquely forward. This is possible when moving in a known location, but when the background is not known in advance, a long line segment as shown in FIG. 5 is used for correlation.
4)位置合わせ後の画像をP1, P2とする。
次に、差分算出部(図2)では、連続する2つのモノクロ画像(P1,P2)間で差分をとる。
動き部分検出部では、連続する2枚のモノクロ画像(P1,P2)の差分画像から、閾値により動き部分を検出する。
4) Let the image after alignment be P1 and P2.
Next, the difference calculation unit (FIG. 2) calculates a difference between two continuous monochrome images (P1, P2).
The moving part detection unit detects a moving part based on a threshold value from a difference image between two continuous monochrome images (P1, P2).
図6は、動き部分の検出を説明する図である。
P1とP2の差分の絶対値をとった画像を、|P1 - P2|、
2値化オペレータをB( P, T ):Pはモノクロ画像、TはThreshold(閾値)、とする時、
B(|P1 - P2|, T)
により、地表に対して移動する物体の移動方向の輪郭の変化分を検出する。(実際のデータにおいては、ノイズ除去のために、膨張オペレータと収縮オペレータにより、膨張・収縮操作を行う。)
FIG. 6 is a diagram illustrating detection of a moving part.
An image obtained by taking the absolute value of the difference between P1 and P2 is represented by | P1-P2 |
When the binarization operator is B (P, T): P is a monochrome image, T is a threshold,
B (| P1-P2 |, T)
Thus, a change in the contour of the moving direction of the object moving with respect to the ground surface is detected. (In actual data, the expansion and contraction operations are performed by the expansion operator and the contraction operator in order to remove noise.)
図7は、本発明に従い、タイミングを遅らせて撮った場合について、各段階の画像を例示する図である。また、図8は、本発明との対比のために、2台のカメラで同時に撮った比較例を示している。図7及び図8のいずれにおいても、左中図:前カメラの画像、左下図:線画化した前カメラ画像、右中図:後カメラの画像、右下図:線画化した後カメラ画像、右上図:差分画像から検出した移動物体、左上図:移動体の速度計の表示、をそれぞれ示している。 FIG. 7 is a diagram illustrating an image of each stage in the case where the timing is taken in accordance with the present invention. FIG. 8 shows a comparative example taken simultaneously by two cameras for comparison with the present invention. 7 and 8, the middle left figure: the image of the front camera, the lower left figure: the front camera image made into a line drawing, the middle right figure: the image from the rear camera, the lower right figure: the camera image after the line drawing, the upper right figure. : A moving object detected from the difference image, upper left figure: display of the speedometer of the moving body.
図7において、移動物体が明白に検出されているのに対して、図8の比較例においては、差分画像から、移動物体が背景からうまく抽出・検出されていない。
以上、2台のカメラを用いる場合を例にして説明したが、カメラを3台以上にすれば、動くものの領域を精度良く抽出できる。具体的には、図9に示すように、3台のカメラから得られる連続する3枚の位置あわせしたモノクロ画像を、P1,P2,P3、
符号付きの差分画像を、(P2 - P1)、(P2 - P3)、
論理和画像を、P=(B(P2 - P1),T)OR(B(P2 - P3),T)とすれば、
Pで検出した動き部分は、P2中の動いた物の画像に重なって検出される(図9)。(先に図6に示した2枚からの動き部分の検出では、P2中の動いた物の画像には、一部しか重なっていない)
In FIG. 7, the moving object is clearly detected, whereas in the comparative example of FIG. 8, the moving object is not successfully extracted and detected from the background from the difference image.
As described above, the case where two cameras are used has been described as an example. However, if three or more cameras are used, it is possible to accurately extract a moving region. Specifically, as shown in FIG. 9, three consecutive monochrome images obtained from three cameras are represented by P1, P2, P3,
Signed difference images are represented by (P2-P1), (P2-P3),
If the logical sum image is P = (B (P2−P1), T) OR (B (P2−P3), T),
The moving portion detected by P is detected by overlapping the moving object image in P2 (FIG. 9). (In the detection of the moving part from the two images shown in FIG. 6, the moving object image in P2 only partially overlaps.)
また、膨張オペレータを、Expand(P, n):Pは2値画像,nは膨張回数、(膨張とは、2値画像の黒部分を8方向に1画素ずつ広げること)
収縮オペレータを、Shrink(P, n):Pは2値画像,nは収縮回数、(収縮とは、逆に2値画像の白部分を8方向に1画素ずつ広げること)、として、
Expand ( Shrink( Expand( P ,n ),2n ),n ) を行うことで、検出された動き部分のノイズや背景部分のノイスを消去できる(図9)。
Expand (P, n): P is a binary image, n is the number of expansions, (expansion is the expansion of the black portion of the binary image by one pixel in eight directions)
Shrink operator, Shrink (P, n): P is a binary image, n is the number of times of contraction (contrast is to expand the white portion of the binary image by 8 pixels by 8 directions)
By performing Expand (Shrink (Expand (P, n), 2n), n), the noise of the detected motion part and the noise of the background part can be eliminated (FIG. 9).
また、秒間のフレーム数が固定のカメラを用いた場合、速度に応じて2台のカメラの間隔を変えることによって、等価的に同位置地点からの時間差画像を得ることもできる。カメラの間隔は、
L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、F:秒間のフレーム数(1/sec)とすると、
L=V/(3.6・F) で決まる。
この場合も、カメラを3台以上にすれば、動くものの輪郭抽出が、精度良く行える。
Further, when a camera with a fixed number of frames per second is used, a time difference image from the same position point can be obtained equivalently by changing the interval between the two cameras according to the speed. The camera interval is
L: Interval between two cameras (m), V: Speed of moving body (km / h), F: Number of frames per second (1 / sec)
It is determined by L = V / (3.6 · F).
Also in this case, if three or more cameras are used, the outline of the moving object can be extracted with high accuracy.
図10は、図1とは異なるカメラの設置を例示する図である。図示したように、移動体(車両)の前後に水平回転するカメラを設置し、360度の全周囲を高速撮影を行って、後のカメラが、前カメラが撮影した位置と角度を、なぞるように、回転遅れとシャッター遅れを調整することによって、全周囲画像の位置あわせ・差分によって動くものを検出することができる。シャッター遅れは、回転遅れに同期させる。 FIG. 10 is a diagram illustrating installation of a camera different from that in FIG. As shown in the figure, a camera that rotates horizontally in front of and behind the moving body (vehicle) is installed, and the entire circumference of 360 degrees is photographed at high speed, and the rear camera follows the position and angle photographed by the front camera. In addition, by adjusting the rotation delay and the shutter delay, it is possible to detect a moving object by positioning / difference of the entire surrounding image. The shutter delay is synchronized with the rotation delay.
後カメラの位相のずれは、L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、ω:カメラの回転の角速度(度/sec)、D:後カメラの回転角の位相のすれ(度)、とすると、
D=( ω・3.6・L )/V となる。
The phase shift of the rear camera is as follows: L: Distance between two cameras (m), V: Speed of moving body (km / h), ω: Angular speed of camera rotation (degrees / sec), D: Rear camera If the phase of the rotation angle (degrees),
D = (ω · 3.6 · L) / V
上記したカメラの水平回転は、図11のような回転プリズム(もしくは回転鏡)とイメージローテーターによる全周囲撮影に置き換えることもできる。この場合はカメラの設置の仕方が異なるだけで、回転角の制御は、上記の水平回転方式と同じである。さらに、図12のような円錐鏡、球面鏡(或いは双曲面鏡)による全方位撮影に置き換えることもできる。この場合は、全方位を一度に撮影するので、角度の制御は不要で、シャッターのタイミングだけで良い。
また、カメラとして、赤外線カメラを用いると、エンジン停止したばかりの車や、人或いは動物が検出しやすくなる。
The above-mentioned horizontal rotation of the camera can be replaced with an all-around photographing using a rotating prism (or rotating mirror) and an image rotator as shown in FIG. In this case, only the way of installing the camera is different, and the control of the rotation angle is the same as the horizontal rotation method described above. Furthermore, it can be replaced with omnidirectional imaging using a conical mirror or a spherical mirror (or hyperboloidal mirror) as shown in FIG. In this case, since all directions are photographed at one time, it is not necessary to control the angle, and only the shutter timing is required.
Further, when an infrared camera is used as the camera, it becomes easy to detect a car, a person or an animal whose engine has just stopped.
図13は、移動体に対して、さらに異なるカメラの取付を例示する図である。図示したように、回転軸を進行方向にした、風車のように回るカメラにより、地面・ビルの1F・2F・.....・屋上・上空・反対側の屋上・.....・2F・1F・地面のように、ヘリカルスキャンして、高速撮影することにより、ビル街の1階から屋上まで監視できる画像が得られる。このカメラを移動体の前後に設置することにより、ビル街での移動物体の検出を行うことができる。図10を参照して前述した例と同様に、後のカメラが、前カメラが撮影した位置と角度を、なぞるように、回転遅れとシャッター遅れを調整し、全周囲画像の位置あわせ・差分によって動くものを検出することができる。シャッター遅れは、回転遅れに同期させる。 FIG. 13 is a diagram illustrating the attachment of still another camera to the moving body. As shown in the figure, the 1F, 2F,. . . . .・ The roof, the sky, the roof on the opposite side. . . . .・ Images that can be monitored from the first floor of the building to the rooftop can be obtained by helical scanning and high-speed shooting like 2F, 1F, and the ground. By installing this camera in front of and behind the moving body, it is possible to detect a moving object in a building street. Similar to the example described above with reference to FIG. 10, the rear camera adjusts the rotation delay and the shutter delay so that the position and angle taken by the front camera are traced, and the position and difference of the entire surrounding image are adjusted. It can detect moving objects. The shutter delay is synchronized with the rotation delay.
後カメラの位相のずれは、L:2台のカメラの間隔(m)、V:移動体の速度(km/h)、ω:カメラの回転の角速度(度/sec)、D:後カメラの回転角の位相のすれ(度)、とすると、
D=( ω・3.6・L )/V となる。
The phase shift of the rear camera is as follows: L: Distance between two cameras (m), V: Speed of moving body (km / h), ω: Angular speed of camera rotation (degrees / sec), D: Rear camera If the phase of the rotation angle (degrees),
D = (ω · 3.6 · L) / V
図示の方式は、左右と屋上を監視しなければならない、ゲリラ地域の装甲車による市街地パトロール、要人警護の監視に有効である。図10の例と同様に、回転プリズムや円錐鏡を用いることもできる。また赤外線カメラを用いると、エンジン停止したばかりの車や、人・動物が検出しやすくなる。
また、高速撮影できるカメラの代わりに、図14に示すような、円盤に複数のカメラを取り付けたものを用いることもできる。これは、図10に示す例の場合も同様である。
The method shown in the figure is effective for monitoring city patrols and guards for people with armored vehicles in the guerrilla area, which must monitor the left and right sides and the rooftop. As in the example of FIG. 10, a rotating prism or a conical mirror can be used. In addition, when an infrared camera is used, it becomes easier to detect a car or a person / animal whose engine has just stopped.
Further, instead of a camera capable of high-speed shooting, a disk in which a plurality of cameras are attached as shown in FIG. 14 can be used. The same applies to the example shown in FIG.
Claims (7)
これら複数画像の位置合わせを行う画像位置合わせ部と、
位置合わせを行った画像の差分を取る差分算出部と、
上記差分算出部の出力する差分に基づき、画像中の動く物体を検出する移動物体検出部と、
かなら成る画像処理による監視システム。 Using multiple cameras attached to a moving object at intervals, adjusting the camera direction and shutter timing so that the shutter is released when the rear camera arrives at the point where the front camera releases the shutter Configured, and equivalently, means for obtaining a plurality of images with a time difference of the same angle from the same point;
An image alignment unit for aligning these multiple images;
A difference calculation unit that takes a difference between the images that have been aligned;
Based on the difference output from the difference calculation unit, a moving object detection unit that detects a moving object in the image;
A monitoring system using image processing.
これら複数画像の位置合わせを行ない、
位置合わせを行った画像の差分を取り、
この差分に基づき、画像中の動く物体を検出する、
ことから成る画像処理による監視方法。
Using multiple cameras attached to a moving object at intervals, adjusting the camera direction and shutter timing so that the shutter is released when the rear camera arrives at the point where the front camera releases the shutter Configured and equivalently obtained multiple images with the same angle time difference from the same point,
Align these multiple images,
Take the difference of the aligned images,
Based on this difference, detect moving objects in the image,
A monitoring method using image processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005176434A JP4512690B2 (en) | 2005-06-16 | 2005-06-16 | Monitoring system and method by image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005176434A JP4512690B2 (en) | 2005-06-16 | 2005-06-16 | Monitoring system and method by image processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006350713A JP2006350713A (en) | 2006-12-28 |
JP4512690B2 true JP4512690B2 (en) | 2010-07-28 |
Family
ID=37646480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005176434A Expired - Fee Related JP4512690B2 (en) | 2005-06-16 | 2005-06-16 | Monitoring system and method by image processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4512690B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2009210672B2 (en) | 2008-02-08 | 2013-09-19 | Google Llc | Panoramic camera with multiple image sensors using timed shutters |
JP5164700B2 (en) * | 2008-07-08 | 2013-03-21 | 三菱電機株式会社 | Multi-camera image processing apparatus and multi-camera image display apparatus |
-
2005
- 2005-06-16 JP JP2005176434A patent/JP4512690B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006350713A (en) | 2006-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2680646C (en) | Moving object noise elimination processing device and moving object noise elimination processing program | |
JP5347257B2 (en) | Vehicle periphery monitoring device and video display method | |
US7557691B2 (en) | Obstacle detector for vehicle | |
JP5421072B2 (en) | Approaching object detection system | |
JP2002074339A (en) | On-vehicle image pickup unit | |
JP4258539B2 (en) | Multiple angle of view camera | |
US20110234761A1 (en) | Three-dimensional object emergence detection device | |
US8477191B2 (en) | On-vehicle image pickup apparatus | |
JP4722760B2 (en) | Vehicle tracking device | |
JPH10512694A (en) | Method and apparatus for detecting movement of an object in a continuous image | |
JP6032034B2 (en) | Object detection device | |
JP5136071B2 (en) | Vehicle rear monitoring device and vehicle rear monitoring method | |
JP2011095321A (en) | Image display device for vehicle | |
JP2002120675A (en) | Vehicle surroundings monitoring support system | |
JP6065629B2 (en) | Object detection device | |
JP4512690B2 (en) | Monitoring system and method by image processing | |
JP3930268B2 (en) | Image processing device for detecting approaching vehicle and lane position | |
CN110536814B (en) | Camera device and method for detecting a region of the surroundings of a vehicle in response to the surroundings | |
JP3868915B2 (en) | Forward monitoring apparatus and method | |
JP4614826B2 (en) | Road marking line detection device | |
JP4702802B2 (en) | Vehicle orientation correction system | |
JP2008040965A (en) | Road surface estimation device | |
KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
KR102598630B1 (en) | Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method | |
JP2009048261A (en) | Camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100309 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130521 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140521 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |