JP2003169323A - Vehicle periphery-monitoring apparatus - Google Patents

Vehicle periphery-monitoring apparatus

Info

Publication number
JP2003169323A
JP2003169323A JP2001364985A JP2001364985A JP2003169323A JP 2003169323 A JP2003169323 A JP 2003169323A JP 2001364985 A JP2001364985 A JP 2001364985A JP 2001364985 A JP2001364985 A JP 2001364985A JP 2003169323 A JP2003169323 A JP 2003169323A
Authority
JP
Japan
Prior art keywords
image
obstacle
vehicle
monitoring device
warning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001364985A
Other languages
Japanese (ja)
Other versions
JP3819284B2 (en
Inventor
Ryota Kawachi
亮太 河内
Toru Oki
透 大木
Hirotaka Iwano
博隆 岩野
Noriyuki Sato
徳行 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2001364985A priority Critical patent/JP3819284B2/en
Publication of JP2003169323A publication Critical patent/JP2003169323A/en
Application granted granted Critical
Publication of JP3819284B2 publication Critical patent/JP3819284B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle periphery-monitoring apparatus that allows a driver to easily and accurately recognize obstacles that are present in an imaging region that becomes the dead angle of an output image. <P>SOLUTION: When obstacles are present at a portion that becomes a dead angle in an output image, an ultrasonic sensor 29 detects the obstacles, where an installation angle θ of the ultrasonic sensor is equal to an angle ϕ formed by the joint mask patterns of the output image. Then, since the ultrasonic sensor 29 is installed so that the center of the directivity of the ultrasonic sensor is directed corresponding to the center direction of a range that becomes a dead angle in the output image, the ultrasonic sensor 29 can sensitively detect obstacles located in a range that becomes the dead angle in the output image. A signal-processing section 36 gives an instruction to an alarm sound-generating apparatus 30 to transmit an alarm by receiving signals from the ultrasonic sensor 29, and at the same time gives an instruction to an image-superposing section 38 to blink a joint eye mask pattern. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車両周囲監視装置
に関し、より詳細には、車両周囲の状況を運転者が容易
に把握できるように、複数のカメラにより撮像された画
像を合成して画像表示手段に表示する車両周囲監視装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle surroundings monitoring device, and more particularly, to an image obtained by synthesizing images taken by a plurality of cameras so that a driver can easily grasp the situation around the vehicle. The present invention relates to a vehicle surroundings monitoring device displayed on display means.

【0002】[0002]

【従来の技術】従来から、車両近傍および路面状況等を
撮像するカメラを車両に備え、撮像された車両周囲の画
像をディスプレイ(画像表示手段)に表示することによ
って運転者に対して車両周囲の情報を容易に認識させ、
運行の安全を図ることを目的とした車両周囲監視装置が
知られている。
2. Description of the Related Art Conventionally, a vehicle is equipped with a camera for picking up an image of the vicinity of the vehicle, road surface conditions, etc., and the taken image of the surroundings of the vehicle is displayed on a display (image display means) so that the driver can see the surroundings of the vehicle. Make information easy to recognize,
BACKGROUND ART A vehicle surroundings monitoring device is known for the purpose of ensuring safe driving.

【0003】更に今日では、複数のカメラにより撮像さ
れた画像を画像処理することによって、車両上方の仮想
視点から見下ろした画像を合成する方法が知られている
(特開平3−99952号公報参照)。このような画像
変換処理(以下「俯瞰処理」という。)を用いてディス
プレイに車両周囲の情報を表示させると、カメラによっ
て撮像された画像をそのままディスプレイに表示させる
場合に比べて、運転者が車両周囲の距離感を感覚的に把
握し易くなり、より運行上の安全性を高めることが可能
となる。
Further, a method is nowadays known in which images taken by a plurality of cameras are image-processed to synthesize an image viewed from a virtual viewpoint above the vehicle (see Japanese Patent Laid-Open No. 3-99952). . When the information around the vehicle is displayed on the display by using such image conversion processing (hereinafter referred to as “overview processing”), the driver is more likely to display the image captured by the camera as it is on the display. This makes it easier to intuitively understand the sense of distance in the surroundings, and it is possible to further improve safety in operation.

【0004】図11は俯瞰処理を行う車両周囲監視装置
の構成を示したブロック図である。車両周囲監視装置3
は、車両1の後部の左右コーナー部分に設置されたカメ
ラ2a、2bと(図12参照)、カメラ2a、2bから
入力された画像を俯瞰処理して出力画像に画像変換する
画像処理装置4と、出力画像を表示する画像表示部5と
を備えている。
FIG. 11 is a block diagram showing the configuration of a vehicle surroundings monitoring device for performing overhead view processing. Vehicle surroundings monitoring device 3
Is a camera 2a, 2b installed at the left and right corners of the rear part of the vehicle 1 (see FIG. 12), and an image processing device 4 for bird's-eye view processing of the image input from the camera 2a, 2b and converting it into an output image. , And an image display unit 5 for displaying an output image.

【0005】画像処理装置4は、デコーダ6、7と、画
像変換部8と、画像重畳部9と、ROM10と、エンコ
ーダ11とを有している。カメラ2a、2bにより撮像
された入力画像は、デコーダ6、7によってデコード及
びA/D変換されて画像変換部8に送られる。画像変換
部8は、いわゆるポイント・トゥ・ポイント法によりカ
メラ2a、2bからの入力画像を合成画像へと変換処理
するが、この変換処理の概念を図13ないし図15を用
いて説明する。
The image processing apparatus 4 has decoders 6 and 7, an image conversion section 8, an image superposition section 9, a ROM 10 and an encoder 11. The input images captured by the cameras 2a and 2b are decoded and A / D converted by the decoders 6 and 7 and sent to the image conversion unit 8. The image conversion unit 8 converts the input images from the cameras 2a and 2b into a composite image by the so-called point-to-point method. The concept of this conversion processing will be described with reference to FIGS. 13 to 15.

【0006】図13に示すように、カメラ2a、2bに
より障害物12が撮像された場合には、カメラ2a、2
bの撮像範囲13、14に対応した俯瞰画像15、16
を考えることができる。図14に示すように、合成画像
17は、その俯瞰画像15と俯瞰画像16との重複する
部分のうち俯瞰画像15の領域15aと俯瞰画像16の
領域16aとを削除し、俯瞰画像15の残りの領域15
bと俯瞰画像16の残りの領域16bとを境界線18で
つなぎ合わせることによって生成される。ここで、図1
3において、符号12aはカメラ2aに対応する俯瞰画
像15における障害物12の像を示し、符号12bはカ
メラ2bに対応する俯瞰画像16における障害物12の
像を示している。また、図14において符号12cは、
合成画像17に表れた障害物12の像を示している。
As shown in FIG. 13, when the obstacle 12 is imaged by the cameras 2a, 2b, the cameras 2a, 2b
bird's-eye view images 15 and 16 corresponding to the imaging ranges 13 and 14 of FIG.
Can think of. As shown in FIG. 14, in the combined image 17, the area 15a of the bird's-eye view image 15 and the area 16a of the bird's-eye view image 16 are deleted from the overlapping portion of the bird's-eye view image 15 and the bird's-eye view image 16, and the remaining bird's-eye view image 15 remains. Area 15
It is generated by connecting b and the remaining area 16b of the bird's-eye view image 16 at the boundary line 18. Here, FIG.
3, reference numeral 12a indicates an image of the obstacle 12 in the overhead image 15 corresponding to the camera 2a, and reference numeral 12b indicates an image of the obstacle 12 in the overhead image 16 corresponding to the camera 2b. Further, in FIG. 14, reference numeral 12c indicates
An image of the obstacle 12 appearing in the composite image 17 is shown.

【0007】画像変換部8によって合成画像17への画
像変換が行われた後に、画像重畳部9は、ROM10に
記憶された画像重畳情報に基づいて合成画像17に所定
の画像パターンを重畳させて出力画像を生成する。出力
画像はエンコーダ11においてD/A変換及びエンコー
ドされた後に画像表示部5に表示される。
After the image conversion unit 8 performs image conversion into the composite image 17, the image superimposing unit 9 superimposes a predetermined image pattern on the composite image 17 based on the image superimposing information stored in the ROM 10. Generate an output image. The output image is D / A converted and encoded by the encoder 11 and then displayed on the image display unit 5.

【0008】図15は、画像表示部5に表示された出力
画像を示したものである。この出力画像19には、車両
周囲の俯瞰画像のほか、画像重畳部9により重畳された
車両1の画像パターン(自車画像パターン)1’とつな
ぎ目マスクパターン(つなぎ目画像パターン)20とが
表示されている。つなぎ目マスクパターン20は、領域
15bと領域16bとのつなぎ目(境界線18)を隠す
ために重畳される。
FIG. 15 shows an output image displayed on the image display section 5. In addition to the bird's-eye view image around the vehicle, the output image 19 displays an image pattern (own vehicle image pattern) 1 ′ of the vehicle 1 and a joint mask pattern (joint image pattern) 20 superimposed by the image superimposing unit 9. ing. The joint mask pattern 20 is overlapped so as to hide the joint (boundary line 18) between the region 15b and the region 16b.

【0009】この車両周囲監視装置3では、運転者が出
力画像19を画像表示部5で確認することによって、車
両周囲の状況を容易かつ正確に判断することが可能とな
る。
In this vehicle surrounding monitoring device 3, the driver can easily and accurately determine the situation around the vehicle by checking the output image 19 on the image display unit 5.

【0010】また、上述した車両周囲監視装置とは別
に、車両後方の障害物等の有無判断を支援するシステム
として、例えば車両後方のバンパー部分に超音波センサ
を備え、車両後退時に超音波センサが障害物を検出する
と警告音を発することによって運転者に注意を促す後方
警告装置が存在する。
In addition to the above-mentioned vehicle surroundings monitoring device, as a system for supporting the presence / absence determination of an obstacle behind the vehicle, for example, an ultrasonic sensor is provided in a bumper portion behind the vehicle, and the ultrasonic sensor is provided when the vehicle moves backward. There is a rear warning device that alerts the driver by emitting a warning sound when an obstacle is detected.

【0011】[0011]

【発明が解決しようとする課題】しかしながら、上記車
両周囲監視装置3では、出力画像のつなぎ目マスクパタ
ーン20の部分に死角が生じてしまう。具体的には、図
16(a)、(b)に示すように、車両1の後方に直立
する障害物12が存在し、この障害物12が出力画像1
9のつなぎ目マスクパターン20に対応する撮像領域に
位置する場合には、出力画像19には図17に示すよう
に障害物12の地面近傍部分の像21しか表示されず、
障害物12のより上方の部分は表示されない。このた
め、この領域に障害物12が位置する場合には、運転者
が画像表示部5に表示される出力画像19に基づいて障
害物12を判断することが困難であるという問題があっ
た。
However, in the vehicle surroundings monitoring device 3, a blind spot occurs at the joint mask pattern 20 portion of the output image. Specifically, as shown in FIGS. 16 (a) and 16 (b), there is an obstacle 12 standing upright behind the vehicle 1, and the obstacle 12 is present in the output image 1
When located in the imaging area corresponding to the ninth joint mask pattern 20, only the image 21 of the obstacle 12 near the ground is displayed in the output image 19 as shown in FIG.
The upper part of the obstacle 12 is not displayed. Therefore, when the obstacle 12 is located in this area, it is difficult for the driver to determine the obstacle 12 based on the output image 19 displayed on the image display unit 5.

【0012】また、このような問題を解決する一つの手
段として、カメラ2a、2bからの入力画像を高速演算
して車両上方から斜め方向へ見下ろした仮想視点画像に
変換することにより、人間が上方から斜めに地面を見下
ろした画像に近似した広画角の画像をディスプレイに表
示させる方法が提案されている(特願2000−271
281号等)。
Further, as one means for solving such a problem, a human being looks upward by converting the input images from the cameras 2a and 2b at high speed and converting it into a virtual viewpoint image looking down diagonally from above the vehicle. Has proposed a method of displaying an image with a wide angle of view, which is similar to an image looking down on the ground diagonally on a display (Japanese Patent Application No. 2000-271).
No. 281).

【0013】この処理方法を用いてカメラ2a、2bか
らの入力画像の画像処理を行うと、障害物12を三次元
的に表示させることが可能となるので運転者が障害物1
2を認識し易くなるが、この処理方法を車両周囲監視装
置において実現するためには高速な演算処理装置等が必
要となり、コストの大幅な増加を招くので容易に用いる
ことができないという問題があった。
When the image processing of the input images from the cameras 2a and 2b is performed using this processing method, the obstacle 12 can be displayed three-dimensionally, so that the driver can see the obstacle 1
Although it is easy to recognize No. 2, a high-speed arithmetic processing unit or the like is required to realize this processing method in the vehicle surroundings monitoring apparatus, which causes a significant increase in cost and thus cannot be easily used. It was

【0014】一方、超音波センサを用いた上記後方警告
装置では、障害物の存在を検出することはできるもの
の、自車に対する障害物の位置を運転者が正確に把握す
ることが困難であった。
On the other hand, although the rear warning device using the ultrasonic sensor can detect the existence of the obstacle, it is difficult for the driver to accurately grasp the position of the obstacle with respect to the own vehicle. .

【0015】本発明は、上記の事情に鑑みて為されたも
ので、画像表示手段に表示される出力画像の死角となる
撮像領域に存在する障害物を、簡易かつ正確に運転者に
認識させることができる車両周囲監視装置を提供するこ
とを課題としている。
The present invention has been made in view of the above circumstances, and allows a driver to easily and accurately recognize an obstacle existing in an image pickup area which is a blind spot of an output image displayed on the image display means. It is an object of the present invention to provide a vehicle surroundings monitoring device capable of performing the above.

【0016】[0016]

【課題を解決するための手段】上記課題を解決するため
に、請求項1の発明は、車両周囲の画像を撮像する複数
のカメラと、該複数のカメラにより撮像された入力画像
を合成して出力画像を生成する画像処理手段と、該画像
処理手段により生成された出力画像を表示する画像表示
手段とを備える車両周囲監視装置であって、前記入力画
像の合成時に画像のつなぎ目となり前記出力画像の死角
となる撮像領域に存在する障害物を検出する障害物検出
手段と、該障害物検出手段により障害物が検出された場
合に、運転者に対して警告を行う警告手段とを備えてい
ることを特徴とする。
In order to solve the above-mentioned problems, the invention of claim 1 combines a plurality of cameras for picking up images of the surroundings of a vehicle and input images picked up by the plurality of cameras. What is claimed is: 1. A vehicle surrounding monitoring device comprising: an image processing unit that generates an output image; and an image display unit that displays the output image generated by the image processing unit. The vehicle surroundings monitoring unit serves as a joint between the images when the input images are combined. An obstacle detecting means for detecting an obstacle existing in the imaging area which is a blind spot of the vehicle, and a warning means for giving a warning to the driver when the obstacle is detected by the obstacle detecting means. It is characterized by

【0017】請求項2の発明は、請求項1に記載の車両
周囲監視装置において、前記警告手段が、前記画像表示
手段を用いて視覚的な警告を行うことを特徴とする。
According to a second aspect of the present invention, in the vehicle surroundings monitoring device according to the first aspect, the warning means issues a visual warning using the image display means.

【0018】請求項3の発明は、請求項2に記載の車両
周囲監視装置において、前記画像処理手段が、前記出力
画像上の前記画像のつなぎ目に対応する位置につなぎ目
画像パターンを生成し、前記警告手段が、前記障害物検
出手段により障害物が検出された場合に、前記画像表示
手段に表示される前記つなぎ目画像パターンを点滅させ
ることを特徴とする。
According to a third aspect of the present invention, in the vehicle surrounding monitoring device according to the second aspect, the image processing means generates a joint image pattern at a position corresponding to a joint of the images on the output image, The warning unit blinks the joint image pattern displayed on the image display unit when an obstacle is detected by the obstacle detection unit.

【0019】請求項4の発明は、請求項2に記載の車両
周囲監視装置において、前記障害物検出手段が、前記障
害物を検出したときに該障害物までの離間距離を検出
し、前記警告手段が、前記障害物検出手段により障害物
が検出された場合に、前記画像処理手段に対して前記障
害物検出手段により検出された離間距離に対応させて障
害物の画像パターンを生成させ、該障害物の画像パター
ンを含む出力画像が前記画像表示手段に表示されること
によって、前記視覚的な警告が行われることを特徴とす
る。
According to a fourth aspect of the present invention, in the vehicle surroundings monitoring device according to the second aspect, when the obstacle detecting means detects the obstacle, a distance to the obstacle is detected, and the warning is issued. The means, when an obstacle is detected by the obstacle detecting means, causes the image processing means to generate an image pattern of the obstacle in correspondence with the separation distance detected by the obstacle detecting means, The visual warning is given by displaying an output image including an image pattern of an obstacle on the image display means.

【0020】請求項5の発明は、請求項2に記載の車両
周囲監視装置において、前記画像処理手段が、複数の入
力画像に含まれる同一の撮像領域について、それぞれの
入力画像の画素情報を交互に用いることによって出力画
像を生成する画像処理機能を備え、前記警告手段が、前
記障害物検出手段により障害物が検出された場合に、前
記画像処理手段に対して前記画像処理機能により出力画
像を生成させ、前記画像処理機能により生成された出力
画像が前記画像表示手段に表示されることによって、前
記視覚的な警告が行われることを特徴とする。
According to a fifth aspect of the present invention, in the vehicle surroundings monitoring apparatus according to the second aspect, the image processing means alternates pixel information of each input image for the same image pickup area included in a plurality of input images. An image processing function for generating an output image by using the output image, the warning means outputs an output image to the image processing means by the image processing function when an obstacle is detected by the obstacle detection means. It is characterized in that the visual warning is given by generating the output image and displaying the output image generated by the image processing function on the image display means.

【0021】請求項6の発明は、請求項1ないし請求項
5のいずれか1項に記載の車両周囲監視装置において、
警告音を発生する警告音発生手段を更に備え、前記警告
手段が、前記障害物検出手段により障害物が検出された
場合に、前記警告音発生手段に対して警告音を発生させ
ることによって聴覚的な警告を行うことを特徴とする。
According to a sixth aspect of the present invention, there is provided the vehicle surroundings monitoring device according to any one of the first to fifth aspects,
A warning sound generating unit for generating a warning sound is further provided, and when the warning unit detects an obstacle, the warning unit generates an alarm sound by the warning sound generating unit to generate a warning sound. It is characterized by giving a warning.

【0022】請求項7の発明は、請求項1ないし請求項
6のいずれか1項に記載の車両周囲監視装置において、
前記障害物検出手段が超音波センサであるとともに、そ
の放出する超音波の指向性の中心が前記画像のつなぎ目
となる撮像領域に向くように車両に設置されていること
を特徴とする。
According to a seventh aspect of the invention, there is provided the vehicle surroundings monitoring device according to any one of the first to sixth aspects,
The obstacle detecting means is an ultrasonic sensor, and the obstacle detecting means is installed in the vehicle so that the center of the directivity of the ultrasonic waves emitted from the obstacle sensor faces the imaging region serving as a joint between the images.

【0023】請求項8の発明は、請求項1ないし請求項
6のいずれか1項に記載の車両周囲監視装置において、
前記障害物検出手段が電波レーダーであるとともに、そ
の放出する電波の指向性の中心が前記画像のつなぎ目と
なる撮像領域に向くように車両に設置されていることを
特徴とする。
The invention according to claim 8 is the vehicle surroundings monitoring device according to any one of claims 1 to 6, wherein:
The obstacle detecting means is a radio wave radar, and the obstacle detecting means is installed in the vehicle so that the center of the directivity of the radio wave emitted from the obstacle detection means is directed to the imaging region serving as a joint between the images.

【0024】請求項9の発明は、請求項1ないし請求項
6のいずれか1項に記載の車両周囲監視装置において、
前記障害物検出手段が赤外線センサであるとともに、そ
の放出する赤外線の指向性の中心が前記画像のつなぎ目
となる撮像領域に向くように車両に設置されていること
を特徴とする。
According to a ninth aspect of the present invention, there is provided the vehicle surroundings monitoring device according to any one of the first to sixth aspects,
The obstacle detecting means is an infrared sensor, and the obstacle detecting means is installed in the vehicle so that the center of the directivity of the infrared rays emitted from the obstacle sensor faces the imaging region serving as a joint between the images.

【0025】[0025]

【発明の実施の形態】本発明の実施の形態に係る車両周
囲監視装置を図面に基づいて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION A vehicle surrounding monitoring apparatus according to an embodiment of the present invention will be described with reference to the drawings.

【0026】[実施例1]図1は、実施例1に係る車両
周囲監視装置の構成を示したブロック図である。車両周
囲監視装置25は、車両後部に設置されたカメラ26、
27と、画像表示手段としての画像表示部28と、車両
後方の障害物を検出する超音波センサ29と、警告音発
生手段としての警告音発生装置30と、カメラ26、2
7により撮像された画像を画像処理して画像表示部28
へ出力する画像処理装置31とを備えている。
[Embodiment 1] FIG. 1 is a block diagram showing the configuration of a vehicle surroundings monitoring apparatus according to Embodiment 1. The vehicle surroundings monitoring device 25 includes a camera 26 installed at the rear of the vehicle,
27, an image display unit 28 as an image display unit, an ultrasonic sensor 29 for detecting an obstacle behind the vehicle, a warning sound generation device 30 as a warning sound generation unit, and cameras 26, 2
The image displayed by the image display unit 28
And an image processing device 31 for outputting to.

【0027】カメラ26、27は、図2に示すように、
車両32の後部の左右コーナー部分に設置されている。
The cameras 26 and 27 are, as shown in FIG.
It is installed at the left and right corners of the rear of the vehicle 32.

【0028】超音波センサ29は、カメラ26とカメラ
27との中間点に設けられており、車両32の車幅方向
に対して角度θだけ傾けて設置されている。ここで、角
度θは、超音波センサ29が放出する超音波の指向性の
中心が、入力画像の合成時に画像のつなぎ目となる撮像
領域(後述する出力画像上のつなぎ目マスクパターン付
近に対応する実空間における撮像領域)に向くように設
定されている。また、超音波センサ29は、その角度θ
の方向を中心として、ある程度の広がりを持った範囲2
9aにおける障害物の有無を検出することが可能となっ
ている。
The ultrasonic sensor 29 is provided at an intermediate point between the camera 26 and the camera 27 and is installed at an angle θ with respect to the vehicle width direction of the vehicle 32. Here, in the angle θ, the center of the directivity of the ultrasonic wave emitted by the ultrasonic sensor 29 is an image pickup area where the image is a joint when the input images are combined (corresponding to the vicinity of the joint mask pattern on the output image described later). It is set so as to face the imaging area in space). Further, the ultrasonic sensor 29 has an angle θ.
Range 2 with some extent centered on the direction of
It is possible to detect the presence or absence of an obstacle in 9a.

【0029】画像表示部28は、一般的なディスプレイ
(モニタ)であって、運転者が運転時に視認し易い位
置、具体的にはインストルメントパネル等に設置されて
いる。また、警告音発生装置30も運転者が運転時に警
告音発生の有無を判断し易い位置、例えば、車室内の運
転席まわりに設けられている。
The image display unit 28 is a general display (monitor), and is installed at a position where the driver can easily see it when driving, specifically, an instrument panel or the like. Further, the warning sound generating device 30 is also provided at a position where it is easy for the driver to determine whether or not the warning sound is generated during driving, for example, around the driver's seat in the passenger compartment.

【0030】画像処理装置31は、カメラ26、27か
ら入力されたNTSC信号またはPAL信号をRGB信
号にデコードし、そのRGB信号をA/D変換してデジ
タル信号化するデコーダ33、34と、デコーダ33、
34でデジタル信号化された入力画像に基づいて俯瞰処
理された合成画像を生成する画像変換部35と、超音波
センサ29の検出結果に基づいて警告音発生装置30の
制御等を行う信号処理部36と、重畳処理を行うための
重畳画像パターンを記憶するROM37と、ROM37
に記憶された重畳画像パターンを合成画像に重畳させて
出力画像を生成する画像重畳部38と、出力画像をD/
A変換した後にNTSC信号またはPAL信号へとエン
コードするエンコーダ39とを備えている。この実施の
形態では、その画像変換部35、ROM37及び画像重
畳部38が画像処理手段として機能し、信号処理部36
が警告手段として機能する。
The image processing device 31 decodes NTSC signals or PAL signals input from the cameras 26 and 27 into RGB signals, and A / D converts the RGB signals into digital signals, and decoders 33 and 34. 33,
An image conversion unit 35 that generates a synthetic image that has been subjected to a bird's-eye view process based on the input image that has been digitized by 34, and a signal processing unit that controls the warning sound generation device 30 based on the detection result of the ultrasonic sensor 29. 36, a ROM 37 that stores a superimposed image pattern for performing a superimposing process, and a ROM 37
An image superimposing unit 38 that superimposes the superposed image pattern stored in the composite image on the composite image to generate an output image;
An encoder 39 is provided for performing A-conversion and encoding into an NTSC signal or a PAL signal. In this embodiment, the image conversion unit 35, the ROM 37, and the image superimposing unit 38 function as an image processing unit, and the signal processing unit 36.
Functions as a warning means.

【0031】カメラ26及びカメラ27によって撮像さ
れた入力画像は、デコーダ33、34でデジタルRGB
データに変換されて画像変換部35に送信される。画像
変換部35は、入力画像の画素情報と合成画像の画素情
報との対応関係が記録された変換テーブルを備えてお
り、この変換テーブルに基づいて二つの入力画像から一
つの合成画像を生成する。
The input images picked up by the cameras 26 and 27 are converted into digital RGB images by the decoders 33 and 34.
It is converted into data and transmitted to the image conversion unit 35. The image conversion unit 35 includes a conversion table in which the correspondence relationship between the pixel information of the input image and the pixel information of the combined image is recorded, and one combined image is generated from the two input images based on this conversion table. .

【0032】画像変換部35により生成された合成画像
には、ROM37に記憶された重畳画像パターン(自車
画像パターンやつなぎ目マスクパターン等)が画像重畳
部38によって重畳され、この重畳処理を経て出力画像
が生成される。その後、出力画像は、エンコーダ39を
介して図3に示すように画像表示部28に表示される。
なお、図3において、符号22はその出力画像を、符号
32’は自車画像パターンを、符号40はつなぎ目マス
クパターンを、符号φはつなぎ目マスクパターン40が
自車画像パターン32’の車幅方向に対してなす角度を
示す。
An image superimposing unit 38 superimposes a superimposing image pattern (vehicle image pattern, joint mask pattern, etc.) stored in the ROM 37 on the composite image generated by the image converting unit 35, and outputs it after the superimposing process. An image is generated. After that, the output image is displayed on the image display unit 28 via the encoder 39 as shown in FIG.
In FIG. 3, reference numeral 22 is the output image, reference numeral 32 'is the vehicle image pattern, reference numeral 40 is the joint mask pattern, and reference numeral φ is the joint mask pattern 40 in the vehicle width direction of the vehicle image pattern 32'. Indicates the angle to make.

【0033】画像処理装置31は、上述した変換テーブ
ルに基づくポイント・トゥ・ポイント法による画像変換
処理をリアルタイムで実行する。カメラ26、27によ
る画像のつなぎ目となり出力画像22の死角となる撮像
領域(カメラ26、27の中間位置付近)に障害物が存
在せず、他の撮像領域に障害物が存在する場合には、そ
の障害物は出力画像22に表示されるので、運転者は画
像表示部28を見ているだけで障害物の存在を容易かつ
正確に認識することができる。
The image processing device 31 executes the image conversion processing by the point-to-point method based on the conversion table described above in real time. When there is no obstacle in the image pickup area (near the intermediate position between the cameras 26 and 27) which is a joint between the images by the cameras 26 and 27 and which is the blind spot of the output image 22 and there is an obstacle in another image pickup area, Since the obstacle is displayed in the output image 22, the driver can easily and accurately recognize the existence of the obstacle only by looking at the image display unit 28.

【0034】一方、図4に示すように、その出力画像2
2の死角となる撮像領域に障害物41が存在する場合に
は、超音波センサ29が障害物41を検出する。すなわ
ち、この実施の形態では、超音波センサ29がその放出
する超音波の指向性の中心を上記画像のつなぎ目となる
撮像領域に向けて配置され、超音波センサ29の設置角
度θとつなぎ目マスクパターン40のなす角度φとが同
一であり、これにより超音波センサ29の有効範囲29
aが出力画像22において死角となる範囲をカバーし、
超音波センサ29が死角に位置する障害物を感度良く検
出する。
On the other hand, as shown in FIG. 4, the output image 2
When the obstacle 41 is present in the imaging area having the blind spot of 2, the ultrasonic sensor 29 detects the obstacle 41. That is, in this embodiment, the ultrasonic sensor 29 is arranged so that the center of directivity of the ultrasonic waves emitted from the ultrasonic sensor 29 is directed toward the image pickup region serving as the joint of the images, the installation angle θ of the ultrasonic sensor 29 and the joint mask pattern. Since the angle φ formed by 40 is the same, the effective range 29 of the ultrasonic sensor 29 is
a covers the range where the output image 22 becomes a blind spot,
The ultrasonic sensor 29 detects an obstacle located in the blind spot with high sensitivity.

【0035】障害物41を検出した超音波センサ29
は、障害物を検出した旨の信号を信号処理部36に送信
する。信号処理部36は超音波センサ29からの信号を
受信して警告音発生装置30に警告音を発するように指
示を出すと共に、画像重畳部38に対してつなぎ目マス
クパターン40を点滅させるように指示を出す。警告音
発生装置30は信号処理部36の指示に従って警告音を
発生し、画像重畳部38は信号処理部36の指示に従っ
て異なった色のつなぎ目マスクパターン40を一定時間
毎に交互に重畳することにより、画像表示部28に表示
されるつなぎ目マスクパターン40を点滅させて障害物
41の存在を運転者に認識させる。なお、障害物41の
像は出力画像22において例えば図5に符号41aで示
すように表示されるが、この点については従来技術とし
て既に述べたので説明を省略する。
Ultrasonic sensor 29 that has detected an obstacle 41
Sends a signal indicating that an obstacle is detected to the signal processing unit 36. The signal processing unit 36 receives the signal from the ultrasonic sensor 29 and gives an instruction to the alarm sound generating device 30 to emit an alarm sound, and also instructs the image superimposing unit 38 to blink the joint mask pattern 40. Give out. The warning sound generation device 30 generates a warning sound according to the instruction of the signal processing unit 36, and the image superimposing unit 38 superimposes the joint mask patterns 40 of different colors alternately at regular time intervals according to the instruction of the signal processing unit 36. The joint mask pattern 40 displayed on the image display unit 28 is caused to blink so that the driver can recognize the presence of the obstacle 41. The image of the obstacle 41 is displayed in the output image 22, for example, as indicated by reference numeral 41a in FIG.

【0036】この実施例1に係る車両周囲監視装置で
は、障害物41が出力画像22の死角以外の位置に存在
する場合には、運転者は出力画像22に表示された障害
物を画像表示部28で確認することによって、障害物の
有無及びその位置を容易かつ正確に判断することができ
る。また、障害物41が出力画像22の死角に入ってし
まう場合にも、警告音が発生すると共につなぎ目マスク
パターン40が点滅するので、運転者は車両後方に障害
物が存在することを容易に認識することが可能となる。
In the vehicle surroundings monitoring apparatus according to the first embodiment, when the obstacle 41 exists at a position other than the blind spot of the output image 22, the driver displays the obstacle displayed on the output image 22 in the image display unit. By checking at 28, it is possible to easily and accurately determine the presence or absence and the position of the obstacle. Further, even when the obstacle 41 enters the blind spot of the output image 22, a warning sound is generated and the joint mask pattern 40 blinks, so that the driver easily recognizes that there is an obstacle behind the vehicle. It becomes possible to do.

【0037】また、実施例1に係る車両周囲監視装置
は、高速な演算処理装置を必要としないので、コストの
大幅な増加を回避し簡易に実施することが可能である。
Further, since the vehicle surroundings monitoring apparatus according to the first embodiment does not require a high-speed arithmetic processing unit, it is possible to avoid a large increase in cost and simply implement it.

【0038】なお、実施例1においては、つなぎ目マス
クパターン40が点滅することにより運転者に障害物の
存在を知らせることとしたが、このつなぎ目マスクパタ
ーン40の点滅はモノクロ画像を用いたものであって
も、カラー画像を用いたものであっても良い。
In the first embodiment, the joint mask pattern 40 blinks to notify the driver of the existence of the obstacle. However, the blinking of the joint mask pattern 40 uses a monochrome image. Alternatively, a color image may be used.

【0039】[実施例2]本実施例に係る車両周囲監視
装置は、実施例1に係る車両周囲監視装置と同様な構成
を有するが、画像変換部35が障害物を検出した旨の信
号を信号処理部36から受信した場合に、混合方式を用
いて合成画像を生成する点で実施例1に係る車両周囲監
視装置と相違する。
[Embodiment 2] The vehicle surroundings monitoring apparatus according to the present embodiment has the same configuration as the vehicle surroundings monitoring apparatus according to the first embodiment, but a signal indicating that the image conversion unit 35 has detected an obstacle is transmitted. This is different from the vehicle surroundings monitoring device according to the first embodiment in that when the signal is received from the signal processing unit 36, a composite image is generated using a mixing method.

【0040】ここで、混合方式とは、複数の入力画像に
含まれる同一の撮像領域について、それぞれの入力画像
の画素情報を交互に用いることによって合成画像(ある
いは出力画像)を生成する方法である。具体的には、カ
メラ26、27により図6(a)に示すように障害物4
1が撮像されたとき、カメラ26、27の撮像範囲5
0、51に対応した俯瞰画像52、53には同一の撮像
領域(障害物41が存在する領域)に関する領域52
a、53aがそれぞれ含まれる。そして、その俯瞰画像
52、53を合成する際に、上記同一の撮像領域につい
ては領域52aの画素情報と領域53aの画素情報とを
一定の規則に従って交互に採用し、同図(b)に示すよ
うな合成画像54を生成する。この実施の形態では、合
成画像54の領域54aには俯瞰画像52の領域52b
(俯瞰画像52の領域52aを除いた領域)の画素情報
がそのまま用いられ、合成画像54の領域54bには俯
瞰画像53の領域53b(俯瞰画像53の領域53aを
除いた領域)の画素情報がそのまま用いられる。また、
俯瞰画像54の領域54cには領域52aの画素情報5
2a’と領域53aの画素情報53a’とが一つずつ交
互に用いられ、これにより二重には見えるものの障害物
41の存在を合成画像54上で確認することができる。
Here, the mixing method is a method for generating a composite image (or an output image) by alternately using pixel information of each input image with respect to the same image pickup area included in a plurality of input images. . Specifically, as shown in FIG. 6A, the obstacles 4 are taken by the cameras 26 and 27.
1 is imaged, the imaging range 5 of the cameras 26 and 27
In the bird's-eye view images 52 and 53 corresponding to 0 and 51, an area 52 related to the same imaging area (area in which the obstacle 41 exists)
a and 53a are included. Then, when synthesizing the bird's-eye view images 52 and 53, the pixel information of the region 52a and the pixel information of the region 53a are alternately adopted according to a certain rule for the same imaging region, as shown in FIG. Such a composite image 54 is generated. In this embodiment, the area 54a of the composite image 54 is in the area 52b of the bird's-eye view image 52.
The pixel information of (the area excluding the area 52a of the bird's-eye image 52) is used as it is, and the pixel information of the area 53b of the bird's-eye image 53 (the area of the bird's-eye image 53 excluding the area 53a) is used as the area 54b of the composite image 54. Used as is. Also,
In the area 54c of the overhead image 54, the pixel information 5 of the area 52a is included.
2a 'and the pixel information 53a' of the area 53a are alternately used one by one, whereby it is possible to confirm the presence of the obstacle 41 on the composite image 54 although the obstacle 41 appears double.

【0041】この実施例2に係る車両周囲監視装置で
は、障害物が出力画像の死角以外の撮像領域に存在する
場合には、実施例1と同様に出力画像に障害物の像が表
示されるので、運転者は画像表示部28を見ることによ
り障害物の存在を容易かつ正確に認識することができ
る。
In the vehicle surroundings monitoring apparatus according to the second embodiment, when the obstacle exists in the imaging area other than the blind spot of the output image, the image of the obstacle is displayed on the output image as in the first embodiment. Therefore, the driver can easily and accurately recognize the existence of the obstacle by looking at the image display unit 28.

【0042】一方、障害物が出力画像の死角となる撮像
領域に入ってこれを超音波センサ29が検出すると、超
音波センサ29は信号処理部36に対して障害物が存在
する旨の信号を送信し、信号処理部36は制御信号を画
像変換部35に送信し、画像変換部35は混合方式を用
いて合成画像を生成し、図7に示すような出力画像55
が画像表示部28に表示される。この出力画像55にお
いて、障害物41は像41bとして二重に映り込むこと
になるが、左右のカメラで撮像された障害物が出力画像
に確実に表れるので、運転者は障害物の存在をはっきり
と認識することができると共に、障害物の方向、位置を
把握することができる。この場合、実施例1と同様に警
告音発生装置30によって警告音を発生させ、障害物に
対する注意をより積極的に運転者に促すことも可能であ
る。
On the other hand, when the ultrasonic sensor 29 detects an obstacle when the obstacle enters the image pickup area which is a blind spot of the output image, the ultrasonic sensor 29 sends a signal to the signal processing unit 36 indicating that the obstacle exists. Then, the signal processing unit 36 transmits the control signal to the image conversion unit 35, and the image conversion unit 35 generates a composite image by using the mixing method, and the output image 55 as shown in FIG.
Is displayed on the image display unit 28. In the output image 55, the obstacle 41 is reflected as an image 41b in a double manner, but the obstacles imaged by the left and right cameras are surely shown in the output image, so that the driver can clearly see the existence of the obstacle. Can be recognized and the direction and position of the obstacle can be grasped. In this case, similarly to the first embodiment, it is possible to generate a warning sound by the warning sound generation device 30 to more actively alert the driver to the obstacle.

【0043】[実施例3]本実施例に係る車両周囲監視
装置も、実施例1に係る車両周囲監視装置と同様な構成
を有するが、超音波センサ29が障害物までの離間距離
を検出し、信号処理部36がその離間距離に応じて画像
重畳部38に障害物の位置を示す重畳画像パターンを重
畳させる点で実施例1に係る車両周囲監視装置と相違す
る。
[Embodiment 3] The vehicle surroundings monitoring apparatus according to this embodiment also has the same structure as the vehicle surroundings monitoring apparatus according to the first embodiment, but the ultrasonic sensor 29 detects the distance to the obstacle. The signal processing unit 36 differs from the vehicle surroundings monitoring device according to the first embodiment in that the signal processing unit 36 superimposes a superimposed image pattern indicating the position of an obstacle on the image superimposing unit 38 according to the distance.

【0044】すなわち、この実施例3に係る車両周囲監
視装置では、障害物が出力画像の死角以外の撮像領域に
存在する場合には、実施例1と同様に出力画像に障害物
の像が表示されるので、運転者は画像表示部28を見る
ことにより障害物の存在を容易かつ正確に認識すること
ができる。
That is, in the vehicle surroundings monitoring apparatus according to the third embodiment, when the obstacle exists in the imaging area other than the blind spot of the output image, the image of the obstacle is displayed on the output image as in the first embodiment. Therefore, the driver can easily and accurately recognize the existence of the obstacle by looking at the image display unit 28.

【0045】一方、障害物が出力画像の死角となる撮像
領域に入ってこれを超音波センサ29が検出すると、超
音波センサ29は信号処理部36に対して障害物までの
離間距離情報を障害物が存在する旨の信号として送信
し、信号処理部36は制御信号を画像重畳部38に送信
する。画像重畳部38は障害物までの離間距離に応じ
て、ROM37から重畳画像パターン(障害物の画像パ
ターン)を読み出し合成画像に重畳させる。
On the other hand, when the ultrasonic sensor 29 detects the obstacle entering the image pickup area which is the blind spot of the output image, the ultrasonic sensor 29 causes the signal processing unit 36 to detect the distance information to the obstacle. The signal processing unit 36 transmits the control signal to the image superimposing unit 38 as a signal indicating that an object exists. The image superimposing unit 38 reads the superimposed image pattern (the image pattern of the obstacle) from the ROM 37 and superimposes it on the combined image according to the distance to the obstacle.

【0046】図8(a)は、超音波センサ29(あるい
は車両32)から障害物までの離間距離が離れている場
合に画像表示部28に表示される出力画像を示した図で
あり、図8(b)は、その離間距離が近い場合に画像表
示部28に表示される出力画像を示した図である(各出
力画像には符号56を付す。)。
FIG. 8A is a diagram showing an output image displayed on the image display unit 28 when the distance from the ultrasonic sensor 29 (or the vehicle 32) to the obstacle is large. FIG. 8B is a diagram showing an output image displayed on the image display unit 28 when the separation distance is short (each output image is denoted by reference numeral 56).

【0047】図8(a)及び図8(b)に示すように、
超音波センサ29の測定有効範囲を示す重畳画像パター
ン29bと障害物の存在する範囲(障害物が存在する位
置を含む範囲)を示す重畳画像パターン41cとを、超
音波センサ29によって検出された障害物までの離間距
離に対応させて画像表示部28に表示させることによっ
て、運転者は、障害物の位置を容易に把握することがで
きるだけではなく、測定有効範囲の重畳画像パターン2
9bによって障害物の存在する角度を推認することが可
能となる。
As shown in FIGS. 8 (a) and 8 (b),
Obstacles detected by the ultrasonic sensor 29 are a superposed image pattern 29b indicating the effective measurement range of the ultrasonic sensor 29 and a superposed image pattern 41c indicating a range where the obstacle exists (a range including a position where the obstacle exists). By displaying the image on the image display unit 28 according to the distance to the object, the driver can not only easily grasp the position of the obstacle but also the superimposed image pattern 2 of the effective measurement range.
9b makes it possible to estimate the angle at which the obstacle exists.

【0048】なお、図8(a)及び図8(b)には、重
畳画像パターンとして、超音波センサ29の測定有効範
囲29bと障害物の画像パターン41cとの両方が表示
されているが、超音波センサ29の測定有効範囲29b
は必須のものではなく、障害物の画像パターン41cの
みを重畳させた場合であっても運転者は障害物の存在を
認識することができる。また、運転者に注意を喚起させ
るために障害物の画像パターン41cを点滅させても良
い。
8A and 8B, both the effective measurement range 29b of the ultrasonic sensor 29 and the obstacle image pattern 41c are displayed as the superimposed image pattern. Effective measurement range 29b of the ultrasonic sensor 29
Is not essential, and the driver can recognize the presence of the obstacle even when only the image pattern 41c of the obstacle is superimposed. Further, the image pattern 41c of the obstacle may be blinked in order to call the driver's attention.

【0049】以上、図面を用いて本発明に係る車両周囲
監視装置について説明を行ったが、本発明は実施例1〜
実施例3に記載したものに限定されるものではない。例
えば、実施例1〜実施例3に記載の車両周囲監視装置で
は、カメラを2台用いて説明を行ったが、カメラが3台
以上であってもよい。
The vehicle surroundings monitoring apparatus according to the present invention has been described above with reference to the drawings.
It is not limited to those described in Example 3. For example, in the vehicle surroundings monitoring device described in the first to third embodiments, the description has been given using two cameras, but the number of cameras may be three or more.

【0050】図9は、車両32の後部に3台のカメラ4
3、44、45を備えた車両周囲監視装置を説明するた
めの図である。このような車両周囲監視装置を用いた場
合には、図10に示すように、出力画像においてつなぎ
目マスクパターン40a、40bが重畳される。つなぎ
目マスクパターン40a、40bが車両前後方向に対し
てθ’、φ’の角度で重畳される場合には、2つの超音
波センサ46、47も同様にθ’、φ’の角度で車両3
2に取り付ける必要がある。一般的に、n台のカメラを
用いる場合には、超音波センサを(n−1)個設置する
必要がある。
FIG. 9 shows three cameras 4 at the rear of the vehicle 32.
It is a figure for demonstrating the vehicle surroundings monitoring apparatus provided with 3,44,45. When such a vehicle surrounding monitoring device is used, as shown in FIG. 10, the joint mask patterns 40a and 40b are superimposed on the output image. When the joint mask patterns 40a and 40b are overlapped with each other at the angles of θ ′ and φ ′ with respect to the vehicle front-rear direction, the two ultrasonic sensors 46 and 47 similarly have the vehicle 3 at the angles of θ ′ and φ ′.
Need to be attached to 2. Generally, when n cameras are used, it is necessary to install (n-1) ultrasonic sensors.

【0051】また、実施例1〜実施例3に示した車両周
囲監視装置の画像変換は、全て車両の上方から垂直に真
下を見下ろした視点の画像であったが、必ずしも垂直に
見下ろした出力画像に限定されるものではなく、車両上
方から斜めに見下ろした出力画像であっても良い。
Further, although all the image conversions of the vehicle surroundings monitoring devices shown in the first to third embodiments are images from the viewpoint of vertically looking down directly from above the vehicle, the output images are always vertically down. The output image is not limited to the above, but may be an output image viewed obliquely from above the vehicle.

【0052】さらに、実施例1〜実施例3に記載の車両
周囲監視装置では、超音波センサ29を用いて障害物を
検出したが、障害物を検出することができるものであれ
ば超音波センサだけに限定されるものではなく、電波レ
ーダーや赤外線反射型のセンサ等を用いたものであって
も良い。この際には、電波レーダーが放出する電波の指
向性の中心や赤外線センサが放出する赤外線の指向性の
中心が画像のつなぎ目となる撮像領域を向くように、電
波レーダーや赤外線センサを車両に取り付ける。
Further, in the vehicle surroundings monitoring apparatus described in the first to third embodiments, the ultrasonic sensor 29 is used to detect the obstacle, but if the obstacle can be detected, the ultrasonic sensor is used. The present invention is not limited to this, and may use a radio wave radar, an infrared reflection type sensor, or the like. At this time, the radio wave radar and the infrared sensor are attached to the vehicle so that the center of the directivity of the radio wave emitted by the radio wave radar and the center of the directivity of the infrared ray emitted by the infrared sensor face the imaging region that is the joint of the images. .

【0053】[0053]

【発明の効果】以上説明したように、本発明に係る車両
周囲監視装置によれば、障害物が出力画像の死角となら
ない撮像領域にある場合には、運転者が画像表示手段に
より障害物を容易かつ正確に認識することができ、障害
物が出力画像の死角となる撮像領域に入った場合でも、
画像表示手段に表示される出力画像の重畳画像パターン
が点滅・変更することにより、又は警告音発生手段によ
る警告音が発生することにより、運転者は車両後方に障
害物が存在することを容易に認識することができる。
As described above, according to the vehicle surroundings monitoring apparatus of the present invention, when the obstacle is in the image pickup area where the output image does not become a blind spot, the driver displays the obstacle by the image display means. It can be easily and accurately recognized, and even if an obstacle enters the imaging area, which is a blind spot in the output image,
By blinking / changing the superimposed image pattern of the output image displayed on the image display means, or by generating a warning sound by the warning sound generating means, the driver can easily recognize that there is an obstacle behind the vehicle. Can be recognized.

【0054】また、本発明に係る車両周囲監視装置は高
速な演算処理装置等を用いる必要がないので、コストの
大幅な増加を回避し簡易に実施することができる。
Further, since the vehicle surroundings monitoring apparatus according to the present invention does not require the use of a high-speed arithmetic processing unit or the like, it is possible to avoid the significant increase in cost and simply implement it.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る車両周囲監視装置を示すブロック
図である。
FIG. 1 is a block diagram showing a vehicle surroundings monitoring device according to the present invention.

【図2】実施例1に係る車両周囲監視装置を備えた車両
の後部を示した平面図である。
FIG. 2 is a plan view showing a rear portion of a vehicle including the vehicle surroundings monitoring device according to the first embodiment.

【図3】実施例1に係る車両周囲監視装置の画像表示部
に表示される車両後方に障害物が無いときの出力画像を
示した図である。
FIG. 3 is a diagram showing an output image displayed on the image display unit of the vehicle surroundings monitoring apparatus according to the first embodiment when there is no obstacle behind the vehicle.

【図4】実施例1に係る車両周囲監視装置を備えた車両
の後方に障害物が存在する場合の超音波センサの検出範
囲を示した平面図である。
FIG. 4 is a plan view showing a detection range of an ultrasonic sensor when an obstacle exists behind a vehicle including the vehicle surroundings monitoring device according to the first embodiment.

【図5】実施例1に係る車両周囲監視装置の画像表示部
に表示される車両後方に障害物が存在ときの出力画像を
示した図である。
FIG. 5 is a diagram showing an output image displayed on the image display unit of the vehicle surroundings monitoring apparatus according to the first embodiment when an obstacle exists behind the vehicle.

【図6】実施例2に係る車両周囲監視装置の画像合成方
法を説明するための図であって、(a)は各カメラによ
る俯瞰画像を示し、(b)はこの合成方法により得られ
る合成画像を示したものである。
6A and 6B are views for explaining an image synthesizing method of the vehicle surroundings monitoring apparatus according to the second embodiment, in which FIG. 6A shows a bird's-eye view image by each camera, and FIG. The image is shown.

【図7】実施例2に係る車両周囲監視装置の画像表示部
に表示される車両後方に障害物が存在ときの出力画像を
示した図である。
FIG. 7 is a diagram showing an output image displayed on the image display unit of the vehicle surroundings monitoring apparatus according to the second embodiment when an obstacle exists behind the vehicle.

【図8】実施例3に係る車両周囲監視装置の画像表示部
に表示される出力画像であって、(a)は車両後方から
遠い位置に障害物が存在ときの出力画像を示した図であ
り、(b)は車両後方から近い位置に障害物が存在とき
の出力画像を示した図である。
FIG. 8 is an output image displayed on the image display unit of the vehicle surrounding monitoring apparatus according to the third embodiment, and FIG. 8A is a diagram showing an output image when an obstacle is present at a position far from the rear of the vehicle. Yes, (b) is a diagram showing an output image when an obstacle exists at a position near the rear of the vehicle.

【図9】本発明に係る車両周囲監視装置を備える車両後
部にカメラが3台設置された車両を示した平面図であ
る。
FIG. 9 is a plan view showing a vehicle in which three cameras are installed at a rear portion of the vehicle including the vehicle surrounding monitoring device according to the present invention.

【図10】本発明に係る車両周囲監視装置を備える車両
後部にカメラが3台設置されたときに画像表示部に表示
される出力画像を示した平面図である。
FIG. 10 is a plan view showing an output image displayed on the image display unit when three cameras are installed in the rear portion of the vehicle including the vehicle surroundings monitoring device according to the present invention.

【図11】従来の車両周囲監視装置を備えた車両を示し
た平面図である。
FIG. 11 is a plan view showing a vehicle equipped with a conventional vehicle surroundings monitoring device.

【図12】従来の車両周囲監視装置を示すブロック図で
ある。
FIG. 12 is a block diagram showing a conventional vehicle surroundings monitoring device.

【図13】従来の車両周囲監視装置における画像処理部
の俯瞰処理を説明するための図である。
FIG. 13 is a diagram for explaining an overhead view process of an image processing unit in a conventional vehicle surrounding monitoring device.

【図14】従来の車両周囲監視装置における画像処理部
により作成される出力画像を示した図である。
FIG. 14 is a diagram showing an output image created by an image processing unit in a conventional vehicle surrounding monitoring device.

【図15】従来の車両周囲監視装置の画像表示部に表示
される車両後方に障害物が存在しないときの出力画像を
示した図である。
FIG. 15 is a diagram showing an output image displayed on an image display unit of a conventional vehicle surrounding monitoring device when an obstacle does not exist behind the vehicle.

【図16】従来の車両周囲監視装置を備えた車両の後部
に設置されたカメラ及び超音波センサを示した図であっ
て、(a)は平面図を示し、(b)は車両の側面方向か
ら見た図を示したものである。
16A and 16B are diagrams showing a camera and an ultrasonic sensor installed in the rear portion of a vehicle equipped with a conventional vehicle surrounding monitoring device, wherein FIG. 16A is a plan view and FIG. 16B is a side view of the vehicle. FIG.

【図17】従来の車両周囲監視装置の画像表示部に表示
される車両後方に障害物が存在するときの出力画像を示
した図である。
FIG. 17 is a diagram showing an output image displayed on an image display unit of a conventional vehicle surrounding monitoring device when an obstacle exists behind the vehicle.

【符号の説明】[Explanation of symbols]

25 車両周囲監視装置 26、27 カメラ 28 画像表示部(画像表示手段) 29 超音波センサ 30 警告音発生装置(警告音発生手段) 31 画像処理装置 33、34 デコーダ 35 画像変換部 36 信号処理部(警告手段) 38 画像重畳部 37 ROM 39 エンコーダ 40 つなぎ目マスクパターン(つなぎ目画像パター
ン)
25 Vehicle Surrounding Monitoring Devices 26, 27 Camera 28 Image Display Unit (Image Display Unit) 29 Ultrasonic Sensor 30 Warning Sound Generation Device (Warning Sound Generation Unit) 31 Image Processing Device 33, 34 Decoder 35 Image Conversion Unit 36 Signal Processing Unit ( Warning unit) 38 Image superimposing unit 37 ROM 39 Encoder 40 Joint mask pattern (joint image pattern)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 624 B60R 21/00 624B 624C 624D 624E 626 626B 626G 628 628D G06T 1/00 330 G06T 1/00 330A 3/00 300 3/00 300 (72)発明者 岩野 博隆 東京都文京区白山5丁目35番2号 クラリ オン株式会社内 (72)発明者 佐藤 徳行 東京都文京区白山5丁目35番2号 クラリ オン株式会社内 Fターム(参考) 5B057 AA16 BA02 CA12 CA16 CE08 5C054 AA05 CA04 CC03 CE12 CH01 EA01 FC00 FD03 FF06 HA30─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) B60R 21/00 624 B60R 21/00 624B 624C 624D 624E 626 626B 626G 628 628D G06T 1/00 330 G06T 1/00 330A 3/00 300 3/00 300 (72) Inventor Hirotaka Iwano 5-35-2 Hakusan, Bunkyo-ku, Tokyo Clarion Co., Ltd. (72) Tokuyuki Sato 5-35-2 Shirayama, Bunkyo-ku, Tokyo C term in Clarion Co., Ltd. (reference) 5B057 AA16 BA02 CA12 CA16 CE08 5C054 AA05 CA04 CC03 CE12 CH01 EA01 FC00 FD03 FF06 HA30

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 車両周囲の画像を撮像する複数のカメラ
と、該複数のカメラにより撮像された入力画像を合成し
て出力画像を生成する画像処理手段と、該画像処理手段
により生成された出力画像を表示する画像表示手段とを
備える車両周囲監視装置であって、 前記入力画像の合成時に画像のつなぎ目となり前記出力
画像の死角となる撮像領域に存在する障害物を検出する
障害物検出手段と、 該障害物検出手段により障害物が検出された場合に、運
転者に対して警告を行う警告手段とを備えていることを
特徴とする車両周囲監視装置。
1. A plurality of cameras for picking up images of the surroundings of a vehicle, an image processing unit for combining input images picked up by the plurality of cameras to generate an output image, and an output generated by the image processing unit. A vehicle surroundings monitoring device comprising an image display means for displaying an image, wherein an obstacle detection means for detecting an obstacle existing in an imaging region which is a joint between the images when the input images are combined and which is a blind spot of the output image, A vehicle surroundings monitoring device comprising: a warning unit that warns a driver when an obstacle is detected by the obstacle detection unit.
【請求項2】 前記警告手段は、前記画像表示手段を用
いて視覚的な警告を行うことを特徴とする請求項1に記
載の車両周囲監視装置。
2. The vehicle surroundings monitoring device according to claim 1, wherein the warning means issues a visual warning using the image display means.
【請求項3】 前記画像処理手段は、前記出力画像上の
前記画像のつなぎ目に対応する位置につなぎ目画像パタ
ーンを生成し、 前記警告手段は、前記障害物検出手段により障害物が検
出された場合に、前記画像表示手段に表示される前記つ
なぎ目画像パターンを点滅させることを特徴とする請求
項2に記載の車両周囲監視装置。
3. The image processing means generates a seam image pattern at a position corresponding to a seam of the images on the output image, and the warning means when the obstacle is detected by the obstacle detecting means. The vehicle surroundings monitoring device according to claim 2, wherein the joint image pattern displayed on the image display means is blinked.
【請求項4】 前記障害物検出手段は、前記障害物を検
出したときに該障害物までの離間距離を検出し、 前記警告手段は、前記障害物検出手段により障害物が検
出された場合に、前記画像処理手段に対して前記障害物
検出手段により検出された離間距離に対応させて障害物
の画像パターンを生成させ、 該障害物の画像パターンを含む出力画像が前記画像表示
手段に表示されることによって、前記視覚的な警告が行
われることを特徴とする請求項2に記載の車両周囲監視
装置。
4. The obstacle detecting means detects a distance to the obstacle when the obstacle is detected, and the warning means detects when the obstacle is detected by the obstacle detecting means. An image pattern of the obstacle is generated by the image processing means in correspondence with the distance detected by the obstacle detection means, and an output image including the image pattern of the obstacle is displayed on the image display means. The vehicle surroundings monitoring device according to claim 2, wherein the visual warning is given by the above.
【請求項5】 前記画像処理手段は、複数の入力画像に
含まれる同一の撮像領域について、それぞれの入力画像
の画素情報を交互に用いることによって出力画像を生成
する画像処理機能を備え、 前記警告手段は、前記障害物検出手段により障害物が検
出された場合に、前記画像処理手段に対して前記画像処
理機能により出力画像を生成させ、 前記画像処理機能により生成された出力画像が前記画像
表示手段に表示されることによって、前記視覚的な警告
が行われることを特徴とする請求項2に記載の車両周囲
監視装置。
5. The image processing means has an image processing function of generating an output image by alternately using pixel information of each input image with respect to the same imaging region included in a plurality of input images, The means causes the image processing means to generate an output image by the image processing function when an obstacle is detected by the obstacle detection means, and the output image generated by the image processing function is displayed on the image display. The vehicle surroundings monitoring device according to claim 2, wherein the visual warning is given by being displayed on a means.
【請求項6】 警告音を発生する警告音発生手段を更に
備え、 前記警告手段は、前記障害物検出手段により障害物が検
出された場合に、前記警告音発生手段に対して警告音を
発生させることによって聴覚的な警告を行うことを特徴
とする請求項1ないし請求項5のいずれか1項に記載の
車両周囲監視装置。
6. A warning sound generating means for generating a warning sound is further provided, wherein the warning means generates a warning sound for the warning sound generating means when an obstacle is detected by the obstacle detecting means. The vehicle surroundings monitoring device according to any one of claims 1 to 5, wherein an audible warning is given by the operation.
【請求項7】 前記障害物検出手段が超音波センサであ
るとともに、その放出する超音波の指向性の中心が前記
画像のつなぎ目となる撮像領域に向くように車両に設置
されていることを特徴とする請求項1ないし請求項6の
いずれか1項に記載の車両周囲監視装置。
7. The obstacle detecting means is an ultrasonic sensor, and is installed in the vehicle such that the center of directivity of the ultrasonic waves emitted from the obstacle sensor is directed to an imaging region serving as a joint between the images. The vehicle surrounding monitoring device according to any one of claims 1 to 6.
【請求項8】 前記障害物検出手段が電波レーダーであ
るとともに、その放出する電波の指向性の中心が前記画
像のつなぎ目となる撮像領域に向くように車両に設置さ
れていることを特徴とする請求項1ないし請求項6のい
ずれか1項に記載の車両周囲監視装置。
8. The obstacle detecting means is a radio wave radar, and is installed in the vehicle so that the center of directivity of the radio waves emitted from the obstacle detection means is directed to an image pickup area serving as a joint between the images. The vehicle surroundings monitoring device according to any one of claims 1 to 6.
【請求項9】 前記障害物検出手段が赤外線センサであ
るとともに、その放出する赤外線の指向性の中心が前記
画像のつなぎ目となる撮像領域に向くように車両に設置
されていることを特徴とする請求項1ないし請求項6の
いずれか1項に記載の車両周囲監視装置。
9. The obstacle detection means is an infrared sensor, and the obstacle detection means is installed in the vehicle so that the center of directivity of the infrared rays emitted from the obstacle sensor faces an imaging region serving as a joint between the images. The vehicle surroundings monitoring device according to any one of claims 1 to 6.
JP2001364985A 2001-11-29 2001-11-29 Vehicle perimeter monitoring device Expired - Lifetime JP3819284B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001364985A JP3819284B2 (en) 2001-11-29 2001-11-29 Vehicle perimeter monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001364985A JP3819284B2 (en) 2001-11-29 2001-11-29 Vehicle perimeter monitoring device

Publications (2)

Publication Number Publication Date
JP2003169323A true JP2003169323A (en) 2003-06-13
JP3819284B2 JP3819284B2 (en) 2006-09-06

Family

ID=19175087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001364985A Expired - Lifetime JP3819284B2 (en) 2001-11-29 2001-11-29 Vehicle perimeter monitoring device

Country Status (1)

Country Link
JP (1) JP3819284B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215879A (en) * 2004-01-28 2005-08-11 Mazda Motor Corp Image display device for vehicle, image display method for vehicle, and image display program for vehicle
JP2006027556A (en) * 2004-07-21 2006-02-02 Nissan Motor Co Ltd Periphery monitor for vehicle
JP2006131166A (en) * 2004-11-09 2006-05-25 Alpine Electronics Inc Drive supporting device
JP2006253872A (en) * 2005-03-09 2006-09-21 Toshiba Corp Apparatus and method for displaying vehicle perimeter image
JP2007027948A (en) * 2005-07-13 2007-02-01 Nissan Motor Co Ltd Apparatus and method for monitoring vehicle periphery
JP2007041791A (en) * 2005-08-02 2007-02-15 Nissan Motor Co Ltd Bird's-eye image display system and bird's-eye image display method
JP2007038749A (en) * 2005-08-01 2007-02-15 Nissan Motor Co Ltd Vehicle periphery monitoring device and vehicle periphery monitoring method
JP2007048071A (en) * 2005-08-10 2007-02-22 Nissan Motor Co Ltd Image processor and image processing method
JP2007109166A (en) * 2005-10-17 2007-04-26 Sanyo Electric Co Ltd Driving assistance system
WO2007129582A1 (en) 2006-05-09 2007-11-15 Nissan Motor Co., Ltd. Vehicle circumferential image providing device and vehicle circumferential image providing method
EP1876813A2 (en) * 2006-07-06 2008-01-09 Nissan Motor Co., Ltd. Vehicle image display system and image display method
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
JP2009265783A (en) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd Driving supporting system and vehicle
US7684593B2 (en) 2004-10-25 2010-03-23 Nissan Motor Co., Ltd. Driving support system and method of producing overhead view image
WO2010070920A1 (en) * 2008-12-19 2010-06-24 パナソニック株式会社 Device for generating image of surroundings of vehicle
JP4760831B2 (en) * 2005-08-02 2011-08-31 日産自動車株式会社 Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
US8155385B2 (en) 2007-10-15 2012-04-10 Alpine Electronics, Inc. Image-processing system and image-processing method
WO2013015130A1 (en) 2011-07-26 2013-01-31 アイシン精機株式会社 Vehicle surroundings monitoring system
WO2013031161A1 (en) * 2011-08-26 2013-03-07 パナソニック株式会社 Driving assistance apparatus
JP2013515244A (en) * 2010-03-02 2013-05-02 エンパイア テクノロジー ディベロップメント エルエルシー Object tracking in augmented reality
WO2015006935A1 (en) * 2013-07-17 2015-01-22 Harman International Industries, Incorporated Textureless wall detection
FR3067999A1 (en) * 2017-06-23 2018-12-28 Renault S.A.S. METHOD FOR AIDING THE DRIVING OF A MOTOR VEHICLE
JP2021136020A (en) * 2020-02-26 2021-09-13 本田技研工業株式会社 System and method for identifying dangerous object using causal inference
WO2023037936A1 (en) * 2021-09-08 2023-03-16 株式会社タダノ Work vehicle
US11926263B2 (en) 2019-04-18 2024-03-12 Mitsubishi Electric Corporation Vehicle surrounding area image generation device, vehicle surrounding area display system, and vehicle surrounding area display method

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215879A (en) * 2004-01-28 2005-08-11 Mazda Motor Corp Image display device for vehicle, image display method for vehicle, and image display program for vehicle
JP2006027556A (en) * 2004-07-21 2006-02-02 Nissan Motor Co Ltd Periphery monitor for vehicle
JP4590962B2 (en) * 2004-07-21 2010-12-01 日産自動車株式会社 Vehicle periphery monitoring device
US7684593B2 (en) 2004-10-25 2010-03-23 Nissan Motor Co., Ltd. Driving support system and method of producing overhead view image
JP2006131166A (en) * 2004-11-09 2006-05-25 Alpine Electronics Inc Drive supporting device
JP4573242B2 (en) * 2004-11-09 2010-11-04 アルパイン株式会社 Driving assistance device
JP2006253872A (en) * 2005-03-09 2006-09-21 Toshiba Corp Apparatus and method for displaying vehicle perimeter image
JP2007027948A (en) * 2005-07-13 2007-02-01 Nissan Motor Co Ltd Apparatus and method for monitoring vehicle periphery
JP2007038749A (en) * 2005-08-01 2007-02-15 Nissan Motor Co Ltd Vehicle periphery monitoring device and vehicle periphery monitoring method
JP4725233B2 (en) * 2005-08-02 2011-07-13 日産自動車株式会社 Overhead image display system
US8885045B2 (en) 2005-08-02 2014-11-11 Nissan Motor Co., Ltd. Device and method for monitoring vehicle surroundings
JP2007041791A (en) * 2005-08-02 2007-02-15 Nissan Motor Co Ltd Bird's-eye image display system and bird's-eye image display method
JP4760831B2 (en) * 2005-08-02 2011-08-31 日産自動車株式会社 Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
JP4736611B2 (en) * 2005-08-10 2011-07-27 日産自動車株式会社 Image processing apparatus and image processing method
JP2007048071A (en) * 2005-08-10 2007-02-22 Nissan Motor Co Ltd Image processor and image processing method
JP2007109166A (en) * 2005-10-17 2007-04-26 Sanyo Electric Co Ltd Driving assistance system
US8243994B2 (en) 2006-05-09 2012-08-14 Nissan Motor Co., Ltd. Vehicle circumferential image providing device and vehicle circumferential image providing method
WO2007129582A1 (en) 2006-05-09 2007-11-15 Nissan Motor Co., Ltd. Vehicle circumferential image providing device and vehicle circumferential image providing method
EP1876813A3 (en) * 2006-07-06 2015-04-29 Nissan Motor Co., Ltd. Vehicle image display system and image display method
EP1876813A2 (en) * 2006-07-06 2008-01-09 Nissan Motor Co., Ltd. Vehicle image display system and image display method
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
US8155385B2 (en) 2007-10-15 2012-04-10 Alpine Electronics, Inc. Image-processing system and image-processing method
US20120154592A1 (en) * 2007-10-15 2012-06-21 Alpine Electronics, Inc. Image-Processing System and Image-Processing Method
US9098928B2 (en) 2007-10-15 2015-08-04 Alpine Electronics, Inc. Image-processing system and image-processing method
JP2009265783A (en) * 2008-04-23 2009-11-12 Sanyo Electric Co Ltd Driving supporting system and vehicle
WO2010070920A1 (en) * 2008-12-19 2010-06-24 パナソニック株式会社 Device for generating image of surroundings of vehicle
JP2013515244A (en) * 2010-03-02 2013-05-02 エンパイア テクノロジー ディベロップメント エルエルシー Object tracking in augmented reality
WO2013015130A1 (en) 2011-07-26 2013-01-31 アイシン精機株式会社 Vehicle surroundings monitoring system
JP2013030833A (en) * 2011-07-26 2013-02-07 Aisin Seiki Co Ltd Vehicle periphery monitoring system
US9050931B2 (en) 2011-07-26 2015-06-09 Aisin Seiki Kabushiki Kaisha Vehicle periphery monitoring system
JPWO2013031161A1 (en) * 2011-08-26 2015-03-23 パナソニックIpマネジメント株式会社 Driving assistance device
WO2013031161A1 (en) * 2011-08-26 2013-03-07 パナソニック株式会社 Driving assistance apparatus
US10235575B2 (en) 2011-08-26 2019-03-19 Panasonic Intellectual Property Management Co., Ltd. Driving assistance apparatus
US10970562B2 (en) 2011-08-26 2021-04-06 Panasonic Intellectual Property Management Co., Ltd. Display apparatus
US11657618B2 (en) 2011-08-26 2023-05-23 Panasonic Intellectual Property Management Co., Ltd. Display apparatus
WO2015006935A1 (en) * 2013-07-17 2015-01-22 Harman International Industries, Incorporated Textureless wall detection
FR3067999A1 (en) * 2017-06-23 2018-12-28 Renault S.A.S. METHOD FOR AIDING THE DRIVING OF A MOTOR VEHICLE
US11926263B2 (en) 2019-04-18 2024-03-12 Mitsubishi Electric Corporation Vehicle surrounding area image generation device, vehicle surrounding area display system, and vehicle surrounding area display method
JP2021136020A (en) * 2020-02-26 2021-09-13 本田技研工業株式会社 System and method for identifying dangerous object using causal inference
JP7042937B2 (en) 2020-02-26 2022-03-28 本田技研工業株式会社 System and method for identifying dangerous objects using causal inference
WO2023037936A1 (en) * 2021-09-08 2023-03-16 株式会社タダノ Work vehicle

Also Published As

Publication number Publication date
JP3819284B2 (en) 2006-09-06

Similar Documents

Publication Publication Date Title
JP2003169323A (en) Vehicle periphery-monitoring apparatus
JP4846426B2 (en) Vehicle perimeter monitoring device
JP4760831B2 (en) Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
JP5529943B2 (en) Work vehicle periphery monitoring system and work vehicle
JP5550695B2 (en) Work vehicle periphery monitoring system and work vehicle
JP3894322B2 (en) Vehicle visibility monitoring system
JP2002335524A (en) Driving support device
JP2010183170A (en) Display apparatus for vehicle
JP2009296038A (en) Periphery recognition assisting system
JP5708669B2 (en) Vehicle display device
JP5926315B2 (en) Work vehicle periphery monitoring system and work vehicle
GB2463544A (en) Vehicle reversing collision avoidance system
JP2005012465A (en) Peripheral displaying device for vehicle
JPH0717328A (en) Circumference recognition auxiliary device for vehicle
JP7121120B2 (en) vehicle controller
JPH11321494A (en) Rear side watching device
JP5196920B2 (en) Vehicle intrusion warning device
JP2010124300A (en) Image processing apparatus and rear view camera system employing the same
JP2008275380A (en) Vehicle periphery monitoring device
JP3988551B2 (en) Vehicle perimeter monitoring device
JP3655119B2 (en) Status information providing apparatus and method
JP2011211432A (en) In-vehicle imaging apparatus
JP3159466U (en) Wisdom type alarm system combining bird&#39;s-eye view and back radar
JP5691339B2 (en) Driving assistance device
JP2002036954A (en) Vehicle surroundings monitor and vehicle surroundings monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3819284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130623

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term