JP4731392B2 - In-vehicle peripheral status presentation device - Google Patents

In-vehicle peripheral status presentation device Download PDF

Info

Publication number
JP4731392B2
JP4731392B2 JP2006121948A JP2006121948A JP4731392B2 JP 4731392 B2 JP4731392 B2 JP 4731392B2 JP 2006121948 A JP2006121948 A JP 2006121948A JP 2006121948 A JP2006121948 A JP 2006121948A JP 4731392 B2 JP4731392 B2 JP 4731392B2
Authority
JP
Japan
Prior art keywords
area
camera
vehicle
image
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006121948A
Other languages
Japanese (ja)
Other versions
JP2007295357A (en
Inventor
謙二郎 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2006121948A priority Critical patent/JP4731392B2/en
Publication of JP2007295357A publication Critical patent/JP2007295357A/en
Application granted granted Critical
Publication of JP4731392B2 publication Critical patent/JP4731392B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、自動車に搭載される、自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置に関するものである。   The present invention relates to an in-vehicle peripheral situation presentation device that is installed in a car and presents a situation around the automobile to a user.

自動車に搭載される、自動車周辺の状況をユーザに対して提示する技術としては、自動車後部より後方を撮影するカメラと、自動車左側部より後方を撮影するカメラと、自動車右側部より後方を撮影するカメラとの三台のカメラによって、自動車の後方を撮影すると共に、三台のカメラで撮影した画像を合成して表示する技術が知られている(たとえば、特許文献1)。   As a technology for presenting the situation around the vehicle mounted on the vehicle to the user, a camera that captures the rear from the rear of the vehicle, a camera that captures the rear from the left side of the vehicle, and the rear from the right side of the vehicle There is known a technique for photographing the back of an automobile with three cameras and cameras and displaying the images photographed by the three cameras in combination (for example, Patent Document 1).

また、自動車前方をカメラで撮影した画像に対して画像認識処理を施して自動車前方の他車を識別し、識別した他車の情報を提示する技術も知られている(たとえば、特許文献2)。
特開2003-81014号公報 特表2005-509984
In addition, a technique for performing image recognition processing on an image obtained by photographing the front of the automobile with a camera to identify the other vehicle in front of the automobile and presenting information on the identified other vehicle is also known (for example, Patent Document 2). .
JP 2003-81014 A Special table 2005-509984

カメラで自動車周辺を撮影する場合、他車の陰となるためにカメラによって状況を撮影できなくなる範囲(死角)が発生することが避けられない。一方で、このような死角の大きさは、前記特許文献1の技術のように、異なる方向から同じ領域を撮影する複数のカメラを設ければ縮小することができる。   When photographing the periphery of a car with a camera, it is inevitable that there will be a range (a blind spot) where the camera cannot shoot the situation because it is behind another car. On the other hand, the size of such a blind spot can be reduced by providing a plurality of cameras that photograph the same region from different directions as in the technique of Patent Document 1.

しかし、カメラで撮影した画像を表示することにより自車周辺の状況を提示する場合において、複数台のカメラで撮影した画像を常時表示することは、死角が発生していない場合には、同じ内容の画像を重複して表示することになるため、表示領域の有効利用などの観点から観て効率的ではない。また、カメラで撮影した画像に対して画像認識処理を施して識別した他車等の情報を提示することにより自車周辺の状況を提示する場合において、複数台のカメラで撮影した画像の全てに対して画像認識処理を常時施すことは、死角が発生していない場合には同じ内容の画像に対して画像認識処理を行うことになるため、画像認識処理の効率性に欠ける。   However, when presenting the situation around the vehicle by displaying images taken with the camera, displaying images taken with multiple cameras at all times is the same if no blind spots have occurred. This is not efficient from the viewpoint of effective use of the display area. In addition, when presenting the situation around the vehicle by presenting information such as other vehicles identified by performing image recognition processing on the image captured by the camera, all images captured by a plurality of cameras are displayed. On the other hand, when the image recognition process is always performed, the image recognition process is performed on an image having the same content when no blind spot is generated, and thus the efficiency of the image recognition process is lacking.

そこで、本発明は、複数のカメラを用いて、死角の発生を抑制しつつ、より効率的に自車周辺の状況を提示することを課題とする。   Therefore, an object of the present invention is to present a situation around the host vehicle more efficiently using a plurality of cameras while suppressing the generation of blind spots.

前記課題達成のために、本発明は、自動車に搭載され、前記自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置に、自車周辺の第1の撮影領域を撮影する第1のカメラと、前記第1のカメラと異なる方向から、前記第1の撮影領域の少なくとも一部を含む領域である第2の撮影領域を撮影する第2のカメラと、前記第1のカメラが撮影した画像によって表される、前記第1の撮影領域の状況をユーザに提示する状況情報提示手段と、前記第1の撮影領域内の他の物体の陰となるために第1のカメラによって撮影できなくなっている領域である死角領域を算定する死角領域算定手段とを備え、前記状況情報提示手段において、前記死角領域算定手段が算定した死角領域と前記第2の撮影領域とが重複する領域が発生した場合に、前記第2のカメラが撮影した画像によって表される、当該重複する領域の状況の提示を行うようにしたものである。   In order to achieve the above object, the present invention provides a first on-vehicle peripheral situation presentation device that is mounted on an automobile and presents the situation around the automobile to a user. Photographed by the first camera, a second camera that photographs a second photographing area that is an area including at least a part of the first photographing area, from a different direction from the first camera. The situation information presenting means for presenting the situation of the first imaging area, which is represented by an image, to the user and other objects in the first imaging area are behind the other cameras, and cannot be taken by the first camera. A blind spot area calculating means for calculating a blind spot area, which is an area where the blind spot area calculated by the blind spot area calculating means is overlapped with the second imaging area. In case, Serial second camera is represented by the photographed image, in which to perform the presentation of the status of the overlap region.

このような車載周辺状況提示装置によれば、第1のカメラに死角が生じた場合にのみ、第1のカメラが撮影した画像を、第2のカメラで撮影した画像で補完して、第1の撮影領域の周辺状況の提示を行う。したがって、第1の撮影領域の状況を、死角の発生を抑制しつつ、常時第1のカメラが撮影した画像と第2のカメラが撮影した画像を用いて状況の提示を行う場合に比べ、効率的に提示することができるようになる。   According to such an in-vehicle peripheral situation presentation device, only when a blind spot occurs in the first camera, the image captured by the first camera is complemented with the image captured by the second camera, and the first camera Present the surrounding situation of the shooting area. Therefore, the situation of the first imaging region is more efficient than the case where the situation is presented using the image always captured by the first camera and the image captured by the second camera while suppressing the occurrence of blind spots. Can be presented.

ここで、このような車載周辺状況提示装置は、前記第1のカメラは自動車後部より自動車後方を撮影し、前記第2のカメラは自動車側部より自動車後方を含む方向を撮影するものとしてもよい。また、この場合には、車載周辺状況提示装置に、前記第1の撮影領域の少なくとも一部を含む領域である第3の撮影領域を撮影する第3のカメラを設け、前記第2のカメラは自動車左側部より自動車後方を含む方向を撮影するものとし、前記第3のカメラは自動車右側部より自動車後方を含む方向を撮影するものとすると共に、前記状況情報提示手段において、前記死角領域算定手段が算定した死角領域と前記第3の撮影領域とが重複する領域が発生した場合に、前記第3のカメラが撮影した画像によって表される、当該重複する領域の状況の提示を行うようにしてもよい。   Here, in such an in-vehicle surrounding state presentation device, the first camera may take an image of the rear of the vehicle from the rear of the vehicle, and the second camera may take an image of the direction including the rear of the vehicle from the side of the vehicle. . In this case, the on-vehicle peripheral situation presentation device is provided with a third camera that captures a third imaging area that is an area including at least a part of the first imaging area, and the second camera The direction including the rear of the automobile is taken from the left side of the automobile, the third camera is taken of the direction including the rear of the automobile from the right side of the automobile, and the blind spot area calculating means in the situation information presenting means When an area where the blind spot area calculated by the above and the third imaging area overlap is generated, the situation of the overlapping area represented by the image captured by the third camera is presented. Also good.

これらのようにすることにより、自動車の後方の状況を、死角の発生を抑制しつつ、効率的に提示することができるようになる。
なお、以上のような各車載周辺状況提示装置において、記死角領域算定手段は、前記第1の撮影領域内の他の物体の陰となるために第1のカメラによって撮影できなくなっている領域が所定レベル以上の広がりを持つ場合のみ、当該領域を前記死角領域として算定するようにしてもよい。
By doing in this way, the situation behind the automobile can be efficiently presented while suppressing the occurrence of blind spots.
In each of the on-vehicle surrounding state presentation devices as described above, the blind spot area calculation means includes an area that cannot be captured by the first camera because it is behind other objects in the first imaging area. The area may be calculated as the blind spot area only when it has a spread of a predetermined level or more.

このようにすることにより、第1のカメラによって撮影できなくなっている領域がが実用上問題となるほどの広がりを持つ場合以外は、第1のカメラが撮影した画像のみを用いて状況の提示を行うことができ、この結果、自動車周辺の状況を提示するための処理をより効率的に行えるようになる。   By doing this, the situation is presented using only the image photographed by the first camera, except when the area that cannot be photographed by the first camera has a practical extent. As a result, the process for presenting the situation around the vehicle can be performed more efficiently.

以上のように、本発明によれば、複数のカメラを用いて、死角の発生を抑制しつつ、効率的に自車周辺の状況を提示することができる。   As described above, according to the present invention, it is possible to efficiently present a situation around the own vehicle while suppressing the generation of blind spots using a plurality of cameras.

以下、本発明の実施形態について説明する。
図1aに、本実施形態に係る周辺状況提示装置の構成を示す。
本周辺状況提示装置は自動車に搭載される装置であり、図示するように、レーダ装置1、後方カメラ2、左後方カメラ3、右後方カメラ4、後方画像抽出部5、周辺状況提示部6、表示装置7、音声出力装置8とを備えている。
ここで、図1bに示すように、レーダ装置1と後方カメラ2は自動車の後部に設置される。そして、レーダ装置1は自車の後方に存在する物体を検出し、検出した物体までの相対位置などを計測する。また、後方カメラ2は自車の後方を撮影する。次に、左後方カメラ3は、たとえば、自動車の左サイドミラーに設置され、自動車の左方から後方を撮影する。また、右後方カメラ4は、たとえば、自動車の右サイドミラーに設置され、自動車の右方から後方を撮影する。
Hereinafter, embodiments of the present invention will be described.
FIG. 1 a shows the configuration of the surrounding situation presentation device according to the present embodiment.
This peripheral situation presentation device is a device mounted on an automobile, and as shown in the figure, a radar device 1, a rear camera 2, a left rear camera 3, a right rear camera 4, a rear image extraction unit 5, a peripheral situation presentation unit 6, A display device 7 and an audio output device 8 are provided.
Here, as shown in FIG. 1b, the radar apparatus 1 and the rear camera 2 are installed in the rear part of the automobile. The radar apparatus 1 detects an object existing behind the host vehicle, and measures a relative position to the detected object. The rear camera 2 captures the back of the vehicle. Next, the left rear camera 3 is installed, for example, on the left side mirror of the automobile, and images the rear from the left side of the automobile. Further, the right rear camera 4 is installed, for example, on a right side mirror of an automobile and photographs the rear from the right side of the automobile.

次に、後方画像抽出部5は、以下に示す後方画像抽出処理を行う。
図2に、この後方画像抽出処理の手順を示す。
図示するように、この処理では、まず、自車の後方に、自車の前後方向についての自車からの距離が、所定距離ThL内となる他車等の物体が存在するかどうかを判定する(ステップ202)。この判定は、レーダ装置1が、自車の後方に、自車の前後方向についての相対距離が所定距離ThL内となる相対位置を持つ物体を検出している場合に、そのような物体が存在すると判定することにより行う。ただし、この判定は、後方カメラ2で撮影した自車後方の画像に対して画像認識処理を施して、自車後方の物体を検出すると共に、当該物体が写りこんでいる画像中の位置や、当該物体が写りこんでいる画像中のサイズに応じて、当該物体の自車に対する相対位置を求め、求めた相対位置より求まる自車の前後方向についての相対距離が所定距離ThL内であれば、そのような物体が存在すると判定することにより行うようにしてもよい。
Next, the rear image extraction unit 5 performs the rear image extraction process shown below.
FIG. 2 shows the procedure of the rear image extraction process.
As shown in the figure, in this process, first, it is determined whether or not there is an object such as another vehicle that has a distance from the vehicle in the front-rear direction of the vehicle within a predetermined distance ThL behind the vehicle. (Step 202). This determination is made when the radar apparatus 1 detects an object behind the host vehicle having a relative position in which the relative distance in the front-rear direction of the host vehicle is within the predetermined distance ThL. Then, it is performed by determining. However, this determination is performed by performing an image recognition process on the image behind the host vehicle captured by the rear camera 2 to detect an object behind the host vehicle, and the position in the image where the object is reflected, According to the size of the image in which the object is reflected, the relative position of the object with respect to the own vehicle is obtained, and if the relative distance in the front-rear direction of the own vehicle obtained from the obtained relative position is within the predetermined distance ThL, It may be performed by determining that such an object exists.

そして、自車の後方に、自車からの自車の前後方向についての距離が、所定距離ThL内となる他車等の物体が存在しないと判定された場合には、後方カメラ2が撮影した画像を、後方カメラ2の撮影領域の全領域について有効な後方画像として抽出し、周辺状況提示部6に出力し(ステップ208)、ステップ202からの処理に戻る。ここで、後方カメラ2の撮影領域とは、自車後方の、後方カメラ2が向いている方向(通常は後方カメラ2の対物レンズの光軸方向)と後方カメラ2の画角より定まる、自車後方が水平な地面のみである場合に後方カメラ2によって撮影される範囲内の領域を言う。   Then, when it is determined that there is no object such as another vehicle in which the distance in the front-rear direction of the own vehicle from the own vehicle is within the predetermined distance ThL behind the own vehicle, the rear camera 2 takes an image. The image is extracted as an effective rear image for the entire shooting area of the rear camera 2 and is output to the surrounding state presentation unit 6 (step 208), and the process returns to step 202. Here, the imaging area of the rear camera 2 is determined by the direction of the rear camera 2 facing the rear camera 2 (usually the optical axis direction of the objective lens of the rear camera 2) and the angle of view of the rear camera 2. An area within a range photographed by the rear camera 2 when the rear of the vehicle is only the horizontal ground.

一方、自車の後方に、自車からの自車の前後方向についての距離が、所定距離ThL内となる他車等の物体が存在する場合(ステップ202)には、当該物体を後方隠蔽物体として、水平方向について当該後方隠蔽物体が後方カメラ2の画角中で占める角度範囲を死角角度範囲として算出する(ステップ204)。ここで、死角角度範囲は、たとえば、後方カメラ画像の撮影した画像中の後方隠蔽物体の映像の大きさを、先に求めた当該後方隠蔽物体の相対位置などを利用しつつ画像認識処理により求め、後方隠蔽物体の映像の水平方向の大きさより、後方隠蔽物体が後方カメラ2の画角中で占める水平方向の角度範囲を死角角度範囲とすることにより求める。   On the other hand, when there is an object such as another vehicle whose distance in the front-rear direction of the own vehicle from the own vehicle is within the predetermined distance ThL behind the own vehicle (step 202), the object is hidden behind the object. Then, the angle range occupied by the rear concealed object in the angle of view of the rear camera 2 in the horizontal direction is calculated as the blind angle range (step 204). Here, the blind spot angle range is obtained, for example, by image recognition processing using the relative position of the rear concealed object obtained in advance, for example, the size of the image of the rear concealed object in the image captured by the rear camera image. Then, the horizontal angle range occupied by the rear concealed object in the angle of view of the rear camera 2 is determined from the horizontal size of the image of the rear concealed object as the blind spot angle range.

このようにして死角角度範囲を求めたならば、次に、求めた死角角度範囲の大きさが、予め定めておいた所定の大きさThAより大きいかどうかを調べ(ステップ206)、大きくなければ、後方カメラ2が撮影した画像を、後方カメラ2の撮影領域の全領域について有効な後方画像として抽出し、周辺状況提示部6に出力し(ステップ208)、ステップ202からの処理に戻る。   If the blind spot angle range is obtained in this way, it is next checked whether or not the obtained blind spot angle range is larger than a predetermined predetermined size ThA (step 206). Then, the image captured by the rear camera 2 is extracted as a valid rear image for the entire photographing region of the rear camera 2, and is output to the peripheral state presentation unit 6 (step 208), and the process returns to step 202.

一方、求めた死角角度範囲の大きさが、予め定めておいた所定の大きさThAより大きければ(ステップ206)、後方カメラ2が撮影した画像を、後方カメラ2の撮影領域から死角領域を除いた領域について有効な後方画像として抽出し、周辺状況提示部6に出力する(ステップ210)。ここで、死角領域とは、後方カメラ2に対して成す角度が、先に求めた死角角度範囲内にあって、先に求めた当該後方隠蔽物体の相対位置より後方カメラ2に対して後ろ側となる領域を指す。   On the other hand, if the obtained blind angle angle range is larger than a predetermined predetermined size ThA (step 206), the image taken by the rear camera 2 is excluded from the photographing area of the rear camera 2. The region is extracted as an effective rear image and is output to the surrounding situation presentation unit 6 (step 210). Here, the blind spot area means that the angle formed with respect to the rear camera 2 is within the previously determined blind spot angle range, and is behind the rear camera 2 from the relative position of the rear concealed object obtained earlier. Refers to the region.

そして、次に、左後方カメラ3の撮影領域と死角領域とに重複する部分があるかどうかを調べ(ステップ212)、重複する部分があれば、左後方カメラ3の撮影画像を、左後方カメラ3の撮影領域と死角領域との重複部分について有効な後方画像として抽出し、周辺状況提示部6に出力する(ステップ216)。また、右後方カメラ4の撮影領域と死角領域とに重複する部分があるかどうかを調べ(ステップ214)、重複する部分があれば、右後方カメラ4の撮影画像を、右後方カメラ4の撮影領域と死角領域との重複部分複部分について有効な後方画像として抽出し、周辺状況提示部6に出力する(ステップ218)。そして、ステップ202からの処理に戻る。   Next, it is checked whether or not there is an overlapping portion between the photographing region and the blind spot region of the left rear camera 3 (step 212). If there is an overlapping portion, the photographed image of the left rear camera 3 is converted into the left rear camera. 3 is extracted as an effective rear image with respect to the overlapping portion of the imaging region 3 and the blind spot region, and is output to the surrounding state presentation unit 6 (step 216). Further, it is checked whether or not there is an overlapping portion between the photographing region and the blind spot region of the right rear camera 4 (step 214). If there is an overlapping portion, the photographed image of the right rear camera 4 is photographed by the right rear camera 4. The overlapping portion of the region and the blind spot region is extracted as an effective rear image and is output to the surrounding state presentation unit 6 (step 218). Then, the process returns to step 202.

なお、左後方カメラ3の撮影領域とは、自車後方の、左後方カメラ3が向いている方向と左後方カメラ3の画角より定まる、自車周辺が水平な地面のみである場合に左後方カメラ3によって撮影されることになる範囲内の領域を言う。また、右後方カメラ4の撮影領域とは、自車後方の、右後方カメラ4が向いている方向と右後方カメラ4の画角より定まる、自車周辺が水平な地面のみである場合に右後方カメラ4によって撮影されることになる範囲内の領域を言う。   The imaging area of the left rear camera 3 is the left when the periphery of the vehicle is only a horizontal ground determined by the direction of the left rear camera 3 and the angle of view of the left rear camera 3 behind the vehicle. An area within a range to be photographed by the rear camera 3 is said. In addition, the shooting area of the right rear camera 4 is determined when the area around the vehicle is only a horizontal ground, which is determined from the direction in which the right rear camera 4 faces and the angle of view of the right rear camera 4 behind the vehicle. An area within the range to be photographed by the rear camera 4 is said.

以上、後方画像抽出部5が行う後方画像抽出処理について説明した。
以下、このような後方画像抽出処理の処理例について示す。
いま、図3a1に示す配置関係で、画角311で後方を撮影する後方カメラ2を備えた自車301の後方に他の自動車302と自動二輪車303が存在している場合には、自動車302と自動二輪車303の双方共、自車後方に所定距離ThLより大きく離れているので(ステップ202)、後方カメラ2が撮影した図3a2に示す画像が、後方カメラ撮影領域の全てについて有効な後方画像として抽出され、周状強表提示部に出力される(ステップ208)。
The rear image extraction process performed by the rear image extraction unit 5 has been described above.
Hereinafter, a processing example of such rear image extraction processing will be described.
Now, in the arrangement relationship shown in FIG. 3 a 1, when another vehicle 302 and a motorcycle 303 exist behind the own vehicle 301 equipped with the rear camera 2 that captures the rear at an angle of view 311, Since both the motorcycles 303 are far behind the vehicle by a predetermined distance ThL (step 202), the image shown in FIG. 3a2 captured by the rear camera 2 is an effective rear image for the entire rear camera photographing region. Extracted and output to the circumferential strong table presenting unit (step 208).

次に、図3b1に示す配置関係で、画角311で後方を撮影する後方カメラ2を備えた自車301の後方に他の自動車302と自動二輪車303が存在している場合には、自動車302は自車後方に所定距離ThLより大きく離れているが、自動二輪車303は自車後方の所定距離ThL内の位置に存在するので(ステップ202)、自動二輪車303による死角角度範囲が算出される(ステップ204)。図3b1の配置の場合は、この死角角度範囲は図中のθ312のようになり、このθ312は所定の大きさThAより小さいので(ステップ206)、この場合にも、後方カメラ2が撮影した図3b2に示す画像が、後方カメラ撮影領域の全てについて有効な後方画像として抽出され、周状強表提示部に出力される(ステップ208)。   Next, in the arrangement relationship shown in FIG. 3b1, when another vehicle 302 and a motorcycle 303 exist behind the own vehicle 301 equipped with the rear camera 2 that captures the rear at an angle of view 311, the vehicle 302 Is larger than the predetermined distance ThL behind the host vehicle, but since the motorcycle 303 exists at a position within the predetermined distance ThL behind the host vehicle (step 202), the blind angle range by the motorcycle 303 is calculated (step 202). Step 204). In the case of the arrangement of FIG. 3b1, this blind spot angle range is θ312 in the figure, and this θ312 is smaller than a predetermined size ThA (step 206). The image shown in 3b2 is extracted as a valid rear image for the entire rear camera photographing region, and is output to the circumferential strong table presenting unit (step 208).

ここで、以上のように、自車後方の所定距離ThL内に物体が存在しない場合や、自車後方に存在する物体による視野角度範囲が所定の大きさThAより小さい場合に、後方カメラ2が撮影した画像を後方カメラ撮影領域の全てについて有効な後方画像として抽出するのでは、他の物体によって生じる後方カメラ2の死角領域が、周辺状況を提示する上で実用上支障ない程度に小さくなる、または、遠くなるからである。   Here, as described above, when the object does not exist within the predetermined distance ThL behind the host vehicle or when the viewing angle range by the object existing behind the host vehicle is smaller than the predetermined size ThA, the rear camera 2 is By extracting the captured image as an effective rear image for all of the rear camera photographing regions, the blind spot region of the rear camera 2 caused by other objects is reduced to such an extent that there is no practical problem in presenting the surrounding situation. Or it will be far away.

次に、図4aに示す配置関係で、画角411で後方を撮影する後方カメラ2を備えた自車401の後方にバス402と他の自動車403と自動二輪車404が存在している場合には、自動車403と自動二輪車404は自車後方に所定距離ThLより大きく離れているが、バス402は自車後方の所定距離ThL内の位置に存在するので(ステップ202)、バス402による死角角度範囲が算出される(ステップ204)。図4aの場合は、この死角角度範囲は図中のθ412のようになり、このθ412は所定の大きさThAより大きくなる(ステップ206)。   Next, in the arrangement relationship shown in FIG. 4a, when a bus 402, another automobile 403, and a motorcycle 404 exist behind the own vehicle 401 provided with the rear camera 2 that captures the rear at an angle of view 411. The automobile 403 and the motorcycle 404 are separated from the vehicle rearward by a predetermined distance ThL, but the bus 402 exists at a position within the predetermined distance ThL behind the vehicle (step 202). Is calculated (step 204). In the case of FIG. 4a, this blind spot angle range becomes θ412 in the figure, and this θ412 is larger than a predetermined size ThA (step 206).

そこで、この場合には、後方カメラ2が撮影した図4c2に示す画像が、図4bに示した後方カメラ撮影領域からバス402による死角領域を除いた領域421について有効な後方画像として抽出され、周辺状況提示部6に出力される(ステップ210)。また、画角413を有する左後方カメラ3が撮影した図4c1に示す画像が、図4bに示した左後方カメラ撮影領域とバス402による死角領域との重複部分422について有効な後方画像として抽出され(ステップ212、216)、周辺状況提示部6に出力される。また、画角414を有する右後方カメラ4が撮影した図4c3に示す画像が、図4bに示した左後方カメラ撮影領域とバス402による死角領域との重複部分423について有効な後方画像として抽出され(ステップ214、218)、周辺状況提示部6に出力される。   Therefore, in this case, the image shown in FIG. 4c2 taken by the rear camera 2 is extracted as an effective rear image for the area 421 excluding the blind spot area by the bus 402 from the rear camera photographing area shown in FIG. It is output to the situation presentation unit 6 (step 210). Also, the image shown in FIG. 4c1 taken by the left rear camera 3 having the angle of view 413 is extracted as an effective rear image for the overlapping portion 422 of the left rear camera photographing region shown in FIG. (Steps 212 and 216), the information is output to the surrounding situation presentation unit 6. Also, the image shown in FIG. 4c3 taken by the right rear camera 4 having the angle of view 414 is extracted as an effective rear image for the overlapping portion 423 of the left rear camera photographing region shown in FIG. (Steps 214 and 218), and is output to the surrounding situation presentation unit 6.

以上、後方画像抽出処理の処理例について示した。
さて、図1に戻り、周辺状況提示部6は、後方画像抽出部5より出力された後方画像に基づいて、周辺状況を提示する処理を行う。
この周辺状況の処理は、たとえば、次のように行う。
すなわち、後方画像抽出部5により後方カメラ2が撮影した画像のみが後方画像として出力されている期間は、図5a1のように、この後方カメラ2が撮影した画像501のみを表示装置7に表示する。
そして、後方画像抽出部5により複数の後方画像が出力されている期間は、出力されている複数の後方画像を、各画像が有効な領域の位置関係に従った配置で表示する。図5a2は、図4に示した状況において出力される左後方カメラ3が撮影した画像511と、後方カメラ2が撮影した画像512と、右後方カメラ4が撮影した画像513を、それぞれの撮影領域の位置関係に従って左右に配置した例を示している。ここで、この例では、各画像ついて、当該画像の内の当該画像が有効な領域を撮影したに部分のみを表示するようにしている。なお、図4の状況の場合、左後方カメラ3が撮影した画像中の当該画像が有効な領域を撮影した部分は、図4c1の431の部分となり、右後方カメラ4が撮影した画像中の当該画像が有効な領域を撮影した部分は、図4c3の432の部分となる。
The processing example of the rear image extraction processing has been described above.
Now, referring back to FIG. 1, the surrounding situation presentation unit 6 performs processing for presenting the surrounding situation based on the rear image output from the rear image extraction unit 5.
The processing of the surrounding situation is performed as follows, for example.
In other words, during the period in which only the image captured by the rear camera 2 is output as the rear image by the rear image extraction unit 5, only the image 501 captured by the rear camera 2 is displayed on the display device 7 as shown in FIG. .
Then, during the period in which a plurality of rear images are output by the rear image extraction unit 5, the plurality of output rear images are displayed in an arrangement according to the positional relationship of the regions where each image is effective. 5a2 shows an image 511 taken by the left rear camera 3, an image 512 taken by the rear camera 2, and an image 513 taken by the right rear camera 4 output in the situation shown in FIG. The example arrange | positioned according to the positional relationship of right and left is shown. Here, in this example, for each image, only a portion of the image obtained by photographing an effective area of the image is displayed. In the case of the situation in FIG. 4, the portion where the region where the image is valid in the image captured by the left rear camera 3 is the portion 431 in FIG. 4 c 1, and the portion in the image captured by the right rear camera 4 A portion where an image is effective is photographed as a portion 432 in FIG. 4c3.

ただし、後方画像抽出部5により複数の後方画像が出力されている期間には、図5a2に示したような表示に代えて、図5a3に示すように、複数の後方画像を一枚の単一の視点から観察した画像521に合成して表示するようにしてもよい。すなわち、図5a3は、左後方カメラ3が撮影した画像中の当該画像が有効な領域を撮影した部分と、右後方カメラ4が撮影した画像中の当該画像が有効な領域を撮影した部分とを抽出し、視点変換処理を施して、後方カメラ2と同じ視点から撮影した画像に変換する。また、このように変換した画像を、後方カメラ2が撮影した画像の後方隠蔽物体が写りこんでいる部分に、当該部分の画像が半透明となって、当該画像の下から透けて見えると視認されるように、各画像に写り込んでいる領域に応じた配置で合成する。このようにすることにより、後方隠蔽物体が半透明となって、その後ろの物体が透けて見えるような表現によって、左後方カメラ3と右後方カメラ4によって、後方隠蔽物体による死角領域を撮影した部分を提示することができる。   However, during a period in which a plurality of rear images are output by the rear image extraction unit 5, instead of the display as illustrated in FIG. 5a2, as illustrated in FIG. The image 521 observed from the viewpoint may be combined and displayed. That is, FIG. 5a3 shows a portion in which an image is effective in the image captured by the left rear camera 3, and a portion in which an image is effective in the image captured by the right rear camera 4. Extraction is performed, and viewpoint conversion processing is performed to convert the image captured from the same viewpoint as that of the rear camera 2. In addition, the image converted in this way is visually recognized when the rear concealed object of the image captured by the rear camera 2 is reflected in the portion of the image that is translucent and seen through the image. As shown, the images are combined in an arrangement according to the area reflected in each image. By doing in this way, the blind spot area by the back concealment object was image | photographed with the left back camera 3 and the right back camera 4 by the expression that the back concealment object became translucent and the object behind it was seen through. Part can be presented.

また、周辺状況提示の処理は次のように行うようにしてもよい。
すなわち、後方画像抽出部5から出力される各後方画像について、後方画像が有効な領域についての物体検出の画像認識処理を、後方画像の当該後方画像が有効な領域が写り込んでいる部分を用いて行い、各後方画像に対して行った画像認識処理で識別された物体を、表示装置7や音声出力装置8を用いて提示する。
Further, the processing for presenting the surrounding situation may be performed as follows.
That is, for each rear image output from the rear image extraction unit 5, the object detection image recognition process for the region where the rear image is effective is performed using a portion of the rear image where the region where the rear image is effective is reflected. The object identified by the image recognition processing performed on each rear image is presented using the display device 7 and the audio output device 8.

より詳細には、後方画像抽出部5により後方カメラ2が撮影した画像のみが後方画像として出力されている期間は、後方カメラ2が撮影した画像のみに対して画像認識処理を行って、後方カメラ2の撮影領域内の物体の検出や識別を行う。
一方、たとえば、図4に示した状況において、左後方カメラ3が撮影した画像と後方カメラ2が撮影した画像と右後方カメラ4が撮影した画像とが出力されている場合には、後方カメラ2が撮影した画像の、図4bに示した後方カメラ撮影領域からバス402による死角領域を除いた領域421が写り込む部分に対する画像認識処理を行って、当該領域421内の物体の検出や識別を行う。また、左後方カメラ3が撮影した画像の、図4bに示した左後方カメラ撮影領域とバス402による死角領域との重複部分422が写りこむ部分(図4c1の431)に対する画像認識処理を行って、当該領域422内の物体の検出や識別を行う。また、右後方カメラ4が撮影した画像の、図4bに示した右後方カメラ撮影領域とバス402による死角領域との重複部分423が写りこむ部分(図4c3の432)に対する画像認識処理を行って、当該領域423内の物体の検出や識別を行う。
More specifically, during the period in which only the image captured by the rear camera 2 is output as the rear image by the rear image extraction unit 5, image recognition processing is performed only on the image captured by the rear camera 2, and the rear camera Detection and identification of an object in the second imaging region are performed.
On the other hand, for example, in the situation shown in FIG. 4, when an image taken by the left rear camera 3, an image taken by the rear camera 2, and an image taken by the right rear camera 4 are output, the rear camera 2 Image recognition processing is performed on a portion of the image captured by the area where the area 421 excluding the blind spot area by the bus 402 from the rear camera imaging area shown in FIG. 4B is captured, and the object in the area 421 is detected and identified. . Further, image recognition processing is performed on a portion (431 in FIG. 4c1) where an overlapping portion 422 of the left rear camera photographing region shown in FIG. Then, the object in the area 422 is detected and identified. Further, an image recognition process is performed on a portion (432 in FIG. 4c3) where an overlapping portion 423 of the right rear camera photographing region shown in FIG. The object in the area 423 is detected and identified.

そして、図5bに示すように、識別した各物体を表すマーク541、542、543を自車を表す図形531に対して、当該物体と自車との位置関係に従って配置した画像を表示装置7に表示することにより、識別した各物体を提示する。または、識別した物体が、所定のレベルを超えて自車に接近している場合に、その旨を通知する音声を音声出力装置8から出力することにより、識別した物体の情報を提示するなどの処理を行う。   Then, as shown in FIG. 5 b, an image in which marks 541, 542, 543 representing the identified objects are arranged according to the positional relationship between the object and the own vehicle on the graphic 531 is displayed on the display device 7. By displaying, each identified object is presented. Or, when the identified object is approaching the host vehicle exceeding a predetermined level, the voice output device 8 outputs a sound to that effect, thereby presenting information on the identified object, etc. Process.

以上、本発明の実施形態について説明した。
このように、本実施形態によれば、後方カメラ2に死角が生じた場合には、後方カメラ2が撮影した画像を、左後方カメラ3や右後方カメラ4で撮影した画像で補完して、周辺状況の提示を行う。したがって、自動車の後方の状況を、死角の発生を抑制しつつ提示することができるようになる。
The embodiment of the present invention has been described above.
Thus, according to the present embodiment, when a blind spot occurs in the rear camera 2, the image captured by the rear camera 2 is complemented with the image captured by the left rear camera 3 or the right rear camera 4, Present the surrounding situation. Therefore, the situation behind the automobile can be presented while suppressing the occurrence of blind spots.

また、本実施形態は、以上のような左後方カメラ3や右後方カメラ4で撮影した画像を用いた補完を、後方カメラ2の死角領域についてのみ行うので、効率的に自動車の後方の状況の提示を行うことができる。また、左後方カメラ3や右後方カメラ4として、後方カメラ2に比べ解像度等が低いカメラを用いているような場合に、自車後方の状況の提示を、できるだけ後方カメラ2が撮影した高品質の画像を用いて行うことができるようになる。   Further, in the present embodiment, since the above-described complementation using the images photographed by the left rear camera 3 and the right rear camera 4 is performed only for the blind spot area of the rear camera 2, the situation of the rear of the automobile can be efficiently performed. You can make a presentation. In addition, when a camera having a lower resolution or the like than the rear camera 2 is used as the left rear camera 3 or the right rear camera 4, the rear camera 2 presents a high quality image of the rear of the vehicle as much as possible. It will be possible to use this image.

なお、以上の実施形態は、自車の後方以外の方向の状況を提示する場合についても同様に適用することができる。たとえば、自車の前方の状況を提示する場合には、以上の実施形態の後方を前方に入れ替えて適用すればよい。   In addition, the above embodiment is applicable similarly also when showing the condition of directions other than the back of the own vehicle. For example, when presenting the situation in front of the host vehicle, the rear of the above embodiment may be replaced with the front and applied.

本発明の実施形態に係る周辺状況提示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the periphery condition presentation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る後方画像抽出処理を示すフローチャートである。It is a flowchart which shows the back image extraction process which concerns on embodiment of this invention. 本発明の実施形態に係る後方画像抽出処理の処理例を示す図である。It is a figure which shows the process example of the back image extraction process which concerns on embodiment of this invention. 本発明の実施形態に係る後方画像抽出処理の処理例を示す図である。It is a figure which shows the process example of the back image extraction process which concerns on embodiment of this invention. 本発明の実施形態に係る周辺状況の提示例を示す図である。It is a figure which shows the example of presentation of the periphery condition which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…レーダ装置、2…後方カメラ、3…左後方カメラ、4…右後方カメラ、5…後方画像抽出部、6…周辺状況提示部、7…表示装置、8…音声出力装置。   DESCRIPTION OF SYMBOLS 1 ... Radar apparatus, 2 ... Back camera, 3 ... Left back camera, 4 ... Right back camera, 5 ... Back image extraction part, 6 ... Peripheral condition presentation part, 7 ... Display apparatus, 8 ... Sound output device.

Claims (5)

自動車に搭載され、前記自動車周辺の状況をユーザに対して提示する車載周辺状況提示装置であって、
自車周辺の第1の撮影領域を撮影する第1のカメラと、
前記第1のカメラと異なる方向から、前記第1の撮影領域の少なくとも一部を含む領域である第2の撮影領域を撮影する第2のカメラと、
前記第1のカメラが撮影した画像によって表される、前記第1の撮影領域の状況をユーザに提示する状況情報提示手段と、
前記第1の撮影領域内の他の物体の陰となるために第1のカメラによって撮影できなくなっている領域である死角領域を算定する死角領域算定手段とを有し、
前記状況情報提示手段は、前記死角領域算定手段が算定した死角領域と前記第2の撮影領域とが重複する領域が発生した場合に、前記第2のカメラが撮影した画像によって表される、当該重複する領域の状況の提示を行うことを特徴とする車載周辺状況提示装置。
An on-vehicle peripheral situation presentation device that is mounted on an automobile and presents the situation around the automobile to a user,
A first camera for photographing a first photographing region around the own vehicle;
A second camera that images a second imaging area that is an area including at least a part of the first imaging area from a different direction from the first camera;
Status information presenting means for presenting the status of the first imaging area to the user, represented by an image captured by the first camera;
A blind spot area calculating means for calculating a blind spot area that is an area that cannot be captured by the first camera because it is shaded by other objects in the first capturing area;
The situation information presenting means is represented by an image captured by the second camera when an area where the blind spot area calculated by the blind spot area calculating means and the second imaging area overlap is generated. A vehicle-mounted peripheral situation presentation device that presents a situation of an overlapping area.
請求項1記載の車載周辺状況提示装置であって、
前記第1のカメラは自動車後部より自動車後方を撮影し、前記第2のカメラは自動車側部より自動車後方を含む方向を撮影することを特徴とする車載周辺状況提示装置。
The on-vehicle peripheral situation presentation device according to claim 1,
The on-vehicle peripheral situation presenting apparatus characterized in that the first camera photographs the rear of the automobile from the rear of the automobile, and the second camera photographs a direction including the rear of the automobile from the automobile side.
請求項2記載の車載周辺状況提示装置であって、
当該車載周辺状況提示装置は、前記第1の撮影領域の少なくとも一部を含む領域である第3の撮影領域を撮影する第3のカメラを有し、
前記第2のカメラは自動車左側部より自動車後方を含む方向を撮影し、
前記第3のカメラは自動車右側部より自動車後方を含む方向を撮影し、
前記状況情報提示手段は、前記死角領域算定手段が算定した死角領域と前記第3の撮影領域とが重複する領域が発生した場合に、前記第3のカメラが撮影した画像によって表される、当該重複する領域の状況の提示を行うことを特徴とする車載周辺状況提示装置。
An in-vehicle peripheral situation presentation device according to claim 2,
The vehicle-mounted peripheral situation presentation device includes a third camera that captures a third imaging area that is an area including at least a part of the first imaging area.
The second camera captures the direction including the rear of the vehicle from the left side of the vehicle,
The third camera captures the direction including the rear of the vehicle from the right side of the vehicle,
The situation information presenting means is represented by an image photographed by the third camera when an area where the blind spot area calculated by the blind spot area calculating means and the third photographing area overlap is generated. A vehicle-mounted peripheral situation presentation device that presents a situation of an overlapping area.
請求項1、2または3記載の車載周辺状況提示装置であって、
前記死角領域算定手段は、前記第1の撮影領域内の他の物体の陰となるために第1のカメラによって撮影できなくなっている領域が所定レベル以上の広がりを持つ場合のみ、当該領域を前記死角領域として算定することを特徴とする、車載周辺状況提示装置。
The vehicle-mounted peripheral situation presentation device according to claim 1, 2, or 3,
The blind spot area calculation means only determines the area when the area that cannot be captured by the first camera due to the shadow of another object in the first imaging area has a predetermined level or more. An on-vehicle peripheral situation presentation device characterized by calculating as a blind spot area.
自動車に搭載された装置において、前記自動車周辺の状況をユーザに対して提示する周辺状況提示方法であって、
自動車に搭載された第1のカメラによって、自車周辺の第1の撮影領域を撮影するステップと、
自動車に搭載された第2のカメラによって、前記第1のカメラと異なる方向から、前記第1の撮影領域の少なくとも一部を含む領域である第2の撮影領域を撮影するステップと、
前記第1の撮影領域内の他の物体の陰となるために第1のカメラによって撮影できなくなっている領域である死角領域を算定するステップと、
前記第1のカメラが撮影した画像によって表される、前記第1の撮影領域の状況をユーザに提示するステップと、
前記算定した死角領域と前記第2の撮影領域とが重複する領域が発生した場合に、前記第2のカメラが撮影した画像によって表される、当該重複する領域の状況の提示を行うステップとを有することを特徴とする周辺状況提示方法。
In a device mounted on an automobile, a surrounding situation presentation method for presenting a situation around the automobile to a user,
Photographing a first photographing area around the vehicle by a first camera mounted on the automobile;
Photographing a second imaging area that is an area including at least a part of the first imaging area from a direction different from that of the first camera by a second camera mounted on an automobile;
Calculating a blind spot area that is an area that cannot be imaged by the first camera because it is shaded by other objects in the first imaging area;
Presenting to the user the status of the first imaging area represented by an image captured by the first camera;
A step of presenting a situation of the overlapping area represented by an image captured by the second camera when an area where the calculated blind spot area and the second imaging area overlap occurs; A method for presenting a surrounding situation, comprising:
JP2006121948A 2006-04-26 2006-04-26 In-vehicle peripheral status presentation device Active JP4731392B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006121948A JP4731392B2 (en) 2006-04-26 2006-04-26 In-vehicle peripheral status presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006121948A JP4731392B2 (en) 2006-04-26 2006-04-26 In-vehicle peripheral status presentation device

Publications (2)

Publication Number Publication Date
JP2007295357A JP2007295357A (en) 2007-11-08
JP4731392B2 true JP4731392B2 (en) 2011-07-20

Family

ID=38765519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006121948A Active JP4731392B2 (en) 2006-04-26 2006-04-26 In-vehicle peripheral status presentation device

Country Status (1)

Country Link
JP (1) JP4731392B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11866042B2 (en) 2018-08-20 2024-01-09 Indian Motorcycle International, LLC Wheeled vehicle adaptive speed control method and system

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5347257B2 (en) * 2007-09-26 2013-11-20 日産自動車株式会社 Vehicle periphery monitoring device and video display method
JP5451497B2 (en) * 2010-04-08 2014-03-26 パナソニック株式会社 Driving support display device
KR101788183B1 (en) 2015-12-28 2017-10-20 현대자동차주식회사 Vehicle and controlling method for the vehicle
JP6690315B2 (en) * 2016-03-10 2020-04-28 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method and program
JP6575404B2 (en) * 2016-03-15 2019-09-18 株式会社Jvcケンウッド VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM
WO2017154316A1 (en) * 2016-03-09 2017-09-14 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method, and program
JP6919740B2 (en) * 2016-03-09 2021-08-18 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method and program
JP6690312B2 (en) * 2016-03-09 2020-04-28 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method and program
JP6690311B2 (en) * 2016-03-09 2020-04-28 株式会社Jvcケンウッド Vehicle display control device, vehicle display system, vehicle display control method and program
JP7010221B2 (en) * 2016-07-13 2022-01-26 ソニーグループ株式会社 Image generator, image generation method, and program
JP6730177B2 (en) * 2016-12-28 2020-07-29 株式会社デンソーテン Image generating apparatus and image generating method
JP7052632B2 (en) * 2018-08-10 2022-04-12 トヨタ自動車株式会社 Peripheral display device for vehicles
JP7280006B2 (en) * 2019-08-06 2023-05-23 アルパイン株式会社 Image processing device, image processing method and image processing program
US11632521B2 (en) * 2019-09-30 2023-04-18 Amazon Technologies, Inc. Audio/video electronic device
JP2021153286A (en) * 2020-03-23 2021-09-30 パナソニックIpマネジメント株式会社 Device and method for image synthesis

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004312523A (en) * 2003-04-09 2004-11-04 Equos Research Co Ltd On-vehicle image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11866042B2 (en) 2018-08-20 2024-01-09 Indian Motorcycle International, LLC Wheeled vehicle adaptive speed control method and system

Also Published As

Publication number Publication date
JP2007295357A (en) 2007-11-08

Similar Documents

Publication Publication Date Title
JP4731392B2 (en) In-vehicle peripheral status presentation device
JP5347257B2 (en) Vehicle periphery monitoring device and video display method
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP4816923B2 (en) Vehicle peripheral image providing apparatus and method
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP6699427B2 (en) Vehicle display device and vehicle display method
JP2008141649A (en) Vehicle periphery monitoring apparatus
JP2008048094A (en) Video display device for vehicle, and display method of video images in vicinity of the vehicle
JP2010015346A (en) Surroundings monitoring apparatus
JP2008026998A (en) Obstacle location calculation system and method
JP2015171106A (en) Vehicle peripheral image display device and vehicle peripheral image display method
JP6327115B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2007249814A (en) Image-processing device and image-processing program
JP5166111B2 (en) Vehicle periphery monitoring device
JP2010130413A (en) Peripheral state display device
JP5984714B2 (en) Three-dimensional object detection device, driving support device, and three-dimensional object detection method
JP4857159B2 (en) Vehicle driving support device
JP4799236B2 (en) In-vehicle display system
JP2017117357A (en) Three-dimensional object detection device
JP2009020647A (en) Three-dimensional object detection method and solid object detection device
JP5436056B2 (en) Obstacle detection device and obstacle detection method
JP2010121986A (en) Calibration target and calibration system for on-board camera
JP2009214790A (en) Apparatus and method for imaging, and apparatus and method for processing image
WO2017086057A1 (en) Display device for vehicles and display method for vehicles

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110419

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4731392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150