JP2008236711A - Driving support method and driving support device - Google Patents

Driving support method and driving support device Download PDF

Info

Publication number
JP2008236711A
JP2008236711A JP2007205671A JP2007205671A JP2008236711A JP 2008236711 A JP2008236711 A JP 2008236711A JP 2007205671 A JP2007205671 A JP 2007205671A JP 2007205671 A JP2007205671 A JP 2007205671A JP 2008236711 A JP2008236711 A JP 2008236711A
Authority
JP
Japan
Prior art keywords
pillar
virtual plane
image
vehicle
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007205671A
Other languages
Japanese (ja)
Other versions
JP4784572B2 (en
Inventor
Tomoki Kubota
智氣 窪田
Hidefumi Okabe
英文 岡部
Minoru Takagi
実 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007205671A priority Critical patent/JP4784572B2/en
Priority to CN2008100062801A priority patent/CN101252679B/en
Priority to US12/068,685 priority patent/US9126533B2/en
Priority to EP20080003040 priority patent/EP1961613B1/en
Publication of JP2008236711A publication Critical patent/JP2008236711A/en
Application granted granted Critical
Publication of JP4784572B2 publication Critical patent/JP4784572B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a driving support method and a driving support device capable of projecting onto a pillar an image for which a driver feels quite normal. <P>SOLUTION: In a driving support unit 2 that uses a camera 6 attached to a vehicle for imaging a blind spot area created by a pillar of the vehicle and projects an image taken by the camera 6 on an inner side of the pillar, a virtual plane on which image data is projected is set, and an imaged plane of the camera 6 is set at a predetermined position for reducing a non-displayed area or an excess area that is generated by a deviation between the virtual plane and the imaged plane of the camera 6. Image data input from the camera 6 is coordinate-transformed onto the virtual plane, and an image corresponding to the blind spot area caused by the pillar is displayed on the inner side of the pillar, based on the coordinate-transformed image data on the virtual plane. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、運転支援方法及び運転支援装置に関する。   The present invention relates to a driving support method and a driving support device.

従来より、安全運転を支援する装置として、ドライバーの死角となる領域を車載カメラによって撮影し、ディスプレイ等に表示する車載システムが開発されている。その一つとして、車両のフロントピラーによって生じる死角領域を車載カメラで撮影し、撮影画像をフロントピラーの内側に表示するシステムが提案されている。フロントピラーは、フロントウィンドウやルーフを支える左右の支柱であって、運転席に着座したドライバーからみて斜め前方に位置し、ドライバーの視界を一部遮ってしまうものの、安全性のために所定の太さを確保しなければならない部材である。   2. Description of the Related Art Conventionally, as an apparatus that supports safe driving, an in-vehicle system that captures an area that is a blind spot of a driver with an in-vehicle camera and displays it on a display or the like has been developed. As one of such systems, a system has been proposed in which a blind spot area caused by a front pillar of a vehicle is photographed with an in-vehicle camera and a photographed image is displayed inside the front pillar. The front pillar is a left and right column that supports the front window and roof.It is located diagonally forward when viewed from the driver seated in the driver's seat and partially blocks the driver's field of view. This is a member that must be secured.

図12に示すように、上記したシステムは、車体に取り付けられ、撮影領域106を撮影可能なカメラ100と、カメラ100から出力された映像信号を画像処理する画像プロセッサと、フロントピラー101内側に画像を投影するプロジェクタ(いずれも図示略)等を備えている。これによれば、ドライバー位置102から見て、あたかもフロントピラー101を透過して外部の背景を視認できるような状態になるので、交差点等において、車両の前側方の道路形状や、前側方にある障害物を確認することができる。   As shown in FIG. 12, the system described above is attached to the vehicle body and can capture the image capturing area 106, an image processor that performs image processing on a video signal output from the camera 100, and an image inside the front pillar 101. Projectors (both not shown) and the like are provided. According to this, as seen from the driver position 102, the external background can be seen through the front pillar 101. Therefore, at the intersection or the like, the road shape on the front side of the vehicle or the front side is present. Obstacles can be confirmed.

カメラ100によって撮影された映像信号をピラー101に投影する際、カメラ100の視角とドライバーの視角とが一致しないため、ピラー101に投影された画像が、ドライバーがウィンドウを介して視認している背景に対して傾いたりずれたりする問題がある。これに対し、特許文献1では、カメラで撮影された画像を、ドライバーの視角に合わせるために設定された仮想平面(仮想スクリーン面)に投影変換している。
特開2005−184225号公報
When projecting a video signal photographed by the camera 100 onto the pillar 101, since the viewing angle of the camera 100 does not match the viewing angle of the driver, the image projected on the pillar 101 is being viewed by the driver through the window. There is a problem of tilting or shifting. On the other hand, in Patent Document 1, an image captured by a camera is projected and converted to a virtual plane (virtual screen surface) set to match the viewing angle of the driver.
JP 2005-184225 A

しかし、カメラ100の焦点位置を決定する場合、例えば図12に示すように、焦点位置を示す撮影面104を、仮想平面103の手前であって、仮想平面103に近い位置に設定しても、撮影面104と仮想平面103とが離間している限り、仮想平面103に投影されない領域107,108が生じてしまう。また、図13に示すように、撮影面104を、仮想平面103よりもドライバー位置102から離れた位置に設定すると、撮影面104と仮想平面103との間の領域109,110がピラーに投影されず、無駄が生じる。   However, when determining the focal position of the camera 100, for example, as shown in FIG. 12, even if the imaging surface 104 indicating the focal position is set in front of the virtual plane 103 and close to the virtual plane 103, As long as the imaging surface 104 and the virtual plane 103 are separated from each other, areas 107 and 108 that are not projected onto the virtual plane 103 are generated. Further, as shown in FIG. 13, when the imaging plane 104 is set at a position farther from the driver position 102 than the virtual plane 103, areas 109 and 110 between the imaging plane 104 and the virtual plane 103 are projected onto the pillars. Waste.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、ドライバーが違和感を感じない画像をピラーに投影することができる運転支援方法及び運転支援装置を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a driving support method and a driving support device that can project an image on which a driver does not feel uncomfortable on a pillar.

上記問題点を解決するために、請求項1に記載の発明は、車両に取り付けられた撮影装置を用いて、該車両のピラーによって生じる死角領域を撮影し、該死角領域に相当する画像を前記ピラーの内側に表示する運転支援方法において、前記撮影装置から入力した画像データを投影する仮想平面を設定するとともに、前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定し、前記撮影面に焦点を合わせた前記画像データを取得して該画像データを前記仮想平面に座標変
換し、前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域に相当する画像を表示することを要旨とする。
In order to solve the above-mentioned problem, the invention according to claim 1 shoots a blind spot area caused by a pillar of the vehicle using an imaging device attached to the vehicle, and displays an image corresponding to the blind spot area. In the driving support method for displaying inside the pillar, the virtual plane for projecting the image data input from the imaging apparatus is set, and the imaging plane of the imaging apparatus is divided by a blind spot area generated by the pillar Is set to a position that passes through the end point of the image, the image data focused on the imaging surface is acquired, the image data is coordinate-converted to the virtual plane, and based on the image data coordinate-converted to the virtual plane, The gist is to display an image corresponding to a blind spot region caused by the pillar inside the pillar.

請求項2に記載の発明は、車両に取り付けられた撮影装置を用いて、該車両のピラーによって生じる死角領域を撮影し、前記撮影装置によって撮影された画像を前記ピラーの内側に表示する運転支援装置において、前記撮影装置から入力した画像データを投影する仮想平面を設定する仮想平面設定手段と、前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定する撮影面設定手段と、前記撮影面に焦点を合わせた前記画像データを取得して、該画像データを前記仮想平面に座標変換する画像処理手段と、前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域の画像を表示する出力制御手段とを備えたことを要旨とする。   According to a second aspect of the present invention, driving assistance for photographing a blind spot area caused by a pillar of the vehicle by using a photographing device attached to the vehicle and displaying an image photographed by the photographing device inside the pillar. In the apparatus, a virtual plane setting unit that sets a virtual plane on which image data input from the imaging apparatus is projected, and an imaging plane of the imaging apparatus passes through an end point of the virtual plane defined by a blind spot area generated by the pillar. An imaging plane setting means for setting the position, an image processing means for acquiring the image data focused on the imaging plane, and coordinate-converting the image data to the virtual plane, and coordinate-converted to the virtual plane An output control means for displaying an image of a blind spot area generated by the pillar on the inner side of the pillar based on the image data. That.

請求項3に記載の発明は、請求項2に記載の運転支援装置において、前記撮影面設定手段は、前記撮影装置の撮影面を、前記仮想平面よりも前記車両に近い位置に設定することを要旨とする。   According to a third aspect of the present invention, in the driving support device according to the second aspect, the photographing surface setting means sets the photographing surface of the photographing device closer to the vehicle than the virtual plane. The gist.

請求項4に記載の発明は、請求項2又は3に記載の運転支援装置において、前記仮想平面設定手段は、車両周辺の路面上にある描画基準物の位置を取得し、該描画基準物の位置を通る位置に前記仮想平面を設定し、前記撮影面設定手段は、前記撮影装置の光軸の方位と、前記車両のドライバーの頭部位置及び前記描画基準物の位置を結ぶ直線の方位とに基づき、前記撮影面が交差する前記仮想平面の端点を選択することを要旨とする。   According to a fourth aspect of the present invention, in the driving support apparatus according to the second or third aspect, the virtual plane setting means acquires a position of a drawing reference object on a road surface around the vehicle, and the drawing reference object The virtual plane is set at a position passing through a position, and the imaging plane setting means includes an orientation of an optical axis of the imaging apparatus, and an orientation of a straight line connecting the head position of the driver of the vehicle and the position of the drawing reference object. Based on the above, the gist is to select the end point of the virtual plane where the imaging planes intersect.

請求項1に記載の発明によれば、撮影装置の撮影面を、仮想平面の端点を通る位置に設定する。このため、ピラーに投影されない非表示領域や、撮影された画像の余剰領域を縮小し、連続性が高く、明瞭で自然な画像をピラーに表示できる。   According to the first aspect of the present invention, the photographing surface of the photographing device is set to a position passing through the end point of the virtual plane. For this reason, a non-display area that is not projected onto the pillar and a surplus area of the captured image can be reduced, and a clear, natural image with high continuity can be displayed on the pillar.

請求項2に記載の発明によれば、運転支援装置は、撮影装置の撮影面を、仮想平面の端点を通る位置に設定する。このため、ピラーに投影されない非表示領域や、撮影された画像の余剰領域を縮小し、連続性が高く、明瞭で自然な画像をピラーに表示できる。   According to the invention described in claim 2, the driving support device sets the photographing surface of the photographing device to a position passing through the end point of the virtual plane. For this reason, a non-display area that is not projected onto the pillar and a surplus area of the captured image can be reduced, and a clear, natural image with high continuity can be displayed on the pillar.

請求項3に記載の発明によれば、撮影装置の撮影面は、仮想平面よりも車両に近い位置に設定されるので、余剰領域にピントが合わず、連続性が高く、明瞭で自然な画像を表示することができる。   According to the third aspect of the present invention, since the photographing surface of the photographing device is set at a position closer to the vehicle than the virtual plane, the surplus area is not in focus, has high continuity, and is a clear and natural image. Can be displayed.

請求項4に記載の発明によれば、撮影装置の光軸の方位と、ドライバーの頭部位置及び描画基準物を結ぶ直線の方位に応じて、撮影面が通る端点が変更される。このため、撮影面を仮想平面の手前に常に設定することができる。   According to the fourth aspect of the present invention, the end point through which the imaging surface passes is changed according to the orientation of the optical axis of the imaging device and the orientation of the straight line connecting the head position of the driver and the drawing reference object. For this reason, the imaging plane can always be set in front of the virtual plane.

以下、本発明を具体化した一実施形態を図1〜図11に従って説明する。図1は、自動車に実装された運転支援システム1の構成を説明するブロック図である。
運転支援システム1は車両C(図3参照)に搭載され、図1に示すように、運転支援装置としての運転支援ユニット2、ディスプレイ3、投影装置としてのプロジェクタ4、スピーカ5、撮像装置としてのカメラ6、第1〜第3位置検出センサ8a〜8cを備えている。
Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration of a driving support system 1 mounted on an automobile.
The driving support system 1 is mounted on a vehicle C (see FIG. 3), and as shown in FIG. 1, a driving support unit 2 as a driving support device, a display 3, a projector 4 as a projection device, a speaker 5, and an imaging device. The camera 6 includes first to third position detection sensors 8a to 8c.

運転支援ユニット2は、制御部10、不揮発性のメインメモリ11、ROM12、GPS受信部13を備えている。制御部10は、CPU、MPU又はASIC等であって、R
OM12に格納された運転支援プログラムに従って、各処理の主制御を行う。メインメモリ11は、制御部10の演算結果を一時記憶する。
The driving support unit 2 includes a control unit 10, a nonvolatile main memory 11, a ROM 12, and a GPS receiving unit 13. The control unit 10 is a CPU, MPU, ASIC, or the like, and R
The main control of each process is performed according to the driving support program stored in the OM 12. The main memory 11 temporarily stores the calculation result of the control unit 10.

制御部10は、GPS衛星からGPS受信部13が受信した、衛星軌道情報及び時刻情報を取得して、電波航法により自車両の絶対位置を算出する。また、制御部10は、運転支援ユニット2の車両側I/F部14を介して、車両Cに設けられた車速センサ30及びジャイロ31から車速パルス、角速度をそれぞれ入力する。そして、制御部10は、車速パルス及び角速度を用いる自律航法により、基準位置からの相対位置を算出し、電波航法で算出した絶対位置と組み合わせて自車位置を特定する。   The control unit 10 acquires satellite orbit information and time information received by the GPS receiving unit 13 from GPS satellites, and calculates the absolute position of the host vehicle by radio wave navigation. Further, the control unit 10 inputs vehicle speed pulses and angular velocities from the vehicle speed sensor 30 and the gyro 31 provided in the vehicle C via the vehicle side I / F unit 14 of the driving support unit 2. And the control part 10 calculates the relative position from a reference position by the autonomous navigation using a vehicle speed pulse and an angular velocity, and pinpoints the own vehicle position combining with the absolute position calculated by the radio wave navigation.

また、運転支援ユニット2は、地理データ記憶部15を備えている。地理データ記憶部15は、内蔵ハードディスク、又は光ディスク等の外部記憶媒体である。この地理データ記憶部15には、目的地までの経路を探索するための地図データとしての各経路ネットワークデータ(以下、経路データ16という)と、ディスプレイ3に地図画面3aを出力するための地図データとしての各地図描画データ17とが記憶されている。   The driving support unit 2 includes a geographic data storage unit 15. The geographic data storage unit 15 is an external storage medium such as an internal hard disk or an optical disk. In the geographic data storage unit 15, each route network data (hereinafter referred to as route data 16) as map data for searching for a route to the destination, and map data for outputting the map screen 3 a to the display 3. Each map drawing data 17 is stored.

経路データ16は、全国を区画したメッシュ内の道路に関するデータである。経路データ16は、各メッシュの識別子、交差点及び道路の端点を示すノードに関するノードデータ、各ノードを接続する各リンクの識別子、リンクコスト等のデータを有している。制御部10は、この経路データ16を用いて、目的地までの推奨経路を探索したり、車両Cが交差点等の案内地点に接近しているか否かを判断する。   The route data 16 is data relating to roads in the mesh dividing the whole country. The route data 16 includes data such as identifiers of each mesh, node data related to nodes indicating intersections and road endpoints, identifiers of links connecting the nodes, and link costs. The control unit 10 uses the route data 16 to search for a recommended route to the destination, and determines whether the vehicle C is approaching a guide point such as an intersection.

また、地図描画データ17は、道路形状、背景等を描画するためのデータであって、全国の地図を分割したメッシュ毎に格納されている。この地図描画データ17には、中央線、路側帯を区画する白線、ゼブラゾーン、横断歩道等の道路標示と、信号機等の路面設置物とに関するデータが格納されている。具体的には道路標示の種類、道路標示の位置座標、路面設置物の種類、路面設置物の位置座標等が、各地点の交差点やカーブと関連付けられて記憶されている。   The map drawing data 17 is data for drawing a road shape, a background, and the like, and is stored for each mesh obtained by dividing a map of the whole country. The map drawing data 17 stores data on road markings such as a center line, a white line that divides a roadside zone, a zebra zone, and a pedestrian crossing, and road surface installations such as traffic lights. Specifically, the types of road markings, the position coordinates of road markings, the types of road surface installation objects, the position coordinates of road surface installation objects, and the like are stored in association with the intersections and curves of each point.

図1に示すように、運転支援ユニット2は、地図描画プロセッサ18を備えている。地図描画プロセッサ18は、自車位置周辺の地図を描画するための地図描画データ17を地理データ記憶部15から読出して、地図出力用のデータを生成し、地図出力用データに基づく地図画面3aをディスプレイ3に表示する。また、地図描画プロセッサ18は、この地図画面3aに、自車位置を示す自車位置指標3bを重畳する。   As shown in FIG. 1, the driving support unit 2 includes a map drawing processor 18. The map drawing processor 18 reads out the map drawing data 17 for drawing a map around the vehicle position from the geographic data storage unit 15, generates map output data, and displays the map screen 3a based on the map output data. Displayed on the display 3. Further, the map drawing processor 18 superimposes a vehicle position index 3b indicating the vehicle position on the map screen 3a.

また、運転支援ユニット2は、音声プロセッサ24を備えている。音声プロセッサ24は、図示しない音声ファイルを有し、例えば目的地までの経路を案内する音声をスピーカ5から出力する。さらに、運転支援ユニット2は、外部入力I/F部25を備えている。外部入力I/F部25は、ディスプレイ3に隣接された操作スイッチ26、タッチパネル式のディスプレイ3から、ユーザの入力操作に基づいた入力信号を入力し、制御部10に出力する。   In addition, the driving support unit 2 includes an audio processor 24. The audio processor 24 has an audio file (not shown) and outputs, for example, audio from the speaker 5 that guides the route to the destination. Further, the driving support unit 2 includes an external input I / F unit 25. The external input I / F unit 25 inputs an input signal based on a user input operation from the operation switch 26 adjacent to the display 3 and the touch panel display 3 and outputs the input signal to the control unit 10.

また、運転支援ユニット2は、検出手段を構成するセンサI/F部23を備えている。センサI/F部23は、第1〜第3位置検出センサ8a〜8cから、検出信号を入力する。第1〜第3位置検出センサ8a〜8cは、超音波センサから構成され、図2に示すように、車室内であって、フロントシートFに着座したドライバーDの周囲に取り付けられている。第1位置検出センサ8aは、ルームミラー(図示略)近傍に取り付けられ、ドライバーDの頭部D1とほぼ同じ高さか、若干高い位置に位置している。   The driving support unit 2 includes a sensor I / F unit 23 that constitutes a detection unit. The sensor I / F unit 23 receives detection signals from the first to third position detection sensors 8a to 8c. The first to third position detection sensors 8a to 8c are constituted by ultrasonic sensors, and are attached around the driver D seated on the front seat F in the vehicle interior as shown in FIG. The first position detection sensor 8a is attached in the vicinity of a rearview mirror (not shown), and is located at a position that is substantially the same as or slightly higher than the head D1 of the driver D.

第2位置検出センサ8bは、ドアウィンドウW2(図3参照)の上端付近に、ドライバ
ーDの斜め前方右側に位置するように取り付けられている。第3位置検出センサ8cは、フロントシートFの左側であって、ルーフRの内側に取り付けられている。各位置検出センサ8a〜8cの図示しないセンサヘッドから発信された超音波は、ドライバーDの頭部D1に反射する。各位置検出センサ8a〜8cは、超音波を発信してから反射波を受信するまでの時間を計測し、その計測時間に基づいて、頭部D1までの各相対距離をそれぞれ算出する。算出された各相対距離は、センサI/F部23を介して制御部10に出力される。尚、各位置検出センサ8a〜8cからの信号に基づいて、センサI/F部23が頭部D1までの相対距離を算出するようにしてもよい。
The second position detection sensor 8b is attached in the vicinity of the upper end of the door window W2 (see FIG. 3) so as to be positioned diagonally forward right of the driver D. The third position detection sensor 8 c is attached to the left side of the front seat F and inside the roof R. Ultrasonic waves transmitted from sensor heads (not shown) of the respective position detection sensors 8a to 8c are reflected on the head D1 of the driver D. Each position detection sensor 8a-8c measures the time from transmitting an ultrasonic wave until receiving a reflected wave, and calculates each relative distance to the head D1 based on the measurement time. Each calculated relative distance is output to the control unit 10 via the sensor I / F unit 23. The sensor I / F unit 23 may calculate the relative distance to the head D1 based on signals from the position detection sensors 8a to 8c.

制御部10は、運転席に着座した状態で、標準的な体型のドライバーDの頭部D1が移動し得る頭部移動範囲と、第1〜第3位置検出センサ8a〜8cが検出した各相対距離とに基づき、頭部位置としての頭部中心位置Dcを三角測量等を用いて、公知の方法で取得する。   The control unit 10 has a head movement range in which the head D1 of a standard body type driver D can move in the state of being seated in the driver's seat, and the relative positions detected by the first to third position detection sensors 8a to 8c. Based on the distance, the head center position Dc as the head position is obtained by a known method using triangulation or the like.

また、図1に示すように、運転支援ユニット2は、映像データ入力部22と、仮想平面設定手段、撮影面設定手段、画像処理手段及び出力制御手段としての画像プロセッサ20とを備えている。映像データ入力部22は、制御部10の制御に基づいて、車両Cに設けられたカメラ6を駆動して、カメラ6によって撮影された画像データIMを入力する。   As shown in FIG. 1, the driving support unit 2 includes a video data input unit 22 and an image processor 20 as a virtual plane setting unit, a photographing plane setting unit, an image processing unit, and an output control unit. The video data input unit 22 drives the camera 6 provided in the vehicle C based on the control of the control unit 10 and inputs the image data IM taken by the camera 6.

カメラ6は、カラー画像を撮像するカメラであって、レンズ、ミラー等から構成される光学機構と、CCD撮像素子(いずれも図示せず)、自動焦点機構等を備えている。図3に示すように、このカメラ6は、車両CのフロントピラーP(以下、単にピラーPという)の外側に、光軸を車両Cの前方に向けて取り付けられている。本実施形態では、車両右側に配置された運転席に合わせ、カメラ6は、運転席側の右側のピラーPに取り付けられる。このカメラ6は、車両Cの前方右側と、車両Cの右側の一部を含む撮影領域Z1の背景を撮像する。   The camera 6 is a camera that captures a color image, and includes an optical mechanism including a lens, a mirror, and the like, a CCD image sensor (none of which is shown), an autofocus mechanism, and the like. As shown in FIG. 3, the camera 6 is attached to the outside of the front pillar P of the vehicle C (hereinafter simply referred to as the pillar P) with the optical axis facing the front of the vehicle C. In the present embodiment, the camera 6 is attached to the right pillar P on the driver's seat side in accordance with the driver's seat arranged on the right side of the vehicle. This camera 6 images the background of the imaging region Z1 including the right front side of the vehicle C and a part of the right side of the vehicle C.

運転支援ユニット2の画像プロセッサ20は、映像データ入力部22を介して、カメラ6から画像データIMを取得する。また、画像プロセッサ20は、取得した画像データIMのうち、ピラーPによって遮られた領域をトリミングするとともに、画像の歪みを解消するための画像処理を行う。   The image processor 20 of the driving support unit 2 acquires the image data IM from the camera 6 via the video data input unit 22. In addition, the image processor 20 trims a region blocked by the pillar P in the acquired image data IM and performs image processing for eliminating image distortion.

詳述すると、制御部10が、経路データ16に基づいて車両Cが交差点やカーブに接近したと判断すると、画像プロセッサ20は、交差点やカーブでドライバーDが注視しやすい視認対象物の座標を取得する。本実施形態では、画像プロセッサ20は、地図描画データ17に基づいて、描画基準物としての横断歩道Zの座標を取得する。例えば、図4に示すように、地図描画データ17に基づき、車両前側方に標示された横断歩道Zの基準点Pcの座標を取得する。基準点Pcは、予め地図描画データ17に記憶されているか、若しくは地図描画データ17に記憶された横断歩道Z全体の座標から画像プロセッサ20が設定する。   More specifically, when the control unit 10 determines that the vehicle C has approached an intersection or curve based on the route data 16, the image processor 20 acquires the coordinates of the visual target that is easy for the driver D to gaze at the intersection or curve. To do. In the present embodiment, the image processor 20 acquires the coordinates of the pedestrian crossing Z as a drawing reference object based on the map drawing data 17. For example, as shown in FIG. 4, the coordinates of the reference point Pc of the pedestrian crossing Z marked on the front side of the vehicle are acquired based on the map drawing data 17. The reference point Pc is stored in advance in the map drawing data 17 or is set by the image processor 20 from the coordinates of the entire pedestrian crossing Z stored in the map drawing data 17.

基準点Pcの座標を取得すると、基準点Pcの座標と、第1〜第3位置検出センサ8a〜8cが検出したドライバーDの頭部中心位置Dcとに基づいて、仮想平面VPの位置を決定する。仮想平面VPは、カメラ6によって撮影された画像を投影する平面である。また、この仮想平面VP上にある物体は、カメラ6によって撮影された画像データIMを仮想平面VP上に座標変換した際に、ずれたり傾いたりすることなく表示される性質がある。図5に示すように、画像プロセッサ20は、この仮想平面VPを、基準点Pcを含み、頭部中心位置Dcと基準点Pcとを結んだ中心線Laに対して垂直になる位置に設定する。また、画像プロセッサ20は、仮想平面VPを、ドライバーDの頭部中心位置DcとピラーPの各端点P1,P2を通る接線L1,L2で区画された死角領域Aの内側に設ける
When the coordinates of the reference point Pc are acquired, the position of the virtual plane VP is determined based on the coordinates of the reference point Pc and the head center position Dc of the driver D detected by the first to third position detection sensors 8a to 8c. To do. The virtual plane VP is a plane on which an image taken by the camera 6 is projected. In addition, the object on the virtual plane VP has a property that it is displayed without being shifted or tilted when the image data IM photographed by the camera 6 is coordinate-converted on the virtual plane VP. As shown in FIG. 5, the image processor 20 sets the virtual plane VP to a position that includes the reference point Pc and is perpendicular to the center line La that connects the head center position Dc and the reference point Pc. . Further, the image processor 20 provides the virtual plane VP inside the blind spot area A defined by tangent lines L1 and L2 passing through the head center position Dc of the driver D and the end points P1 and P2 of the pillar P.

図4に示すように、車両Cが、仮想平面VPを設定した初期位置FPから、図中2点鎖線で示す位置に移動し、頭部中心位置Dcと横断歩道Zの基準点Pcとの相対距離ΔLが変化しても、画像プロセッサ20は、基準点Pcを通り、且つ中心線Laに対して垂直となる位置に仮想平面VPを設定する。即ち、仮想平面VPは、車両Cの前進に伴って移動させずに、常に基準点Pcを通る位置に設定する。図4に示すように、車両が旋回している場合、頭部中心位置Dcと基準点Pcとを結ぶ中心線Laの傾きが変わるので、その変化に伴い、仮想平面VPもその角度のみを変更する。   As shown in FIG. 4, the vehicle C moves from the initial position FP where the virtual plane VP is set to a position indicated by a two-dot chain line in the figure, and the relative position between the head center position Dc and the reference point Pc of the pedestrian crossing Z. Even if the distance ΔL changes, the image processor 20 sets the virtual plane VP at a position that passes through the reference point Pc and is perpendicular to the center line La. That is, the virtual plane VP is always set to a position that passes through the reference point Pc without being moved as the vehicle C moves forward. As shown in FIG. 4, when the vehicle is turning, the inclination of the center line La connecting the head center position Dc and the reference point Pc changes. Accordingly, the virtual plane VP also changes only the angle with the change. To do.

また、画像プロセッサ20は、仮想平面VPの位置に応じて撮影面CPを決定する。撮影面CPは、カメラ6の焦点位置を示し、カメラ6の光軸AXに対して垂直な平面で表される。図5に示すように、画像プロセッサ20は、この撮影面CPを、仮想平面VPよりも、車両Cに近い位置であって、且つ死角領域Aによって区画された仮想平面VPの左端点VP1又は右端点VP2において交差する位置(所定位置)に設定する。ここでは、ドライバーDの頭部中心位置Dcを基準とし、撮影面CPを頭部中心位置Dcに近い位置に設定する。尚、各端点VP1,VP2は、頭部中心位置DcとピラーPの端点P1,P2とをそれぞれ結ぶ接線L1,L2と、仮想平面VPとの交点である。   Further, the image processor 20 determines the imaging plane CP according to the position of the virtual plane VP. The imaging plane CP indicates the focal position of the camera 6 and is represented by a plane perpendicular to the optical axis AX of the camera 6. As shown in FIG. 5, the image processor 20 sets the photographing plane CP at a position closer to the vehicle C than the virtual plane VP and the left end point VP1 or right end of the virtual plane VP defined by the blind spot area A. It is set to a position (predetermined position) that intersects at the point VP2. Here, the imaging plane CP is set to a position close to the head center position Dc with the head center position Dc of the driver D as a reference. Note that the end points VP1 and VP2 are intersections of the tangent lines L1 and L2 connecting the head center position Dc and the end points P1 and P2 of the pillar P, respectively, and the virtual plane VP.

撮影面CPの設定方法について詳述すると、まず、画像プロセッサ20は、カメラ6の光軸AXの方位と、頭部中心位置Dcと基準点Pcとを結んだ中心線Laの方位とを比較する。即ち、光軸AXと水平方向(Y矢印方向)とがなす角度θcと、中心線Laと水平方向(Y矢印方向)とがなす角度θdとを算出する。そして、光軸AXの角度θcの大きさと中心線Laの角度θdの大きさとを比較する。尚、X矢印方向は、車両Cの長手方向と平行な方向、Y矢印方向は、X矢印方向に対して直交する方向であって、車幅方向である。   To describe the setting method of the imaging plane CP in detail, first, the image processor 20 compares the orientation of the optical axis AX of the camera 6 with the orientation of the center line La connecting the head center position Dc and the reference point Pc. . That is, an angle θc formed by the optical axis AX and the horizontal direction (Y arrow direction) and an angle θd formed by the center line La and the horizontal direction (Y arrow direction) are calculated. Then, the magnitude of the angle θc of the optical axis AX is compared with the magnitude of the angle θd of the center line La. The X arrow direction is a direction parallel to the longitudinal direction of the vehicle C, and the Y arrow direction is a direction orthogonal to the X arrow direction and is a vehicle width direction.

図5に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも大きい場合(θc>θd)、上記条件を満たす位置に撮影面CPを設定するには、撮影面CPは右端点VP2を通る位置に設定しなければならない。即ち左端点VP1を通る位置に撮影面CPを設定すると、仮想平面VPよりも、頭部中心位置Dcから遠い位置に設定されてしまう。このため、画像プロセッサ20は、撮影面CPを、仮想平面VPの右端点VP2を通る位置に設定する。   As shown in FIG. 5, when the angle θc of the optical axis AX is larger than the angle θd of the center line La (θc> θd), in order to set the photographing surface CP at a position satisfying the above condition, the photographing surface CP is The position must pass through the right end point VP2. That is, when the imaging plane CP is set at a position passing through the left end point VP1, the position is set farther from the head center position Dc than the virtual plane VP. Therefore, the image processor 20 sets the photographing plane CP at a position that passes through the right end point VP2 of the virtual plane VP.

また、図6に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも大きい場合(θc<θd)、画像プロセッサ20は、撮影面CPを、仮想平面VPの左端点VP1を通る位置に設定する。   Also, as shown in FIG. 6, when the angle θc of the optical axis AX is larger than the angle θd of the center line La (θc <θd), the image processor 20 sets the photographing plane CP to the left end point VP1 of the virtual plane VP. Set to a position that passes through.

光軸AXの角度θcと中心線Laの角度θdとが等しい場合、即ち光軸AXと中心線Laとが重なる場合には、撮影面CPと仮想平面VPとを重ねることができるので、撮影面CPは仮想平面VPの位置に設定する。   When the angle θc of the optical axis AX and the angle θd of the center line La are equal, that is, when the optical axis AX and the center line La overlap, the imaging plane CP and the virtual plane VP can be overlapped, so that the imaging plane CP is set at the position of the virtual plane VP.

撮影面CPを設定すると、画像プロセッサ20は、映像データ入力部22を介して、撮影面CP上にカメラ6の焦点を合わせて撮影し、画像データIMを取得する。
画像データIMを取得すると、画像データIMのうち、仮想平面VPに投影する投影部分CP1をトリミングして、ピラー死角データBDを生成する。即ち、図5に示すように、画像プロセッサ20は、画像データIMのうち、カメラ位置6aと各端点VP1,VP2とを結んだ各直線L3,L4の間の投影部分CP1をトリミングする。投影部分CP1をトリミングしたデータは、ピラー死角データBDとなる。
When the imaging plane CP is set, the image processor 20 captures an image with the focus of the camera 6 on the imaging plane CP via the video data input unit 22 and acquires image data IM.
When the image data IM is acquired, the projection part CP1 projected onto the virtual plane VP in the image data IM is trimmed to generate pillar blind spot data BD. That is, as shown in FIG. 5, the image processor 20 trims the projection portion CP1 between the straight lines L3 and L4 connecting the camera position 6a and the end points VP1 and VP2 in the image data IM. Data obtained by trimming the projection portion CP1 becomes pillar blind spot data BD.

ピラー死角データBDを取得すると、画像プロセッサ20は、ピラー死角データBDを、仮想平面VPに投影変換する。この投影変換は、投影部分CP1の各画素を、仮想平面VP上の各画素に座標変換する処理である。   When the pillar blind spot data BD is acquired, the image processor 20 projects and converts the pillar blind spot data BD onto the virtual plane VP. This projection conversion is a process of coordinate-converting each pixel of the projection portion CP1 to each pixel on the virtual plane VP.

また、画像プロセッサ20は、仮想平面VPに投影変換された画像を、ピラーPの内側面Paを含むピラー面上に投影変換する。ピラー面は、ROM12に記憶されたピラー形状41(図1参照)の3次元座標に基づき設定することができる。尚、ピラー形状41は、ピラーPの外形をパターン又は座標で示したデータであって、車種によって異なるデータである。画像プロセッサ20は、このピラー形状41に基づき、ピラーPの外形を示す長さ方向、車幅方向及び鉛直方向の3次元の座標を取得することができる。また、ピラーPの幅や長さも、3次元の座標を用いたデータとして取得することができる。   Further, the image processor 20 projects and converts the image projected and converted onto the virtual plane VP onto a pillar surface including the inner surface Pa of the pillar P. The pillar surface can be set based on the three-dimensional coordinates of the pillar shape 41 (see FIG. 1) stored in the ROM 12. The pillar shape 41 is data indicating the outer shape of the pillar P by a pattern or coordinates, and is different data depending on the vehicle type. Based on this pillar shape 41, the image processor 20 can acquire three-dimensional coordinates in the length direction, the vehicle width direction, and the vertical direction that indicate the outer shape of the pillar P. The width and length of the pillar P can also be acquired as data using three-dimensional coordinates.

続いて、ピラー面に投影され、ピラーPの位置及び形状に沿った上記画像をプロジェクタ4により投影するために、該画像をプロジェクタ4の位置に合わせて座標変換する。即ち、プロジェクタ4から出力された光が、ピラーPの内側面Paに入射する角度によって、内側面Paに表示される画像は、歪んだり、拡大又は縮小される。従って、例えば、投影変換した上記画像の各画素の座標と、プロジェクタ4に対して出力する画像の各画素の座標とを予め関連付けたマップ等をメインメモリ11等に予め格納しておき、該マップに基づき、投影変換した画像を、プロジェクタ4への出力画像としてさらに座標変換する。そして、座標変換した画像を、プロジェクタ4に対して出力するための投影データPDを生成する。   Subsequently, in order to project the image projected onto the pillar surface and conforming to the position and shape of the pillar P by the projector 4, the image is coordinate-transformed according to the position of the projector 4. That is, the image displayed on the inner surface Pa is distorted, enlarged, or reduced depending on the angle at which the light output from the projector 4 is incident on the inner surface Pa of the pillar P. Therefore, for example, a map or the like in which the coordinates of each pixel of the image subjected to the projection conversion and the coordinates of each pixel of the image output to the projector 4 are associated in advance is stored in the main memory 11 or the like in advance. Then, the projected image is further coordinate-converted as an output image to the projector 4. Then, projection data PD for outputting the coordinate-converted image to the projector 4 is generated.

また、画像プロセッサ20は、投影データPDに対し、ROM12に記憶されたマスクパターン40(図1及び図7参照)に基づき、プロジェクタ4に出力するための映像信号を生成する。図7に示すように、マスクパターン40は、投影データPDにマスクをかけるためのデータであって、ピラーPの内面形状に沿った画像表示領域40aと、マスク40bとから構成されている。画像プロセッサ20は、画像表示領域40aの領域には、投影データPDを読み込み、マスク40bの領域は、プロジェクタ4の非表示にするための出力用データODを生成する。出力用データODを生成すると、画像プロセッサ20は、その出力用データODをプロジェクタ4に出力する。   Further, the image processor 20 generates a video signal to be output to the projector 4 based on the mask pattern 40 (see FIGS. 1 and 7) stored in the ROM 12 for the projection data PD. As shown in FIG. 7, the mask pattern 40 is data for applying a mask to the projection data PD, and includes an image display region 40a along the inner surface shape of the pillar P and a mask 40b. The image processor 20 reads the projection data PD in the area of the image display area 40 a, and generates the output data OD for hiding the projector 4 in the area of the mask 40 b. When the output data OD is generated, the image processor 20 outputs the output data OD to the projector 4.

プロジェクタ4は、図8に示すように、ルーフRの内側であって、ドライバーDが着座するフロントシートFの鉛直方向上方付近に、車両Cの右側のピラーPの内面に画像を投影可能に取り付けられている。図9に示すように、ピラーPの内側面Paには、ピラーPの形状に合わせて切断されたスクリーンSCが貼着されている。プロジェクタ4の焦点は、このスクリーンSCに合わせて調整されている。尚、ピラーPの内側面Paがプロジェクタ4から出力された投影光を受光して鮮明な画像を表示できる材質及び形状からなる場合には、スクリーンSCは省略してもよい。   As shown in FIG. 8, the projector 4 is mounted on the inner side of the pillar P on the right side of the vehicle C so that an image can be projected on the inner side of the front seat F on which the driver D sits inside the roof R. It has been. As shown in FIG. 9, a screen SC cut according to the shape of the pillar P is attached to the inner side surface Pa of the pillar P. The focus of the projector 4 is adjusted according to this screen SC. Note that the screen SC may be omitted when the inner surface Pa of the pillar P is made of a material and shape capable of receiving the projection light output from the projector 4 and displaying a clear image.

図10に示すように、プロジェクタ4は、ピラーPのスクリーンSCに対して投影光Lを出射し、スクリーンSCに画像を投影する。また、そのスクリーンSCの周囲のフロントウィンドウW1又はドアウィンドウW2には、マスク40bにより画像が投影されないようになっている。   As shown in FIG. 10, the projector 4 emits projection light L to the screen SC of the pillar P, and projects an image on the screen SC. Further, an image is not projected on the front window W1 or the door window W2 around the screen SC by the mask 40b.

次に、本実施形態の処理手順について、図11に従って説明する。まず運転支援ユニット2の制御部10は、ピラーPの内側に背景画像を投影する投影モードの開始を待機する(ステップS1)。例えば、タッチパネル、操作スイッチ26が操作され、制御部10が外部入力I/F部25を介して、モード開始要求を受信した場合に、投影モードを開始すると判断する。或いは、イグニッションモジュール(図示略)からのオン信号に基づき、投影モードを開始すると判断してもよい。   Next, the processing procedure of this embodiment will be described with reference to FIG. First, the control unit 10 of the driving support unit 2 waits for the start of a projection mode for projecting a background image inside the pillar P (step S1). For example, when the touch panel and the operation switch 26 are operated and the control unit 10 receives a mode start request via the external input I / F unit 25, it is determined to start the projection mode. Alternatively, it may be determined that the projection mode is started based on an ON signal from an ignition module (not shown).

投影モードを開始すると判断すると(ステップS1においてYES)、制御部10は、経路データ16に基づき、車両Cが交差点又はカーブに接近するのを待機する(ステップS2)。具体的には、制御部10は、車両Cの現在位置が、T字路を含む交差点又は所定の曲率以上のカーブから所定距離範囲(例えば200m)内に進入したと判断すると、交差点又はカーブに接近したと判断する。   If it is determined that the projection mode is to be started (YES in step S1), the control unit 10 waits for the vehicle C to approach the intersection or curve based on the route data 16 (step S2). Specifically, when the control unit 10 determines that the current position of the vehicle C has entered a predetermined distance range (for example, 200 m) from an intersection including a T-junction or a curve having a predetermined curvature or more, the control unit 10 enters the intersection or the curve. Judge that approached.

交差点又はカーブに接近したと判断すると(ステップS2においてYES)、制御部10は、各位置検出センサ8a〜8cを用いて、ドライバーDの頭部位置を検出する(ステップS3)。このとき、制御部10は、センサI/F部23を介して、各位置検出センサ8a〜8cから、頭部D1までの各相対距離を取得する。そして、各相対距離を用いて、三角測量の原理とに基づき、頭部中心位置Dcを特定する。   When it is determined that the vehicle has approached the intersection or curve (YES in step S2), the control unit 10 detects the head position of the driver D using the position detection sensors 8a to 8c (step S3). At this time, the control unit 10 acquires the relative distances from the position detection sensors 8a to 8c to the head D1 via the sensor I / F unit 23. Then, using each relative distance, the head center position Dc is specified based on the principle of triangulation.

頭部中心位置Dcを算出すると、画像プロセッサ20は、上記したように、仮想平面VPを設定する(ステップS4)。車両Cが交差点J(図4参照)に接近しているときは、横断歩道Zの基準点Pcを地図描画データ17に基づき取得して、その基準点Pcを通る位置に仮想平面VPを設定する。横断歩道Zが無い場合には、車両前方の停止線等の道路標示でもよい。車両Cがカーブに接近しているときは、道路に標示された中央線のうち、曲率が大きい位置に基準点Pcを取るようにしてもよい。   When the head center position Dc is calculated, the image processor 20 sets the virtual plane VP as described above (step S4). When the vehicle C is approaching the intersection J (see FIG. 4), the reference point Pc of the pedestrian crossing Z is acquired based on the map drawing data 17, and the virtual plane VP is set at a position passing through the reference point Pc. . When there is no pedestrian crossing Z, a road marking such as a stop line in front of the vehicle may be used. When the vehicle C is approaching a curve, the reference point Pc may be taken at a position where the curvature is large in the center line marked on the road.

さらに、画像プロセッサ20は、撮影面CPを設定する(ステップS5)。このとき、上記したように、画像プロセッサ20は、カメラ6の光軸AXの角度θcと、頭部中心位置Dcと基準点Pcとを結んだ中心線Laの角度θdとを比較する。そして、図5に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも大きい場合には、上記したように、撮影面CPを、仮想平面VPの手前であって、仮想平面VPの右端点VP2を通る位置に設定する。このとき、図5に示すように、左端点VP1と撮影面CPとが離間していることにより、ピラーPによって遮られている死角領域AにおいてピラーPに投影することができない非表示領域B1が生じる。この非表示領域B1は、実際には僅かな領域であるが、ピラーPに画像を表示した際に、ピラーPに表示された画像と、ウィンドウW1,W2を介して見える実際の背景との連続性が若干損なわれる。一方、右端点VP2は、撮影面CPと接しているので、非表示領域B1が生じず、両端に非表示領域B1が存在する場合に比べ画像の連続性が良好となる。   Further, the image processor 20 sets the photographing plane CP (step S5). At this time, as described above, the image processor 20 compares the angle θc of the optical axis AX of the camera 6 with the angle θd of the center line La connecting the head center position Dc and the reference point Pc. Then, as shown in FIG. 5, when the angle θc of the optical axis AX is larger than the angle θd of the center line La, as described above, the imaging plane CP is in front of the virtual plane VP, and the virtual plane VP It is set to a position passing through the right end point VP2 of the plane VP. At this time, as shown in FIG. 5, the non-display area B1 that cannot be projected onto the pillar P in the blind spot area A blocked by the pillar P due to the separation of the left end point VP1 and the imaging surface CP. Arise. The non-display area B1 is actually a small area, but when an image is displayed on the pillar P, the image displayed on the pillar P and the actual background visible through the windows W1 and W2 are continuous. The characteristics are slightly impaired. On the other hand, since the right end point VP2 is in contact with the imaging plane CP, the non-display area B1 does not occur, and the image continuity is better than when the non-display area B1 exists at both ends.

さらに、撮影面CPを仮想平面VPよりも、ドライバーDの頭部中心位置Dcに近い位置に設定しているので、焦点を合わせて撮影した画像のうち、ピラーPに投影されない余剰領域が生じない。   Furthermore, since the photographing plane CP is set closer to the head center position Dc of the driver D than the virtual plane VP, there is no surplus area that is not projected on the pillar P in the image photographed in focus. .

また、図6に示すように、光軸AXの角度θcが、中心線Laの角度θdよりも小さい場合には、撮影面CPを、仮想平面VPの左端点VP1を通る位置に設定する。このとき、左端点VP1と撮影面CPが接しているので、左端点VP1では非表示領域B1が生じない。   As shown in FIG. 6, when the angle θc of the optical axis AX is smaller than the angle θd of the center line La, the imaging plane CP is set to a position passing through the left end point VP1 of the virtual plane VP. At this time, since the left end point VP1 and the imaging plane CP are in contact, the non-display area B1 does not occur at the left end point VP1.

撮影面CPを設定すると、画像プロセッサ20の設定した撮影面CPに基づき、カメラ6は、焦点を撮影面CPに合わせて撮影を行い、画像データIMを取得する(ステップS6)。   When the imaging plane CP is set, the camera 6 performs imaging with the focus on the imaging plane CP based on the imaging plane CP set by the image processor 20, and acquires image data IM (step S6).

画像プロセッサ20は、画像データIMを取得すると、上記したように、画像データIMのうち、仮想平面VPに投影する投影部分CP1を抽出し、(ステップS7)、ピラー死角データBDを生成する。   When acquiring the image data IM, the image processor 20 extracts the projection portion CP1 projected onto the virtual plane VP from the image data IM as described above (step S7), and generates pillar blind spot data BD.

ピラー死角データBDを生成すると、画像プロセッサ20は、ピラー死角データBDに対し投影用画像処理を行う(ステップS8)。具体的には、上記したように、ピラー死角データBDを、ステップS4で設定した仮想平面VPに投影変換する。また、仮想平面VPに投影変換された画像を、上記ピラー形状41に基づき、ピラーPの3次元形状に合わせて変換する。また、ピラーPの3次元形状に合わせて変換された画像を、プロジェクタ4の位置に基づき、座標変換して投影データPDを生成する。また、投影データPD及びマスクパターン40に基づき、ピラーP以外の領域をマスクした出力用データODを生成する。   When the pillar blind spot data BD is generated, the image processor 20 performs projection image processing on the pillar blind spot data BD (step S8). Specifically, as described above, the pillar blind spot data BD is projected and converted to the virtual plane VP set in step S4. Further, the image projected and converted to the virtual plane VP is converted according to the three-dimensional shape of the pillar P based on the pillar shape 41. In addition, the image converted according to the three-dimensional shape of the pillar P is subjected to coordinate conversion based on the position of the projector 4 to generate projection data PD. Further, based on the projection data PD and the mask pattern 40, the output data OD masking the area other than the pillar P is generated.

出力用データODを生成すると、画像プロセッサ20は、その出力用データODをプロジェクタ4に出力する。プロジェクタ4は、図10に示すように、ピラーPの内側面Paに設けられたスクリーンSCに、ピラーPによって遮られた領域の画像を投影する(ステップS9)。スクリーンSCに表示された投影画像は、予め横断歩道Z等の道路標示に合わせた仮想平面VPに投影変換されているので、その道路標示は、フロントウィンドウW1及びドアウィンドウW2を介して視認される背景と、ずれたり傾いたりすることなく表示される。また、撮影面CPが、仮想平面VPのいずれかの端点VP1,VP2に接していることにより、仮想平面VP及び撮影面CPのずれによって生じる非表示領域B1や余剰領域が縮小され、ウィンドウW1,W2を介して見える背景との連続性が向上する。   When the output data OD is generated, the image processor 20 outputs the output data OD to the projector 4. As shown in FIG. 10, the projector 4 projects an image of an area blocked by the pillar P onto the screen SC provided on the inner side surface Pa of the pillar P (step S9). Since the projected image displayed on the screen SC has been projected and converted in advance to a virtual plane VP that matches the road marking such as the pedestrian crossing Z, the road marking is visually recognized through the front window W1 and the door window W2. The background is displayed without shifting or tilting. In addition, since the imaging plane CP is in contact with one of the end points VP1 and VP2 of the virtual plane VP, the non-display area B1 and the surplus area caused by the deviation between the virtual plane VP and the imaging plane CP are reduced, and the window W1, Continuity with the background seen through W2 is improved.

画像プロセッサ20によりピラーPに画像を投影すると、制御部10は、車両Cが、交差点J又はカーブから離れたか否かを判断する(ステップS10)。車両Cが、交差点J又はカーブ内又はその付近にあると判断すると(ステップS10においてNO)、ステップS3に戻り、頭部位置検出(ステップS3)から画像投影(ステップS9)までを繰り返す。即ち、車両Cが交差点J又はカーブを離れるまで、ピラーPによって遮られた画像がピラーPに投影される。   When the image processor 20 projects an image on the pillar P, the control unit 10 determines whether or not the vehicle C has left the intersection J or the curve (step S10). If it is determined that the vehicle C is at or near the intersection J or a curve (NO in step S10), the process returns to step S3, and the head position detection (step S3) to image projection (step S9) are repeated. That is, an image blocked by the pillar P is projected onto the pillar P until the vehicle C leaves the intersection J or the curve.

車両Cが交差点J又はカーブから離れたと判断すると(ステップS10においてYES)、制御部10は、投影モードを終了するか否かを判断する(ステップS11)。終了トリガは、タッチパネルや操作スイッチ26の操作によるモード終了要求、又はイグニッションモジュールのオフ信号である。これらの信号を入力すると、投影モード終了であると判断して(ステップS11においてYES)、処理を終了する。   If it is determined that vehicle C has left the intersection J or the curve (YES in step S10), control unit 10 determines whether or not to end the projection mode (step S11). The end trigger is a mode end request by an operation of the touch panel or the operation switch 26, or an ignition module OFF signal. When these signals are input, it is determined that the projection mode has ended (YES in step S11), and the process ends.

上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、画像プロセッサ20は、車両Cが交差点又はカーブに接近した際に、仮想平面VPを、例えば道路標示といった対象物の基準点Pcを通る位置に設定するようにした。また、カメラ6の撮影面CPを、仮想平面VPの手前であって、仮想平面VPの端点VP1,VP2を通る位置に設定するようにした。このため、ピラーPによって遮られる死角領域Aであるにも関わらず、ピラーPに投影することができない非表示領域B1や、焦点が合わせた画像のうちピラーPに投影することができない余剰領域を縮小することができる。このため、各ウィンドウW1,W2を介して見える実際の背景と連続性の高い、自然で違和感のない画像をピラーPに表示することができる。
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, when the vehicle C approaches an intersection or curve, the image processor 20 sets the virtual plane VP at a position that passes through the reference point Pc of an object such as a road marking. In addition, the imaging plane CP of the camera 6 is set in front of the virtual plane VP and at a position passing through the end points VP1 and VP2 of the virtual plane VP. For this reason, although it is the blind spot area A obstructed by the pillar P, the non-display area B1 that cannot be projected onto the pillar P, or the surplus area that cannot be projected onto the pillar P among the focused images. Can be reduced. For this reason, it is possible to display on the pillar P a natural and uncomfortable image having high continuity with the actual background seen through the windows W1 and W2.

(2)上記実施形態では、カメラ6の光軸AXが水平方向となす角度θcと、死角領域Aの死角方向が水平方向となす角度θdとを比較し、角度θcが角度θdよりも大きいときに、撮影面CPを右端点VP2を通る位置に設定するようにした。また、角度θcが角度θdよりも小さい場合には、撮影面CPを左端点VP1を通る位置に設定するようにした。このため、撮影面CPを常に仮想平面VPの手前に設定することができるので、撮影面CPを、仮想平面VPよりも頭部中心位置Dcから離れた位置に設定した場合に生じる上記余剰領域を縮小することができる。   (2) In the above embodiment, the angle θc formed by the horizontal axis of the optical axis AX of the camera 6 is compared with the angle θd formed by the horizontal direction of the blind area of the blind spot area A, and the angle θc is greater than the angle θd. In addition, the photographing plane CP is set to a position passing through the right end point VP2. When the angle θc is smaller than the angle θd, the photographing plane CP is set to a position that passes through the left end point VP1. For this reason, since the imaging plane CP can always be set in front of the virtual plane VP, the surplus area generated when the imaging plane CP is set at a position farther from the head center position Dc than the virtual plane VP is obtained. Can be reduced.

尚、上記実施形態は以下のように変更してもよい。
・上記実施形態では、地図描画データ17に基づき道路標示の基準点Pcを設定するようにしたが、カメラ6から取得した画像データIMに対して白線認識処理を行って、道路標示の白線(又は黄線)を検出するようにしてもよい。そして、検出した白線の端や中央に、基準点Pcを設定するようにしてもよい。
In addition, you may change the said embodiment as follows.
In the above embodiment, the road marking reference point Pc is set based on the map drawing data 17. However, the white line recognition processing is performed on the image data IM acquired from the camera 6, and the road marking white line (or (Yellow line) may be detected. Then, the reference point Pc may be set at the end or center of the detected white line.

・上記実施形態では、仮想平面VPを横断歩道Z等の道路標示に合わせるようにしたが、仮想平面VPの位置を合わせる対象物は適宜変更してもよい。例えば、信号機等の路面設置物に仮想平面VPを合わせるようにしてもよい。また例えば、車両Cに車両前方の障害物までの相対距離を計測する、障害物検出手段としてのレーダ等を搭載し、歩行者、自転車等の対象障害物が検出された場合に、仮想平面VPを障害物に合わせるようにしてもよい。尚、障害物が、例えば歩行者、自転車であるか否かの判定は、特徴検出等の公知の画像処理を用いる。   In the above embodiment, the virtual plane VP is adjusted to the road marking such as the pedestrian crossing Z, but the object to match the position of the virtual plane VP may be changed as appropriate. For example, the virtual plane VP may be matched with a road surface installation such as a traffic light. Further, for example, when a vehicle C is equipped with a radar or the like as an obstacle detection means for measuring a relative distance to an obstacle ahead of the vehicle, and a target obstacle such as a pedestrian or a bicycle is detected, the virtual plane VP You may make it match with an obstacle. For example, a known image process such as feature detection is used to determine whether the obstacle is a pedestrian or a bicycle.

・横断歩道等の路面標示の位置を示すデータは、例えば、路車間通信又は車車間通信、又はそれらのデータを配信するサーバから取得するようにしてもよい。また、歩行者等の障害物の位置を示すデータも、他車両等の外部装置から受信するようにしてもよい。   -The data which show the position of road markings, such as a pedestrian crossing, may be acquired from the server which distributes road-to-vehicle communication or vehicle-to-vehicle communication, or those data, for example. Data indicating the position of an obstacle such as a pedestrian may also be received from an external device such as another vehicle.

・上記実施形態では、音声案内を用いない場合には、音声プロセッサ24を省略しても良い。
・上記実施形態では、プロジェクタ4によってピラーPの内側面Paに画像を投影するようにしたが、ピラーPの内側に薄型の表示手段としてのディスプレイを設け、画像プロセッサ20からそのディスプレイに出力用データODを出力しても良い。
In the above embodiment, the voice processor 24 may be omitted when voice guidance is not used.
In the above embodiment, the projector 4 projects an image onto the inner surface Pa of the pillar P. However, a display as a thin display unit is provided inside the pillar P, and output data is output from the image processor 20 to the display. OD may be output.

・上記実施形態では、カメラ6はフロントピラーPの外側に設け、フロントピラーPによって遮られる領域を撮影するようにしたが、車両後方や側方等、その他のピラーに設けるようにしてもよい。例えば、カメラ6を車両後方のリヤピラー外側に取り付け、そのカメラ6によってリヤピラーにより遮られる領域を撮影するようにしてもよい。この場合、プロジェクタ4を、リヤピラー内面に画像を投影可能な位置に設け、画像プロセッサ20は、カメラ6によって撮影された画像データに基づき、リヤピラーによって遮られた死角領域の画像をリヤピラー内面に投影する。これにより、例えば車両Cが駐車枠に向かって後退する場合に、ドライバーDがリヤピラーによって遮られた駐車枠を投影画像にて確認することができるので、駐車操作を行いやすくすることができる。また、複数のピラーPの外側に1つずつカメラ6を設けるとともに、プロジェクタ4をカメラ6の位置に応じて複数台設けるようにしてもよい。さらに、一つのピラーPに複数のカメラ6を設けるようにしてもよい。   In the above embodiment, the camera 6 is provided outside the front pillar P and images the area blocked by the front pillar P. However, the camera 6 may be provided in other pillars such as the rear or side of the vehicle. For example, the camera 6 may be attached to the outside of the rear pillar at the rear of the vehicle, and the area blocked by the rear pillar by the camera 6 may be photographed. In this case, the projector 4 is provided at a position where an image can be projected on the inner surface of the rear pillar, and the image processor 20 projects an image of the blind spot area blocked by the rear pillar on the inner surface of the rear pillar based on the image data captured by the camera 6. . Accordingly, for example, when the vehicle C moves backward toward the parking frame, the driver D can confirm the parking frame blocked by the rear pillar in the projection image, so that the parking operation can be easily performed. Further, one camera 6 may be provided outside each of the plurality of pillars P, and a plurality of projectors 4 may be provided according to the position of the camera 6. Further, a plurality of cameras 6 may be provided on one pillar P.

・上記実施形態では、プロジェクタ4を車両CのルーフRの内側に設けるようにしたが、プロジェクタ4の位置はピラーPの内面に画像を投影できる位置であればよく、例えばダッシュボードの上方(略中央)等、その他の位置に設けるようにしてもよい。   In the above embodiment, the projector 4 is provided inside the roof R of the vehicle C. However, the position of the projector 4 may be a position where an image can be projected on the inner surface of the pillar P, for example, above the dashboard (substantially You may make it provide in other positions, such as a center.

本実施形態の運転支援システムのブロック図。The block diagram of the driving assistance system of this embodiment. ドライバーの頭部を検出する位置検出センサの説明図。Explanatory drawing of the position detection sensor which detects the head of a driver. カメラの取付位置の説明図。Explanatory drawing of the attachment position of a camera. 仮想平面の設定位置の説明図。Explanatory drawing of the setting position of a virtual plane. 仮想平面及びカメラ撮影面の説明図。Explanatory drawing of a virtual plane and a camera imaging surface. 仮想平面及びカメラ撮影面の説明図。Explanatory drawing of a virtual plane and a camera imaging surface. マスクパターンの説明図。Explanatory drawing of a mask pattern. プロジェクタの位置を説明する車両の側面図。The side view of the vehicle explaining the position of a projector. 画像が投影されるピラー内面を説明する正面図。The front view explaining the pillar inner surface where an image is projected. プロジェクタの投影方向を説明する説明図。Explanatory drawing explaining the projection direction of a projector. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 従来の仮想平面位置の説明図。Explanatory drawing of the conventional virtual plane position. 従来のカメラ撮影面の説明図。Explanatory drawing of the conventional camera imaging surface.

符号の説明Explanation of symbols

1…運転支援システム、2…運転支援装置としての運転支援ユニット、6…撮影装置としてのカメラ、20…仮想平面設定手段、撮影面設定手段、画像処理手段及び出力制御手段としての画像プロセッサ、109…余剰領域、A…死角領域、AX…光軸、B1…非表示領域、C…車両、CP…撮影面、D…ドライバー、IM…画像データ、La…直線としての中心線、P…ピラー、VP…仮想平面、VP1,VP2…端点。   DESCRIPTION OF SYMBOLS 1 ... Driving assistance system, 2 ... Driving assistance unit as driving assistance device, 6 ... Camera as imaging device, 20 ... Virtual plane setting means, imaging surface setting means, image processing means, and image processor as output control means, 109 ... extra area, A ... blind spot area, AX ... optical axis, B1 ... non-display area, C ... vehicle, CP ... imaging plane, D ... driver, IM ... image data, La ... center line as a straight line, P ... pillar, VP ... virtual plane, VP1, VP2 ... end points.

Claims (4)

車両に取り付けられた撮影装置を用いて、該車両のピラーによって生じる死角領域を撮影し、該死角領域に相当する画像を前記ピラーの内側に表示する運転支援方法において、
前記撮影装置から入力した画像データを投影する仮想平面を設定するとともに、前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定し、
前記撮影面に焦点を合わせた前記画像データを取得して該画像データを前記仮想平面に座標変換し、前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域に相当する画像を表示することを特徴とする運転支援方法。
In a driving support method for photographing a blind spot area caused by a pillar of the vehicle using an imaging device attached to the vehicle and displaying an image corresponding to the blind spot area on the inside of the pillar.
While setting a virtual plane to project the image data input from the imaging device, the imaging surface of the imaging device is set to a position that passes through the end points of the virtual plane defined by the blind spot area generated by the pillar,
The image data focused on the imaging surface is acquired, the image data is coordinate-converted to the virtual plane, and the pillar is arranged inside the pillar based on the image data coordinate-converted to the virtual plane. A driving support method characterized by displaying an image corresponding to a blind spot area that occurs.
車両に取り付けられた撮影装置を用いて、該車両のピラーによって生じる死角領域を撮影し、前記撮影装置によって撮影された画像を前記ピラーの内側に表示する運転支援装置において、
前記撮影装置から入力した画像データを投影する仮想平面を設定する仮想平面設定手段と、
前記撮影装置の撮影面を、前記ピラーによって生じる死角領域によって区画された前記仮想平面の端点を通る位置に設定する撮影面設定手段と、
前記撮影面に焦点を合わせた前記画像データを取得して、該画像データを前記仮想平面に座標変換する画像処理手段と、
前記仮想平面に座標変換された前記画像データに基づき、前記ピラーの内側に、前記ピラーによって生じる死角領域の画像を表示する出力制御手段と
を備えたことを特徴とする運転支援装置。
In a driving support device that uses a photographing device attached to a vehicle to photograph a blind spot area caused by a pillar of the vehicle and displays an image photographed by the photographing device on the inside of the pillar.
Virtual plane setting means for setting a virtual plane for projecting image data input from the imaging device;
A photographing surface setting means for setting a photographing surface of the photographing device to a position passing through an end point of the virtual plane defined by a blind spot region generated by the pillar;
Image processing means for acquiring the image data focused on the imaging surface, and coordinate-converting the image data into the virtual plane;
A driving support apparatus, comprising: output control means for displaying an image of a blind spot area generated by the pillar on the inner side of the pillar based on the image data coordinate-converted into the virtual plane.
請求項2に記載の運転支援装置において、
前記撮影面設定手段は、前記撮影装置の撮影面を、前記仮想平面よりも前記車両に近い位置に設定することを特徴とする運転支援装置。
In the driving assistance device according to claim 2,
The driving support device, wherein the shooting plane setting means sets a shooting plane of the shooting device at a position closer to the vehicle than the virtual plane.
請求項2又は3に記載の運転支援装置において、
前記仮想平面設定手段は、車両周辺の路面上にある描画基準物の位置を取得し、該描画基準物の位置を通る位置に前記仮想平面を設定し、
前記撮影面設定手段は、前記撮影装置の光軸の方位と、前記車両のドライバーの頭部位置及び前記描画基準物の位置を結ぶ直線の方位とに基づき、前記撮影面が交差する前記仮想平面の端点を選択することを特徴とする運転支援装置。
In the driving assistance device according to claim 2 or 3,
The virtual plane setting means acquires the position of a drawing reference object on a road surface around the vehicle, sets the virtual plane at a position passing through the position of the drawing reference object,
The imaging plane setting means includes the virtual plane on which the imaging planes intersect based on the direction of the optical axis of the imaging apparatus and the direction of a straight line connecting the head position of the driver of the vehicle and the position of the drawing reference object. A driving support device characterized by selecting an end point.
JP2007205671A 2007-02-23 2007-08-07 Driving support method and driving support device Expired - Fee Related JP4784572B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007205671A JP4784572B2 (en) 2007-02-23 2007-08-07 Driving support method and driving support device
CN2008100062801A CN101252679B (en) 2007-02-23 2008-02-04 Driving support method and driving support device
US12/068,685 US9126533B2 (en) 2007-02-23 2008-02-11 Driving support method and driving support device
EP20080003040 EP1961613B1 (en) 2007-02-23 2008-02-19 Driving support method and driving support device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007044403 2007-02-23
JP2007044403 2007-02-23
JP2007205671A JP4784572B2 (en) 2007-02-23 2007-08-07 Driving support method and driving support device

Publications (2)

Publication Number Publication Date
JP2008236711A true JP2008236711A (en) 2008-10-02
JP4784572B2 JP4784572B2 (en) 2011-10-05

Family

ID=39908890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007205671A Expired - Fee Related JP4784572B2 (en) 2007-02-23 2007-08-07 Driving support method and driving support device

Country Status (2)

Country Link
JP (1) JP4784572B2 (en)
CN (1) CN101252679B (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015928A1 (en) * 2013-07-30 2015-02-05 Toyota Jidosha Kabushiki Kaisha Driving assist device
JP2017087844A (en) * 2015-11-05 2017-05-25 矢崎総業株式会社 Projection device
US10322673B2 (en) 2014-01-24 2019-06-18 Toyota Jidosha Kabushiki Kaisha Driving assistance device
JP2019125920A (en) * 2018-01-17 2019-07-25 株式会社ジャパンディスプレイ Monitor display system and display method
CN113978367A (en) * 2021-11-16 2022-01-28 武汉华星光电技术有限公司 Vehicle-mounted display device, vehicle-mounted display system and vehicle

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8791996B2 (en) * 2010-03-31 2014-07-29 Aisin Aw Co., Ltd. Image processing system and position measurement system
CN104081763B (en) * 2012-01-17 2018-09-14 日本先锋公司 Image processing apparatus, image processing server, image processing method, image processing program and recording medium
GB201219742D0 (en) * 2012-11-02 2012-12-12 Tom Tom Int Bv Methods and systems for generating a horizon for use in an advanced driver assistance system (adas)
SG11201806626QA (en) * 2016-03-02 2018-09-27 Mitsubishi Electric Corp Autonomous travel assistance device, roadside device, and autonomous travel assistance system
CN110610543B (en) * 2018-06-14 2023-05-12 阿里巴巴(中国)有限公司 Method and device for building three-dimensional pavement and intersection
CN109859529B (en) * 2019-04-16 2023-01-10 河北工业大学 Driving optimization system and method for safely passing through highway exit

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2754297Y (en) * 2004-12-29 2006-01-25 杨文政 Video signal device for investigating automobile parastyle dead angle

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015928A1 (en) * 2013-07-30 2015-02-05 Toyota Jidosha Kabushiki Kaisha Driving assist device
CN105209299A (en) * 2013-07-30 2015-12-30 丰田自动车株式会社 Driving assist device
US10322673B2 (en) 2014-01-24 2019-06-18 Toyota Jidosha Kabushiki Kaisha Driving assistance device
JP2017087844A (en) * 2015-11-05 2017-05-25 矢崎総業株式会社 Projection device
JP2019125920A (en) * 2018-01-17 2019-07-25 株式会社ジャパンディスプレイ Monitor display system and display method
JP7160301B2 (en) 2018-01-17 2022-10-25 株式会社ジャパンディスプレイ MONITOR DISPLAY SYSTEM AND ITS DISPLAY METHOD
CN113978367A (en) * 2021-11-16 2022-01-28 武汉华星光电技术有限公司 Vehicle-mounted display device, vehicle-mounted display system and vehicle
CN113978367B (en) * 2021-11-16 2023-06-02 武汉华星光电技术有限公司 Vehicle-mounted display device, vehicle-mounted display system and vehicle

Also Published As

Publication number Publication date
CN101252679B (en) 2012-05-23
JP4784572B2 (en) 2011-10-05
CN101252679A (en) 2008-08-27

Similar Documents

Publication Publication Date Title
JP4862774B2 (en) Driving support method and driving support device
JP4784572B2 (en) Driving support method and driving support device
EP1961613B1 (en) Driving support method and driving support device
EP1974998B1 (en) Driving support method and driving support apparatus
JP4412365B2 (en) Driving support method and driving support device
JP4497133B2 (en) Driving support method and driving support device
US11511627B2 (en) Display device and computer program
WO2019097763A1 (en) Superposed-image display device and computer program
US20090086019A1 (en) Driving support device, driving support method and computer program
US11525694B2 (en) Superimposed-image display device and computer program
JP6945933B2 (en) Display system
JP7151073B2 (en) Display device and computer program
JP7163748B2 (en) Vehicle display control device
JP6626069B2 (en) Display device for vehicles
JP2008099201A (en) Method and device for supporting driving
JP2010185761A (en) Navigation system, road map display method
JP2020112542A (en) Display system, display controller, and display control program
JP2016078726A (en) Virtual image display
JP5156307B2 (en) In-vehicle camera system
JP4862775B2 (en) Driving support method and driving support device
JP2009005054A (en) Driving support device, driving support method, and program
JP2007230314A (en) Video presenting device and video presenting method
JP2007233430A (en) Driving support method and driving support device
WO2020149109A1 (en) Display system, display control device, and display control program
JP6984341B2 (en) Superimposed image display device and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110627

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4784572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees