JP2006343198A - 車両用画像処理装置、運転支援装置 - Google Patents

車両用画像処理装置、運転支援装置 Download PDF

Info

Publication number
JP2006343198A
JP2006343198A JP2005168627A JP2005168627A JP2006343198A JP 2006343198 A JP2006343198 A JP 2006343198A JP 2005168627 A JP2005168627 A JP 2005168627A JP 2005168627 A JP2005168627 A JP 2005168627A JP 2006343198 A JP2006343198 A JP 2006343198A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
distance
image
visibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005168627A
Other languages
English (en)
Other versions
JP4608631B2 (ja
Inventor
Takayuki Miyahara
孝行 宮原
Hiroaki Kumon
宏明 公文
Hiroshi Murase
洋 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2005168627A priority Critical patent/JP4608631B2/ja
Priority to US11/448,517 priority patent/US7756298B2/en
Priority to FR0605060A priority patent/FR2887035B1/fr
Priority to DE102006026724A priority patent/DE102006026724B4/de
Publication of JP2006343198A publication Critical patent/JP2006343198A/ja
Application granted granted Critical
Publication of JP4608631B2 publication Critical patent/JP4608631B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】目標とする物体の検出結果を用いて視程を検出することができる車両用画像処理装置及び運転支援装置を提供する。
【解決手段】車両の周囲に電波を送波し、その送波した電波の反射波の検出結果に基づいて、前記車両の周囲に存在する物体を検出する物体検出手段10と、少なくとも前記物体検出手段の検出可能範囲を撮像範囲として含み、当該撮像範囲の画像を撮像する撮像手段20と、前記撮像手段の撮像した画像に対して画像処理を施して、前記物体を検出する画像処理手段30と、前記物体検出手段による検出結果、及び前記画像処理手段による検出結果に基づいて、前記車両の周囲の視界状況を検出する視界状況検出手段と、を備える。
【選択図】 図1

Description

本発明は、車両用画像処理装置、運転支援装置に関するものである。
従来、例えば、特許文献1に開示されている技術によれば、レーザビームを走査する走査手段と、レーザビームの反射光を検出して受信信号に変換する光検出器を備えるレーザレーダ装置において、建造物等の基準目標に対してレーザビームを送信し、この基準目標より反射されたレーザビームの反射光に基づいて大気減衰率を算出し、この大気減衰率と目標物に走査されたレーザビームの走査角度を視程距離や雨量に変換する。
特開2004−37474号公報
上述した、従来の技術は、視程距離を求める際、建造物等の基準目標に対してレーザビームを送信し、その反射光を検出する必要がある。従って、建造物等の基準目標が周囲に存在しない場合、視程距離を求めることができない。
本発明は、上記の問題を鑑みてなされたもので、目標とする物体の検出結果を用いて視界状況を検出することができる車両用画像処理装置、及び運転支援装置を提供することを目的とする。
上記目的を達成するために、請求項1に記載の車両用画像処理装置は、
車両の周囲に電波を送波し、その送波した電波の反射波の検出結果に基づいて、車両の周囲に存在する物体を検出する物体検出手段と、
少なくとも物体検出手段の検出可能範囲を撮像範囲として含み、当該撮像範囲の画像を撮像する撮像手段と、
撮像手段の撮像した画像に対して画像処理を施して、物体を検出する画像処理手段と、
物体検出手段による検出結果、及び画像処理手段による検出結果に基づいて、車両の周囲の視界状況を検出する視界状況検出手段と、を備えることを特徴とする。
霧の発生等の悪天候によって車両の周囲が視界不良となる場合、ミリ波等の電波を利用した物体検出手段であれば、豪雨等を除いて車両の周囲に存在する物体の検出が可能である。これに対し、カメラ等の撮像手段は、悪天候の影響を受けて、車両の周囲に存在する物体を鮮明に映し出すことのできない画像(ぼやけた画像)を撮像する。そのため、ぼやけた画像に対して画像処理を施しても、物体検出手段の検出した物体と同一の物体を検出することができないことがある。
本発明は、この点に着目し、物体検出手段の検出結果と、画像処理手段の検出結果とから車両の周囲の視界状況を検出する。これにより、物体検出手段の検出結果を用いて車両の周囲の視界状況を検出することが可能となる。
請求項2に記載の車両用画像処理装置によれば、視界状況検出手段は、物体検出手段が物体を検出したときに、画像処理手段が物体を検出することができなかった場合、車両の周囲の視界不良を検出することを特徴とする。これにより、車両の周囲が視界不良であることを検出することができる。
請求項3に記載の車両用画像処理装置によれば、物体検出手段は、車両と物体との距離を検出するものであって、
視界状況検出手段は、物体検出手段による車両と前記物体との距離の検出結果と、画像処理手段による物体の検出が不能であったとする検出結果、及び物体の検出が可能であったとする検出結果の少なくとも一方の検出結果とに基づいて、車両の周囲の視程距離を推定する視程距離推定手段を備えることを特徴とする。
例えば、図2に示すように、車両の周囲に霧が発生していない場合には、物体としての先行車が鮮明に映し出された画像(霧無し画像)に対して画像処理を施すため、先行車の検出が可能である。しかしながら、車両の周囲に濃霧が発生している場合には、先行車が鮮明に映し出されない、ぼやけた画像(霧発生時の画像)に対して画像処理を施すため、先行車の検出が不能となる。
このように、霧の発生している状況において、先行車の検出が不能であったとする検出結果を示す場合、物体検出手段が同一の先行車との距離を検出していれば、実際には、先行車が存在するものの、視界不良のために、画像処理による先行車の検出が不能となったものと判断できる。従って、物体検出手段の検出結果から、車両の周囲の視程距離は、少なくとも車両と先行車との距離(レーダ出力:M[m])以下であると推定することができる。
なお、撮像手段は、人間の視覚と同様に外界から入射する光を検出するものであるが、その光に対する検出特性(例えば、感度等)は、必ずしも人間の視覚と同じであるとは限らない。そこで、例えば、図2に示すように、画像処理による先行車の検出が不能となったときの車両と先行車との距離を人間の視覚による実際の視程距離(M’[m]以下)に変換する視程距離変換テーブルを用いて、撮像手段と人間の視覚とにおける光に対する検出特性の差異を補正するようにしてもよい。
請求項4に記載の車両用画像処理装置によれば、視程距離推定手段は、物体検出手段による車両と物体との距離の検出結果の時間遷移と、画像処理手段による物体の検出が不能であったとする検出結果、及び物体の検出が可能であったとする検出結果の少なくとも一方の検出結果の時間遷移とから、車両の周囲の視程距離を推定することを特徴とする。
図3(a)に、車両と物体としての先行車との距離(レーダの出力距離)の時間遷移と、画像処理による先行車の検出結果の時間遷移との対応関係を示す。同図(a)に示すように、レーダの出力距離がL[m]のときに画像処理による先行車の検出結果が「×:先行車の検出が不能」である場合、前述のように、車両の周囲の視程距離は、少なくともレーダの出力距離L[m]以下である。
そして、図3(c)に示す視程距離変換テーブルを用いて、撮像手段と人間の視覚とにおける光に対する検出特性の差異を補正すれば、図3(b)に示すように、車両の周囲の視程距離は、少なくともL'[m]以下である、すなわち、視程距離は0[m]〜L'[m]の間であると推定することができる。
ここで、図3(a)に示すように、レーダの出力距離の時間遷移と、画像処理による先行車の検出結果の時間遷移とに着目すれば、推定される視程距離の幅(0[m]〜L'[m])を狭めることができる。すなわち、図3(a)に示すように、レーダの出力距離が次第に短くなる(L→K→M)ときに画像処理による先行車の検出結果が連続してNGである場合、その時間遷移を考慮することで、推定される視程距離の幅は、図3(b)に示すように、0[m]〜L'[m]以下→0[m]〜K'[m]以下→0[m]〜M'[m]以下と狭めることができる。
さらに、レーダの出力距離がM[m]→N[m]となったときに画像処理による先行車の検出結果が「×:先行車の検出が不能」から「○:先行車の検出が可能」に遷移した場合、少なくとも0[m]〜N'[m]の距離では視界が確保されると判断できるため、それまでの画像処理による先行車の検出結果の時間遷移から、推定される視程距離の幅は、N'[m]〜M'[m]とさらに狭めることができる。
その後、図3(a)に示すように、レーダの出力距離がN[m]の付近のときに画像処理による先行車の検出結果が「○:先行車の検出が可能」から「×:先行車の検出が不能」に遷移した場合、視程距離は、図3(b)に示すように、約N'[m]、もしくは約M'[m]であると推定される。ここで、レーダの出力距離がL[m]〜M[m]のときに画像処理による先行車の検出結果が「×:先行車の検出が不能」であったことを鑑みると、視程距離が約M'[m]であるとは考え難い。従って、視程距離は約N'[m]であると推定することができる。
さらに、図3(a)に示すように、レーダの出力距離がN[m]から次第に長くなりM[m]付近となったときに画像処理による先行車の検出結果が「×:先行車の検出が不能」から「○:先行車の検出が可能」に遷移した場合、それ以前に先行車の検出が可能「○」であったときに推定された視程距離N'[m]を考慮すると、視程距離は、図3(b)に示すように、N'[m]〜M'[m]であると推定される。
そして、図3(a)に示すように、レーダの出力距離がM[m]付近のときに画像処理による先行車の検出結果が「×:先行車の検出が不能」と「○:先行車の検出が可能」と交互に遷移する(ハンチングする)場合、その距離付近が視程距離であると考えられるため、視程距離は、図3(b)に示すように、約M'[m]であると推定することができる。
このように、レーダの出力距離の時間遷移と、画像処理による先行車の検出結果の時間遷移とから、車両の周囲の視程距離を推定することで、推定される視程距離の幅を狭めることができる。また、レーダの出力距離と画像処理による先行車の検出結果の時間遷移の仕方によっては、上述したように、おおよその視程距離を推定することができる。
請求項5に記載の車両用画像処理装置は、
車両の周囲に電波を送波し、その送波した電波の反射波の検出結果に基づいて、車両と車両の周囲に存在する物体との距離を検出する物体検出手段と、
少なくとも物体検出手段の検出可能範囲を撮像範囲として含み、当該撮像範囲の画像を撮像する撮像手段と、
物体検出手段が車両と前記物体との距離を検出した場合、撮像手段の撮像した画像の明るさ変化の周波数成分を演算する画像処理手段と、
物体検出手段の検出結果と、画像処理手段の演算結果とに基づいて、車両の周囲の視程距離を推定する視程距離推定手段と、を備えることを特徴とする。
上述したように、車両の周囲に霧が発生していない場合、撮像手段の撮像した画像は、物体としての先行車が鮮明に映し出される。一方、車両の周囲に霧が発生している場合、撮像手段の撮像した画像は、先行車が鮮明に映し出されない、ぼやけた画像となる。ここで、先行車が鮮明に映し出される画像(鮮明画像)とぼやけた画像とを比較すると、物体と物体とを分ける境界線の鮮鋭感(エッジの強さ)は、ぼやけた画像よりも鮮明画像の方が大きいため、双方の画像の明るさ変化の周波数成分を分析すると、ぼやけた画像よりも鮮明画像の方がより多くの高周波成分を有する。
なお、実際の視程距離が一定であっても、物体検出手段の検出する車両と先行車までの距離に応じて、ぼやけた画像のボケ具合が変わる。従って、物体検出手段の検出結果を考慮して、撮像手段の撮像した画像の明るさ変化の周波数成分の演算結果に基づいて、車両の周囲の視程距離を推定することで、視程距離を精度よく推定することができる。
請求項6に記載の車両用画像処理装置によれば、画像処理手段は、周波数成分の演算結果から画像の明るさ変化の周波数特性をさらに演算し、
周波数特性から視程距離に変換する変換テーブルを車両と前記物体との距離に対応付けて記憶する変換テーブル記憶手段を備え、
視程距離推定手段は、車両と物体との距離に対応した変換テーブルを用いて、画像の明るさ変化の周波数特性から車両の周囲の視程距離を推定することを特徴とする。
例えば、図5に示すように、車両と物体としての先行車との距離(レーダの出力距離)に応じた変換テーブルを用意しておき、レーダの出力距離に対応した変換テーブルを用いて、画像の明るさ変化の周波数特性から車両の周囲の視程距離を推定することで、車両と先行車までの距離の違いによるぼやけた画像のボケ具合の違いを考慮することなく、視程距離を推定することができる。
請求項7に記載の車両用画像処理装置によれば、変換テーブル記憶手段は、変換テーブルとして、画像に映し出される物体の明るさに対応した変換テーブルを記憶するものであって、視程距離推定手段は、物体の明るさに応じて、車両の周囲の視程距離を推定する際に用いる変換テーブルを切替えることを特徴とする。
すなわち、物体としての先行車の明るさ(例えば、グレー、白、黒等)が異なれば、上述した変換テーブルの示す特性も異なることが考えられる。従って、物体の明るさに対応した変換テーブルを用いることで、視程距離の推定精度を高めることができる。なお、ぼやけた画像であっても、例えば、その画像の平均的な明るさを求めれば、物体の明るさの違いは判断することができる。従って、その判断結果から、物体の明るさに対応した変換テーブルに切替えることができるようになる。
請求項8に記載の運転支援装置は、
請求項1〜7の何れか1項に記載の車両用画像処理装置と、
視界状況検出手段の検出した視界状況、及び視程距離推定手段の推定した視程距離の少なくとも一方を用いて、車両の運転者の運転操作を支援する運転支援手段と、を備えることを特徴とする。
これにより、例えば、霧発生状況を本車両用画像処理装置で検出して、車両のフォグランプを自動的に点灯させることができる。また、プリクラッシュシステム(PCS)においては、車両の前方の視界が不良であることを本車両用画像処理装置で検出して、プリクラッシュ時の第一警報(シートベルトの巻上げと車両の制動)の開始タイミングを通常よりも早めることができる。また、ブレーキアクチュエータを駆動してブレーキ予圧を与えることで、車両の運転者のブレーキ操作に対する制動反応時間を早めることができる。
以下、本発明の実施形態について図面を用いて説明する。
(第1の実施形態)
図1に本実施形態の車両用画像処理装置の全体構成を示す。同図に示すように、車両用画像処理装置は、レーダ10、カメラ20、画像処理装置30によって構成される。レーダ10は、自車の前部付近に搭載されるもので、例えば、ミリ波等の電波を用いたミリ波レーダ等が採用される。レーダ10は、図示しないアンテナから自車の前方に向けてミリ波帯の電波を照射(送波)し、その反射波をアンテナにて検出し、この検出した反射波に基づいて自車前方の先行車等の物体を検出する。このレーダ10は、自車前方の水平(左右)方向に所定角度の検出可能範囲内の物体を検出する。
そして、レーダ10は、この検出した自車と先行車との距離(車間距離)、自車と先行車との相対速度、及び、横位置(横ずれ位置)からなる物体(先行車)情報データを生成し、画像処理装置30へ所定時間毎(例えば、100ミリ秒毎)に送信する。なお、横位置は、レーダ10の検出可能範囲の中心位置と一致する自車の前部の中心位置からの左右方向の長さを示すものである。
カメラ20は、例えば、電荷結合素子(CCD)等のイメージセンサを内蔵した可視カメラ等であり、自車の前方を撮影することができる位置に搭載される。このように、可視カメラを採用することにより、自車の運転者が視覚によって認識する状況と略同じ状況の画像を撮影することができる。このカメラ20は、前述のレーダ10の検出可能範囲を含む所定角度の撮影範囲の画像を撮影する。
カメラ20は、図示しない内蔵された制御部からの指示に応じて、シャッタースピード、フレームレート、及び、画像処理装置30へ出力するデジタル信号のゲイン等を調整することが可能に構成されている。カメラ20は、撮影した画像の画素毎の明るさの程度(画素値)を示す前方画像データのデジタル信号を画像の水平・垂直同期信号とともに画像処理装置30へ出力する。
画像処理装置30は、図1に示すように、画像入力部31、画像切り出し部32、画像演算処理部33、及び視程距離変換テーブル群34a〜cによって構成される。画像入力部31は、カメラ20からの前方画像データを入力し、その入力した前方画像データを順次記憶部(図示せず)に記憶する。また、記憶部から前方画像データを読み出し、画像切り出し部32へ出力する。
画像切り出し部32は、画像入力部31から前方画像データを入力し、レーダ10からの物体(先行車)情報データにおける距離と横位置に基づいて、前方画像において先行車が映し出されると想定される画像領域を特定し、その特定した領域の画像を切り出す。この画像切り出し部32によって切り出された画像(切り出し画像)は、画像演算処理部33に出力される。
画像演算処理部33は、画像切り出し部32からの切り出し画像に基づいて、カメラ20の撮影した前方画像に映し出される先行車を検出する。この先行車の検出方法については、例えば、予め用意された標準画像を用いて、切り出し画像の中から先行車の形状を抽出することで先行車を検出するテンプレートマッチング手法や、切り出し画像の左右対称性を判定して、切り出し画像が略左右対称である場合に先行車を検出する左右対称性判定手法等、周知の方法を採用すればよい。
また、画像演算処理部33は、レーダ10からの物体(先行車)情報データと、前述した切り出し画像に基づく先行車の検出結果を用いて、物体情報データに対応する先行車が切り出し画像から検出可能であったか、あるいは、検出不能であったかによって、自車前方の視界状況を検出する。
例えば、霧の発生等の悪天候によって自車の周囲が視界不良となる場合、本実施形態のようにミリ波等の電波を利用したレーダ10であれば、豪雨等を除いて自車の周囲に存在する先行車の検出が可能である。これに対し、撮像手段としてのカメラ20は、悪天候の影響を受けて、自車の前方に存在する先行車を鮮明に映し出すことのできない画像(ぼやけた画像)を撮像する。そのため、ぼやけた画像に対して画像処理を施しても、レーダ10の検出した先行車と同一の先行車を検出することができないことがある。
本実施形態の車両用画像処理装置は、この点に着目し、レーダ10からの物体(先行車)情報データと前述した切り出し画像による先行車の検出結果とから自車の前方の視界状況を検出する。これにより、自車の前方の視界状況を検出することが可能となる。具体的には、物体情報データに対応する先行車が切り出し画像から検出することができなかった場合に、自車の前方の視界不良を検出する。これにより、自車の前方が視界不良であることを検出することができる。
さらに、画像演算処理部33は、自車前方の視界不良を検出した際、自車前方の視程距離を推定する。例えば、図2に示すように、自車の周囲に霧が発生していない場合には、先行車が鮮明に映し出された画像(霧無し画像)に対して画像処理を施すため、先行車の検出が可能「○」である。しかしながら、自車の周囲に濃霧が発生している場合には、先行車が鮮明に映し出されない、ぼやけた画像(霧発生時の画像)に対して画像処理を施すため、先行車の検出が不能「×」となる。
このように、霧の発生している状況において、切り出し画像からの先行車の検出が不能「×」であったとする検出結果を示す場合、レーダ10が同一の先行車との距離を検出していれば、実際には、先行車が存在するものの、視界不良のために、画像処理による先行車の検出が不能となったものと判断できる。従って、レーダ10からの物体情報データから、自車前方の視程距離は、少なくとも車両と先行車との距離(レーダ出力:M[m])以下であると推定することができる。
なお、カメラ20は、人間の視覚と同様に外界から入射する光を検出するものであるが、その光に対する検出特性(例えば、感度等)は、必ずしも人間の視覚と同じであるとは限らない。そこで、例えば、図2に示すように、画像処理による先行車の検出が不能となったときの自車と先行車との距離を人間の視覚による実際の視程距離(M’[m]以下)に変換する視程距離変換テーブル34aを用いて、カメラ20と人間の視覚とにおける光に対する検出特性の差異を補正するようにしてもよい。
画像演算処理部33は、自車前方の視界状況の検出結果を図示しない車内LANを介して、自車に搭載される各種アプリケーションシステムに出力する。このアプリケーションシステムとしては、例えば、霧発生状況を検出してフォグランプを自動的に点灯させるアプリケーションシステムがある。
その他のアプリケーションシステムとしては、例えば、プリクラッシュシステム(PCS)が挙げられる。PCSにおいては、自車の前方の視界が不良であることを検出して、プリクラッシュ時の第一警報(シートベルトの巻上げと制動)の開始タイミングを通常よりも早めることができる。また、ブレーキアクチュエータを駆動してブレーキ予圧を与えることで、自車の運転者のブレーキ操作による対する制動反応時間を早めるたりすることに使用することができる。このように、視界状況の検出結果を運転者の運転操作の支援に用いることができる。
次に、本実施形態の車両用画像処理装置の画像処理装置30の動作について、図6に示すフローチャートを用いて説明する。先ず、ステップ(以下、Sと記す)10では、レーダ10からの物体情報データ、及びカメラ20からの前方画像データを入力する。S20では、レーダ10からの物体情報データにおける距離と横位置に基づいて、前方画像において先行車が映し出されると想定される画像領域を特定し、その特定した領域の画像を切り出す。
S30では、S20において切り出した切り出し画像に基づいて、カメラ20の撮影した前方画像に映し出される先行車を検出する画像演算処理を行う。S40では、S30において、物体情報データに対応する先行車が切り出し画像から検出することができなかった場合に、自車の前方の視界不良を検出するとともに、自車前方の視程距離を推定するための視程距離演算処理を行う。S50では、視程距離演算結果を出力する。
このように、本実施形態の車両用画像処理装置は、レーダ10からの物体情報データとカメラ20の撮影した画像から切り出した切り出し画像による先行車の検出結果とから自車の前方の視界状況を検出する。これにより、レーダ10の検出結果を用いて自車前方の視界状況を検出することができる。
(第2の実施形態)
第2の実施形態は、第1の実施形態によるものと共通するところが多いので、以下、共通部分についての詳しい説明は省略し、異なる部分を重点的に説明する。第1の実施形態の画像処理装置30における画像演算処理部33は、自車前方の視界不良を検出するとともに、自車前方の視程距離(M[m]以下)と推定するものである。
これに対し、本実施形態の画像演算処理部33は、レーダ10からの物体情報データにおける自車と先行車との距離の時間遷移と、切り出し画像からの先行車の検出結果(検出可能/検出不能)の時間遷移とから、自車前方の視程距離を推定する。この処理は、図6に示したS40において行われるものである。
図3(a)に、自車と先行車との距離(レーダ10の出力距離)の時間遷移と、画像処理による先行車の検出結果の時間遷移との対応関係を示す。同図(a)に示すように、レーダ10の出力距離がL[m]のときに画像処理による先行車の検出結果が「×:先行車の検出が不能」である場合、自車の前方の視程距離は、第1の実施形態で説明したように、少なくともレーダの出力距離L[m]以下である。
そして、図3(c)に示す視程距離変換テーブル34bを用いて、カメラ20と人間の視覚とにおける光に対する検出特性の差異を補正すれば、図3(b)に示すように、自車の前方の視程距離は、少なくともL'[m]以下である、すなわち、視程距離は0[m]〜L'[m]の間であると推定することができる。
ここで、図3(a)に示すように、レーダ10の出力距離の時間遷移と、画像処理による先行車の検出結果の時間遷移とに着目すれば、推定される視程距離の幅(0[m]〜L'[m])を狭めることができる。すなわち、図3(a)に示すように、レーダ10の出力距離が次第に短くなる(L→K→M)ときに画像処理による先行車の検出結果が連続してNG(検出不能)である場合、その時間遷移を考慮することで、推定される視程距離の幅は、図3(b)に示すように、0[m]〜L'[m]以下→0[m]〜K'[m]以下→0[m]〜M'[m]以下と狭めることができる。
さらに、レーダ10の出力距離がM[m]→N[m]となったときに画像処理による先行車の検出結果が「×:先行車の検出が不能」から「○:先行車の検出が可能」に遷移した場合、少なくとも0[m]〜N'[m]の距離では視界が確保されると判断できるため、それまでの画像処理による先行車の検出結果の時間遷移から、推定される視程距離の幅は、N'[m]〜M'[m]とさらに狭めることができる。
その後、図3(a)に示すように、レーダ10の出力距離がN[m]の付近のときに画像処理による先行車の検出結果が「○:先行車の検出が可能」から「×:先行車の検出が不能」に遷移した場合、視程距離は、図3(b)に示すように、約N'[m]、もしくは約M'[m]であると推定される。ここで、レーダ10の出力距離がL[m]〜M[m]のときに画像処理による先行車の検出結果が「×:先行車の検出が不能」であったことを鑑みると、視程距離が約M'[m]であるとは考え難い。従って、視程距離は約N'[m]であると推定することができる。
さらに、図3(a)に示すように、レーダ10の出力距離がN[m]から次第に長くなりM[m]付近となったときに画像処理による先行車の検出結果が「×:先行車の検出が不能」から「○:先行車の検出が可能」に遷移した場合、それ以前に先行車の検出が可能「○」であったときに推定された視程距離N'[m]を考慮すると、視程距離は、図3(b)に示すように、N'[m]〜M'[m]であると推定される。
そして、図3(a)に示すように、レーダ10の出力距離がM[m]付近のときに画像処理による先行車の検出結果が「×:先行車の検出が不能」と「○:先行車の検出が可能」と交互に遷移する(ハンチングする)場合、その距離付近が視程距離であると考えられるため、視程距離は、図3(b)に示すように、約M'[m]であると推定することができる。
このように、レーダ10の出力距離の時間遷移と、画像処理による先行車の検出結果の時間遷移とから、自車前方の視程距離を推定することで、推定される視程距離の幅を狭めることができる。また、レーダ10の出力距離と画像処理による先行車の検出結果の時間遷移の仕方によっては、上述したように、おおよその視程距離を推定することができる。
(第3の実施形態)
第3の実施形態は、第1及び第2の実施形態によるものと共通するところが多いので、以下、共通部分についての詳しい説明は省略し、異なる部分を重点的に説明する。第1の実施形態における画像演算処理部33は、自車前方の視界不良を検出するとともに、自車前方の視程距離(M[m]以下)と推定するものである。
また、第2の実施形態における画像演算処理部33は、レーダ10からの物体情報データにおける自車と先行車との距離の時間遷移と、切り出し画像からの先行車の検出結果(検出可能/検出不能)の時間遷移とから、自車前方の視程距離を推定するものである。
これに対し、本実施形態の画像演算処理部33は、レーダ10からの物体情報データにおける自車と先行車との距離と、切り出し画像の明るさ変化の周波数成分の演算結果とに基づいて、車両の前方の視程距離を推定する。この処理は、図6に示したS40において行われるものである。
上述したように、自車の前方に霧が発生していない場合、カメラ20の撮像した画像は、先行車が鮮明に映し出される。一方、自車の前方に霧が発生している場合、カメラ20の撮像した画像は、図4に示すように、先行車が鮮明に映し出されない、ぼやけた画像となる。
ここで、先行車が鮮明に映し出される画像(鮮明画像)とぼやけた画像とを比較すると、物体と物体とを分ける境界線の鮮鋭感(エッジの強さ)は、ぼやけた画像よりも鮮明画像の方が大きいため、双方の画像の明るさ変化の周波数成分を分析すると、ぼやけた画像よりも鮮明画像の方がより多くの高周波成分を有する。
なお、実際の視程距離が一定であっても、自車と先行車までの距離に応じて、ぼやけた画像のボケ具合が変わる。従って、レーダ10からの物体情報データにおける自車と先行車との距離とカメラ20の撮像した画像の明るさ変化の周波数成分の演算結果とに基づいて、車両の周囲の視程距離を推定することができる。
具体的には、図4に示すように、切り出し画像に対し、DFFT(離散型高速フーリエ変換)やDCT(離散コサイン変換)等の周知の画像処理技術を用いて、切り出し画像を明るさ変化の周波数成分に分離する周波数分析演算を行う。この周波数分析の演算結果から、各周波数の係数(パワースペクトラム)を第一基底周波数(最も低い周波数)から順次加算し、予め設定されたパワー閾値を超える周波数の値をその画像の周波数特性として定量化する。なお、パワー閾値は、実験等を行って求められる最適な閾値である。
ここで、前述のように、自車と先行車までの距離に応じて、ぼやけた画像のボケ具合が変わる。従って、図5に示すように、この周波数特性と実際の視程距離との関係を示す視程距離変換テーブルを自車と先行車までの距離に対応付けて視程距離変換テーブル34cとして用意しておくとよい。そして、実際にレーダ10から出力される自車と先行車との距離に対応した視程距離変換テーブルを視程距離変換テーブル34cから抽出し、その抽出した視程距離変換テーブルを用いて、画像の明るさ変化の周波数特性から自車の前方の視程距離を推定する。これにより、自車と先行車までの距離の違いによるぼやけた画像のボケ具合の違いを考慮することなく、視程距離を推定することができる。
なお、先行車の明るさ(例えば、グレー、白、黒等)が異なれば、視程距離変換テーブルの示す周波数特性も異なることが考えられる。従って、先行車の明るさに対応した視程距離変換テーブルを自車と先行車までの距離に対応付けて用意しておき、先行車の明るさに応じて、自車の前方の視程距離を推定する際に用いる視程距離変換テーブルを切替えるようにする。この切替えた視程距離変換テーブルを用いて視程距離を推定することで、視程距離の推定精度を高めることができる。
なお、切り出し画像がぼやけた画像であっても、例えば、その画像の平均的な明るさを求めれば、先行車の明るさの違いは判断することができる。従って、その判断結果から、物体の明るさに対応した変換テーブルに切替えることができるようになる。
車両用画像処理装置の全体構成を示すブロック図である。 第1の実施形態に係わる、視程距離の推定方法を説明するための図である。 (a)〜(c)は、第2の実施形態に係わる、視程距離の推定方法を説明するための図である。 第3の実施形態に係わる、周波数分析演算を説明するための図である。 自車と先行車までの距離に対応付けられた周波数特性と実際の視程距離との関係を示す視程距離変換テーブルを示す図である。 画像処理装置30の処理の流れを示すフローチャートである。
符号の説明
10 レーダ
20 カメラ
30 画像処理装置
31 画像入力部
32 画像切り出し部
33 画像演算処理部
34a〜c 視程距離変換テーブル群

Claims (8)

  1. 車両の周囲に電波を送波し、その送波した電波の反射波の検出結果に基づいて、前記車両の周囲に存在する物体を検出する物体検出手段と、
    少なくとも前記物体検出手段の検出可能範囲を撮像範囲として含み、当該撮像範囲の画像を撮像する撮像手段と、
    前記撮像手段の撮像した画像に対して画像処理を施して、前記物体を検出する画像処理手段と、
    前記物体検出手段による検出結果、及び前記画像処理手段による検出結果に基づいて、前記車両の周囲の視界状況を検出する視界状況検出手段と、を備えることを特徴とする車両用画像処理装置。
  2. 前記視界状況検出手段は、前記物体検出手段が前記物体を検出したときに、前記画像処理手段が前記物体を検出することができなかった場合、前記車両の周囲の視界不良を検出することを特徴とする請求項1記載の車両用画像処理装置。
  3. 前記物体検出手段は、前記車両と前記物体との距離を検出するものであって、
    前記視界状況検出手段は、前記物体検出手段による前記車両と前記物体との距離の検出結果と、前記画像処理手段による前記物体の検出が不能であったとする検出結果、及び前記物体の検出が可能であったとする検出結果の少なくとも一方の検出結果とに基づいて、前記車両の周囲の視程距離を推定する視程距離推定手段を備えることを特徴とする請求項1又は2記載の車両用画像処理装置。
  4. 前記視程距離推定手段は、前記物体検出手段による前記車両と前記物体との距離の検出結果の時間遷移と、前記画像処理手段による前記物体の検出が不能であったとする検出結果、及び前記物体の検出が可能であったとする検出結果の少なくとも一方の検出結果の時間遷移とから、前記車両の周囲の視程距離を推定することを特徴とする請求項3記載の車両用画像処理装置。
  5. 車両の周囲に電波を送波し、その送波した電波の反射波の検出結果に基づいて、前記車両と前記車両の周囲に存在する物体との距離を検出する物体検出手段と、
    少なくとも前記物体検出手段の検出可能範囲を撮像範囲として含み、当該撮像範囲の画像を撮像する撮像手段と、
    前記物体検出手段が前記車両と前記物体との距離を検出した場合、前記撮像手段の撮像した画像の明るさ変化の周波数成分を演算する画像処理手段と、
    前記物体検出手段の検出結果と、前記画像処理手段の演算結果とに基づいて、前記車両の周囲の視程距離を推定する視程距離推定手段と、を備えることを特徴とする車両用画像処理装置。
  6. 前記画像処理手段は、前記周波数成分の演算結果から前記画像の明るさ変化の周波数特性をさらに演算し、
    前記周波数特性から視程距離に変換する変換テーブルを前記車両と前記物体との距離に対応付けて記憶する変換テーブル記憶手段を備え、
    前記視程距離推定手段は、前記車両と前記物体との距離に対応した変換テーブルを用いて、前記画像の明るさ変化の周波数特性から前記車両の周囲の視程距離を推定することを特徴とする請求項5記載の車両用画像処理装置。
  7. 前記変換テーブル記憶手段は、前記変換テーブルとして、前記画像に映し出される物体の明るさに対応した変換テーブルを記憶するものであって、
    前記視程距離推定手段は、前記物体の明るさに応じて、前記車両の周囲の視程距離を推定する際に用いる変換テーブルを切替えることを特徴とする請求項5又は6記載の車両用画像処理装置。
  8. 請求項1〜7の何れか1項に記載の車両用画像処理装置と、
    前記視界状況検出手段の検出した視界状況、及び前記視程距離推定手段の推定した視程距離の少なくとも一方を用いて、前記車両の運転者の運転操作を支援する運転支援手段と、を備えることを特徴とする運転支援装置。
JP2005168627A 2005-06-08 2005-06-08 車両用画像処理装置、運転支援装置 Expired - Fee Related JP4608631B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005168627A JP4608631B2 (ja) 2005-06-08 2005-06-08 車両用画像処理装置、運転支援装置
US11/448,517 US7756298B2 (en) 2005-06-08 2006-06-07 Image processing device for vehicle
FR0605060A FR2887035B1 (fr) 2005-06-08 2006-06-07 Dispositif de traitement d'image pour vehicule
DE102006026724A DE102006026724B4 (de) 2005-06-08 2006-06-08 Bildverarbeitungsvorrichtung für ein Fahrzeug und Verfahren zur Bildverarbeitung für ein Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005168627A JP4608631B2 (ja) 2005-06-08 2005-06-08 車両用画像処理装置、運転支援装置

Publications (2)

Publication Number Publication Date
JP2006343198A true JP2006343198A (ja) 2006-12-21
JP4608631B2 JP4608631B2 (ja) 2011-01-12

Family

ID=37465040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005168627A Expired - Fee Related JP4608631B2 (ja) 2005-06-08 2005-06-08 車両用画像処理装置、運転支援装置

Country Status (4)

Country Link
US (1) US7756298B2 (ja)
JP (1) JP4608631B2 (ja)
DE (1) DE102006026724B4 (ja)
FR (1) FR2887035B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170135288A (ko) * 2016-05-31 2017-12-08 한국전자통신연구원 비전기반의 융합형 물체 감지 장치 및 방법
JP2018136713A (ja) * 2017-02-21 2018-08-30 マツダ株式会社 ドライバの視界推定装置及び車両用制御装置
KR102040562B1 (ko) * 2019-09-16 2019-11-06 주식회사 아라종합기술 영상정보를 활용한 시정거리 추정 방법

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8457881B2 (en) * 2008-09-03 2013-06-04 Mitsubishi Electric Corporation Image capturing system for vehicle
EP2187236A1 (en) 2008-11-06 2010-05-19 Ford Global Technologies, LLC A collision warning apparatus
CN101928979B (zh) * 2010-08-06 2012-07-04 厦门大学 金属纳米催化剂的表面结构调控和制备方法
DE102010049216A1 (de) 2010-10-21 2011-07-28 Daimler AG, 70327 Verfahren zum Betrieb einer an einem Fahrzeug angeordneten Kamera
US8773535B2 (en) * 2010-12-08 2014-07-08 GM Global Technology Operations LLC Adaptation for clear path detection using reliable local model updating
CN104145193B (zh) * 2012-03-01 2016-04-27 日产自动车株式会社 车辆检测装置以及车辆检测方法
US9052393B2 (en) 2013-01-18 2015-06-09 Caterpillar Inc. Object recognition system having radar and camera input
US9167214B2 (en) 2013-01-18 2015-10-20 Caterpillar Inc. Image processing system using unified images
EP3007149B1 (en) * 2013-05-31 2021-01-20 Toyota Jidosha Kabushiki Kaisha Driving assistance device for vehicles and onboard computer
EP3215807B1 (en) 2014-11-06 2020-04-15 Gentex Corporation System and method for visibility range detection
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion
US10145951B2 (en) * 2016-03-30 2018-12-04 Aptiv Technologies Limited Object detection using radar and vision defined image detection zone
US10629072B2 (en) 2016-10-20 2020-04-21 Ford Global Technologies, Llc LIDAR and vision vehicle sensing
US10845470B2 (en) 2016-11-16 2020-11-24 Waymo Llc Methods and systems for protecting a light detection and ranging (LIDAR) device
KR102521656B1 (ko) * 2018-01-03 2023-04-13 삼성전자주식회사 객체를 인식하는 방법 및 장치
CN108645854B (zh) * 2018-05-11 2020-11-27 长安大学 一种实时监测高速公路路网整体能见度的系统及方法
CN108663368B (zh) * 2018-05-11 2020-11-27 长安大学 一种实时监测高速公路路网夜间整体能见度的系统及方法
CN108896062B (zh) * 2018-05-11 2021-09-28 长安大学 一种利用电子地图实时提醒团雾路段的装置及方法
MX2021006494A (es) * 2018-12-05 2021-07-06 Ericsson Telefon Ab L M Apuntamiento a objetos.
WO2020248109A1 (en) 2019-06-11 2020-12-17 Lingdong Technology (Beijing) Co., Ltd Self-driving systems
US10937232B2 (en) 2019-06-26 2021-03-02 Honeywell International Inc. Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames
FR3104108B1 (fr) * 2019-12-10 2021-11-12 Renault Sas Procédé de détection d’une situation de faible visibilité pour un conducteur d’un véhicule et système de détection associé.
CN115220029A (zh) * 2021-11-25 2022-10-21 广州汽车集团股份有限公司 一种能见度识别方法、装置及汽车

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07318650A (ja) * 1994-05-24 1995-12-08 Mitsubishi Electric Corp 障害物検知装置
JPH11142168A (ja) * 1997-11-07 1999-05-28 Nissan Motor Co Ltd 環境認識装置
JP2000113397A (ja) * 1998-10-08 2000-04-21 Mitsubishi Motors Corp 車両の走行制御装置
JP2002230558A (ja) * 2001-02-02 2002-08-16 Toru Hagiwara 視環境評価方法
JP2003501635A (ja) * 1999-05-26 2003-01-14 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 対象検出システム
JP2003217099A (ja) * 2002-01-23 2003-07-31 Mitsubishi Electric Corp 車載型周辺監視装置
JP2004317309A (ja) * 2003-04-16 2004-11-11 Mts Institute Inc 視程算定システム及びそのプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6442465B2 (en) * 1992-05-05 2002-08-27 Automotive Technologies International, Inc. Vehicular component control systems and methods
EP0691534B1 (de) * 1994-07-06 2001-12-12 Volkswagen Aktiengesellschaft Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
DE19922963A1 (de) 1999-05-19 2000-11-23 Daimler Chrysler Ag Meß- und Steuerungssystem für Fahrzeuge
DE19934670B4 (de) * 1999-05-26 2004-07-08 Robert Bosch Gmbh Objektdetektionssystem
DE19928915A1 (de) 1999-06-24 2001-01-11 Bosch Gmbh Robert Verfahren zur Sichtweitenbestimmung
DE60029841T2 (de) 2000-08-17 2007-01-11 Hitachi, Ltd. Messteuerung für ein fahrzeug
DE10126492B4 (de) * 2001-05-31 2004-05-19 Daimlerchrysler Ag Verfahren zur Verbesserung der Sicht in Fahrzeugen
JP2003050274A (ja) 2001-08-06 2003-02-21 Junichi Takeno 視界不良の環境において、三次元空間と特徴のあるエネルギーを放出する物体とを同時に立体視として可視化する装置
DE10346483B4 (de) 2003-10-02 2007-11-22 Daimlerchrysler Ag Vorrichtung zur Verbesserung der Sichtverhältnisse in einem Kraftfahrzeug
JP3823965B2 (ja) 2003-10-17 2006-09-20 三菱電機株式会社 レーザレーダ装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07318650A (ja) * 1994-05-24 1995-12-08 Mitsubishi Electric Corp 障害物検知装置
JPH11142168A (ja) * 1997-11-07 1999-05-28 Nissan Motor Co Ltd 環境認識装置
JP2000113397A (ja) * 1998-10-08 2000-04-21 Mitsubishi Motors Corp 車両の走行制御装置
JP2003501635A (ja) * 1999-05-26 2003-01-14 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 対象検出システム
JP2002230558A (ja) * 2001-02-02 2002-08-16 Toru Hagiwara 視環境評価方法
JP2003217099A (ja) * 2002-01-23 2003-07-31 Mitsubishi Electric Corp 車載型周辺監視装置
JP2004317309A (ja) * 2003-04-16 2004-11-11 Mts Institute Inc 視程算定システム及びそのプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170135288A (ko) * 2016-05-31 2017-12-08 한국전자통신연구원 비전기반의 융합형 물체 감지 장치 및 방법
KR102535598B1 (ko) * 2016-05-31 2023-05-23 한국전자통신연구원 비전기반의 융합형 물체 감지 장치 및 방법
JP2018136713A (ja) * 2017-02-21 2018-08-30 マツダ株式会社 ドライバの視界推定装置及び車両用制御装置
KR102040562B1 (ko) * 2019-09-16 2019-11-06 주식회사 아라종합기술 영상정보를 활용한 시정거리 추정 방법

Also Published As

Publication number Publication date
DE102006026724B4 (de) 2009-10-22
JP4608631B2 (ja) 2011-01-12
FR2887035A1 (fr) 2006-12-15
DE102006026724A1 (de) 2006-12-21
US7756298B2 (en) 2010-07-13
US20070008182A1 (en) 2007-01-11
FR2887035B1 (fr) 2010-02-12

Similar Documents

Publication Publication Date Title
JP4608631B2 (ja) 車両用画像処理装置、運転支援装置
JP5012718B2 (ja) 画像処理装置
EP2910971B1 (en) Object recognition apparatus and object recognition method
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP2007172035A (ja) 車載画像認識装置、車載撮像装置、車載撮像制御装置、警告処理装置、画像認識方法、撮像方法および撮像制御方法
JP2008116357A (ja) 物体検出装置
JP2005300315A (ja) 物体検出装置
JP6744236B2 (ja) 画像表示装置
JP2009174900A (ja) 物体検出装置、物体検出方法および物体検出システム
JP2009166624A (ja) 車両用後方監視装置および車両後方監視方法
JP2013157770A (ja) 車載カメラ用露出制御装置
JP2003217099A (ja) 車載型周辺監視装置
JP2008269073A (ja) 車両用物体検出装置
JP2011033594A (ja) 車両用距離算出装置
JP4804202B2 (ja) ステレオ式監視装置
JP4539400B2 (ja) ステレオカメラの補正方法、ステレオカメラ補正装置
KR102360105B1 (ko) 영상 블러를 이용한 3차원 영상 생성방법
JP2004130969A (ja) 先行車両のブレーキ操作判定装置および前記車間距離制御装置
KR20220097656A (ko) 운전자 보조 장치, 차량 및 그 제어 방법
WO2021187338A1 (ja) 撮像システム、撮像制御方法および撮影制御プログラム
WO2022249562A1 (ja) 信号処理装置および方法、並びにプログラム
JP2005297648A (ja) 物体検出装置、車両制御システム
JP2009140289A (ja) 画像処理装置
JP2010079706A (ja) 車両用対象物検出装置
US10897572B2 (en) Imaging and display device for vehicle and recording medium thereof for switching an angle of view of a captured image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071011

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20071203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20071203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100909

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4608631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees