JP2005346385A - 線図形化処理装置 - Google Patents

線図形化処理装置 Download PDF

Info

Publication number
JP2005346385A
JP2005346385A JP2004164942A JP2004164942A JP2005346385A JP 2005346385 A JP2005346385 A JP 2005346385A JP 2004164942 A JP2004164942 A JP 2004164942A JP 2004164942 A JP2004164942 A JP 2004164942A JP 2005346385 A JP2005346385 A JP 2005346385A
Authority
JP
Japan
Prior art keywords
line
edge
lines
processing apparatus
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004164942A
Other languages
English (en)
Other versions
JP4703136B2 (ja
Inventor
Makoto Nishida
誠 西田
Akihiro Watanabe
章弘 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2004164942A priority Critical patent/JP4703136B2/ja
Priority to US11/597,888 priority patent/US20090010482A1/en
Priority to CNA2005800180963A priority patent/CN101006464A/zh
Priority to EP05745923A priority patent/EP1759352A2/en
Priority to KR1020067024990A priority patent/KR100886605B1/ko
Priority to PCT/JP2005/010005 priority patent/WO2005119594A2/en
Publication of JP2005346385A publication Critical patent/JP2005346385A/ja
Application granted granted Critical
Publication of JP4703136B2 publication Critical patent/JP4703136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】車両が走行する路面上に描かれた標示線又は車線の境界線を、画像の中から抽出する際に、標示線又は車線の境界線以外の線の抽出が抑制されつつ、標示線又は車線の境界線が抽出されることが可能な車両用走路判定用の線図形化処理装置を提供する。
【解決手段】路面が撮像されてなる画像から、前記路面上の標示線5L,5Rの境界線又は車両用走路4の境界線を少なくとも2本検出する車両用走路判定用の線図形化処理装置20であって、前記画像内において複数の線L0、La、Lbが互いに交差してなる第1の線群の中から線の長さが最大のものL0を第1の前記境界線として選ぶ第1の境界線抽出部と、前記画像内において複数の線L10、Lc、Ldが互いに交差してなる第2の線群の中から線の長さが最大のものL10を第2の前記境界線として選ぶ第2の境界線抽出部とを備えている。
【選択図】 図2

Description

本発明は、線図形化処理装置に関し、特に車両用走路判定用の線図形化処理装置に関する。
従来、車両が走行する路面上に描かれた標示線又は車線の境界線を検出する車両用走路判定用の線図形化処理装置が知られている。その線図形化処理装置により検出された標示線又は車線の境界線は、標示線又は車線の境界線を基準として車両のレーン・キーピング・オペレーション(車線維持動作)を実行する運転支援システムに用いられたり、標示線又は車線の境界線を基準として車両の横変位を検出し、その結果として車両が走路を逸脱する傾向にあると判定する場合に警報を発する逸脱警報システムに用いられることがある。ここで、標示線には、各車線を区分する通行区分、白線や黄線のような区画線を含む車線境界位置と、乗員に対して注意を促すために設けられた破線状の走行誘導線とが含まれる。
ところで、従来一般の車両用走路判定用の線図形化処理装置では、カメラにより撮像された画像から各画素位置に関連付けた輝度データを抽出し、その抽出された輝度データのうち、しきい値よりも高い輝度を持つ画素位置をエッジ点として抽出し、そのエッジ点群から例えばハフ変換(Hough transformation)のような線図形化処理技術を用いて、標示線又は車線の境界線候補となるエッジ線(直線)を検出している。
特開平8−320997号公報 特開2001−14595号公報
例えば、車両が走行する路面上に描かれた標示線又は車線の境界線に代表されるような、画像において互いに交差することがなくかつ長さが最大の第1及び第2の線を、画像の中から抽出する際に、上記第1及び第2の線以外の線の抽出が抑制されることが望まれている。
特に、従来一般の車両用走路判定用の線図形化処理装置による処理対象となる、画像から抽出された点には、ノイズが含まれ、また、標示線又は車線の境界以外のもの(例えば車両の影や縁石など)による点が含まれることから、点群から線図形化処理技術を用いて線分を抽出した結果として、本来求めたい標示線又は車線の境界線候補以外の、線分が抽出されていた。これにより、処理コストが多くかかる上に、安定した標示線又は車線の境界線の検出にとって不利である。
本発明の目的は、画像において互いに交差することがなくかつ長さが最大の第1及び第2の線を、画像の中から抽出する際に、上記第1及び第2の線以外の線の抽出が抑制されつつ、上記第1及び第2の線が抽出されることが可能な線図形化処理装置を提供することである。
本発明の他の目的は、車両が走行する路面上に描かれた標示線又は車線の境界線を、画像の中から抽出する際に、標示線又は車線の境界線以外の線の抽出が抑制されつつ、標示線又は車線の境界線が抽出されることが可能な車両用走路判定用の線図形化処理装置を提供することである。
本発明の線図形化処理装置は、画像から互いに交差することがなくかつ長さが最大の第1及び第2の線を抽出する線図形化処理装置であって、前記画像内において複数の線が互いに交差してなる第1の線群の中から線の長さが最大のものを前記第1の線として選ぶ第1の線抽出部と、前記画像内において複数の線が互いに交差してなる第2の線群の中から線の長さが最大のものを前記第2の線として選ぶ第2の線抽出部とを備えたことを特徴としている。
本発明の線図形化処理装置は、路面が撮像されている画像から、前記路面上の標示線の境界線又は車両用走路の境界線を少なくとも2本検出する車両用走路判定用の線図形化処理装置であって、前記画像内において複数の線が互いに交差してなる第1の線群の中から線の長さが最大のものを第1の前記境界線として選ぶ第1の境界線抽出部と、前記画像内において複数の線が互いに交差してなる第2の線群の中から線の長さが最大のものを第2の前記境界線として選ぶ第2の境界線抽出部とを備えたことを特徴としている。
本発明の線図形化処理装置において、前記線は、点列からなり、前記線の長さは、前記線の前記点列を構成する複数の点の中で最も遠い2点間の距離に基づいて求められることを特徴としている。
本発明の線図形化処理装置において、前記線は、点列からなり、前記線の長さは、前記線の前記点列を構成する点の数に基づいて求められることを特徴としている。
本発明の線図形化処理装置において、前記線は、点列からなり、前記線の長さは、前記線の前記点列を構成する複数の点の中で最も遠い2点間の距離と、前記線の前記点列を構成する点の数の関数に基づいて求められることを特徴としている。
本発明の線図形化処理装置において、前記画像に含まれる複数の前記点からハフ変換(Hough transformation)を用いて前記点列からなる前記線を抽出することを特徴としている。
本発明の線図形化処理装置において、前記第1の線群及び前記第2の線群のそれぞれは、前記ハフ変換のパラメータ空間を用いて、複数の線が互いに交差しているか否かの判定が行われた結果として検出されることを特徴としている。
本発明の線図形化処理装置において、前記第1の線群の中から線の長さが最大のものを選択する処理、及び前記第2の線群の中から線の長さが最大のものを選択する処理は、前記ハフ変換のパラメータ空間に投票された投票値、及び前記パラメータ空間に投票された複数の点に対応する座標値の少なくともいずれか一方を用いて行われることを特徴としている。
本発明によれば、画像において互いに交差することがなくかつ長さが最大の第1及び第2の線を、画像の中から抽出する際に、上記第1及び第2の線以外の線の抽出が抑制されつつ、上記第1及び第2の線が抽出されることが可能となる。
以下、本発明の車両用走路判定用の線図形化処理装置の一実施形態として標示線検出装置について図面を参照しつつ詳細に説明する。本実施形態の標示線検出装置は、レーン・キーピング・オぺレーションを実行する運転支援装置に適用される。
(第1実施形態)
図13は、本実施形態が適用される車両1を示す平面図である。図14は、車両1の側面図である。図13及び図14に示されるように、この車両1の前方、例えば車両1の車室前部中央(ルームミラー付近など)には、撮像用のCCDカメラ11が設置されている。図14に示すように、CCDカメラ11は、水平方向に対して俯角φを有するように設けられている。
このCCDカメラ11は、図15に示す態様で車両1前方の路面の画像(映像)を取得するもので、その撮像範囲内に走行する車線4の境界線(車線標示で規定される車線の境界位置)である左白線5L及び右白線5Rの画像を含むように搭載されている。
図12は、本実施形態の標示線検出装置20が適用された運転支援装置10を示す概略構成図である。同図に示されるように、この運転支援装置10は、CCDカメラ11と、メインスイッチ12と、標示線検出装置20と、レーンキープ制御ECU30と、車速センサ38と、表示装置40と、ブザー41と、ステアリングトルク制御ECU(駆動回路)31と、ステアリングホイル32に連結されたステアリングシャフト33に配設された操舵角センサ34及びトルクセンサ35と、ステアリングシャフト33にギヤ機構36を介して連結されたモータ37とを備えている。
CCDカメラ11は、取得した画像をアナログの映像信号として標示線検出装置20に出力する。メインスイッチ12は利用者(運転者など)により操作されるシステム作動・停止用の操作スイッチであり、その操作状態に応じた信号をレーンキープ制御ECU30に出力する。レーンキープ制御ECU30は、メインスイッチ12がOFFからONに切り替えられたときに、運転支援システム(運転支援装置10)が作動状態となるように、標示線検出装置20に対して作動状態であることを示す信号を出力する。
表示装置40は、車両1の例えば車室内のインストルメントパネルに設けられており、レーンキープ制御ECU30により点灯駆動されることで利用者によるシステムの作動確認に供される。例えば、車両1の両側に標示線5L、5Rが検出されているとき、レーンキープ制御ECU30は表示装置40を点灯駆動する。ブザー41は、車線逸脱の可能性有りと判定されることでレーンキープ制御ECU30により発声駆動される。
標示線検出装置20は、制御部21と、輝度信号抽出回路22と、RAM(ランダムアクセスメモリ)23と、過去履歴バッファ24とを備えている。
輝度信号抽出回路22は、CCDカメラ11からの映像信号を入力して輝度信号を抽出し、この輝度信号を制御部21に出力する。制御部21は、輝度信号抽出回路22から入力した信号に基づいて、図13に示すように、標示線5L、5Rの検出、道路パラメータ(後述する)の演算、車線4のカーブR、ヨー角θ1及びオフセット量の検出等の処理を行うとともに、当該処理に係る各種データをRAM23に一時記憶する。制御部21は、検出した標示線5L、5Rの幅、及び演算した道路パラメータを過去履歴バッファ24に格納する。
ここで、ヨー角θ1とは、車両1が走行している向きと車線4が延在する向きとの間のずれに対応する角度である。オフセット量とは、車両1の幅方向の中心位置と、車線4の幅(レーン幅)の中心位置とのずれの大きさである。標示線検出装置20は、標示線5L、5Rの位置を示す情報、カーブR、ヨー角θ1及びオフセット量のそれぞれを示す情報をレーンキープ制御ECU30に出力する。
レーンキープ制御ECU30は、標示線検出装置20から入力した、道路パラメータ、標示線5L、5Rの位置、カーブR、ヨー角θ1及びオフセット量と、車速センサ38から入力した車速に基づいて、車両1がカーブを通過するために必要なステアリングトルクを演算するとともに、車線4の逸脱判定等の処理を行う。レーンキープ制御ECU30は、演算により求めた運転支援に必要なステアリングトルクを示す信号をステアリングトルク制御ECU31に出力する。ステアリングトルク制御ECU31は、その入力したステアリングトルクに対応する指令信号をモータ37に出力する。また、レーンキープ制御ECU30は、車線逸脱の判定結果に応じて駆動信号をブザー41に出力して、ブザー41を発声駆動する。
操舵角センサ34は、ステアリングホイル32の操舵角θ2に応じた信号をレーンキープ制御ECU30に出力する。レーンキープ制御ECU30は、操舵角センサ34から入力した信号に基づいて操舵角θ2を検出する。トルクセンサ35は、ステアリングホイル32に伝達される操舵トルクTに応じた信号をレーンキープ制御ECU30に出力する。レーンキープ制御ECU30は、トルクセンサ35から入力した信号に基づいて、操舵トルクTを検出する。ギヤ機構36は、モータ37の発生するトルクをステアリングシャフト33に伝達する。モータ37は、ステアリングトルク制御ECU31から出力される指令信号に応じたトルクを発生する。
次に、図18を参照して、標示線検出装置20において、CCDカメラ11により撮像された画像から標示線を検出する原理について説明する。1本の標示線5L又は5Rが検出されるに際しては、例えば図18に示すような方法で、標示線の幅が求められることにより、標示線の幅と位置が検出される。即ち、図18に示すように、路面画像において車両の進行方向(標示線が延在する方向、図18の上下方向)と概ね直交する水平方向Xのライン上に位置する複数の画素のそれぞれの輝度値に基づいて、その立上りと立下りから標示線の幅が求められる。又は、図18に示すように、水平方向Xのライン上において互いに隣接する画素間の輝度値の偏差を輝度微分値として演算し、その立上りピークと立下りピークから標示線の幅が求められる。
図1−1から図3は、本実施形態での車両用走路判定の処理態様を示すフローチャートである。この処理は、メインスイッチ12がオン操作されていることを前提に所定時間ごとの定時割り込みにて繰り返し実行される。処理がこのルーチンに移行すると、制御部21は、まず各種データの入力処理を実行する。
[ステップS101]
次に、制御部21は、ステップS101に移行して、カメラ映像の入力処理を実行する。具体的には、制御部21は、CCDカメラ11の映像信号から抽出された輝度信号を入力してこれを各画素ごとにA/D(アナログ/デジタル)変換し、画素位置に関連づけた輝度データとしてRAM23に一時記憶する。この画素位置は、CCDカメラ11の撮像範囲(図15参照)に準じて定義される。
なお、上記輝度データは、対応する輝度が明るい(白い)ほど大きく、暗い(黒い)ほど小さい値になる。例えば、この輝度データは8ビット(0〜255)で表されており、輝度が明るいほど値「255」に近づき、暗いほど値「0」に近づく。
[ステップS102]
次に、制御部21は、ステップS102に移行して、エッジ点抽出(白線候補点検出)処理を実行する。具体的には、制御部21は、RAM23に一時記憶した各画素の輝度データを順次、水平方向に1ライン分ずつ読み込む(走査する)。すなわち、制御部21は、RAM23より画素位置が水平方向に並ぶ各画素の輝度データをまとめて読み込む。図16は、水平方向の所定ラインに並ぶ各画素の位置と対応する輝度データの一例を示すグラフである。
図16に示されるように、水平方向に並ぶ各画素の輝度データは、例えば車線4の左白線5L、右白線5Rに対応して明るくなることでピークを示す(図18の輝度値と同様)。従って、制御部21は、各水平方向のラインごとに輝度データと所定のエッジ点検出しきい値とを大小比較することで、標示線に対応する画素位置の候補(エッジ点、白線候補点)を抽出する。制御部21は、所要数(あるいは全て)の水平方向のラインについて上記エッジ点を抽出する。そして、制御部21は、抽出された全てのエッジ点(画素位置)をRAM23に一時記憶する。
輝度が暗から明に変わるエッジ点を立上りエッジ点Puと称し、輝度が暗から明に変わるエッジ点を立下りエッジ点Pdと称する。この立上りエッジ点Puと立下りエッジ点Pdのペアを検出することにより、1本の標示線が検出されることになり、そのペアを構成する立上りエッジ点Puと立下りエッジ点Pdの距離が1本の標示線の幅(図15の符号d1)に相当する。図15及び図16に示すように、単一の水平方向のライン上に、立上りエッジ点Puと立下りエッジ点Pdのペアが2つ存在すれば、車線4の左白線5Lと右白線5Rに対応していることになる。但し、実際には、ノイズや車両や建物等の影によって、左白線5Lと右白線5Rのエッジ点以外のエッジ点(図示せず)が検出される場合が多い。
[ステップS103]
次に、制御部21は、ステップS103に移行して、上記ステップS102を経た後の処理対称画像を上下に分割して、上半分エリア(車両1から遠方に当たる)と下半分エリア(車両1の近傍に当たる)とする。そして、上半分エリアと下半分エリアのそれぞれについて幾何変換を行い、図4に示すような、上半分エリア100と下半分エリア200の路面画像の形式にする。ここでいう幾何変換とは、カメラ11により撮影された画像(図8)が解析されて、路面に対する垂直方向上方から鳥瞰した形式の路面画像(路面の平面図)を生成することをいう。
[ステップS200]
次に、制御部21は、ステップS200のサブルーチンに移行して、図2のエッジ線抽出(白線候補直線検出)処理を実行する。まず、エッジ線抽出処理の前提技術について説明する。
制御部21は、RAM23に一時記憶したエッジ点を読み込んでこの点群を直線にあてはめる(エッジ点から線を導出する)。この直線にあてはめる手法として、例えばHough(ハフ)変換が文献等(「松山隆司他:コンピュータビジョン、149/165、新技術コミュニケーションズ:1999」、「P.V.C.Hough:Methods and means for recognizing complex patterns,U.S.PatentNo.3069654(1962)」)で知られている。
ハフ変換は、パラメータで表現することのできる線図形(直線、円、楕円、放物線など)を抽出できる代表的な手法である。この方法は、複数の線分を抽出することができ、雑音に対して強いという優れた特徴がある。
ここでは、直線検出を考える。直線の表現としては、勾配mとy軸との切片cをパラメータとする方程式
y=mx+c‥‥式(1)
を使う方法と、
あるいは、直線から原点におろした垂線の長さρ、垂線がx軸となす角θをパラメータとする方程式
ρ=xcosθ+ysinθ‥‥式(2)
を使う方法がある。
まず、上記式(1)を使う方法について説明する。
直線上の任意の点(x0,y0)は上記方程式(1)を満足し次式(3)が成り立つ。
0=mx0+c‥‥式(3)
ここで、(m,c)を変数と考えると、式(3)からm−c平面上に直線を描くことができる。これを1本の線を構成するすべての画素について行うと、m−c平面上の直線群はある1点(m0,c0)に集中し、その交点が、求めるパラメータの値となる。図5−1及び図5−2は、このm−c空間によるハフ変換を説明するための図であり、図5−1は、x−y空間を示し、図5−2は、そのm−c空間への写像を示している。図5−1及び図5−2に示すように、点A、B、Cを通る直線群がm−c平面ではそれぞれ直線A、B、Cになり、それらの交点座標が(m0,c0)となっている。
以上がハフ変換を用いた直線検出の原理であるが、具体的には、交点の求め方は次のように行う。即ち、m−c空間に相当する2次元配列を用意し、m−c平面に直線を引くことを、直線が通る配列要素に1を加えるという操作に置き換える。この操作を全てのエッジ点について行った後、累積度数の大きな配列要素を検出すれば交点座標が求まる。
次に、上記式(2)を使う方法について説明する。
直線上の任意の座標(x0,y0)は次式(4)を満足する。
ρ=x0cosθ+y0sinθ‥‥式(4)
ここで、ρは、図6−1に示すように、原点から直線への垂線の長さ、θはこの垂線とx軸との角度である。この式を使うとx−y平面の1点を通る直線群はθ−ρ平面では正弦波となり、図6−1の点A,B,Cを通る直線群は、図6−2のようになる。この場合もやはり1点で交わる。即ち、x−y座標系の点群をpi(xi,yi)(i=1〜n)とすると、点piは、パラメータ(θ,ρ)空間内の曲線
ρ=xicosθ+yisinθ‥‥式(5)
に変換される。
パラメータ空間の各点に曲線がその点を通過する度数を表す関数p(θ,ρ)を定義すると、式(5)を満たす(θ,ρ)に対してp(θ,ρ)に1が加算される。これをパラメータ空間(投票空間)への投票と呼ぶ。x−y座標系で直線を構成する複数の点は、パラメータ空間ではその直線を表す(θ0,ρ0)の点を通る曲線となるから、その交点でp(θ0,ρ0)にピークが生じる。したがって、ピークを検出することにより、直線を抽出することができる。通常は、しきい値n0を決めて、p(θ,ρ)≧n0を満たす点をピークと判定する。
ステップS200では、上記ステップS102で抽出されたエッジ点に対して、上記のハフ変換を行うことによって、エッジ線を抽出する。この場合、ある一本のエッジ線(直線)は、複数の立上りエッジ点Puのみ(即ち、立下りエッジ点Pdを含まない)から構成され、他の一本のエッジ線(直線)は、複数の立下りエッジ点Pdのみ(即ち、立上りエッジ点Puを含まない)から構成されることになる。立上りエッジ点Puのみから構成されるエッジ線を立上りエッジ線と称し、立下りエッジ点Pdのみから構成されるエッジ線を立下りエッジ線と称する。上記ステップS102の結果、左白線5Lと右白線5Rのエッジ点以外のエッジ点(図示せず)が検出される場合が多いことから、ハフ変換を施した結果、上半分エリア100又は下半分エリア200の中には、左白線5Lと右白線5Rのエッジ線以外のエッジ線(図示せず)が検出される場合が多い。
本実施形態では、このエッジ線抽出の段階(ステップS200)において、左白線5Lと右白線5Rのエッジ線以外のエッジ線(ノイズや影によるものを含む)を抽出することを抑制することを目的としている。
図11を参照して、ステップS200におけるエッジ線抽出の概要について説明する。
従来の標示線検出装置では、ハフ変換を用いて車線境界候補となるエッジ線を抽出する際に、パラメータ空間の投票値が極大となる点をエッジ線候補として抽出していたが、実画像を処理した場合には、偽の極大値がノイズとして抽出されるという問題があった。本実施形態では、車線境界を構成するエッジ線は、少なくともエッジ線抽出範囲では交差することは無いという性質を利用して、不要なエッジ線候補の抽出を抑制し、安定した標示線の検出と処理コストの削減を実現する。
次に、図2及び図4を参照して、ステップS200について詳細に説明する。
[ステップS201]
制御部21は、エッジ線抽出処理を開始する(ステップS201)。ここでは、立上りエッジ点Puについてのみエッジ線抽出処理を行い、立下りエッジ点Pdについてのエッジ線抽出処理は行わないこととする。但し、立下りエッジ点Pdについてのエッジ線抽出処理を行う場合には、以下に述べる方法と同様の方法により実行可能である。また、ここでのエッジ線抽出処理の探索範囲は、上記上半分エリア100のみで、下半分エリア200は含まれない。下半分エリア200を探索範囲とするエッジ線抽出処理も別途行われるが、以下に述べる方法と同様の方法により実行可能である。
[ステップS202]
次に、制御部21は、ステップS202に移行して、エッジ点の一つ一つに対して、パラメータ空間への投票を行う(ステップS202)。ステップS202の具体的内容について図7及び図8を参照して説明する。図7に示されるエッジ点は、いずれも上記ステップS201にて探索範囲とされた、図4の上半分エリア100の立上りエッジ点Puである。
ここでは、直線の表現として、勾配mとx軸との切片cをパラメータとする
x=my+c
を使うこととする。図7に示すように、上記上半分エリア100のx−y座標系の複数のエッジ点pi(xi,yi)(i=1〜n)のそれぞれについて、そのエッジ点を通る可能性がある線分を全て考える。例えば、あるエッジ点p0(x0,y0)を通る直線L0102‥は、それぞれ傾きm0102‥(=M0102‥/L)、x軸との切片がc01,c02‥で定義される。また、別のあるエッジ点p1(x1,y1)を通る直線L1112‥は、それぞれ傾きm1112‥(=M1112‥/L)、x軸との切片がc11,c12‥で定義される。上記のあるエッジ点p0(x0,y0)と別のあるエッジ点p1(x1,y1)の両方を通る直線L0は、傾きm0(=M0/L)、x軸との切片がc0で定義される。
ステップS202において、制御部21は、上記上半分エリア100のx−y座標系の複数のエッジ点(本例では立上りエッジ点Puのみ)のそれぞれに対して、そのエッジ点を通る可能性がある全ての直線の傾きmとx軸切片cを求め、図8に示すように、m−c空間(パラメータ空間)に投票する。図8において、zは投票値を示しており、エッジ点の数に対応している。
図7の例では、少なくとも4つのエッジ点p0〜p3は、全て、傾きがm0、x軸との切片がc0で定義される直線L0を通ることから、図8のパラメータ空間では、(m0、c0)に少なくとも4つの投票が入ることになる。このようにして、全てのエッジ点のそれぞれに対して、そのエッジ点を通る可能性が通る全ての直線について、パラメータ空間への投票を行うと、図8に示すように、パラメータ空間には、複数のピーク(極大値)が生じる。
[ステップS203]
次に、制御部21は、ステップS203に移行して、図8のパラメータ空間(ステップS201で設定した探索範囲:ここでは、上記上半分エリア100のみ)内のピーク(極大値)を探索する。図8に示すように、パラメータ空間には、複数のピークが生じる。
図8のパラメータ空間に生じた複数のピークのそれぞれは、上記上半分エリア100のx−y座標系において、エッジ点から抽出されるエッジ線に対応し、そのピークのZの値は、そのx−y座標系において抽出されたエッジ線の線上にのっている(存在する)エッジ点の数に対応している。
ステップS203では、投票値Zの値に関してしきい値が設定され、所定の投票数以上を獲得したピークのみが選択される。ここでは、例えば、z=2がしきい値として設定されると、その結果、パラメータ空間の中の複数のピークの中から、しきい値以上の投票値Zを有するものとして、3つの点(m0、c0)、(m1、c1)、(m2、c2)が選択される。
[ステップS204]
次に、制御部21は、ステップS204に移行して、極大値に対するエッジ線間の交差判定とエッジ線の選択を行う。ステップS204では、パラメータ空間(ステップS201で設定した探索範囲)において、上記ステップS203で設定されたしきい値以上の投票値Zを有するエッジ線のうち、互いに交差するエッジ線を探す。
パラメータ空間において、互いに交差する直線は、ある特定の幾何学的な特性を有する。図9に示されるパラメータ空間に設けられた斜線部(交差範囲標示部)は、x−y座標系処理範囲内において、(m0、c0)によって定義される直線と交差する直線の範囲(上記特定の幾何学的な特性によって示される範囲)を示している。なお、図9において上記斜線部の範囲は数学的に容易に求められるため、その説明を省略する。
ステップS204において、制御部21は、上記ステップS203で探索されたしきい値以上の極大値を持つピークが複数ある場合には、そのピークのそれぞれに対して、図9の斜線部の範囲を求め、その斜線部の範囲に、上記ステップS203で探索された他のピークが入っていないか否かを判定する(エッジ線間の交差判定)。
それと同時に、制御部21は、その斜線部の範囲において、その斜線部が設定される対象(図9では(m0、c0))よりも投票値Zが低いものを消去していく(エッジ線の選択)。図9の例では、(m0、c0)よりも、(m1、c1)と(m2、c2)は、投票値Zが低いことから、(m1、c1)と(m2、c2)は消去され、(m0、c0)のみが残る。
図10に示されるx−y座標系において、直線L0(図7参照)と、直線Laと、直線Lbは互いに交差している。ここで、直線L0は、図7から図9の(m0、c0)に対応して、Z=7である(図7及び図10において直線L0にのっているエッジ点の数は7である)。直線Laは、図8及び図9において、Z=4の(m1、c1)である(図10において直線Laにのっているエッジ点の数は4である)。直線Lbは、図8及び図9において、Z=3の(m2、c2)である(図10において直線Lbにのっているエッジ点の数は3である)。
即ち、図9において(m0、c0)に対して設定された斜線部に入った(m1、c1)と(m2、c2)に対応する直線Laと直線Lbが、図10において、直線L0に対して交差していることが示されている。そして、図9では、互いに交差する直線群L0、La、Lbのうち、最も投票値Zが大きなL0が選択されることにより、標示線又は車線の境界を示すエッジ線として最も確からしい直線が選択されることになる。これにより、標示線又は車線の境界に無関係なエッジ線が除去される。
上記のように、本実施形態では、図4及び図10に示すように、上記幾何変換後の路面画像において、車線(図4、図13及び図15の符号4)の境界を構成するエッジ線ペア、ないし、標示線を構成するエッジ線ペア(立上りエッジ線Luと立下りエッジ線)は互いに平行であるという性質を利用している。ここで「平行である」とは、処理エリア(本例では、上半分エリア100と下半分エリア200のそれぞれ)において交差しない、という意味である。換言すれば、同一のエッジ点が標示線を構成する複数の直線(エッジ線)に含まれることは無い。
図10に示すように、ある処理エリア100において、複数のエッジ線L0、La、Lbが互いに交差した場合には、少なくとも、その互いに交差しているエッジ線群L0、La、Lbの中から1本L0を除いた残りのエッジ線La、Lbは、標示線や車線の境界を構成するエッジ線ではない(例えば車両の影などを誤検出した結果やノイズである)ことになる。
また、互いに交差するエッジ群L0、La、Lbの中で標示線や車線の境界を構成するエッジ線L0は、それが標示線や車線の境界を構成するものであるがゆえに、その長さが最も長いという特徴を持つ。この特徴を利用して、互いに交差するエッジ群L0、La、Lbを検出し、その中で長さが最も長いエッジ線L0を選択すれば、標示線や車線の境界を構成するエッジ線として、最も確からしいものを選択することが可能となる。
即ち、図10において、上記と異なる例を用いて、上記内容を整理して説明すれば、以下の通りとなる。車線の境界ないし標示線を構成するエッジ線として最も確からしいエッジ線L10は、互いに交差するエッジ線群L10、Lc、Ldのグループを検出するステップと、その検出されたグループの中で最も長さの長いエッジ線を選択するステップの結果として検出される。
なお、上記の処理は、全て、ステップS202で設定された探索範囲毎に行われることから、図10の上半分エリア100において、標示線を構成するエッジ線L0と、下半分エリア200において、上記エッジ線L0と同一直線上にあるエッジ線L20は、別の処理にて別の直線として検出される。
上記実施形態では、ステップ201において、エッジ線抽出の対象を立上りエッジ点Puのみとしたが、車線境界を走行レーンと標示線の境界線とするため、路面画像の右半分では立上りエッジ点Pu(立上りエッジ線)を、路面画像の左半分では立下りエッジ点Pd(立下りエッジ線)を、互いに交差しない第1及び第2のエッジ線(点列)として求めてもよい。
上記では、互いに交差するエッジ線群のグループの中から、最も長いエッジ線を選択する方法として、上記ステップS204において投票値Zの値に着目する方法を説明した。これは、エッジ線の長さが長い程、そのエッジ線にのっているエッジ点の数が多い傾向にあることによるものである。但し、互いに交差するエッジ線群のグループの中から、最も長いエッジ線を選択する方法としては、上記ステップS204で投票値Zの値に着目する方法に限定されるものではない。例えば、以下の方法が用いられることができる。
即ち、制御部21は、図9の斜線部が設定される対象(図9では(m0、c0))に投票された7つのエッジ点のそれぞれのx−y座標上での座標値を参照し、7つのエッジ点の中で最も遠い2つのエッジ点間の距離を求める。この距離は、図10に示されたエッジ線L0の上の7つのエッジ点の中で最も遠い2つのエッジ点間の距離、即ちにエッジ線L0の長さに対応する。次いで、制御部21は、図9の斜線部の範囲に入る(m1、c1)の4つエッジ点の中で最も遠い2つのエッジ点間の距離を求める。この距離は、図10に示されたエッジ線Laの上の4つのエッジ点の中で最も遠い2つのエッジ点間の距離、即ち、エッジ線Laの長さに対応する。同様にして、制御部21は、図9の斜線部の範囲に入る(m2、c2)に対応するエッジ線Lbの長さを求める。次に、制御部21は、エッジ線L0、La、Lbの長さを比較し、最も長いエッジ線L0を選択する。
更に、互いに交差するエッジ線群のグループの中から、最も長いエッジ線を選択する方法としては、そのエッジ線にのっている複数のエッジ点の中で最も遠い2つのエッジ点間の距離が大きく、かつそのエッジ線にのっているエッジ点の数(投票値Z)が大きなものを選択する方法が有効である。エッジ線の物理的距離が大きく、かつ明暗差がエッジ点の多さとして表れているエッジ線が、標示線の境界線又は車線の境界線として最も確からしいからである。このことから、投票値Zとエッジ線の物理的距離の評価関数に基づいて選択することができる。
以上説明したステップS200のエッジ線抽出処理では、画像から抽出したエッジ点群からハフ変換を用いて複数のエッジ線を抽出し、その抽出された複数のエッジ線のうち互いに交差するエッジ線群のグループを検出し、そのグループの中で最も長さの長いエッジ線を、車線境界のエッジ線ないしは標示線を構成するエッジ線として選択する方法が採用された。この場合、ステップS200で採用される線図形化処理手段としては、ハフ変換に限定されない。
例えば、上記ハフ変換に代えて、上記エッジ点群を最小2乗法で直線にあてはめる方法により、複数のエッジ線を抽出し、その抽出された複数のエッジ線のうち互いに交差するエッジ線群のグループを検出し、そのグループの中で最も長さの長いエッジ線を、車線境界のエッジ線ないしは標示線を構成するエッジ線として選択する方法が採用されることができる。
または、上記ハフ変換に代えて、例えば、特徴抽出(feature extraction)等の固有ベクトルによる方法その他各種の手法を採用して、上記エッジ点群を直線にあてはめる方法により、複数のエッジ線を抽出し、その抽出された複数のエッジ線のうち互いに交差するエッジ線群のグループを検出し、そのグループの中で最も長さの長いエッジ線を、車線境界のエッジ線ないしは標示線を構成するエッジ線として選択する方法が採用されることができる。
本実施形態のようなエッジ線抽出処理によって、不要なエッジ線候補の抽出が抑制されることによって、処理コストが抑制され、安定した標示線又は車線の検出にとって有利となる。従来は、本実施形態のようなエッジ線処理(特にステップS204)が行われずに、不要なエッジ線候補まで抽出されていたため、その後のレーン選択の処理で、抽出された不要なエッジ線候補を含む複数のエッジ線を全て組み合わせてペアを作った上で、その中から最も確信度の高いペアを選択しなくてはならず、処理コストが嵩むという問題があった。
なお、ステップS200は、標示線検出装置20による標示線のエッジ線を抽出する技術として説明したが、ステップS200で述べた線分抽出技術は、標示線以外の線分を抽出する技術にも適用可能である。即ち、画像の中から線を抽出する場合に、特に、エッジ点のような点が列を構成してなる線(点列)を抽出する場合に、抽出する対象の特徴量(feature parameter)が、「互いに交差しない複数の線であって、かつ長さが長い複数の線であること」である場合には、ステップS200で述べた線分抽出技術が適用可能である。
[ステップS104]
次に、制御部21は、ステップS104に移行して、標示線(エッジ線ペア)抽出処理を実行する。具体的には、上記ステップS200において、互いに交差しない平行なエッジ線のみが抽出されるが、その抽出された複数のエッジ線の中から、制御部21は、立上りエッジ線と立下りエッジ線のペア(エッジ線ペア)を抽出する。上記ステップS200において、互いに交差しない平行なエッジ線のみが抽出されるが、左白線5Lと右白線5Rのエッジ線以外のエッジ線(図示せず)が検出される場合が多いことから、ステップS104の結果、立上りエッジ線と立下りエッジ線のペアの組み合わせも、複数できることになる。
ステップS104において、制御部21は、このような左白線5Lと右白線5Rのそれぞれのエッジ線ペア以外のエッジ線ペアを含む複数のエッジ線ペアの中から、標示線の許容幅を参照して、エッジ線ペアを構成する立上りエッジ線と立下りエッジ線の距離(図15の符号d1)が、標示線の許容幅(図示せず)の範囲に収まっているエッジ線ペアを抽出する。
例えば、標示線の許容幅dsが0〜30cmに設定されているときに、ある立上りエッジ線とある立下りエッジ線との距離d1が50cmであるものは、標示線の許容幅の範囲に入らないために、エッジ線ペアとして抽出されない(幅寸法の点で標示線の候補から除外される)。これに対し、ある立上りエッジ線とある立下りエッジ線との距離d1が20cmであるものは、標示線の許容幅の範囲に入っているために、エッジ線ペアとして抽出される(幅寸法の点で標示線の候補に選ばれる)。
[ステップS105]
次に、制御部21は、ステップS105に移行して、上記ステップS104で抽出された複数のエッジ線ペア(直線)から標示線の候補として、標示線として最も確からしいエッジ線ペアを2つ選択する。このエッジ線ペアは、車両1の両側に対応する画素位置において各1つずつ選択される。このエッジ線ペアの選択に当たっては、例えば前回の検出結果からの車両1のピッチ、ロール、ヨーの各角度、横方向の移動距離つまり、車両1が所定時間内で移動しうる範囲が考慮される。即ち、ステップS105において、選択されるエッジ線ペアは、前回の検出結果との整合性の点で(前回の検出結果を反映させた上で)標示線の候補として選択されるものである。制御部21は、選択された一対の標示線(エッジ線ペア)を画素位置に対応させてRAM23に一時記憶する。
[ステップS106]
次に、制御部21は、ステップS106に移行して、道路パラメータ(曲率、ピッチ角、レーン幅)の計算を行う。ここでは、上記ステップS105で抽出された最も確からしい2本の直線のエッジ線のデータから、そのエッジ線に対応するエッジ点のデータに戻した後に、そのエッジ点のデータに基づいて、上記道路パラメータの計算(曲率、ピッチ角、レーン幅)を行う。
[ステップS300]
次に、制御部21は、ステップS300のサブルーチンに移行して、図3の道路パラメータの異常判定処理を実行する。制御部21は、道路パラメータの異常判定処理を開始すると(ステップS301)、過去履歴バッファ24に、過去の道路パラメータ(ピッチ角、曲率、レーン幅)を格納する(ステップS302)。
次に、制御部21は、ステップS303に移行して、過去履歴バッファ24から、複数の道路パラメータ(ピッチ角、曲率、レーン幅)を読み出し、その読み出した複数の道路パラメータに基づいて、ピッチ角、曲率、レーン幅のそれぞれの基準値を求める。この場合、ピッチ角、曲率、レーン幅のそれぞれの基準値は、それぞれ複数のピッチ角、曲率、レーン幅の平均値であることができる。
次に、制御部21は、ステップS304に移行して、以下の動作を行う。即ち、上記ステップS106で求めたピッチ角と、上記ステップS303で求めたピッチ角の基準値(1)との差の絶対値を求め、その絶対値がしきい値(1)よりも大きいか、又は、上記ステップS106で求めた曲率と、上記ステップS303で求めた曲率の基準値(2)との差の絶対値を求め、その絶対値がしきい値(2)よりも大きいか、又は、上記ステップS106で求めたレーン幅と、上記ステップS303で求めたレーン幅の基準値(3)との差の絶対値を求め、その絶対値がしきい値(3)よりも大きいか、を判定する(ステップS304)。
制御部21は、そのステップS304の判定の結果、上記3つの条件のうち、少なくともいずれか1つが成立すれば、すなわち、絶対値がしきい値よりも大きければ、ステップS305に移行して、道路パラメータが異常であると判定する。
次いで、制御部21は、ステップS306に移行して、検出フラグ(F1)をOFFにセットし、その後、ステップS300の道路パラメータの異常判定のサブルーチンを終了する。一方、制御部21は、上記ステップS304の判定の結果、上記3つの条件の全てが不成立であれば、ステップS305及びステップS306を行うことなく、ステップS300の道路パラメータの異常判定のサブルーチンを終了する。
[ステップS107〜ステップS109]
次に、制御部21は、図1−2のステップS107に移行して、上記ステップ105で選択すべきエッジ線又は上記ステップS105で選択されたエッジ線が存在するか否かを判定する。路面が汚れている場合などであって、標示線が汚れに隠れて見えない状態であったり、汚れて標示線又は車線の境界が薄く(標示線又は車線の境界が検出され難く)なっている状態であって、エッジ線として抽出されない場合には、ステップS107において、エッジ線が存在しないと判定される。このステップS107には、エッジ線のロスト判定も含まれ、検出フラグ(F1)がOFFである場合(ステップS306、後述するステップS113)には、エッジ線が存在しないと判定される。
ステップS107の結果、エッジ線が存在する場合には、エッジ線が連続して存在する時間を示すエッジ線存在時間(T1)を加算する(ステップS108)。一方、ステップS107の判定の結果、エッジ線が存在しない場合には、エッジ線存在時間(T1)をゼロにする(ステップS109)。
[ステップS110]
次に、制御部21は、ステップS110に移行して、道路パラメータが正常であるか否かを判定する。道路パラメータが正常であるか否かは、上記のように、ステップS200の道路パラメータの異常判定により行われる。ステップS110の判定の結果、道路パラメータが正常であると判定された場合には、ステップS111に進み、そうで無い場合には、ステップS114に進む。
[ステップS111]
ステップS111では、制御部21は、エッジ線存在時間(T1)が発見必要時間(T2)よりも大きいか否かが判定される。即ち、上記ステップ105で選択すべきエッジ線又は上記ステップS105で選択されたエッジ線が連続して存在する(ロストではないことを含む)時間である、エッジ線存在時間(T1)が、発見必要時間(T2)よりも長い間、連続(継続)しているか否かが判定される。そのステップS111の判定の結果、エッジ線存在時間(T1)の方が発見必要時間(T2)よりも大きい場合には、ステップS112に進み、そうでない場合には、ステップS113に進む。
[ステップS112]
ステップS112において、制御部21は、2本の標示線を示すエッジ線が正常に検出されたと判断して、検出フラグ(F1)をONに設定する。ステップS112の次には、ステップS114が行われる。
[ステップS113]
ステップS113において、制御部21は、2本の標示線を示すエッジ線が正常に検出されなかったと判断して、検出フラグ(F1)をOFFに設定する。ステップS113の次には、ステップS114が行われる。
[ステップS114]
ステップS114において、制御部21は、道路パラメータを検出フラグ(F1)の値とともにレーンキープ制御ECU30に出力する。レーンキープ制御ECU30では、検出フラグ(F1)を参照し、検出フラグ(F1)がONであるときの道路パラメータを演算対象に含める一方、検出フラグ(F1)がOFFであるときの道路パラメータは、演算対象から除外する。ステップS114の次に、図1−1のステップS101に戻る。
なお、本発明の実施形態は、上記実施形態に限定されるものではなく、次のように変更してもよい。
上記実施形態においては、エッジ点の検出にあたって水平方向の各画素の輝度データとエッジ点検出しきい値とを比較した(ステップS102及び図16参照)。これに対して、図17に示されるように、水平方向の各画素について当該位置に隣接する画素との輝度データの偏差を輝度微分値として演算し、この立ち上がり及び立ち下がりの微分値の大きさ(絶対値)と同様のエッジ点検出しきい値とを比較することで、エッジ点(立上りエッジ点Pu、立下りエッジ点Pd)を検出してもよい。
上記実施形態においては、エッジ点の検出にあたってCCDカメラ11の映像信号から抽出された輝度信号をデジタル化した輝度データとエッジ点検出しきい値とを比較した。これに対して、CCDカメラ11の映像信号から抽出された輝度信号をアナログのままエッジ点検出しきい値相当のアナログ値と比較してもよい。同様に、上記輝度信号をアナログのまま微分し、この微分信号の大きさ(絶対値)と上記に準じたエッジ点検出しきい値(図17)相当のアナログ値と比較してもよい。
上記実施形態においては、CCDカメラ11からの映像信号から輝度信号を抽出して、これに基づく輝度データにて標示線検出を行った。これに対して、例えばカラータイプのカメラでは、その映像信号から色相(色合い)のデータを抽出し、これに基づき標示線検出を行ってもよい。
上記実施形態においては、CCDカメラ11により車両1の前方画像を取得し、これに基づく画像認識にて標示線5L,5Rを検出して車線4に対するレーンキープ制御又は逸脱判定に供した。これに対して、例えばCCDカメラ11を車両1の側部若しくは後部に設置する。そして、CCDカメラ11により車両1の側方画像若しくは後方画像を取得し、これに基づく画像認識にて標示線5L,5Rを検出して車線4に対するレーンキープ制御又は逸脱判定に供してもよい。このように変更をしても、上記実施形態と同様の効果が得られる。
上記実施形態においては、車両1に搭載したCCDカメラ11により車両1の前方画像を取得し、これに基づく画像認識にて標示線5L,5Rを検出して車線4に対するレーンキープ制御又は逸脱判定に供した。これに対して、例えば道路に配設されたカメラの映像を受信・取得し、これに基づく画像認識にて標示線5L,5Rを検出して車線4に対するレーンキープ制御又は逸脱判定に供してもよい。このように変更をしても、上記実施形態と同様の効果が得られる。あるいは、車両1に搭載されたナビゲーションシステムにより車線4と自車両1との相対的位置関係を検出(取得)し、これを車線4に対するレーンキープ制御又は逸脱判定に供してもよい。
上記実施形態においては、CCDカメラ11により車両1の前方画像を取得し、これに基づく画像認識にて標示線5L,5Rを検出して車線4に対するレーンキープ制御又は逸脱判定に供した。これに対して、例えば道路基盤(インフラ)として標示線5L,5Rに磁気マーカなどの電磁波の発信源を配設・整備する。そして、車両1に設けた受信機にて当該発信源の位置を特定し、これに基づき標示線5L,5Rを検出して車線4に対するレーンキープ制御又は逸脱判定に供してもよい。また、磁気マーカに代えて電磁波の送信機などであってもよい。このように変更をしても、上記実施形態と同様の効果が得られる。
上記実施形態においては、撮像用にCCDカメラ11を採用したが、例えば赤外線カメラやCMOSカメラなどでもよい。
例えば、無人搬送車やロボット、路線バスや自動倉庫などに適用しうる自動走行可能な車両システムに本実施形態を適用してもよい。例えば、電波を介した遠隔操作で自動走行させる車両システムに本実施形態を適用してもよい。
本発明の車両用走路判定用の線図形化処理装置の一実施形態の動作の一部を示すフローチャートである。 本発明の車両用走路判定用の線図形化処理装置の一実施形態の動作の他の一部を示すフローチャートである。 本発明の車両用走路判定用の線図形化処理装置の一実施形態の動作の更に他の一部を示すフローチャートである。 本発明の車両用走路判定用の線図形化処理装置の一実施形態の動作の更に他の一部を示すフローチャートである。 本発明の車両用走路判定用の線図形化処理装置の一実施形態において、幾何変換され、上下のエリアに分割された画像におけるエッジ点を模式的に示す図である。 m−c空間によるハフ変換を説明するための図であって、x−y空間を示す図である。 m−c空間によるハフ変換を説明するための図であって、m−c空間への写像を示す図である。 θ−ρ空間によるハフ変換を説明するための図であって、パラメータθ、ρを示す図である。 θ−ρ空間によるハフ変換を説明するための図であって、θ−ρ空間への写像を示す図である。 本発明の車両用走路判定用の線図形化処理装置の一実施形態において、幾何変換され、上下のエリアに分割された画像に対するハフ変換の適用を説明するための図である。 図7のハフ変換のパラメータ空間を模式的に示す図である。 図7のハフ変換のパラメータ空間において、交差する線の範囲を模式的に示す図である。 図7の画像に存在するエッジ点によって構成される複数のエッジ線の位置関係の例を模式的に示す図である。 本発明の車両用走路判定用の線図形化処理装置の一実施形態における、エッジ線抽出処理の概要を説明するための図である。 本発明の車両用走路判定用の線図形化処理装置の一実施形態が適用される運転支援装置の一実施形態の構成を示すブロック図である。 本発明の車両用走路判定用の線図形化処理装置の一実施形態において、車両と標示線を模式的に示した図である。 本発明の車両用走路判定用の線図形化処理装置の一実施形態において、カメラが搭載された車両を模式的に示した図である。 本発明の車両用走路判定用の線図形化処理装置の一実施形態において、カメラの画像を模式的に示した図である。 本発明の車両用走路判定用の線図形化処理装置の一実施形態において、水平方向の所定ラインに並ぶ各画素の位置と対応する輝度データの一例を示すグラフである。 本発明の車両用走路判定用の線図形化処理装置の一実施形態において、水平方向の所定ラインに並ぶ各画素の位置と対応する輝度微分値のデータの一例を示すグラフである。 従来の車両用走路判定用の線図形化処理装置において、標示線の境界を検出する方法を説明するための図である。
符号の説明
1 車両
4 車線
5L 標示線(左白線)
5R 標示線(右白線)
10 運転支援装置
11 CCDカメラ
12 メインスイッチ
20 標示線検出装置
21 制御部
22 輝度信号抽出回路
23 RAM
24 過去履歴バッファ
30 レーンキープ制御ECU
31 ステアリングトルク制御ECU
32 ステアリングホイル
33 ステアリングシャフト
34 操舵角センサ
35 トルクセンサ
36 ギヤ機構
37 モータ
38 車速センサ
40 表示装置
41 ブザー
100 上半分エリア
200 下半分エリア
Pd 立下りエッジ点
Pu 立上りエッジ点
R 曲率
θ1 ヨー角
θ2 操舵角
φ 俯角

Claims (8)

  1. 画像から互いに交差することがなくかつ長さが最大の第1及び第2の線を抽出する線図形化処理装置であって、
    前記画像内において複数の線が互いに交差してなる第1の線群の中から線の長さが最大のものを前記第1の線として選ぶ第1の線抽出部と、
    前記画像内において複数の線が互いに交差してなる第2の線群の中から線の長さが最大のものを前記第2の線として選ぶ第2の線抽出部と
    を備えたことを特徴とする線図形化処理装置。
  2. 路面が撮像されてなる画像から、前記路面上の標示線の境界線又は車両用走路の境界線を少なくとも2本検出する車両用走路判定用の線図形化処理装置であって、
    前記画像内において複数の線が互いに交差してなる第1の線群の中から線の長さが最大のものを第1の前記境界線として選ぶ第1の境界線抽出部と、
    前記画像内において複数の線が互いに交差してなる第2の線群の中から線の長さが最大のものを第2の前記境界線として選ぶ第2の境界線抽出部と
    を備えたことを特徴とする線図形化処理装置。
  3. 請求項1または2に記載の線図形化処理装置において、
    前記線は、点列からなり、
    前記線の長さは、前記線の前記点列を構成する複数の点の中で最も遠い2点間の距離に基づいて求められる
    ことを特徴とする線図形化処理装置。
  4. 請求項1または2に記載の線図形化処理装置において、
    前記線は、点列からなり、
    前記線の長さは、前記線の前記点列を構成する点の数に基づいて求められる
    ことを特徴とする線図形化処理装置。
  5. 請求項1または2に記載の線図形化処理装置において、
    前記線は、点列からなり、
    前記線の長さは、前記線の前記点列を構成する複数の点の中で最も遠い2点間の距離と、前記線の前記点列を構成する点の数の関数に基づいて求められる
    ことを特徴とする線図形化処理装置。
  6. 請求項3から5のいずれか1項に記載の線図形化処理装置において、
    前記画像に含まれる複数の前記点からハフ変換(Hough transformation)を用いて前記点列からなる前記線を抽出する
    ことを特徴とする線図形化処理装置。
  7. 請求項6記載の線図形化処理装置において、
    前記第1の線群及び前記第2の線群のそれぞれは、前記ハフ変換のパラメータ空間を用いて、複数の線が互いに交差しているか否かの判定が行われた結果として検出される
    ことを特徴とする線図形化処理装置。
  8. 請求項6または7に記載の線図形化処理装置において、
    前記第1の線群の中から線の長さが最大のものを選択する処理、及び前記第2の線群の中から線の長さが最大のものを選択する処理は、前記ハフ変換のパラメータ空間に投票された投票値、及び前記パラメータ空間に投票された複数の点に対応する座標値の少なくともいずれか一方を用いて行われる
    ことを特徴とする線図形化処理装置。
JP2004164942A 2004-06-02 2004-06-02 線図形化処理装置 Active JP4703136B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2004164942A JP4703136B2 (ja) 2004-06-02 2004-06-02 線図形化処理装置
US11/597,888 US20090010482A1 (en) 2004-06-02 2005-05-25 Diagrammatizing Apparatus
CNA2005800180963A CN101006464A (zh) 2004-06-02 2005-05-25 图表化装置
EP05745923A EP1759352A2 (en) 2004-06-02 2005-05-25 Diagrammatizing apparatus
KR1020067024990A KR100886605B1 (ko) 2004-06-02 2005-05-25 표시선 검출기
PCT/JP2005/010005 WO2005119594A2 (en) 2004-06-02 2005-05-25 Diagrammatizing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004164942A JP4703136B2 (ja) 2004-06-02 2004-06-02 線図形化処理装置

Publications (2)

Publication Number Publication Date
JP2005346385A true JP2005346385A (ja) 2005-12-15
JP4703136B2 JP4703136B2 (ja) 2011-06-15

Family

ID=35276120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004164942A Active JP4703136B2 (ja) 2004-06-02 2004-06-02 線図形化処理装置

Country Status (6)

Country Link
US (1) US20090010482A1 (ja)
EP (1) EP1759352A2 (ja)
JP (1) JP4703136B2 (ja)
KR (1) KR100886605B1 (ja)
CN (1) CN101006464A (ja)
WO (1) WO2005119594A2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009088035A1 (ja) * 2008-01-11 2009-07-16 Nec Corporation 車線認識装置、車線認識方法および車線認識プログラム
JP2009271908A (ja) * 2008-04-09 2009-11-19 Honda Motor Co Ltd 車両走行支援装置、車両、車両走行支援プログラム
JP4956442B2 (ja) * 2005-12-27 2012-06-20 本田技研工業株式会社 車両
JP2012181691A (ja) * 2011-03-01 2012-09-20 Yazaki Corp 路面上パターン認識方法および車両用情報記録装置
CN104036246A (zh) * 2014-06-10 2014-09-10 电子科技大学 一种基于多特征融合及多态均值的车道线定位方法
JP2015508350A (ja) * 2011-12-06 2015-03-19 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh あらかじめ定められた駐車位置の位置特定方法および装置
WO2018173352A1 (ja) * 2017-03-24 2018-09-27 株式会社Screenホールディングス 画像処理方法および画像処理装置
JP2018160217A (ja) * 2017-03-24 2018-10-11 株式会社Screenホールディングス 画像処理方法および画像処理装置

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008028957A (ja) * 2006-07-25 2008-02-07 Denso Corp 車両用画像処理装置
EP2168079B1 (en) 2007-01-23 2015-01-14 Valeo Schalter und Sensoren GmbH Method and system for universal lane boundary detection
US10425595B2 (en) * 2007-11-28 2019-09-24 Flir Systems, Inc. Modular camera systems and methods
KR101044728B1 (ko) * 2009-09-15 2011-06-28 에스엘 주식회사 차선 이탈 경고 시스템 및 방법
TWI410880B (zh) * 2010-03-29 2013-10-01 Anmo Electronics Corp 與數位影像分析相關的電腦程式產品
US9280711B2 (en) 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
US9959595B2 (en) 2010-09-21 2018-05-01 Mobileye Vision Technologies Ltd. Dense structure from motion
US9076046B2 (en) * 2010-12-15 2015-07-07 Honda Motor Co., Ltd. Lane recognition device
CN102509067B (zh) * 2011-09-22 2014-04-02 西北工业大学 一种车道边界和主车方位检测方法
US9349069B2 (en) * 2011-11-21 2016-05-24 Analog Devices, Inc. Dynamic line-detection system for processors having limited internal memory
JP5939775B2 (ja) * 2011-11-30 2016-06-22 キヤノン株式会社 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法
KR101288374B1 (ko) 2012-05-18 2013-07-22 (주)베라시스 외차선 도로에서의 차선 설정장치 및 그 방법
JP6087858B2 (ja) * 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
JP6185418B2 (ja) * 2014-03-27 2017-08-23 トヨタ自動車株式会社 走路境界区画線検出装置
JP2015200976A (ja) * 2014-04-04 2015-11-12 富士通株式会社 移動量推定装置、移動量推定方法、およびプログラム
DE102015005975B4 (de) * 2015-05-08 2019-01-31 Audi Ag Verfahren zum Betrieb eines Querführungssystems eines Kraftfahrzeugs und Kraftfahrzeug
JP6981850B2 (ja) * 2017-11-09 2021-12-17 株式会社Soken 運転支援システム
JP2022010577A (ja) * 2020-06-29 2022-01-17 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP2022126341A (ja) * 2021-02-18 2022-08-30 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US20230051155A1 (en) * 2021-08-13 2023-02-16 Here Global B.V. System and method for generating linear feature data associated with road lanes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61121183A (ja) * 1984-11-19 1986-06-09 Fujitsu Ltd 不連続線分図形識別方式
JPH03194670A (ja) * 1989-12-22 1991-08-26 Honda Motor Co Ltd 走行路判別方法
JPH07168940A (ja) * 1993-11-25 1995-07-04 Matsushita Electric Works Ltd 位置検出方法
JPH1166302A (ja) * 1997-08-26 1999-03-09 Matsushita Electric Works Ltd 直線検出方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) * 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
EP0361914B1 (en) * 1988-09-28 1995-12-13 Honda Giken Kogyo Kabushiki Kaisha A driving way judging device and method
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
EP0567059B1 (en) * 1992-04-24 1998-12-02 Hitachi, Ltd. Object recognition system using image processing
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3556766B2 (ja) 1996-05-28 2004-08-25 松下電器産業株式会社 道路白線検出装置
US5991427A (en) * 1996-07-31 1999-11-23 Aisin Seiki Kabushiki Kaisha Method and apparatus for detecting a lane on a road
EP0827127B1 (en) * 1996-08-28 2006-10-04 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and method therefor
KR19980086254A (ko) * 1997-05-31 1998-12-05 문정환 직선 허프변환기
US6047234A (en) * 1997-10-16 2000-04-04 Navigation Technologies Corporation System and method for updating, enhancing or refining a geographic database using feedback
JP3373773B2 (ja) * 1998-01-27 2003-02-04 株式会社デンソー レーンマーク認識装置、車両走行制御装置および記録媒体
US6898333B1 (en) * 1999-08-06 2005-05-24 Cognex Corporation Methods and apparatus for determining the orientation of an object in an image
JP2001109998A (ja) * 1999-10-08 2001-04-20 Hitachi Ltd 車両走行支援装置
JP3427809B2 (ja) * 2000-03-09 2003-07-22 株式会社デンソー 車両用道路形状認識方法及び装置、記録媒体
KR100373002B1 (ko) * 2000-04-03 2003-02-25 현대자동차주식회사 차량의 차선 이탈 판단 방법
JP2001289654A (ja) * 2000-04-11 2001-10-19 Equos Research Co Ltd ナビゲーション装置、ナビゲーション装置の制御方法、及びそのプログラムを記録した記録媒体
WO2001080068A1 (en) * 2000-04-14 2001-10-25 Mobileye, Inc. Generating a model of the path of a roadway from an image recorded by a camera
US6819779B1 (en) * 2000-11-22 2004-11-16 Cognex Corporation Lane detection system and apparatus
JP3630100B2 (ja) * 2000-12-27 2005-03-16 日産自動車株式会社 車線検出装置
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
JP3904988B2 (ja) * 2002-06-27 2007-04-11 株式会社東芝 画像処理装置およびその方法
JP4374211B2 (ja) * 2002-08-27 2009-12-02 クラリオン株式会社 レーンマーカー位置検出方法及びレーンマーカー位置検出装置並びに車線逸脱警報装置
KR100472823B1 (ko) * 2002-10-21 2005-03-08 학교법인 한양학원 차선 인식 방법 및 시스템
FR2848935B1 (fr) * 2002-12-20 2005-04-29 Valeo Vision Procede de detection de virages sur une route et systeme de mise en oeuvre
US6856897B1 (en) * 2003-09-22 2005-02-15 Navteq North America, Llc Method and system for computing road grade data
KR20050043006A (ko) * 2003-11-04 2005-05-11 현대자동차주식회사 차선 검출 방법
JP4377665B2 (ja) * 2003-12-01 2009-12-02 本田技研工業株式会社 位置検出用マーク、並びに、マーク検出装置、その方法及びそのプログラム
JP2005215985A (ja) * 2004-01-29 2005-08-11 Fujitsu Ltd 走行車線判定プログラムおよびその記録媒体、走行車線判定装置ならびに走行車線判定方法
US7672514B2 (en) * 2004-03-02 2010-03-02 Sarnoff Corporation Method and apparatus for differentiating pedestrians, vehicles, and other objects
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP4093208B2 (ja) * 2004-05-28 2008-06-04 トヨタ自動車株式会社 車両用走路判定装置
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
US7513508B2 (en) * 2004-06-04 2009-04-07 Romeo Fernando Malit Computer assisted driving of vehicles
US7561303B2 (en) * 2004-12-14 2009-07-14 Canon Kabushiki Kaisha Caching and optimisation of compositing
US7639841B2 (en) * 2004-12-20 2009-12-29 Siemens Corporation System and method for on-road detection of a vehicle using knowledge fusion
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
JP4637618B2 (ja) * 2005-03-18 2011-02-23 株式会社ホンダエレシス 車線認識装置
US7236121B2 (en) * 2005-06-13 2007-06-26 Raytheon Company Pattern classifier and method for associating tracks from different sensors
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
DE102007032698B3 (de) * 2007-07-13 2008-09-25 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Ermittlung eines Anzeigebildes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61121183A (ja) * 1984-11-19 1986-06-09 Fujitsu Ltd 不連続線分図形識別方式
JPH03194670A (ja) * 1989-12-22 1991-08-26 Honda Motor Co Ltd 走行路判別方法
JPH07168940A (ja) * 1993-11-25 1995-07-04 Matsushita Electric Works Ltd 位置検出方法
JPH1166302A (ja) * 1997-08-26 1999-03-09 Matsushita Electric Works Ltd 直線検出方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199700102001, 伊東敏夫,山田憲一, "走行環境認識のための画像処理手法の検討", 電子情報通信学会技術研究報告PRMU, 19970516, Vol.97,No.41, p.1〜8, JP, 社団法人電子情報通信学会 *
CSNG200100513014, 浅山泰祐,塩野充, "双曲線近似を用いた交差2直線のハフ変換による検出実験", 電子情報通信学会技術研究報告PRMU, 19991217, Vol.99,No.515, p.95〜100, JP, 社団法人電子情報通信学会 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956442B2 (ja) * 2005-12-27 2012-06-20 本田技研工業株式会社 車両
CN101911122B (zh) * 2008-01-11 2012-09-26 日本电气株式会社 车道识别系统和车道识别方法
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
JP2009169510A (ja) * 2008-01-11 2009-07-30 Nec Corp 車線認識装置、車線認識方法および車線認識プログラム
WO2009088035A1 (ja) * 2008-01-11 2009-07-16 Nec Corporation 車線認識装置、車線認識方法および車線認識プログラム
US8655081B2 (en) 2008-01-11 2014-02-18 Nec Corporation Lane recognition system, lane recognition method, and lane recognition program
JP2009271908A (ja) * 2008-04-09 2009-11-19 Honda Motor Co Ltd 車両走行支援装置、車両、車両走行支援プログラム
JP2012181691A (ja) * 2011-03-01 2012-09-20 Yazaki Corp 路面上パターン認識方法および車両用情報記録装置
JP2015508350A (ja) * 2011-12-06 2015-03-19 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh あらかじめ定められた駐車位置の位置特定方法および装置
CN104036246A (zh) * 2014-06-10 2014-09-10 电子科技大学 一种基于多特征融合及多态均值的车道线定位方法
WO2018173352A1 (ja) * 2017-03-24 2018-09-27 株式会社Screenホールディングス 画像処理方法および画像処理装置
JP2018160217A (ja) * 2017-03-24 2018-10-11 株式会社Screenホールディングス 画像処理方法および画像処理装置
TWI657411B (zh) * 2017-03-24 2019-04-21 SCREEN Holdings Co., Ltd. 圖像處理方法及圖像處理裝置
US11094068B2 (en) 2017-03-24 2021-08-17 SCREEN Holdings Co., Ltd. Image processing method and image processor
JP7112181B2 (ja) 2017-03-24 2022-08-03 株式会社Screenホールディングス 画像処理方法および画像処理装置

Also Published As

Publication number Publication date
JP4703136B2 (ja) 2011-06-15
EP1759352A2 (en) 2007-03-07
US20090010482A1 (en) 2009-01-08
KR100886605B1 (ko) 2009-03-05
WO2005119594A3 (en) 2006-03-02
WO2005119594A2 (en) 2005-12-15
KR20070026542A (ko) 2007-03-08
CN101006464A (zh) 2007-07-25

Similar Documents

Publication Publication Date Title
JP4703136B2 (ja) 線図形化処理装置
JP4093208B2 (ja) 車両用走路判定装置
US11915491B2 (en) Controlling host vehicle based on detected door opening events
JP5363921B2 (ja) 車両用白線認識装置
JP3931891B2 (ja) 車載用画像処理装置
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP4901275B2 (ja) 走行誘導障害物検出装置および車両用制御装置
US8050460B2 (en) Method for recognition of an object
JP5363920B2 (ja) 車両用白線認識装置
US10268204B2 (en) Cross traffic detection using cameras
JP2010262437A (ja) ナビゲーション装置、自車の走行車線の判定方法および判定プログラム
JP6496619B2 (ja) 車両用駐車支援装置
JP2004178610A (ja) 接近予測装置
JP6608664B2 (ja) 自車位置認識装置
JPH10320559A (ja) 車両用走行路検出装置
JP6993205B2 (ja) 区画線特定装置
JP4263660B2 (ja) 車両用走路判定装置
JP4703706B2 (ja) 車両用走路判定装置
JP7484783B2 (ja) 車線境界検出装置、車線境界検出方法及び車線境界検出用コンピュータプログラム
JP2022148338A (ja) 車線境界検出装置、車線境界検出方法及び車線境界検出用コンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110308

R151 Written notification of patent or utility model registration

Ref document number: 4703136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140318

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250