JP2016021712A - 画像処理装置、及び、運転支援システム - Google Patents

画像処理装置、及び、運転支援システム Download PDF

Info

Publication number
JP2016021712A
JP2016021712A JP2014145323A JP2014145323A JP2016021712A JP 2016021712 A JP2016021712 A JP 2016021712A JP 2014145323 A JP2014145323 A JP 2014145323A JP 2014145323 A JP2014145323 A JP 2014145323A JP 2016021712 A JP2016021712 A JP 2016021712A
Authority
JP
Japan
Prior art keywords
image
vehicle
movement
state
turning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014145323A
Other languages
English (en)
Other versions
JP6407596B2 (ja
Inventor
裕生 松本
Hiroo Matsumoto
裕生 松本
敦 三野
Atsushi Mino
敦 三野
直士 垣田
Naoshi Kakita
直士 垣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2014145323A priority Critical patent/JP6407596B2/ja
Priority to US14/793,080 priority patent/US9827906B2/en
Publication of JP2016021712A publication Critical patent/JP2016021712A/ja
Application granted granted Critical
Publication of JP6407596B2 publication Critical patent/JP6407596B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)

Abstract

【課題】車両の移動及び停止の各状態をも考慮して正確な運転支援を行うことが可能な技術を提供する。【解決手段】画像を処理する画像処理装置であって、画像の周囲を撮影する撮影装置から撮影画像を取得する画像取得手段と、前記取得した撮影画像に対して、運転を支援する支援画像を重畳させた表示画像を生成する画像生成手段と、前記車両の移動又は静止を判定する判定手段と、を備え、前記画像生成手段は、前記判定手段の判定結果に応じて異なる支援画像を重畳させた表示画像を生成する。【選択図】図1

Description

本発明は、車両の運転を支援する技術に関する。
従来より、自動車などの車両の運転を支援するための各種の運転支援システムが提案されている。このような運転支援システムとしては、車両を後退させて駐車枠内に駐車させる操作を支援するためにガイドラインを表示するものがある。例えば、車両に設置されたカメラの画像から導出した移動ベクトルに基づいて推定した回転角や車両速度を用いて車両の予測通過エリアに対応するガイドラインを表示するものがある(例えば、特許文献1参照)。
特開2009-17462号公報
しかしながら、従来の技術では、車両が移動している際の表示については記載されているものの、停止しているときや移動から停止に変化しているときなどの表示については考慮されていない。仮に、移動から停止に変化した場合においても直前のガイドラインが表示されているとすると、停止中にステアリングを回した場合などにはタイヤの角度が変化しているため、その後の移動の際にガイドラインと異なる方向に車両が進んでしまう可能性がある。すなわち、ドライバに対して誤った情報を提供することになるため運転支援のためのシステムとしては問題がある。
本発明は、上記課題に鑑みてなされたものであり、車両の移動及び停止の各状態をも考慮して正確な運転支援を行うことが可能な技術を提供することを目的とする。
上記課題を解決するため、請求項1の発明は、画像を処理する画像処理装置であって、画像の周囲を撮影する撮影装置から撮影画像を取得する画像取得手段と、前記取得した撮影画像に対して、運転を支援する支援画像を重畳させた表示画像を生成する画像生成手段と、前記車両の移動又は静止を判定する判定手段と、を備え、前記画像生成手段は、前記判定手段の判定結果に応じて異なる支援画像を重畳させた表示画像を生成する画像処理装置である。
また、請求項2の発明は、請求項1に記載の画像処理装置において、前記支援画像は、予め定められた領域に線を描画した第1支援画像と、車両の予測された移動経路に線を描画した第2支援画像とを含み、前記画像生成手段は、車両が移動状態のときは前記第1及び第2支援画像を重畳させた表示画像を生成し、車両が静止状態のときは前記第1支援画像を重畳させた表示画像を生成する。
また、請求項3の発明は、請求項2に記載の画像処理装置において、前記画像生成手段は、車両が移動状態から静止状態へ変化したときは、前記第1支援画像のみを重畳させた表示画像を生成する前に、第1支援画像と、移動経路の線の長さが移動状態のときよりも短い第2支援画像とを重畳させた表示画像を生成する。
また、請求項4の発明は、請求項1ないし3のいずれか1項に記載の画像処理装置において、前記車両の移動量を導出する移動量導出手段をさらに備え、前記判定手段は、前記導出した移動量に基づいて車両の移動又は静止を判定する。
また、請求項5の発明は、車両の運転を支援する運転支援システムであって、車両の周囲を撮影する撮影装置と、前記撮影装置が撮影した撮影画像を処理して表示画像を生成する画像処理装置と、前記表示画像を表示する表示装置と、を備え、前記画像処理装置は、前記撮影画像を取得する画像取得手段と、前記取得した撮影画像に対して、運転を支援する支援画像を重畳させた表示画像を生成する画像生成手段と、前記車両の移動又は静止を判定する判定手段とを備えており、前記画像生成手段は、前記判定手段の判定結果に応じて異なる支援画像を重畳させた表示画像を生成する運転支援システムである。
請求項1ないし5の発明によれば、車両の移動又は静止に応じて異なる支援画像を重畳させるため、静止時と移動時とで異なる画像を表示することができる。その結果、静止時であるにも関わらず移動時の表示画像を表示することなく、正確な運転支援を行うことが可能となる。
また、特に請求項2の発明によれば、静止状態では第1支援画像を重畳させて表示画像を生成することから、移動状態での表示に用いる移動経路の線を描画した第2支援画像を用いることがなく正確な運転支援を行うことが可能となる。
また、特に請求項3の発明によれば、移動状態から静止状態に変化した場合であっても、第1支援画像のみを重畳させた表示画像を生成する前に、移動経路の線の長さが移動状態のときよりも短い第2支援画像も重畳させることで、静止状態に変化していくことを把握し易くなる。
また、特に請求項4の発明によれば、画像処理装置が画像処理によって車両の移動又は静止を判定することができるため、車両の移動又は静止を判定するためのセンサ等を別途設けることなく判定が可能になる。
図1は、運転支援システムのブロック図である。 図2は、カメラの撮影方向を示す図である。 図3は、運転支援システムの利用場面を示す図である。 図4は、自車両後方の撮影画像を示す図である。 図5は、運転支援システムの処理を示すフローチャートである。 図6(a)は撮影画像を示す図であり、図6(b)は俯瞰画像を示す図である。 図7は、移動ベクトルの導出手法を説明する図である。 図8は、移動ベクトルのヒストグラムを示す図である。 図9は、旋回量導出処理を示すフローチャートである。 図10は、旋回判定処理を示すフローチャートである。 図11は、旋回中心の導出方法を説明する図である。 図12は、旋回中心の導出方法を説明する図である。 図13は、旋回中心の導出方法を説明する図である。 図14は、旋回中心の導出方法を説明する図である。 図15は、旋回判定処理を説明する図である。 図16は、旋回角度の導出方法を説明する図である。 図17は、並進量の導出方法を説明する図である。 図18は、並進量の導出方法を説明する図である。 図19は、車両状態判定処理を示すフローチャートである。 図20は、状態判定処理を示すフローチャートである。 図21(a)は固定ガイド線を説明する図であり、図21(b)は予測ガイド線を説明する図である。 図22は、描画するガイド線を説明する図である。 図23は、ガイド線の描画方法を説明するタイミングチャートである。 図24(a)及び(b)は、ガイド線を含む表示画像を示す図である。 図25(a)及び(b)は、ガイド線を含む表示画像を示す図である。 図26(a)及び(b)は、ガイド線を含む表示画像を示す図である。 図27(a)及び(b)は、移動ベクトルの導出方法を説明する図である。 図28は、移動ベクトルの導出手法を説明する図である。 図29は、移動ベクトルの導出手法を説明する図である。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.実施の形態>
<1−1.システムの構成>
まず、本実施の形態の運転支援システム10の構成について説明する。図1は、運転支援システム10の概略構成を示すブロック図である。運転支援システム10は、カメラ1と、画像処理装置2と、表示装置3とを備えている。この運転支援システム10は、自動車などの車両に搭載されて当該車両の移動量や旋回量などを導出する機能を有している。また、運転支援システム10は、導出した移動量や旋回量などを用いて、例えば駐車支援としてのガイド線を表示する等の機能を有している。以下では、運転支援システム10が搭載される車両を「自車両」という。
カメラ1は、自車両の周辺を撮影して撮影画像を得るものである。このカメラ1は、レンズと撮像素子とを備えており、電子的に撮影画像を取得する。カメラ1は、所定の周期(例えば、1/30秒周期)で繰り返し撮影画像を取得する。なお、カメラ1は、例えば、自車両の後部に設けられ、車両後方を撮影するバックカメラとして用いられる。ただし、これに限定されるものではなく、他の方向を撮影するカメラであっても適用可能であるし、複数のカメラを用いる構成とすることもできる。
図2は、カメラ1をバックカメラとして用いた場合に、カメラ1が撮影する方向を示す図である。図2に示すように、カメラ1は、自車両の後端の背面ドア92に設けられ、その光軸15は自車両の前後方向に沿って後方に向けられる。したがって、カメラ1は、自車両の後方を撮影して、自車両の後方の様子を示す撮影画像を取得する。また、このカメラ1のレンズには魚眼レンズが採用されており、カメラ1は、略135度の画角を有している。このため、カメラ1は、自車両の後方に広がる左右方向に略135度程度の領域を撮影することが可能である。
運転支援システム10は、このカメラ1で得られた撮影画像を用いて自車両の移動量や旋回量を導出する。そして、運転支援システム10は、導出した移動量や旋回量を用いて進行方向を推定し、撮影画像上にガイド線として推定した進行方向を重畳表示した画像を表示装置3にて表示する。これにより、ユーザは、自車両がこれから移動すると予想される経路を容易に把握することができる。
図3は、運転支援システム10が利用される場面の一例を示す図である。図3においては、自車両を駐車場に駐車させようとしている場面を示している。図3は、駐車場への駐車動作の途中の状態を示しており、この場合のカメラ1で撮影した自車両後方の撮影画像は例えば図4のようになる。
図1に戻り、画像処理装置2は、カメラ1で取得した撮影画像に基づいて表示用の画像を生成し、表示装置3に出力するものである。この画像処理装置2は、画像取得部21、画像生成部22、メモリ23、及び、制御部24を備えている。
画像取得部21は、カメラ1からアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した撮影画像がアナログの場合には、画像取得部21は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。画像取得部21が処理した撮影画像の1つが、映像信号の1つのフレームとなる。
画像生成部22は、画像取得部21が取得した撮影画像を用いて移動量や旋回量を導出し、表示用の画像を生成する処理を実行する。画像生成部22としては、例えば、そのような所定の処理が実行可能なASICやFPGAなどのハードウェア回路を用いることができる。画像生成部22は、俯瞰画像生成部22aと、移動ベクトル導出部22bと、移動量導出部22cと、旋回量導出部22dと、車両状態判定部22eと、描画処理部22fとを備えている。
俯瞰画像生成部22aは、画像取得部21が取得した撮影画像から俯瞰画像を生成する機能を有している。例えば、俯瞰画像生成部22aは、画像取得部21が取得した撮影画像の視点位置を自車両上方に変換し、再描画することで俯瞰画像を生成するようになっている。俯瞰画像生成部22aによって生成された俯瞰画像は、メモリ24に記憶される。
移動ベクトル導出部22bは、俯瞰画像生成部22aにて生成した俯瞰画像を用いて自車両の移動ベクトルを導出する機能を有している。例えば、移動ベクトル導出部22bは、時間的に前後する撮影画像から生成された各俯瞰画像において、同じ被写体を表示している部分を抽出し、各表示位置の関係に基づいて移動ベクトルを導出する。
移動量導出部22cは、移動ベクトル導出部22bが導出した移動ベクトルを用いて自車両の移動量を導出する機能を有している。移動ベクトル導出部22bが導出した移動ベクトルには、路面の移動ベクトルと立体物の移動ベクトルとが含まれている。路面の移動ベクトルとは、路面部分が移動した大きさや方向を示すベクトルである。自車両の移動量は、路面の移動ベクトルに対応しているので、移動量導出部22cは、導出された移動ベクトルの中から路面の移動ベクトルを抽出し、その路面の移動ベクトルに基づいて自車両の移動量を導出する。
旋回量導出部22dは、移動ベクトル導出部22bが導出した移動ベクトルを用いて自車両の旋回量を導出する機能を有している。なお、本実施の形態における旋回量とは、後述する旋回方向や旋回角度、並進量などを含む概念である。旋回量導出部22dは、移動量導出部22cと同様に、導出された移動ベクトルの中から路面の移動ベクトルを抽出し、その路面の移動ベクトルに基づいて自車両の旋回量を導出する。また、旋回量導出部22dは、導出した旋回量に基づいて自車両の移動経路を予測する機能も有している。
車両状態判定部22eは、旋回量導出部22dが導出した旋回量に基づいて自車両の状態を判定する機能を有している。自車両の状態とは、例えば、自車両の移動又は静止の状態を示す。つまり、車両状態判定部22eは、自車両が移動しているか又は静止しているかを判定する。
描画処理部22fは、画像取得部21が取得した撮影画像に対して、運転支援用のガイド線を描画した表示画像を生成し、NTSCなどの所定形式の映像信号に変換して表示装置3に出力する。描画処理部22fは、車両状態判定部22eが判定した車両状態に応じて描画するガイド線の種類や長さを変化させる。
例えば、自車両が静止している場合には、描画処理部22fは、規定のガイド線を撮影画像に重畳した表示画像を生成して表示装置3に出力する。また、自車両が移動している場合には、描画処理部22fは、規定のガイド線に加えて、予測した移動経路を示すガイド線を撮影画像に重畳した表示画像を生成して表示装置3に出力する。つまり、自車両が静止している場合と移動している場合とで異なるガイド線を重畳した表示画像を生成する。これにより、自車両の状態に応じたガイド線が描画された表示画像が表示装置3において表示される。
なお、これら俯瞰画像生成部22a、移動ベクトル導出部22b、移動量導出部22c、旋回量導出部22d、車両状態判定部22e、及び、描画処理部22fが実行する各処理の詳細については後述する。
メモリ23は、俯瞰画像生成部22aにて生成された俯瞰画像を記憶する。本実施の形態では、移動ベクトル導出部22bが、撮影タイミングの異なる複数の俯瞰画像を用いて移動ベクトルを導出するようになっている。このため、メモリ23には、最新の俯瞰画像の他に、過去の俯瞰画像も記憶されている。つまり、メモリ23には、移動ベクトルの導出に必要な俯瞰画像が記憶されている。なお、メモリ23としては、揮発性の半導体メモリや不揮発性の半導体メモリを用いることができる。ただし、他の記憶媒体を用いてもよく、磁気ディスクを備えたハードディスクドライブで構成してもよい。
制御部24は、例えば、CPU、RAM及びROMなどを備えたマイクロコンピュータであり、画像生成部22を含む画像処理装置2の各部を制御する。制御部24の各種の機能は、ソフトウェアで実現される。すなわち、制御部24の機能は、ROMなどに記憶されたプログラムに従ったCPUの演算処理(プログラムの実行)によって実現される。
表示装置3は、自車両の車室内におけるユーザ(主にドライバ)が視認可能な位置に配置され、各種の情報をユーザに報知する。特に本実施の形態では、表示装置3は、運転支援用の表示画像を表示する機能を有している。また、表示装置3は、目的地までのルートを案内するナビゲーション機能や、ユーザの操作を受け付けるタッチパネル機能を備えていてもよい。
<1−2.システムの処理>
次に、運転支援システム10の処理について説明する。図5は、運転支援システム10の処理を示すフローチャートである。
運転支援システム10は、開始指示の入力があった場合や、自車両のギアがR(リバース)に入った場合などの所定の条件が成立すると、画像取得部21がカメラ1による撮影画像を取得して、画像処理部22に出力する。そして、画像処理部22が俯瞰画像生成処理を実行する(ステップS101)。
具体的には、まず、俯瞰画像生成部22aが、画像取得部21から撮影画像のデータを取得する。撮影画像はカメラ1の光軸が視点方向となっているため、俯瞰画像生成部22aは、視点方向を変換して、撮影画像を上方から見た俯瞰画像を生成する。なお、カメラの撮影画像から俯瞰画像を生成する方法は、既存の方法を用いることができる。
俯瞰画像生成部22aは、画像取得部21が取得した各撮影画像に対応する俯瞰画像を生成する。つまり、俯瞰画像生成部22aは、フレーム毎に撮影画像から俯瞰画像を生成する。そして、俯瞰画像生成部22aは、生成した俯瞰画像をメモリ23に記憶させる。
ここで、図6を用いて説明する。図6(a)は、カメラ1による撮影画像を示し、図6(b)は、この撮影画像から生成された俯瞰画像を示している。俯瞰画像生成部22aは、図6(a)に示すような撮影画像を画像取得部21から取得すると、この撮影画像の視点を変換して図6(b)に示すような俯瞰画像を生成する。俯瞰画像生成部22aは、異なるフレームの撮影画像毎に俯瞰画像を生成する。
図5に戻り、次に、画像処理部22は、移動ベクトル導出処理を実行する(ステップS102)。これは、移動ベクトル導出部22bが、俯瞰画像生成部22aにて生成された俯瞰画像を用いて移動ベクトルを導出する処理である。
具体的には、移動ベクトル導出部22bは、俯瞰画像生成部22aが生成した現フレームの俯瞰画像を取得すると共に、メモリ23に記憶されている前フレームの俯瞰画像を取得する。そして、移動ベクトル導出部22bは、これら前後フレームの各俯瞰画像を比較して、各俯瞰画像から同一の被写体を表示している画素を抽出する。そして、移動ベクトル導出部22bは、前フレームで抽出した画素の位置(座標)と、後フレームで抽出した画素の位置(座標)とを結ぶことで移動ベクトルを導出する。つまり、同一の被写体が俯瞰画像上で移動した前後の点を結ぶベクトルが移動ベクトルとなる。
同一の被写体を表示している画素を抽出する方法としては、例えば、テンプレートマッチング手法を用いることができる。テンプレートマッチング手法とは、画像の中から、予め指定したテンプレート画像と似ている位置を探す手法である。本実施の形態で用いる場合には、例えば、前フレームの俯瞰画像の一部分の画像をテンプレートとして、後フレームの俯瞰画像と比較するといった処理を画像全体に渡って実行すればよい。このようなテンプレートマッチング手法としては、例えば、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)等の手法を用いることができる。
また、テンプレートマッチング手法以外にも特徴点方式を用いることもできる。特徴点方式とは、いわゆる、オプティカルフローを用いた方式である。つまり、互いに異なる時点に取得された複数の撮影画像から生成された各俯瞰画像のそれぞれから特徴点を抽出し、複数の俯瞰画像間での特徴点の動きを示すオプティカルフローを導出する。特徴点とは、際立って検出できる点であり、例えば、物体のコーナー(エッジの交点)などの点である。そして、特徴点方式では、直近の俯瞰画像から抽出した特徴点と、過去の基準となる俯瞰画像から抽出した特徴点とを対応づけ、この対応付けられた各特徴点の位置に基づいて移動ベクトルを導出する。
ここで、移動ベクトルを導出する方法について図7を用いて説明する。図7は、特徴点方式を用いて移動ベクトルを導出する手法を説明する図である。図7は、図6で示す撮影画像から生成した俯瞰画像と同じである。図7に示すように、俯瞰画像中には、特徴点を示す黒丸と、前フレームの位置から後フレームの位置までに特徴点が移動した経路が示されている。移動ベクトル導出部22bは、この特徴点が移動した方向及び向きを移動ベクトルとして導出する。
図5に戻り、次に、画像処理部22は、移動量導出処理を実行する(ステップS103)。これは、移動量導出部22cが、移動ベクトル導出部22bにて導出された移動ベクトルを用いて自車両の実際の移動量を導出する処理である。
カメラ1で車両周辺を撮影した画像には、路面を表示する部分と、自動車等の立体物を表示する部分との双方が含まれていることが多い。路面は、平面であり移動物ではないため、路面の移動ベクトルは、全て略同じ方向及び略同じ大きさの移動ベクトルになる。一方、立体物の移動ベクトルは、その立体物の移動方向や高さなどに応じて、方向及び大きさの異なる移動ベクトルとなる。
このため、立体物の移動ベクトルは、自車両の移動量を正確に反映したものではなく、路面の移動ベクトルが自車両の移動量を正確に反映したものとなる。したがって、移動ベクトル導出部22bが導出した移動ベクトルには、種々の方向及び大きさの移動ベクトルが含まれていることになるが、自車両の移動量を正確に導出するためには、その中から路面の移動ベクトルを抽出する必要がある。
一般的には、車両周辺を撮影した画像には、路面を表示する部分が最も多く含まれているため、通常は、路面に関する移動ベクトルが最も多い。そこで、本実施の形態では、全ての移動ベクトルについて大きさに関するヒストグラムを生成し、数が最も多い部分の移動ベクトルを、路面の移動ベクトルとして抽出する。そして、移動量導出部22cは、抽出した路面の移動ベクトルの大きさを自車両の移動量として導出する。
ここで、具体的に図を用いて説明する。図8は、全移動ベクトルについての大きさに関するヒストグラムを示す図である。図8に示すヒストグラムは、移動ベクトルの大きさをL1〜L9の長さ範囲に分け、全移動ベクトルを各々の大きさに応じて分類分けし、その数を積算したものである。図8に示すように、移動ベクトルの数が最も多い大きさはL5に含まれる移動ベクトルである。このため、移動量導出部22cは、路面の移動ベクトルが、このL5に含まれていると判定する。すなわち、移動量導出部22cは、路面の移動ベクトルを抽出することができる。
そして、移動量導出部22cは、抽出した路面の移動ベクトルの大きさを自車両の移動量として導出する。つまり、図8の場合には、L5が自車両の移動量として導出されることになる。
図5に戻り、次に、画像処理部22は、旋回量導出処理を実行する(ステップS104)。これは、旋回量導出部22dが、移動ベクトル導出部22bにて導出された路面の移動ベクトルを用いて自車両の実際の旋回量を導出する処理である。具体的には図を用いて説明する。
図9は、旋回量導出処理を示すフローチャートである。図9に示すように、旋回量導出部22dは、まず、旋回判定処理を実行する(ステップS201)。旋回判定処理とは、自車両が旋回しているか又は直進しているかを判定する処理である。また、旋回判定処理では、自車両が旋回している場合には、その旋回方向も判定する。
ここで、旋回判定処理について具体的に説明する。図10は、旋回判定処理を示すフローチャートである。図10に示すように、旋回量導出部22dは、まず、旋回判定処理に用いる移動ベクトルを抽出する(ステップS301)。具体的には、旋回量導出部22dは、導出した移動ベクトルのうち、終点が特定の領域内に含まれる全移動ベクトルを抽出する。特定の領域とは自車両の旋回量を導出するのに適切な領域であればよく、特に限定されるものではないが、例えば、俯瞰画像中におけるカメラの位置から左右2mずつ、奥行き4mの領域とすることができる。つまり、この場合には、旋回量導出部22dは、俯瞰画像中において、自車両の後端部から4m×4m四方に相当する領域内に終点が含まれる全ての移動ベクトルを抽出することになる。
次に、旋回量導出部22dは、移動ベクトルが2mm以上であるか否かを判定する(ステップS302)。具体的には、旋回量導出部22dは、抽出した移動ベクトルの長さが2mm以上であるか否かを判定する。これは、長さが2mm未満の移動ベクトルは移動量が小さいことから、旋回量の導出過程において誤差が大きくなる可能性が高く、これらを除外するためである。
したがって、移動ベクトルが2mm未満の場合には(ステップS302でNo)、旋回量導出部22dは、その移動ベクトルを旋回量の導出には用いずに、導出不可カウンタを「1」増加させる(ステップS303)。導出不可カウンタとは、移動量が小さいために旋回量の導出には使用しない移動ベクトルの数をカウントするものである。
一方、移動ベクトルが2mm以上の場合には(ステップS302でYes)、旋回量導出部22dは、その移動ベクトルについての旋回中心を導出する(ステップS304)。旋回中心の導出とは、移動ベクトルの旋回中心位置、すなわち自車両が移動している際の旋回中心位置を導出する処理である。
ここで、旋回中心を導出する処理について図を用いて具体的に説明する。図11は、旋回中心を導出する考え方を示す図である。図11は、任意の位置100aにある自車両が、他の位置100bまで旋回している状況を示している。図11に示すように、自車両が旋回しているときの旋回中心は、自車両の後輪を結んだ直線上に存在する。
また、図12は、ワールド座標を示す図である。具体的には、図12は、自車両の後部にカメラを設置した場合において、カメラの位置を原点とし、カメラの視点方向をY軸、自車両の左右方向をX軸としたワールド座標を示している。自車両の後部(カメラの取り付け位置、すなわちワールド座標の原点)から後輪までの距離D1は、車両情報から導出可能な値である。また、この距離D1は、旋回中心のY座標に相当する。つまり、旋回中心のY座標は既知の値(−D1)である。なお、旋回中心のY座標を通り、ワールド座標のX軸と平行な直線を直線ryとする。
旋回中心のY座標は既知の値であるので、次に旋回中心のX座標を導出する処理について図を用いて説明する。図13は、旋回中心のX座標を導出する処理を説明する図である。例として、旋回量導出部22dが、抽出した路面の移動ベクトルmvを用いて旋回中心のX座標を導出する処理について説明する。図13に示す移動ベクトルmvは、始点の座標が(px,py)であり、終点の座標が(cx,cy)のベクトルである。
この場合、移動ベクトルmvと直交する直線Lの傾きAは、式(1)を用いて導出される。
傾きA=(cx−px)/(cy−py)×(−1) ・・・(1)
また、移動ベクトルmvの中点のX座標を中点Xとすると、中点Xは式(2)を用いて導出される。同様に、移動ベクトルmvの中点のY座標を中点Yとすると、中点Yは式(3)を用いて導出される。
中点X=(cx−px)/2+px ・・・(2)
中点Y=(cy−py)/2+py ・・・(3)
さらに、移動ベクトルmvと直交する直線LのY切片を切片Bとすると、切片Bは式(4)を用いて導出される。
切片B=中点Y−傾きA×中点X ・・・(4)
そして、直線Lが直線ryと交わる点のX座標(すなわち、旋回中心のX座標)は、式(5)を用いて導出される。
旋回中心のX座標=(旋回中心のY座標−切片B)/傾きA ・・・(5)
これにより、移動ベクトルmvに関する旋回中心のX座標及びY座標が導出される。
図10に戻り、次に旋回量導出部22dは、旋回中心のX座標(以下「旋回中心X」と記載する)が、最小半径以上であるか否かを判定する(ステップS305)。最小半径とは、ハンドルを最大に切ったときに自車両が旋回する半径、すなわち最小回転半径を示す。上記で導出した旋回中心Xの値は、移動ベクトルmvの旋回半径を示すものであるため、旋回中心Xの値が最少半径よりも小さい場合には、それは自車両の旋回半径を示すものではないか、あるいはエラー値である可能性が高い。
したがって、旋回量導出部22dは、旋回中心Xが最少半径以上であるか否かを判定し、最小半径未満である場合には(ステップS305でNo)、その移動ベクトルを旋回量の導出対象から除外する(ステップS306)。つまり、その移動ベクトルは、旋回量の導出には使用しない。本実施の形態では、最小半径を4mとしている。ただし、これに限定されるものではなく、他の値を適用してもよいし、車種毎に変えてもよい。
一方、旋回量導出部22dは、旋回中心Xが最少半径以上である場合には(ステップS305でYes)、導出可カウンタを「1」増加させる(ステップS307)。導出可カウンタとは、旋回量の導出に使用する移動ベクトルの数をカウントするものである。
次に、旋回量導出部22dは、移動ベクトルの旋回中心Xの値をヒストグラムに入力する(ステップS308)。この旋回中心Xのヒストグラムは、旋回量の導出に使用する移動ベクトルの旋回中心Xの値の分布を示すヒストグラムである。具体的には、このヒストグラムは、旋回中心Xの値が−4m以下の範囲と+4m以上の範囲をデータ領域としている。これは、旋回中心Xが4m未満のものは除外されているからである。
また、旋回中心Xのヒストグラムは、−150m未満の範囲は1つの領域として分類され、+150mより大きい範囲も1つの領域として分類されている。さらに、旋回中心Xのヒストグラムは、−150m〜−4mの範囲と、+4m〜+150mの範囲では、100mmの間隔を1つの領域として分類されている。そして、旋回量導出部22dは、導出した旋回中心Xの値が存在する領域に、その値を入力する。
旋回量導出部22dは、上述した、移動ベクトルの旋回中心Xの値をヒストグラムに入力する処理(ステップS308)、導出不可カウンタを「1」増加させる処理(ステップS303)、又は移動ベクトルを旋回量の導出対象から除外する処理(ステップS306)のいずれかを実行した後には、全移動ベクトルに対して処理を実行したか否かを判断する(ステップS309)。すなわち、抽出された移動ベクトルの全てについて、ステップS303、ステップS306又はステップS308のいずれかの処理を実行したか否かを判断する。
全移動ベクトルに対する処理が終了していない場合には(ステップS309でNo)、旋回量導出部22dは、処理を実行していない移動ベクトルに対して再度ステップS302からの処理を実行する。
本実施の形態では、図14に示すように、導出不可や除外された移動ベクトルを除く複数の移動ベクトルについて旋回中心Xの値を導出している。そして、これら各旋回中心Xの値をヒストグラムに入力するようになっている。つまり、旋回中心Xのヒストグラムとは、各領域に含まれる移動ベクトルの積算値と、それに対応付けられた旋回中心Xの値とを示すものである。
図10に戻り、抽出した全移動ベクトルに対する処理が終了した場合には(ステップS309でYes)、旋回量導出部22dは、導出可カウンタと導出不可カウンタの値を比較し、導出可カウンタの値が導出不可カウンタの値以上であるか否かを判断する(ステップS310)。
導出不可カウンタの値が導出可カウンタの値よりも大きい場合には(ステップS310でNo)、旋回量導出部22dは、自車両が旋回しているか又は直進しているかの旋回判定を行わず、前回値を保持する(ステップS311)。つまり、前フレームで実行した旋回判定処理の結果を保持する。導出不可カウンタの値が大きい場合には、旋回量を正確に導出できない可能性が高いため、今回の処理では判定に使用しない。
一方、導出可カウンタの値が導出不可カウンタの値以上である場合には(ステップS310でYes)、旋回量導出部22dは、旋回判定を行う(ステップS312)。つまり、自車両が旋回しているか又は直進しているかの判定を行う。
具体的には、旋回中心Xのヒストグラムのピークが存在する領域に基づいて判定する。図15に示すように、例えば、旋回中心Xの領域を、−150m未満の第1領域、−150m以上−4m未満の第2領域、4m以上150m以下の第3領域、及び150mより大きい第4領域に分ける。そして、旋回中心Xのヒストグラムのピークが第1領域又は第4領域に含まれている場合には、自車両は直進していると判定する。また、第2領域に含まれている場合には、自車両は左旋回していると判定し、第3領域に含まれている場合には、自車両は右旋回していると判定する。つまり、図15の例では、自車両は右旋回していると判定される。このようにして、自車両が旋回しているか又は直進しているかを判定することができると共に、旋回している場合にはその方向も判定することができる。
図9に戻り、次に、旋回量導出部22dは、旋回中心決定処理を実行する(ステップS202)。旋回中心決定処理とは、旋回中心Xのヒストグラムを用いて旋回中心Xの位置を最終的に決定する処理である。旋回中心Xのヒストグラムは、第2領域及び第3領域では、100mmの幅の中に存在する移動ベクトルの数を積算したものであり、旋回中心Xの値も対応付けられている。
このため、そのピーク領域に存在する移動ベクトルの旋回中心Xの値を用いることで正確な旋回中心Xの値を決定することができる。具体的には、ヒストグラムのピーク領域に含まれる全ての旋回中心Xの値をIIRフィルター等の積分フィルターに入力する。これにより、その出力された値を正確な旋回中心Xの値として導出することができる。
次に、旋回量導出部22dは、旋回角度導出処理を実行する(ステップS203)。旋回角度導出処理とは、旋回中心(X,Y)を中心点として自車両が旋回した角度を導出する処理である。
具体的には、図16に示すように、旋回量導出部22dは、旋回中心と移動ベクトルの両端でできる三角形の角度を旋回角度として導出する。旋回中心から移動ベクトルの終点を結ぶ直線を直線Mとすると、直線Mの傾きMsは、式(6)を用いて導出される。同様に、旋回中心から移動ベクトルの始点を結ぶ直線を直線Nとすると、直線Nの傾きNsは、式(7)を用いて導出される。
傾きMs=(旋回中心Y−cy)/(旋回中心X−cx) ・・・(6)
傾きNs=(旋回中心Y−py)/(旋回中心X−px) ・・・(7)
そして、旋回角度をθrとすると、θrは式(8)を用いて導出される。
旋回角度θr=arctan((1+傾きMs×傾きNs)/(傾きMs−傾きNs)) ・・・(8)
これにより、移動ベクトルに対応する旋回角度が導出される。なお、旋回角度の導出に用いられる移動ベクトルは、旋回中心Xのヒストグラムに入力された全移動ベクトルである。したがって、これら全ての移動ベクトルに対して上記と同様の方法にて旋回角度を導出する。そして、旋回角度のヒストグラムを作成する。
旋回角度のヒストグラムは、−2.0°から+2.0°までの範囲を0.1°単位の領域に分け、各移動ベクトルから導出した旋回角度の値を対応する領域に分類したものである。すなわち、旋回角度のヒストグラムにおいても、各領域に含まれる移動ベクトルの積算値と、それに対応付けられた旋回角度の値とを示すものである。そして、旋回量導出部22dは、ヒストグラムのピーク領域に含まれる全ての旋回角度の値の平均化処理を行い、旋回角度を決定する。具体的には、旋回角度の値の総和を移動ベクトルの数で除算する単純平均処理を行う。これにより、旋回角度が導出される。
なお、旋回判定処理において自車両が直進していると判定されている場合には、旋回角度は0°となる。また、ヒストグラムのピークが±2.0°を超える範囲に存在する場合にも旋回角度を0°とする。
図9に戻り、次に、旋回量導出部22dは、並進量導出処理を実行する(ステップS204)。並進量とは、移動前の自車両の向きを移動後の自車両の向きと同じにして(つまり、自車両の旋回をキャンセルして)設定したワールド座標における移動量を示す(X軸方向の移動量とY軸方向の移動量とを指す場合もある)。
具体的に説明すると、図17は、自車両100aが自車両100bの位置まで移動した例を示している。この場合の移動量は、移動ベクトルTで表される量である。この状態で移動前の自車両100aの旋回をキャンセルすると、図18に示す自車両100aの状態となる。すなわち、自車両100aと自車両100bとは同じ方向を向いている。そして、移動ベクトルTの始点を原点としてワールド座標を設定すると、移動ベクトルTのX軸方向の移動量Txと、Y軸方向の移動量Tyとが並進量となる。
より具体的に説明する。移動ベクトルTの始点を(px,py)とし、終点を(cx,cy)とすると、これら始点(px,py)と、終点(cx,cy)と、上述した並進量(Tx,Ty)との関係は、旋回角度導出処理にて導出した旋回角度θrを用いて式(9)のように表される。
Figure 2016021712
そして、この式(9)を変換した式(10)により並進量(Tx,Ty)を導出することができる。
Figure 2016021712
なお、並進量の導出に用いられる移動ベクトルも、旋回角度を導出した全移動ベクトルである。このため、これら全ての移動ベクトルに対して上記と同様の方法で並進量を導出する。そして、並進量のヒストグラムを作成する。
並進量のヒストグラムは、1mm単位の領域に分け、各移動ベクトルから導出した並進量の値を対応する領域に分類したものである。すなわち、並進量のヒストグラムにおいても、各領域に含まれる移動ベクトルの積算値と、それに対応付けられた並進量の値とを示すものである。そして、旋回量導出部22dは、ヒストグラムの最大ピークのヒストグラム値を最終的な並進量として決定する。
なお、オプティカルフローを用いて移動ベクトルを導出する場合において、基準にする画像は、移動量や旋回量などが所定値を超えたときに更新する。具体的には、所定値として、並進量Tyが45mmと設定すると、あるフレームで導出された並進量が45mm未満である場合には、基準となる画像は更新せずに同じものを用い、並進量が45mm以上となったときにそのフレームの画像を次の基準画像として更新する。これにより、あまり物体が移動していない場合には基準画像を変えないことで処理負荷を低減することができる。
図5に戻り、次に、車両状態判定部22eは、車両状態判定処理を実行する(ステップS105)。車両状態判定処理とは、自車両が移動しているか又は静止しているかを判定すると共に、過去の判定結果も用いて車両の移動状態を判定する処理である。車両の移動状態の判定とは、例えば、過去も現在も移動している場合には移動中であると判定する等である。この判定の詳細については後述する。
図19は、車両状態判定処理を示すフローチャートである。図19に示すように、まず、車両状態判定部22eは、自車両が移動しているか又は静止しているかを判定する(ステップS401)。この処理は、旋回量導出部22dが導出した並進量Tyを用いて行われる。具体的には、予め移動又は静止を判定するための閾値Thが設定されており、車両状態判定部22eは、並進量Tyが閾値Thよりも大きい場合には自車両は移動していると判定し、並進量Tyが閾値Th以下である場合には自車両は静止していると判定する。閾値Thは、自車両の移動又は静止を判定できる程度の値であればよく適宜設定可能であるが、例えば4mmとすることができる。
そして、自車両状態判定部22eは、移動判定フラグを設定する(ステップS402)。移動判定フラグとは、自車両が移動しているか静止しているかを示すフラグである、自車両状態判定部22eは、自車両が移動していると判定した場合には、移動判定フラグを立てる(以下「移動判定フラグを「移動」に設定する」などと記載する場合がある)。また、自車両状態判定部22eは、自車両が静止していると判定した場合には、移動判定フラグを消去する(以下「移動判定フラグを「静止」に設定する」などと記載する場合がある)。
そして、自車両状態判定部22eは、移動判定フラグが変化したか否かを判定する(ステップS403)。すなわち、前回の移動判定フラグと今回の移動判定フラグとを比較して、変化しているか否かを判定する。
移動判定フラグが変化している場合には(ステップS403でYes)、自車両状態判定部22eは、状態判定処理を実行する(ステップS405)。一方、移動判定フラグが変化していない場合には(ステップS403でNo)、自車両状態判定部22eは、状態遷移完了フラグがセットされているか否かを判定する(ステップS404)。状態遷移完了フラグは、自車両が移動状態から静止状態、又は静止状態から移動状態に変化している場合に、その状態変化が完了したことを示すフラグである。なお、この状態遷移完了フラグについては後述する。
状態遷移完了フラグがセットされている場合には(ステップS404でYes)、自車両状態判定部22eは、状態判定処理を実行する(ステップS405)。一方、状態遷移完了フラグがセットされていない場合には(ステップS404でNo)、車両状態判定処理を実行することなく、次の処理(ステップS106)に進む。
状態判定処理とは、自車両の移動状態を判定する処理である。具体的には、自車両の移動状態として、静止中の状態(以下「第1状態」という)、移動中の状態(以下「第2状態」という)、移動状態から静止状態へ変化している状態(以下「第3状態」という)、及び静止状態から移動状態へ変化している状態(以下「第4状態」という)があり、これら第1〜第4のいずれの状態であるかを判定する処理である。
具体的に図を用いて説明する。図20は、状態判定処理を示すフローチャートである。まず、自車両状態判定部22eは、自車両が移動しているか否かを判定する(ステップS501)。これは、今回処理で設定された移動判定フラグに基づいて判定される。すなわち、自車両状態判定部22eは、移動判定フラグが「移動」に設定されている場合には自車両が移動していると判定し、移動判定フラグが「静止」に設定されている場合には自車両は移動していない(静止している)と判定する。
自車両が移動していない場合には(ステップS501でNo)、直前は移動していたか否かを判定する(ステップS502)。これは、前回処理で設定された移動判定フラグに基づいて判定される。すなわち、自車両状態判定部22eは、前回処理で設定された移動判定フラグが「移動」に設定されている場合には、直前は移動していたと判定し、前回処理で設定された移動判定フラグが「静止」に設定されている場合には、直前は移動していなかった(静止していた)と判定する。
直前は移動していなかった場合には(ステップS502でNo)、自車両状態判定部22eは、自車両が第1状態であると判定する(ステップS503)。すなわち、直前も現在も静止している状態である。一方、直前は移動していた場合には(ステップS502でYes)、自車両状態判定部22eは、自車両が第3状態であると判定する(ステップS504)。すなわち、直前の移動状態から現在の静止状態へ変化している状態である。なお。第3状態において、移動状態から静止状態への変化が完了した際には、状態遷移完了フラグがセットされる(ステップS505)。
一方、ステップS501において、自車両が移動していない場合には(ステップS501でNo)、直前は静止していたか否かを判定する(ステップS506)。これは、前回処理で設定された移動判定フラグに基づいて判定される。すなわち、自車両状態判定部22eは、前回処理で設定された移動判定フラグが「静止」に設定されている場合には、直前は静止していたと判定し、前回処理で設定された移動判定フラグが「移動」に設定されている場合には、直前は静止していなかった(移動していた)と判定する。
直前は静止していなかった場合には(ステップS506でNo)、自車両状態判定部22eは、自車両が第2状態であると判定する(ステップS507)。すなわち、直前も現在も移動している状態である。一方、直前は静止していた場合には(ステップS506でYes)、自車両状態判定部22eは、自車両が第4状態であると判定する(ステップS508)。すなわち、直前の静止状態から現在の移動状態へ変化している状態である。なお、第4状態においても、静止状態から移動状態への変化が完了した際には、状態遷移完了フラグがセットされる(ステップS509)。このようにして、状態判定処理が実行される。
図5に戻り、次に、描画処理部22fは、描画処理を実行する。この描画処理は、カメラで撮影された自車両周辺の画像に対して、ガイド線を重畳した表示画像を生成する処理である。なお、本実施の形態においては、旋回量導出処理で導出した旋回量や、車両状態判定処理で判定した車両の状態に基づいて、重畳するガイド線の種類や長さ等を変えている。以下、具体的に説明する。
まず、本実施の形態で用いられるガイド線の種類について説明する。重畳するガイド線としては、固定ガイド線と予測ガイド線とがある。固定ガイド線は、予め定められた領域に描画されるガイド線のことであり、自車両の移動経路等とは関係なく表示される所定の枠線のことである。本実施の形態の固定ガイド線は、図21(a)に示すように、自車両の後部から車幅とほぼ同様の幅で車両の後方に延びた線と、それらを結ぶ線とで囲まれた線である。
一方、予測ガイド線は、自車両の移動経路であると予測される位置に描画されるガイド線である。具体的には、図21(b)に示すように、自車両の後部から車幅とほぼ同様の幅の線であって、移動経路と予測された位置に延びた線が予測ガイド線である。
これら固定ガイド線の間隔D2と予測ガイド線の間隔D3は、車幅とほぼ同じ間隔となっている。つまり、固定ガイド線の間隔D2と予測ガイド線の間隔D3とは、ほぼ同じ間隔である。D2及びD3の例としては2.6mである。ただし、これに限定されるものではなく適宜設定すればよい。また、固定ガイド線の後方への長さD4も任意の長さとすることができる。例としては2mである。
予測ガイド線は、上記で決定された旋回中心を用いて描画される。具体的には、旋回中心から+X方向にD2の半分の長さ移動した点を中心とした円と、旋回中心から−X方向にD2の半分の長さ移動した点を中心とした円を描画する。例えば、旋回中心から±X方向に各々1.3m移動した点を中心点とした円を描くことにより、予測ガイド線を描画することができる。
なお、予測ガイド線を描画する領域は、車両後端の中央部分から前後左右に一定の領域となっている。具体的には、例えば、車両の中央部分から車幅方向D5に±5mずつ(つまり全部で10m)、前後方向D6に2mの領域としている。この描画領域内に含まれる予測ガイド線は描画対象となるが、描画領域を超えた部分は描画されない。すなわち、上述した方法で描かれた予測ガイド線の内、この描画領域内に含まれる部分が実際に表示対象として描画される部分となる。この描画領域の大きさは一例であり、適宜変更が可能である。
また、本実施の形態では、車両の状態に応じて描画するガイド線の種類を変更するとともに、予測ガイド線については、その長さも変化させている。つまり、上述した描画領域の車両前後方向の長さを車両の状態に応じて最大の2mから最小の0mまでの範囲で変化させているため、その範囲内に描画される予測ガイド線の長さも変化する。本実施の形態では、上述のように、車両状態として第1状態から第4状態までの4種類の状態が存在し、各状態で重畳するガイド線の種類と長さを変えている。以下では、これら第1状態〜第4状態の各々に対応する4種類の描画方法についてのモードを描画モードA〜描画モードDとする。
図22は、各描画モードに対応した描画方法を示す図である。図22に示すように、全ての描画モードにおいて固定ガイド線は描画される。一方で、予測ガイド線については、描画モードに応じて描画するか描画しない(非描画)かが異なっている。また、描画モードによっては、描画する場合であっても予測ガイド線の長さを変化させて描画することもある。これら予測ガイド線の描画及び非描画は、図21(b)で説明した描画領域の前後方向の長さD6を変化させて行われる。
具体的には、描画領域の長さD6の最大値2mに対して長さ調整倍率をかけて変化させる。つまり、長さ調整倍率を0.0倍から1.0倍までの範囲で変化させるとすると、長さD6が0mから2mまでの範囲で変化することになる。すなわち、描画領域が変化することになり、その結果、予測ガイド線は変化後の描画領域の範囲内で描画されるため、予測ガイド線の長さを変化させることが可能になる。
ここで、各描画モードの描画方法について説明する。車両状態が第1状態のときは、描画処理部22fは描画モードAを選択する。描画モードAは、固定ガイド線を描画するのに対して予測ガイド線は描画しないモードである。すなわち、描画処理部22fは、長さ調整倍率を0.0倍として固定ガイド線のみを描画する。
車両状態が第2状態のときは、描画処理部22fは描画モードBを選択する。描画モードBは、固定ガイド線を描画し、予測ガイド線も描画するモードである。すなわち、描画処理部22fは、固定ガイド線を描画するとともに、長さ調整倍率を1.0倍として描画領域の長さD6を最大の2mとし、その描画領域の範囲内に含まれる予測ガイド線を描画する。
車両状態が第3状態のときは、描画処理部22fは描画モードCを選択する。描画モードCは、固定ガイド線を描画し、予測ガイド線を徐々に短くしていくモードである。すなわち、描画処理部22fは、固定ガイド線を描画するとともに、長さ調整倍率を1.0倍から0.0倍に向けて変化させることで、描画領域の長さD6を最大の2mから短くなるように変化させる。描画処理部22fは、この変化に応じて予測ガイド線を徐々に短くなるように描画していき、最終的には描画領域の長さD6が0mとなるため予測ガイド線は描画されなくなる。
車両状態が第4状態のときは、描画処理部22fは描画モードDを選択する。描画モードDは、固定ガイド線を描画し、予測ガイド線を徐々に長くしていくモードである。すなわち、描画処理部22fは、固定ガイド線を描画するとともに、長さ調整倍率を0.0倍から1.0倍に向けて変化させることで、描画領域の長さD6を最小の0mから長くなるように変化させる。描画処理部22fは、この変化に応じて予測ガイド線を徐々に長くなるように描画していき、最終的には描画領域の長さD6が最大の2mとなり、予測ガイド線はその範囲内に含まれるように描画される。
このように、本実施の形態では、自車両が移動中又は静止状態から移動状態に変化しているような場合には、予測ガイド線を描画するようにし、自車両が静止中又は移動状態から静止状態に変化しているような場合には、予測ガイド線を描画しないようにしている。これにより、移動していない状態であるにも関わらず、誤って予測ガイド線を表示してしまうことを回避できる。
次に、図を用いて具体的に説明する。図23は、移動判定フラグ、描画モード及び長さ調整倍率の対応関係を示すタイミングチャートである。図23に示すように、移動判定フラグが「静止」に設定されており、直前の移動判定フラグも「静止」であるとすると、車両状態は第1状態となる。このため、描画処理部22fは描画モードAを選択し、長さ調整倍率を0.0倍にする。すなわち、描画処理部22fは、固定ガイド線を描画するものの、予測ガイド線は描画しない。これにより表示される画像は図24のようになる。図24(a)は俯瞰画像に固定ガイド線が描画されている表示画像を示し、図24(b)はカメラの撮影画像に固定ガイド線が描画されている表示画像を示している。また、移動判定フラグが「静止」のままで変化がない間は描画モードAが保持される。
図23に戻り、次に、移動判定フラグが「移動」に変化すると、状態判定処理を実行する。この場合、直前の移動判定フラグが「静止」であることから、車両状態は第4状態に変化する。このため、描画処理部22fは、描画モードDを選択し、長さ調整倍率を0.0倍から1.0倍に変化させる。つまり、描画処理部22fは、固定ガイド線を描画するとともに、予測ガイド線が長くなるように変化させながら描画する。
変化させる速度は任意であるが、次のフレームでは1.0倍になっているように変化させることが好ましい。これは、車両状態が第4状態になったということは、静止状態から移動状態に変化した状態であることから、移動して直ぐに予測ガイド線を確認できるようにするために、予測ガイド線を早く表示した方が好ましいからである。これにより表示される画像は図25のようになる。図25は、描画領域の長さD6が2mと0mとの間で変化している途中における予測ガイド線の描画状態を示している。図25(a)は俯瞰画像に各ガイド線が描画されている表示画像を示し、図25(b)はカメラの撮影画像に各ガイド線が描画されている表示画像を示している。
図23に戻り、長さ調整倍率が1.0倍に変化すると状態遷移完了フラグがセットされるため状態判定処理を実行する。この場合、移動判定フラグが「移動」のままであり、直前の移動判定フラグも「移動」であることから、車両状態は第2状態となる。このため、描画処理部22fは、描画モードBを選択し、長さ調整倍率を1.0倍のままにする。すなわち、描画処理部22fは、固定ガイド線を描画するとともに、予測ガイド線を最大の2mとなるように描画する。これにより表示される画像は図26のようになる。図26は、固定ガイド線と予測ガイド線が最長で描画されている状態を示している。図26(a)は俯瞰画像に各ガイド線が描画されている表示画像を示し、図26(b)はカメラの撮影画像に各ガイド線が描画されている表示画像を示している。また、移動判定フラグが「移動」のままで変化がない間は描画モードBが保持される。
図23に戻り、次に、移動判定フラグが「静止」に変化すると、状態判定処理を実行する。この場合、直前の移動判定フラグが「移動」であることから、車両状態は第3状態に変化する。このため、描画処理部22fは、描画モードCを選択し、長さ調整倍率を1.0倍から0.0倍に変化させる。つまり、描画処理部22fは、固定ガイド線を描画するとともに、予測ガイド線が短くなるように変化させながら描画する。移動状態から静止状態に変化したため、予測ガイド線の表示は不要になるからである。
なお、変化させる速度は任意であるが、描画モードDの変化速度よりも遅い方が好ましい。これは、静止状態から移動状態に変化したときは直ぐに予測ガイド線が確認できるようにした方が好ましいのに対して、移動状態から静止状態に変化したときに直ぐに予測ガイド線を描画しないようにするよりも、徐々に短くしていく方が静止状態に移行していることを把握しやすいからである。これにより表示される画像は図25と同様である。
また、長さ調整倍率が0.0倍に変化するまでは状態遷移完了フラグがセットされないため、移動判定フラグに変化がない限り状態判定処理は行われず、描画モードCが保持される。
図23に戻り、長さ調整倍率が0.0倍に変化すると状態遷移完了フラグがセットされるため状態判定処理を実行する。移動判定フラグが「静止」のままであるとすると、車両状態が第1状態となる。このため、描画処理部22fは、描画モードAを選択し、長さ調整倍率を0.0倍のままにする。すなわち、描画処理部22fは、固定ガイド線を描画して予測ガイド線は描画しない。
以降、同様に、移動判定フラグや状態遷移完了フラグに基づいて車両状態が判定され、車両状態に対応する描画モードが選択される。そして、選択された描画モードに基づいたガイド線の描画処理が実行される。
なお、例えば、描画モードCにおいて長さ調整倍率が0.0倍まで変化する途中で、移動判定フラグに変化があって描画モードDが選択された場合には、長さ調整倍率が変化した途中の倍率から再び1.0倍まで変化するようになっている。このように、処理の途中で描画モードが変更された場合であっても、変更後の描画モードにしたがって描画処理が実行される。
以上のように、本実施の形態では、カメラで撮影した画像を用いて自車両の移動量や旋回量等を導出することで移動経路を予測したガイド線を表示することが可能になる。また、自車両の状態(移動や静止)やその変化などに応じて表示するガイド線の種類や長さを変えるため、状態に応じた適切なガイド線を表示することが可能になる。
<2.移動ベクトル導出処理の変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
まず、移動ベクトル導出処理の変形例について説明する。上記実施の形態では、異なる時点で撮影された画像から生成した複数の俯瞰画像を用いて路面の移動ベクトルを導出する構成について説明したが、これに限定されるものではない。例えば、カメラの撮影画像から画像上での移動ベクトルを導出し、これを路面に投影することで路面の移動ベクトルを導出する構成としてもよい。
上記実施の形態では、路面の移動ベクトルを導出するために、フレーム毎に撮影画像から俯瞰画像を生成する必要があった。これに対して、本変形例では、撮影画像から俯瞰画像を生成することなく路面の移動ベクトルの導出が可能となるため、処理負荷を低減することが可能になる。
また、撮影画像から俯瞰画像を生成すると、画質が劣化してしまうため、移動ベクトルの導出精度も低下してしまうことがあったものの、本変形例では、俯瞰画像への変換処理がないため、移動ベクトルを導出する際の精度低下も回避することが可能になる。以下、具体的に説明する。
本変形例では、上記実施の形態と異なる点を主に説明する。本変形例では、上記実施の形態における俯瞰画像生成部22aは設けられておらず、代わりに路面投影部が設けられている。
本変形例における移動ベクトル導出部は、画像取得部21が取得した撮影画像を用いて移動ベクトルを導出する機能を有している。例えば、移動ベクトル導出部は、異なる時点で撮影された複数の撮影画像において、同じ被写体を表示している部分を抽出し、各表示位置に基づいて移動ベクトルを導出する。
路面投影部は、移動ベクトル導出部にて導出された移動ベクトルをワールド座標上に投影し、路面上の移動ベクトルを導出する機能を有している。移動ベクトル導出部にて導出した移動ベクトルは、撮影画像上の移動量を示すものであるため、路面投影部がその移動ベクトルを路面上に投影して路面上の移動ベクトルを導出することで実際の移動量に変換する。
次に、本変形例における移動ベクトルを導出する方法について図を用いて説明する。図27は、特徴点方式を用いて移動ベクトルを導出する手法を説明する図である。図27(a)及び(b)は、各々前フレームの撮影画像及び後フレームの撮影画像を示している。
図27に示すように、異なる時点で撮影した画像中の特徴点同士を対応付けることにより、特徴点が移動する前の位置と、移動した後の位置とを導出することができる。図27(b)では、この特徴点が移動した経路を表示している。つまり、移動ベクトル導出部は、この特徴点の移動経路の方向及び大きさを示すベクトルを画像上の移動ベクトルとして導出する。
そして、路面投影部が、移動ベクトル導出部にて導出された移動ベクトルを路面上(ワールド座標上)に投影し、路面上の移動ベクトルを導出する。以下、具体的に説明する。
本変形例においては、移動ベクトル導出部が導出した移動ベクトルは、画像上のベクトルであり、そのままの移動ベクトルを自車両の移動量とすることはできない。このため、画像上の移動ベクトルを実際の路面上の移動ベクトルに変換する必要がある。すなわち、路面投影部は、画像上の各移動ベクトルに対応する実際の移動量を導出するために、画像上の移動ベクトルを路面上に投影することで路面上の移動ベクトルを導出している。
ここで、移動ベクトルを路面上に投影する処理について図を用いて説明する。図28は、撮影画像上の移動ベクトルを路面上の移動ベクトルに変換する処理の概念を説明する図である。
図28に示すように、カメラ1の撮影画像I上の移動ベクトルB1は、路面Rに投影されることで路面R上の移動ベクトルB2に変換される。具体的には、カメラ1の視点から撮影画像I上の移動ベクトルB1の始点を結ぶ線を延長し、路面Rと交差する点が路面上の移動ベクトルB2の始点となる。同様に、カメラ1の視点から撮影画像上の移動ベクトルB1の終点を結ぶ線を延長し、路面Rと交差する点が路面上の移動ベクトルB2の終点となる。なお、図28において、撮影画像Iは、画像上の移動ベクトルB1を路面上の移動ベクトルB2に変換する際に用いられる概念図であり、実空間上に存在する画像面を示すものではない。
路面上の移動ベクトルB2の始点及び終点は、路面RをXY平面とし、カメラ1の位置を基点とした場合における、XY座標から導出することができる。このXY座標を導出する方法について図を用いて説明する。図29は、路面上の移動ベクトルの座標を導出する方法を説明する図である。
図29は、撮影画像I上の移動ベクトルB1を路面上Rに投影している様子をYZ平面で見た図である。つまり、X軸方向から見た図である。また、図29中のfmmは、カメラ1の焦点距離を示し、Zwは、カメラ1の視点位置と路面RとのZ軸方向の距離(高さ)を示す。また、Yc及びZcは、各々カメラ1の視点位置と移動ベクトルB1の位置との距離を示し、各々Y軸方向の距離及びZ軸方向の距離を示している。これらの各値は、カメラ1の仕様(レンズモデルや焦点距離等)や、カメラ1の地面に対する取り付け位置・取り付け角度に基づいて定まる値である。
そして、投影された路面上の移動ベクトルB2のY座標(Yw)は、
Yw=Zw/Zc×Yc
により導出することができる。また、同様にしてX座標(Xw)は、
Xw=Zw/Zc×Xc
により導出することができる。なお、Xcは、カメラ1の視点位置と移動ベクトルB1との距離のうちの、X軸方向の距離を示す。
これにより、路面上に投影された移動ベクトルB2のXY座標が定まるので、移動ベクトルB2の始点及び終点の座標を導出することで、路面上の移動ベクトルB2を導出することができる。
<3.他の変形例>
上記実施の形態では、描画モードCに移行すると長さ調整倍率を1.0倍から小さくし、描画領域を小さくする構成について説明したが、これに限定されるものではない。例えば、描画モードCに移行した際には、移行後所定時間が経過してから長さ調整倍率を小さくする構成としてもよい。
自車両を後退させながら駐車する場合などには、低速で走行していて移動と静止を繰り返す場合もある。このような場合に、予測ガイド線の長さを短くしたり長くしたりする処理を頻繁に繰り返すことはドライバにとって見難くなる可能性もあるからである。
また、上記実施の形態では、自車両が停止したときは予測ガイド線を描画しなかったり短くしたりする構成について説明したが、これに限定されるものではない。例えば、予測ガイド線の表示はそのままで、現在自車両が停止中である旨をドライバに報知する構成としてもよい。報知する方法も適宜選択することができ、例えば、その旨を表示装置に表示する方法や、その旨を音声で出力する方法などが挙げられる。これにより、自車両が静止した場合においてもドライバに対して誤った情報を提供することがない。
また、上記実施の形態では、カメラで撮影した自車両周辺の画像を用いて移動経路を予測したガイド線を表示することが可能であるため、舵角センサなどの他のセンサを別途設けることなく実現可能である。ただし、舵角センサなどの他のセンサを別途設けてそれらのフェールセーフとして使用することも可能である。
例えば、通常は舵角センサなどの他のセンサを用いて移動経路を予測したガイド線を表示し、他のセンサが故障した場合に上記実施の形態で説明した方法でガイド線を表示する構成である。このようにすれば、他のセンサが故障した場合であってもガイド線が表示されないという事態を回避することが可能になる。
また、上記実施の形態において、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明した機能のうちの一部は、電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されると説明した機能のうちの一部は、ソフトウェア的に実現されてもよい。
1 カメラ
2 画像処理装置
3 表示装置
10 物体検出システム
21 画像取得部
22 画像生成部
23 メモリ
24制御部

Claims (5)

  1. 画像を処理する画像処理装置であって、
    画像の周囲を撮影する撮影装置から撮影画像を取得する画像取得手段と、
    前記取得した撮影画像に対して、運転を支援する支援画像を重畳させた表示画像を生成する画像生成手段と、
    前記車両の移動又は静止を判定する判定手段と、を備え、
    前記画像生成手段は、前記判定手段の判定結果に応じて異なる支援画像を重畳させた表示画像を生成することを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記支援画像は、予め定められた領域に線を描画した第1支援画像と、車両の予測された移動経路に線を描画した第2支援画像とを含み、
    前記画像生成手段は、車両が移動状態のときは前記第1及び第2支援画像を重畳させた表示画像を生成し、車両が静止状態のときは前記第1支援画像を重畳させた表示画像を生成することを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記画像生成手段は、車両が移動状態から静止状態へ変化したときは、前記第1支援画像のみを重畳させた表示画像を生成する前に、第1支援画像と、移動経路の線の長さが移動状態のときよりも短い第2支援画像とを重畳させた表示画像を生成することを特徴とする画像処理装置。
  4. 請求項1ないし3のいずれか1項に記載の画像処理装置において、
    前記車両の移動量を導出する移動量導出手段をさらに備え、
    前記判定手段は、前記導出した移動量に基づいて車両の移動又は静止を判定することを特徴とする画像処理装置。
  5. 車両の運転を支援する運転支援システムであって、
    車両の周囲を撮影する撮影装置と、
    前記撮影装置が撮影した撮影画像を処理して表示画像を生成する画像処理装置と、
    前記表示画像を表示する表示装置と、を備え、
    前記画像処理装置は、
    前記撮影画像を取得する画像取得手段と、
    前記取得した撮影画像に対して、運転を支援する支援画像を重畳させた表示画像を生成する画像生成手段と、
    前記車両の移動又は静止を判定する判定手段とを備えており、
    前記画像生成手段は、前記判定手段の判定結果に応じて異なる支援画像を重畳させた表示画像を生成する
    ことを特徴とする運転支援システム。
JP2014145323A 2014-07-15 2014-07-15 画像処理装置、及び、運転支援システム Active JP6407596B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014145323A JP6407596B2 (ja) 2014-07-15 2014-07-15 画像処理装置、及び、運転支援システム
US14/793,080 US9827906B2 (en) 2014-07-15 2015-07-07 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014145323A JP6407596B2 (ja) 2014-07-15 2014-07-15 画像処理装置、及び、運転支援システム

Publications (2)

Publication Number Publication Date
JP2016021712A true JP2016021712A (ja) 2016-02-04
JP6407596B2 JP6407596B2 (ja) 2018-10-17

Family

ID=55075660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014145323A Active JP6407596B2 (ja) 2014-07-15 2014-07-15 画像処理装置、及び、運転支援システム

Country Status (2)

Country Link
US (1) US9827906B2 (ja)
JP (1) JP6407596B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
JP2018111377A (ja) * 2017-01-11 2018-07-19 株式会社デンソーテン ドアの開度変化検出装置及びドアの開度変化検出方法
JP2019077271A (ja) * 2017-10-23 2019-05-23 アルパイン株式会社 電子装置および駐車支援方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170835A1 (ja) * 2019-02-18 2020-08-27 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191877A (ja) * 1999-10-27 2001-07-17 Fujitsu Ten Ltd 車両の運転支援装置およびステアリング角検出装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017462A (ja) 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP5187369B2 (ja) 2010-09-24 2013-04-24 株式会社デンソー 車両用の後退駐車支援装置および後退駐車支援装置用のプログラム
CN103796879B (zh) * 2011-08-12 2017-03-22 丰田自动车株式会社 停车支援装置
US20140160287A1 (en) * 2012-12-07 2014-06-12 E-Lead Electronic Co., Ltd. Guide method of a reverse guideline system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191877A (ja) * 1999-10-27 2001-07-17 Fujitsu Ten Ltd 車両の運転支援装置およびステアリング角検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
JP2018111377A (ja) * 2017-01-11 2018-07-19 株式会社デンソーテン ドアの開度変化検出装置及びドアの開度変化検出方法
JP2019077271A (ja) * 2017-10-23 2019-05-23 アルパイン株式会社 電子装置および駐車支援方法

Also Published As

Publication number Publication date
US9827906B2 (en) 2017-11-28
JP6407596B2 (ja) 2018-10-17
US20160021313A1 (en) 2016-01-21

Similar Documents

Publication Publication Date Title
JP5421072B2 (ja) 接近物体検知システム
JP2009017462A (ja) 運転支援システム及び車両
US20170259830A1 (en) Moving amount derivation apparatus
US10099617B2 (en) Driving assistance device and driving assistance method
JP2008182652A (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
JP5054612B2 (ja) 接近物検出装置および接近物検出方法
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP5253017B2 (ja) 周辺監視装置、障害物検出方法及びコンピュータプログラム
JP6778620B2 (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
JP6407596B2 (ja) 画像処理装置、及び、運転支援システム
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
WO2015129280A1 (ja) 画像処理装置および画像処理方法
JP2018074411A (ja) 物体検出装置及び物体検出方法
JP2015171106A (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP6327115B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP5477394B2 (ja) 車両周辺監視装置
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
JP2005170290A (ja) 障害物検出装置
JP2008042759A (ja) 画像処理装置
JP2007317128A (ja) 移動距離検出装置及び移動距離検出方法
JP7122211B2 (ja) 駐車支援装置および駐車支援方法
JP2010016746A (ja) 周辺監視装置
JP2007028443A (ja) 画像表示システム
JP6523801B2 (ja) 画像処理装置および画像処理方法
JP2019151307A (ja) 駐車エリア検知装置および駐車エリア検知方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180919

R150 Certificate of patent or registration of utility model

Ref document number: 6407596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250