JP6148848B2 - 車載画像処理装置 - Google Patents

車載画像処理装置 Download PDF

Info

Publication number
JP6148848B2
JP6148848B2 JP2012259068A JP2012259068A JP6148848B2 JP 6148848 B2 JP6148848 B2 JP 6148848B2 JP 2012259068 A JP2012259068 A JP 2012259068A JP 2012259068 A JP2012259068 A JP 2012259068A JP 6148848 B2 JP6148848 B2 JP 6148848B2
Authority
JP
Japan
Prior art keywords
white line
detection unit
parking frame
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012259068A
Other languages
English (en)
Other versions
JP2014106738A (ja
Inventor
彰二 村松
彰二 村松
健人 緒方
健人 緒方
將裕 清原
將裕 清原
智史 鈴木
智史 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012259068A priority Critical patent/JP6148848B2/ja
Publication of JP2014106738A publication Critical patent/JP2014106738A/ja
Application granted granted Critical
Publication of JP6148848B2 publication Critical patent/JP6148848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車載画像処理装置に関する。
車両に取り付けられたカメラにより撮影して得られた画像から、車両の周囲の駐車枠を検出する技術が知られている(特許文献1参照)。
特開2011−207383号公報
上述した特許文献に記載の技術では、車両の後端部に取り付けた車載カメラによって車両後方の路面を逐次撮影し、撮影によって得られた車両後方の画像に基づいて駐車枠を検出している。しかし、上述した特許文献に記載の技術では、後退して駐車する場合には有効であるが、上述した特許文献に記載の技術を前進駐車の場合にも適用すると不具合が生じるおそれがある。すなわち、操舵輪が車両の前部に設けられているため、旋回しながら前進駐車する際の車両前部の左右方向への移動量が、旋回しながら後退駐車する際の車両後部の左右方向への移動量よりも大きい。そのため、前進駐車によって最終的に駐車する位置についての駐車枠が、車両の前部に設けられた車載カメラの撮影範囲から外れてしまい、駐車枠を認識できないおそれがある。
1) 請求項の発明による車載画像処理装置は、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像を合成して、俯瞰画像を生成する画像合成部と、画像合成部で生成した俯瞰画像のうち、車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像から白線を検出する第1の白線検出部と、第1の白線検出部の検出結果に基づいて、駐車枠を検出する第1の駐車枠検出部と、第1の駐車枠検出部の検出結果を参照して、画像合成部で生成した俯瞰画像のうち、車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した側方俯瞰画像から白線を検出する第2の白線検出部と、第1の白線検出部の検出結果および第2の白線検出部の検出結果に基づいて、駐車枠を検出する第2の駐車枠検出部とを備えることを特徴とする。
本発明によれば、駐車枠を適切に検出できる。
本発明の一実施の形態による車載画像処理装置の構成を示すブロック図である。 車両に搭載されたカメラにより撮影された車両周囲の撮影画像と、画像合成部により合成された俯瞰画像との画像の例を示す図である。 演算処理部が行う演算処理の制御ブロック図である。 演算処理部の第1白線検出部で行われる処理のフローチャートである。 演算処理部の第1駐車枠検出部で行われる処理のフローチャートである。 駐車枠を構成する駐車枠線の例を示す模式図である。 演算処理部の第2白線検出部で行われる処理のフローチャートである。 第2白線検出部における処理に係る俯瞰画像を示す図である。 第2白線検出部における処理について説明する図である。 演算処理部の第2駐車枠検出部で行われる処理のフローチャートである。 第2の実施の形態による外界認識装置の構成を説明するブロック図である。 演算処理部が行う演算処理の制御ブロック図である。 演算処理部の第1白線検出部で行われる処理のフローチャートである。 演算処理部の第1白線検出部で行われる処理の例を示す模式図である。 演算処理部の第2白線検出部で行われる処理を説明する模式図である。 演算処理部の第2白線検出部で行われる処理のフローチャートである。 演算処理部の第2白線検出部で行われる処理の例を示す模式図である。 本発明の第3の実施の形態による車載画像処理装置が動作するシーンの例を示す模式図である。 第2実施の形態による外界認識装置の構成を説明するブロック図である。 演算処理部が行う演算処理の制御ブロック図である。 演算処理部の第1の白線抽出部で行われる処理を説明する模式図である。 演算処理部の第1レーン検出部で行われる処理のフローチャートである。 演算処理部の第2の白線検出部で行われる処理の例を示す模式図である。 演算処理部の第2レーン検出部で行われる処理のフローチャートである。
[第1の実施の形態]
図1〜10を参照して、本発明による車載画像処理装置の第1の実施の形態を説明する。図1は、本発明の一実施の形態による車載画像処理装置100の構成を示すブロック図である。図1に示す車載画像処理装置100は、車両1(図2参照)に搭載されて使用されるものであり、画像合成部2と、演算処理部3と、出力部4と、を備える。車載画像処理装置100は、不図示のコンピュータに所定の制御プログラムを実行させることにより、これらの機能を実現している。図2は、車両1に搭載されたカメラ1a〜1dにより撮影された車両周囲の撮影画像21a,21b,21c,21dと、画像合成部2により合成された俯瞰画像22との画像の例を示す図である。
車両1に搭載されたカメラ1a〜1dは、車両1の周囲をそれぞれ異なる撮影範囲で撮影する電子式カメラであり、車両1のボディ、バンパー、ドアミラー等の各部に設置されている。これらの各カメラの撮影範囲は、合わせて車両1の全周囲をカバーできるように定められている。本実施の形態では、図2に示すようにカメラ1aは車両1前方の撮影範囲を、カメラ1bは車両1左側方の撮影範囲を、カメラ1cは車両1右側方の撮影範囲を、カメラ1dは車両1後方の撮影範囲をそれぞれ撮影するものとして説明する。カメラ1a〜1dにより所定のフレームレート間隔でそれぞれ取得された撮影画像は、画像合成部2へ出力される。
なお、本実施の形態では、4つのカメラ1a〜1dが上記のような各撮影範囲をそれぞれ撮影するものとして説明するが、車両1に搭載されるカメラの個数および撮影範囲はこれに限定されない。また、各カメラを合わせた撮影範囲は、必ずしも車両1の全周囲をカバーしていなくてもよい。車両1の周囲を適切な範囲で撮影できれば、任意の個数のカメラを用いて、任意の撮影範囲について撮影画像を取得することができる。
図2において、紙面左側の画像21a,21b,21c,21dは、車両1に搭載されたカメラ1a〜1dで撮影して得られた車両1の周囲の撮影画像を示し、紙面右側の画像22(22a,22b,22c,22d)は俯瞰画像(オーバーヘッドビュー画像)を示している。
画像合成部2は、カメラ1a〜1dにより取得された各撮影画像21a,21b,21c,21dに基づいて、車両の全周囲を俯瞰した様子を示す俯瞰画像22を合成する。この俯瞰画像22は、カメラ1a〜1dの各撮影画像21a,21b,21c,21dをその撮影方向に応じて座標変換した上で繋ぎ合わせることによって合成されるものである。画像合成部2により合成された俯瞰画像は、演算処理部3へ出力される。
俯瞰画像22は、たとえば、車両1側では車両1内に設置された表示装置1Mに表示される。俯瞰画像22が表示される領域(画像領域22F)は、車両1の前方、左側方、右側方および後方にそれぞれ対応する4つの画像領域22Fa、22Fb、22Fcおよび22Fdにより構成されている。これらの画像領域22Fに表示される各画像22a,22b,22c,22dは、上述したように、図1のカメラ1a〜1dによってそれぞれ撮影された画像に基づいて作成されたものである。各画像領域22Fa、22Fb、22Fcおよび22Fd内には、駐車枠を構成する駐車枠線23Lの一部が表示されている。
演算処理部3は、画像合成部2により合成された俯瞰画像22に基づいて所定の演算処理を行うことにより、車両周囲の駐車枠を認識する。この演算処理部3が行う演算処理の内容については、後で詳しく説明する。演算処理部3による駐車枠の認識結果は、出力部4へ出力される。
出力部4は、演算処理部3による駐車枠の認識結果に基づいて、車両周囲の駐車枠に対する駐車枠情報を出力する。たとえば、車両1に対する駐車枠の方向や駐車枠までの距離を示す情報を駐車枠情報として出力する。この駐車枠情報は、車載画像処理装置100と接続されている上位の車両制御装置(不図示)へと出力され、車両1の駐車支援や走行制御等に利用される。たとえば、周囲に駐車場が存在する状況であることを自動で認識し、たとえば、駐車場環境である場合には、後述する表示装置1Mに自車周囲の俯瞰映像を自動で切り替えて表示することができる。これにより、公道において駐車場であると誤検知する状況を抑制し、適切なタイミングでユーザへの提示映像を切り替えることができるようになる。
また,出力部4は、演算処理部3による駐車枠の認識結果に基づいて、自車からの相対的な位置情報として駐車枠情報を出力する。たとえば、駐車枠の左右枠線の端点座標,駐車枠線の角度および切片といった、実環境中における駐車枠の位置情報を出力する。この駐車枠情報は、車載用駐車枠認識装置と接続されている上位の車両制御装置(不図示)へと出力され、車両の駐車支援や走行制御等に利用される。たとえば、自車から駐車枠までの相対的な位置姿勢に基づいて,駐車枠までの走行経路を計算し,ドライバーにブレーキやシフトポジション変更のタイミングや,舵角の操作量を通知することによって,駐車支援を行うことが可能となる。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、短時間で駐車動作が完了できるようになる。
さらには、自車から駐車枠までの相対的な位置姿勢に基づいて,駐車枠までの走行経路を計算し、自動で車両の前進・後退・旋回の制御量を計算し、その計算結果に従って車両運動を自動制御してもよい。これにより、車庫入れ等の運転操作に不慣れなドライバーにとっても、安全かつ正確に駐車動作を完了できるようになる。
以上説明したような画像は、上述したように、たとえば車両1内の表示装置1Mにおいて表示される。なお、表示装置1Mに表示される画像は、俯瞰画像22に変換する前の撮影画像21a等であってもよい。この場合には、表示装置1Mに表示される画像が車両1の進行方向に応じて切り替えられることが好ましい。たとえば、車両1のシフトレバーを前進方向に切り替えたときには、車両1が前進していると判断して、カメラ1aにより撮影された車両前方の撮影画像21aが表示されるようにしてもよい。一方、車両1のシフトレバーを後退方向に切り替えたときには、車両1が後退していると判断して、カメラ1dにより撮影された車両1の後方の撮影画像21dが表示されるようにしてもよい。
次に、演算処理部3が行う演算処理の内容について説明する。図3は、演算処理部3が行う演算処理の制御ブロック図である。図3に示すように、演算処理部3は、第1白線検出部301と、第1駐車枠検出部302と、第2白線検出部303と、第2駐車枠検出部304の各制御ブロックを機能的に有する。演算処理部3では、たとえば、これらの各制御ブロックに対応してメモリに記録されているプログラムをマイクロコンピュータで実行することにより、図3の各制御ブロックを実現している。演算処理部3は、たとえば車速が所定の速度(たとえば50km/h)以下となった場合に、処理を実施する。車速が所定の速度以下となったか否かの判断は、車両側から出力される車速パルスの周期に基づいて判断してもよく、車両の不図示の制御装置から出力される車速に関する情報に基づいて判断してもよい。
画像合成部2により合成された俯瞰画像は、演算処理部3において第1白線検出部301に入力される。第1白線検出部301は、入力された俯瞰画像22aから路面に描かれた白線を検出する。第1白線検出部301が行う処理内容については、後述する。第1白線検出部301による白線の検出(認識)結果は、第1駐車枠検出部302へ出力される。
第1駐車枠検出部302は、第1白線検出部301による白線の抽出結果に基づいて、駐車枠を検出する。第1駐車枠検出部302が行う処理内容については、後述する。第1駐車枠検出部302による駐車枠の検出結果は、第2白線検出部303および図1の出力部4へ出力される。
第2白線検出部303は、第1駐車枠検出部302が行った処理内容に基づいて、車両1の側方の俯瞰画像22b,22cにおける白線(駐車枠線23L)の予想位置を算出し、算出した予想位置における駐車枠線23Lを検出する。第2白線検出部303が行う処理内容については、後述する。第2白線検出部303による白線の検出(認識)結果は、第2駐車枠検出部304へ出力される。
第2駐車枠検出部304は、第1白線検出部301による白線の検出結果および第2白線検出部303の検出結果に基づいて、車両1の前方の俯瞰画像22aに現れる駐車枠線23Lと、側方の俯瞰画像22b,22cに現れる駐車枠線23Lとから、駐車枠を検出する。第2駐車枠検出部304による駐車枠の検出結果は、図1の出力部4へ出力される。
図4は、演算処理部3の第1白線検出部301で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。ステップS101において、カメラ1aにおける撮影画像21a、すなわち車両1前方の撮影画像21aから生成された俯瞰画像(前方俯瞰画像)22aに対して、順次走査(プログレッシブスキャン)を行い、すべての走査線(全ライン)で横方向のエッジフィルタを適用してステップS103へ進む。
ステップS103において、ステップS101における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS105へ進む。ステップS105において、ステップS103における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS107へ進む。
ステップS107において、ステップS105における処理によって残されたエッジに関し、立ち上がりのピーク同士、および立ち下がりピーク同士で、直線状に並んでいると推定されるピークをひとまとまりのグループとして関連づけるグルーピング(グループ化)を行ってステップS109へ進む。ステップS109において、ステップS107における処理によるピークの各グループに対して、ノイズの除去を目的として、各グループの長さによるフィルタリングを行う。すなわち、1つのグループを構成する直線状に並ぶピークのうち、直線の両端に相当する2つのピーク同士の間隔が所定の長さよりも長いグループだけを残す処理を行う。ステップS109における処理を実行するとステップS111へ進む。
ステップS111において、ステップS109における処理によって残された各グループについて、立ち上がりのエッジの任意の1グループ、およびこの立ち上がりのエッジとペアをなす立ち下がりのエッジのグループにおける、直線の両端に相当する2つの端点(上端および下端)の座標をそれぞれ抽出して、第1駐車枠検出部302へ出力する。
図5は、演算処理部3の第1駐車枠検出部302で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。ステップS121において、第1白線検出部301から出力された情報に基づいて、任意の2本の白線(駐車枠線)に関する情報を選択してステップS123へ進む。
ステップS123において、ステップS121で選択した2本の白線同士の延在方向の角度差が所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS123では、2本の白線が略平行であるか否かを判断する。ステップS123が肯定判断されるとステップS125へ進み、2本の白線の間隔が所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS125では、駐車枠を構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。
ステップS125が肯定判断されるとステップS127へ進み、2本の白線の下端のずれが所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断する。ここで、2本の白線の下端のずれについて、図6を参照して説明する。図6の左図(a)に示すように、駐車場の敷地における車両1の移動方向(図6の紙面における上下方向および左右方向)に対して車両1を平行または直角に駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合、紙面における下端は、ずれない。
しかし、図6の右図(b)に示すように、駐車場によっては、車両1の移動方向(図6の紙面における上下方向および左右方向)に対して車両1を平行または直角ではなく斜めに駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合がある。この場合、距離Bで示すように、駐車枠23を構成する駐車枠線23Lの下端位置がずれる。これは、図示右側の駐車枠線23Lが紙面下方の車両1が走行する領域に対してはみ出さないようにするために、駐車枠線23Lの下端位置をずらしてあるからである。
たとえば、高速道路のサービスエリアやパーキングエリアでは、図6の右図(b)の左側の駐車枠線23Lの下端から駐車枠線23Lの延在方向に対して垂直な線分と、駐車枠線23Lの下端同士を結ぶ線分との交差角度θが0度、30度、45度のいずれかとすることが定められている。また、駐車枠23の幅Wについても取り得る値の範囲が決まっている。そこで、本実施の形態では、上記交差角度θが、0度、30度、45度のいずれかの値であるときに取り得る距離Bの値があらかじめ不図示のメモリ等に記憶されている。
本実施の形態のステップS127では、あらかじめ記憶されている上述した距離Bと、前方俯瞰画像22aから算出される距離Bとを比較して、その差が上述した所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断することによって、2本の白線が1つの駐車枠23を構成する白線(駐車枠線23L)であるか否かを判断する。
ステップS127が肯定判断されるとステップS129へ進み、2本の白線で構成される矩形の駐車枠23の4隅の座標を1つの駐車枠23についての位置の情報として登録する。ステップS129を実行するとステップS131へ進み、第1白線検出部301から出力された情報に基づくすべての白線(駐車枠線)に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS131が肯定判断されると、上述した処理によって得られた結果を第2白線検出部に出力して、リターンする。ステップS131が否定判断されるとステップS121へ戻る。
ステップS123が否定判断されるか、ステップS125が否定判断されるか、ステップS127が否定判断されるとステップS131へ進む。
図7は、演算処理部3の第2白線検出部303で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。なお、第2白線検出部303で行われる処理によって、車両1側方の撮影画像21b,21cから生成された俯瞰画像(側方俯瞰画像)22b,22cに表示されている駐車枠線23L(たとえば、図8の俯瞰画像22cに現れている駐車枠線23L)を検出する。
ステップS141において、側方俯瞰画像22b,22cに対して、走査されるラインを間引くために飛び越し走査(インターレススキャン)を行う。このような間引かれた走査を行い、すべての走査線、すなわち間引かれなかったライン(飛び越し走査によって得られた、たとえば1フィールド分)に対して横方向のエッジフィルタを適用する。
このように、飛び越し走査によって得られた、たとえば1フィールド分に対してだけ横方向のエッジフィルタを適用することで、側方俯瞰画像22b,22cに対する白線検出処理の負荷を減らすことができる。また、図9に示すように、側方俯瞰画像22b,22cのうち、車両1の中央付近より前方の領域についてだけ走査を行うことで、白線検出処理の負荷をさらに減らすことができる。
なお、後述する図9では、上述した飛び越し走査に係る走査線26を模式的に示している。ステップS141を実行するとステップS143へ進む。
ステップS143において、ステップS141における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS145へ進む。ステップS145において、ステップS143における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS147へ進む。
ステップS147において、第1駐車枠検出部302で登録した駐車枠23についての位置の情報に基づいて、側方俯瞰画像22b,22cにおいて存在すると予測される駐車枠線23Lの予想位置を算出する。すなわち、図8に示すように、第1駐車枠検出部302認識した駐車枠23を構成する線23Lについての情報から、側方俯瞰画像22b,22cにおいて存在すると予測される駐車枠線23Lの予想位置を示す仮想線25を算出する。
ステップS147が実行されるとステップS149へ進み、飛び越し走査に係る各ライン(各走査線26)とステップS147で算出した仮想線25との交点を算出する。すなわち、図9における俯瞰画像22cに示すように、各走査線26と仮想線25との交点27を算出する。なお、図8や図9で示している仮想線25,走査線26および交点27は、説明の便宜のために図中に表しているだけであり、表示装置1Mに表示される画像には、仮想線25,走査線26および交点27は表示されない。
ステップS149が実行されるとステップS151へ進み、各走査線26上で各交点27の近傍(駐車枠線23Lの幅方向に相当する所定の範囲内)に、輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジが存在するか否かを確認してステップS153へ進む。
ステップS153において、一番上のライン、すなわち、図9における図示上方の走査線26から順に交点27を辿り、ステップS151で存在を確認したエッジのペアが存在しなかった交点27を特定し、特定した交点27の1つ上の走査線26上の交点27を白線の下端、すなわち駐車枠線23Lの下端として、この交点27の座標を抽出し、第2駐車枠検出部304へ出力する。
図10は、演算処理部3の第2駐車枠検出部304で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部3が処理を実施する度に、繰り返し実行される。ステップS161において、上述した第2白線検出部303で白線を検出できたか否か、すなわち、駐車枠線23Lを検出できたか否かを判断する。ステップS161は肯定判断されるとステップS163へ進む。
ステップS163において、第2白線検出部303で検出した白線と、第1白線検出部301で検出された白線のうち、第2白線検出部303で検出した白線の近くに存在する白線とによって構成される1つの駐車枠23について、位置の情報を登録する。そして登録した情報を出力部4へ出力してリターンする。
ステップS161が否定判断されるとリターンする。
上述した本実施の形態によれば、次の作用効果を奏する。
(1) 第1白線検出部301の検出結果に基づいて、第1駐車枠検出部302で前方俯瞰画像22aにおける駐車枠23を検出し、第1駐車枠検出部302の検出結果を参照して、側方俯瞰画像22b,22cから駐車枠線23Lを第2白線検出部303で検出するように構成した。そして、第1白線検出部301および第2白線検出部303の検出結果に基づいて、前方俯瞰画像22aと側方俯瞰画像22b,22cとにまたがって存在する駐車枠23を第2駐車枠検出部304で検出するように構成した。これにより、旋回しながら前進駐車する際に、前方俯瞰画像22aだけでは検出できない駐車枠23を、前方俯瞰画像22aおよび側方俯瞰画像22b,22cに基づいて検出できる。したがって、旋回しながらであっても、前進駐車によって際に最終的に駐車する駐車枠23を早い段階で検出できるので、前進駐車をする際、ドライバーに対して適切に駐車枠23を提示でき、前進駐車を容易化できる。
(2) 第1駐車枠検出部302で検出された駐車枠23に係る白線の延在方向の角度および駐車枠の幅に基づいて白線を検出するように第2白線検出部303を構成した。これにより、側方俯瞰画像22b,22cにおける白線の予想位置を算出できるので、飛び越し走査した場合であっても側方俯瞰画像22b,22cにおける白線を検出できる。したがって、第2白線検出部303における白線検出処理の負荷を減らすことができ、第2白線検出部303に係る演算装置の性能を必要以上に要求しなくて済むため、車載画像処理装置100のコストダウンに貢献できる。
(3) より具体的には、第1駐車枠検出部302認識した駐車枠23を構成する線23Lについての情報から、側方俯瞰画像22b,22cにおける駐車枠線23Lの予想位置を示す仮想線25を算出するように構成した。そして、仮想線25と飛び越し走査に係る各ライン(各走査線26)との交点を算出するように構成した。また、各交点27の近傍に、輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジが存在するか否かを確認するように構成した。これにより、前方俯瞰画像22aと側方俯瞰画像22b,22cとにまたがって存在する白線を容易に検出できるので、第2白線検出部303における白線検出処理の負荷を減らすことができ、第2白線検出部303に係る演算装置の性能を必要以上に要求しなくて済むため、車載画像処理装置100のコストダウンに貢献できる。
(4) 第1白線検出部301による前方俯瞰画像22aの走査については順次走査を行い、第2白線検出部303による側方俯瞰画像22b,22cの走査については飛び越し走査を行うように構成した。すなわち、第2白線検出部303による側方俯瞰画像22b,22cの走査密度が、第1白線検出部301による前方俯瞰画像22aの走査密度よりも粗くなるように構成した。これにより、白線検出に係る処理速度を向上できるので、遅滞なく白線検出ができ、ひいては、遅滞なく駐車枠に関する情報を出力できる。したがって、駐車枠に関する情報を用いた車両1側での処理時間を短縮でき、駐車枠に関する情報を用いた車両1の制御に資する。
[第2の実施の形態]
次に、本発明の第2の実施の形態について図11から図17を参照しつつ以下に説明する。
図11は、第2の実施の形態にかかわる外界認識装置200の構成を説明するブロック図である。図11に示す車載画像処理装置200は、車両1に搭載されて使用されるものであり、演算処理部31と、出力部4と、を備える。なお、第1の実施の形態と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
本実施の形態において特徴的なことは、画像合成部2を用いず、演算処理部31で直接画像処理を実施していることである。
演算処理部31が行う演算処理の内容について説明する。図12は、演算処理部31が行う演算処理の制御ブロック図である。図12に示すように、演算処理部31は、第1白線検出部311と、第1駐車枠検出部302と、第2白線検出部313と、第2駐車枠検出部304の各制御ブロックを機能的に有する。演算処理部31は、車両に取り付けたカメラ1a〜1dから取得される画像21a〜21dのうち、第1白線検出部311において前方カメラ画像21a、第2白線検出部にて右側方カメラ画像21b、左側方カメラ画像21cを用いる。演算処理部31では、たとえば、これらの各制御ブロックに対応してメモリに記録されているプログラムをマイクロコンピュータで実行することにより、図12の各制御ブロックを実現している。演算処理部31は、たとえば車速が所定の速度(たとえば50km/h)以下となった場合に、処理を実施する。車速が所定の速度以下となったか否かの判断は、車両側から出力される車速パルスの周期に基づいて判断してもよく、車両の不図示の制御装置から出力される車速に関する情報に基づいて判断してもよい。演算処理部31による駐車枠の認識結果は、出力部4へ出力される。
第1白線検出部311は、前方カメラ画像21aを入力し、路面に描かれた白線を検出する。第1白線検出部311が行う処理内容については、後述する。第1白線検出部311による白線の検出(認識)結果は、第1駐車枠検出部302へ出力される。
第2白線検出部313は、第1駐車枠検出部302が行った処理内容に基づいて、右側方カメラ画像21b、左側方カメラ画像21cにおける白線の予想位置を算出し、算出した予想位置における駐車枠線を検出する。第2白線検出部313が行う処理内容については、後述する。第2白線検出部313による白線の検出(認識)結果は、第2駐車枠検出部304へ出力される。
図13は、演算処理部31の第1白線検出部311で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部31が処理を実施する度に、繰り返し実行される。ステップS201において、車両1の前方カメラ画像21aに対して、処理ラインを設定する。処理ラインの設定の例について、図14を用いて説明する。図14(a)は、前方カメラ画像21aの一例である。この画像に対して、処理ライン42を設定する。図14(b)はラインを均等に画面全体に適用した場合の一例である。このほかにも、過去の白線や駐車枠の検出結果に基づいて設定したり、自車の挙動に基づいて設定する方法等が考えられるが、ここでは説明を割愛する。
ステップS203において、ステップS201にて設定したすべての処理ラインに対して横方向のエッジフィルタを適用してステップS205へ進む。ステップS205において、ステップS203における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS207へ進む。ステップS207において、ステップS205における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS209へ進む。
ステップS209において、ステップS207における処理によって残されたエッジに関し、立ち上がりのピーク同士、および立ち下がりピーク同士で、直線状に並んでいると推定されるピークをひとまとまりのグループとして関連づけるグルーピング(グループ化)を行う。ここで、本実施例ではカメラ画像をそのまま用いているため、エッジのピークは第1の実施例のように画像上で直線上に並ばない。そこで、本実施例では、カメラ幾何情報を用いてすべてのエッジ点を世界座標へ変換し、世界座標上でグルーピングを実施する。グルーピング後、ステップS211へ進む。ステップS211において、ステップS209における処理によるピークの各グループに対して、ノイズの除去を目的として、各グループの長さによるフィルタリングを行う。すなわち、1つのグループを構成する直線状に並ぶピークのうち、直線の両端に相当する2つのピーク同士の間隔が所定の長さよりも長いグループだけを残す処理を行う。ステップS211における処理を実行するとステップS213へ進む。
ステップS213において、ステップS211における処理によって残された各グループについて、立ち上がりのエッジの任意の1グループ、およびこの立ち上がりのエッジとペアをなす立ち下がりのエッジのグループにおける、直線の両端に相当する2つの端点(上端および下端)の座標をそれぞれ抽出して、第1駐車枠検出部302へ出力する。
図16は、演算処理部3の第2白線検出部313で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部31が処理を実施する度に、繰り返し実行される。なお、第2白線検出部313で行われる処理によって、車両1側方の撮影画像21b,21cに表示されている駐車枠線41Lc(たとえば、図15に現れている駐車枠線41Lc)を検出する。
ステップS221において、第1駐車枠検出部302で登録した駐車枠23についての位置の情報に基づいて、側方カメラ画像21b,21cにおいて存在すると予測される駐車枠線41Lcの予想位置を算出する。すなわち、図15に示すように、第1駐車枠検出部302にて認識した駐車枠23を構成する線41La、41Lbについての情報から、側方カメラ画像21b,21cにおいて存在すると予測される駐車枠線41Lcの予想位置を示す仮想線43を算出する。
ステップS223において、仮想線43を、カメラ幾何情報を用いて側方画像21bもしくは21c上へ重畳し、その線の周囲に処理ライン44を設定する。図17に示すように、仮想線43は前方カメラ画像21aで検出した枠線が右側に傾いている場合は右側方カメラ画像21cへ、左側へ傾いている場合は左側方カメラ画像21bへ引かれるため、以降、いずれかのカメラ画像のみを処理する。
ステップS225において、ステップS223において設定した処理ラインに対して横方向のエッジフィルタを適用する。
このように、処理ライン42よりY方向の間隔が疎な横方向のエッジフィルタを適用することで、側方カメラ画像21b,21cに対する白線検出処理の負荷を減らすことができる。
ステップS227において、ステップS225における処理結果から、輝度の立ち上がりおよび立ち下がりのピークを抽出してステップS229へ進む。ステップS229において、ステップS227における処理の結果から、所定の間隔(駐車枠線の横幅に相当する間隔)で輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジのみを残す処理を行ってステップS231へ進む。
ステップS231において、各処理ライン44と仮想線43の各交点45の近傍に存在している輝度の立ち上がりのピークと輝度の立ち下がりのピークとによってペアとして成り立つエッジペアを抽出する。
ステップS233において、ステップS231で抽出したエッジペアのうち、直線状に並んでいるものを抽出する。抽出には様々な方法が考えられるが、例えば各エッジ点を世界座標へ変換し、一般的に知られているハフ変換を用いて抽出することが可能である。直線が抽出された場合には、立ち上がりエッジおよび立下りエッジの上端と下端の座標を求め、第2駐車枠検出部304へ出力する。
以上説明したように、本発明は俯瞰画像を必ずしも用いなくても良い。
[第3の実施の形態]
次に、本発明の第3の実施の形態について図18から図24を参照しつつ以下に説明する。
図19は、第3の実施の形態にかかわる外界認識装置300の構成を説明するブロック図である。図19に示す車載画像処理装置300は、車両1に搭載されて使用されるものであり、演算処理部32と、出力部4と、を備える。なお、第1の実施の形態および第2の実施の形態と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
本実施の形態において特徴的なことは、駐車枠ではなく、白線抽出結果から走行レーンを検出していることである。図18(a)に示すように、自車1が旋回しながら複数車線の道へ出ていく際にも、同様にフロントカメラでは視野に入らないレーンへ入っていく場合があり、本実施例はこのような場合に側方カメラを用いて自車が入っていくレーンを認識するものである。
演算処理部32が行う演算処理の内容について説明する。図20は、演算処理部32が行う演算処理の制御ブロック図である。図20に示すように、演算処理部32は、第1白線検出部311と、第1レーン検出部322と、第2白線検出部313と、第2レーン検出部324の各制御ブロックを機能的に有する。演算処理部32は、車両に取り付けたカメラ1a〜1dから取得される画像21a〜21dのうち、第1白線検出部311において前方カメラ画像21a、第2白線検出部にて右側方カメラ画像21b、左側方カメラ画像21cを用いる。演算処理部32では、たとえば、これらの各制御ブロックに対応してメモリに記録されているプログラムをマイクロコンピュータで実行することにより、図20の各制御ブロックを実現している。演算処理部32は、たとえば車速が所定の速度(たとえば50km/h)以下となった場合に、処理を実施する。車速が所定の速度以下となったか否かの判断は、車両側から出力される車速パルスの周期に基づいて判断してもよく、車両の不図示の制御装置から出力される車速に関する情報に基づいて判断してもよい。演算処理部32による駐車枠の認識結果は、出力部4へ出力され、例えばレーン逸脱警報等に用いられる。
第3実施の形態における第1の白線抽出部311の処理は第2実施の形態で説明したフローと同一であるため詳細な説明は割愛する。図21(a)に示すように、前方カメラ画像21aに写る白線41La、41Lbに対し、処理エリア42を設定する。処理エリアは、過去のレーン認識結果の近傍に設けたり、画面全体を処理するように設定される。本実施形態においては、前方カメラ画像21aを左右に分割し、それぞれの領域から左側レーン、右側レーンを検出している。第1白線検出部311による白線の検出(認識)結果は、第1駐車枠検出部322へ出力される。
図22は、演算処理部32の第1レーン検出部322で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部32が処理を実施する度に、繰り返し実行される。ステップS301において、第1白線検出部311から出力された情報に基づいて、任意の2本の白線に関する情報を選択してステップS303へ進む。
ステップS303において、ステップS301で選択した2本の白線同士の延在方向の角度差が所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS303では、2本の白線が略平行であるか否かを判断する。ステップS303が肯定判断されるとステップS305へ進み、2本の白線の間隔が所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS305では、レーンを構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。
ステップS305が肯定判断されるとステップS307へ進み、2本の白線で構成される4隅の座標をレーンついての位置の情報として登録する。ステップS305を実行するとステップS307へ進み、第1白線検出部311から出力された情報に基づくすべての白線に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS307が肯定判断されると、上述した処理によって得られた結果を第2白線検出部313に出力して、リターンする。ステップS309が否定判断されるとステップS301へ戻る。
ステップS303が否定判断されるか、ステップS305が否定判断されるとステップS309へ進む。
第3実施の形態における第2の白線検出部313の処理は、第2実施の形態で説明したフローと同一であるため詳細な説明は割愛する。図23(a)に示すように、前方カメラ画像21aから検出したレーンを成す白線の情報に基づき、仮想線43を引き、仮想線を中心として処理エリア44を設定する。第2の白線検出部の白線検出結果は、第2レーン検出部324へ出力される。
図24は、演算処理部32の第2レーン検出部324で行われる処理のフローチャートである。このフローチャートに示す処理は、演算処理部32が処理を実施する度に、繰り返し実行される。ステップS321において、上述した第2白線検出部313で白線を検出できたか否かを判断する。ステップS321は肯定判断されるとステップS323へ進む。
ステップS323において、第2白線検出部313で検出した白線と、第1白線検出部311で検出された白線のうち、第2白線検出部313で検出した白線の近くに存在する白線とによって構成されるレーンを、第1レーン検出部322で登録したレーンを棄却して新規登録する。そして、登録した情報を出力部4へ出力してリターンする。
ステップS321は否定判断されるとリターンする。
以上説明したように、本発明は駐車枠の検出に限定されるものではなく、旋回時に前方カメラの視野に一部しか入らない物体を検出する際に、前方カメラの検出結果に基づいて、側方カメラで物体の一部を検出し、前方カメラと側方カメラの検出結果を用いて物体を検出するものである。
−−−変形例−−−
(1) 上述の説明では、たとえば車速が所定の速度(たとえば50km/h)以下となった場合に、演算処理部3の各部で上述した処理が行われるように構成したが、本発明はこれに限定されない。上述した所定の速度としての50km/hは一例であり、演算処理部3の各部で上述した処理を行う閾値としての車速が、50km/hよりも速い速度や遅い速度であってもよい。また、たとえば、車両1に搭載されたナビゲーション装置から、車両1の現在位置が駐車場内であるか否かを表す情報に基づいて、演算処理部3の各部で上述した処理が行われるように構成してもよい。
(2) 上述の説明では、前進駐車を行う場合の駐車枠の検出について説明したが、本発明はこれに限定されない。たとえば後退駐車を行う場合の駐車枠の検出についても、上述した処理と同様の処理を行うことで、後方俯瞰画像22dと側方俯瞰画像22b,22cとにまたがって存在する駐車枠23を検出するように構成してもよい。
(3) 上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
なお、本発明は、上述した実施の形態のものに何ら限定されず、車両の前方および側方に設けられたカメラで撮影して得られた画像を取得する画像取得部と、車両の前方に設けられたカメラで撮影して得られた画像から物体の特徴を検出する第1の物体特徴検出部と、第1の物体特徴検出部の検出結果に基づいて、物体を検出する第1の物体検出部と、第1の物体検出部の検出結果を参照して、車両の側方に設けられたカメラで撮影して得られた画像から物体の特徴を検出する第2の物体特徴検出部と、第1の物体特徴検出部の検出結果および第2の物体特徴検出部の検出結果に基づいて、物体を検出する第2の物体検出部とを備えることを特徴とする各種構造の車載画像処理装置を含むものである。
また、本発明は、上述した実施の形態のものに何ら限定されず、車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した画像を合成して、俯瞰画像を生成する画像合成部と、画像合成部で生成した俯瞰画像のうち、車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像から白線を検出する第1の白線検出部と、第1の白線検出部の検出結果に基づいて、駐車枠を検出する第1の駐車枠検出部と、第1の駐車枠検出部の検出結果を参照して、画像合成部で生成した俯瞰画像のうち、車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した側方俯瞰画像から白線を検出する第2の白線検出部と、第1の白線検出部の検出結果および第2の白線検出部の検出結果に基づいて、駐車枠を検出する第2の駐車枠検出部とを備えることを特徴とする各種構造の車載画像処理装置を含むものである。
2 画像合成部、3 演算処理部、4 出力部、22 俯瞰画像、22a 前方俯瞰画像、22b,22c 側方俯瞰画像、100 車載画像処理装置、301 第1白線検出部、302 第1駐車枠検出部、303 第2白線検出部、304 第2駐車枠検出部

Claims (6)

  1. 車両の前方、後方、および側方に設けられたカメラで撮影して得られた画像を取得し、取得した前記画像を合成して、俯瞰画像を生成する画像合成部と、
    前記画像合成部で生成した俯瞰画像のうち、前記車両の前方に設けられたカメラで撮影して得られた画像に基づいて生成した前方俯瞰画像から白線を検出する第1の白線検出部と、
    前記第1の白線検出部の検出結果に基づいて、駐車枠を検出する第1の駐車枠検出部と、
    前記第1の駐車枠検出部の検出結果を参照して、前記画像合成部で生成した俯瞰画像のうち、前記車両の側方に設けられたカメラで撮影して得られた画像に基づいて生成した側方俯瞰画像から白線を検出する第2の白線検出部と、
    前記第1の白線検出部の検出結果および前記第2の白線検出部の検出結果に基づいて、駐車枠を検出する第2の駐車枠検出部とを備えることを特徴とする車載画像処理装置。
  2. 請求項1に記載の車載画像処理装置において、
    前記第2の白線検出部は、前記第1の駐車枠検出部で検出された駐車枠に係る白線の延在方向の角度および駐車枠の幅に基づいて白線を検出することを特徴とする車載画像処理装置。
  3. 請求項2に記載の車載画像処理装置において、
    前記第2の白線検出部は、前記第1の駐車枠検出部で検出した駐車枠を構成する白線に関する情報に基づいて、前記側方俯瞰画像における駐車枠を構成する白線の位置を予測することを特徴とする車載画像処理装置。
  4. 請求項3に記載の車載画像処理装置において、
    前記第2の白線検出部は、予測した前記側方俯瞰画像における駐車枠を構成する白線の位置と、前記側方俯瞰画像の走査線との交点を算出し、前記側方俯瞰画像に存在する白線を横切るように走査することで得られる輝度の立ち上がりおよび立ち下がりを検出し、検出した輝度の立ち上がりおよび立ち下がりの存在する位置と前記算出した交点とが一致するか否かを判定することで予想した白線を検出することを特徴とする車載画像処理装置。
  5. 請求項1〜4のいずれか一項に記載の車載画像処理装置において、
    前記第2の白線検出部による前記側方俯瞰画像の走査密度は、前記第1の白線検出部による前記前方俯瞰画像の走査密度よりも粗いことを特徴とする車載画像処理装置。
  6. 請求項5に記載の車載画像処理装置において、
    前記第1の白線検出部は、前記前方俯瞰画像を順次走査することで白線を検出し、
    前記第2の白線検出部は、前記側方俯瞰画像を飛び越し走査することで白線を検出することを特徴とする車載画像処理装置。
JP2012259068A 2012-11-27 2012-11-27 車載画像処理装置 Active JP6148848B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012259068A JP6148848B2 (ja) 2012-11-27 2012-11-27 車載画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012259068A JP6148848B2 (ja) 2012-11-27 2012-11-27 車載画像処理装置

Publications (2)

Publication Number Publication Date
JP2014106738A JP2014106738A (ja) 2014-06-09
JP6148848B2 true JP6148848B2 (ja) 2017-06-14

Family

ID=51028168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012259068A Active JP6148848B2 (ja) 2012-11-27 2012-11-27 車載画像処理装置

Country Status (1)

Country Link
JP (1) JP6148848B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467310B2 (ja) * 2015-07-23 2019-02-13 Kyb株式会社 駐車誘導装置
JP6828501B2 (ja) * 2017-02-21 2021-02-10 アイシン精機株式会社 駐車支援装置
JP7296768B2 (ja) * 2019-04-22 2023-06-23 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置及び画像処理方法
JP7448403B2 (ja) 2020-03-31 2024-03-12 本田技研工業株式会社 駐車枠認識システム、及び、駐車枠認識システムを備えた駐車支援システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167636A (ja) * 1997-12-03 1999-06-22 Toyota Motor Corp 車両用ライン検出装置
JP2002092796A (ja) * 2000-09-18 2002-03-29 Toyota Motor Corp 車線認識装置
JP2007183877A (ja) * 2006-01-10 2007-07-19 Nissan Motor Co Ltd 車両用運転支援装置及び俯瞰映像の表示方法
JP5136256B2 (ja) * 2008-07-18 2013-02-06 日産自動車株式会社 駐車支援装置および画像表示方法
JP2012040883A (ja) * 2008-12-19 2012-03-01 Panasonic Corp 車両周囲画像生成装置
JP5491235B2 (ja) * 2010-03-02 2014-05-14 東芝アルパイン・オートモティブテクノロジー株式会社 カメラキャリブレーション装置
KR20120072020A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 자율주행 시스템의 주행정보 인식 방법 및 장치
JP2012136206A (ja) * 2010-12-28 2012-07-19 Fujitsu Ten Ltd 駐車制御システム、及び、駐車制御方法

Also Published As

Publication number Publication date
JP2014106738A (ja) 2014-06-09

Similar Documents

Publication Publication Date Title
JP6801787B2 (ja) 駐車支援方法及び駐車支援装置
RU2700635C1 (ru) Способ и устройство обнаружения мест для парковки
JP5003946B2 (ja) 駐車支援装置
KR102073496B1 (ko) 주차 스페이스의 프레임선의 검출 방법 및 장치
JP4910425B2 (ja) 駐車支援装置及び駐車支援方法
JP4952421B2 (ja) 運転支援システム
JP5921715B2 (ja) 車載画像処理装置
JP2013541915A (ja) 死角地帯の表示装置および方法
JP2007183877A (ja) 車両用運転支援装置及び俯瞰映像の表示方法
JP6642906B2 (ja) 駐車位置検出システム及びそれを用いた自動駐車システム
CN110831818B (zh) 泊车辅助方法以及泊车辅助装置
JP2009227245A (ja) 車載機器の操作装置
JP6152261B2 (ja) 車載用駐車枠認識装置
JP2010028432A (ja) 駐車支援装置および画像表示方法
JP2010028803A (ja) 駐車補助のための画像表示方法
JP6148848B2 (ja) 車載画像処理装置
JP2014107696A (ja) 車載画像処理装置
JP2014106739A (ja) 車載画像処理装置
JP2008004989A (ja) 車両周囲表示装置
JP2008213647A (ja) 駐車支援方法及び駐車支援装置
JP6349890B2 (ja) 運転支援装置
JP5943207B2 (ja) 車両の駐車操作支援用映像表示装置
JP4591292B2 (ja) 車両用運転支援装置
JP2021111854A (ja) 車両用電子ミラーシステム
JP2014104840A (ja) 車載画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170522

R150 Certificate of patent or registration of utility model

Ref document number: 6148848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250