JP7066378B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP7066378B2
JP7066378B2 JP2017220096A JP2017220096A JP7066378B2 JP 7066378 B2 JP7066378 B2 JP 7066378B2 JP 2017220096 A JP2017220096 A JP 2017220096A JP 2017220096 A JP2017220096 A JP 2017220096A JP 7066378 B2 JP7066378 B2 JP 7066378B2
Authority
JP
Japan
Prior art keywords
vehicle
image
camera
feature points
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017220096A
Other languages
English (en)
Other versions
JP2019090707A (ja
Inventor
智仁 井上
聡 辻岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017220096A priority Critical patent/JP7066378B2/ja
Publication of JP2019090707A publication Critical patent/JP2019090707A/ja
Application granted granted Critical
Publication of JP7066378B2 publication Critical patent/JP7066378B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関する。
従来、車載カメラを用いて、例えば車両の駐車支援等の運転支援が行われている。車載カメラは、車両を工場から出荷する前に、車両に固定状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付状態から位置ずれを起こすことがある。車載カメラの位置がずれると、例えば運転支援等において車載カメラで撮像された画像を利用して判断されるハンドルの操舵量等に誤差が生じる虞がある。このため、車載カメラの位置ずれを検出することは重要である。
特許文献1には、車載カメラのずれを修正する校正に係る技術が開示される。特許文献1に記載の車載カメラの校正装置は、車両の後部に設置された単一の車載カメラによって、床面上に配置された校正指標を撮像した画像に基づき、車載カメラを校正する。特許文献2には、複数の撮像装置の光軸のずれを検出する技術が開示される。特許文献2に記載の光軸検出装置は、同じ位置に配置され、ともに車両の前方を撮像する2個の撮像装置によって、車両の前方に配置されたターゲットを認識した位置に基づき、光軸のずれを検出する。
特開2010-85186号公報 特開2010-112884号公報
上記従来技術では、車載カメラの位置ずれの検出に、校正指標やターゲット等のマーカーが用いられる。これらのマーカーは、形状や大きさ、色等の構成が予め所定どおりに規定され、予め計測された所定の位置に設置する必要があった。このようなマーカーの準備や設置に課題があり、さらに車両とマーカーとを所定の位置に配置して車載カメラの位置ずれの検出を行うための検出スペースの確保にも課題があった。
本発明は、上記の課題に鑑みなされたものであり、車載カメラの位置ずれを容易に且つ適切に判定することを可能とする技術を提供することを目的とする。
本発明に係る画像処理装置は、車載カメラで撮像された画像を処理する画像処理装置であって、位置ずれが生じていない状態にある複数の前記車載カメラで撮像された前記画像中の複数の特徴点それぞれの、予め記憶された基準位置と、前記車載カメラの位置ずれの判定時に撮像された前記画像中の複数の前記特徴点それぞれの判定位置と、を比較処理して前記車載カメラの位置ずれを判定するずれ判定部を備える構成(第1の構成)である。
また、上記第1の構成の画像処理装置において、前記特徴点の前記判定位置は、前記車載カメラの位置ずれの判定時に、前記車両を、前記特徴点の前記基準位置を記憶したときと同じ駐車領域に駐車して撮像された画像中の複数の前記特徴点それぞれについて導出される構成(第2の構成)であっても良い。
また、上記第1または第2の構成の画像処理装置において、隣り合う領域の像を含む2つの前記画像それぞれは、同じ位置の共通の前記特徴点を含む構成(第3の構成)であっても良い。
また、上記第1から第3の構成の画像処理装置において、前記特徴点の前記基準位置及び前記判定位置は、前記車載カメラから延び、前記車載カメラからの方向性を示す3次元視線ベクトルに基づいて表される構成(第4の構成)であっても良い。
また、上記第1から第4の構成の画像処理装置において、前記車載カメラの位置ずれの判定時に、複数の前記特徴点それぞれの前記判定位置を、それぞれの相対位置を保持した状態で3次元空間上で移動し、前記基準位置に接近させる移動処理部を備える構成(第5の構成)であっても良い。
また、上記第1から第5の構成の画像処理装置において、前記画像中の複数の前記特徴点には、前記画像中において最も離れた2つの前記特徴点が含まれる構成(第6の構成)であっても良い。
また、上記第1から第6の構成の画像処理装置において、前記画像中の複数の前記特徴点には、前記車両から最も近い前記特徴点が含まれる構成(第7の構成)であっても良い。
また、本発明に係る画像処理方法は、車載カメラで撮像された画像を処理する画像処理方法であって、位置ずれが生じていない状態にある複数の前記車載カメラで撮像された前記画像中の複数の特徴点それぞれの基準位置を記憶する工程と、前記車載カメラの位置ずれの判定時に撮像された前記画像中から複数の前記特徴点それぞれの判定位置を導出する工程と、前記特徴点の前記基準位置と、前記特徴点の前記判定位置とを比較して前記車載カメラの位置ずれを判定する工程と、を含む構成(第8の構成)である。
本発明の構成によれば、例えば自宅の駐車場等において特徴点の基準位置を予め記憶しておけば、自宅の駐車場でいつでも、車載カメラの位置ずれを判定することができる。したがって、車載カメラの位置ずれを容易に且つ適切に判定することが可能になる。
実施形態の画像処理装置の構成を示すブロック図 4つの車載カメラが車両に配置される位置を例示する図 特徴点の基準位置の記憶時における車両の駐車状態を例示する図 画像処理装置による車載カメラの位置ずれの判定に係る特徴点の基準位置の記憶フローの一例を示すフローチャート フロントカメラで撮像された画像の一例を示す模式図 右サイドカメラで撮像された画像の一例を示す模式図 特徴点の基準位置を例示する図 車載カメラの位置ずれの判定時における車両の駐車状態を例示する図(具体例1) 画像処理装置による車載カメラの位置ずれの判定フローの一例を示すフローチャート フロントカメラで撮像された画像の一例を示す模式図 右サイドカメラで撮像された画像の一例を示す模式図 特徴点の判定位置を例示する図 車載カメラの位置ずれの判定時における車両の駐車状態を例示する図(具体例2) 特徴点の移動処理前の状態を例示する図 特徴点の判定位置を例示する図 特徴点の基準位置の記憶時における車両の駐車状態を例示する図(具体例3) フロントカメラで撮像された画像の一例を示す模式図 特徴点の基準位置を表す3次元視線ベクトルを例示する図 車載カメラの位置ずれの判定時における3次元視線ベクトルの差異を例示する図 特徴点の基準位置の記憶時における車両の駐車状態を例示する図(変形例1) 特徴点の基準位置を例示する図 特徴点の基準位置の記憶時における車両の駐車状態を例示する図(変形例2)
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下の内容に限定されるものではない。
以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向(前方)」とする。車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向(後方)」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の右側から左側に向かう方向を「左方向」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の左側から右側に向かう方向を「右方向」とする。
<1.画像処理装置の概略>
図1は、実施形態の画像処理装置1の構成を示すブロック図である。画像処理装置1は、例えば撮像部2と、センサ部3と、車両制御装置4と、を含む車載カメラの位置ずれ判定システムに組み込まれる。車載カメラの位置ずれ判定システムは、車載カメラの位置ずれを判定するシステムである。
画像処理装置1は、車載カメラで撮像された画像を処理する装置である。画像処理装置1は、車載カメラを搭載する車両ごとに備えられる。本実施形態では、画像処理装置1は、撮像部2から画像を取得して処理する。また、画像処理装置1は、センサ部3から情報を取得し、取得情報に基づいて画像処理に関する判断を行う。なお、センサ部3は、場合によっては、車載カメラの位置ずれ判定システムに含まれなくても良い。
本実施形態では、画像処理装置1は、撮像部2で撮像された画像を処理して、車載カメラの位置ずれの判定を行う。また、本実施形態では、画像処理装置1は、撮像部2で撮像された画像を処理して、車載カメラの位置ずれを判定するために用いる画像中の特徴点の、基準位置の記憶も行う。なお、この特徴点の「基準位置」に対して、車載カメラの位置ずれの判定時における特徴点の位置を「判定位置」と呼ぶ。
また、本実施形態では、画像処理装置1は、表示装置5及び運転支援装置6に処理情報を出力する。
表示装置5は、画像処理装置1から出力される情報を画面表示する装置であり、例えば液晶表示装置であって良い。表示装置5は、例えばタッチパネル方式等の入力部を備えて、外部から情報を入力できる構成であって良い。
運転支援装置6は、撮像部2で撮像された画像を用いて運転を支援する装置であり、例えば自動運転支援装置、自動駐車支援装置、自動緊急ブレーキ装置等を含んで良い。運転支援装置6は、例えばエンジンの始動とともに自動的に運転支援を開始する構成であって良い。また、運転支援装置6は、例えば運転者によってボタン、スイッチ等が押された場合に運転支援を開始する構成であって良い。
撮像部2は、車両周辺の状況を監視する目的で設けられる。撮像部2は、4つのカメラ21~24を備える。4つのカメラ21~24は、車載カメラである。図2は、4つの車載カメラ21~24が車両7に配置される位置を例示する図である。
車載カメラ21は車両7の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両7の前後方向に沿って延びる。フロントカメラ21は車両7の前方向を撮像する。車載カメラ23は車両7の後端に設けられる。このため、車載カメラ23をバックカメラ23とも呼ぶ。バックカメラ23の光軸23aは上からの平面視で車両7の前後方向に沿って延びる。バックカメラ23は車両7の後方向を撮像する。フロントカメラ21及びバックカメラ23の取付位置は、車両7の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であっても良い。
車載カメラ22は車両7の右側ドアミラー72に設けられる。このため、車載カメラ22を右サイドカメラ22とも呼ぶ。右サイドカメラ22の光軸22aは上からの平面視で車両7の左右方向に沿って延びる。右サイドカメラ22は車両7の右方向を撮像する。車載カメラ24は車両7の左側ドアミラー71に設けられる。このため、車載カメラ24を左サイドカメラ24とも呼ぶ。左サイドカメラ24の光軸24aは上からの平面視で車両7の左右方向に沿って延びる。左サイドカメラ24は車両7の左方向を撮像する。
車載カメラ21~24それぞれの水平方向の画角θは180度以上である。このため、車載カメラ21~24によって、車両7の水平方向における全周囲を撮像することができる。また、車載カメラ21~24によって撮像される画像には、車載カメラ21~24を搭載する車両のボディが映り込む。
なお、本実施形態では、車載カメラの数を4つとしているが、この数は複数であれば適宜変更されて良い。例えば、車両7がバックで駐車することを支援する目的で車載カメラが搭載されている場合には、車載カメラは、バックカメラ23、左サイドカメラ24、右サイドカメラ22の3つで構成されても良い。
図1に戻って、センサ部3は、車載カメラ21~24が搭載される車両7に関する情報を検出する複数のセンサを有する。車両7に関する情報には、車両自体の情報と、車両周辺の情報とが含まれて良い。本実施形態では、センサ部3は、例えば車両の速度を検出する車速度センサ、ステアリングの回転角を検出する舵角センサ、車両の変速装置のシフトレバーの操作位置を検出するシフトセンサ、車両周辺の照度を検出する照度センサ等が含まれる。本実施形態では、センサ部3で検出された情報は、画像処理装置1に直接入力される構成としているが、これは例示にすぎない。例えば、センサ部3で検出された情報は、車両制御装置4または運転支援装置6を介して画像処理装置1に入力されても良い。
車両制御装置4は、車両の動作全般に関わる制御を行う。車両制御装置4は、例えばエンジンを制御するエンジンECU(Electronic Control Unit)、ステアリングを制御するステアリングECU、ブレーキを制御するブレーキECU、シフトを制御するシフトECU、電源制御用ECU、ライトを制御するライトECU、電動ミラーを制御するミラーECU等を含む。本実施形態では、車両制御装置4は、画像処理装置1と情報を送受信する。
<2.画像処理装置の詳細>
図1に戻って、画像処理装置1は、マイコン11、記憶部12及びGPS(Global Positioning System)13を含んで構成される。
マイコン11は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部12は、不揮発性のメモリである。マイコン11は、記憶部12に記憶されたプログラムに基づいて情報の処理及び送受信を行う。マイコン11は、GPS13を用いて、画像処理装置1が搭載された車両7の位置情報を取得することができる。なお、GPSに代わる他の機能を利用して、車両7の位置情報を取得することにしても良い。また、GPSは、例えばナビゲーション装置(図示略)等に搭載されるGPSを用いても良い。マイコン11は、有線または無線で、撮像部2、センサ部3、車両制御装置4、表示装置5、及び運転支援装置6に接続される。
マイコン11は、画像取得部111と、検出部112と、座標変換部113と、移動処理部114と、ずれ判定部115と、を備える。マイコン11が備えるこれらの各構成要素それぞれの機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
画像取得部111は、車載カメラ21~24で撮像された画像を取得する。本実施形態では、車載カメラ21~24の数は4つであり、画像取得部111は、各車載カメラ21~24ごとに撮像された画像を取得する。
検出部112は、車載カメラ21~24で撮像された画像から、特徴点を検出する。本実施形態では、車載カメラ21~24の数は4つであり、検出部112は、各車載カメラ21~24で撮像された画像ごとに特徴点を検出する。特徴点の検出処理は、画像処理装置1の内部で実施しても良いし、表示装置5等に表示して実施しても良い。なお、画像中の「特徴点」は、エッジ検出の結果として安定的に検出可能な画像中の特徴的な点であり、例えば駐車枠の一部や車止めの一部、路面に記載された駐車スペースの番号を示す指標、路面のヒビ、シミ、砂利等が該当する。
座標変換部113は、車載カメラ21~24で撮像された画像から、画像中で検出した車両7の駐車領域の座標値をワールド座標に変換する。車載カメラ21~24で撮像された画像における各画素の座標は、実空間上における車両7に対する座標であるワールド座標に1対1で対応する。これにより、実空間上における車両の位置を基準とした駐車領域及び特徴点の位置を導出することができる。なお、座標変換及び特徴点位置の導出には、記憶部12等に予め記憶された車載カメラの取り付け位置データ、車載カメラの光軸の角度データ、画像のディストーションに係るデータ等が用いられる。
前述のように、画像処理装置1は、車載カメラ21~24の位置ずれを判定するために用いる画像中の特徴点の、基準位置の記憶を行う。特徴点の基準位置は、車両7をある駐車領域に駐車したときに、位置ずれが生じていない状態にある車載カメラ21~24で撮像された画像中の複数の特徴点それぞれついて記憶される。特徴点の基準位置データは、例えば記憶部12に記憶される。特徴点の判定位置は、車載カメラ21~24の位置ずれの判定時に、車両7を、特徴点の基準位置を記憶したときと同じ駐車領域に駐車して撮像された画像中の複数の特徴点それぞれについて導出される。これにより、車載カメラ21~24の位置ずれの判定を行う場所として、例えば自宅の駐車場などの任意の場所を選ぶことができる。そして、車両7は任意の駐車姿勢であって良い。
移動処理部114は、車載カメラ21~24の位置ずれの判定時に用いられる。移動処理部114は、検出部112で検出された複数の特徴点それぞれの判定位置を、それぞれの相対位置を保持した状態で3次元空間上で移動させる。そして、移動処理部114は、特徴点それぞれの判定位置を、基準位置に接近させる。このとき、移動処理部114は、複数の特徴点それぞれの判定位置が、最も多くの基準位置に合致する状態まで、基準位置に接近させる。
ずれ判定部115は、複数の特徴点それぞれの判定位置と、基準位置とを比較処理して車載カメラ21~24の位置ずれを判定する。特徴点の基準位置データは、例えば記憶部12に記憶されている。ずれ判定部115は、座標変換部113が導出し、移動処理部114が移動させた特徴点の判定位置が、3次元空間上で、特徴点の基準位置に一致するか否かを判定する。この位置の判定には、所定の閾値が用いられ、閾値の範囲を超えていない場合は車載カメラの位置ずれが生じていないと判定され、閾値の範囲を超えている場合は車載カメラの位置ずれが生じていると判定される。本実施形態では、車載カメラ21~24の数は4つであり、ずれ判定部115は、車載カメラ21~24それぞれで撮像された画像中の複数の特徴点それぞれに対して判定を行う。
上記の画像処理装置1の構成によれば、例えば自宅の駐車場等において特徴点の基準位置を予め記憶しておけば、自宅の駐車場でいつでも、車載カメラ21~24の位置ずれを判定することができる。したがって、車載カメラ21~24の位置ずれを容易に且つ適切に判定することが可能になる。また、特徴点を検出するための対象物(例えば駐車枠、車止め等)が変更になった場合、容易に特徴点の基準位置を記憶し直すことができる。
なお、車載カメラの数は、3つ以上であることが好ましいが、少なくとも2つあれば良い。車載カメラの数が2つの場合、どちらの車載カメラに位置ずれが生じているかを特定できないが、少なくともどちらかの車載カメラに位置ずれが生じていることは判定することが可能である。車載カメラの数が3つ以上の場合、どの車載カメラに位置ずれが生じているかを特定することができる。
<3.特徴点の基準位置の記憶>
車載カメラ21~24の位置ずれの判定に先立って、画像処理装置1は、車載カメラ21~24の位置ずれを判定するために用いる画像中の特徴点の、基準位置の記憶を行う。
ここで、車載カメラ21~24は、例えば自動車メーカー等の工場において、位置ずれが生じていない状態で車両7に取り付けられる。車載カメラ21~24それぞれは、所定の向きに光軸21a~24aが合された状態で、所定の取付位置に固定される。車載カメラの初期位置に関して、車載カメラの取り付け位置データ、車載カメラの光軸の角度データ等が、記憶部12等に予め記憶される。
図3は、特徴点の基準位置の記憶時における車両7の駐車状態を例示する図である。車両7は、例えばユーザの自宅の駐車場や自動車ディーラーの駐車スペースなどの任意の駐車領域に駐車される。車両7の駐車領域には、平面視長方形状の白線の駐車枠Lが描画される。駐車枠Lは、長手方向が車両7の前後方向に一致し、前後左右において車両7よりも大きい。車両7は、例えば前後左右ともに駐車枠Lの内側に収まり、その前後方向が駐車枠Lの長手方向に平行な状態で駐車される。
そして、画像処理装置1は、例えばユーザによって表示装置5等が操作され、記憶開始の指示信号を受信することで、車載カメラ21~24の位置ずれを判定するために用いる画像中の特徴点の、基準位置の記憶を開始する。この特徴点の基準位置の記憶に係る処理を図4を用いて説明する。
図4は、画像処理装置1による車載カメラ21~24の位置ずれの判定に係る特徴点の基準位置の記憶フローの一例を示すフローチャートである。
画像処理装置1は、特徴点の基準位置の記憶に関して、記憶地点データを取得する(ステップS101)。画像処理装置1は、例えばGPS13を用いて、ユーザの自宅の駐車場や自動車ディーラーの駐車領域に駐車された車両7の、特徴点の基準位置の記憶地点データを取得する。画像処理装置1は、車載カメラの位置ずれの判定時に、GPSの位置情報(緯度・経度情報)を用いて同じ駐車領域であることを判断し、特徴点を用いて、車載カメラの位置ずれを判定する。
次に、画像処理装置1は、車載カメラ21~24それぞれから画像を取得する(ステップS102)。
図5は、フロントカメラ21で撮像された画像P21の一例を示す模式図である。図6は、右サイドカメラ22で撮像された画像P22の一例を示す模式図である。なお、バックカメラ23及び左サイドカメラ24でも同様に、特徴点の基準位置の記憶に関して画像が撮像されるが、ここでは説明を省略する。フロントカメラ21で撮像された画像P21と、右サイドカメラ22で撮像された画像P22とを例として掲げて説明する。
図5に示すように、画像P21には、車両7の前方に存在する、駐車枠L(白線)の一部の像が含まれる。画像P21には、駐車枠L(白線)の左右2つのコーナー部が含まれる。図6に示すように、画像P22には、車両7の右方に存在する、駐車枠L(白線)の一部の像が含まれる。画像P22には、駐車枠L(白線)の前後2つのコーナー部が含まれる。
図4に戻って、次に、画像処理装置1は、画像中の特徴点を検出する(ステップS103)。特徴点は、画像P21及び画像P22を含む、車載カメラ21~24で撮像された画像それぞれから検出される。例えば、駐車枠Lが長方形状の場合は、例えば4つのコーナー部それぞれから特徴点が検出される。また、駐車枠が車両7の左右の2本のラインの場合は、右側のラインの前端及び後端と、左側のラインの前端及び後端と、のそれぞれから特徴点が検出される。このように駐車枠の複数の特徴点が検出される。
図5に示すフロントカメラ21の画像P21では、駐車枠Lの前側の左右2つのコーナー部それぞれから特徴点Sp1a、Sp1bが検出される。図6に示す右サイドカメラ22の画像P22では、駐車枠Lの右側の前後2つのコーナー部それぞれから特徴点Sp2a、Sp2bが検出される。同様に、不図示のバックカメラ23の画像では、駐車枠Lの後側の左右2つのコーナー部それぞれから特徴点Sp3a、Sp3b(図7参照)が検出される。不図示の左サイドカメラ24の画像では、、駐車枠Lの左側の前後2つのコーナー部それぞれから特徴点Sp4a、Sp4b(図7参照)が検出される。
ここで、画像P21の右側のコーナー部と、画像P22の左側(駐車枠Lの前側)のコーナー部とは、長方形状の駐車枠Lの同じコーナー部であるので、特徴点Sp1bと、特徴点Sp2aとは同じ位置である。すなわち、車両7の周囲の隣り合う領域の像を含む2つの画像それぞれには、同じ位置の共通の特徴点が含まれる。
このように特徴点の基準位置を記憶する際に、複数の車載カメラで共通の特徴点を撮像してそれらの位置を記憶すると、ある一つの特徴点の位置が複数の車載カメラによって記憶されるため、複数の車載カメラで別々の特徴点を撮像してそれらの位置を記憶する場合と比較して、車載カメラの位置ずれをより高い精度で判定することが可能になる。
図4に戻って、次に、画像処理装置1は、実空間上における特徴点の位置を導出する(ステップS104)。
図7は、特徴点の基準位置を例示する図である。図7は、車載カメラ21~24で撮像された画像それぞれから検出された特徴点を、座標変換部113を用いてワールド座標に変換し、車両7の駐車領域を示す画像上に描画した図である。
図7に示すように、画像処理装置1は、長方形状の白線の駐車枠Lの、4つのコーナー部それぞれの特徴点の実空間上における位置を導出する。この位置が、4つの特徴点それぞれの基準位置である。
なお、前述のように、車載カメラ21の画像P21の特徴点Sp1bと、車載カメラ22の画像P22の特徴点Sp2aとは同じ位置である。同様に、車載カメラ22の画像P22の特徴点Sp2bと、車載カメラ23の画像(図示略)の特徴点Sp3aとは同じ位置である。同様に、車載カメラ23の画像(図示略)の特徴点Sp3bと、車載カメラ24の画像(図示略)の特徴点Sp4aとは同じ位置である。同様に、車載カメラ24の画像(図示略)の特徴点Sp4bと、車載カメラ21の画像P21の特徴点Sp1aとは同じ位置である。
図4に戻って、次に、画像処理装置1は、4つの特徴点それぞれの基準位置を記憶し、記憶地点を登録する(ステップS105)。特徴点の基準位置と、その記憶地点とは、例えば記憶部12に記憶、登録される。そして、特徴点の基準位置と、その記憶地点とは、以下の具体例で説明する車載カメラ21~24の位置ずれの判定時に用いられる。
<4-1.車載カメラの位置ずれの判定の具体例1>
図8は、車載カメラ21~24の位置ずれの判定時における車両7の駐車状態を例示する図(具体例1)である。車両7は、特徴点の基準位置を記憶したときと同じ駐車領域に、基準位置を記憶したときと略同じ駐車姿勢で駐車されるものとして説明する。なお、基準位置を記憶したときと略同じ駐車姿勢か否かの判定は、例えばGPSにより検出される駐車領域内の車両7の位置や、車両7を運転するユーザの目視等により行われる。
車両7の駐車領域には、図3と同様に、平面視長方形状の白線の駐車枠Lが描画される。車両7は、前後左右ともに駐車枠Lの内側に収まり、その前後方向が駐車枠Lの長手方向に平行な状態で駐車される。なお、図8では、車載カメラ22に位置ずれが生じていることを模式的に表現した。
そして、画像処理装置1は、例えばユーザによって表示装置5等が操作され、判定開始の指示信号を受信することで、車載カメラ21~24の位置ずれの判定を開始する。また、シフトレバーの操作位置に基づき、車両7の出庫時、または入庫時に自動的に、画像処理装置1が、車載カメラ21~24の位置ずれの判定の開始することにしても良い。この車載カメラ21~24の位置ずれの判定に係る処理を図9を用いて説明する。
図9は、画像処理装置1による車載カメラ21~24の位置ずれの判定フローの一例を示すフローチャートである。
画像処理装置1は、車両7の駐車地点が、特徴点の基準位置の記憶地点と同じであるか否かを判定する(ステップS201)。画像処理装置1は、例えばGPS13を用いて、車載カメラの位置ずれの判定時に駐車された車両7の地点データを取得する。そして、画像処理装置1は、例えば記憶部12に記憶された特徴点の基準位置の記憶地点と、車載カメラの位置ずれの判定時の車両7の駐車地点とを比較し、互いが一致するか否かを判定する。なお、例えばユーザが表示装置5等から入力指示を行うことで、車両7の駐車地点が、特徴点の基準位置の記憶地点と同じであることを認識させても良い。
次に、画像処理装置1は、車載カメラ21~24それぞれから画像を取得する(ステップS202)。
図10は、フロントカメラ21で撮像された画像P21の一例を示す模式図である。図11は、右サイドカメラ22で撮像された画像P22の一例を示す模式図である。なお、バックカメラ23及び左サイドカメラ24でも同様に、車載カメラの位置ずれの判定に関して画像が撮像されるが、ここでは説明を省略する。フロントカメラ21で撮像された画像P21と、右サイドカメラ22で撮像された画像P22とを例として掲げて説明する。
図10に示すように、画像P21には、車両7の前方に存在する、駐車枠L(白線)の一部の像が含まれる。画像P21には、駐車枠L(白線)の左右2つのコーナー部が含まれる。図11に示すように、画像P22には、車両7の右方に存在する、駐車枠L(白線)の一部の像が含まれる。画像P22には、駐車枠L(白線)の前後2つのコーナー部が含まれる。なお、図11に示す画像P22は、特徴点の基準位置の記録時に撮像された右サイドカメラ22の画像22(図6参照)とは像が異なる。
図9に戻って、次に、画像処理装置1は、画像中の特徴点を検出する(ステップS203)。特徴点は、画像P21及び画像P22を含む、車載カメラ21~24で撮像された画像それぞれから検出される。例えば、駐車枠Lが長方形状の場合は、例えば4つのコーナー部それぞれから特徴点が検出される。図10に示す画像P21から、特徴点Dp1a、Dp1bが検出される。図11に示す画像P22から、特徴点Dp2a、Dp2bが検出される。
図9に戻って、次に、画像処理装置1は、実空間上における特徴点の位置を導出する(ステップS204)。
図12は、特徴点の判定位置を例示する図である。図12は、車載カメラ21~24で撮像された画像それぞれから検出された特徴点を、座標変換部113を用いてワールド座標に変換し、車両7の駐車領域を示す画像上に描画した図である。
図12に示すように、画像処理装置1は、長方形状の白線の駐車枠Lの、4つのコーナー部それぞれの特徴点の実空間上における位置を導出する。この位置が、4つの特徴点それぞれの判定位置である。なお、図12は、基準位置にある4つの特徴点Sp4b、Sp1a、特徴点Sp1b、Sp2a、特徴点Sp2b、Sp3a、特徴点Sp3b、Sp4aと、判定位置にある4つの特徴点Dp4b、Dp1a、特徴点Dp1b、Dp2a、特徴点Dp2b、Dp3a、特徴点Dp3b、Dp4aとを重ねた図である。
ここで、特徴点の基準位置の記憶時における車両7の駐車姿勢に対して、車載カメラの位置ずれの判定時における車両7の駐車姿勢が異なる場合、多くの特徴点の基準位置と、判定位置とに差異が生じることがある。この場合、移動処理部114を用いた特徴点の移動(ステップS205)が必要であるが、特徴点の移動については、次の具体例2で説明する。
図9に戻って、次に、画像処理装置1は、ずれ判定部115を用いて、4つの特徴点それぞれの判定位置と、基準位置とを比較処理する(ステップS206)。そして、画像処理装置1は、車載カメラ21~24に位置ずれが生じているか否かを判定する(ステップS207)。ずれ判定部115は、特徴点の判定位置が、3次元空間上で、特徴点の基準位置に一致するか否かを判定する。この位置の判定には、所定の閾値(例えば半径3cm)が用いられる。すなわち、ずれ判定部115は、特徴点の判定位置が、基準位置に対して閾値の範囲内に入っているか否かを判定する。
図12によれば、判定位置にある特徴点Dp2a、Dp2bは、基準位置にある特徴点Sp2a、Sp2bに対して差異が生じている。特徴点Dp2a、Dp2bは、右サイドカメラ22が撮像された画像P22(図11参照)に含まれる。これにより、画像処理装置1は、右サイドカメラ22に位置ずれが生じていることを判定する。
車載カメラ21~24に位置ずれが生じていることが判定された場合(ステップS207のYes)、画像処理装置1は、車載カメラ21~24に位置ずれが生じていることを報知する(ステップS208)。画像処理装置1は、例えば車載カメラ21~24に位置ずれが生じていることを表示装置5によって報知する。車載カメラの位置ずれの報知には、音声等が使用されても良い。また、画像処理装置1は、例えば運転支援装置6に車載カメラの位置ずれを通知して、運転支援装置6による運転支援を停止させることにしても良い。
車載カメラ21~24に位置ずれが生じていないことが判定された場合(ステップS207のNo)、車載カメラ21~24の位置ずれの判定フローが終了される。なお、画像処理装置1は、例えば車載カメラ21~24に位置ずれが生じていないこと(正常であること)を表示装置5によって通知しても良い。また、画像処理装置1は、例えば運転支援装置6に車載カメラが正常であることを通知しても良い。
なお、車載カメラ21~24で撮像された画像中の複数の特徴点には、画像中において最も離れた2つの特徴点が含まれることが好ましい。また、車載カメラ21~24で撮像された画像中の複数の特徴点には、車両7から最も近い特徴点が含まれることが好ましい。2つの特徴点が離れている場合、また特徴点が車両7から近い場合、車載カメラの位置ずれが比較的小さい場合であっても、特徴点の基準位置と、判定位置との間で、大きな差異となって表れることがある。したがって、車載カメラ21~24の位置ずれを容易に判定することができる。
<4-2.車載カメラの位置ずれの判定の具体例2>
図13は、車載カメラ21~24の位置ずれの判定時における車両7の駐車状態を例示する図(具体例2)である。車両7の駐車領域には、図3と同様に、平面視長方形状の白線の駐車枠Lが描画される。車両7は、例えばその前後方向が駐車枠Lの長手方向に傾斜し、左右の駐車枠Lに重なった状態で駐車される。すなわち、車両7は、特徴点の基準位置を記憶したときと同じ駐車領域に、基準位置を記憶したときとは異なる駐車姿勢で駐車されるものとして説明する。
図14は、特徴点の移動処理前の状態を例示する図である。図14は、車載カメラ21~24で撮像された画像それぞれから検出された特徴点を、座標変換部113を用いてワールド座標に変換し、車両7の駐車領域を示す画像上に描画した図である。図14は、長方形状の白線の駐車枠Lの、4つのコーナー部それぞれの特徴点に関して、基準位置にある4つの特徴点と、判定位置にある4つの特徴点とを重ねた図である。
特徴点の基準位置の記憶時における車両7の駐車姿勢に対して、車載カメラの位置ずれの判定時における車両7の駐車姿勢が異なることで(図13参照)、図14に示すように、4つすべての特徴点の基準位置と、判定位置とに差異が生じる。この場合、画像処理装置1は、移動処理部114を用いて、特徴点の移動を行う。
移動処理部114は、例えば図14に示す状態において、4つの特徴点それぞれの判定位置を、それぞれの相対位置を保持した状態で基準位置に接近する方向に、すなわち反時計回りに回転させる。さらに、移動処理部114は、4つの特徴点それぞれの判定位置を、それぞれの相対位置を保持した状態で基準位置に接近する方向に、床面に沿って平行移動させる。このようにして、移動処理部114は、4つの特徴点それぞれの判定位置を、基準位置に接近させる。このとき、移動処理部114は、4つの特徴点それぞれの判定位置が、最も多くの基準位置に合致する状態まで、基準位置に接近させる。
画像処理装置1は、移動処理部114を用いた特徴点の移動処理の結果、図15に示す状態の特徴点の判定位置を得る。図15は、特徴点の判定位置を例示する図である。図15によれば、特徴点の移動処理の後においても、判定位置にある特徴点Dp2a、Dp2bは、基準位置にある特徴点Sp2a、Sp2bに対して差異が生じている。これにより、画像処理装置1は、右サイドカメラ22に位置ずれが生じていることを判定する。
上記構成の移動処理部114を備えることで、画像処理装置1は、特徴点の基準位置の記憶時における車両7の駐車姿勢に対して、車載カメラの位置ずれの判定時における車両7の駐車姿勢が異なる場合であっても、4つの特徴点それぞれの判定位置を、基準位置に接近させることができる。これにより、車載カメラの位置ずれの判定時における車両7の駐車姿勢を、厳密に特徴点の基準位置の記憶時における車両7の駐車姿勢に近づける必要がない。したがって、車載カメラ21~24の位置ずれを容易に且つ適切に判定することが可能である。
<4-3.車載カメラの位置ずれの判定の具体例3>
図16は、特徴点の基準位置の記憶時における車両7の駐車状態を例示する図(具体例3)である。車両7の駐車領域には、3つの、立体の構造物St1、St2、St3が配置される。構造物St1は車両7の前方右側に配置され、構造物St2は車両7の後方右側に配置され、構造物St3は車両7の左方後寄りに配置される。3つの構造物St1、St2、St3はそれぞれ、例えば直方体形状の車止めや縁石、ブロック塀等で構成され、車両7の外側に、車両7から少し離れて配置される。
図17は、フロントカメラ21で撮像された画像P21の一例を示す模式図である。なお、右サイドカメラ22、バックカメラ23及び左サイドカメラ24でも同様に、特徴点の基準位置の記憶に関して画像が撮像されるが、ここでは説明を省略する。図17に示すように、画像P21には、車両7の前方に存在する立体の構造物St1の像が含まれる。直方体形状の構造物St1に関しては、例えば車両7に近い平面の4つのコーナー部それぞれから特徴点Sp1a、Sp1b、Sp1c、Sp1dが検出される。
なお、特徴点は、1つの画像中に2点以上含まれることが望ましい。これにより、車載カメラが光軸回りに回転する、または光軸に平行な軸回りに回転する位置ずれを判定することができる。
図18は、特徴点の基準位置を表す3次元視線ベクトルを例示する図である。なお、図18は、車両7の前部及びその前方を、側方から見た図である。立体の構造物St1から検出された特徴点Sp1a、Sp1b、Sp1c、Sp1dの場合、図18に示すように、特徴点の基準位置は、車載カメラ21から延び、車載カメラ21からの方向性を示す3次元視線ベクトルVsa、Vsb、Vsc、Vsdに基づいて表される。3次元視線ベクトルVsa、Vsb、Vsc、Vsdはそれぞれ、特徴点の基準位置の記憶時における大きさが1の、単位ベクトルである。画像処理装置1は、3次元視線ベクトルを使用することで、車載カメラ21からどの方向に特徴点が存在するのかを認識し、記憶することができる。
図19は、車載カメラ21の位置ずれの判定時における3次元視線ベクトルの差異を例示する図である。なお、図19は、車両7の前方を、上方から見た図である。車載カメラ21の位置ずれの判定時においては、図19に示すように、立体の構造物St1から、例えば特徴点Dp1a、Dp1b、Dp1c、Dp1dが検出される。例えば、特徴点Dp1a、Dp1bの判定位置は、車載カメラ21から延び、車載カメラ21からの方向性を示す3次元視線ベクトルVda、Vdbに基づいて表される。
車載カメラ21に位置ずれが生じていない場合、特徴点Sp1a、Sp1bの基準位置を表す3次元視線ベクトルVsa、Vsbと、特徴点Dp1a、Dp1bの判定位置を表す3次元視線ベクトルVda、Vdbとの関係性は変化しない。したがって、画像処理装置1は、特徴点が立体の構造物から検出される場合、これらの3次元視線ベクトルを使用して、車載カメラ21~24の位置ずれを判定する。
図19に示すように、同じ特徴点の基準位置を表す3次元視線ベクトルVsa、Vsbと、判定位置を表す3次元視線ベクトルVda、Vdbとに差異が生じる場合、画像処理装置1は、移動処理部114を用いて、特徴点の移動(回転、平行移動)を行う。車載カメラ21で撮像された画像P21について特徴点の移動を行う場合、他の車載カメラで撮像された画像についても、複数の特徴点それぞれの判定位置を表す3次元視線ベクトルの相対位置を保持した状態で3次元空間上で移動させる。そして、移動処理部114は、複数の特徴点それぞれの判定位置を表す3次元視線ベクトルが、最も多くの基準位置を表す3次元視線ベクトルに合致する状態まで、基準位置を表す3次元視線ベクトルに接近させる。
上記構成によれば、画像処理装置1は、特徴点が立体の構造物から検出される場合であっても、車載カメラ21~24の位置ずれを容易に且つ適切に判定することが可能である。
<5.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の技術的範囲は上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、上記の複数の実施形態及び実施例は可能な範囲で組み合わせて実施しても良い。
例えば、図20は、特徴点の基準位置の記憶時における車両の駐車状態を例示する図(変形例1)である。図20に示すように、画像中の特徴点を検出するための対象物が、車両7の前後左右に独立して描画された白線の駐車枠Lであっても良い。
図21は、特徴点の基準位置を例示する図である。この場合、車載カメラ21の画像において、車両7の前側のラインの左端及び右端から特徴点Sp1a、Sp1bが検出される。車載カメラ22の画像において、車両7の右側のラインの前端及び後端から特徴点Sp2a、Sp2bが検出される。車載カメラ23の画像において、車両7の後側のラインの右端及び左端から特徴点Sp3a、Sp3bが検出される。車載カメラ24の画像において、車両7の左側のラインの後端及び前端から特徴点Sp4a、Sp4bが検出される。
すなわち、車載カメラ21~24それぞれで撮像された画像において、車両7の周囲の隣り合う領域の像を含む2つの画像それぞれには、同じ位置の共通の特徴点が含まれない。このような場合であっても、画像処理装置1は、車載カメラ21~24の位置ずれを容易に且つ適切に判定することが可能である。
また例えば、図22は、特徴点の基準位置の記憶時における車両の駐車状態を例示する図(変形例2)である。図22に示すように、画像中の特徴点を検出するための対象物が、白線の駐車枠Lと、立体の構造物Stとの組み合わせであっても良い。このような場合であっても、画像処理装置1は、車載カメラ21~24の位置ずれを容易に且つ適切に判定することが可能である。
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの一部は電気的なハードウェア回路によって実現されても良い。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されても良い。
1 画像処理装置
7 車両
12 記憶部
21 フロントカメラ(車載カメラ)
22 右サイドカメラ(車載カメラ)
23 バックカメラ(車載カメラ)
24 左サイドカメラ(車載カメラ)
112 検出部
114 移動処理部
115 ずれ判定部

Claims (7)

  1. 車載カメラで撮像された画像を処理する画像処理装置であって、
    位置ずれが生じていない状態にある複数の前記車載カメラで撮像された前記画像中の複数の特徴点それぞれの、予め記憶された基準位置と、
    前記車載カメラの位置ずれの判定時に撮像された前記画像中の複数の前記特徴点それぞれの判定位置と、
    を比較処理して前記車載カメラの位置ずれを判定するずれ判定部
    を備え
    前記特徴点の前記判定位置は、前記車載カメラの位置ずれの判定時に、車両の位置情報を用いて前記特徴点の前記基準位置を記憶したときと同じ駐車領域であることを判断し、前記車両を、前記駐車領域に駐車して撮像された画像中の複数の前記特徴点それぞれについて導出される画像処理装置。
  2. 隣り合う領域の像を含む2つの前記画像それぞれは、同じ位置の共通の前記特徴点を含む請求項1に記載の画像処理装置。
  3. 前記特徴点の前記基準位置及び前記判定位置は、前記車載カメラから延び、前記車載カメラからの方向性を示す3次元視線ベクトルに基づいて表される請求項1または請求項2に記載の画像処理装置。
  4. 前記車載カメラの位置ずれの判定時に、複数の前記特徴点それぞれの前記判定位置を、それぞれの相対位置を保持した状態で3次元空間上で移動し、前記基準位置に接近させる移動処理部を備える請求項1から請求項3のいずれかに記載の画像処理装置。
  5. 前記画像中の複数の前記特徴点には、前記画像中において最も離れた2つの前記特徴点が含まれる請求項1から請求項4のいずれかに記載の画像処理装置。
  6. 前記画像中の複数の前記特徴点には、前記車両から最も近い前記特徴点が含まれる請求項1から請求項5のいずれかに記載の画像処理装置。
  7. 車載カメラで撮像された画像を処理する画像処理方法であって、
    位置ずれが生じていない状態にある複数の前記車載カメラで撮像された前記画像中の複数の特徴点それぞれの基準位置の記憶地点を、車両の位置情報を用いて取得する工程と、
    前記記憶地点において、前記特徴点の前記基準位置を記憶する工程と、
    前記車載カメラの位置ずれの判定時に、前記車両の駐車地点を、前記位置情報を用いて取得する工程と、
    前記特徴点の前記基準位置の前記記憶地点と、前記車載カメラの位置ずれの前記判定時の前記駐車地点とを比較する工程と、
    前記特徴点の前記基準位置の前記記憶地点と、前記判定時の前記駐車地点とが同じである場合に、前記判定時に撮像された前記画像中から複数の前記特徴点それぞれの判定位置を導出する工程と、
    前記特徴点の前記基準位置と、前記特徴点の前記判定位置とを比較して前記車載カメラの位置ずれを判定する工程と、
    を含む画像処理方法。
JP2017220096A 2017-11-15 2017-11-15 画像処理装置及び画像処理方法 Active JP7066378B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220096A JP7066378B2 (ja) 2017-11-15 2017-11-15 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220096A JP7066378B2 (ja) 2017-11-15 2017-11-15 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2019090707A JP2019090707A (ja) 2019-06-13
JP7066378B2 true JP7066378B2 (ja) 2022-05-13

Family

ID=66836209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220096A Active JP7066378B2 (ja) 2017-11-15 2017-11-15 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7066378B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004001658A (ja) 2002-06-03 2004-01-08 Nissan Motor Co Ltd 車載カメラの光軸ずれ検出装置
JP2013195783A (ja) 2012-03-21 2013-09-30 Ricoh Co Ltd 位置ずれ検出装置、車両及び位置ずれ検出方法
JP2016058912A (ja) 2014-09-10 2016-04-21 株式会社デンソー 車載カメラ診断装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004001658A (ja) 2002-06-03 2004-01-08 Nissan Motor Co Ltd 車載カメラの光軸ずれ検出装置
JP2013195783A (ja) 2012-03-21 2013-09-30 Ricoh Co Ltd 位置ずれ検出装置、車両及び位置ずれ検出方法
JP2016058912A (ja) 2014-09-10 2016-04-21 株式会社デンソー 車載カメラ診断装置

Also Published As

Publication number Publication date
JP2019090707A (ja) 2019-06-13

Similar Documents

Publication Publication Date Title
JP4690476B2 (ja) 車載カメラの校正装置
JP4751939B2 (ja) 車載カメラの校正装置
JP4636346B2 (ja) 車載カメラの校正装置、方法、及びプログラム
JP6801787B2 (ja) 駐車支援方法及び駐車支援装置
US9973734B2 (en) Vehicle circumference monitoring apparatus
US8018488B2 (en) Vehicle-periphery image generating apparatus and method of switching images
JP6828501B2 (ja) 駐車支援装置
US20160001704A1 (en) Surroundings-monitoring device and computer program product
JP5081313B2 (ja) 車載カメラの校正装置
JP5240527B2 (ja) 車載カメラの校正装置、方法、及びプログラム
JP6213567B2 (ja) 予測進路提示装置及び予測進路提示方法
JP4772409B2 (ja) 画像表示システム
JP6316161B2 (ja) 車載用画像処理装置
CN107791951B (zh) 显示控制装置
JP2012056428A (ja) 運転支援装置
US11145112B2 (en) Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle
JP2018160732A (ja) 画像処理装置、カメラずれ判定システム、及び画像処理方法
JP7066378B2 (ja) 画像処理装置及び画像処理方法
JP2019156308A (ja) 駐車支援装置
CN113646769A (zh) 用于图像归一化的系统和方法
JP2002029314A (ja) 駐車支援装置
JP2019135620A (ja) 走行支援装置
JP6020736B2 (ja) 予測進路提示装置及び予測進路提示方法
JP7110592B2 (ja) 画像処理装置
JP7056215B2 (ja) 走行管理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220427

R150 Certificate of patent or registration of utility model

Ref document number: 7066378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150