JP7355505B2 - 車両のカメラを較正する方法およびシステム - Google Patents

車両のカメラを較正する方法およびシステム Download PDF

Info

Publication number
JP7355505B2
JP7355505B2 JP2019028961A JP2019028961A JP7355505B2 JP 7355505 B2 JP7355505 B2 JP 7355505B2 JP 2019028961 A JP2019028961 A JP 2019028961A JP 2019028961 A JP2019028961 A JP 2019028961A JP 7355505 B2 JP7355505 B2 JP 7355505B2
Authority
JP
Japan
Prior art keywords
camera
image
column
focus
calibration matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019028961A
Other languages
English (en)
Other versions
JP2019169942A (ja
Inventor
デビッド・ハフナー
テナー・ギュンゴ
セバスチャン・カレーニョ
Original Assignee
フィコサ アダス,ソシエダッド リミタダ ユニペルソナル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フィコサ アダス,ソシエダッド リミタダ ユニペルソナル filed Critical フィコサ アダス,ソシエダッド リミタダ ユニペルソナル
Publication of JP2019169942A publication Critical patent/JP2019169942A/ja
Application granted granted Critical
Publication of JP7355505B2 publication Critical patent/JP7355505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本開示は、車両のカメラを較正する方法およびシステムに関する。さらに、本発明は、そのような方法を実行するのに適したコンピュータプログラムおよびシステムに関する。
(背景)
自動車においては、例えば、道路の車線標示および道路の境界、障害物、他の道路利用者などを検出するか、または、例えば、駐車時に自動車の正面および/または後部の領域を調査および/または表示するために、例えば、自動車の前部および/または後部に配置された単一のビデオカメラまたは複数のビデオカメラによってキャプチャされたビデオ画像を使用する、アシスタントと呼ばれる場合が多い、いわゆる運転支援システムが知られている。
しかしながら、カメラの位置が絶対的に固定されていないという事実に関して問題が生じる。カメラの製造および車両への組み立て中には公差がある。加えて、さらに重要なことには、カメラが駆動され現実世界の厳しさにさらされるにつれて、カメラの位置決めは、車両の寿命にわたって変化し得る。でこぼこの道路やドアのスラムからの振動、洗車の効果、さまざまな部品の修理や交換、さらには旋回するサイドミラーハウジングの移動も、すべてカメラの位置(角度の向きを含む)に影響を与え得る。これにより、カメラの較正が解除される可能性がある。
この点に関して、実際の使用中に生じるカメラの較正が解除される上記の技術的問題は、車両に対するカメラの不正確な位置または誤った位置をもたらし、それによって、例えば、運転支援システム(ADAS)に対する不正確なまたは誤った入力データをもたらす場合がある。
車両が工場の生産ラインを出るときにカメラを較正することは可能である。組立ラインエンドテスタを使用して、制御された環境において車両から既知の距離で所定のターゲットを投影することができる。さまざまなマーカの実際の物理的位置を知っていると、カメラのピクセル位置を実際の位置にマッピングする伝達関数を定義し、これからカメラのポーズへのオフセットを決定することができる。しかしながら、このラインエンドテスト方法は、予め指定されたマーカが既知の位置に配置されている制御環境が存在しない現場でカメラを独立して較正することができるという問題を解決しない。簡単に言えば、現場で車両用カメラを較正するために、制御された環境において所定のターゲットに基づくラインエンド組立ライン較正を使用することは不可能である。
オンライン較正のための既存の方法は、道路標示の検出に基づくか、または道路上の特徴の検出に基づくかのいずれかである。最初に述べた方法は較正に適した環境の強い制限をもたらすが、特定の画像領域における平坦な道路の仮定が常に満たされるわけではないので、後者の方法は誤りがちである。
本開示の例は、前述の問題のうちの1つ以上を少なくとも部分的に軽減することを目的としている。
(概要)
第1態様では、車両のカメラを較正する方法が提供される。方法は、車両が動いている間にカメラによってビデオストリーム内の1つ以上の画像フレームを得ることを含み、画像フレームは画像面を画定する。方法は、画像フレーム内の2つ以上の画像点を選択すること、画像フレーム内の各選択された画像点の運動軌跡を追跡することと、をさらに含む。そして、追跡された運動軌跡に基づく複数のフローベクトルが得られる。さらに、画像面内のフローベクトルに対する1つ以上の拡張点の焦点が得られ、各拡張点の焦点はx、y座標によって定義される。さらに、画像面内の接地面マスクが識別される。次に、接地面マスク内に位置する3つ以上のフローベクトルが識別される。得られた接地面内に位置する接地面フローベクトルのうちの1つの2つの画像点の同次座標を関連付けるように構成されたホモグラフィ行列が決定される。ホモグラフィ行列を用いて1つ以上の平面法線ベクトルが得られる。次に、第1、第2、および第3列を備えるカメラ較正行列が生成され、カメラ較正行列の第1列は、得られた拡張点の焦点に基づいて取得され、カメラ較正行列の第3列は、得られた平面法線ベクトルに基づいて取得され、カメラ較正行列の第1と第3列の外積に対応するカメラ較正行列の第2列が取得される。そして、得られたカメラ較正行列を用いてカメラを較正する。
この第1態様によれば、車両カメラの高精度かつリアルタイムの較正を可能にする方法が提供される。
従来技術とは異なり、本方法の較正は、道路標示または道路上の特定の特徴、例えば、車線またはその他の縦方向の道路の特徴の検出には基づいていない。さらに、カメラを較正するためにカメラの初期位置決めに関する事前の知識は必要とされない。さらに、本方法は、単一の車両カメラのみを必要とし、例えば、他のカメラやLIDARは必要ない。
別の態様では、コンピュータプログラム製品が開示されている。コンピュータプログラム製品は、コンピューティングシステムに、第1態様による車両のカメラを較正する方法を実行させるためのプログラム命令を含むことができる。
コンピュータプログラム製品は、記憶媒体(例えば、コンピュータメモリ、または読み取り専用メモリ上のCD-OM、DVD、USBドライブ)上に具現化されるか、またはキャリア信号(例えば、電気または光キャリア信号)で搬送され得る。
コンピュータプログラムは、部分的にコンパイルされた形式など、ソースコード、オブジェクトコード、コード中間ソース、およびオブジェクトコードの形式、またはプロセスの実行で使用するのに適した他の任意の形式であり得る。キャリアは、コンピュータプログラムを担持することができる任意のエンティティまたは装置であり得る。
例えば、キャリアは、ROM、例えば、CDROMもしくは半導体ROM、または磁気記録媒体、例えば、ハードディスクなどの記憶媒体を備え得る。さらに、キャリアは、電気または光ケーブルを介して、あるいは無線または他の手段によって伝達され得る、電気信号または光信号などの伝送可能なキャリアであり得る。
コンピュータプログラムがケーブルまたは他の装置あるいは手段によって直接伝達され得る信号で具現化されるとき、キャリアはそのようなケーブルあるいは他の装置または手段によって構成されてもよい。
あるいは、キャリアは、コンピュータプログラムが埋め込まれている集積回路であってもよく、集積回路は、関連する方法を実行するために、またはその実行において使用するために適合されている。
さらに別の態様では、コンピューティングシステムが開示されている。システムは、メモリと、プロセッサと、を備え得る。メモリは、プロセッサによって実行可能なコンピュータプログラム命令を記憶することができる。前記命令は、車両のカメラを較正する方法を実行する機能を備え得る。
別の態様では、車両のカメラを較正するシステムが開示されている。システムは、車両が動いている間にカメラからビデオストリーム内の1つ以上の画像フレームを得る手段を含み、画像フレームは画像面を画定し、そして、カメラによって得られた画像フレーム内の2つ以上の画像点を選択する手段と、画像フレーム内の各選択された画像点の運動軌跡を追跡する手段と、追跡された運動軌跡に基づいて複数のフローベクトルを得る手段と、を含む。システムはさらに、較正されるカメラに接続された拡張点の焦点モジュールを備え、拡張点の焦点モジュールは、画像面内の得られたフローベクトルについて1つ以上の拡張点の焦点を決定するために構成される。さらに、このシステムは、カメラに接続された接地面モジュールを備え、接地面モジュールは、画像面内の接地面マスクを識別し、接地面マスク内に位置する3つ以上のフローベクトルを識別し、接地面に配置された接地面フローベクトルのうちの1つの2つの画像点の同次座標を関連付けるように構成されたホモグラフィ行列を決定し、ホモグラフィ行列を使用して1つ以上の平面法線ベクトルを得るために構成される。さらに、システムは、拡張点の焦点モジュールおよび接地面モジュールに接続されたカメラ較正行列モジュールを備え、カメラ較正行列モジュールは、得られた拡張点の焦点に基づいてカメラ較正行列の第1列を決定し、得られた平面法線ベクトルに基づいてカメラ較正行列の第3列を決定し、カメラ較正行列の第1と第3列の外積に対応するカメラ較正行列の第2列を決定し、カメラ較正行列を使用してカメラを較正することにより、第1、第2および第3列を備えるカメラ較正行列を得るために構成される。
(図面の簡単な説明)
本開示の非限定的な例は、添付の図面を参照しながら以下に説明される。
車両のカメラを較正するシステムの一例を説明するブロック図の説明図である。 車両の座標系(VCS)およびカメラの座標系(CCS)の一例を概略的に示す。 車両のカメラを較正する方法の一例を説明するフローチャートの図である。 図4a~図4cは、カメラによって提供されるビデオストリーム内の連続する画像フレームにわたる画像点の対応する運動軌跡を示す図を概略的に示す。 図4a~図4cは、カメラによって提供されるビデオストリーム内の連続する画像フレームにわたる画像点の対応する運動軌跡を示す図を概略的に示す。 図4a~図4cは、カメラによって提供されるビデオストリーム内の連続する画像フレームにわたる画像点の対応する運動軌跡を示す図を概略的に示す。 運動軌跡および拡張点の焦点から導出された画像面内のフローベクトルを示す図を概略的に示す。 図6a~6bは、接地面マスクおよび法線接地面ベクトルの一例を概略的に示す。 図6a~6bは、接地面マスクおよび法線接地面ベクトルの一例を概略的に示す。 車両のカメラを較正する方法の別の例を説明するフローチャートの図である。
(実際例の詳細な説明)
本明細書および特許請求の範囲を通して、「画像面」は、実際の三次元空間を視認するカメラの出力として提供される二次元空間として理解されるべきである。
本明細書および特許請求の範囲を通して、「拡張点の焦点」という用語は、例えば、道路に平行な実平面内の平行線は、画像面内で収束しているように見える点として理解されるべきである。さらに、「拡張点の焦点」および「消失点」という用語は互換的である。
図1は、車両のカメラを較正するシステムの一例を説明するブロック図の説明図である。このシステムは、カメラ101を備える。カメラ101は、画像センサ104に結合された広角レンズ102、メモリ106および送信機108をさらに備えることができる。
カメラ101は、拡張点の焦点モジュール112上で送信機108を介して受信機110に結合されてもよい。受信機110は、カメラビデオストリーム(各ストリームは、例えば、毎秒25~30フレームの速度でカメラによってキャプチャされた連続画像フレームを備える)をマイクロコントローラ122に提供することができる。マイクロコントローラ122は、選択されたカメラビデオストリームを処理し、後で説明されるように拡張点の焦点の計算を実行する。
マイクロコントローラ122は、CANトランシーバ130を介して車両コマンドエリアネットワーク(CAN)に接続することができ、したがって、車両の操舵角などの情報について主車両コントローラ(図示せず)に問い合わせることができる。
カメラ101は、接地面モジュール140の受信機141にさらに結合することができる。受信機141は、カメラビデオストリームをマイクロコントローラ142に提供し、マイクロコントローラ142は、選択されたカメラビデオストリームを処理し、後で説明するように1つ以上の接地面法線ベクトルの計算を実行する。
以前と同様に、マイクロコントローラ142は、CANトランシーバ143を介して車両コマンドエリアネットワーク(CAN)に接続することができ、したがって、車両の操舵角などの情報について主車両コントローラ(図示せず)に問い合わせることができる。
接地面モジュール140および拡張点の焦点モジュール112は、カメラ較正行列モジュール150の受信機151に結合することができる。受信機151は、得られた拡張点(複数可)の焦点および得られた接地面法線ベクトル(複数可)をマイクロコントローラ152に提供してもよく、マイクロコントローラ152は、法線ベクトル(複数可)および拡張点(複数可)の焦点を処理し、後により詳細に説明されるように、カメラ較正行列の計算を実行する。
マイクロコントローラ152はさらに、得られたカメラ較正行列を使用して車両カメラの較正を実行することができる。
図2は、車両の座標系(VCS)およびカメラの座標系(CCS)の一例を概略的に示す。車両のX軸は、車両の縦軸に沿っていてもよい。車両のY軸は、車両の横方向軸または横軸に沿っていてもよい。車両のZ軸は、車両のアップ(up)軸であり得る。車両に関連するカメラは、カメラX軸、カメラY軸、およびカメラZ軸を備えるそれ自体のカメラ座標系を有してもよい。カメラX軸は、カメラの右を向いてもよく、カメラY軸は、下を向いてもよく、カメラZ軸は、カメラから離れて向いてもよい。カメラの較正は、回転行列が得られるように実行され得て、したがって車両の座標系(VCS)からの点をカメラの座標系(CCS)に回転させることができる。
図3は、車両のカメラを較正する方法の一例を説明するフローチャートの図である。図3は特定のシーケンスを示しているが、他のシーケンスに従うことができることを理解すべきである。
ブロック200において、ビデオストリーム内の1つ以上の画像フレームが、車両が動いている間にカメラによって得られてもよく、画像フレームは画像面を画定する。ブロック200における画像フレームの処理は、例えば、CANバスによって提供される操舵角によって調整され得る。この点に関して、操舵角情報は、カメラによってキャプチャされた画像フレームごとに分析されて記録される。操舵角が、例えば、-3度[degree]~+3度の所定の範囲内にある場合、アルゴリズムが起動され得て、したがって、カメラは、ビデオストリーム内の画像フレームを得ることができ、カメラビデオストリームは、アルゴリズムによって処理される。しかしながら、操舵角が所定の範囲内にない場合(したがって、車両の車輪が車両の本体に対して誤った角度にある場合)、アルゴリズムは、カメラによってキャプチャされた画像フレームの処理を停止することがある。したがって、操舵角が所定の操舵角範囲内にあるときにのみアルゴリズムが起動され得ることは明らかである。
ブロック201で、画像フレーム内の1つ以上の画像点が選択される。さらに、ブロック202において、画像フレーム内の各選択された画像点の運動軌跡が追跡される。加えて、ブロック203において、複数のフローベクトルが得られてもよく、特に2つ以上の拡張点の焦点フローベクトルおよび3つ以上の接地面フローベクトルが得られる。一旦、1つ以上の画像点が選択されると、車両が移動するにつれてカメラビデオストリームから得られた1組の画像フレームにおけるこれらの点の後続位置が追跡される。したがって、例えば、図4a~4cに概略的に示されるように、画像点pおよび画像点jは、後続の画像フレーム900、901、902において追跡され得る。この特徴点のピクセル位置は、後続の画像フレームにわたって変化して、例えば、特徴点pに関して、点(x,y),(x,y),・・・(x,y)を備えるベクトルPを産出できる。同様に、この特徴点jのピクセル位置は、後続の画像フレームにわたって変化して、例えば、特徴点jに関して、点(x,y),(x,y),・・・(x,y)を備えるベクトルJを産出できる。このようにして、選択された各画像点に対する、例えば、ベクトルPおよびJのフローベクトルが得られ得る。
明らかに、さらなるフローベクトルが同様の方法で得られてもよい。
得られたフローベクトルは、拡張点の焦点フローベクトルまたは接地面フローベクトルのいずれかとして識別することができる。後に説明するように、拡張点の焦点フローベクトルを使用して1つ以上の拡張点の焦点を得ることができる。接地面フローベクトルは、後でまた説明されるように、接地面の1つ以上の平面法線ベクトルを得るために使用され得る。
典型的には、得られた拡張点の焦点フローベクトルはノイズが多く、しばしば信頼できない可能性がある。したがって、拡張点の焦点フローベクトルをフィルタリングすることができる。フィルタリングは、以下の基準のうちの少なくとも1つに基づいて実行されてもよい。マッチングベースのコスト、フローベクトルの長さ、画像フレーム間の角度および拡張点の初期焦点に対する角度である。したがって、「良好な」フローベクトルは複数のフレームにわたって得ることができる。
マッチングベースのコスト基準では、2つのベクトルを対にするコストは対関数の結果によって与えられる。特に、上述のコストは、対の類似性および頑健性の尺度であり得る。したがって、この尺度は、ベクトル間の最も強い対を選択し、ベクトル間の最も弱い対を無視するために使用され得る。
フローベクトルの長さの基準では、ベクトルの長さは、2つの連続した画像の2つの一致した点がどの程度離れているかを示す。長さが非常に短い場合、ベクトルは任意の情報を提供しないので無視される可能性がある(拡張焦点に向かって線を投影するには最小長さが必要である)。さらに、オプティカルフローの長さが長すぎると、対エラーと見なされる可能性がある。
フレーム間の角度の基準では、最適なフローベクトルの角度はほぼ一定でなければならない。この角度は、起こり得る誤ったベクトルを無視するために使用され得る。
拡張点の初期焦点基準に対する角度において、初期カメラの向きが誤差、例えば、±3度の範囲内であると仮定し、この前提は、オプティカルフローベクトルの角度の偏差を初期の拡張点の焦点に制限するために使用することができる。
いくつかの例では、カメラはミラーの代わりとして機能することができる。したがって、カメラによってキャプチャされた画像フレームは、実際のカメラ画像のミラーリングされたバージョンであり得る。このためフローベクトルは、ミラーリングされていない画像フレームに対応するフローベクトルが得られるように反転させることができる。
ブロック204で、拡張点の1つ以上の焦点、すなわち画像平面内の拡張点の焦点フローベクトルの消失点が決定され、拡張点の各焦点はx、y座標によって定義される。このブロックの主な目的は、利用可能な入力データに基づいて拡張点の焦点を生成することである。この例に続いて、図5に概略的に示されるように、拡張点の焦点VPは、フローベクトルPおよびJ(以前にブロック203で得られた)に基づいて得られ得る。
特に、フローベクトルの「最良の」交点が計算されて、拡張点の焦点が決定される。この目的を達成するために、全ての2D線(フローベクトルによって与えられる)に最も近い点vp∈Rが計算されてもよい。特に、始点a、単位法線ベクトルn、および拡張点の焦点vpを有する線(フローベクトルによって与えられる)の絶対距離は、次のように表すことができる。
ここで、Tは、転置行列を表し、特に、Tは、対角線で成分を折り返させる演算子であり、行要素と列要素とを入れ替えた行列を作ることができる。
また、以下の式に従って、次の(二次)コスト関数Eを最小化することができる。
ここで、Nは、線の数を表し、vpは、拡張点の焦点であり、aは、始点であり、nは、単位法線ベクトルであり、Tは、転置行列を表す。
この問題に対する解決策は、以下の方程式に従って決定することができる。
いくつかの例では、拡張点の焦点は、RANSACアルゴリズムによって推定することができる。ランダムサンプルコンセンサス(RANSAC)は、外れ値が推定値に影響を与えない場合、外れ値を含む一連の観測データから数学モデルのパラメータを推定するための反復法である。RANSACの利点は、モデルパラメータを頑強に推定できることであり、すなわち、それはパラメータを高い精度で推定できる。
明らかに、さらなるフローベクトルに対応するさらなる拡張点の焦点が実質的に同様の方法で得られる。いくつかの拡張点の焦点が得られる例では、得られた拡張点の焦点をフィルタリングすることができる。フィルタリングは、得られた拡張点の平均焦点を計算することによって実行することができる。したがって、単一の拡張点の平均焦点が得られ得る。
ブロック205において、画像面内の接地面マスクが識別され得る。接地面マスクの識別は、画像面内の関心領域(ROI)を示すことによって実行することができる。ROI350が図6aに概略的に示されている。したがって、対応する接地面マスクを選択することができる。
ブロック206において、接地面マスクに配置された3つ以上のフローベクトル、すなわち接地面フローベクトルを識別することができる。3つ以上のフローベクトルを選択する理由は、3D平面を得るために少なくとも3つのフローベクトルが必要とされるからである。接地面フローベクトルは、ブロック203で前述したように得られてもよい。以前と同様に、識別された接地面フローベクトルは、ノイズが多く信頼性がない可能性がある。したがって、フィルタリングは、以下の基準のうちの少なくとも1つに基づいて実行され得る。マッチングベースのコスト、フローベクトルの長さ、画像フレーム間の角度および拡張点の初期焦点に対する角度である。これらのフィルタは、前述したものと同じまたは類似のものでよい。したがって、接地面マスク内で識別された「良好な」接地面フローベクトルは、いくつかのフレームにわたって取得され得る。
ブロック207において、得られた接地面マスク内に配置された接地面フローベクトルのうちの1つの一部を形成する2つの点の同次座標を関連付けるように構成されたホモグラフィ行列を決定することができる。さらに、ブロック208で、ホモグラフィ行列を使用して1つ以上の平面法線ベクトルを得ることができる。ホモグラフィ行列H∈R3×3は、1つの接地面フローベクトルの一部を形成する2つの点(2つのフレーム間)の2つの同次座標をマッピングすることができる。ホモグラフィ行列は次のように表すことができる。
ここで、I∈R3×3は、単位行列であり、t∈Rは、カメラの並進移動であり、n∈Rは、平面法線ベクトルであり、d∈Rは、カメラ中心までの平面の距離である。このようにして、1つの接地面フローベクトルの一部を形成する2つの点(2つのフレーム間)の2つの同次座標pおよびpは、以下の式に従って関連付けることができる。
ここで、λは、未知のスカラーであり、Iは、単位行列であり、tは、カメラの並進移動であり、nは、平面法線ベクトルであり、dは、カメラ中心までの平面の距離であり、Tは、転置行列を表し、m=n/dである。この点で、画像座標の点p(p2x,p2y)に戻り、同次座標の第3要素で除算すると、次の2つの制約が生じる。
ここで、p1x,p1yは、点pのx,y座標であり、t,t,tは、カメラtの並進移動のx,y,z座標であり、m=n/dであり、Tは、転置行列を表し、pは、上述の同次座標である。
小さな再定式化は次の方程式を導くことができる:
ここで、p2x,p2yは、点pのx,y座標であり、p1x,p1yは、点pのx,y座標であり、t,t,tは、カメラtの並進移動のx,y,z座標であり、m=n/dであり、Tは、転置行列を表し、pは、上述の同次座標であり、m=n/dである。
例に従い、mは、以下の方程式によりコスト関数Eを最小化することによって計算することができる。
ここで、nは、対応の数である。このコスト関数は、以下の方程式に従って再公式化することができる。
項mは、以下の式に従って計算することができる。
ここで、
そして
平面法線ベクトルは、n=d*mによって与えられ、ここで、d=1/|m|は、カメラの中心までの計算された距離である。平面法線ベクトルの一例が図6bに概略的に示されている。
いくつかの例では、平面法線ベクトルnは、RANSACアルゴリズムによって推定され得る。RANSACを使用することの利点は、上記と同じであり得る。
明らかに、さらなる平面法線ベクトルが実質的に同様の方法で得られ得る。さらなる平面法線ベクトルが得られる例では、平面法線ベクトルをフィルタリングすることができる。フィルタリングは、得られた平面法線ベクトルの平均を計算することによって実行されてもよい。このようにして単一平面法線ベクトルが得られ得る。
ブロック209において、カメラ較正行列、例えば、第1列r1、第2列r2、および第3列r3を備える回転行列が得られてもよい。カメラ較正行列は、次の式に従って表すことができる。
特に、ブロック210において、得られた拡張点の焦点に基づくカメラ較正行列の第1列が決定される。この点に関して、車両の座標系から車両カメラの座標系へのx軸の変換は、以下に従って決定され得る。
ここで、r1は、カメラ較正行列の第1列である。拡張点の平均焦点(avp)は前述のように既に得られている。拡張点の平均焦点は、x、y座標によって定義される。拡張点の焦点は正規化することができる。このようにして、拡張点の正規化された焦点(nvp)が得られ得る。拡張点の正規化された焦点(nvp)は、次のように表すことができる。
ここで、拡張点の正規化された焦点は、カメラの主点(pp)、カメラの焦点距離(fl)および拡張点の平均焦点(vp)によって表される。z座標(n_vp.z)は、拡張点の2D正規化された焦点に追加されてもよい。z座標は、例えば、1であってもよい。このようにして、拡張点の3D焦点が得られ得る。拡張点の3D焦点(VP_3D)は、次式に従って表すことができる。
次いで、更なる拡張点の正規化された3D焦点は、拡張点の3D焦点に基づいて得られてもよい。拡張点の正規化された3D焦点(VP_3D_norm)は、以下に従って得られ得る。
拡張点の正規化された3D焦点(VP_3D_norm)は、カメラ較正行列の第1列r1に追加されてもよい。
ブロック211において、得られた平面法線ベクトルに基づいてカメラ較正行列の第3列r3を決定することができる。車両の座標系から車両カメラの座標系へのz軸の変換は、以下に従って決定され得る。
ここで、r3は、カメラ較正行列の第3列であり、Rは、カメラ較正行列である。法線ベクトル、例えば、平均平面法線ベクトルは、前述のように既に得られている。したがって、法線ベクトルr3は、カメラ較正行列の第3列r3に追加されてもよい。
ブロック212において、カメラ較正行列の第1列r1と第3列r3との外積に対応するカメラ較正行列の第2列r2が得られてもよい。さらに、ベクトルr2をカメラ較正行列の第2列に加えることができる。
その結果、カメラ較正行列R=(r1,r2,r3)が形成され得る。いくつかの例では、計算は、垂直ではないベクトルr1およびr3をもたらし得る。この特定の例では、ベクトルr3は法線ベクトルr1を有する平面に投影されてもよい。これにより、カメラの較正行列の直交性が保証され得る。
ブロック213において、得られたカメラ較正行列を用いてカメラを較正することができる。一旦、較正行列が得られると、カメラの対応するピッチ、ロールおよびヨーもまた得られ得る。例えば、得られた較正行列が以下に従って決定されると、
ロールは、以下の式に従って計算することができる。
ピッチは以下の式に従って計算することができる。
ヨーは、以下の式に従って計算することができる。
図7は、カメラを較正する方法の他の例のフローチャートを示す。本発明の基本動作は以下の通りである。
方法はブロック800で開始することができる。ブロック801で、拡張点の焦点の計算を初期化することができる。初期化は、バッファの初期化および歪み行列の計算を含み得る。次に、ブロック802で、フローベクトルを収集し生成することができる。フローベクトルは前述のように生成されてもよい。
フローベクトルは、前述のようにフィルタリングされてもよい。特に、操舵速度が所定の操舵範囲内にない場合、フローベクトルの収集は停止されてもよい。
ブロック802で、1つ以上の拡張点の焦点をフローベクトルに基づいて推定することができる。上記のように、拡張点の焦点、すなわち、消失点は、RAMSACアルゴリズムによって推定することができる。RAMSAC計算は、いくつかのフレームにわたって分散させることができる。そのため、実行時の要件を満たすことができる。さらに、拡張点の十分な焦点が収集されたかどうか、および/または所定の時間が経過したかどうかがチェックされる。チェックにおいて肯定的な結果が得られた場合、拡張点の焦点のフィルタリング804は、前述のように実行することができる。フィルタリングは、得られたフローベクトルの平均を実行することを含み得る。このようにして、拡張点の平均焦点が得られ得る。チェックで否定的な結果が得られた場合、ブロック802でより多くのフローベクトルを収集することができる。
ブロック805で、接地面計算を初期化することができる。点806で、接地面フローベクトルを収集することができる。接地面フローベクトルは、前述のようにフィルタリングされてもよい。特に、操舵速度が所定の操舵範囲内にない場合には、接地面フローベクトルの収集を停止することができる。点807において、収集された接地面フローベクトルを用いてホモグラフィが計算され得る。次いで、1つ以上の接地面法線ベクトルを得ることができる。接地面法線ベクトルは、RAMSACアルゴリズムによって推定することができる。さらに、十分な接地面法線ベクトルが収集されたかどうか、および/または所定の時間を超えたかどうかがチェックされる。チェックにおいて肯定的な結果が得られた場合、法線ベクトルのフィルタリング808が前述のように実行されてもよい。こうして平均法線ベクトルを得ることができる。チェックにおいて否定的な結果が得られた場合、ブロック806において、より多くの接地面フローベクトルを収集することができる。
ブロック809で、カメラ較正行列が前述のように計算される。その後、方法はブロック810で終了することができる。
カメラ較正行列は、カメラを較正するために使用され得る。
いくつかの例のみが本明細書に開示されているが、他の代替物、修正物、使用および/またはそれらの均等物が可能である。さらに、記載された例の全ての可能な組み合わせもまた包含される。したがって、本開示の範囲は特定の例によって限定されるべきではないが、以下の特許請求の範囲を公正に読むことによってのみ決定されるべきである。図面に関連する参照符号が請求項の括弧内に置かれる場合、それらは単に請求項の了解度を高めることを試みるためのものであり、請求項の範囲を限定するものとして解釈されてはならない。

Claims (15)

  1. 車両のカメラを較正する方法であって、
    -前記車両が動いている間に前記カメラからビデオストリーム内の1つ以上の画像フレームであって画像面を画定する前記画像フレームを得ること、
    -前記画像フレーム内の2つ以上の画像点を選択すること、
    -前記画像フレーム内の各選択された前記画像点の運動軌跡を追跡すること、
    -追跡された前記運動軌跡に基づいて複数のフローベクトルを得ること、
    -前記画像面内の前記フローベクトルについて拡張点の1つ以上の焦点であって各々がx,y座標によって定義される前記1つ以上の焦点を決定すること、
    -前記画像面内の接地面マスクを識別すること、
    -前記接地面マスク内に位置する得られた前記フローベクトルのうちの3つ以上の前記フローベクトルを識別すること、
    -前記接地面マスクに配置された前記フローベクトルのうちの1つのフローベクトルの2つの画像点の同次座標を関連付けるように構成されたホモグラフィ行列を決定すること、
    -前記ホモグラフィ行列を使用して1つ以上の平面法線ベクトルを得ること、
    -第1列、第2列、および第3列を備えるカメラ較正行列を、
    ・得られた前記拡張点の焦点に基づいて前記カメラ較正行列の前記第1列を決定すること、
    ・得られた前記平面法線ベクトルに基づいて前記カメラ較正行列の前記第3列を決定すること、および
    ・前記カメラ較正行列の前記第1列と前記第3列との外積に対応する前記カメラ較正行列の前記第2列を決定すること、
    によって生成すること、および
    -得られた前記カメラ較正行列を用いて前記カメラを較正すること、
    を含む方法。
  2. 追跡された前記運動軌跡に基づいて複数の前記フローベクトルを得ることは、
    -ミラーリングされていない画像フレームに対応するフローベクトルが得られるように前記フローベクトルを反転すること、
    を含む、請求項1に記載の方法。
  3. 前記フローベクトルを得ることは、
    -前記フローベクトルをフィルタリングすること、
    を含む、請求項1又は2に記載の方法。
  4. 前記フローベクトルをフィルタリングすることは、以下の基準、
    -マッチングベースのコスト、
    -フローベクトル長さ、
    -画像フレーム間の角度、および
    -拡張点の初期焦点に対する角度、
    のうちの少なくとも1つの基準に基づいて実行される、請求項3に記載の方法。
  5. 前記拡張点の前記1つ以上の焦点を決定することは、
    -拡張点の平均焦点(vp)が得られるように前記拡張点の前記焦点の平均を計算することによって前記拡張点の前記焦点をフィルタリングすること、
    を含む、請求項1~4のいずれか一項に記載の方法。
  6. 前記拡張点の前記焦点に基づいて前記カメラ較正行列の前記第1列を決定することは、
    -拡張点の正規化された焦点(nvp)であって、前記カメラの主点(pp)、前記カメラの焦点距離(fl)、および前記拡張点の前記平均焦点(vp)によって以下の式で表される前記拡張点の前記正規化された焦点(nvp)を得ること、
    -拡張点の3D焦点(VP_3D)であって以下の式に従って表される前記拡張点の前記3D焦点(VP_3D)が得られるように、前記拡張点の前記正規化された焦点(nvp)にz座標を追加すること、
    -以下の式のように決定される、拡張点の正規化された3D焦点(Vp_3D_norm)を得ること、および
    -前記カメラ較正行列の前記第1に、前記拡張点の前記正規化された3D焦点(Vp_3D_norm)を追加すること、
    を含む、請求項5に記載の方法。
  7. 前記接地面マスクを識別することは、
    -前記画像面内の関心領域(ROI)を示すこと、
    を含む、請求項1~6のいずれか一項に記載の方法。
  8. 前記接地面マスク内に位置する前記フローベクトルの2つの前記画像点の同次座標を関連付けるように構成されたホモグラフィ行列は、以下の式のように、単位行列(l)、前記カメラの並進移動(t)、前記平面法線ベクトル(n)、および前記カメラ中心までの前記画像面の距離(d)によって表される、請求項1~7のいずれか一項に記載の方法。
  9. 前記1つ以上の平面法線ベクトルを得ることは、
    -前記平均平面法線ベクトルが得られるように前記平面法線ベクトルの平均を計算することによって前記平面法線ベクトルをフィルタリングすること、
    を含む、請求項1~8のいずれか一項に記載の方法。
  10. 前記1つ以上の画像フレームを得る前に、
    -前記車両の操舵角を受信すること、および
    -前記操舵角が所定の操舵角範囲内にあるかどうかを確認すること、
    をさらに含む請求項1~9のいずれか一項に記載の方法。
  11. 請求項1~10のいずれか一項に記載の車両のカメラを較正する方法をコンピュータシステムに実行させるためのプログラム命令を
    含むコンピュータプログラム。
  12. 記憶媒体に具現化された、請求項11に記載のコンピュータプログラム。
  13. キャリア信号で搬送される、請求項11又は12に記載のコンピュータプログラム。
  14. 車両のカメラを較正するシステムであって、
    前記車両が動いている間に前記カメラからデオストリーム内の1つ以上の画像フレームであって画像面を画定する前記画像フレームを得る手段と、
    前記カメラによって得られた前記画像フレーム内の2つ以上の像点を選択する手段と、
    前記画像フレーム内の各選択された前記画像点の運動軌跡を追跡する手段と、
    追跡された前記運動軌跡に基づいて複数のフローベクトルを得る手段と、
    拡張点の焦点モジュールであって、
    ・前記画像面内の得られた前記フローベクトルについて1つ以上の拡張点の焦点を決定するために構成される、
    前記拡張点の焦点モジュールと、
    接地面モジュールであって、
    ・前記画像面内の接地面マスクを識別し、
    ・前記接地面マスクに配置された得られた前記フローベクトルのうちの3つ以上の前記フローベクトルを識別し、
    ・前記接地面マスク内に位置する前記フローベクトルのうちの1つのフローベクトルの2つの画像点の同次座標を関連付けるように構成されたホモグラフィ行列を決定し、且つ
    ・前記ホモグラフィ行列を用いて1つ以上の平面法線ベクトルを得るために構成される、
    前記接地面モジュールと、
    前記拡張点の焦点モジュールおよび前記接地面モジュールに接続されたカメラ較正行列モジュールであって、前記カメラ較正行列モジュールは、
    ・第1列、第2列および第3列を備えるカメラ較正行列を
    ・得られた前記拡張点の焦点に基づいて前記カメラ較正行列の前記第1列を決定すること、
    ・得られた前記平面法線ベクトルに基づいて前記カメラ較正行列の前記第3列を決定すること、および
    ・前記カメラ較正行列の前記第1列と前記第3列との外積に対応する前記カメラ較正行列の前記第2列を決定すること、により生成し、
    ・前記カメラ較正行列を使用して前記カメラを較正するために構成される、
    前記カメラ較正行列モジュールと、
    を備えるシステム。
  15. メモリと、
    プロセッサと、
    を備え、
    前記メモリに記憶され、且つ、前記プロセッサによって実行可能な命令であって、請求項1~11のいずれか一項に記載の車両のカメラを較正する方法を実行する機能を備える前記命令を具現化するコンピューティングシステム。
JP2019028961A 2018-02-21 2019-02-21 車両のカメラを較正する方法およびシステム Active JP7355505B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18382101.6 2018-02-21
EP18382101.6A EP3531376B1 (en) 2018-02-21 2018-02-21 Calibrating a camera of a vehicle

Publications (2)

Publication Number Publication Date
JP2019169942A JP2019169942A (ja) 2019-10-03
JP7355505B2 true JP7355505B2 (ja) 2023-10-03

Family

ID=61386794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028961A Active JP7355505B2 (ja) 2018-02-21 2019-02-21 車両のカメラを較正する方法およびシステム

Country Status (4)

Country Link
US (1) US10902641B2 (ja)
EP (1) EP3531376B1 (ja)
JP (1) JP7355505B2 (ja)
CN (1) CN110176038B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110099269B (zh) 2018-01-28 2021-07-09 钰立微电子股份有限公司 具有可调光强度的深度产生系统
US20190387165A1 (en) 2018-06-07 2019-12-19 Eys3D Microelectronics, Co. Image device for generating depth images and related electronic device
JP7191671B2 (ja) * 2018-12-19 2022-12-19 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
JP7217577B2 (ja) * 2019-03-20 2023-02-03 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
CN113554711A (zh) * 2020-04-26 2021-10-26 上海欧菲智能车联科技有限公司 相机在线标定方法、装置、计算机设备和存储介质
US11348277B2 (en) * 2020-08-12 2022-05-31 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for estimating camera orientation relative to ground surface
KR20220026423A (ko) * 2020-08-25 2022-03-04 삼성전자주식회사 지면에 수직인 평면들의 3차원 재구성을 위한 방법 및 장치
US11967122B2 (en) 2021-04-19 2024-04-23 Argo AI, LLC Context aware verification for sensor pipelines
CN113284197B (zh) * 2021-07-22 2021-11-23 浙江华睿科技股份有限公司 Agv的tof相机外参标定方法及装置、电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329411A (ja) 2002-05-14 2003-11-19 Matsushita Electric Ind Co Ltd カメラ校正装置
US20130307982A1 (en) 2012-05-15 2013-11-21 Toshiba Alpine Automotive Technology Corporation Onboard camera automatic calibration apparatus
JP2014101075A (ja) 2012-11-21 2014-06-05 Fujitsu Ltd 画像処理装置、画像処理方法及びプログラム
US20150049193A1 (en) 2011-04-25 2015-02-19 Magna International Inc. Method and system for dynamically calibrating vehicular cameras

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8009930B2 (en) * 2008-03-26 2011-08-30 City University Of Hong Kong Auto-calibration method for a projector-camera system
US8373763B2 (en) * 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
WO2012145818A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
EP2541498B1 (en) * 2011-06-30 2017-09-06 Harman Becker Automotive Systems GmbH Method of determining extrinsic parameters of a vehicle vision system and vehicle vision system
EP2858035B1 (en) * 2013-10-01 2020-04-22 Application Solutions (Electronics and Vision) Limited System, vehicle and method for online calibration of a camera on a vehicle
JP6034775B2 (ja) * 2013-11-29 2016-11-30 クラリオン株式会社 カメラ校正装置
FR3014553A1 (fr) * 2013-12-11 2015-06-12 Parrot Procede de calibration angulaire de la position d'une camera video embarquee dans un vehicule automobile
FR3047103B1 (fr) * 2016-01-26 2019-05-24 Thales Procede de detection de cibles au sol et en mouvement dans un flux video acquis par une camera aeroportee
CN107330940A (zh) * 2017-01-25 2017-11-07 问众智能信息科技(北京)有限公司 车载相机姿态自动估计的方法和装置
CN107067755A (zh) * 2017-04-28 2017-08-18 深圳市唯特视科技有限公司 一种基于计算机视觉自动校准交通监控相机的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329411A (ja) 2002-05-14 2003-11-19 Matsushita Electric Ind Co Ltd カメラ校正装置
US20150049193A1 (en) 2011-04-25 2015-02-19 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
US20130307982A1 (en) 2012-05-15 2013-11-21 Toshiba Alpine Automotive Technology Corporation Onboard camera automatic calibration apparatus
JP2013238497A (ja) 2012-05-15 2013-11-28 Toshiba Alpine Automotive Technology Corp 車載カメラ自動キャリブレーション装置
JP2014101075A (ja) 2012-11-21 2014-06-05 Fujitsu Ltd 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
US10902641B2 (en) 2021-01-26
US20190259178A1 (en) 2019-08-22
EP3531376B1 (en) 2020-09-30
JP2019169942A (ja) 2019-10-03
CN110176038B (zh) 2021-12-10
CN110176038A (zh) 2019-08-27
EP3531376A1 (en) 2019-08-28

Similar Documents

Publication Publication Date Title
JP7355505B2 (ja) 車両のカメラを較正する方法およびシステム
US10762643B2 (en) Method for evaluating image data of a vehicle camera
JP6522076B2 (ja) 側方の車両測位のための方法、装置、記憶媒体及びプログラム製品
JP6767998B2 (ja) 画像の線からのカメラの外部パラメータ推定
KR102508843B1 (ko) 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치
JP6924251B2 (ja) 画像センサの外因性パラメータを較正するための方法及び装置
CN109766757B (zh) 一种融合车辆和视觉信息的泊车位高精度定位方法及系统
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
CN107167826B (zh) 一种自动驾驶中基于可变网格的图像特征检测的车辆纵向定位系统及方法
WO2018119744A1 (zh) 一种虚警障碍物检测方法及装置
Parra et al. Robust visual odometry for vehicle localization in urban environments
KR20090103165A (ko) 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
CN109741241B (zh) 鱼眼图像的处理方法、装置、设备和存储介质
JP6932058B2 (ja) 移動体の位置推定装置及び位置推定方法
WO2021110497A1 (en) Estimating a three-dimensional position of an object
Hu et al. Lyapunov-based range identification for paracatadioptric systems
CN113570662A (zh) 3d定位来自真实世界图像中地标的系统和方法
CN113345032B (zh) 一种基于广角相机大畸变图的初始化建图方法及系统
CN112967393B (zh) 车辆移动轨迹的修正方法、装置、电子设备及存储介质
Ruland et al. Hand-eye autocalibration of camera positions on vehicles
Spacek et al. Instantaneous robot self-localization and motion estimation with omnidirectional vision
Yang et al. Simultaneous estimation of ego-motion and vehicle distance by using a monocular camera
Buczko et al. Self-validation for automotive visual odometry
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
Cheda et al. Camera egomotion estimation in the ADAS context

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230921

R150 Certificate of patent or registration of utility model

Ref document number: 7355505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150