JP7358933B2 - camera calibration device - Google Patents
camera calibration device Download PDFInfo
- Publication number
- JP7358933B2 JP7358933B2 JP2019208817A JP2019208817A JP7358933B2 JP 7358933 B2 JP7358933 B2 JP 7358933B2 JP 2019208817 A JP2019208817 A JP 2019208817A JP 2019208817 A JP2019208817 A JP 2019208817A JP 7358933 B2 JP7358933 B2 JP 7358933B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging unit
- unit
- frame
- map
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明の実施形態は、カメラキャリブレーション装置に関する。 Embodiments of the present invention relate to a camera calibration device.
車両等の移動体に搭載される複数のカメラによって当該移動体の周囲を撮像した画像から、2つの区画線が交差する2つの特徴点、および当該2つの区画線の方向を検出し、その検出結果に基づいて、移動体およびその周囲の俯瞰画像を生成し、当該俯瞰画像において、2つの特徴点が水平または垂直の位置関係となり、かつ2つの区画線が直角に交わるように、カメラのキャリブレーションを実行する技術が開発されている。 Detects two feature points where two marking lines intersect and the direction of the two marking lines from images taken around the moving object by multiple cameras mounted on a moving object such as a vehicle. Based on the results, a bird's-eye view image of the moving object and its surroundings is generated, and the camera is calibrated so that the two feature points have a horizontal or vertical positional relationship and the two division lines intersect at right angles in the bird's-eye view image. Techniques have been developed to carry out this process.
しかしながら、上記の技術では、移動体が走行する路面が平坦であり、かつ当該路面に区画線が存在しなければ、カメラのキャリブレーションを実行することが困難である。 However, with the above technique, it is difficult to calibrate the camera unless the road surface on which the moving object travels is flat and there are no marking lines on the road surface.
そこで、実施形態の課題の一つは、移動体が走行する路面が平坦でない場合や、当該路面に区画線が存在しない場合でも、カメラのキャリブレーションを実行可能となるカメラキャリブレーション装置を提供することである。 Therefore, one of the problems of the embodiment is to provide a camera calibration device that can perform camera calibration even when the road surface on which a moving object runs is not flat or when there are no marking lines on the road surface. That's true.
実施形態のカメラキャリブレーション装置は、一例として、移動体に搭載される、第1撮像部および当該第1撮像部とは異なる第2撮像部によって当該移動体の周囲を撮像したフレームを取得する画像取得部と、前記第1撮像部および前記第2撮像部のそれぞれによって撮像される前記フレームのうち所定タイミングの前記フレームである第1キーフレームを選択するKF選択部と、前記第1キーフレームに基づいて、前記第1撮像部および前記第2撮像部のそれぞれの位置および姿勢を示す位置姿勢情報を推定するカメラ位置姿勢推定部と、前記フレーム内に存在する特徴点を抽出し、当該特徴点に基づいて、前記第1撮像部および前記第2撮像部のそれぞれの周囲の地図でありかつ前記位置姿勢情報を含む周囲地図を作成する地図作成部と、前記第1撮像部の前記周囲地図と、前記第2撮像部の前記周囲地図と、を統合した統合地図を作成する地図統合部と、前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記第1撮像部と前記第2撮像部間の位置および姿勢の関係を示すカメラパラメータを算出するカメラパラメータ算出部と、を備える。よって、一例として、平坦な路面や区画線等の特定の物体が存在しない場合でも、第1,2撮像部間の位置姿勢情報の関係を算出することができる。 As an example, the camera calibration device of the embodiment acquires an image of the surroundings of the moving object by a first imaging section and a second imaging section different from the first imaging section, which are mounted on the moving object. an acquisition unit; a KF selection unit that selects a first key frame that is the frame at a predetermined timing from among the frames imaged by each of the first imaging unit and the second imaging unit; a camera position and orientation estimation unit that estimates position and orientation information indicating the respective positions and orientations of the first imaging unit and the second imaging unit based on the image capturing unit; and a camera position and orientation estimation unit that extracts feature points existing in the frame, a map creation unit that creates a surrounding map of each of the first imaging unit and the second imaging unit and including the position and orientation information based on the surrounding map of the first imaging unit; , the surrounding map of the second imaging unit, a map integrating unit that creates an integrated map that integrates the surrounding map of the second imaging unit, the position and orientation information of the first imaging unit in the integrated map, and the position of the second imaging unit and a camera parameter calculation unit that calculates a camera parameter indicating a relationship in position and orientation between the first imaging unit and the second imaging unit based on the orientation information. Therefore, as an example, even when a specific object such as a flat road surface or a lane marking does not exist, the relationship between the position and orientation information between the first and second imaging units can be calculated.
また、実施形態のカメラキャリブレーション装置は、一例として、前記所定タイミングは、1つ前の前記第1キーフレームが撮像されてから所定時間経過するタイミング、または1つ前の前記第1キーフレームが撮像されてから前記移動体が所定距離移動するタイミングである。よって、一例として、複数の撮像部の位置姿勢情報の関係の算出精度を向上させることができる。 Further, in the camera calibration device of the embodiment, for example, the predetermined timing is a timing at which a predetermined period of time has elapsed since the previous first key frame was captured, or a timing when the previous first key frame was captured. This is the timing at which the moving body moves a predetermined distance after being imaged. Therefore, as an example, it is possible to improve the calculation accuracy of the relationship between position and orientation information of a plurality of imaging units.
また、実施形態のカメラキャリブレーション装置は、一例として、前記第1撮像部の前記フレームと、前記第2撮像部の前記フレームと、の類似箇所を検索するシーン検索部をさらに備え、前記地図統合部は、前記第1撮像部の前記フレームと前記第2撮像部の前記フレーム間の前記類似箇所の対応関係、および前記第1撮像部および前記第2撮像部のそれぞれの前記周囲地図の特徴点と前記類似箇所との対応関係に基づいて、前記統合地図を作成する。よって、一例として、高精度な統合地図が作成可能となる。 Further, the camera calibration device of the embodiment further includes, as an example, a scene search unit that searches for a similar portion between the frame of the first imaging unit and the frame of the second imaging unit, and the map integration The part includes correspondence of the similar parts between the frame of the first imaging unit and the frame of the second imaging unit, and feature points of the surrounding maps of each of the first imaging unit and the second imaging unit. The integrated map is created based on the correspondence between the and the similar locations. Therefore, as an example, a highly accurate integrated map can be created.
また、実施形態のカメラキャリブレーションン装置は、一例として、前記地図作成部は、所定フレームの特徴点と、当該所定フレームより前の前記フレームの特徴点と、が一致する数または割合が所定値以下となる場合に、前記所定フレームを第2キーフレームとして選択し、前記第2キーフレーム内に存在する前記特徴点に基づいて、前記周囲地図を作成する。よって、一例として、周囲地図の精度を向上させることができる。 Further, in the camera calibration device of the embodiment, as an example, the map creation unit may set a predetermined value to a predetermined number or ratio of matching feature points of a predetermined frame and feature points of the frame before the predetermined frame. In the following cases, the predetermined frame is selected as a second key frame, and the surrounding map is created based on the feature points existing in the second key frame. Therefore, as an example, the accuracy of the surrounding map can be improved.
また、実施形態のカメラキャリブレーションン装置は、一例として、前記統合地図を全体最適化する全体最適化部をさらに備え、前記カメラパラメータ算出部は、全体最適化された前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記カメラパラメータを算出する。よって、一例として、第1,2撮像部間における位置姿勢情報の関係をより高精度に求めることができる。 Further, the camera calibration device of the embodiment further includes, as an example, an overall optimization unit that entirely optimizes the integrated map, and the camera parameter calculation unit is configured to perform the overall optimization of the integrated map. The camera parameters are calculated based on the position and orientation information of the first imaging unit and the position and orientation information of the second imaging unit. Therefore, as an example, the relationship between the position and orientation information between the first and second imaging units can be determined with higher accuracy.
また、実施形態のカメラキャリブレーション装置は、一例として、前記移動体は、車両であり、前記シーン検索部は、前記車両の駐車時における、前記第1撮像部の前記フレームと、前記第2撮像部の前記フレームと、の前記類似箇所を検索する。 Further, in the camera calibration device of the embodiment, as an example, the moving object is a vehicle, and the scene search unit is configured to retrieve the frame of the first imaging unit and the second imaging unit when the vehicle is parked. The similar portion of the frame is searched for.
また、実施形態のカメラキャリブレーションン装置は、一例として、前記シーン検索部は、前記車両の切り返し前の前記第1撮像部の前記フレームと、前記車両の切り返し後の前記第2撮像部の前記フレームと、の前記類似箇所を検索する。よって、一例として、類似箇所の検索による処理負荷を軽減することができる。 Further, in the camera calibration device of the embodiment, as an example, the scene search unit may search the frame of the first imaging unit before the vehicle turns back, and the frame of the second imaging unit after the vehicle turns back. The similar portion of the frame is searched. Therefore, as an example, the processing load due to searching for similar locations can be reduced.
また、実施形態のカメラキャリブレーションン装置は、一例として、前記シーン検索部は、前記車両の駐車開始位置と切り返し位置との間の中間領域における前記第1撮像部の前記フレームと、および前記車両の切り返し位置から駐車目標位置までの中間領域における前記第2撮像部の前記フレームと、の前記類似箇所を検索する。よって、一例として、類似箇所の検索による処理負荷をより軽減することができる。 Further, in the camera calibration device of the embodiment, as an example, the scene search unit may search the frame of the first imaging unit in an intermediate area between the parking start position and the turning position of the vehicle, and The similar portion to the frame of the second imaging unit is searched for in an intermediate region from the turning position to the parking target position. Therefore, as an example, the processing load due to searching for similar locations can be further reduced.
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によって実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。 Exemplary embodiments of the invention are disclosed below. The configuration of the embodiment shown below, and the actions, results, and effects brought about by the configuration are examples. The present invention can be realized by configurations other than those disclosed in the embodiments below, and at least one of various effects and derivative effects based on the basic configuration can be obtained.
本実施形態にかかるカメラキャリブレーション装置を搭載する車両は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であっても良いし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であっても良いし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であっても良い。また、車両は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両における車輪の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。 The vehicle equipped with the camera calibration device according to the present embodiment may be a vehicle that uses an internal combustion engine as a drive source (internal combustion engine vehicle), or a vehicle that uses an electric motor as a drive source (electric vehicle). The vehicle may be an automobile, a fuel cell vehicle, etc.), or a vehicle using both of these as drive sources (hybrid vehicle). Further, the vehicle can be equipped with various transmission devices, and various devices (systems, parts, etc.) necessary for driving the internal combustion engine and the electric motor. Furthermore, the system, number, layout, etc. of devices related to driving the wheels of the vehicle can be set in various ways.
図1は、本実施形態にかかるカメラキャリブレーション装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。図1に示すように、車両1は、車体2と、操舵部4と、加速操作部5と、制動操作部6と、変速操作部7と、モニタ装置11と、を備える。車体2は、乗員が乗車する車室2aを有する。車室2a内には、乗員としての運転手が座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転手の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転手の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。
FIG. 1 is a perspective view showing an example of a state in which a part of the cabin of a vehicle in which the camera calibration device according to the present embodiment is mounted is seen through. As shown in FIG. 1, the
モニタ装置11は、例えば、ダッシュボード24の車幅方向(すなわち、左右方向)の中央部に設けられる。モニタ装置11は、例えば、ナビゲーションシステムまたはオーディオシステム等の機能を有していても良い。モニタ装置11は、表示装置8、音声出力装置9、および操作入力部10を有する。また、モニタ装置11は、スイッチ、ダイヤル、ジョイスティック、および押しボタン等の各種の操作入力部を有しても良い。
The
表示装置8は、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescent Display)等で構成され、画像データに基づいて各種画像を表示可能である。音声出力装置9は、スピーカ等で構成され、音声データに基づいて各種音声を出力する。音声出力装置9は、車室2a内において、モニタ装置11以外の異なる位置に設けられていても良い。
The
操作入力部10は、タッチパネル等で構成され、乗員による各種情報の入力を可能とする。また、操作入力部10は、表示装置8の表示画面に設けられ、表示装置8に表示される画像を透過可能である。これにより、操作入力部10は、表示装置8の表示画面に表示される画像を乗員に視認させることを可能とする。操作入力部10は、表示装置8の表示画面上における乗員のタッチ操作を検出することによって、乗員による各種情報の入力を受け付ける。
The
図2は、本実施形態にかかる車両の一例の平面図である。図1および図2に示すように、車両1は、四輪自動車等であり、左右2つの前輪3Fと、左右2つの後輪3Rと、を有する。4つの車輪3の全てまたは一部が、転舵可能である。
FIG. 2 is a plan view of an example of a vehicle according to this embodiment. As shown in FIGS. 1 and 2, the
車両1は、複数の撮像部15(車載カメラ)を搭載する。本実施形態では、車両1は、例えば、4つの撮像部15a~15dを搭載する。撮像部15は、CCD(Charge Coupled Device)またはCIS(CMOS Image Sensor)等の撮像素子を有するデジタルカメラである。撮像部15は、所定のフレームレートで車両1の周囲を撮像可能である。そして、撮像部15は、車両1の周囲を撮像して得られた撮像画像を出力する。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には、例えば、140°~220°の範囲を撮像可能である。また、撮像部15の光軸は、斜め下方に向けて設定されている場合もある。
The
具体的には、撮像部15aは、例えば、車体2の後側の端部2eに位置し、リアハッチのドア2hのリアウィンドウの下方の壁部に設けられている。そして、撮像部15aは、車両1の周囲のうち、当該車両1の後方の領域を撮像可能である。撮像部15bは、例えば、車体2の右側の端部2fに位置し、右側のドアミラー2gに設けられている。そして、撮像部15bは、車両1の周囲のうち、当該車両の側方の領域を撮像可能である。撮像部15cは、例えば、車体2の前側、すなわち、車両1の前後方向の前方側の端部2cに位置し、フロントバンパやフロントグリル等に設けられている。そして、撮像部15cは、車両1の周囲のうち、当該車両1の前方の領域を撮像可能である。撮像部15dは、例えば、車体2の左側、すなわち、車幅方向の左側の端部2dに位置し、左側のドアミラー2gに設けられている。そして、撮像部15dは、車両1の周囲のうち、当該車両1の側方の領域を撮像可能である。
Specifically, the
図3は、本実施形態にかかる車両の機能構成の一例を示すブロック図である。次に、図3を用いて、本実施形態にかかる車両1の機能構成の一例について説明する。
FIG. 3 is a block diagram showing an example of the functional configuration of the vehicle according to this embodiment. Next, an example of the functional configuration of the
図3に示すように、車両1は、操舵システム13と、ブレーキシステム18と、舵角センサ19と、アクセルセンサ20と、シフトセンサ21と、車輪速センサ22と、車内ネットワーク23と、ECU(Electronic Control Unit)14と、を備える。
As shown in FIG. 3, the
モニタ装置11、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、およびECU14は、電気通信回線である車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、CAN(Controller Area Network)等により構成される。
The
操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aおよびトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部4に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。
The
ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、およびBBW(Brake By Wire)を含む。
The
ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、および横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、および横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部6の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。
舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。本実施形態では、舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。
The
アクセルセンサ20は、加速操作部5の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。
The
シフトセンサ21は、変速操作部7の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。
The
車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。
The
ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、およびSSD(Solid State Drive)14fを備える。CPU14a、ROM14b、およびRAM14cは、同一の回路基板内に設けられていても良い。
The
CPU14aは、ROM14b等の不揮発性の記憶装置に記憶されたプログラムを読み出し、当該プログラムに従って各種の演算処理を実行する。例えば、CPU14aは、表示装置8に表示させる画像データに対する画像処理、駐車位置等の目標位置までの目標経路に従った車両1の走行の制御、撮像部15のキャリブレーションに関わる処理等を実行する。
The
ROM14bは、各種プログラムおよび当該プログラムの実行に必要なパラメータ等を記憶する。
The
RAM14cは、CPU14aでの演算で用いられる各種データを一時的に記憶する。
The
表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15から取得してCPU14aへ出力する画像データに対する画像処理、CPU14aから取得した画像データを表示装置8に表示させる表示用の画像データへの変換等を実行する。
Among the arithmetic processing performed by the
音声制御部14eは、ECU14での演算処理のうち、主として、CPU14aから取得して音声出力装置9に出力させる音声の処理を実行する。
Among the calculation processing performed by the
SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもCPU14aから取得したデータを記憶し続ける。
The
図4は、本実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。 FIG. 4 is a block diagram showing an example of the functional configuration of an ECU included in the vehicle according to the present embodiment.
次に、図4を用いて、本実施形態にかかる車両1が有するECU14の機能構成の一例について説明する。
Next, an example of the functional configuration of the
図4に示すように、ECU14は、画像取得部401、カメラ位置姿勢推定部402、地図作成部403、完了判定部404、KF選択部405、シーン検索部406、地図統合部407、全体最適化部408、およびカメラパラメータ算出部409を備える。
As shown in FIG. 4, the
例えば、回路基板に搭載されたCPU14a等のプロセッサが、ROM14bまたはSSD14f等の記憶媒体内に格納されたカメラキャリブレーションプログラムを実行することにより、ECU14は、画像取得部401、カメラ位置姿勢推定部402、地図作成部403、完了判定部404、KF選択部405、シーン検索部406、地図統合部407、全体最適化部408、およびカメラパラメータ算出部409の機能を実現する。画像取得部401、カメラ位置姿勢推定部402、地図作成部403、完了判定部404、KF選択部405、シーン検索部406、地図統合部407、全体最適化部408、およびカメラパラメータ算出部409の一部または全部を回路等のハードウェアによって構成しても良い。
For example, when a processor such as the
画像取得部401は、撮像部15によって車両1(移動体の一例)の周囲を撮像して得られる撮像画像(フレーム)を取得する。本実施形態では、画像取得部401は、車両1の駐車時に、撮像部15から、フレームを取得する。これにより、複数の撮像部15によって同一の領域を撮像して得られるフレームを用いて、複数の撮像部15間の位置および姿勢の関係を示すカメラパラメータを算出することができるので、カメラパラメータの算出精度を向上させることができる。例えば、画像取得部401は、操作入力部10を介して、車両1の自動駐車が指示されてから、車両1の駐車が完了するまでの間、撮像部15から、フレームを取得する。
The
KF選択部405は、複数の撮像部15のそれぞれによって撮像されるフレームのうち所定タイミングのフレームである第1キーフレームを選択するKF選択部の一例である。ここで、所定タイミングは、1つ前の第1キーフレームが撮像されてから所定時間経過するタイミング、または、1つ前の第1キーフレームが撮像されてから車両1が所定距離移動するタイミングである。なお、所定時間は、予め設定された時間であり、一定時間であっても良いし、一定時間でなくても良い。また、所定距離は、予め設定された距離であり、一定距離であっても良いし、一定距離でなくても良い。また、複数の撮像部15間において、所定タイミングは、同じタイミングであって良いし、その差分が予め設定された閾値以下のタイミングであっても良い。
The
これにより、同一のタイミングに撮像されたフレームに基づいて推定される位置姿勢情報を用いて、複数の撮像部15間の位置姿勢情報の関係を求めることができる。その結果、複数の撮像部15の位置姿勢情報の関係の算出精度を向上させることができる。
Thereby, the relationship between the position and orientation information between the plurality of
カメラ位置姿勢推定部402は、KF選択部405によって選択される第1キーフレームに基づいて、各撮像部15の位置姿勢情報を推定する推定部の一例である。ここで、位置姿勢情報は、撮像部15の位置(以下、自己位置と言う)および姿勢を示す情報である。例えば、カメラ位置姿勢推定部402は、SFM(Structure from Motion)やVisual Slam等によって、第1キーフレームに基づいて、撮像部15の位置姿勢情報を推定する。本実施形態では、カメラ位置姿勢推定部402は、第1キーフレームに基づいて、各撮像部15の位置姿勢情報を推定しているが、後述する第2キーフレームに基づいても、各撮像部15の位置姿勢情報を推定しても良い。
The camera position and
地図作成部403は、撮像部15により撮像したフレーム内に存在する特徴点を抽出し、当該特徴点に基づいて、各撮像部15の地図(以下、周囲地図と言う)を作成する作成部の一例である。ここで、周囲地図は、車両1の周囲の地図(例えば、三次元の地図)である。また、周囲地図は、撮像部15の自己位置および撮像部15の姿勢(すなわち、位置姿勢情報)を含む。
The
例えば、地図作成部403は、Visual SLAM(Simultaneous Localization And Mapping)やSFM等によって、周囲地図を作成する。具体的には、地図作成部403は、撮像部15により撮像したフレームから特徴点を抽出する。次いで、地図作成部403は、撮像部15の位置姿勢情報、および抽出した特徴点に基づいて、三角測量によって、撮像部15と当該特徴点間の距離を求めることにより、周囲地図を作成する。
For example, the
本実施形態では、地図作成部403は、撮像部15により撮像されるフレームから、第2キーフレームを選択する。ここで、第2キーフレームは、撮像部15により撮像したフレームのうち、後述する地図作成部403による周囲地図の作成において、重要な位置において撮像されたフレームである。例えば、地図作成部403は、所定フレームの特徴点と、当該所定フレームよりも前のフレームの特徴点と、が一致する数または割合が所定値以下となる場合に、当該所定フレームを第2キーフレームとして選択する。ここで、第1キーフレームとして選択されるフレームが第2キーフレームとして選択されても良い。そして、地図作成部403は、撮像部15により撮像したフレームのうち、当該選択した第2キーフレーム内に存在する特徴点に基づいて、周囲地図を作成する。
In this embodiment, the
これにより、周囲地図の作成に用いるフレームの間隔が長くなり過ぎて、高精度な周囲地図の作成に十分な特徴点が得られなくなることを防止できるので、周囲地図の精度を向上させることができる。また、周囲地図の作成に用いるフレームの数が多くなり、当該フレームから抽出される特徴点の数が多くなり過ぎることを防止できるので、周囲地図の作成による処理負荷を軽減することができる。 This prevents the interval between frames used to create a surrounding map from becoming too long and insufficient feature points to create a highly accurate surrounding map, thereby improving the accuracy of the surrounding map. . Further, since it is possible to prevent the number of frames used for creating the surrounding map from increasing and the number of feature points extracted from the frames to become too large, it is possible to reduce the processing load due to creating the surrounding map.
また、本実施形態では、地図作成部403は、車輪速センサ22により検出される車輪3の回転数や、図示しないIMU(Inertial Measurement Unit)によって検出される車両1に作用する角速度や加速度等に基づいて、撮像部15の位置姿勢情報を補正すること等によって、周囲地図に含まれるスケールドリフトの影響を軽減する。
In the present embodiment, the
完了判定部404は、撮像部15の移動が停止して、地図作成部403による周囲地図の作成が完了したか否かを判定する。本実施形態では、完了判定部404は、車輪速センサ22により検出される車輪3の回転数や、図示しないIMUによって検出される車両1に作用する角速度や加速度等に基づいて、撮像部15の移動が停止したか否かを判定する。そして、完了判定部404は、撮像部15の移動が停止したと判定した場合、地図作成部403による周囲地図の作成が完了したと判定する。
The
シーン検索部406は、複数の撮像部15のうちいずれかの撮像部(以下、第1撮像部と言う)15のフレームと、複数の撮像部15のうち第1撮像部15とは異なる撮像部(以下、第2撮像部と言う)15のフレームと、の類似する箇所(例えば、特徴点。以下、類似箇所と言う。)を検索する検索部の一例である。本実施形態では、シーン検索部406は、第1,2撮像部15のそれぞれの周囲地図の作成に用いたフレームから類似箇所を検索する。これにより、第1,2撮像部15のフレーム間の類似箇所の検索精度を高めることができるので、後述する地図統合部407によって高精度な統合地図を作成可能となる。
The
例えば、シーン検索部406は、Bag-Of-Visual Wordsや、Fisher Vectors、Deep Learning等によって、第1,2撮像部15のそれぞれのフレームを特徴量で表現したり、第1,2撮像部15のそれぞれのフレーム間の局所特徴量の類似性を求めたりする。これにより、シーン検索部406は、第1,2撮像部15のそれぞれのフレームに含まれる特徴点のうち、同一領域を撮像した特徴点を、類似箇所として検索する。
For example, the
本実施形態では、シーン検索部406は、完了判定部404によって、地図作成部403による周囲地図の作成が完了したと判定された場合に、第1,2撮像部15のそれぞれのフレームの類似箇所を検索するものとする。
In the present embodiment, when the
地図統合部407は、第1撮像部15の周囲地図と、第2撮像部15の周囲地図と、を統合した地図(以下、統合地図と言う)を作成する統合部の一例である。具体的には、地図統合部407は、第1,2撮像部15のそれぞれのフレーム間における類似箇所の対応関係、および第1,2撮像部15のそれぞれの周囲地図に含まれる特徴点(以下、地図点群と言う)と類似箇所との対応関係に基づいて、第1,2撮像部15のそれぞれの周囲地図に対して、回転、並進、拡縮等を実行する。これにより、地図統合部407は、第1撮像部15の周囲地図と、第2撮像部15の周囲地図と、を統合した統合地図を作成する。
The
本実施形態では、地図統合部407は、第1,2撮像部15のそれぞれの周囲地図に対して、拡縮を実行しているが、車輪速センサ22により検出される車輪3の回転数や、図示しないIMUによって検出される車両1に作用する角速度や加速度等を用いて、絶対的なスケールが求められている場合には、第1,2撮像部15のそれぞれの周囲地図に対して、回転および並進のみを実行して、統合地図を作成しても良い。
In this embodiment, the
全体最適化部408は、地図統合部407により作成される統合地図の全体最適化を実行する。具体的には、全体最適化部408は、第1,2撮像部15のそれぞれのフレーム(本実施形態では、第1キーフレームおよび第2キーフレーム)の特徴点のうち、シーン検索部406により検索した類似箇所以外の特徴点に対応する周囲地図の地図点群が、第1,2撮像部15のそれぞれの周囲地図間において一致するように、統合地図を調整する。これにより、より高精度な統合地図が作成されるので、第1,2撮像部15間における位置姿勢情報の関係をより高精度に求めることができる。
The overall optimization unit 408 executes overall optimization of the integrated map created by the
カメラパラメータ算出部409は、統合地図の所定タイミングにおける第1,2撮像部15のそれぞれの位置姿勢情報に基づいて、第1,2撮像部15間の位置姿勢情報の関係を示すカメラパラメータを算出する。これにより、平坦な路面や区画線等の特定の物体を用いずに統合地図を作成することができるので、平坦な路面や区画線等の特定の物体が存在しない場合でも、第1,2撮像部15間の位置姿勢情報の関係を算出することができる。
The camera
本実施形態では、カメラパラメータ算出部409は、全体最適化部408によって全体最適化された統合地図の所定タイミングにおける第1,2撮像部15のそれぞれの位置姿勢情報に基づいて、カメラパラメータを算出する。これにより、より高精度な統合地図を用いてカメラパラメータを算出することができるので、第1,2撮像部15間の位置姿勢情報の関係の算出精度を向上させることができる。
In the present embodiment, the camera
本実施形態では、カメラパラメータ算出部409は、撮像部15毎に、当該撮像部15とは異なる撮像部15とのカメラパラメータを算出する。そして、カメラパラメータ算出部409は、複数の撮像部15のそれぞれについて算出したカメラパラメータに基づいて、各撮像部15について算出したカメラパラメータを、複数の撮像部15のうちいずれか1つの撮像部15の位置姿勢情報を基準とするカメラパラメータに補正する。
In the present embodiment, the camera
図5は、本実施形態にかかる車両が有するECUによる周辺地図の作成処理の一例を説明するための図である。 FIG. 5 is a diagram for explaining an example of a surrounding map creation process by the ECU included in the vehicle according to the present embodiment.
次に、図5を用いて、本実施形態にかかるECU14による周囲地図の作成処理の一例について説明する。
Next, an example of the process of creating a surrounding map by the
ここでは、図5に示すように、車両1を、駐車開始位置Sから、切り返し位置Tを経由して、駐車目標位置Eに横列駐車する場合における、撮像部15b,15cの周囲地図M1,M2の作成処理について説明する。なお、他の撮像部15a,15dについても、同様にして周囲地図を作成するものとする。
Here, as shown in FIG. 5, surrounding maps M1 and M2 of the
車両1を駐車目標位置Eに対して横列駐車させる場合、地図作成部403は、例えば、図5に示すように、車両1の前方を撮像可能な撮像部15cの第2キーフレーム、および当該撮像部15cの第1キーフレームに基づいて推定される位置姿勢情報I1-1~I1-7に基づいて、周囲地図M1を作成する。ここで、周囲地図M1には、図5に示すように、位置姿勢情報I1-1~I1-7、および撮像部15cの第2キーフレームに含まれる特徴点に対応する地図点群P1~P8が含まれる。
When parking the
また、地図作成部403は、例えば、図5に示すように、車両1の右側方を撮像可能な撮像部15bの第2キーフレーム、および当該撮像部15bの第1キーフレームに基づいて推定した位置姿勢情報I2-1~I2-7に基づいて、周囲地図M2を作成する。周囲地図M2には、図5に示すように、位置姿勢情報I2-1~I2-7、および撮像部15bの第2キーフレームに含まれる特徴点に対応する地図点群P1~P8が含まれる。
Furthermore, as shown in FIG. 5, the
さらに、地図作成部403は、図5に示すように、撮像部15cの第2キーフレームに基づいて推定される位置姿勢情報I1´-1~I1´-7を、周囲地図M1に含める。同様にして、地図作成部403は、図5に示すように、撮像部15bの第2キーフレームに基づいて推定される位置姿勢情報I2´-1~I2´-7を、周囲地図M2に含める。
Furthermore, as shown in FIG. 5, the
ここで、位置姿勢情報I1-1~I1-7,I1´-1~I1´-7,I2-1~I2-7,I2´-1~I2´-7は、図5に示すように、三角錐や四角錐等の錐体により表される。そして、周囲地図M1,M2における錐体の位置が、第1キーフレームまたは第2キーフレームが撮像された撮像部15c,15bの自己位置を表す。また、錐体の底面BAの向きが、撮像部15c,15bの姿勢を表している。
Here, the position and orientation information I1-1 to I1-7, I1'-1 to I1'-7, I2-1 to I2-7, I2'-1 to I2'-7 are as shown in FIG. It is represented by a pyramid such as a triangular pyramid or a square pyramid. The positions of the pyramids in the surrounding maps M1 and M2 represent the self-positions of the
図6は、本実施形態にかかる車両が有するECUによる統合地図の作成処理の一例を説明するための図である。 FIG. 6 is a diagram for explaining an example of an integrated map creation process by the ECU included in the vehicle according to the present embodiment.
次に、図5および図6を用いて、本実施形態にかかる車両1が有するECU14による統合地図の作成処理の一例について説明する。ここでは、撮像部15cの周囲地図M1と撮像部15bの周囲地図M2を統合した統合地図Mを作成する例、および当該統合地図Mを用いて撮像部15cと撮像部15とのカメラパラメータを算出する例について説明するが、他の撮像部15間についても、同様にして、統合地図の作成およびカメラパラメータの算出を実行するものとする。
Next, an example of an integrated map creation process by the
完了判定部404によって、地図作成部403による各撮像部15a~15dの周囲地図の作成が完了したと判定された場合(図5参照)、シーン検索部406は、第1撮像部15の一例である撮像部15cのフレーム(本実施形態では、第2キーフレーム)と、第2撮像部15の一例である撮像部15bのフレーム(本実施形態では、第2キーフレーム)と、の類似箇所を検索する。
When the
すなわち、シーン検索部406は、車両1の駐車時における、第1撮像部15cのフレームと、第2撮像部15bのフレームと、の類似箇所を検索する。これにより、同一の領域を撮像したフレームから類似箇所を検索できる可能性が高まるので、類似箇所の検索精度を高めることができる。
That is, the
本実施形態では、シーン検索部406は、車両1の切り返し前の第1撮像部15cの第2キーフレームと、車両1の切り返し後の第2撮像部15bの第2キーフレームと、の類似箇所を検索する。これにより、複数の撮像部15a~15dの第2キーフレームの中から類似箇所を検索する際に、複数の撮像部15a~15dの第2キーフレームのうち一部の第2キーフレームの中から類似箇所を検索すれば良いので、類似箇所の検索による処理負荷を軽減することができる。
In the present embodiment, the
その際、シーン検索部406は、図5に示すように、車両1の駐車開始位置Sから切り返し位置Tまでの中間領域R1における第1撮像部15cの第2キーフレームと、切り返し位置Tから駐車目標位置Eまでの中間領域R2における第2撮像部15bの第2キーフレームと、の類似箇所を検索することが好ましい。
At this time, as shown in FIG. It is preferable to search for a similar location to the second key frame of the
これにより、複数の撮像部15a~15dの第2キーフレームの中から類似箇所を検索する際に、類似箇所を検索する第2キーフレームを減少させることができるので、類似箇所の検索による処理負荷をより軽減することができる。
As a result, when searching for similar points among the second key frames of the plurality of
次いで、地図統合部407は、図6に示すように、上述したように、第1,2撮像部15c,15bのそれぞれの第2キーフレーム間における類似箇所の対応関係、および周囲地図M1,M2に含まれる地図点群P1~P8と類似箇所との対応関係に基づいて、周囲地図M1,M2に対して、回転、並進、拡縮等を実行する。図5に示す例においては、地図統合部407は、周囲地図M2を時計回りに90度回転させた後、周囲地図M1,M2のそれぞれに含まれる地図点群P1~P8が一致するように、周囲地図M1,M2を並進および拡縮させる。これにより、地図統合部407は、図6に示すように、周囲地図M1,M2を統合した統合地図Mを作成する。
Next, as shown in FIG. 6, the
統合地図Mが作成されると、カメラパラメータ算出部409は、図6に示すように、第1撮像部15cの位置姿勢情報I1-1~I1-7,I1´-1~I1´-7から、予め設定されるタイミング(例えば、所定タイミング)における位置姿勢情報(例えば、位置姿勢情報I1´-7)を抽出する。さらに、カメラパラメータ算出部409は、図6に示すように、第2撮像部15bの位置姿勢情報I2-1~I2-7,I2´-1~I2´-7から、所定タイミングにおける位置姿勢情報(例えば、位置姿勢情報I2´-7)を抽出する。そして、カメラパラメータ算出部409は、位置姿勢情報I1´-7と、位置姿勢情報I2´-7と、に基づいて、第1,2撮像部15c,15b間の位置姿勢情報の関係を示すカメラパラメータを算出する。
When the integrated map M is created, the camera
図7は、本実施形態にかかる車両が有するECUによるカメラパラメータの算出処理の流れの一例を示すフローチャートである。 FIG. 7 is a flowchart illustrating an example of the flow of camera parameter calculation processing performed by the ECU included in the vehicle according to the present embodiment.
次に、図7を用いて、本実施形態にかかる車両1が有するECU14によるカメラパラメータの算出処理の流れの一例について説明する。
Next, an example of the flow of camera parameter calculation processing by the
操作入力部10を介して、車両1の自動駐車が指示されると、画像取得部401によってフレームが取得される度に、地図作成部403は、撮像部15毎に、当該撮像部15の位置姿勢情報および当該撮像部15により撮像した第2キーフレームに基づいて、Visual SLAMやSFM等によって、周囲地図を作成する(ステップS701)。
When automatic parking of the
KF選択部405は、複数の撮像部15のそれぞれのフレームから、第1キーフレームを選択する(ステップS702)。そして、地図作成部403は、第1キーフレームに基づいて推定された位置姿勢情報を、撮像部15のそれぞれの周囲地図に含める。
The
次いで、完了判定部404は、撮像部15の移動が停止して、複数の撮像部15のそれぞれの周囲地図の作成が完了したか否かを判断する(ステップS703)。複数の撮像部15のそれぞれの周囲地図の作成が完了していない場合(ステップS703:No)、ステップS701に戻り、地図作成部403は、周囲地図を作成し続ける。
Next, the
一方、複数の撮像部15のそれぞれの周囲地図の作成が完了した場合(ステップS703:Yes)、シーン検索部406は、複数の撮像部15のうち第1撮像部15の第2キーフレームと、複数の撮像部15のうち第2撮像部15の第2キーフレームと、の類似箇所を検索する(ステップS704)。
On the other hand, when the creation of the surrounding map of each of the plurality of
そして、地図統合部407は、シーン検索部406により検索される類似箇所に基づいて、第1撮像部15の周囲地図と、第2撮像部15の周囲地図と、を統合して、統合地図を作成する(ステップS705)。さらに、全体最適化部408は、作成した統合地図の全体最適化を実行する(ステップS706)。
Then, the
次いで、カメラパラメータ算出部409は、全体最適化された統合地図における、所定タイミングの第1撮像部15および第2撮像部15のそれぞれの位置姿勢情報に基づいて、第1撮像部15と第2撮像部15間の位置姿勢情報の関係を示すカメラパラメータを算出する(ステップS707)。
Next, the camera
このように、本実施形態にかかる車両1によれば、平坦な路面や区画線等の特定の物体を用いずに統合地図を作成することができるので、平坦な路面や区画線等の特定の物体が存在しない場合でも、第1,2撮像部15間の位置姿勢情報の関係を算出することができる。
In this way, according to the
1…車両、14…ECU、14a…CPU、14b…ROM、14c…RAM、14f…SSD、15…撮像部、401…画像取得部、402…カメラ位置姿勢推定部、403…地図作成部、404…完了判定部、405…KF選択部、406…シーン検索部、407…地図統合部、408…全体最適化部、409…カメラパラメータ算出部。 1... Vehicle, 14... ECU, 14a... CPU, 14b... ROM, 14c... RAM, 14f... SSD, 15... Imaging unit, 401... Image acquisition unit, 402... Camera position and orientation estimation unit, 403... Map creation unit, 404 ... Completion determination section, 405... KF selection section, 406... Scene search section, 407... Map integration section, 408... Overall optimization section, 409... Camera parameter calculation section.
Claims (8)
前記第1撮像部および前記第2撮像部のそれぞれによって撮像される前記フレームのうち所定タイミングの前記フレームである第1キーフレームを選択するKF選択部と、
前記第1キーフレームに基づいて、前記第1撮像部および前記第2撮像部のそれぞれの位置および姿勢を示す位置姿勢情報を推定するカメラ位置姿勢推定部と、
前記フレーム内に存在する特徴点を抽出し、当該特徴点に基づいて、前記第1撮像部および前記第2撮像部のそれぞれの周囲の地図でありかつ前記位置姿勢情報を含む周囲地図を作成する地図作成部と、
前記第1撮像部の前記周囲地図と、前記第2撮像部の前記周囲地図と、を統合した統合地図を作成する地図統合部と、
前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記第1撮像部と前記第2撮像部間の位置および姿勢の関係を示すカメラパラメータを算出するカメラパラメータ算出部と、
を備えるカメラキャリブレーション装置。 an image acquisition unit that acquires a frame captured around the moving body by a first imaging unit and a second imaging unit different from the first imaging unit, which is mounted on the moving body;
a KF selection unit that selects a first key frame that is the frame at a predetermined timing from among the frames imaged by each of the first imaging unit and the second imaging unit;
a camera position and orientation estimation unit that estimates position and orientation information indicating positions and orientations of each of the first imaging unit and the second imaging unit, based on the first key frame;
Extracting feature points existing in the frame, and creating a surrounding map that is a map around each of the first imaging unit and the second imaging unit and including the position and orientation information based on the feature points. Cartography department and
a map integration unit that creates an integrated map that integrates the surrounding map of the first imaging unit and the surrounding map of the second imaging unit;
The position and orientation between the first imaging unit and the second imaging unit are determined based on the position and orientation information of the first imaging unit and the position and orientation information of the second imaging unit in the integrated map. a camera parameter calculation unit that calculates camera parameters indicating a relationship;
A camera calibration device comprising:
前記地図統合部は、前記第1撮像部の前記フレームと前記第2撮像部の前記フレーム間の前記類似箇所の対応関係、および前記第1撮像部および前記第2撮像部のそれぞれの前記周囲地図の特徴点と前記類似箇所との対応関係に基づいて、前記統合地図を作成する請求項1または2に記載のカメラキャリブレーション装置。 further comprising a scene search unit that searches for a similar portion between the frame of the first imaging unit and the frame of the second imaging unit,
The map integration unit is configured to determine the correspondence of the similar locations between the frame of the first imaging unit and the frame of the second imaging unit, and the surrounding maps of each of the first imaging unit and the second imaging unit. The camera calibration device according to claim 1 or 2, wherein the integrated map is created based on the correspondence between the feature points and the similar locations.
前記カメラパラメータ算出部は、全体最適化された前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記カメラパラメータを算出する請求項1から4のいずれか一に記載のカメラキャリブレーション装置。 further comprising an overall optimization unit that entirely optimizes the integrated map,
The camera parameter calculation unit calculates the camera parameters based on the position and orientation information of the first imaging unit and the position and orientation information of the second imaging unit in the overall optimized integrated map. The camera calibration device according to any one of claims 1 to 4.
前記シーン検索部は、前記車両の駐車時における、前記第1撮像部の前記フレームと、前記第2撮像部の前記フレームと、の前記類似箇所を検索する請求項3に記載のカメラキャリブレーション装置。 The mobile object is a vehicle,
The camera calibration device according to claim 3, wherein the scene search unit searches for the similar portion between the frame of the first imaging unit and the frame of the second imaging unit when the vehicle is parked. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019208817A JP7358933B2 (en) | 2019-11-19 | 2019-11-19 | camera calibration device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019208817A JP7358933B2 (en) | 2019-11-19 | 2019-11-19 | camera calibration device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021081989A JP2021081989A (en) | 2021-05-27 |
JP7358933B2 true JP7358933B2 (en) | 2023-10-11 |
Family
ID=75965247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019208817A Active JP7358933B2 (en) | 2019-11-19 | 2019-11-19 | camera calibration device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7358933B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117151140B (en) * | 2023-10-27 | 2024-02-06 | 安徽容知日新科技股份有限公司 | Target identification code identification method, device and computer readable storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007263669A (en) | 2006-03-28 | 2007-10-11 | Denso It Laboratory Inc | Three-dimensional coordinates acquisition system |
JP2009237845A (en) | 2008-03-27 | 2009-10-15 | Sony Corp | Information processor, information processing method, and computer program |
JP2019133324A (en) | 2018-01-30 | 2019-08-08 | 株式会社Soken | Object detection device and parking assist device |
JP2019132664A (en) | 2018-01-30 | 2019-08-08 | 株式会社豊田中央研究所 | Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program |
-
2019
- 2019-11-19 JP JP2019208817A patent/JP7358933B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007263669A (en) | 2006-03-28 | 2007-10-11 | Denso It Laboratory Inc | Three-dimensional coordinates acquisition system |
JP2009237845A (en) | 2008-03-27 | 2009-10-15 | Sony Corp | Information processor, information processing method, and computer program |
JP2019133324A (en) | 2018-01-30 | 2019-08-08 | 株式会社Soken | Object detection device and parking assist device |
JP2019132664A (en) | 2018-01-30 | 2019-08-08 | 株式会社豊田中央研究所 | Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program |
Non-Patent Citations (2)
Title |
---|
Raul MUR-ARTAL et al.,ORB-SLAM: A Versatile and Accurate Monocular SLAM System,IEEE Transactions on Robotics,IEEE,2015年10月,Vol. 31,No. 5,pp.1147-1163 |
山尾創輔他,カメラの移動撮影に基づく簡便なオンライン3次元計測システムの検討,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2014-CVIM-192 [online] ,日本,情報処理学会,2014年05月08日,pp.1-8 |
Also Published As
Publication number | Publication date |
---|---|
JP2021081989A (en) | 2021-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102313026B1 (en) | Vehicle and method for collision avoidance assist when backing up the vehicle | |
US10173670B2 (en) | Parking assistance device | |
US10031227B2 (en) | Parking assist system | |
JP6015314B2 (en) | Device for calculating parking target position, method and program for calculating parking target position | |
CN107792061B (en) | Parking assist apparatus | |
US20160114795A1 (en) | Parking assist system and parking assist method | |
JP7351172B2 (en) | parking assist device | |
JP7151293B2 (en) | Vehicle peripheral display device | |
US10489950B2 (en) | Display control device for displaying a captured image of a vehicle periphery | |
JP2016060219A (en) | Vehicle position detector | |
JP7211047B2 (en) | Road surface detection device and road surface detection program | |
US10926701B2 (en) | Parking assistance method and parking assistance device | |
JP7091624B2 (en) | Image processing equipment | |
US10540807B2 (en) | Image processing device | |
JP7148064B2 (en) | Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program | |
JP2021154969A (en) | Obstacle detection device, obstacle detection method and program | |
JP7358933B2 (en) | camera calibration device | |
JP7427907B2 (en) | parking assist device | |
JP7367375B2 (en) | Specific area detection device | |
JP7114919B2 (en) | Driving support device | |
JP7383973B2 (en) | parking assist device | |
WO2023188927A1 (en) | Own position error estimation device and own position error estimation method | |
JP7380058B2 (en) | parking assist device | |
JP7506645B2 (en) | Parking Assistance Device | |
WO2023090186A1 (en) | Parking assistance device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7358933 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |