JP7358933B2 - camera calibration device - Google Patents

camera calibration device Download PDF

Info

Publication number
JP7358933B2
JP7358933B2 JP2019208817A JP2019208817A JP7358933B2 JP 7358933 B2 JP7358933 B2 JP 7358933B2 JP 2019208817 A JP2019208817 A JP 2019208817A JP 2019208817 A JP2019208817 A JP 2019208817A JP 7358933 B2 JP7358933 B2 JP 7358933B2
Authority
JP
Japan
Prior art keywords
imaging unit
unit
frame
map
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019208817A
Other languages
Japanese (ja)
Other versions
JP2021081989A (en
Inventor
和孝 早川
英昭 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2019208817A priority Critical patent/JP7358933B2/en
Publication of JP2021081989A publication Critical patent/JP2021081989A/en
Application granted granted Critical
Publication of JP7358933B2 publication Critical patent/JP7358933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明の実施形態は、カメラキャリブレーション装置に関する。 Embodiments of the present invention relate to a camera calibration device.

車両等の移動体に搭載される複数のカメラによって当該移動体の周囲を撮像した画像から、2つの区画線が交差する2つの特徴点、および当該2つの区画線の方向を検出し、その検出結果に基づいて、移動体およびその周囲の俯瞰画像を生成し、当該俯瞰画像において、2つの特徴点が水平または垂直の位置関係となり、かつ2つの区画線が直角に交わるように、カメラのキャリブレーションを実行する技術が開発されている。 Detects two feature points where two marking lines intersect and the direction of the two marking lines from images taken around the moving object by multiple cameras mounted on a moving object such as a vehicle. Based on the results, a bird's-eye view image of the moving object and its surroundings is generated, and the camera is calibrated so that the two feature points have a horizontal or vertical positional relationship and the two division lines intersect at right angles in the bird's-eye view image. Techniques have been developed to carry out this process.

特許第5491235号公報Patent No. 5491235

しかしながら、上記の技術では、移動体が走行する路面が平坦であり、かつ当該路面に区画線が存在しなければ、カメラのキャリブレーションを実行することが困難である。 However, with the above technique, it is difficult to calibrate the camera unless the road surface on which the moving object travels is flat and there are no marking lines on the road surface.

そこで、実施形態の課題の一つは、移動体が走行する路面が平坦でない場合や、当該路面に区画線が存在しない場合でも、カメラのキャリブレーションを実行可能となるカメラキャリブレーション装置を提供することである。 Therefore, one of the problems of the embodiment is to provide a camera calibration device that can perform camera calibration even when the road surface on which a moving object runs is not flat or when there are no marking lines on the road surface. That's true.

実施形態のカメラキャリブレーション装置は、一例として、移動体に搭載される、第1撮像部および当該第1撮像部とは異なる第2撮像部によって当該移動体の周囲を撮像したフレームを取得する画像取得部と、前記第1撮像部および前記第2撮像部のそれぞれによって撮像される前記フレームのうち所定タイミングの前記フレームである第1キーフレームを選択するKF選択部と、前記第1キーフレームに基づいて、前記第1撮像部および前記第2撮像部のそれぞれの位置および姿勢を示す位置姿勢情報を推定するカメラ位置姿勢推定部と、前記フレーム内に存在する特徴点を抽出し、当該特徴点に基づいて、前記第1撮像部および前記第2撮像部のそれぞれの周囲の地図でありかつ前記位置姿勢情報を含む周囲地図を作成する地図作成部と、前記第1撮像部の前記周囲地図と、前記第2撮像部の前記周囲地図と、を統合した統合地図を作成する地図統合部と、前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記第1撮像部と前記第2撮像部間の位置および姿勢の関係を示すカメラパラメータを算出するカメラパラメータ算出部と、を備える。よって、一例として、平坦な路面や区画線等の特定の物体が存在しない場合でも、第1,2撮像部間の位置姿勢情報の関係を算出することができる。 As an example, the camera calibration device of the embodiment acquires an image of the surroundings of the moving object by a first imaging section and a second imaging section different from the first imaging section, which are mounted on the moving object. an acquisition unit; a KF selection unit that selects a first key frame that is the frame at a predetermined timing from among the frames imaged by each of the first imaging unit and the second imaging unit; a camera position and orientation estimation unit that estimates position and orientation information indicating the respective positions and orientations of the first imaging unit and the second imaging unit based on the image capturing unit; and a camera position and orientation estimation unit that extracts feature points existing in the frame, a map creation unit that creates a surrounding map of each of the first imaging unit and the second imaging unit and including the position and orientation information based on the surrounding map of the first imaging unit; , the surrounding map of the second imaging unit, a map integrating unit that creates an integrated map that integrates the surrounding map of the second imaging unit, the position and orientation information of the first imaging unit in the integrated map, and the position of the second imaging unit and a camera parameter calculation unit that calculates a camera parameter indicating a relationship in position and orientation between the first imaging unit and the second imaging unit based on the orientation information. Therefore, as an example, even when a specific object such as a flat road surface or a lane marking does not exist, the relationship between the position and orientation information between the first and second imaging units can be calculated.

また、実施形態のカメラキャリブレーション装置は、一例として、前記所定タイミングは、1つ前の前記第1キーフレームが撮像されてから所定時間経過するタイミング、または1つ前の前記第1キーフレームが撮像されてから前記移動体が所定距離移動するタイミングである。よって、一例として、複数の撮像部の位置姿勢情報の関係の算出精度を向上させることができる。 Further, in the camera calibration device of the embodiment, for example, the predetermined timing is a timing at which a predetermined period of time has elapsed since the previous first key frame was captured, or a timing when the previous first key frame was captured. This is the timing at which the moving body moves a predetermined distance after being imaged. Therefore, as an example, it is possible to improve the calculation accuracy of the relationship between position and orientation information of a plurality of imaging units.

また、実施形態のカメラキャリブレーション装置は、一例として、前記第1撮像部の前記フレームと、前記第2撮像部の前記フレームと、の類似箇所を検索するシーン検索部をさらに備え、前記地図統合部は、前記第1撮像部の前記フレームと前記第2撮像部の前記フレーム間の前記類似箇所の対応関係、および前記第1撮像部および前記第2撮像部のそれぞれの前記周囲地図の特徴点と前記類似箇所との対応関係に基づいて、前記統合地図を作成する。よって、一例として、高精度な統合地図が作成可能となる。 Further, the camera calibration device of the embodiment further includes, as an example, a scene search unit that searches for a similar portion between the frame of the first imaging unit and the frame of the second imaging unit, and the map integration The part includes correspondence of the similar parts between the frame of the first imaging unit and the frame of the second imaging unit, and feature points of the surrounding maps of each of the first imaging unit and the second imaging unit. The integrated map is created based on the correspondence between the and the similar locations. Therefore, as an example, a highly accurate integrated map can be created.

また、実施形態のカメラキャリブレーションン装置は、一例として、前記地図作成部は、所定フレームの特徴点と、当該所定フレームより前の前記フレームの特徴点と、が一致する数または割合が所定値以下となる場合に、前記所定フレームを第2キーフレームとして選択し、前記第2キーフレーム内に存在する前記特徴点に基づいて、前記周囲地図を作成する。よって、一例として、周囲地図の精度を向上させることができる。 Further, in the camera calibration device of the embodiment, as an example, the map creation unit may set a predetermined value to a predetermined number or ratio of matching feature points of a predetermined frame and feature points of the frame before the predetermined frame. In the following cases, the predetermined frame is selected as a second key frame, and the surrounding map is created based on the feature points existing in the second key frame. Therefore, as an example, the accuracy of the surrounding map can be improved.

また、実施形態のカメラキャリブレーションン装置は、一例として、前記統合地図を全体最適化する全体最適化部をさらに備え、前記カメラパラメータ算出部は、全体最適化された前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記カメラパラメータを算出する。よって、一例として、第1,2撮像部間における位置姿勢情報の関係をより高精度に求めることができる。 Further, the camera calibration device of the embodiment further includes, as an example, an overall optimization unit that entirely optimizes the integrated map, and the camera parameter calculation unit is configured to perform the overall optimization of the integrated map. The camera parameters are calculated based on the position and orientation information of the first imaging unit and the position and orientation information of the second imaging unit. Therefore, as an example, the relationship between the position and orientation information between the first and second imaging units can be determined with higher accuracy.

また、実施形態のカメラキャリブレーション装置は、一例として、前記移動体は、車両であり、前記シーン検索部は、前記車両の駐車時における、前記第1撮像部の前記フレームと、前記第2撮像部の前記フレームと、の前記類似箇所を検索する。 Further, in the camera calibration device of the embodiment, as an example, the moving object is a vehicle, and the scene search unit is configured to retrieve the frame of the first imaging unit and the second imaging unit when the vehicle is parked. The similar portion of the frame is searched for.

また、実施形態のカメラキャリブレーションン装置は、一例として、前記シーン検索部は、前記車両の切り返し前の前記第1撮像部の前記フレームと、前記車両の切り返し後の前記第2撮像部の前記フレームと、の前記類似箇所を検索する。よって、一例として、類似箇所の検索による処理負荷を軽減することができる。 Further, in the camera calibration device of the embodiment, as an example, the scene search unit may search the frame of the first imaging unit before the vehicle turns back, and the frame of the second imaging unit after the vehicle turns back. The similar portion of the frame is searched. Therefore, as an example, the processing load due to searching for similar locations can be reduced.

また、実施形態のカメラキャリブレーションン装置は、一例として、前記シーン検索部は、前記車両の駐車開始位置と切り返し位置との間の中間領域における前記第1撮像部の前記フレームと、および前記車両の切り返し位置から駐車目標位置までの中間領域における前記第2撮像部の前記フレームと、の前記類似箇所を検索する。よって、一例として、類似箇所の検索による処理負荷をより軽減することができる。 Further, in the camera calibration device of the embodiment, as an example, the scene search unit may search the frame of the first imaging unit in an intermediate area between the parking start position and the turning position of the vehicle, and The similar portion to the frame of the second imaging unit is searched for in an intermediate region from the turning position to the parking target position. Therefore, as an example, the processing load due to searching for similar locations can be further reduced.

図1は、本実施形態にかかるカメラキャリブレーション装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。FIG. 1 is a perspective view showing an example of a state in which a part of the cabin of a vehicle in which the camera calibration device according to the present embodiment is mounted is seen through. 図2は、本実施形態にかかる車両の一例の平面図である。FIG. 2 is a plan view of an example of a vehicle according to this embodiment. 図3は、本実施形態にかかる車両の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the functional configuration of the vehicle according to this embodiment. 図4は、本実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the functional configuration of an ECU included in the vehicle according to the present embodiment. 図5は、本実施形態にかかる車両が有するECUによる周辺地図の作成処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a surrounding map creation process by the ECU included in the vehicle according to the present embodiment. 図6は、本実施形態にかかる車両が有するECUによる統合地図の作成処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of an integrated map creation process by the ECU included in the vehicle according to the present embodiment. 図7は、本実施形態にかかる車両が有するECUによるカメラパラメータの算出処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the flow of camera parameter calculation processing performed by the ECU included in the vehicle according to the present embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によって実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。 Exemplary embodiments of the invention are disclosed below. The configuration of the embodiment shown below, and the actions, results, and effects brought about by the configuration are examples. The present invention can be realized by configurations other than those disclosed in the embodiments below, and at least one of various effects and derivative effects based on the basic configuration can be obtained.

本実施形態にかかるカメラキャリブレーション装置を搭載する車両は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であっても良いし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であっても良いし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であっても良い。また、車両は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両における車輪の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。 The vehicle equipped with the camera calibration device according to the present embodiment may be a vehicle that uses an internal combustion engine as a drive source (internal combustion engine vehicle), or a vehicle that uses an electric motor as a drive source (electric vehicle). The vehicle may be an automobile, a fuel cell vehicle, etc.), or a vehicle using both of these as drive sources (hybrid vehicle). Further, the vehicle can be equipped with various transmission devices, and various devices (systems, parts, etc.) necessary for driving the internal combustion engine and the electric motor. Furthermore, the system, number, layout, etc. of devices related to driving the wheels of the vehicle can be set in various ways.

図1は、本実施形態にかかるカメラキャリブレーション装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。図1に示すように、車両1は、車体2と、操舵部4と、加速操作部5と、制動操作部6と、変速操作部7と、モニタ装置11と、を備える。車体2は、乗員が乗車する車室2aを有する。車室2a内には、乗員としての運転手が座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転手の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転手の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。 FIG. 1 is a perspective view showing an example of a state in which a part of the cabin of a vehicle in which the camera calibration device according to the present embodiment is mounted is seen through. As shown in FIG. 1, the vehicle 1 includes a vehicle body 2, a steering section 4, an acceleration operation section 5, a brake operation section 6, a speed change operation section 7, and a monitor device 11. The vehicle body 2 has a compartment 2a in which a passenger rides. A steering section 4, an acceleration operation section 5, a brake operation section 6, a speed change operation section 7, etc. are provided in the vehicle interior 2a, with the driver as a passenger facing the seat 2b. The steering unit 4 is, for example, a steering wheel protruding from the dashboard 24. The acceleration operation unit 5 is, for example, an accelerator pedal located under the driver's foot. The brake operation unit 6 is, for example, a brake pedal located under the driver's feet. The speed change operation unit 7 is, for example, a shift lever protruding from the center console.

モニタ装置11は、例えば、ダッシュボード24の車幅方向(すなわち、左右方向)の中央部に設けられる。モニタ装置11は、例えば、ナビゲーションシステムまたはオーディオシステム等の機能を有していても良い。モニタ装置11は、表示装置8、音声出力装置9、および操作入力部10を有する。また、モニタ装置11は、スイッチ、ダイヤル、ジョイスティック、および押しボタン等の各種の操作入力部を有しても良い。 The monitor device 11 is provided, for example, at the center of the dashboard 24 in the vehicle width direction (that is, in the left-right direction). The monitor device 11 may have a function such as a navigation system or an audio system, for example. The monitor device 11 includes a display device 8, an audio output device 9, and an operation input section 10. Furthermore, the monitor device 11 may have various operation input units such as switches, dials, joysticks, and push buttons.

表示装置8は、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescent Display)等で構成され、画像データに基づいて各種画像を表示可能である。音声出力装置9は、スピーカ等で構成され、音声データに基づいて各種音声を出力する。音声出力装置9は、車室2a内において、モニタ装置11以外の異なる位置に設けられていても良い。 The display device 8 is configured with an LCD (Liquid Crystal Display), an OELD (Organic Electroluminescent Display), or the like, and is capable of displaying various images based on image data. The audio output device 9 is composed of a speaker and the like, and outputs various sounds based on audio data. The audio output device 9 may be provided at a different position other than the monitor device 11 within the vehicle compartment 2a.

操作入力部10は、タッチパネル等で構成され、乗員による各種情報の入力を可能とする。また、操作入力部10は、表示装置8の表示画面に設けられ、表示装置8に表示される画像を透過可能である。これにより、操作入力部10は、表示装置8の表示画面に表示される画像を乗員に視認させることを可能とする。操作入力部10は、表示装置8の表示画面上における乗員のタッチ操作を検出することによって、乗員による各種情報の入力を受け付ける。 The operation input unit 10 is configured with a touch panel or the like, and allows the occupant to input various information. Further, the operation input unit 10 is provided on the display screen of the display device 8 and can transmit images displayed on the display device 8 . Thereby, the operation input unit 10 allows the occupant to view the image displayed on the display screen of the display device 8. The operation input unit 10 receives input of various information by the occupant by detecting a touch operation by the occupant on the display screen of the display device 8 .

図2は、本実施形態にかかる車両の一例の平面図である。図1および図2に示すように、車両1は、四輪自動車等であり、左右2つの前輪3Fと、左右2つの後輪3Rと、を有する。4つの車輪3の全てまたは一部が、転舵可能である。 FIG. 2 is a plan view of an example of a vehicle according to this embodiment. As shown in FIGS. 1 and 2, the vehicle 1 is a four-wheel vehicle or the like, and has two left and right front wheels 3F and two left and right rear wheels 3R. All or some of the four wheels 3 are steerable.

車両1は、複数の撮像部15(車載カメラ)を搭載する。本実施形態では、車両1は、例えば、4つの撮像部15a~15dを搭載する。撮像部15は、CCD(Charge Coupled Device)またはCIS(CMOS Image Sensor)等の撮像素子を有するデジタルカメラである。撮像部15は、所定のフレームレートで車両1の周囲を撮像可能である。そして、撮像部15は、車両1の周囲を撮像して得られた撮像画像を出力する。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には、例えば、140°~220°の範囲を撮像可能である。また、撮像部15の光軸は、斜め下方に向けて設定されている場合もある。 The vehicle 1 is equipped with a plurality of imaging units 15 (vehicle cameras). In this embodiment, the vehicle 1 is equipped with, for example, four imaging units 15a to 15d. The imaging unit 15 is a digital camera having an imaging element such as a CCD (Charge Coupled Device) or a CIS (CMOS Image Sensor). The imaging unit 15 is capable of imaging the surroundings of the vehicle 1 at a predetermined frame rate. The imaging unit 15 then outputs a captured image obtained by capturing the surroundings of the vehicle 1. The imaging units 15 each have a wide-angle lens or a fisheye lens, and can image a range of, for example, 140° to 220° in the horizontal direction. Further, the optical axis of the imaging unit 15 may be set diagonally downward.

具体的には、撮像部15aは、例えば、車体2の後側の端部2eに位置し、リアハッチのドア2hのリアウィンドウの下方の壁部に設けられている。そして、撮像部15aは、車両1の周囲のうち、当該車両1の後方の領域を撮像可能である。撮像部15bは、例えば、車体2の右側の端部2fに位置し、右側のドアミラー2gに設けられている。そして、撮像部15bは、車両1の周囲のうち、当該車両の側方の領域を撮像可能である。撮像部15cは、例えば、車体2の前側、すなわち、車両1の前後方向の前方側の端部2cに位置し、フロントバンパやフロントグリル等に設けられている。そして、撮像部15cは、車両1の周囲のうち、当該車両1の前方の領域を撮像可能である。撮像部15dは、例えば、車体2の左側、すなわち、車幅方向の左側の端部2dに位置し、左側のドアミラー2gに設けられている。そして、撮像部15dは、車両1の周囲のうち、当該車両1の側方の領域を撮像可能である。 Specifically, the imaging unit 15a is located, for example, at the rear end 2e of the vehicle body 2, and is provided on a wall below the rear window of the rear hatch door 2h. The imaging unit 15a can image an area behind the vehicle 1 among the surroundings of the vehicle 1. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2, and is provided on the right side door mirror 2g. The imaging unit 15b can image an area around the vehicle 1 to the side of the vehicle. The imaging unit 15c is located, for example, on the front side of the vehicle body 2, that is, on the front end 2c of the vehicle 1 in the longitudinal direction, and is provided on a front bumper, a front grill, or the like. The imaging unit 15c can image an area in front of the vehicle 1 among the surroundings of the vehicle 1. The imaging unit 15d is located, for example, on the left side of the vehicle body 2, that is, on the left end portion 2d in the vehicle width direction, and is provided on the left side door mirror 2g. The imaging unit 15d can image an area on the side of the vehicle 1 among the surroundings of the vehicle 1.

図3は、本実施形態にかかる車両の機能構成の一例を示すブロック図である。次に、図3を用いて、本実施形態にかかる車両1の機能構成の一例について説明する。 FIG. 3 is a block diagram showing an example of the functional configuration of the vehicle according to this embodiment. Next, an example of the functional configuration of the vehicle 1 according to the present embodiment will be described using FIG. 3.

図3に示すように、車両1は、操舵システム13と、ブレーキシステム18と、舵角センサ19と、アクセルセンサ20と、シフトセンサ21と、車輪速センサ22と、車内ネットワーク23と、ECU(Electronic Control Unit)14と、を備える。 As shown in FIG. 3, the vehicle 1 includes a steering system 13, a brake system 18, a steering angle sensor 19, an accelerator sensor 20, a shift sensor 21, a wheel speed sensor 22, an in-vehicle network 23, an ECU ( Electronic Control Unit) 14.

モニタ装置11、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、およびECU14は、電気通信回線である車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、CAN(Controller Area Network)等により構成される。 The monitor device 11, steering system 13, brake system 18, steering angle sensor 19, accelerator sensor 20, shift sensor 21, wheel speed sensor 22, and ECU 14 are electrically connected via an in-vehicle network 23, which is a telecommunications line. ing. The in-vehicle network 23 is configured by a CAN (Controller Area Network) or the like.

操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aおよびトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部4に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。 The steering system 13 is an electric power steering system, an SBW (Steer By Wire) system, or the like. Steering system 13 includes an actuator 13a and a torque sensor 13b. The steering system 13 is electrically controlled by the ECU 14 and the like, and steers the wheels 3 by operating the actuator 13a and adding torque to the steering unit 4 to supplement the steering force. The torque sensor 13b detects the torque that the driver applies to the steering section 4, and transmits the detection result to the ECU 14.

ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、およびBBW(Brake By Wire)を含む。 The brake system 18 includes an ABS (Anti-lock Brake System) that controls the locking of the brakes of the vehicle 1, an electronic stability control (ESC) that suppresses skidding of the vehicle 1 during cornering, and an electronic stability control (ESC) that increases the braking force. It includes an electric brake system that assists the brakes and BBW (Brake By Wire).

ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、および横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、および横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部6の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。 Brake system 18 includes an actuator 18a and a brake sensor 18b. The brake system 18 is electrically controlled by the ECU 14 and the like, and applies braking force to the wheels 3 via the actuator 18a. The brake system 18 detects signs of brake locking, idling of the wheels 3, skidding, etc. from the difference in rotation between the left and right wheels 3, and performs control to suppress locking of the brakes, idling of the wheels 3, and skidding. Execute. The brake sensor 18b is a displacement sensor that detects the position of a brake pedal as a movable part of the brake operation unit 6, and transmits the detection result of the position of the brake pedal to the ECU 14.

舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。本実施形態では、舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。 The steering angle sensor 19 is a sensor that detects the amount of steering of the steering unit 4 such as a steering wheel. In this embodiment, the steering angle sensor 19 is configured with a Hall element or the like, detects the rotation angle of the rotating portion of the steering section 4 as a steering amount, and transmits the detection result to the ECU 14.

アクセルセンサ20は、加速操作部5の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。 The accelerator sensor 20 is a displacement sensor that detects the position of an accelerator pedal as a movable part of the acceleration operation section 5, and transmits the detection result to the ECU 14.

シフトセンサ21は、変速操作部7の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。 The shift sensor 21 is a sensor that detects the position of a movable part (bar, arm, button, etc.) of the speed change operation section 7, and transmits the detection result to the ECU 14.

車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。 The wheel speed sensor 22 is a sensor that includes a Hall element and the like and detects the amount of rotation of the wheel 3 and the number of rotations of the wheel 3 per unit time, and transmits the detection result to the ECU 14.

ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、およびSSD(Solid State Drive)14fを備える。CPU14a、ROM14b、およびRAM14cは、同一の回路基板内に設けられていても良い。 The ECU 14 is composed of a computer or the like, and controls overall control of the vehicle 1 through cooperation of hardware and software. Specifically, the ECU 14 includes a CPU (Central Processing Unit) 14a, a ROM (Read Only Memory) 14b, a RAM (Random Access Memory) 14c, a display control section 14d, an audio control section 14e, and an SSD (Solid State Drive) 14f. Equipped with The CPU 14a, ROM 14b, and RAM 14c may be provided within the same circuit board.

CPU14aは、ROM14b等の不揮発性の記憶装置に記憶されたプログラムを読み出し、当該プログラムに従って各種の演算処理を実行する。例えば、CPU14aは、表示装置8に表示させる画像データに対する画像処理、駐車位置等の目標位置までの目標経路に従った車両1の走行の制御、撮像部15のキャリブレーションに関わる処理等を実行する。 The CPU 14a reads a program stored in a nonvolatile storage device such as a ROM 14b, and executes various arithmetic operations according to the program. For example, the CPU 14a executes image processing on image data to be displayed on the display device 8, control of traveling of the vehicle 1 along a target route to a target position such as a parking position, processing related to calibration of the imaging unit 15, etc. .

ROM14bは、各種プログラムおよび当該プログラムの実行に必要なパラメータ等を記憶する。 The ROM 14b stores various programs and parameters necessary for executing the programs.

RAM14cは、CPU14aでの演算で用いられる各種データを一時的に記憶する。 The RAM 14c temporarily stores various data used in calculations by the CPU 14a.

表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15から取得してCPU14aへ出力する画像データに対する画像処理、CPU14aから取得した画像データを表示装置8に表示させる表示用の画像データへの変換等を実行する。 Among the arithmetic processing performed by the ECU 14, the display control unit 14d mainly processes image data acquired from the imaging unit 15 and output to the CPU 14a, and performs image processing for displaying image data acquired from the CPU 14a on the display device 8. Executes conversion to data, etc.

音声制御部14eは、ECU14での演算処理のうち、主として、CPU14aから取得して音声出力装置9に出力させる音声の処理を実行する。 Among the calculation processing performed by the ECU 14, the audio control unit 14e mainly executes audio processing that is acquired from the CPU 14a and output to the audio output device 9.

SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもCPU14aから取得したデータを記憶し続ける。 The SSD 14f is a rewritable nonvolatile storage unit that continues to store data acquired from the CPU 14a even when the ECU 14 is powered off.

図4は、本実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。 FIG. 4 is a block diagram showing an example of the functional configuration of an ECU included in the vehicle according to the present embodiment.

次に、図4を用いて、本実施形態にかかる車両1が有するECU14の機能構成の一例について説明する。 Next, an example of the functional configuration of the ECU 14 included in the vehicle 1 according to the present embodiment will be described using FIG. 4.

図4に示すように、ECU14は、画像取得部401、カメラ位置姿勢推定部402、地図作成部403、完了判定部404、KF選択部405、シーン検索部406、地図統合部407、全体最適化部408、およびカメラパラメータ算出部409を備える。 As shown in FIG. 4, the ECU 14 includes an image acquisition unit 401, a camera position and orientation estimation unit 402, a map creation unit 403, a completion determination unit 404, a KF selection unit 405, a scene search unit 406, a map integration unit 407, and an overall optimization unit. section 408 and camera parameter calculation section 409.

例えば、回路基板に搭載されたCPU14a等のプロセッサが、ROM14bまたはSSD14f等の記憶媒体内に格納されたカメラキャリブレーションプログラムを実行することにより、ECU14は、画像取得部401、カメラ位置姿勢推定部402、地図作成部403、完了判定部404、KF選択部405、シーン検索部406、地図統合部407、全体最適化部408、およびカメラパラメータ算出部409の機能を実現する。画像取得部401、カメラ位置姿勢推定部402、地図作成部403、完了判定部404、KF選択部405、シーン検索部406、地図統合部407、全体最適化部408、およびカメラパラメータ算出部409の一部または全部を回路等のハードウェアによって構成しても良い。 For example, when a processor such as the CPU 14a mounted on the circuit board executes a camera calibration program stored in a storage medium such as the ROM 14b or the SSD 14f, the ECU 14 can control the image acquisition unit 401, camera position and orientation estimation unit 402, etc. , a map creation section 403, a completion determination section 404, a KF selection section 405, a scene search section 406, a map integration section 407, an overall optimization section 408, and a camera parameter calculation section 409. Image acquisition unit 401, camera position and orientation estimation unit 402, map creation unit 403, completion determination unit 404, KF selection unit 405, scene search unit 406, map integration unit 407, overall optimization unit 408, and camera parameter calculation unit 409. Part or all of it may be configured by hardware such as a circuit.

画像取得部401は、撮像部15によって車両1(移動体の一例)の周囲を撮像して得られる撮像画像(フレーム)を取得する。本実施形態では、画像取得部401は、車両1の駐車時に、撮像部15から、フレームを取得する。これにより、複数の撮像部15によって同一の領域を撮像して得られるフレームを用いて、複数の撮像部15間の位置および姿勢の関係を示すカメラパラメータを算出することができるので、カメラパラメータの算出精度を向上させることができる。例えば、画像取得部401は、操作入力部10を介して、車両1の自動駐車が指示されてから、車両1の駐車が完了するまでの間、撮像部15から、フレームを取得する。 The image acquisition unit 401 acquires a captured image (frame) obtained by capturing the surroundings of the vehicle 1 (an example of a moving object) using the imaging unit 15. In this embodiment, the image acquisition unit 401 acquires frames from the imaging unit 15 when the vehicle 1 is parked. As a result, it is possible to calculate camera parameters indicating the relationship between the positions and postures of the plurality of imaging units 15 using frames obtained by imaging the same area by the plurality of imaging units 15. Calculation accuracy can be improved. For example, the image acquisition unit 401 acquires frames from the imaging unit 15 from when the automatic parking of the vehicle 1 is instructed via the operation input unit 10 until the parking of the vehicle 1 is completed.

KF選択部405は、複数の撮像部15のそれぞれによって撮像されるフレームのうち所定タイミングのフレームである第1キーフレームを選択するKF選択部の一例である。ここで、所定タイミングは、1つ前の第1キーフレームが撮像されてから所定時間経過するタイミング、または、1つ前の第1キーフレームが撮像されてから車両1が所定距離移動するタイミングである。なお、所定時間は、予め設定された時間であり、一定時間であっても良いし、一定時間でなくても良い。また、所定距離は、予め設定された距離であり、一定距離であっても良いし、一定距離でなくても良い。また、複数の撮像部15間において、所定タイミングは、同じタイミングであって良いし、その差分が予め設定された閾値以下のタイミングであっても良い。 The KF selection unit 405 is an example of a KF selection unit that selects a first key frame, which is a frame at a predetermined timing, from among frames imaged by each of the plurality of imaging units 15. Here, the predetermined timing is the timing when a predetermined time has elapsed since the previous first key frame was captured, or the timing when the vehicle 1 has moved a predetermined distance after the previous first key frame was captured. be. Note that the predetermined time is a preset time, and may or may not be a fixed time. Further, the predetermined distance is a distance set in advance, and may or may not be a fixed distance. Furthermore, the predetermined timing between the plurality of imaging units 15 may be the same timing, or may be a timing at which the difference is less than or equal to a preset threshold.

これにより、同一のタイミングに撮像されたフレームに基づいて推定される位置姿勢情報を用いて、複数の撮像部15間の位置姿勢情報の関係を求めることができる。その結果、複数の撮像部15の位置姿勢情報の関係の算出精度を向上させることができる。 Thereby, the relationship between the position and orientation information between the plurality of imaging units 15 can be determined using the position and orientation information estimated based on frames captured at the same timing. As a result, the accuracy of calculating the relationship between the position and orientation information of the plurality of imaging units 15 can be improved.

カメラ位置姿勢推定部402は、KF選択部405によって選択される第1キーフレームに基づいて、各撮像部15の位置姿勢情報を推定する推定部の一例である。ここで、位置姿勢情報は、撮像部15の位置(以下、自己位置と言う)および姿勢を示す情報である。例えば、カメラ位置姿勢推定部402は、SFM(Structure from Motion)やVisual Slam等によって、第1キーフレームに基づいて、撮像部15の位置姿勢情報を推定する。本実施形態では、カメラ位置姿勢推定部402は、第1キーフレームに基づいて、各撮像部15の位置姿勢情報を推定しているが、後述する第2キーフレームに基づいても、各撮像部15の位置姿勢情報を推定しても良い。 The camera position and orientation estimation unit 402 is an example of an estimation unit that estimates the position and orientation information of each imaging unit 15 based on the first key frame selected by the KF selection unit 405. Here, the position and orientation information is information indicating the position (hereinafter referred to as self-position) and orientation of the imaging unit 15. For example, the camera position and orientation estimating unit 402 estimates the position and orientation information of the imaging unit 15 based on the first key frame using SFM (Structure from Motion), Visual Slam, or the like. In this embodiment, the camera position and orientation estimating unit 402 estimates the position and orientation information of each imaging unit 15 based on the first key frame, but it also estimates the position and orientation information of each imaging unit 15 based on the second key frame, which will be described later. 15 position and orientation information may be estimated.

地図作成部403は、撮像部15により撮像したフレーム内に存在する特徴点を抽出し、当該特徴点に基づいて、各撮像部15の地図(以下、周囲地図と言う)を作成する作成部の一例である。ここで、周囲地図は、車両1の周囲の地図(例えば、三次元の地図)である。また、周囲地図は、撮像部15の自己位置および撮像部15の姿勢(すなわち、位置姿勢情報)を含む。 The map creation unit 403 is a creation unit that extracts feature points present in the frame imaged by the imaging unit 15 and creates a map of each imaging unit 15 (hereinafter referred to as a surrounding map) based on the feature points. This is an example. Here, the surrounding map is a map around the vehicle 1 (for example, a three-dimensional map). Further, the surrounding map includes the self-position of the imaging unit 15 and the attitude of the imaging unit 15 (namely, position and orientation information).

例えば、地図作成部403は、Visual SLAM(Simultaneous Localization And Mapping)やSFM等によって、周囲地図を作成する。具体的には、地図作成部403は、撮像部15により撮像したフレームから特徴点を抽出する。次いで、地図作成部403は、撮像部15の位置姿勢情報、および抽出した特徴点に基づいて、三角測量によって、撮像部15と当該特徴点間の距離を求めることにより、周囲地図を作成する。 For example, the map creation unit 403 creates a surrounding map using Visual SLAM (Simultaneous Localization And Mapping), SFM, or the like. Specifically, the map creation unit 403 extracts feature points from the frame captured by the imaging unit 15. Next, the map creation unit 403 creates a surrounding map by determining the distance between the imaging unit 15 and the feature point by triangulation based on the position and orientation information of the imaging unit 15 and the extracted feature points.

本実施形態では、地図作成部403は、撮像部15により撮像されるフレームから、第2キーフレームを選択する。ここで、第2キーフレームは、撮像部15により撮像したフレームのうち、後述する地図作成部403による周囲地図の作成において、重要な位置において撮像されたフレームである。例えば、地図作成部403は、所定フレームの特徴点と、当該所定フレームよりも前のフレームの特徴点と、が一致する数または割合が所定値以下となる場合に、当該所定フレームを第2キーフレームとして選択する。ここで、第1キーフレームとして選択されるフレームが第2キーフレームとして選択されても良い。そして、地図作成部403は、撮像部15により撮像したフレームのうち、当該選択した第2キーフレーム内に存在する特徴点に基づいて、周囲地図を作成する。 In this embodiment, the map creation unit 403 selects the second key frame from the frames imaged by the imaging unit 15. Here, the second key frame is a frame imaged at an important position among the frames imaged by the imaging unit 15 in creating a surrounding map by the map creation unit 403, which will be described later. For example, if the number or ratio of matching feature points of a predetermined frame and feature points of a frame before the predetermined frame is less than or equal to a predetermined value, the map creation unit 403 may select the predetermined frame using the second key. Select as frame. Here, the frame selected as the first key frame may be selected as the second key frame. Then, the map creation unit 403 creates a surrounding map based on the feature points present in the selected second key frame among the frames imaged by the imaging unit 15.

これにより、周囲地図の作成に用いるフレームの間隔が長くなり過ぎて、高精度な周囲地図の作成に十分な特徴点が得られなくなることを防止できるので、周囲地図の精度を向上させることができる。また、周囲地図の作成に用いるフレームの数が多くなり、当該フレームから抽出される特徴点の数が多くなり過ぎることを防止できるので、周囲地図の作成による処理負荷を軽減することができる。 This prevents the interval between frames used to create a surrounding map from becoming too long and insufficient feature points to create a highly accurate surrounding map, thereby improving the accuracy of the surrounding map. . Further, since it is possible to prevent the number of frames used for creating the surrounding map from increasing and the number of feature points extracted from the frames to become too large, it is possible to reduce the processing load due to creating the surrounding map.

また、本実施形態では、地図作成部403は、車輪速センサ22により検出される車輪3の回転数や、図示しないIMU(Inertial Measurement Unit)によって検出される車両1に作用する角速度や加速度等に基づいて、撮像部15の位置姿勢情報を補正すること等によって、周囲地図に含まれるスケールドリフトの影響を軽減する。 In the present embodiment, the map creation unit 403 also calculates the rotational speed of the wheels 3 detected by the wheel speed sensor 22, the angular velocity and acceleration acting on the vehicle 1 detected by an IMU (Inertial Measurement Unit) not shown, etc. Based on this, by correcting the position and orientation information of the imaging unit 15, etc., the influence of scale drift included in the surrounding map is reduced.

完了判定部404は、撮像部15の移動が停止して、地図作成部403による周囲地図の作成が完了したか否かを判定する。本実施形態では、完了判定部404は、車輪速センサ22により検出される車輪3の回転数や、図示しないIMUによって検出される車両1に作用する角速度や加速度等に基づいて、撮像部15の移動が停止したか否かを判定する。そして、完了判定部404は、撮像部15の移動が停止したと判定した場合、地図作成部403による周囲地図の作成が完了したと判定する。 The completion determination unit 404 determines whether the movement of the imaging unit 15 has stopped and the creation of the surrounding map by the map creation unit 403 has been completed. In the present embodiment, the completion determination unit 404 determines whether the image capturing unit 15 Determine whether movement has stopped. When the completion determination unit 404 determines that the movement of the imaging unit 15 has stopped, it determines that the creation of the surrounding map by the map creation unit 403 has been completed.

シーン検索部406は、複数の撮像部15のうちいずれかの撮像部(以下、第1撮像部と言う)15のフレームと、複数の撮像部15のうち第1撮像部15とは異なる撮像部(以下、第2撮像部と言う)15のフレームと、の類似する箇所(例えば、特徴点。以下、類似箇所と言う。)を検索する検索部の一例である。本実施形態では、シーン検索部406は、第1,2撮像部15のそれぞれの周囲地図の作成に用いたフレームから類似箇所を検索する。これにより、第1,2撮像部15のフレーム間の類似箇所の検索精度を高めることができるので、後述する地図統合部407によって高精度な統合地図を作成可能となる。 The scene search unit 406 retrieves a frame from one of the plurality of imaging units 15 (hereinafter referred to as a first imaging unit) 15 and an imaging unit different from the first imaging unit 15 among the plurality of imaging units 15. This is an example of a search unit that searches for similar locations (for example, feature points; hereinafter referred to as similar locations) with frame No. 15 (hereinafter referred to as the second imaging unit). In this embodiment, the scene search unit 406 searches for similar locations from the frames used to create the respective surrounding maps of the first and second imaging units 15 . This makes it possible to improve the accuracy of searching for similar locations between the frames of the first and second imaging units 15, so that a highly accurate integrated map can be created by the map integration unit 407, which will be described later.

例えば、シーン検索部406は、Bag-Of-Visual Wordsや、Fisher Vectors、Deep Learning等によって、第1,2撮像部15のそれぞれのフレームを特徴量で表現したり、第1,2撮像部15のそれぞれのフレーム間の局所特徴量の類似性を求めたりする。これにより、シーン検索部406は、第1,2撮像部15のそれぞれのフレームに含まれる特徴点のうち、同一領域を撮像した特徴点を、類似箇所として検索する。 For example, the scene search unit 406 may express each frame of the first and second imaging units 15 with a feature amount using Bag-Of-Visual Words, Fisher Vectors, Deep Learning, etc. The similarity of local features between each frame is determined. Thereby, the scene search unit 406 searches for feature points captured in the same region among the feature points included in each frame of the first and second imaging units 15 as similar locations.

本実施形態では、シーン検索部406は、完了判定部404によって、地図作成部403による周囲地図の作成が完了したと判定された場合に、第1,2撮像部15のそれぞれのフレームの類似箇所を検索するものとする。 In the present embodiment, when the completion determination unit 404 determines that the creation of the surrounding map by the map creation unit 403 has been completed, the scene search unit 406 detects similar points in each frame of the first and second imaging units 15. shall be searched.

地図統合部407は、第1撮像部15の周囲地図と、第2撮像部15の周囲地図と、を統合した地図(以下、統合地図と言う)を作成する統合部の一例である。具体的には、地図統合部407は、第1,2撮像部15のそれぞれのフレーム間における類似箇所の対応関係、および第1,2撮像部15のそれぞれの周囲地図に含まれる特徴点(以下、地図点群と言う)と類似箇所との対応関係に基づいて、第1,2撮像部15のそれぞれの周囲地図に対して、回転、並進、拡縮等を実行する。これにより、地図統合部407は、第1撮像部15の周囲地図と、第2撮像部15の周囲地図と、を統合した統合地図を作成する。 The map integration unit 407 is an example of an integration unit that creates a map that integrates the surrounding map of the first imaging unit 15 and the surrounding map of the second imaging unit 15 (hereinafter referred to as an integrated map). Specifically, the map integration unit 407 determines the correspondence between similar locations between the respective frames of the first and second imaging units 15 and feature points (hereinafter referred to as , map point group) and similar locations, rotation, translation, scaling, etc. are performed on the respective surrounding maps of the first and second imaging units 15. Thereby, the map integration unit 407 creates an integrated map that integrates the surrounding map of the first imaging unit 15 and the surrounding map of the second imaging unit 15.

本実施形態では、地図統合部407は、第1,2撮像部15のそれぞれの周囲地図に対して、拡縮を実行しているが、車輪速センサ22により検出される車輪3の回転数や、図示しないIMUによって検出される車両1に作用する角速度や加速度等を用いて、絶対的なスケールが求められている場合には、第1,2撮像部15のそれぞれの周囲地図に対して、回転および並進のみを実行して、統合地図を作成しても良い。 In this embodiment, the map integration unit 407 executes scaling of the respective surrounding maps of the first and second imaging units 15, but the rotation speed of the wheels 3 detected by the wheel speed sensor 22, When the absolute scale is determined using the angular velocity, acceleration, etc. acting on the vehicle 1 detected by the IMU (not shown), the rotation An integrated map may be created by performing only translation and translation.

全体最適化部408は、地図統合部407により作成される統合地図の全体最適化を実行する。具体的には、全体最適化部408は、第1,2撮像部15のそれぞれのフレーム(本実施形態では、第1キーフレームおよび第2キーフレーム)の特徴点のうち、シーン検索部406により検索した類似箇所以外の特徴点に対応する周囲地図の地図点群が、第1,2撮像部15のそれぞれの周囲地図間において一致するように、統合地図を調整する。これにより、より高精度な統合地図が作成されるので、第1,2撮像部15間における位置姿勢情報の関係をより高精度に求めることができる。 The overall optimization unit 408 executes overall optimization of the integrated map created by the map integration unit 407. Specifically, the overall optimization unit 408 uses the scene search unit 406 to determine the feature points of each frame of the first and second imaging units 15 (in this embodiment, the first key frame and the second key frame). The integrated map is adjusted so that the map point groups of the surrounding maps corresponding to feature points other than the searched similar locations match between the respective surrounding maps of the first and second imaging units 15. As a result, a more accurate integrated map is created, so that the relationship between the position and orientation information between the first and second imaging units 15 can be determined with higher accuracy.

カメラパラメータ算出部409は、統合地図の所定タイミングにおける第1,2撮像部15のそれぞれの位置姿勢情報に基づいて、第1,2撮像部15間の位置姿勢情報の関係を示すカメラパラメータを算出する。これにより、平坦な路面や区画線等の特定の物体を用いずに統合地図を作成することができるので、平坦な路面や区画線等の特定の物体が存在しない場合でも、第1,2撮像部15間の位置姿勢情報の関係を算出することができる。 The camera parameter calculation unit 409 calculates camera parameters indicating the relationship between the position and orientation information between the first and second imaging units 15 based on the position and orientation information of each of the first and second imaging units 15 at a predetermined timing of the integrated map. do. As a result, it is possible to create an integrated map without using specific objects such as flat road surfaces or lane markings, so even if specific objects such as flat road surfaces or lane markings do not exist, the first and second imaging The relationship between position and orientation information between the parts 15 can be calculated.

本実施形態では、カメラパラメータ算出部409は、全体最適化部408によって全体最適化された統合地図の所定タイミングにおける第1,2撮像部15のそれぞれの位置姿勢情報に基づいて、カメラパラメータを算出する。これにより、より高精度な統合地図を用いてカメラパラメータを算出することができるので、第1,2撮像部15間の位置姿勢情報の関係の算出精度を向上させることができる。 In the present embodiment, the camera parameter calculation unit 409 calculates camera parameters based on the position and orientation information of each of the first and second imaging units 15 at a predetermined timing of the integrated map that has been globally optimized by the global optimization unit 408. do. Thereby, camera parameters can be calculated using a more accurate integrated map, so it is possible to improve the calculation accuracy of the relationship between the position and orientation information between the first and second imaging units 15.

本実施形態では、カメラパラメータ算出部409は、撮像部15毎に、当該撮像部15とは異なる撮像部15とのカメラパラメータを算出する。そして、カメラパラメータ算出部409は、複数の撮像部15のそれぞれについて算出したカメラパラメータに基づいて、各撮像部15について算出したカメラパラメータを、複数の撮像部15のうちいずれか1つの撮像部15の位置姿勢情報を基準とするカメラパラメータに補正する。 In the present embodiment, the camera parameter calculation unit 409 calculates camera parameters for each imaging unit 15 for an imaging unit 15 different from the imaging unit 15 concerned. Then, the camera parameter calculation unit 409 calculates the camera parameters calculated for each imaging unit 15 based on the camera parameters calculated for each of the plurality of imaging units 15, and applies the camera parameters calculated for each imaging unit 15 to one of the imaging units 15 among the plurality of imaging units 15. The camera parameters are corrected based on the position and orientation information of the camera.

図5は、本実施形態にかかる車両が有するECUによる周辺地図の作成処理の一例を説明するための図である。 FIG. 5 is a diagram for explaining an example of a surrounding map creation process by the ECU included in the vehicle according to the present embodiment.

次に、図5を用いて、本実施形態にかかるECU14による周囲地図の作成処理の一例について説明する。 Next, an example of the process of creating a surrounding map by the ECU 14 according to the present embodiment will be described using FIG. 5.

ここでは、図5に示すように、車両1を、駐車開始位置Sから、切り返し位置Tを経由して、駐車目標位置Eに横列駐車する場合における、撮像部15b,15cの周囲地図M1,M2の作成処理について説明する。なお、他の撮像部15a,15dについても、同様にして周囲地図を作成するものとする。 Here, as shown in FIG. 5, surrounding maps M1 and M2 of the imaging units 15b and 15c when the vehicle 1 is parked side by side from the parking start position S to the parking target position E via the turning position T. The creation process will be explained. It is assumed that surrounding maps are created in the same manner for the other imaging units 15a and 15d.

車両1を駐車目標位置Eに対して横列駐車させる場合、地図作成部403は、例えば、図5に示すように、車両1の前方を撮像可能な撮像部15cの第2キーフレーム、および当該撮像部15cの第1キーフレームに基づいて推定される位置姿勢情報I1-1~I1-7に基づいて、周囲地図M1を作成する。ここで、周囲地図M1には、図5に示すように、位置姿勢情報I1-1~I1-7、および撮像部15cの第2キーフレームに含まれる特徴点に対応する地図点群P1~P8が含まれる。 When parking the vehicle 1 side by side with respect to the parking target position E, the map creation unit 403 generates, for example, the second key frame of the imaging unit 15c capable of imaging the front of the vehicle 1, as shown in FIG. A surrounding map M1 is created based on the position and orientation information I1-1 to I1-7 estimated based on the first key frame of the section 15c. Here, as shown in FIG. 5, the surrounding map M1 includes position and orientation information I1-1 to I1-7, and map point groups P1 to P8 corresponding to the feature points included in the second key frame of the imaging unit 15c. is included.

また、地図作成部403は、例えば、図5に示すように、車両1の右側方を撮像可能な撮像部15bの第2キーフレーム、および当該撮像部15bの第1キーフレームに基づいて推定した位置姿勢情報I2-1~I2-7に基づいて、周囲地図M2を作成する。周囲地図M2には、図5に示すように、位置姿勢情報I2-1~I2-7、および撮像部15bの第2キーフレームに含まれる特徴点に対応する地図点群P1~P8が含まれる。 Furthermore, as shown in FIG. 5, the map creation unit 403 estimates the image based on the second key frame of the imaging unit 15b that can image the right side of the vehicle 1 and the first key frame of the imaging unit 15b. A surrounding map M2 is created based on the position and orientation information I2-1 to I2-7. As shown in FIG. 5, the surrounding map M2 includes position and orientation information I2-1 to I2-7 and map point groups P1 to P8 corresponding to the feature points included in the second key frame of the imaging unit 15b. .

さらに、地図作成部403は、図5に示すように、撮像部15cの第2キーフレームに基づいて推定される位置姿勢情報I1´-1~I1´-7を、周囲地図M1に含める。同様にして、地図作成部403は、図5に示すように、撮像部15bの第2キーフレームに基づいて推定される位置姿勢情報I2´-1~I2´-7を、周囲地図M2に含める。 Furthermore, as shown in FIG. 5, the map creation unit 403 includes position and orientation information I1'-1 to I1'-7 estimated based on the second key frame of the imaging unit 15c in the surrounding map M1. Similarly, as shown in FIG. 5, the map creation unit 403 includes position and orientation information I2'-1 to I2'-7 estimated based on the second key frame of the imaging unit 15b in the surrounding map M2. .

ここで、位置姿勢情報I1-1~I1-7,I1´-1~I1´-7,I2-1~I2-7,I2´-1~I2´-7は、図5に示すように、三角錐や四角錐等の錐体により表される。そして、周囲地図M1,M2における錐体の位置が、第1キーフレームまたは第2キーフレームが撮像された撮像部15c,15bの自己位置を表す。また、錐体の底面BAの向きが、撮像部15c,15bの姿勢を表している。 Here, the position and orientation information I1-1 to I1-7, I1'-1 to I1'-7, I2-1 to I2-7, I2'-1 to I2'-7 are as shown in FIG. It is represented by a pyramid such as a triangular pyramid or a square pyramid. The positions of the pyramids in the surrounding maps M1 and M2 represent the self-positions of the imaging units 15c and 15b where the first key frame or the second key frame was imaged. Further, the orientation of the bottom surface BA of the cone represents the attitude of the imaging units 15c and 15b.

図6は、本実施形態にかかる車両が有するECUによる統合地図の作成処理の一例を説明するための図である。 FIG. 6 is a diagram for explaining an example of an integrated map creation process by the ECU included in the vehicle according to the present embodiment.

次に、図5および図6を用いて、本実施形態にかかる車両1が有するECU14による統合地図の作成処理の一例について説明する。ここでは、撮像部15cの周囲地図M1と撮像部15bの周囲地図M2を統合した統合地図Mを作成する例、および当該統合地図Mを用いて撮像部15cと撮像部15とのカメラパラメータを算出する例について説明するが、他の撮像部15間についても、同様にして、統合地図の作成およびカメラパラメータの算出を実行するものとする。 Next, an example of an integrated map creation process by the ECU 14 included in the vehicle 1 according to the present embodiment will be described using FIGS. 5 and 6. Here, an example will be described in which an integrated map M is created by integrating the surrounding map M1 of the imaging unit 15c and the surrounding map M2 of the imaging unit 15b, and camera parameters of the imaging unit 15c and the imaging unit 15 are calculated using the integrated map M. An example will be described in which the integrated map is created and camera parameters are calculated in the same manner for other imaging units 15 as well.

完了判定部404によって、地図作成部403による各撮像部15a~15dの周囲地図の作成が完了したと判定された場合(図5参照)、シーン検索部406は、第1撮像部15の一例である撮像部15cのフレーム(本実施形態では、第2キーフレーム)と、第2撮像部15の一例である撮像部15bのフレーム(本実施形態では、第2キーフレーム)と、の類似箇所を検索する。 When the completion determination unit 404 determines that the map creation unit 403 has completed creating the surrounding map of each imaging unit 15a to 15d (see FIG. 5), the scene search unit 406 is an example of the first imaging unit 15. Similar points between a frame of a certain imaging unit 15c (in this embodiment, the second key frame) and a frame of the imaging unit 15b, which is an example of the second imaging unit 15 (in this embodiment, the second key frame) search for.

すなわち、シーン検索部406は、車両1の駐車時における、第1撮像部15cのフレームと、第2撮像部15bのフレームと、の類似箇所を検索する。これにより、同一の領域を撮像したフレームから類似箇所を検索できる可能性が高まるので、類似箇所の検索精度を高めることができる。 That is, the scene search unit 406 searches for similar locations between the frame of the first imaging unit 15c and the frame of the second imaging unit 15b when the vehicle 1 is parked. This increases the possibility that similar locations can be searched from frames that capture images of the same area, so it is possible to improve the accuracy of searching for similar locations.

本実施形態では、シーン検索部406は、車両1の切り返し前の第1撮像部15cの第2キーフレームと、車両1の切り返し後の第2撮像部15bの第2キーフレームと、の類似箇所を検索する。これにより、複数の撮像部15a~15dの第2キーフレームの中から類似箇所を検索する際に、複数の撮像部15a~15dの第2キーフレームのうち一部の第2キーフレームの中から類似箇所を検索すれば良いので、類似箇所の検索による処理負荷を軽減することができる。 In the present embodiment, the scene search unit 406 searches for similar locations between the second key frame of the first imaging unit 15c before the vehicle 1 turns back and the second key frame of the second imaging unit 15b after the vehicle 1 turns back. Search for. As a result, when searching for similar points among the second key frames of the plurality of imaging units 15a to 15d, it is possible to search for similar points among the second key frames of the plurality of imaging units 15a to 15d. Since it is sufficient to search for similar locations, the processing load due to the search for similar locations can be reduced.

その際、シーン検索部406は、図5に示すように、車両1の駐車開始位置Sから切り返し位置Tまでの中間領域R1における第1撮像部15cの第2キーフレームと、切り返し位置Tから駐車目標位置Eまでの中間領域R2における第2撮像部15bの第2キーフレームと、の類似箇所を検索することが好ましい。 At this time, as shown in FIG. It is preferable to search for a similar location to the second key frame of the second imaging unit 15b in the intermediate region R2 up to the target position E.

これにより、複数の撮像部15a~15dの第2キーフレームの中から類似箇所を検索する際に、類似箇所を検索する第2キーフレームを減少させることができるので、類似箇所の検索による処理負荷をより軽減することができる。 As a result, when searching for similar points among the second key frames of the plurality of imaging units 15a to 15d, the number of second key frames for searching for similar points can be reduced, so the processing load due to the search for similar points can be reduced. can be further reduced.

次いで、地図統合部407は、図6に示すように、上述したように、第1,2撮像部15c,15bのそれぞれの第2キーフレーム間における類似箇所の対応関係、および周囲地図M1,M2に含まれる地図点群P1~P8と類似箇所との対応関係に基づいて、周囲地図M1,M2に対して、回転、並進、拡縮等を実行する。図5に示す例においては、地図統合部407は、周囲地図M2を時計回りに90度回転させた後、周囲地図M1,M2のそれぞれに含まれる地図点群P1~P8が一致するように、周囲地図M1,M2を並進および拡縮させる。これにより、地図統合部407は、図6に示すように、周囲地図M1,M2を統合した統合地図Mを作成する。 Next, as shown in FIG. 6, the map integration unit 407 calculates the correspondence of similar locations between the second key frames of the first and second imaging units 15c and 15b, and the surrounding maps M1 and M2, as described above. Rotation, translation, scaling, etc. are performed on the surrounding maps M1 and M2 based on the correspondence between the map point groups P1 to P8 included in the map and similar locations. In the example shown in FIG. 5, the map integration unit 407 rotates the surrounding map M2 clockwise by 90 degrees, and then rotates the surrounding map M2 so that the map point groups P1 to P8 included in each of the surrounding maps M1 and M2 match. Translate and scale the surrounding maps M1 and M2. Thereby, the map integration unit 407 creates an integrated map M that integrates the surrounding maps M1 and M2, as shown in FIG.

統合地図Mが作成されると、カメラパラメータ算出部409は、図6に示すように、第1撮像部15cの位置姿勢情報I1-1~I1-7,I1´-1~I1´-7から、予め設定されるタイミング(例えば、所定タイミング)における位置姿勢情報(例えば、位置姿勢情報I1´-7)を抽出する。さらに、カメラパラメータ算出部409は、図6に示すように、第2撮像部15bの位置姿勢情報I2-1~I2-7,I2´-1~I2´-7から、所定タイミングにおける位置姿勢情報(例えば、位置姿勢情報I2´-7)を抽出する。そして、カメラパラメータ算出部409は、位置姿勢情報I1´-7と、位置姿勢情報I2´-7と、に基づいて、第1,2撮像部15c,15b間の位置姿勢情報の関係を示すカメラパラメータを算出する。 When the integrated map M is created, the camera parameter calculation unit 409 calculates the position and orientation information I1-1 to I1-7, I1'-1 to I1'-7 of the first imaging unit 15c, as shown in FIG. , extracts position and orientation information (for example, position and orientation information I1'-7) at a preset timing (for example, a predetermined timing). Further, as shown in FIG. 6, the camera parameter calculation unit 409 calculates the position and orientation information at a predetermined timing from the position and orientation information I2-1 to I2-7, I2'-1 to I2'-7 of the second imaging unit 15b. (For example, position/orientation information I2'-7) is extracted. Then, the camera parameter calculation unit 409 calculates the camera parameter calculation unit 409, which indicates the relationship between the position and orientation information between the first and second imaging units 15c and 15b, based on the position and orientation information I1′-7 and the position and orientation information I2′-7. Calculate parameters.

図7は、本実施形態にかかる車両が有するECUによるカメラパラメータの算出処理の流れの一例を示すフローチャートである。 FIG. 7 is a flowchart illustrating an example of the flow of camera parameter calculation processing performed by the ECU included in the vehicle according to the present embodiment.

次に、図7を用いて、本実施形態にかかる車両1が有するECU14によるカメラパラメータの算出処理の流れの一例について説明する。 Next, an example of the flow of camera parameter calculation processing by the ECU 14 included in the vehicle 1 according to the present embodiment will be described using FIG. 7 .

操作入力部10を介して、車両1の自動駐車が指示されると、画像取得部401によってフレームが取得される度に、地図作成部403は、撮像部15毎に、当該撮像部15の位置姿勢情報および当該撮像部15により撮像した第2キーフレームに基づいて、Visual SLAMやSFM等によって、周囲地図を作成する(ステップS701)。 When automatic parking of the vehicle 1 is instructed via the operation input unit 10, each time the image acquisition unit 401 acquires a frame, the map creation unit 403 determines the position of the imaging unit 15 for each imaging unit 15. Based on the posture information and the second key frame imaged by the imaging unit 15, a surrounding map is created using Visual SLAM, SFM, etc. (step S701).

KF選択部405は、複数の撮像部15のそれぞれのフレームから、第1キーフレームを選択する(ステップS702)。そして、地図作成部403は、第1キーフレームに基づいて推定された位置姿勢情報を、撮像部15のそれぞれの周囲地図に含める。 The KF selection unit 405 selects a first key frame from each frame of the plurality of imaging units 15 (step S702). Then, the map creation unit 403 includes the position and orientation information estimated based on the first key frame in each surrounding map of the imaging unit 15.

次いで、完了判定部404は、撮像部15の移動が停止して、複数の撮像部15のそれぞれの周囲地図の作成が完了したか否かを判断する(ステップS703)。複数の撮像部15のそれぞれの周囲地図の作成が完了していない場合(ステップS703:No)、ステップS701に戻り、地図作成部403は、周囲地図を作成し続ける。 Next, the completion determination unit 404 determines whether the movement of the imaging unit 15 has stopped and creation of the surrounding map of each of the plurality of imaging units 15 has been completed (step S703). If the creation of surrounding maps for each of the plurality of imaging units 15 is not completed (step S703: No), the process returns to step S701, and the map creation unit 403 continues to create surrounding maps.

一方、複数の撮像部15のそれぞれの周囲地図の作成が完了した場合(ステップS703:Yes)、シーン検索部406は、複数の撮像部15のうち第1撮像部15の第2キーフレームと、複数の撮像部15のうち第2撮像部15の第2キーフレームと、の類似箇所を検索する(ステップS704)。 On the other hand, when the creation of the surrounding map of each of the plurality of imaging units 15 is completed (step S703: Yes), the scene search unit 406 retrieves the second key frame of the first imaging unit 15 among the plurality of imaging units 15, A similar location is searched for with the second key frame of the second imaging unit 15 among the plurality of imaging units 15 (step S704).

そして、地図統合部407は、シーン検索部406により検索される類似箇所に基づいて、第1撮像部15の周囲地図と、第2撮像部15の周囲地図と、を統合して、統合地図を作成する(ステップS705)。さらに、全体最適化部408は、作成した統合地図の全体最適化を実行する(ステップS706)。 Then, the map integration unit 407 integrates the surrounding map of the first imaging unit 15 and the surrounding map of the second imaging unit 15 based on the similar locations searched by the scene search unit 406 to create an integrated map. Create (step S705). Furthermore, the overall optimization unit 408 executes overall optimization of the created integrated map (step S706).

次いで、カメラパラメータ算出部409は、全体最適化された統合地図における、所定タイミングの第1撮像部15および第2撮像部15のそれぞれの位置姿勢情報に基づいて、第1撮像部15と第2撮像部15間の位置姿勢情報の関係を示すカメラパラメータを算出する(ステップS707)。 Next, the camera parameter calculation unit 409 calculates the position and orientation information of the first imaging unit 15 and the second imaging unit 15 at a predetermined timing in the overall optimized integrated map. Camera parameters indicating the relationship of position and orientation information between the imaging units 15 are calculated (step S707).

このように、本実施形態にかかる車両1によれば、平坦な路面や区画線等の特定の物体を用いずに統合地図を作成することができるので、平坦な路面や区画線等の特定の物体が存在しない場合でも、第1,2撮像部15間の位置姿勢情報の関係を算出することができる。 In this way, according to the vehicle 1 according to the present embodiment, it is possible to create an integrated map without using specific objects such as flat road surfaces or lane markings. Even when no object exists, the relationship between the position and orientation information between the first and second imaging units 15 can be calculated.

1…車両、14…ECU、14a…CPU、14b…ROM、14c…RAM、14f…SSD、15…撮像部、401…画像取得部、402…カメラ位置姿勢推定部、403…地図作成部、404…完了判定部、405…KF選択部、406…シーン検索部、407…地図統合部、408…全体最適化部、409…カメラパラメータ算出部。 1... Vehicle, 14... ECU, 14a... CPU, 14b... ROM, 14c... RAM, 14f... SSD, 15... Imaging unit, 401... Image acquisition unit, 402... Camera position and orientation estimation unit, 403... Map creation unit, 404 ... Completion determination section, 405... KF selection section, 406... Scene search section, 407... Map integration section, 408... Overall optimization section, 409... Camera parameter calculation section.

Claims (8)

移動体に搭載される、第1撮像部および当該第1撮像部とは異なる第2撮像部によって当該移動体の周囲を撮像したフレームを取得する画像取得部と、
前記第1撮像部および前記第2撮像部のそれぞれによって撮像される前記フレームのうち所定タイミングの前記フレームである第1キーフレームを選択するKF選択部と、
前記第1キーフレームに基づいて、前記第1撮像部および前記第2撮像部のそれぞれの位置および姿勢を示す位置姿勢情報を推定するカメラ位置姿勢推定部と、
前記フレーム内に存在する特徴点を抽出し、当該特徴点に基づいて、前記第1撮像部および前記第2撮像部のそれぞれの周囲の地図でありかつ前記位置姿勢情報を含む周囲地図を作成する地図作成部と、
前記第1撮像部の前記周囲地図と、前記第2撮像部の前記周囲地図と、を統合した統合地図を作成する地図統合部と、
前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記第1撮像部と前記第2撮像部間の位置および姿勢の関係を示すカメラパラメータを算出するカメラパラメータ算出部と、
を備えるカメラキャリブレーション装置。
an image acquisition unit that acquires a frame captured around the moving body by a first imaging unit and a second imaging unit different from the first imaging unit, which is mounted on the moving body;
a KF selection unit that selects a first key frame that is the frame at a predetermined timing from among the frames imaged by each of the first imaging unit and the second imaging unit;
a camera position and orientation estimation unit that estimates position and orientation information indicating positions and orientations of each of the first imaging unit and the second imaging unit, based on the first key frame;
Extracting feature points existing in the frame, and creating a surrounding map that is a map around each of the first imaging unit and the second imaging unit and including the position and orientation information based on the feature points. Cartography department and
a map integration unit that creates an integrated map that integrates the surrounding map of the first imaging unit and the surrounding map of the second imaging unit;
The position and orientation between the first imaging unit and the second imaging unit are determined based on the position and orientation information of the first imaging unit and the position and orientation information of the second imaging unit in the integrated map. a camera parameter calculation unit that calculates camera parameters indicating a relationship;
A camera calibration device comprising:
前記所定タイミングは、1つ前の前記第1キーフレームが撮像されてから所定時間経過するタイミング、または1つ前の前記第1キーフレームが撮像されてから前記移動体が所定距離移動するタイミングである請求項1に記載のカメラキャリブレーション装置。 The predetermined timing is a timing at which a predetermined time has elapsed since the previous first key frame was captured, or a timing at which the moving body moves a predetermined distance after the previous first key frame was captured. A camera calibration device according to claim 1. 前記第1撮像部の前記フレームと、前記第2撮像部の前記フレームと、の類似箇所を検索するシーン検索部をさらに備え、
前記地図統合部は、前記第1撮像部の前記フレームと前記第2撮像部の前記フレーム間の前記類似箇所の対応関係、および前記第1撮像部および前記第2撮像部のそれぞれの前記周囲地図の特徴点と前記類似箇所との対応関係に基づいて、前記統合地図を作成する請求項1または2に記載のカメラキャリブレーション装置。
further comprising a scene search unit that searches for a similar portion between the frame of the first imaging unit and the frame of the second imaging unit,
The map integration unit is configured to determine the correspondence of the similar locations between the frame of the first imaging unit and the frame of the second imaging unit, and the surrounding maps of each of the first imaging unit and the second imaging unit. The camera calibration device according to claim 1 or 2, wherein the integrated map is created based on the correspondence between the feature points and the similar locations.
前記地図作成部は、所定フレームの特徴点と、当該所定フレームより前の前記フレームの特徴点と、が一致する数または割合が所定値以下となる場合に、前記所定フレームを第2キーフレームとして選択し、前記第2キーフレーム内に存在する前記特徴点に基づいて、前記周囲地図を作成する請求項1から3のいずれか一に記載のカメラキャリブレーション装置。 The map creation unit sets the predetermined frame as a second key frame when the number or proportion of matching feature points of the predetermined frame and the feature points of the frame before the predetermined frame is equal to or less than a predetermined value. The camera calibration device according to any one of claims 1 to 3, wherein the surrounding map is created based on the selected feature points existing in the second key frame. 前記統合地図を全体最適化する全体最適化部をさらに備え、
前記カメラパラメータ算出部は、全体最適化された前記統合地図における、前記第1撮像部の前記位置姿勢情報と、前記第2撮像部の前記位置姿勢情報と、に基づいて、前記カメラパラメータを算出する請求項1から4のいずれか一に記載のカメラキャリブレーション装置。
further comprising an overall optimization unit that entirely optimizes the integrated map,
The camera parameter calculation unit calculates the camera parameters based on the position and orientation information of the first imaging unit and the position and orientation information of the second imaging unit in the overall optimized integrated map. The camera calibration device according to any one of claims 1 to 4.
前記移動体は、車両であり、
前記シーン検索部は、前記車両の駐車時における、前記第1撮像部の前記フレームと、前記第2撮像部の前記フレームと、の前記類似箇所を検索する請求項3に記載のカメラキャリブレーション装置。
The mobile object is a vehicle,
The camera calibration device according to claim 3, wherein the scene search unit searches for the similar portion between the frame of the first imaging unit and the frame of the second imaging unit when the vehicle is parked. .
前記シーン検索部は、前記車両の切り返し前の前記第1撮像部の前記フレームと、前記車両の切り返し後の前記第2撮像部の前記フレームと、の前記類似箇所を検索する請求項6に記載のカメラキャリブレーション装置。 The scene search unit searches for the similar portion between the frame of the first imaging unit before the vehicle turns back and the frame of the second imaging unit after the vehicle turns back. camera calibration device. 前記シーン検索部は、前記車両の駐車開始位置と切り返し位置との間の中間領域における前記第1撮像部の前記フレームと、および前記車両の切り返し位置から駐車目標位置までの中間領域における前記第2撮像部の前記フレームと、の前記類似箇所を検索する請求項7に記載のカメラキャリブレーション装置。 The scene search unit includes the frame of the first imaging unit in an intermediate area between a parking start position and a turning position of the vehicle, and the second frame in an intermediate area from the turning position of the vehicle to a parking target position. The camera calibration device according to claim 7, wherein the camera calibration device searches for the similar portion to the frame of the imaging unit.
JP2019208817A 2019-11-19 2019-11-19 camera calibration device Active JP7358933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019208817A JP7358933B2 (en) 2019-11-19 2019-11-19 camera calibration device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019208817A JP7358933B2 (en) 2019-11-19 2019-11-19 camera calibration device

Publications (2)

Publication Number Publication Date
JP2021081989A JP2021081989A (en) 2021-05-27
JP7358933B2 true JP7358933B2 (en) 2023-10-11

Family

ID=75965247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019208817A Active JP7358933B2 (en) 2019-11-19 2019-11-19 camera calibration device

Country Status (1)

Country Link
JP (1) JP7358933B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117151140B (en) * 2023-10-27 2024-02-06 安徽容知日新科技股份有限公司 Target identification code identification method, device and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263669A (en) 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2009237845A (en) 2008-03-27 2009-10-15 Sony Corp Information processor, information processing method, and computer program
JP2019133324A (en) 2018-01-30 2019-08-08 株式会社Soken Object detection device and parking assist device
JP2019132664A (en) 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007263669A (en) 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2009237845A (en) 2008-03-27 2009-10-15 Sony Corp Information processor, information processing method, and computer program
JP2019133324A (en) 2018-01-30 2019-08-08 株式会社Soken Object detection device and parking assist device
JP2019132664A (en) 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Raul MUR-ARTAL et al.,ORB-SLAM: A Versatile and Accurate Monocular SLAM System,IEEE Transactions on Robotics,IEEE,2015年10月,Vol. 31,No. 5,pp.1147-1163
山尾創輔他,カメラの移動撮影に基づく簡便なオンライン3次元計測システムの検討,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2014-CVIM-192 [online] ,日本,情報処理学会,2014年05月08日,pp.1-8

Also Published As

Publication number Publication date
JP2021081989A (en) 2021-05-27

Similar Documents

Publication Publication Date Title
KR102313026B1 (en) Vehicle and method for collision avoidance assist when backing up the vehicle
US10173670B2 (en) Parking assistance device
US10031227B2 (en) Parking assist system
JP6015314B2 (en) Device for calculating parking target position, method and program for calculating parking target position
CN107792061B (en) Parking assist apparatus
US20160114795A1 (en) Parking assist system and parking assist method
JP7351172B2 (en) parking assist device
JP7151293B2 (en) Vehicle peripheral display device
US10489950B2 (en) Display control device for displaying a captured image of a vehicle periphery
JP2016060219A (en) Vehicle position detector
JP7211047B2 (en) Road surface detection device and road surface detection program
US10926701B2 (en) Parking assistance method and parking assistance device
JP7091624B2 (en) Image processing equipment
US10540807B2 (en) Image processing device
JP7148064B2 (en) Camera parameter estimation device, camera parameter estimation method, and camera parameter estimation program
JP2021154969A (en) Obstacle detection device, obstacle detection method and program
JP7358933B2 (en) camera calibration device
JP7427907B2 (en) parking assist device
JP7367375B2 (en) Specific area detection device
JP7114919B2 (en) Driving support device
JP7383973B2 (en) parking assist device
WO2023188927A1 (en) Own position error estimation device and own position error estimation method
JP7380058B2 (en) parking assist device
JP7506645B2 (en) Parking Assistance Device
WO2023090186A1 (en) Parking assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7358933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150