JP2017112566A - Parameter identification device - Google Patents

Parameter identification device Download PDF

Info

Publication number
JP2017112566A
JP2017112566A JP2015247439A JP2015247439A JP2017112566A JP 2017112566 A JP2017112566 A JP 2017112566A JP 2015247439 A JP2015247439 A JP 2015247439A JP 2015247439 A JP2015247439 A JP 2015247439A JP 2017112566 A JP2017112566 A JP 2017112566A
Authority
JP
Japan
Prior art keywords
parameter
image
unit
vehicle
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015247439A
Other languages
Japanese (ja)
Inventor
謙二 岡野
Kenji Okano
謙二 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015247439A priority Critical patent/JP2017112566A/en
Publication of JP2017112566A publication Critical patent/JP2017112566A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of improving continuity of an image to be displayed on a display device regardless of a loading state of a vehicle.SOLUTION: The present invention relates to a parameter identification device configured to identify camera parameters of multiple cameras that are loaded on a vehicle. The parameter identification device comprises an image acquisition part S110, an image conversion part S120, a target detection part S130, parameter identification parts S170-S250 and S280 and image update parts S260, S270 and S290. The target detection part detects a detection target that is a target captured in each of viewpoint conversion images, from each of viewpoint conversion images. In the case where the detection targets which are detected by the target detection part and based on captured images obtained by imaging specific regions neighboring to each other are discontinuous from each other, the parameter identification part identifies camera parameters of cameras generating the viewpoint conversion images in which the detection targets become continuous to each other, as calibration parameters.SELECTED DRAWING: Figure 3

Description

本発明は、カメラのカメラパラメータを特定するパラメータ特定装置に関する。   The present invention relates to a parameter specifying device that specifies camera parameters of a camera.

特許文献1に記載されているように、車載カメラで撮像した画像を鳥瞰変換し、その鳥瞰画像を表示装置に表示する車載システムが知られている。
この種の車載システムの中には、互いに異なる撮影領域を撮像する複数台の車載カメラと、車載カメラの各々で撮像した画像を画像処理する画像処理装置と、画像処理装置で画像処理が実行された画像を表示する表示装置とを備えたものが提案されている。そして、画像処理装置においては、画像処理として、車載カメラの各々で撮像した画像を鳥瞰変換し、実空間上の同一の地点が一致するように、鳥瞰変換した画像を重ね合わせて表示するトップビュー処理を実行することがなされている。
As described in Patent Document 1, a vehicle-mounted system that performs bird's-eye conversion on an image captured by a vehicle-mounted camera and displays the bird's-eye image on a display device is known.
In this type of in-vehicle system, a plurality of in-vehicle cameras that capture different imaging regions, an image processing device that performs image processing on images captured by each of the in-vehicle cameras, and image processing are executed by the image processing device. There has been proposed a display device that includes a display device for displaying an image. In the image processing apparatus, as image processing, a top view that performs bird's-eye conversion on images captured by each of the on-vehicle cameras and displays the bird's-eye converted images in a superimposed manner so that the same point in the real space matches. Processing is being performed.

特開2014−82622号公報JP 2014-82622 A

画像処理装置において、車載カメラで撮像した画像を鳥瞰変換する場合には、その車載カメラの取付位置、及び取付姿勢を表すカメラパラメータが必要である。
カメラパラメータは、通常、車載カメラが車両に取り付けられた段階、例えば、車両の製造工場にて車載カメラを車両に取り付けた後に特定されて、画像処理装置の記憶部に記憶される。
In the image processing apparatus, when performing bird's-eye conversion of an image captured by an in-vehicle camera, camera parameters indicating the mounting position and mounting orientation of the in-vehicle camera are necessary.
The camera parameters are usually specified at the stage when the in-vehicle camera is attached to the vehicle, for example, after the in-vehicle camera is attached to the vehicle at the vehicle manufacturing factory, and stored in the storage unit of the image processing apparatus.

ところで、車載カメラが搭載された車両が使用される場合、その車両に乗車する人物の人数や、その車両に搭載される荷物の重量は、当該車両が使用されるごとに異なることが多い。このように、車両の積載状態が変化すると、その時点での車載カメラの実際の取付姿勢は、記憶部に記憶された取付姿勢との間に差異を有している可能性が高い。   By the way, when a vehicle equipped with an in-vehicle camera is used, the number of persons riding on the vehicle and the weight of luggage loaded on the vehicle often differ every time the vehicle is used. Thus, when the loading state of the vehicle changes, there is a high possibility that the actual mounting posture of the in-vehicle camera at that time is different from the mounting posture stored in the storage unit.

そして、実際の取付姿勢とはズレを有したカメラパラメータを用いてトップビュー処理を行うと、表示装置に表示される画像は、画像に写り込んだ実空間上の同一地点が不一致となるという課題が生じる。   Then, when top view processing is performed using camera parameters that have a deviation from the actual mounting orientation, the image displayed on the display device is inconsistent at the same point in the real space reflected in the image Occurs.

つまり、従来の技術では、車両の積載状態によっては、表示装置に表示される画像の連続性が損なわれる可能性が高くなるという課題があった。
そこで、本発明は、車両の積載状態に関わらず、表示装置に表示される画像の連続性を向上させることが可能な技術の提供を目的とする。
That is, the conventional technique has a problem that the continuity of images displayed on the display device is likely to be impaired depending on the loading state of the vehicle.
Therefore, an object of the present invention is to provide a technique capable of improving the continuity of images displayed on a display device regardless of the loading state of a vehicle.

上記目的を達成するためになされた本発明の一態様は、車両(5)に搭載された複数のカメラ(10)のカメラパラメータを特定するパラメータ特定装置(20)に関する。
複数のカメラの各々は、規定領域を撮像領域として撮像するように車両に搭載されている。ここで言う規定領域とは、車両の周辺に規定された互いに異なる領域である。さらに、規定領域とは、互いに隣接する領域が実空間において連続するように規定された領域である。
One aspect of the present invention made to achieve the above object relates to a parameter specifying device (20) for specifying camera parameters of a plurality of cameras (10) mounted on a vehicle (5).
Each of the plurality of cameras is mounted on the vehicle so as to capture an image of the specified area as an imaging area. The prescribed areas referred to here are different areas defined around the vehicle. Furthermore, the prescribed area is an area defined such that areas adjacent to each other are continuous in real space.

また、カメラパラメータは、複数のカメラの各々の位置及び姿勢を表すパラメータである。そして、記憶装置(22)には、基準パラメータが記憶されている。基準パラメータとは、複数のカメラの各々が車両に搭載された際に求められたカメラパラメータである。   The camera parameter is a parameter representing the position and orientation of each of the plurality of cameras. The storage device (22) stores reference parameters. The reference parameter is a camera parameter obtained when each of the plurality of cameras is mounted on the vehicle.

パラメータ特定装置は、画像取得部(20,S110)と、画像変換部(20,S120)と、対象検出部(20,S130)と、パラメータ特定部(20,S170〜S250,S280)と、画像更新部(20,S260,S270,S290)とを備える。   The parameter identification device includes an image acquisition unit (20, S110), an image conversion unit (20, S120), a target detection unit (20, S130), a parameter identification unit (20, S170 to S250, S280), an image And an update unit (20, S260, S270, S290).

画像取得部は、複数のカメラの各々から、各カメラで撮像した撮像画像を取得する。そして、画像変換部は、記憶装置に記憶された基準パラメータに基づいて、画像取得部で取得した撮像画像の各々を視点変換した画像である視点変換画像を生成する。   The image acquisition unit acquires a captured image captured by each camera from each of the plurality of cameras. Then, the image conversion unit generates a viewpoint conversion image that is an image obtained by performing viewpoint conversion on each of the captured images acquired by the image acquisition unit, based on the reference parameters stored in the storage device.

さらに、対象検出部は、画像変換部で変換した視点変換画像の各々から、各視点変換画像に写り込んだ対象物である検出対象物を検出する。ここで言う対象物とは、路面上に存在する連続性を有した物体である。   Further, the object detection unit detects a detection object that is an object reflected in each viewpoint conversion image from each of the viewpoint conversion images converted by the image conversion unit. The object referred to here is an object having continuity existing on the road surface.

パラメータ特定部は、対象検出部で検出した検出対象物であって、互いに隣接する規定領域を撮像した撮像画像に基づく検出対象物同士が不連続である場合、較正パラメータを特定する。ここで言う較正パラメータとは、当該検出対象物同士が連続となる視点変換画像を生成するカメラの各々のカメラパラメータである。   The parameter specifying unit specifies the calibration parameter when the detection target detected by the target detection unit is discontinuous and the detection targets based on the captured images obtained by capturing the prescribed regions adjacent to each other are discontinuous. The calibration parameter referred to here is each camera parameter of a camera that generates a viewpoint conversion image in which the detection objects are continuous.

画像更新部は、パラメータ特定部で特定した較正パラメータに基づいて、新たな視点変換画像を生成する。
このようなパラメータ特定装置であれば、各カメラの較正パラメータを特定できる。
The image updating unit generates a new viewpoint conversion image based on the calibration parameter specified by the parameter specifying unit.
With such a parameter specifying device, the calibration parameters of each camera can be specified.

この較正パラメータは、当該較正パラメータに基づいて撮像画像を視点変換した視点変換画像において、検出対象物同士が連続となるカメラパラメータであり、その時点での車両の姿勢を反映したカメラの位置及び姿勢である。   This calibration parameter is a camera parameter in which detection objects are continuous in a viewpoint conversion image obtained by performing viewpoint conversion on a captured image based on the calibration parameter, and the position and orientation of the camera reflecting the posture of the vehicle at that time It is.

つまり、パラメータ特定装置によれば、車両が走行する際に、その車両の姿勢を反映した較正パラメータを順次特定できる。
この結果、パラメータ特定装置によれば、新たに生成される視点変換画像において、検出対象物が不連続、即ち、実空間上の同一地点が不一致となることを低減できる。
That is, according to the parameter specifying device, when the vehicle travels, calibration parameters reflecting the posture of the vehicle can be sequentially specified.
As a result, according to the parameter identification device, it is possible to reduce the discontinuity of the detection target in the newly generated viewpoint conversion image, that is, the mismatch of the same point in the real space.

以上説明したように、パラメータ特定装置によれば、車両の積載状態に関わらず、表示装置に表示される画像の連続性を向上させることができる。
さらに、パラメータ特定装置においては、検出対象物同士が連続となる視点変換画像を生成するカメラの各々のカメラパラメータを較正パラメータとして特定しているため、視点変換画像を生成する全てのカメラにつき較正パラメータを特定できる。
As described above, according to the parameter specifying device, the continuity of images displayed on the display device can be improved regardless of the loading state of the vehicle.
Further, in the parameter identification device, each camera parameter of a camera that generates a viewpoint-converted image in which detection objects are continuous is specified as a calibration parameter. Therefore, the calibration parameter for all cameras that generate viewpoint-converted images. Can be identified.

換言すると、パラメータ特定装置によれば、較正パラメータを特定するために、複数のカメラのうちの一つを基準とする必要がない。このため、パラメータ特定装置によれば、較正パラメータを特定できないカメラが存在することを低減できる。   In other words, according to the parameter specifying device, it is not necessary to use one of the plurality of cameras as a reference in order to specify the calibration parameter. For this reason, according to the parameter specifying device, it is possible to reduce the existence of a camera that cannot specify the calibration parameter.

表示システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a display system. カメラの配置位置を示す説明図である。It is explanatory drawing which shows the arrangement position of a camera. 鳥瞰表示処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a bird's-eye view display process. 鳥瞰表示処理において実行されるパラメータ評価値の算出方法の概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the calculation method of the parameter evaluation value performed in a bird's-eye view display process. 鳥瞰表示処理において実行される、ロール,ピッチ,ヨーの直交性を保つ処理の概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the process which maintains the orthogonality of a roll, a pitch, and a yaw performed in a bird's-eye view display process.

以下に本発明の実施形態を図面と共に説明する。
<1.1 表示システム>
図1に示す表示システム1は、車両5に搭載された複数のカメラ10それぞれのカメラパラメータを特定するシステムである。この表示システム1は、各カメラ10で撮像した画像を、カメラパラメータに基づいて視点変換した画像を生成し表示するシステムである。図2に示すように、本実施形態における車両5は四輪自動車である。
Embodiments of the present invention will be described below with reference to the drawings.
<1.1 Display system>
A display system 1 shown in FIG. 1 is a system that specifies camera parameters of each of a plurality of cameras 10 mounted on a vehicle 5. The display system 1 is a system that generates and displays an image obtained by performing viewpoint conversion on an image captured by each camera 10 based on camera parameters. As shown in FIG. 2, the vehicle 5 in the present embodiment is a four-wheeled vehicle.

この表示システム1は、複数のカメラ10と、入力装置14と、センサ群16と、制御装置20と、表示装置40とを備える。
このうち、カメラ10それぞれは、広角レンズを介して、車両の周囲に規定された規定領域を撮像領域として撮像する周知のカメラである。なお、広角レンズとは、画角が広く(例えば60度以上)、焦点距離の短いレンズである。この広角レンズの一例として、魚眼レンズが考えられる。魚眼レンズとは、例えば画角が180度以上のレンズである。
The display system 1 includes a plurality of cameras 10, an input device 14, a sensor group 16, a control device 20, and a display device 40.
Among these, each of the cameras 10 is a known camera that captures an image of a defined area defined around the vehicle as an imaging area via a wide-angle lens. The wide-angle lens is a lens having a wide angle of view (for example, 60 degrees or more) and a short focal length. As an example of this wide-angle lens, a fish-eye lens can be considered. The fisheye lens is a lens having an angle of view of 180 degrees or more, for example.

ここで言う規定領域は、図2に示すように、車両5の周辺に規定された互いに異なる領域である。この規定領域は、互いに隣接する領域が実空間において連続するように規定されている。ここで言う「連続するように規定された領域」には、互いの領域の一部が重複することを含む。また、撮像領域とは、撮像の対象とする領域である。   The defined areas referred to here are different areas defined around the vehicle 5 as shown in FIG. The defined area is defined such that areas adjacent to each other are continuous in real space. The “region defined so as to be continuous” mentioned here includes that a part of each region overlaps. The imaging region is a region to be imaged.

本実施形態におけるカメラ10には、第1カメラと、第2カメラと、第3カメラと、第4カメラとを含む。
第1カメラは、車両5の前端部に設置され、車両5の前方に規定された規定領域(以下、前方規定領域)を撮影する。第2カメラは、車両5の右側面に設置され、車両5の右側方に規定された規定領域(以下、右規定領域)を撮影する。第3カメラは、車両5の後端部に設置され、車両5の後方に規定された規定領域(以下、後方規定領域)を撮影する。第4カメラは、車両5の左側面に設置され、車両5の左側方に規定された規定領域(以下、左規定領域)を撮影する。
The camera 10 in the present embodiment includes a first camera, a second camera, a third camera, and a fourth camera.
The first camera is installed at the front end of the vehicle 5 and photographs a defined area defined in front of the vehicle 5 (hereinafter referred to as a forward defined area). The second camera is installed on the right side surface of the vehicle 5 and photographs a defined area defined on the right side of the vehicle 5 (hereinafter referred to as a right defined area). The third camera is installed at the rear end of the vehicle 5 and captures a defined area (hereinafter referred to as a rear defined area) defined behind the vehicle 5. The fourth camera is installed on the left side surface of the vehicle 5 and photographs a defined area defined on the left side of the vehicle 5 (hereinafter, left defined area).

入力装置14は、情報の入力を受け付ける周知の装置である。この入力装置14には、キーボードやポインティングデバイス、スイッチなどの各種入力機器を含む。ここで言うポインティングデバイスには、タッチパッドやタッチパネルなどの周知の機構を含む。   The input device 14 is a known device that accepts input of information. The input device 14 includes various input devices such as a keyboard, a pointing device, and a switch. The pointing device here includes a known mechanism such as a touch pad or a touch panel.

さらに、本実施形態の入力装置14は、ダイアグツールであってもよい。ここで言うダイアグツールとは、制御装置20との間で情報の入出力を行うと共に、制御装置20から取得した情報を解析する道具(即ち、ツール)である。   Furthermore, the input device 14 of the present embodiment may be a diagnostic tool. The diagnostic tool referred to here is a tool (that is, a tool) that inputs / outputs information to / from the control device 20 and analyzes information acquired from the control device 20.

センサ群16は、車両5の挙動を検出する複数のセンサである。このセンサ群16には、車両5の車輪速を検出する車輪速センサと、車両5のヨーレートを検出するヨーレートセンサとを含む。なお、センサ群16には、この他に、車両5に加わる加速度を検出する加速度センサなど、車両5の挙動を検出可能なその他のセンサを含んでもよい。   The sensor group 16 is a plurality of sensors that detect the behavior of the vehicle 5. The sensor group 16 includes a wheel speed sensor that detects the wheel speed of the vehicle 5 and a yaw rate sensor that detects the yaw rate of the vehicle 5. In addition, the sensor group 16 may include other sensors capable of detecting the behavior of the vehicle 5 such as an acceleration sensor that detects acceleration applied to the vehicle 5.

表示装置40は、画像を表示する周知の装置である。表示装置40の一例として、液晶ディスプレイが考えられる。
<1.2 制御装置>
制御装置20は、カメラ10それぞれで撮影した画像に基づく処理を実行する装置である。この制御装置20は、記憶部22と、制御部24とを備えている。
The display device 40 is a known device that displays an image. A liquid crystal display is considered as an example of the display device 40.
<1.2 Control device>
The control device 20 is a device that executes processing based on images taken by the cameras 10. The control device 20 includes a storage unit 22 and a control unit 24.

このうち、記憶部22は、書換可能な不揮発性の記憶装置である。この記憶部22の一例として、ハードディスクドライブやフラッシュメモリなどが考えられる。
この記憶部22には、基準パラメータが記憶されている。ここで言う基準パラメータとは、カメラ10の各々が車両5に搭載された際に求められたカメラパラメータである。また、ここで言う「車両5に搭載された際」には、工場において車両5にカメラ10の各々を取り付けた後、工場から車両5を出荷するまでの期間を含む。
Of these, the storage unit 22 is a rewritable nonvolatile storage device. As an example of the storage unit 22, a hard disk drive, a flash memory, or the like can be considered.
The storage unit 22 stores reference parameters. The reference parameter referred to here is a camera parameter obtained when each of the cameras 10 is mounted on the vehicle 5. The term “when mounted on the vehicle 5” here includes a period from when the camera 10 is attached to the vehicle 5 at the factory until the vehicle 5 is shipped from the factory.

また、カメラパラメータとは、カメラ10それぞれの、車両空間上における設置位置及び設置姿勢を表すパラメータである。具体的にカメラパラメータそれぞれには、x座標、y座標、高さz、ピッチΘ,ロールΦ,及びヨーΨを含む。   The camera parameter is a parameter representing the installation position and installation posture of each camera 10 in the vehicle space. Specifically, each camera parameter includes an x coordinate, ay coordinate, a height z, a pitch Θ, a roll Φ, and a yaw Ψ.

x座標は、カメラ10が設置された車両空間上での座標であり、車両5の全長方向に沿った座標である。y座標は、カメラ10が設置された車両空間上での座標であり、車両5の車幅方向に沿った座標である。さらに、高さzは、カメラ10が設置された車両空間上での座標であり、車両5の車高方向に沿った座標である。   The x coordinate is a coordinate on the vehicle space where the camera 10 is installed, and is a coordinate along the full length direction of the vehicle 5. The y coordinate is a coordinate on the vehicle space where the camera 10 is installed, and is a coordinate along the vehicle width direction of the vehicle 5. Further, the height z is a coordinate on the vehicle space where the camera 10 is installed, and is a coordinate along the vehicle height direction of the vehicle 5.

また、ピッチΘは、カメラ10の水平軸周りの回転角を表す。なお、ここで言う水平軸とは、車両5における水平面と平行な軸である。ロールΦは、レンズ中心軸周りの回転角を表す。ヨーΨは、車両5における水平面と直交する軸周りの回転角を表す。   The pitch Θ represents the rotation angle of the camera 10 around the horizontal axis. The horizontal axis referred to here is an axis parallel to the horizontal plane in the vehicle 5. The roll Φ represents a rotation angle around the lens central axis. Yaw Ψ represents a rotation angle around an axis orthogonal to the horizontal plane in the vehicle 5.

制御部24は、ROM26,RAM28,CPU30を有した周知のマイクロコンピュータを中心に構成された周知の制御装置である。ROM26は、電源を切断しても記憶内容を保持する必要のあるデータやプログラムを記憶する。RAM28は、データを一時的に格納する。CPU30は、ROM26またはRAM28に記憶されたプログラムに従って処理を実行する。   The control unit 24 is a known control device that is configured around a known microcomputer having a ROM 26, a RAM 28, and a CPU 30. The ROM 26 stores data and programs that need to retain the stored contents even when the power is turned off. The RAM 28 temporarily stores data. The CPU 30 executes processing according to a program stored in the ROM 26 or RAM 28.

制御部24のROM26には、画像表示処理を制御部24が実行するための処理プログラムが格納されている。この画像表示処理とは、較正パラメータを特定し、その特定した較正パラメータに基づいて、対応するカメラ10で撮像した画像を視点変換した視点変換画像を表示装置40に表示する処理である。なお、ここで言う較正パラメータとは、車両5の姿勢を反映したカメラ10それぞれのカメラパラメータである。
<1.3 画像表示処理>
次に、制御部24が実行する画像表示処理について説明する。
The ROM 26 of the control unit 24 stores a processing program for the control unit 24 to execute image display processing. The image display process is a process of specifying a calibration parameter and displaying on the display device 40 a viewpoint conversion image obtained by converting the viewpoint of the image captured by the corresponding camera 10 based on the specified calibration parameter. The calibration parameters referred to here are camera parameters of the cameras 10 reflecting the attitude of the vehicle 5.
<1.3 Image display processing>
Next, image display processing executed by the control unit 24 will be described.

この画像表示処理は、予め定められた起動指令が入力されると起動される。そして、その後、規定された時間間隔で繰り返し起動される。
なお、ここでいう起動指令とは、画像表示処理を起動する指令であり、例えば、イグニッションスイッチがオンされたことを表す信号であってもよい。
This image display process is activated when a predetermined activation command is input. Then, it is repeatedly activated at specified time intervals.
Note that the activation command here is a command for activating the image display processing, and may be a signal indicating that the ignition switch is turned on, for example.

そして、画像表示処理が起動されると、図3に示すように、制御部24は、まず、複数のカメラ10の各々から、当該カメラ10で撮像した撮像画像を取得する(S110)。ここで言う撮像画像とは、各カメラ10で撮像した画像である。   When the image display process is activated, as illustrated in FIG. 3, the control unit 24 first acquires a captured image captured by the camera 10 from each of the plurality of cameras 10 (S110). The captured image referred to here is an image captured by each camera 10.

さらに、画像表示処理では、制御部24は、記憶部22に記憶されている基準パラメータに基づいて、S110で取得した撮像画像の各々を視点変換し、視点変換画像を生成する(S120)。ここで言う視点変換とは、撮像画像を、予め定められた特定の地点から観測した画像へと変換する周知の処理である。すなわち、視点変換画像とは、撮像画像の各々を視点変換した画像である。この視点変換の一例として、車両5の上空のポイントを特定の地点として、路面上を観測した画像である鳥瞰画像へと変換する鳥瞰変換が考えられる。   Further, in the image display process, the control unit 24 performs viewpoint conversion on each of the captured images acquired in S110 based on the reference parameters stored in the storage unit 22 to generate a viewpoint conversion image (S120). The viewpoint conversion referred to here is a well-known process for converting a captured image into an image observed from a predetermined specific point. That is, the viewpoint converted image is an image obtained by converting the viewpoint of each captured image. As an example of this viewpoint conversion, a bird's-eye conversion that converts a point above the vehicle 5 into a bird's-eye image that is an image observed on the road surface can be considered.

そして、画像表示処理では、制御部24は、S120で生成した視点変換画像の各々から検出対象物を検出し、その検出対象物に関する情報である対象物情報を生成する(S130)。   In the image display process, the control unit 24 detects a detection target from each of the viewpoint conversion images generated in S120, and generates target information that is information about the detection target (S130).

検出対象物とは、各視点変換画像に写り込んだ対象物である。さらに、対象物とは、路面上に存在する連続性を有した物体である。本実施形態における対象物として、道路の交通に関して路面に描かれた道路標示または区画線が考えられる。ここで言う区画線には、車道中央線、車線境界線、車道外側線などを含む。   The detection object is an object reflected in each viewpoint conversion image. Furthermore, the object is an object having continuity existing on the road surface. As an object in the present embodiment, a road marking or a lane marking drawn on the road surface with respect to road traffic can be considered. The lane markings mentioned here include the road center line, the road boundary line, the road outer line, and the like.

なお、視点変換画像から検出対象物を検出する処理は周知であるため、ここでの詳しい説明は省略する。
通常、区画線を検出対象物とした場合、検出対象物は、幅を有した線として検出される。このため、S130にて生成される対象物情報には、視点変換画像上における検出対象物の端辺の長さ、向き、検出対象物としての幅の大きさ、当該検出対象物の基点となる基準座標などを含む。
In addition, since the process which detects a detection target object from a viewpoint conversion image is known, detailed description here is abbreviate | omitted.
Usually, when a division line is used as a detection target, the detection target is detected as a line having a width. For this reason, the object information generated in S130 is the length and direction of the edge of the detection object on the viewpoint conversion image, the size of the width as the detection object, and the base point of the detection object. Includes reference coordinates.

続いて、画像表示処理では、制御部24は、センサ群16の検出結果を取得する(S140)。このS140で取得する検出結果は、車両5の挙動を表す車両挙動である。
さらに、画像表示処理では、制御部24は、車両5の挙動が急変したか否かを判定する(S150)。具体的にS150では、制御部24は、今サイクルにおけるセンサ群16での検出結果が、前サイクルにおけるセンサ群16での検出結果から閾値以上変化していれば、車両5の挙動が急変したものと判定すればよい。
Subsequently, in the image display process, the control unit 24 acquires the detection result of the sensor group 16 (S140). The detection result acquired in S140 is a vehicle behavior representing the behavior of the vehicle 5.
Further, in the image display process, the control unit 24 determines whether or not the behavior of the vehicle 5 has suddenly changed (S150). Specifically, in S150, if the detection result of the sensor group 16 in the current cycle has changed more than a threshold value from the detection result of the sensor group 16 in the previous cycle, the control unit 24 has a sudden change in the behavior of the vehicle 5. Can be determined.

ここで言う前サイクルとは、画像表示処理が前回起動された場合のS110からS300までの一連の処理である。また、ここで言う今サイクルとは、画像表示処理が起動された場合の今回のS110からS300までの一連の処理である。   The previous cycle referred to here is a series of processes from S110 to S300 when the image display process is activated last time. The current cycle referred to here is a series of processes from S110 to S300 this time when the image display process is activated.

このS150での判定の結果、車両5の挙動が急変していなければ(S150:NO)、制御部24は、画像表示処理をS160へと移行させる。そのS160では、制御部24は、今サイクルにおけるS130で生成した対象物情報を記憶部22に記憶する。   As a result of the determination in S150, if the behavior of the vehicle 5 has not changed suddenly (S150: NO), the control unit 24 shifts the image display process to S160. In S160, the control unit 24 stores the object information generated in S130 in the current cycle in the storage unit 22.

本実施形態において、記憶部22に記憶される対象物情報は、少なくとも予め規定された数の規定サイクル数分である。つまり、記憶部22には、規定サイクル数分の対象物情報が蓄積される。なお、記憶部22に記憶される規定サイクル数分の対象物情報は、順次更新されてもよい。   In the present embodiment, the object information stored in the storage unit 22 is at least a predetermined number of predetermined cycles. That is, the storage unit 22 stores object information for the specified number of cycles. Note that the object information for the specified number of cycles stored in the storage unit 22 may be sequentially updated.

制御部24は、その後、画像表示処理をS170へと移行させる。
一方、S150での判定の結果、車両5の挙動が急変していれば(S150:YES)、制御部24は、S160を実行することなく、画像表示処理をS170へと移行させる。
Thereafter, the control unit 24 shifts the image display process to S170.
On the other hand, if the result of determination in S150 is that the behavior of the vehicle 5 has suddenly changed (S150: YES), the control unit 24 shifts the image display processing to S170 without executing S160.

そのS170では、制御部24は、カメラ10の各々に対する仮パラメータの組み合わせを特定し、その仮パラメータの組み合わせを設定する。
仮パラメータとは、カメラ10各々の仮想的なカメラパラメータである。ここで言う仮想的とは、仮にあるものとして想定することである。具体的に仮パラメータのそれぞれには、x座標,y座標,高さz,ピッチΘ,ロールΦ,及びヨーΨを含む。
In S170, the control unit 24 specifies a combination of temporary parameters for each of the cameras 10, and sets the combination of the temporary parameters.
The temporary parameter is a virtual camera parameter of each camera 10. The term “virtual” here refers to the assumption that it is present. Specifically, each of the temporary parameters includes an x coordinate, ay coordinate, a height z, a pitch Θ, a roll Φ, and a yaw Ψ.

なお、本実施形態のS170では、画像表示処理が起動されて最初にS170へと移行した場合には、カメラ10各々の仮パラメータを初期値に設定する。ここで言う初期値とは、予め規定された値である。この初期値の一例として、一つのカメラ10における、決められた特定のパラメータだけ、基準パラメータから規定された規定量だけ変更し、その他のパラメータ、及び他のカメラ10の仮パラメータについては基準パラメータとすることが考えられる。   In S170 of the present embodiment, when the image display process is started and the process proceeds to S170 for the first time, the temporary parameters of each camera 10 are set to initial values. The initial value here is a value defined in advance. As an example of the initial value, only a specific parameter determined in one camera 10 is changed by a specified amount defined from a reference parameter, and other parameters and temporary parameters of other cameras 10 are changed to reference parameters. It is possible to do.

さらに、画像表示処理では、制御部24は、S170で設定した仮パラメータの組み合わせに基づいて、S160で記憶部22に記憶された検出対象物の位置、傾きなどを補正する(S180)。   Further, in the image display process, the control unit 24 corrects the position, inclination, and the like of the detection target stored in the storage unit 22 in S160 based on the combination of temporary parameters set in S170 (S180).

具体的にS180では、制御部24は、記憶部22に記憶されている、現時点から過去規定サイクル数分の対象物情報を取得する。そして、その取得した対象物情報それぞれに含まれる検出対象物の位置、傾きを、対応するカメラ10の仮パラメータに基づいて補正することで、補正対象物を特定し補正物情報を生成する。   Specifically, in S180, the control unit 24 acquires object information for the number of past specified cycles stored in the storage unit 22 from the current time. Then, by correcting the position and inclination of the detection object included in each of the acquired object information based on the temporary parameters of the corresponding camera 10, the correction object is specified and the correction object information is generated.

補正対象物とは、仮パラメータに基づいて画像を視点変換した場合の視点変換画像における検出対象物である。さらに、補正物情報とは、補正対象物に関する対象物情報である。この補正物情報には、補正対象物の端辺の長さ、向き、補正対象物としての幅の大きさ、当該補正対象物の基点となる基準座標などを含む。   The correction target is a detection target in the viewpoint conversion image when the image is subjected to viewpoint conversion based on the temporary parameter. Furthermore, the corrected object information is object information related to the correction object. The correction object information includes the length and direction of the edge of the correction object, the width of the correction object, the reference coordinates serving as the base point of the correction object, and the like.

続いて、画像表示処理では、制御部24は、補正物情報に基づいて、パラメータ評価値eを算出する(S190)。ここで言うパラメータ評価値eとは、互いに隣接する規定領域を撮像した画像における補正対象物同士の連続度合いを表す評価値である。   Subsequently, in the image display process, the control unit 24 calculates a parameter evaluation value e based on the corrected object information (S190). The parameter evaluation value e referred to here is an evaluation value representing the degree of continuity between the correction objects in an image obtained by imaging the prescribed regions adjacent to each other.

例えば、路面に描かれた区画線としての白線を対象物とした場合、具体的にS190において制御部24は、図4に示すように、左右の白線それぞれについて、互いに隣接する規定領域を撮像した画像から求めた補正対象物の誤差の和をパラメータ評価値eとして算出してもよい。この場合のパラメータ評価値eの算出は、下記(1)式に従って実現すればよい。   For example, when a white line as a lane marking drawn on the road surface is used as an object, specifically, in S190, the control unit 24 images the prescribed areas adjacent to each other on each of the left and right white lines as shown in FIG. The sum of errors of the correction target obtained from the image may be calculated as the parameter evaluation value e. The calculation of the parameter evaluation value e in this case may be realized according to the following equation (1).

ただし、(1)式における符号Wは、予め規定された重み係数である。符号aは、互いに隣接する規定領域を撮像した画像における補正対象物を直線とした場合の補正対象物同士の傾きの差である。また、符号bは、互いに隣接する規定領域を撮像した画像における補正対象物を直線とした場合の補正対象物同士の切片の差である。   However, the symbol W in the equation (1) is a weighting factor defined in advance. The symbol a is a difference in inclination between the correction objects when the correction object in the image obtained by imaging the prescribed areas adjacent to each other is a straight line. Further, symbol b is a difference in intercepts between the correction objects when the correction object in the image obtained by capturing the prescribed regions adjacent to each other is a straight line.

続いて、画像表示処理では、制御部24は、S190で算出したパラメータ評価値eと、記憶部22に記憶されている最適評価値とを比較する(S200)。さらに、S200では、制御部24は、S190で算出したパラメータ評価値eが最適評価値として適していれば、そのS190で算出したパラメータ評価値eを最適評価値として記憶し更新する。具体的にS200では、制御部24は、S190で算出したパラメータ評価値eが、記憶部22に記憶されている最適評価値よりも小さければ、S190で算出したパラメータ評価値eが最適評価値として適しているものと判定すればよい。   Subsequently, in the image display process, the control unit 24 compares the parameter evaluation value e calculated in S190 with the optimum evaluation value stored in the storage unit 22 (S200). Further, in S200, if the parameter evaluation value e calculated in S190 is suitable as the optimum evaluation value, the control unit 24 stores and updates the parameter evaluation value e calculated in S190 as the optimum evaluation value. Specifically, in S200, if the parameter evaluation value e calculated in S190 is smaller than the optimal evaluation value stored in the storage unit 22, the control unit 24 uses the parameter evaluation value e calculated in S190 as the optimal evaluation value. What is necessary is just to determine with it being suitable.

さらに、制御部24は、仮パラメータの全ての組み合わせを設定したか否かを判定する(S210)。このS210での判定の結果、仮パラメータの全ての組み合わせを設定済みでなければ(S210:NO)、制御部24は、画像表示処理をS170へと戻す。   Furthermore, the control unit 24 determines whether or not all combinations of temporary parameters have been set (S210). If all combinations of the temporary parameters have not been set as a result of the determination in S210 (S210: NO), the control unit 24 returns the image display process to S170.

そのS170では、カメラ10の各々に対する仮パラメータの全ての組み合わせの中から、未設定である仮パラメータの組み合わせを一つ設定する。そして、制御部24は、S180からS210までを実行する。   In S <b> 170, one temporary parameter combination that has not been set is set from all the combinations of temporary parameters for each camera 10. Then, the control unit 24 executes S180 to S210.

すなわち、本実施形態では、S170からS210までのステップを繰り返すことで、車両5の姿勢に応じた多様なケースにおけるカメラ10の各々の仮パラメータの組み合わせを設定し、その仮パラメータの組み合わせに対する尤度を評価する。仮パラメータの組み合わせの変更の一例として、一つのカメラ10における、決められた特定のパラメータだけ、現在設定されている値から規定量だけ変更し、その他のパラメータ、及び他のカメラ10の仮パラメータについては現在設定されている値とすることが考えられる。さらに、特定のパラメータの値が最終値である場合には、パラメータの値を変更する対象を次の種類のパラメータとする。さらには、一つのカメラ10について、全ての種類のパラメータが最終値となった場合には、次のカメラ10について、パラメータの値を変更する。   That is, in this embodiment, by repeating the steps from S170 to S210, combinations of the temporary parameters of the camera 10 in various cases according to the posture of the vehicle 5 are set, and the likelihood for the combination of the temporary parameters. To evaluate. As an example of changing the combination of temporary parameters, only a specific parameter determined in one camera 10 is changed from a currently set value by a specified amount, and other parameters and temporary parameters of other cameras 10 are changed. Is considered to be a value currently set. Further, when the value of a specific parameter is the final value, the target of changing the parameter value is set to the next type of parameter. Furthermore, when all types of parameters for one camera 10 have final values, the parameter values for the next camera 10 are changed.

これにより、最も尤度の高い仮パラメータは、車両5の姿勢を考慮したカメラパラメータとなる。「車両の姿勢を考慮した」とは、車両を剛体とみなして、車両の傾きだけをカメラパラメータに反映することを意味するものである。なお、ここで言う多様なケースの一例には、車両5の前端部が低いケースや、車両5の後端部が低いケースなどが含まれる。さらに、多様なケースの一例には、車両5の右側方が低いケースや、車両5の左側方が低いケースなどが含まれる。   Thereby, the temporary parameter with the highest likelihood is a camera parameter considering the attitude of the vehicle 5. “Considering the attitude of the vehicle” means that the vehicle is regarded as a rigid body and only the inclination of the vehicle is reflected in the camera parameters. Note that examples of various cases referred to herein include a case where the front end portion of the vehicle 5 is low and a case where the rear end portion of the vehicle 5 is low. Further, examples of various cases include a case where the right side of the vehicle 5 is low and a case where the left side of the vehicle 5 is low.

一方、S210での判定の結果、仮パラメータの全ての組み合わせを設定済みであれば(S210:YES)、制御部24は、画像表示処理をS220へと移行させる。
そのS220では、制御部24は、最適評価値が判定閾値Th以下であるか否かを判定する。ここで言う判定閾値Thとは、仮パラメータの組み合わせが基準パラメータよりも車両挙動に適合していることを表す閾値であり、実験などに基づいて予め規定された閾値である。
On the other hand, as a result of the determination in S210, if all combinations of temporary parameters have been set (S210: YES), the control unit 24 shifts the image display process to S220.
In S220, the control unit 24 determines whether or not the optimal evaluation value is equal to or less than the determination threshold Th. The determination threshold Th referred to here is a threshold indicating that the combination of temporary parameters is more suitable for vehicle behavior than the reference parameter, and is a threshold defined in advance based on experiments or the like.

このS220での判定の結果、最適評価値が判定閾値Th以下であれば(S220:YES)、制御部24は、最適評価値に対応する仮パラメータの各々を、対応するカメラ10の較正パラメータとして記憶部22に記憶する(S230)。すなわち、S230にて記憶部22に記憶される較正パラメータは、検出対象物同士が連続となる視点変換画像を生成するカメラ10の各々のカメラパラメータである。   As a result of the determination in S220, if the optimal evaluation value is equal to or less than the determination threshold Th (S220: YES), the control unit 24 uses each temporary parameter corresponding to the optimal evaluation value as a calibration parameter of the corresponding camera 10. It memorize | stores in the memory | storage part 22 (S230). That is, the calibration parameters stored in the storage unit 22 in S230 are the camera parameters of each camera 10 that generates a viewpoint conversion image in which the detection objects are continuous.

本実施形態において、記憶部22に記憶される較正パラメータは、特定サイクル数分である。この特定サイクル数とは、規定サイクル数よりも多いサイクル数として予め規定された数である。つまり、記憶部22には、カメラ10の各々について、特定サイクル数分の較正パラメータが記憶される。なお、記憶部22に記憶される特定サイクル数分の較正パラメータは、順次更新されてもよい。   In the present embodiment, the calibration parameters stored in the storage unit 22 are for a specific number of cycles. The specific number of cycles is a number that is defined in advance as a number of cycles that is greater than the specified number of cycles. That is, the storage unit 22 stores calibration parameters for the number of specific cycles for each camera 10. Note that the calibration parameters for the specific number of cycles stored in the storage unit 22 may be sequentially updated.

その後、制御部24は、画像表示処理をS240へと移行させる。
一方、S220での判定の結果、最適評価値が判定閾値Thよりも大きい場合(S220:NO)、制御部24は、S230を実行することなく、画像表示処理をS240へと移行させる。
Thereafter, the control unit 24 shifts the image display process to S240.
On the other hand, as a result of the determination in S220, when the optimum evaluation value is larger than the determination threshold Th (S220: NO), the control unit 24 shifts the image display process to S240 without executing S230.

そのS240では、制御部24は、記憶されているカメラ10の各々の全ての較正パラメータを取得する。続いて、制御部24は、S240で取得した較正パラメータの代表値をカメラ10ごとに算出する(S250)。ここで言う代表値は、平均値であってもよいし、最頻値であってもよいし、中央値であってもよい。   In S240, the control unit 24 acquires all the calibration parameters of each of the stored cameras 10. Subsequently, the control unit 24 calculates the representative value of the calibration parameter acquired in S240 for each camera 10 (S250). The representative value referred to here may be an average value, a mode value, or a median value.

具体的にS250において、制御部24は、図5に示すように、カメラ10の各々の、ピッチΘの代表値、ロールΦの代表値、ヨーΨの代表値を算出する。そして、制御部24は、ピッチΘの代表値及びヨーΨの代表値を、対応するカメラ10のロールΦの代表値に対して直交化する。この場合、ピッチΘの代表値、ロールΦの代表値、及びヨーΨの代表値は、正規化されていてもよい。   Specifically, in S250, the control unit 24 calculates the representative value of the pitch Θ, the representative value of the roll Φ, and the representative value of the yaw Ψ of each camera 10, as shown in FIG. Then, the control unit 24 orthogonalizes the representative value of the pitch Θ and the representative value of the yaw Ψ with respect to the representative value of the roll Φ of the corresponding camera 10. In this case, the representative value of the pitch Θ, the representative value of the roll Φ, and the representative value of the yaw Ψ may be normalized.

さらに、画像表示処理では、制御部24は、予め規定された期間の間に特定された較正パラメータのバラつき度合いを算出する(S260)。具体的にS260では、制御部24は、予め規定された期間の間に設定された較正パラメータの標準偏差を、バラつき度合いとして算出すればよい。なお、ここで言う予め規定された期間とは、例えば、特定サイクル数が、規定された回数繰り返される期間である。   Further, in the image display process, the control unit 24 calculates the degree of variation of the calibration parameter specified during a predetermined period (S260). Specifically, in S260, the control unit 24 may calculate the standard deviation of the calibration parameters set during a predetermined period as the variation degree. In addition, the period prescribed | regulated previously here is a period when the specific cycle number is repeated the prescribed number of times, for example.

続いて、画像表示処理では、制御部24は、S250で設定した較正パラメータが、予め設定された採用基準を満たすか否かを判定する(S270)。ここで言う採用基準とは、S260で算出されたバラつき度合いが、予め規定された設定閾値以下であることである。   Subsequently, in the image display process, the control unit 24 determines whether or not the calibration parameter set in S250 satisfies a preset adoption criterion (S270). The adoption standard referred to here is that the degree of variation calculated in S260 is equal to or less than a preset threshold value.

このS270での判定の結果、較正パラメータが採用基準を満たしていれば(S270:YES)、制御部24は、S250で算出したカメラ10ごとの較正パラメータの代表値を、新たなカメラパラメータとして設定する(S280)。   As a result of the determination in S270, if the calibration parameter satisfies the adoption standard (S270: YES), the control unit 24 sets the representative value of the calibration parameter for each camera 10 calculated in S250 as a new camera parameter. (S280).

続いて、制御部24は、S280で設定されたカメラパラメータに基づいて、S110で取得した画像を視点変換して視点変換画像を生成する(S290)。その後、制御部24は、画像表示処理をS300へと移行させる。   Subsequently, the control unit 24 performs viewpoint conversion on the image acquired in S110 based on the camera parameter set in S280 to generate a viewpoint conversion image (S290). Thereafter, the control unit 24 shifts the image display process to S300.

一方、S270での判定の結果、較正パラメータが採用基準を満たしていなければ(S270:NO)、制御部24は、S280,S290を実行することなく、画像表示処理をS300へと移行させる。   On the other hand, as a result of the determination in S270, if the calibration parameter does not satisfy the adoption criteria (S270: NO), the control unit 24 shifts the image display process to S300 without executing S280 and S290.

そのS300では、制御部24は、視点変換画像を表示装置40に出力する。そして、視点変換画像を取得した表示装置40は、車載カメラの各々に対応する視点変換画像を表示する。   In S300, the control unit 24 outputs the viewpoint conversion image to the display device 40. And the display apparatus 40 which acquired the viewpoint conversion image displays the viewpoint conversion image corresponding to each of vehicle-mounted camera.

なお、S300により表示装置40に表示される視点変換画像は、画像表示処理がS280,及びS290を経てS300へと移行した場合には、そのS290にて生成された視点変換画像である。一方、S300により表示装置40に表示される視点変換画像は、画像表示処理がS280,及びS290を経ずにS300へと移行した場合には、S120にて生成された視点変換画像である。   Note that the viewpoint conversion image displayed on the display device 40 in S300 is the viewpoint conversion image generated in S290 when the image display process proceeds to S300 through S280 and S290. On the other hand, the viewpoint conversion image displayed on the display device 40 in S300 is the viewpoint conversion image generated in S120 when the image display process proceeds to S300 without passing through S280 and S290.

その後、制御部24は、画像表示処理を終了し、次の起動タイミングまで待機する。
つまり、画像表示処理では、基準パラメータに基づく視点変換画像の各々の検出対象物同士が不連続である場合、車両5の姿勢が傾いているものとして、カメラ10の各々について車両5の姿勢を判定した適正なカメラパラメータを求める。そして、画像表示処理では、適正なカメラパラメータを求める方法として、当該検出対象物同士が連続となる視点変換画像を生成するカメラ10の各々のカメラパラメータである較正パラメータを探索することを実行する。
Thereafter, the control unit 24 ends the image display process and waits for the next activation timing.
That is, in the image display process, when the detection target objects of the viewpoint conversion image based on the reference parameter are discontinuous, the attitude of the vehicle 5 is determined for each of the cameras 10 on the assumption that the attitude of the vehicle 5 is inclined. Obtain the appropriate camera parameters. In the image display process, as a method for obtaining an appropriate camera parameter, a search is performed for a calibration parameter that is a camera parameter of each camera 10 that generates a viewpoint-converted image in which the detection objects are continuous.

さらに、画像表示処理では、その特定した較正パラメータに基づいて、新たな視点変換画像を生成し表示装置40に表示する。
換言すると、画像表示処理を実行した制御装置20は、パラメータ特定装置として機能する。
[2. 実施形態の効果]
(2.1) 以上説明したように、本実施形態の画像表示処理によれば、各カメラ10の較正パラメータを特定できる。
Further, in the image display process, a new viewpoint conversion image is generated and displayed on the display device 40 based on the specified calibration parameter.
In other words, the control device 20 that has executed the image display process functions as a parameter specifying device.
[2. Effects of the embodiment]
(2.1) As described above, according to the image display process of the present embodiment, the calibration parameters of each camera 10 can be specified.

この較正パラメータは、当該較正パラメータに基づいて撮像画像を視点変換した視点変換画像において、検出対象物同士が連続となるカメラパラメータであり、その時点での車両5の姿勢を反映したカメラの位置及び姿勢である。   This calibration parameter is a camera parameter in which detection objects are continuous in a viewpoint conversion image obtained by performing viewpoint conversion on a captured image based on the calibration parameter, and the position of the camera reflecting the posture of the vehicle 5 at that time and It is posture.

つまり、画像表示処理によれば、車両5が走行する際に、その車両5の姿勢を反映した較正パラメータを順次特定できる。
(2.2) この結果、制御装置20によれば、新たに生成される視点変換画像において、検出対象物が不連続、即ち、実空間上の同一地点が不一致となることを低減できる。
That is, according to the image display process, when the vehicle 5 travels, the calibration parameters reflecting the posture of the vehicle 5 can be sequentially specified.
(2.2) As a result, according to the control device 20, it is possible to reduce the discontinuity of the detection target in the newly generated viewpoint conversion image, that is, the mismatch of the same point in the real space.

制御装置20によれば、車両5の積載状態に関わらず、表示装置に表示される画像の連続性を向上させることができる。
(2.3) さらに、画像表示処理においては、検出対象物同士が連続となる視点変換画像を生成するカメラ10の各々のカメラパラメータを較正パラメータとして特定しているため、視点変換画像を生成する全てのカメラ10につき較正パラメータを特定できる。
According to the control device 20, the continuity of images displayed on the display device can be improved regardless of the loading state of the vehicle 5.
(2.3) Furthermore, in the image display process, since each camera parameter of the camera 10 that generates a viewpoint conversion image in which detection objects are continuous is specified as a calibration parameter, a viewpoint conversion image is generated. Calibration parameters can be specified for all cameras 10.

換言すると、制御装置20によれば、較正パラメータを特定するために、複数のカメラ10のうちの一つを基準とする必要がない。このため、制御装置20によれば、較正パラメータを特定できないカメラ10が存在することを低減できる。   In other words, according to the control device 20, it is not necessary to use one of the plurality of cameras 10 as a reference in order to specify the calibration parameter. For this reason, according to the control apparatus 20, it can reduce that the camera 10 which cannot specify a calibration parameter exists.

(2.4) ところで、画像表示処理においては、車両5の挙動が急変していれば、対象物情報を記憶することを回避し、その状況下での対象物情報に基づく仮パラメータの評価を回避している。   (2.4) By the way, in the image display process, if the behavior of the vehicle 5 is suddenly changed, the storage of the object information is avoided, and the temporary parameter is evaluated based on the object information under the circumstances. It is avoiding.

これにより、画像表示処理によれば、仮パラメータの評価対象を、車両5が安定して動作している状況で撮影された画像に基づく対象物情報に限定することができ、仮パラメータの評価を精度良く実現できる。   Thereby, according to the image display process, the evaluation target of the temporary parameter can be limited to the object information based on the image taken in a situation where the vehicle 5 is stably operating, and the evaluation of the temporary parameter can be performed. Can be realized with high accuracy.

(2.5) また、画像表示処理においては、最適評価値が判定閾値Thよりも大きい場合には、較正パラメータを記憶部22に記憶することを回避し、較正パラメータの代表値の算出から、当該較正パラメータを除外している。   (2.5) Further, in the image display process, when the optimum evaluation value is larger than the determination threshold Th, it is avoided to store the calibration parameter in the storage unit 22, and from the calculation of the representative value of the calibration parameter, The calibration parameter is excluded.

これにより、画像表示処理によれば、特異値を除外した状態で較正パラメータの代表値を算出でき、較正パラメータの代表値を信頼性の高いものとすることができる。
(2.6) 画像表示処理においては、バラつき度合いが設定閾値以下である較正パラメータの代表値に従って、視点変換画像を生成し表示装置40に表示している。
Thereby, according to the image display process, the representative value of the calibration parameter can be calculated in a state where the singular value is excluded, and the representative value of the calibration parameter can be made highly reliable.
(2.6) In the image display process, a viewpoint conversion image is generated and displayed on the display device 40 in accordance with the representative value of the calibration parameter whose degree of variation is equal to or less than the set threshold value.

これにより、画像表示装置によれば、表示装置40に表示される視点変換画像を安定した画像とすることができ、画像の表示が急激に変化することを低減できる。
(2.7) ところで、較正パラメータの代表値を算出する際に、ピッチΘ,ロールΦ,及びヨーΨそれぞれの代表値を独立して算出すると、それらのピッチΘ,ロールΦ,及びヨーΨそれぞれの代表値は、直交性が維持されない。すると、ピッチΘ,ロールΦ,及びヨーΨそれぞれの代表値は、カメラの実態が考慮されておらず、実態とはかけ離れたものとなる可能性がある。
Thereby, according to the image display device, the viewpoint conversion image displayed on the display device 40 can be a stable image, and it is possible to reduce a sudden change in the display of the image.
(2.7) By the way, when calculating the representative values of the calibration parameters, the representative values of the pitch Θ, the roll Φ, and the yaw Ψ are calculated independently. As for the representative value, orthogonality is not maintained. Then, the representative values of the pitch Θ, the roll Φ, and the yaw Ψ do not take into account the actual state of the camera, and may be far from the actual state.

しかしながら、画像表示処理においては、ピッチΘの代表値及びヨーΨの代表値を、ロールΦの代表値に対して直交するように算出している。
このようにピッチΘの代表値及びヨーΨの代表値を算出することで、ロールΦ、ピッチΘ、及びヨーΨの直交性を維持でき、ロールΦの代表値、ピッチΘの代表値、及びヨーΨの代表値を、カメラ10の実態に即したものとすることができる。
[3. その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
However, in the image display process, the representative value of the pitch Θ and the representative value of the yaw Ψ are calculated so as to be orthogonal to the representative value of the roll Φ.
Thus, by calculating the representative value of the pitch Θ and the representative value of the yaw Ψ, the orthogonality of the roll Φ, the pitch Θ, and the yaw Ψ can be maintained, and the representative value of the roll Φ, the representative value of the pitch Θ, and the yaw Ψ The representative value of Ψ can be set in accordance with the actual situation of the camera 10.
[3. Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

(3.1)上記実施形態におけるS160では、記憶部22に記憶する対象を対象物情報としていたが、S160において記憶部22に記憶する対象は、S110で取得した撮像画像の各々であってもよいし、S120で生成した視点変換画像の各々であってもよい。   (3.1) In S160 in the above embodiment, the object stored in the storage unit 22 is the object information. However, the object stored in the storage unit 22 in S160 may be each of the captured images acquired in S110. Alternatively, each of the viewpoint conversion images generated in S120 may be used.

この場合、画像表示処理におけるS180では、記憶部22に記憶された画像から検出対象物を検出して補正対象物へと変換して補正物情報を生成すればよい。
(3.2)上記実施形態における280では、S270で算出されたバラつき度合いが設定閾値以下であることを採用基準としていたが、採用基準は、これに限るものではない。更に言えば、S280は、省略されていてもよい。
In this case, in S180 in the image display process, the detection object may be detected from the image stored in the storage unit 22 and converted into a correction object to generate correction object information.
(3.2) In 280 in the above embodiment, the adoption criterion is that the degree of variation calculated in S270 is equal to or less than the set threshold, but the adoption criterion is not limited to this. Furthermore, S280 may be omitted.

(3.3) 上記実施形態における制御部24が実行する機能の一部または全部は、一つあるいは複数のIC等によりハードウェア的に構成されていてもよい。
(3.4) 上記実施形態においては、ROM26にプログラムが格納されていたが、プログラムを格納する記憶媒体は、これに限るものではなく、半導体メモリなどの非遷移的実体的記憶媒体に格納されていてもよい。
(3.3) Part or all of the functions executed by the control unit 24 in the above embodiment may be configured by hardware by one or a plurality of ICs.
(3.4) In the above embodiment, the program is stored in the ROM 26. However, the storage medium for storing the program is not limited to this, and is stored in a non-transitional tangible storage medium such as a semiconductor memory. It may be.

(3.5)また、制御部24は非遷移的実体的記録媒体に格納されたプログラムを実行してもよい。このプログラムが実行されることで、プログラムに対応する方法が実現される。   (3.5) The control unit 24 may execute a program stored in a non-transitional tangible recording medium. By executing this program, a method corresponding to the program is realized.

(3.6)また、本発明は、前述した制御装置20によって実現されるパラメータ特定装置の他、表示システム、カメラパラメータを特定するためにコンピュータが実行するプログラム、カメラパラメータを特定する方法等、種々の形態で実現することができる。   (3.6) In addition to the parameter specifying device realized by the control device 20 described above, the present invention includes a display system, a program executed by a computer for specifying camera parameters, a method for specifying camera parameters, etc. It can be realized in various forms.

(3.7)なお、上記実施形態の構成の一部を省略した態様も本発明の実施形態である。また、上記実施形態と変形例とを適宜組み合わせて構成される態様も本発明の実施形態である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において考え得るあらゆる態様も本発明の実施形態である。   (3.7) In addition, the aspect which abbreviate | omitted a part of structure of the said embodiment is also embodiment of this invention. Further, an aspect configured by appropriately combining the above embodiment and the modification is also an embodiment of the present invention. Moreover, all the aspects which can be considered in the limit which does not deviate from the essence of the invention specified by the wording described in the claims are the embodiments of the present invention.

(3.8)「特許請求の範囲」及び「課題を解決するための手段」の欄に記載した括弧内の符号は、一つの態様として実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
[4.対応関係の一例]
画像表示処理のS110を実行することで得られる機能が画像取得部の一例に相当する。S120を実行することで得られる機能が画像変換部の一例に相当する。S130を実行することで得られる機能が対象検出部の一例に相当する。
(3.8) Symbols in parentheses described in the columns of “Claims” and “Means for Solving the Problems” indicate a corresponding relationship with the specific means described in the embodiment as one aspect. However, it is not intended to limit the technical scope of the present invention.
[4. Example of correspondence]
The function obtained by executing S110 of the image display process corresponds to an example of an image acquisition unit. The function obtained by executing S120 corresponds to an example of an image conversion unit. The function obtained by executing S130 corresponds to an example of the target detection unit.

S170〜S250、及びS280を実行することで得られる機能がパラメータ特定部の一例に相当する。S260,S270,及びS290を実行することで得られる機能が画像更新部の一例に相当する。   The function obtained by executing S170 to S250 and S280 corresponds to an example of a parameter specifying unit. The function obtained by executing S260, S270, and S290 corresponds to an example of an image update unit.

さらに、S170を実行することで得られる機能が仮定部の一例に相当する。S180を実行することで得られる機能が補正部の一例に相当する。S190〜S250を実行することで得られる機能が特定部の一例に相当する。   Furthermore, the function obtained by executing S170 corresponds to an example of an assumption unit. The function obtained by executing S180 corresponds to an example of a correction unit. The function obtained by executing S190 to S250 corresponds to an example of the specifying unit.

S190〜S230を実行することで得られる機能が算出部の一例に相当する。S260を実行することで得られる機能がバラつき算出部の一例に相当する。   The function obtained by executing S190 to S230 corresponds to an example of a calculation unit. The function obtained by executing S260 corresponds to an example of a variation calculation unit.

1…表示システム 5…車両 10…カメラ 14…入力装置 16…センサ群 20…制御装置 22…記憶部 24…制御部 26…ROM 28…RAM 30…CPU 40…表示装置
DESCRIPTION OF SYMBOLS 1 ... Display system 5 ... Vehicle 10 ... Camera 14 ... Input device 16 ... Sensor group 20 ... Control device 22 ... Memory | storage part 24 ... Control part 26 ... ROM 28 ... RAM 30 ... CPU 40 ... Display device

Claims (7)

車両(5)に搭載された複数のカメラ(10)のカメラパラメータを特定するパラメータ特定装置(20)であって、
前記複数のカメラの各々は、車両の周辺に規定された互いに異なる領域であり、かつ互いに隣接する領域が実空間において連続するように規定された領域である規定領域を撮像領域として撮像するように前記車両に搭載され、
前記カメラパラメータは、前記複数のカメラの各々の位置及び姿勢を表すパラメータであり、記憶装置(22)には、前記複数のカメラの各々が前記車両に搭載された際に求められたカメラパラメータである基準パラメータが記憶され、
前記複数のカメラの各々から、各カメラで撮像した撮像画像を取得する画像取得部(20,S110)と、
前記記憶装置に記憶された基準パラメータに基づいて、前記画像取得部で取得した撮像画像の各々を視点変換した画像である視点変換画像を生成する画像変換部(20,S120)と、
路面上に存在する連続性を有した物体を対象物とし、前記画像変換部で変換した視点変換画像の各々から、各視点変換画像に写り込んだ対象物である検出対象物を検出する対象検出部(20,S130)と、
前記対象検出部で検出した検出対象物であって、前記互いに隣接する規定領域を撮像した撮像画像に基づく検出対象物同士が不連続である場合、当該検出対象物同士が連続となる視点変換画像を生成する前記カメラの各々のカメラパラメータを較正パラメータとして特定するパラメータ特定部(20,S170〜S250,S280)と、
前記パラメータ特定部で特定した較正パラメータに基づいて、新たな視点変換画像を生成する画像更新部(20,S260,S270,S290)と
を備えるパラメータ特定装置。
A parameter specifying device (20) for specifying camera parameters of a plurality of cameras (10) mounted on a vehicle (5),
Each of the plurality of cameras captures a defined area that is a different area defined around the vehicle and is defined so that adjacent areas are continuous in real space as an imaging area. Mounted on the vehicle,
The camera parameter is a parameter representing the position and orientation of each of the plurality of cameras, and the storage device (22) is a camera parameter obtained when each of the plurality of cameras is mounted on the vehicle. A certain reference parameter is stored,
An image acquisition unit (20, S110) for acquiring a captured image captured by each camera from each of the plurality of cameras;
An image conversion unit (20, S120) that generates a viewpoint conversion image that is an image obtained by performing viewpoint conversion on each of the captured images acquired by the image acquisition unit based on the reference parameters stored in the storage device;
Object detection for detecting a detection object that is an object reflected in each viewpoint conversion image from each of the viewpoint conversion images converted by the image conversion unit, with an object having continuity existing on the road surface as an object Part (20, S130),
A viewpoint conversion image in which detection objects detected by the target detection unit are discontinuous when the detection objects are discontinuous based on captured images obtained by imaging the prescribed regions adjacent to each other. A parameter specifying unit (20, S170 to S250, S280) that specifies each camera parameter of the camera that generates a calibration parameter;
A parameter specifying device comprising: an image updating unit (20, S260, S270, S290) that generates a new viewpoint conversion image based on the calibration parameter specified by the parameter specifying unit.
前記パラメータ特定部は、
前記カメラ各々の仮想的なカメラパラメータである仮パラメータを設定する仮定部(20,S170)と、
前記仮定部で設定された前記仮パラメータに基づいて、対応する視点変換画像の各々から検出した検出対象物を補正した補正対象物を特定する補正部(20,S180)と、
前記補正部で特定した補正対象物同士が連続となる、前記仮パラメータを、前記較正パラメータとして特定する特定部(20,S190〜S250)と、
を更に備える、請求項1に記載のパラメータ特定装置。
The parameter specifying unit includes:
An assumption unit (20, S170) for setting a temporary parameter which is a virtual camera parameter of each of the cameras;
A correction unit (20, S180) for specifying a correction target obtained by correcting a detection target detected from each of the corresponding viewpoint-converted images based on the temporary parameter set by the assumption unit;
A specifying unit (20, S190 to S250) for specifying the temporary parameter as the calibration parameter, in which the correction objects specified by the correction unit are continuous;
The parameter specifying device according to claim 1, further comprising:
前記仮パラメータとして、前記車両の姿勢に対応する複数のケースが予め規定されており、
前記仮定部は、複数のケースの前記仮パラメータの中から、先に特定した仮パラメータとは異なる一つの仮パラメータを設定することを繰り返し実行し、
前記補正部は、前記仮定部で仮パラメータを設定するごとに、前記補正対象物を特定し、
前記特定部は、
前記補正対象物同士の連続度合いを表すパラメータ評価値を算出する算出部(20,S190〜S230)を更に備え、
前記算出部で算出したパラメータ評価値が最も連続度合いが高いことを表す前記補正対象物に対応する仮パラメータを、前記較正パラメータとして特定する、請求項2に記載のパラメータ特定装置。
As the temporary parameter, a plurality of cases corresponding to the posture of the vehicle are defined in advance,
The assumption unit repeatedly executes setting of one temporary parameter different from the previously specified temporary parameter from among the temporary parameters of a plurality of cases,
The correction unit identifies the correction object every time the provisional parameter is set by the assumption unit,
The specific part is:
A calculation unit (20, S190 to S230) for calculating a parameter evaluation value representing a degree of continuity between the correction objects;
The parameter specifying device according to claim 2, wherein a temporary parameter corresponding to the correction target indicating that the parameter evaluation value calculated by the calculation unit has the highest degree of continuity is specified as the calibration parameter.
前記複数のカメラの各々は、繰り返し画像を撮像し、
前記画像取得部は、前記複数のカメラの各々で画像を撮像するごとに、その画像を前記撮像画像として取得し、
前記画像変換部は、前記画像取得部で前記撮像画像を取得するごとに、前記視点変換画像を生成し、
前記対象検出部は、前記画像変換部で前記視点変換画像を生成するごとに、前記検出対象物を検出し、
前記パラメータ特定部は、前記対象検出部で検出対象物を検出するごとに、前記較正パラメータを特定して蓄積し、その蓄積した較正パラメータの代表値を、新たな前記較正パラメータとして特定する、請求項1から請求項3までのいずれか一項に記載のパラメータ特定装置。
Each of the plurality of cameras repeatedly captures images,
The image acquisition unit acquires the image as the captured image every time an image is captured by each of the plurality of cameras.
The image conversion unit generates the viewpoint conversion image every time the captured image is acquired by the image acquisition unit,
The target detection unit detects the detection target each time the viewpoint conversion image is generated by the image conversion unit,
The parameter specifying unit specifies and accumulates the calibration parameter each time a detection target is detected by the target detection unit, and specifies a representative value of the accumulated calibration parameter as the new calibration parameter. The parameter identification device according to any one of claims 1 to 3.
前記カメラパラメータには、前記複数のカメラの各々のレンズ中心軸周りの回転角を表すロール、前記複数のカメラの各々の水平軸周りの回転角を表すピッチ、及び前記複数のカメラの各々において前記車両の水平面と直交する軸周りの回転角を表すヨーを含み、
前記パラメータ特定部は、
前記ロールに対して直交する、前記ピッチ及び前記ヨーを特定する、請求項4に記載のパラメータ特定装置。
The camera parameters include a roll that represents a rotation angle around a lens central axis of each of the plurality of cameras, a pitch that represents a rotation angle around a horizontal axis of each of the plurality of cameras, and each of the plurality of cameras. Including a yaw representing a rotation angle about an axis perpendicular to the horizontal plane of the vehicle,
The parameter specifying unit includes:
The parameter specifying device according to claim 4, wherein the pitch and the yaw that are orthogonal to the roll are specified.
前記画像更新部は、
予め規定された期間の間に、前記パラメータ特定部で特定された較正パラメータのバラつき度合いを算出するバラつき算出部(20,S260)を更に備え、
前記バラつき算出部で算出されたバラつき度合いが、予め設定された設定閾値以下であれば、当該較正パラメータに基づいて、新たな視点変換画像を生成する、請求項1から請求項5までのいずれか一項に記載のパラメータ特定装置。
The image update unit
A variation calculating unit (20, S260) for calculating a variation degree of the calibration parameter specified by the parameter specifying unit during a predetermined period;
If the variation degree calculated by the variation calculation unit is equal to or less than a preset threshold value, a new viewpoint conversion image is generated based on the calibration parameter. The parameter identification device according to one item.
前記対象物は、道路の交通に関して路面に描かれた道路標示または区画線であり、
前記対象検出部は、
前記画像変換部で生成した視点変換画像の各々から、各視点変換画像に写り込んだ道路標示または区画線を前記検出対象物として検出する、請求項1から請求項6までのいずれか一項に記載のパラメータ特定装置。
The object is a road marking or lane marking drawn on the road surface for road traffic;
The target detection unit
The road marking or lane marking reflected in each viewpoint conversion image is detected as the detection target object from each of the viewpoint conversion images generated by the image conversion unit, according to any one of claims 1 to 6. The parameter identification device described.
JP2015247439A 2015-12-18 2015-12-18 Parameter identification device Pending JP2017112566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247439A JP2017112566A (en) 2015-12-18 2015-12-18 Parameter identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247439A JP2017112566A (en) 2015-12-18 2015-12-18 Parameter identification device

Publications (1)

Publication Number Publication Date
JP2017112566A true JP2017112566A (en) 2017-06-22

Family

ID=59079831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247439A Pending JP2017112566A (en) 2015-12-18 2015-12-18 Parameter identification device

Country Status (1)

Country Link
JP (1) JP2017112566A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110189381A (en) * 2019-05-30 2019-08-30 北京眸视科技有限公司 External parameters calibration system, method, terminal and readable storage medium storing program for executing
CN111746549A (en) * 2019-03-27 2020-10-09 通用汽车环球科技运作有限责任公司 Method and system for correcting sensor information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013129278A (en) * 2011-12-21 2013-07-04 Alpine Electronics Inc Image display device, calibration method of imaging camera in image display device, and calibration program
JP2013222302A (en) * 2012-04-16 2013-10-28 Alpine Electronics Inc Mounting angle correction device for in-vehicle camera and mounting angle correction method
JP2015198374A (en) * 2014-04-02 2015-11-09 パナソニックIpマネジメント株式会社 Calibration device, calibration method, camera having calibration function and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013129278A (en) * 2011-12-21 2013-07-04 Alpine Electronics Inc Image display device, calibration method of imaging camera in image display device, and calibration program
JP2013222302A (en) * 2012-04-16 2013-10-28 Alpine Electronics Inc Mounting angle correction device for in-vehicle camera and mounting angle correction method
JP2015198374A (en) * 2014-04-02 2015-11-09 パナソニックIpマネジメント株式会社 Calibration device, calibration method, camera having calibration function and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111746549A (en) * 2019-03-27 2020-10-09 通用汽车环球科技运作有限责任公司 Method and system for correcting sensor information
CN110189381A (en) * 2019-05-30 2019-08-30 北京眸视科技有限公司 External parameters calibration system, method, terminal and readable storage medium storing program for executing

Similar Documents

Publication Publication Date Title
JP6413974B2 (en) Calibration apparatus, calibration method, and program
WO2015125298A1 (en) Local location computation device and local location computation method
US8350909B2 (en) Method and in-vehicle device for correcting alignment information representative of the alignment of an in-vehicle camera
WO2015125299A1 (en) Local location computation device and local location computation method
JP6458651B2 (en) Road marking detection device and road marking detection method
JP2018036067A (en) Own vehicle position recognition device
WO2015125297A1 (en) Local location computation device and local location computation method
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
WO2015125300A1 (en) Local location computation device and local location computation method
JP2007034989A (en) Slippage detection method and slippage correction method of imaging device, and imaging device
CN108376384B (en) Method and device for correcting disparity map and storage medium
JP6462557B2 (en) Vehicle pitch angle estimation device
JP3633469B2 (en) Inter-vehicle distance setting device
JP2017112566A (en) Parameter identification device
JP6407596B2 (en) Image processing apparatus and driving support system
JP6645936B2 (en) State estimation device
JP6536529B2 (en) Calibration apparatus for in-vehicle camera and calibration method for in-vehicle camera
JP2015158418A (en) Self position calculation apparatus and self position calculation method
JP5425500B2 (en) Calibration apparatus and calibration method
JP4026641B2 (en) Object detection apparatus and object detection method
JP6824759B2 (en) Bound line detection device, lane marking system, and lane marking method
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP4353141B2 (en) Infinity point determination device
CN111989541A (en) Stereo camera device
JP5098981B2 (en) Face detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191001