JP2019114965A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2019114965A
JP2019114965A JP2017248024A JP2017248024A JP2019114965A JP 2019114965 A JP2019114965 A JP 2019114965A JP 2017248024 A JP2017248024 A JP 2017248024A JP 2017248024 A JP2017248024 A JP 2017248024A JP 2019114965 A JP2019114965 A JP 2019114965A
Authority
JP
Japan
Prior art keywords
imaging unit
image
reference position
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017248024A
Other languages
Japanese (ja)
Other versions
JP7110592B2 (en
Inventor
正憲 鳥居
Masanori Torii
正憲 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017248024A priority Critical patent/JP7110592B2/en
Publication of JP2019114965A publication Critical patent/JP2019114965A/en
Application granted granted Critical
Publication of JP7110592B2 publication Critical patent/JP7110592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an image processing apparatus that, when displaying images picked up by imaging units while performing image processing on the images, can project an object to be displayed or the like to correspond to an actual position.SOLUTION: An image processing apparatus comprises: an acquisition unit that acquires a first reference position set to a part of an outer surface of a vehicle and stored in advance; a detection unit that detects a second reference position corresponding to the first reference position on picked-up image data acquired by imaging units provided on the vehicle; and a correction unit that corrects a position recognized by the imaging unit in image processing so that the second reference position matches the first reference position.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、画像処理装置に関する。   Embodiments of the present invention relate to an image processing apparatus.

従来、車両に設けられた複数の撮像部(カメラ)により車両周囲の状況を撮像し、撮像した複数の画像の画像処理(例えば視点変換)を行うとともに、各画像を繋げて周辺画像(例えば俯瞰画像)を生成する画像処理装置が知られている。このような画像処理装置では、各撮像部の取り付け誤差や取り付け後の衝撃等により撮像位置のずれが生じている場合があり、画像の繋ぎ目が不連続になってしまう場合がある。そこで、例えば、俯瞰画像を構成する隣接する画像に同一と認められる物体が映っているか否かを確認し、同一の物体が映っている場合には、その物体の輪郭を検出している。そして、隣接する撮像部の画像間で輪郭が繋がるように画像を補正することで、複数の画像を繋ぎ合わせた場合の連続性を確保するようにする技術がある。   Conventionally, a plurality of imaging units (cameras) provided in a vehicle picks up a situation around the vehicle, performs image processing (for example, viewpoint conversion) of the plurality of picked up images, and connects each image to a surrounding image (for example, An image processing apparatus that generates an image) is known. In such an image processing apparatus, an attachment position of an imaging unit may be shifted due to an attachment error of each imaging unit, an impact after attachment, or the like, and a seam of an image may be discontinuous. Therefore, for example, it is confirmed whether or not an object recognized as identical in adjacent images constituting a bird's-eye view image appears, and when the same object is imaged, the contour of the object is detected. Then, there is a technique for ensuring continuity when connecting a plurality of images by correcting the images so that the contours are connected between the images of the adjacent imaging units.

WO2015/129280号公報WO 2015/129280

しかしながら従来技術の場合、物体の輪郭が繋がるように各画像の補正を行っているため、その物体の位置が実際の位置と対応していない場合がある。つまり、物体の輪郭を繋ぐために一方の画像または双方の画像に対して回転処理や平行移動処理、拡縮補正等の画像処理を施している。その結果、実際の物体の位置からずれている画像を基準に繋ぎ合わせが行われたり、双方の画像が互いに移動して実際の物体の位置とは異なる位置で繋ぎ合わせが行われたりする場合があった。このような場合、生成された画像を見た運転者が物体までの距離を誤って認識してしまう虞があった。   However, in the case of the prior art, since the correction of each image is performed so that the outline of the object is connected, the position of the object may not correspond to the actual position. That is, in order to connect the contours of the object, image processing such as rotation processing, parallel movement processing, and enlargement / reduction correction is performed on one or both images. As a result, the connection may be performed based on the image shifted from the position of the actual object, or both images may move relative to each other and the connection may be performed at a position different from the position of the actual object. there were. In such a case, there is a possibility that the driver who has seen the generated image may erroneously recognize the distance to the object.

そこで、本発明の課題の一つは、撮像部で撮像した画像に画像処理を施して表示する場合に、表示される物体等が実際の位置に対応するように映すことができる画像処理装置を提供することである。   Therefore, one of the problems of the present invention is an image processing apparatus capable of displaying an object or the like to be displayed so as to correspond to an actual position when image processing is performed on an image captured by an imaging unit and displayed. It is to provide.

本発明の実施形態にかかる画像処理装置は、例えば、車両の外面の一部に設定され、予め記憶された第一の参照位置を取得する取得部と、上記車両に設けられた撮像部で取得された撮像画像データ上で上記第一の参照位置に対応する第二の参照位置を検出する検出部と、上記第二の参照位置が上記第一の参照位置に一致するように画像処理上の上記撮像部の認識位置を補正する補正部と、を備える。この構成によれば、例えば、撮像した撮像画像データに視点変換等の画像処理を施して表示する場合に、撮像部の取り付け誤差等に基づく画像のずれが、車両の一部に定められ、予め記憶された第一の参照位置を基準として補正されるので、表示される画像の位置が車両基準で一定に定められる。その結果、画像に写っている物体等が実際の位置からずれて表示されてしまうことが軽減できる。   The image processing apparatus according to the embodiment of the present invention is acquired by, for example, an acquisition unit configured to acquire a first reference position stored in advance and set on a part of the outer surface of the vehicle, and an imaging unit provided to the vehicle A detection unit for detecting a second reference position corresponding to the first reference position on the captured image data, and the image processing such that the second reference position matches the first reference position And a correction unit that corrects the recognition position of the imaging unit. According to this configuration, for example, when image processing such as viewpoint conversion is performed on the captured image data captured and displayed, the displacement of the image based on the mounting error or the like of the imaging unit is determined in part of the vehicle. Since the correction is made on the basis of the stored first reference position, the position of the displayed image is fixedly determined on the basis of the vehicle. As a result, it can be reduced that an object or the like shown in an image is displayed being shifted from the actual position.

本発明の実施形態にかかる画像処理装置の上記補正部は、例えば、上記第一の参照位置と上記第二の参照位置との変位量に基づき上記撮像部の認識位置を補正してもよい。この構成によれば、例えば、第一の参照位置と第二の参照位置との位置関係に基づき、撮像部の認識位置の補正を実施することができる。   The correction unit of the image processing apparatus according to the embodiment of the present invention may correct the recognition position of the imaging unit based on, for example, the displacement amount between the first reference position and the second reference position. According to this configuration, for example, the recognition position of the imaging unit can be corrected based on the positional relationship between the first reference position and the second reference position.

本発明の実施形態にかかる画像処理装置の上記補正部は、例えば、補正した上記撮像部の認識位置に基づき投影変換パラメータを補正してもよい。この構成によれば、例えば、撮像部が撮像した画像の投影処理をスムーズに実施することができる。   The correction unit of the image processing apparatus according to the embodiment of the present invention may correct, for example, the projection conversion parameter based on the corrected recognition position of the imaging unit. According to this configuration, for example, projection processing of an image captured by the imaging unit can be smoothly performed.

本発明の実施形態にかかる画像処理装置において、上記第一の参照位置は、例えば上記車両の前輪の接地する位置としてもよい。この構成によれば、例えば、撮像部が撮像した撮像画像データに基づく画像上で補正のときに基準とする位置が認識しやすくなる。その結果、補正処理が容易になると共に補正精度を向上することができる。   In the image processing apparatus according to the embodiment of the present invention, the first reference position may be, for example, a position at which the front wheel of the vehicle is in contact with the ground. According to this configuration, for example, it is easy to recognize the reference position at the time of correction on the image based on the captured image data captured by the imaging unit. As a result, correction processing can be facilitated and correction accuracy can be improved.

本発明の実施形態にかかる画像処理装置の上記撮像部は、例えば、上記車両の側方領域を撮像する第一の撮像部と、上記車両の進行方向領域を撮像する第二の撮像部とを備え、上記補正部は、例えば上記第一の撮像部と上記第二の撮像部とのいずれか一方の撮像部の認識位置を補正し、上記認識位置が補正された上記一方の撮像部の撮像画像データに基づく画像に、他方の撮像部の撮像画像データを連結する場合に、画像内容の連続性が保たれるように、上記他方の撮像部の撮像画像データを補正する画像処理部を備えるようにしてもよい。この構成によれば、例えば、物体等が実際の位置に対応する位置に映っている画像を基準に他の画像を繋ぎ合わせるので、繋ぎ合わせられた画像も認識位置の補正が行われた撮像部で撮像された画像に倣って位置合わせが行われる。その結果、画像のずれが全体としても解消され、合成画像(例えば俯瞰画像)の品質の向上ができる。   The imaging unit of the image processing apparatus according to the embodiment of the present invention includes, for example, a first imaging unit for imaging the side area of the vehicle, and a second imaging unit for imaging the traveling direction area of the vehicle. The correction unit corrects a recognition position of one of the first imaging unit and the second imaging unit, for example, and captures an image of the one imaging unit in which the recognition position is corrected. When connecting captured image data of the other imaging unit to an image based on image data, the image processing unit corrects the captured image data of the other imaging unit so that continuity of the image content is maintained. You may do so. According to this configuration, for example, another image is connected based on an image in which an object or the like appears at a position corresponding to an actual position, so that an image pickup unit whose recognition position has been corrected Alignment is performed according to the image captured in As a result, the displacement of the image is eliminated as a whole, and the quality of the composite image (for example, the overhead image) can be improved.

図1は、実施形態にかかる画像処理装置を搭載可能な車両の一例を示す模式的な上面図である。FIG. 1 is a schematic top view showing an example of a vehicle on which the image processing apparatus according to the embodiment can be mounted. 図2は、実施形態にかかる画像処理装置を含む画像処理システムの構成の例示的なブロック図である。FIG. 2 is an exemplary block diagram of an image processing system including the image processing apparatus according to the embodiment. 図3は、実施形態にかかる画像処理装置のCPUの構成の例示的なブロック図である。FIG. 3 is an exemplary block diagram of the configuration of the CPU of the image processing apparatus according to the embodiment. 図4は、実施形態にかかる画像処理装置で用いる第一の参照位置の一例を示す俯瞰視図である。FIG. 4 is a perspective view showing an example of a first reference position used in the image processing apparatus according to the embodiment. 図5は、実施形態にかかる画像処理装置で用いる第一の参照位置の一例を示す右側方の撮像部で撮像した画像例を示す模式図である。FIG. 5 is a schematic view showing an example of an image captured by an imaging unit on the right side, showing an example of a first reference position used in the image processing apparatus according to the embodiment. 図6は、実施形態にかかる画像処理装置において、撮像画像(カメラ画)上の座標系と路面上の座標系との関係を説明する例示的な模式図である。FIG. 6 is an exemplary schematic view illustrating a relationship between a coordinate system on a captured image (camera drawing) and a coordinate system on a road surface in the image processing apparatus according to the embodiment. 図7は、実施形態にかかる画像処理装置において、画像処理上の撮像部の認識位置のずれ補正を説明する例示的な模式図である。FIG. 7 is an exemplary schematic view illustrating misalignment correction of a recognition position of an imaging unit in image processing in the image processing apparatus according to the embodiment. 図8は、実施形態にかかる画像処理装置において、撮像部の実際の位置と画像処理上の撮像部の認識位置とがずれた結果、その状態で俯瞰画像を生成した場合に車両の周辺に存在する白線の位置が実際の位置からずれて表示される例を説明する模式図である。In the image processing apparatus according to the embodiment, as a result of the actual position of the imaging unit and the recognition position of the imaging unit on the image processing being shifted in the image processing apparatus according to the embodiment, as shown in FIG. It is a schematic diagram explaining the example by which the position of the white line to be displayed shifts | deviates from an actual position, and is displayed. 図9は、実施形態にかかる画像処理装置による撮像部の画像処理上の認識位置のずれ補正を行い、俯瞰画像を生成した場合に、白線の位置が実際の位置と一致する例を説明する模式図である。FIG. 9 is a schematic diagram for explaining an example in which the position of the white line coincides with the actual position when the displacement of the recognition position on the image processing of the imaging unit by the image processing apparatus according to the embodiment is corrected to generate the overhead image. FIG. 図10は、実施形態にかかる画像処理装置により俯瞰画像を生成する場合の処理手順の一例を説明するフローチャートである。FIG. 10 is a flowchart for explaining an example of a processing procedure in the case of generating a bird's-eye view image by the image processing apparatus according to the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。   In the following, exemplary embodiments of the present invention are disclosed. The configurations of the embodiments shown below, and the operations, results, and effects provided by the configurations are examples. The present invention can be realized by configurations other than the configurations disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

図1は、本実施形態の画像処理装置が搭載される車両10の模式的な平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪12(前輪12F、後輪12R)の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。   FIG. 1 is a schematic plan view of a vehicle 10 on which the image processing apparatus of the present embodiment is mounted. The vehicle 10 may be, for example, an automobile (internal combustion engine automobile) driven by an internal combustion engine (engine, not shown) or an automobile (electric automobile) driven by an electric motor (motor, not shown) , A fuel cell vehicle, etc.) or a vehicle (hybrid vehicle) using both of them as a driving source. In addition, the vehicle 10 can mount various transmissions, and can mount various devices (systems, components, etc.) necessary to drive an internal combustion engine or a motor. In addition, the system, number, layout, and the like of devices involved in driving the wheels 12 (front wheels 12F, rear wheels 12R) in the vehicle 10 can be set variously.

図1に例示されるように、車両10には、複数の撮像部14として、例えば四つの撮像部14a〜14dが設けられている。撮像部14は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部14は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部14は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜220°の範囲を撮影することができる。また、撮像部14の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部14は、車両10が移動可能な路面や路面に付されたマーク(矢印や区画線、駐車スペースを示す線、車線分離線等を含む)や物体(障害物として、例えば、歩行者、車両等)を含む車両10の外部の周辺環境を逐次撮影し、撮像画像データとして出力する。   As illustrated in FIG. 1, the vehicle 10 is provided with, for example, four imaging units 14 a to 14 d as the plurality of imaging units 14. The imaging unit 14 is, for example, a digital camera that incorporates an imaging device such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 14 can output moving image data (captured image data) at a predetermined frame rate. The imaging units 14 each have a wide-angle lens or a fish-eye lens, and can capture a range of, for example, 140 ° to 220 ° in the horizontal direction. In addition, the optical axis of the imaging unit 14 may be set obliquely downward. Therefore, the imaging unit 14 may use a road surface on which the vehicle 10 can move or a mark (including an arrow, a dividing line, a line indicating a parking space, a lane separation line, etc.) or an object (for example, walking as an obstacle). The surrounding environment outside the vehicle 10 including the person, the vehicle, etc.) is sequentially photographed, and is output as photographed image data.

撮像部14は、車両10の外周部に設けられている。撮像部14aは、例えば、車両10の右側の端部、例えば右側のドアミラー10aに設けられて、車両10の右側方を中心とする領域(例えば右前方から右後方の領域)を含む右側方画像を撮像可能である。撮像部14bは、例えば、車両10の左側の端部、例えば左側のドアミラー10bに設けられて、車両10の左側方を中心とする領域(例えば左前方から左後方の領域)を含む左側方画像を撮像可能である。また、撮像部14cは、例えば、車両10の前側、すなわち車両前後方向の前方側で車幅方向のほぼ中央の端部、例えばフロントバンパ10cやフロントグリル等に設けられて、車両10の前端部(例えばフロントバンパ10c)を含む前方画像を撮像可能である。撮像部14dは、例えば、車両10の後側、すなわち車両前後方向の後方側で車幅方向のほぼ中央の端部、例えばリヤバンパ10dに設けられて、車両10の後端部(例えばリヤバンパ10d)を含む後方領域を撮像可能である。なお、撮像部14aおよび撮像部14bは、車両10の側方領域を撮像する第一の撮像部と称することができる。また、撮像部14c、撮像部14dは、車両10の進行方向領域を撮像する第二の撮像部と称することができる。   The imaging unit 14 is provided on the outer peripheral portion of the vehicle 10. The imaging unit 14a is provided at, for example, the right end of the vehicle 10, for example, the right side door mirror 10a, and includes a region centered on the right side of the vehicle 10 (for example, a right front to right rear region) Can be taken. The imaging unit 14b is provided at, for example, the left end of the vehicle 10, for example, the left side door mirror 10b, and includes a left side image including an area centered on the left side of the vehicle 10 (for example, an area from left front to left rear) Can be taken. The imaging unit 14c is provided, for example, on the front side of the vehicle 10, that is, on the front end in the vehicle longitudinal direction and at the substantially central end in the vehicle width direction, for example, the front bumper 10c or the front grille. It is possible to capture a forward image including (for example, the front bumper 10c). The imaging unit 14d is provided, for example, on the rear side of the vehicle 10, that is, on the rear end side of the vehicle in the approximate center in the vehicle width direction, for example, the rear bumper 10d, and the rear end of the vehicle 10 (for example, rear bumper 10d) It is possible to image the rear area including. The imaging unit 14 a and the imaging unit 14 b can be referred to as a first imaging unit that images a side area of the vehicle 10. In addition, the imaging unit 14 c and the imaging unit 14 d can be referred to as a second imaging unit that images the traveling direction area of the vehicle 10.

複数の撮像部14で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両10を上方から見た仮想的な俯瞰画像(平面画像)を生成したりすることができる。なお、各撮像部14が撮像する撮像画像データ(画像)には、互いに重複する重複領域を設けてもよい。例えば、撮像部14aの撮像した撮像画像データの前方側の端部と撮像部14cが撮像した撮像画像データの右側の端部とが重複する。そして、二つの画像を繋げる(合成する)場合、右側方画像の撮像画像データと前方画像の撮像画像データのそれぞれa%を利用して画像を合成するブレンド処理を実行してもよい。ブレンド処理を実行することにより、右側方画像と前方画像とが、徐々に変化するように合成され、明るさや色合いの違いによって生じる境界線を目立ちにくくすることができる。同様に、前方画像と左側方画像、左側方画像と後方画像、後方画像と右側方画像についてもブレンド処理を施すことで、合成した周辺画像全体において境界線を目立ちにくくすることができる。   Arithmetic processing and image processing are executed based on captured image data obtained by a plurality of imaging units 14 to generate an image with a wider viewing angle, or a virtual overhead image (planar image when the vehicle 10 is viewed from above Can be generated. The captured image data (image) captured by each imaging unit 14 may be provided with overlapping regions overlapping each other. For example, the front end of the captured image data captured by the imaging unit 14a and the end on the right side of the captured image data captured by the imaging unit 14c overlap. Then, when connecting (combining) two images, blending processing may be performed in which images are synthesized using a% of the captured image data of the right side image and the captured image data of the front image. By performing the blending process, the right side image and the front image are synthesized so as to gradually change, and it is possible to make the boundary line generated due to the difference in the brightness and the hue inconspicuous. Similarly, by performing blending processing also on the front image and the left side image, the left side image and the rear image, and the rear image and the right side image, it is possible to make the borderline inconspicuous in the entire synthesized peripheral image.

図2は、車両10に搭載される画像処理装置を含む画像処理システム100の構成の例示的なブロック図である。車両10の車室内には、表示装置16や、音声出力装置18が設けられている。表示装置16は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置18は、例えば、スピーカである。また、表示装置16は、例えば、タッチパネル等、透明な操作入力部20で覆われている。乗員(例えば、運転者)は、操作入力部20を介して表示装置16の表示画面に表示される画像を視認することができる。また、乗員は、表示装置16の表示画面に表示される画像に対応した位置で、手指等で操作入力部20を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置16や、音声出力装置18、操作入力部20等は、例えば、車両10のダッシュボードの車幅方向すなわち左右方向の中央部に位置されたモニタ装置22に設けられている。モニタ装置22は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。モニタ装置22は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。   FIG. 2 is an exemplary block diagram of a configuration of an image processing system 100 including an image processing device mounted on a vehicle 10. As shown in FIG. A display device 16 and an audio output device 18 are provided in the compartment of the vehicle 10. The display device 16 is, for example, a liquid crystal display (LCD), an organic electroluminescent display (OELD), or the like. The audio output device 18 is, for example, a speaker. The display device 16 is covered with a transparent operation input unit 20 such as a touch panel, for example. An occupant (for example, a driver) can visually recognize the image displayed on the display screen of the display device 16 via the operation input unit 20. In addition, the occupant may execute the operation input by operating the operation input unit 20 by touching or pushing or moving the operation input unit 20 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 16. it can. The display device 16, the audio output device 18, the operation input unit 20, and the like are provided, for example, in the monitor device 22 positioned at the center in the vehicle width direction of the dashboard of the vehicle 10. The monitor device 22 can have an operation input unit (not shown) such as a switch, a dial, a joystick, or a push button. The monitor device 22 can be used, for example, as a navigation system or an audio system.

また、図2に例示されるように、画像処理システム100(画像処理装置)は、撮像部14(14a〜14d)やモニタ装置22に加え、ECU24(electronic control unit)が含まれる。画像処理システム100(画像処理装置)では、ECU24やモニタ装置22は、電気通信回線としての車内ネットワーク26を介して電気的に接続されている。車内ネットワーク26は、例えば、CAN(controller area network)として構成されている。ECU24は、車内ネットワーク26を通じて制御信号を送ることで、各種システムの制御が実行できる。また、ECU24は、車内ネットワーク26を介して、操作入力部20や各種スイッチの操作信号等や図示を省略している各種センサの検出信号等を、受け取ることができる。   Further, as illustrated in FIG. 2, the image processing system 100 (image processing apparatus) includes an ECU 24 (electronic control unit) in addition to the imaging units 14 (14 a to 14 d) and the monitor device 22. In the image processing system 100 (image processing apparatus), the ECU 24 and the monitor device 22 are electrically connected via an in-vehicle network 26 as a telecommunication line. The in-vehicle network 26 is configured, for example, as a controller area network (CAN). The ECU 24 can execute control of various systems by transmitting control signals through the in-vehicle network 26. Further, the ECU 24 can receive, via the in-vehicle network 26, operation signals and the like of the operation input unit 20 and various switches and detection signals and the like of various sensors (not shown).

ECU24は、撮像部14から撮像画像データを取得する。ECU24は、撮像画像等に基づいて生成した周辺画像や音声に関するデータをモニタ装置22へ送信する。ECU24は、例えば、CPU24a(central processing unit)や、ROM24b(read only memory)、RAM24c(random access memory)、表示制御部24d、音声制御部24e、SSD24f(solid state drive、フラッシュメモリ)等を有している。   The ECU 24 acquires captured image data from the imaging unit 14. The ECU 24 transmits, to the monitor device 22, data related to a surrounding image or sound generated based on a captured image or the like. The ECU 24 has, for example, a CPU 24a (central processing unit), a ROM 24b (read only memory), a RAM 24c (random access memory), a display control unit 24d, a voice control unit 24e, an SSD 24f (solid state drive, flash memory) and the like. ing.

CPU24aは、ROM24b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。ROM24bは、各プログラム及びプログラムの実行に必要なパラメータ等を記憶する。CPU24aは、例えば、図3に示すような各種モジュールを備え、表示装置16で表示される画像に関連した処理を実行する。例えば、CPU24aは、撮像部14が撮像した撮像画像データに補正処理や演算処理、画像処理等を実行して、複数の画像を繋ぎ合わせた周辺画像(例えば、俯瞰画像)を生成する。CPU24aの詳細は後述する。   The CPU 24a reads a program stored (installed) in a non-volatile storage device such as the ROM 24b, and executes arithmetic processing according to the program. The ROM 24 b stores each program and parameters required for the execution of the program. The CPU 24a includes, for example, various modules as shown in FIG. 3, and executes processing related to the image displayed on the display device 16. For example, the CPU 24a executes correction processing, arithmetic processing, image processing, and the like on the captured image data captured by the imaging unit 14 to generate a peripheral image (for example, an overhead image) in which a plurality of images are connected. Details of the CPU 24a will be described later.

RAM24cは、CPU24aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部24dは、ECU24での演算処理のうち、主として、表示装置16で表示させる表示用の画像のデータ変換等を実行する。また、音声制御部24eは、ECU24での演算処理のうち、主として、音声出力装置18で出力される音声データの処理を実行する。SSD24fは、書き換え可能な不揮発性の記憶部であって、ECU24の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU24aや、ROM24b、RAM24c等は、同一パッケージ内に集積されうる。また、ECU24は、CPU24aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD24fに替えてHDD(hard disk drive)が設けられてもよいし、SSD24fやHDDは、ECU24とは別に設けられてもよい。   The RAM 24 c temporarily stores various data used in the calculation in the CPU 24 a. The display control unit 24 d mainly performs data conversion of an image for display to be displayed on the display device 16 among the arithmetic processing in the ECU 24. Further, the voice control unit 24 e mainly performs processing of voice data output from the voice output device 18 among the calculation processing in the ECU 24. The SSD 24 f is a rewritable non-volatile storage unit, and can store data even when the power supply of the ECU 24 is turned off. The CPU 24a, the ROM 24b, the RAM 24c, and the like can be integrated in the same package. Further, the ECU 24 may be configured to use another logical operation processor such as a DSP (digital signal processor) or a logic circuit instead of the CPU 24a. In addition, a hard disk drive (HDD) may be provided instead of the SSD 24f, and the SSD 24f and the HDD may be provided separately from the ECU 24.

本実施形態では、ECU24は、ハードウェアとソフトウェア(制御プログラム)が協働することにより、車両10の画像生成処理を司る。ECU24は、撮像部14が撮像した撮像画像データ(画像)を画像処理、例えば視点変換処理等を施して表示装置16に表示させる場合に、車両10(自車)に対して周囲の物体等が正しい位置(実際の位置に対応する位置)に表示されるように、画像処理上の撮像部14の認識位置を補正した上で画像処理を実行して表示画像を出力する。例えば、各撮像部14(14a〜14d)で撮像した複数の撮像画像データ(画像)を繋ぎ合わせて周辺画像(例えば、俯瞰画像)を表示させる場合、車両10(自車)に対して周囲の物体等が正しい位置に表示されるように撮像画像データを補正した上で繋ぎ合わせて周辺画像を生成する。なお、本実施形態において、撮像部14の画像処理上の認識位置の補正は、いずれか一つの撮像部14に対して実施してもよいし、複数の撮像部14に対して実施してもよい。以下の説明では、車両10の撮像部14のうち例えば右側方を撮像する撮像部14aの設置位置や姿勢が設計上の位置や姿勢からずれていた場合に、画像処理上の撮像部14aの認識位置を補正することで、表示する画像全体の補正を実施する例を説明する。   In the present embodiment, the ECU 24 manages image generation processing of the vehicle 10 by cooperation of hardware and software (control program). The ECU 24 performs image processing, for example, viewpoint conversion processing, and displays the captured image data (image) captured by the imaging unit 14 on the display device 16, the surrounding objects and the like with respect to the vehicle 10 (own vehicle) After the recognition position of the imaging unit 14 in image processing is corrected so as to be displayed at the correct position (the position corresponding to the actual position), the image processing is performed to output the display image. For example, in the case where a plurality of captured image data (images) captured by the respective imaging units 14 (14a to 14d) are connected to display a surrounding image (for example, a bird's-eye view image) The captured image data is corrected so that an object or the like is displayed at the correct position, and then connected to generate a peripheral image. In the present embodiment, the correction of the recognition position on the image processing of the imaging unit 14 may be performed on any one imaging unit 14 or may be performed on a plurality of imaging units 14. Good. In the following description, when the installation position and orientation of the imaging unit 14a that images, for example, the right side in the imaging unit 14 of the vehicle 10 deviates from the designed position and orientation, recognition of the imaging unit 14a in image processing An example in which the correction of the entire image to be displayed is performed by correcting the position will be described.

ECU24に含まれるCPU24aは、上述したような補正処理を実行するための各種モジュールを備える。各種モジュールは、CPU24aがROM24b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現される。例えば、CPU24aは、図3に示されるように、取得部28、投影処理部30、検出部32、補正部34、画像処理部36等のモジュールを備える。また、取得部28は、画像取得部28a、第一の参照位置取得部28b、パラメータ取得部28c等を含み、補正部34は、変位取得部34a、認識位置補正部34b、パラメータ補正部34c等を含む。   The CPU 24a included in the ECU 24 includes various modules for executing the correction process as described above. The various modules are realized by the CPU 24a reading a program installed and stored in a storage device such as the ROM 24b and executing the program. For example, as illustrated in FIG. 3, the CPU 24a includes modules such as an acquisition unit 28, a projection processing unit 30, a detection unit 32, a correction unit 34, and an image processing unit 36. The acquisition unit 28 includes an image acquisition unit 28a, a first reference position acquisition unit 28b, a parameter acquisition unit 28c, and the like. The correction unit 34 includes a displacement acquisition unit 34a, a recognition position correction unit 34b, a parameter correction unit 34c, and the like. including.

取得部28は、撮像部14の画像処理上の認識位置を補正する処理を実行するために必要な各種情報を取得する。   The acquisition unit 28 acquires various pieces of information necessary to execute the process of correcting the recognition position on the image processing of the imaging unit 14.

画像取得部28aは、表示制御部24dを介して各撮像部14(14a〜14d)が撮像した撮像画像データを逐次取得する。   The image acquisition unit 28 a sequentially acquires captured image data captured by each of the imaging units 14 (14 a to 14 d) via the display control unit 24 d.

第一の参照位置取得部28bは、車両10の外面の一部に設定される第一の参照位置を取得する。車両10の外面の一部に設定される第一の参照位置は、例えばROM24bに後述する路面上の座標系(X,Y,Z)上の位置として予め記憶されている。図4は、第一の参照位置Pの一例を示す俯瞰視図である。また、図5は、第一の参照位置Pの一例を示す撮像部14a(右側方撮像部)で撮像した画像例を示す模式図である。第一の参照位置Pは、図4、図5に示すように、例えば、右側の前輪12Fの外面側の接地点とすることができる。第一の参照位置Pは、前輪12Fの外周面に限らず、補正対象となる撮像部14(例えば、撮像部14a)の撮像範囲に含まれる車両10の外面であれば、いずれの位置でもよい。別の実施形態では、第一の参照位置Pを車両10のボディの一部、例えば、ドアの下端コーナー部等に設定してもよく、同様な効果を得ることができる。なお、上述したように、撮像部14aで撮像する場合、第一の参照位置Pを撮像部14aからの距離が比較的近く、画像認識する場合でも容易に認識可能な前輪12Fの接地位置とすることで認識精度を向上することができる。   The first reference position acquisition unit 28 b acquires a first reference position set on part of the outer surface of the vehicle 10. The first reference position set on part of the outer surface of the vehicle 10 is stored in advance in, for example, the ROM 24 b as a position on a road surface coordinate system (X, Y, Z) described later. FIG. 4 is a perspective view showing an example of the first reference position P. As shown in FIG. FIG. 5 is a schematic view showing an example of an image captured by the imaging unit 14a (right-side imaging unit) showing an example of the first reference position P. As shown in FIG. The first reference position P can be, for example, a grounding point on the outer surface side of the right front wheel 12F as shown in FIGS. 4 and 5. The first reference position P is not limited to the outer peripheral surface of the front wheel 12F, and may be any position as long as it is the outer surface of the vehicle 10 included in the imaging range of the imaging unit 14 (for example, imaging unit 14a) to be corrected . In another embodiment, the first reference position P may be set to a part of the body of the vehicle 10, for example, a lower end corner portion of a door or the like, and similar effects can be obtained. As described above, when imaging by the imaging unit 14a, the first reference position P is a contact position of the front wheel 12F which is relatively close to the imaging unit 14a and can be easily recognized even when the image is recognized. This can improve the recognition accuracy.

なお、第一の参照位置Pは、車両10に設定された基準位置Oを基準に定められてもよい。基準位置Oを設定しておくことにより、現実空間での第一の参照位置Pの位置や画像上での第一の参照位置Pの位置を認識させやすくすることができるとともに、座標系を用いた演算を行う場合に処理が容易になる。基準位置Oは、例えば、車両10の左右の後輪12Rを支持する後輪軸12aの長手方向(車幅方向)の中心位置とすることができる。また別の実施形態では、基準位置Oは、例えば、車両10の前後方向に延びる車両中心CL上の位置としてもよい。この場合、例えば、第一の参照位置Pから車両中心CLに下ろした垂線の交点を基準位置Oとしてもよい。なお、基準位置Oから第一の参照位置Pまでの実際の距離は既知であるため、基準位置Oおよび第一の参照位置Pを画像上に投影したときの画像上の離間距離(ドット数)を検出することにより、画像上の1ドットのずれと現実空間での距離のずれとの対応付けが容易になる。例えば、画像上で10ドットずれている場合は、現実空間では、10cmずれている等に対応付けを行うことができる。なお、画像上の1ドットに対応する距離を予めROM24b等に記憶しておくことで、画像上の1ドットのずれと現実空間での距離のずれとの対応付けを行うようにしてもよい。   The first reference position P may be determined based on the reference position O set in the vehicle 10. By setting the reference position O, the position of the first reference position P in real space and the position of the first reference position P on the image can be easily recognized, and a coordinate system is used. Processing becomes easy when performing the same calculation. The reference position O can be, for example, a central position in the longitudinal direction (vehicle width direction) of the rear wheel shaft 12a that supports the left and right rear wheels 12R of the vehicle 10. In another embodiment, the reference position O may be, for example, a position on the vehicle center CL extending in the front-rear direction of the vehicle 10. In this case, for example, the intersection of perpendiculars drawn from the first reference position P to the vehicle center CL may be used as the reference position O. In addition, since the actual distance from the reference position O to the first reference position P is known, the separation distance (the number of dots) on the image when the reference position O and the first reference position P are projected on the image By detecting V.sub.x, it becomes easy to associate the displacement of one dot on the image with the displacement of the distance in the real space. For example, in the case where there is a shift of 10 dots on the image, it is possible to perform matching in the real space, such as a shift of 10 cm. The distance corresponding to one dot on the image may be stored in advance in the ROM 24b or the like to associate the deviation of one dot on the image with the deviation of the distance in the physical space.

パラメータ取得部28cは、撮像部14が撮像した画像を投影変換する際に用いる投影変換パラメータを例えばROM24bやSSD24f等の記憶部から取得する。例えば、図6に示すように、路面上の座標系を(X,Y,Z)、撮像部14aのカメラ画上の座標系(カメラ座標系)を(X0,,Z)とし、路面上の座標とカメラ画上の座標系の距離、角度が極座標(ρ,θ,φ)で表されるとき、座標系の変換は、以下の式1で表すことができる。なお、ρは、路面上の座標系の原点(例えば、図4の基準位置Oに相当)からカメラ座標系の原点Tまでの距離である。また、θは、路面上の座標系の原点とカメラ座標系の原点Tを路面上の座標系のXY平面に投影した点Tの位置とを結んだ直線とX軸のなす角度である。また、φは、路面上の座標系の原点とカメラ座標系の原点Tとを結んだ直線とZ軸のなす角度である。

Figure 2019114965
この場合、式1における係数部分が投影変換パラメータとなる。ROM24bまたはSSD24fには、現在の撮像部14aの画像処理上の認識位置(例えば原点)に対応する極座標(ρ,θ,φ)が保存されてもよいし、式1にρ,θ,φを代入した係数とした投影変換パラメータとして記憶しておいてもよい。 The parameter acquisition unit 28c acquires, from a storage unit such as the ROM 24b or the SSD 24f, for example, a projection conversion parameter used when performing projection conversion on the image captured by the imaging unit 14. For example, as shown in FIG. 6, let (X, Y, Z) be the coordinate system on the road surface, and (X 0, Y 0 , Z 0 ) be the coordinate system (camera coordinate system) on the camera image of the imaging unit 14a. When the distance between the coordinates on the road surface and the coordinate system on the camera image and the angle are represented by polar coordinates (ρ, θ, φ), the transformation of the coordinate system can be represented by the following Equation 1. Note that ρ is the distance from the origin of the coordinate system on the road surface (for example, corresponding to the reference position O in FIG. 4) to the origin T 0 of the camera coordinate system. Further, theta is the angle between the origin and the camera coordinate system lines and X-axis origin T 0 connecting the position of the point T that is projected on the XY plane of the coordinate system on the road surface coordinate system on the road surface. Further, φ is an angle formed by a straight line connecting the origin of the coordinate system on the road surface and the origin T 0 of the camera coordinate system and the Z axis.
Figure 2019114965
In this case, the coefficient part in Equation 1 is a projection conversion parameter. Polar coordinates (ρ, θ, φ) corresponding to the recognition position (for example, the origin) of the current image processing of the imaging unit 14 a may be stored in the ROM 24 b or the SSD 24 f. It may be stored as a projection conversion parameter as a substituted coefficient.

投影処理部30は、パラメータ取得部28cが取得した投影パラメータを適用することにより、撮像部14(例えば撮像部14a)が撮像した撮像画像データの各画素(カメラ座標系(X0,,Z)上の画素)を逐次路面上の座標系(X,Y,Z)に投影することができる。例えば、カメラ座標系(X0,,Z)の原点Tに位置する画素を路面上の座標系(X,Y,Z)上の点Tに投影することができる。この場合、撮像部14は車両10に対して固定されている。例えば、撮像部14aは右側のドアミラー10aの下面に固定されているので、撮像部14aの画像処理上の認識位置を一定の位置に定めることができる。したがって、撮像部14aの設置位置や取り付け姿勢が設計上の位置や姿勢に維持されている場合、撮像した撮像画像データに映っている例えば、前輪12Fの接地位置に対応する画素は、路面上の座標系(X,Y,Z)上で、第一の参照位置取得部28bが取得した第一の参照位置Pと一致する位置に投影変換される。 The projection processing unit 30 applies each of the projection parameters acquired by the parameter acquisition unit 28 c to each pixel of the captured image data captured by the imaging unit 14 (for example, the imaging unit 14 a) (camera coordinate system (X 0, Y 0 , Pixels on Z 0 ) can be projected sequentially to the coordinate system (X, Y, Z) on the road surface. For example, a pixel located at the origin T 0 of the camera coordinate system (X 0, Y 0 , Z 0 ) can be projected to a point T on the road coordinate system (X, Y, Z). In this case, the imaging unit 14 is fixed to the vehicle 10. For example, since the imaging unit 14a is fixed to the lower surface of the right side door mirror 10a, the recognition position on the image processing of the imaging unit 14a can be set to a fixed position. Therefore, when the installation position and mounting posture of the imaging unit 14a are maintained at the designed position and posture, for example, the pixels corresponding to the ground contact position of the front wheel 12F in the captured image data captured are on the road surface. The projection conversion is performed on the coordinate system (X, Y, Z) to a position coincident with the first reference position P acquired by the first reference position acquisition unit 28 b.

一方、撮像部14aの設置位置や取り付け姿勢が何らかの原因、例えば、車両10が走行することにより与えられる振動や他の物体との接触等が原因で、設計上の位置や姿勢に対してずれてしまう場合がある。このような場合、例えば実際の前輪12Fの接地位置(第一の参照位置Pと実質的に同じ位置)に対応する画像は、図7に示すように、カメラ座標系(X0,,Z)からずれたカメラ座標系(X1,,Z)上で、撮像されることになる。この場合、画像処理上では、撮像部14aの認識位置は、カメラ座標系(X0,,Z)上での認識位置のままのため、撮像部14aの位置や姿勢がずれた状態で撮像された撮像画像データは、極座標(ρ,θ,φ)に対応する投影変換パラメータを適用した式1を用いて投影変換される。その結果、前輪12Fの接地位置に対応する画素は、撮像部14aの設置位置や姿勢のずれに対応する量だけ移動した状態で路面上の座標系(X,Y,Z)に投影されることになる。つまり、第一の参照位置Pからずれた第二の参照位置Qに投影される。図8は、撮像部14aの設置位置や姿勢がずれた状態で、撮像された撮像画像データに基づき、俯瞰画像(車両10の右側の俯瞰画像)を生成した例であり、表示される白線Lの位置が実際の白線Lの位置からずれてしまう例を説明する模式図である。このような俯瞰画像に基づき運転者が車両10の周辺状況の認識を行った場合、車両10の側方に存在する白線Lの位置は、例えば画像中心位置に表示される自車アイコン40に対して実際より例えば遠くに表示される。つまり、実際の白線Lまでの距離とは異なる距離感を運転者に与えてしまう場合がある。その結果、車両10の幅寄せ等がイメージ通りにできなかったり、障害物との距離を誤って認識して接触したりしてしまう場合がある。 On the other hand, the installation position and mounting posture of the imaging unit 14a are shifted with respect to the designed position and posture due to some cause, for example, vibration given by the traveling of the vehicle 10 or contact with other objects. There are times when In such a case, for example, as shown in FIG. 7, the image corresponding to the contact position of the actual front wheel 12F (the position substantially the same as the first reference position P) is the camera coordinate system (X 0, Y 0 , Z 0) from the shifted camera coordinate system on (X 1, Y 1, Z 1), to be imaged. In this case, in image processing, the recognition position of the imaging unit 14a remains the recognition position on the camera coordinate system (X 0, Y 0 , Z 0 ), so that the position or posture of the imaging unit 14a is shifted. The picked-up image data picked up by the above are projection-transformed using Formula 1 to which a projection transformation parameter corresponding to polar coordinates (.rho., .Theta., .Phi.) Is applied. As a result, the pixel corresponding to the contact position of the front wheel 12F is projected on the coordinate system (X, Y, Z) on the road surface while being moved by an amount corresponding to the displacement of the installation position or posture of the imaging unit 14a. become. That is, it is projected to the second reference position Q shifted from the first reference position P. FIG. 8 is an example in which an overhead image (an overhead image of the right side of the vehicle 10) is generated based on captured image data captured in a state in which the installation position and posture of the imaging unit 14a are shifted. Is a schematic diagram for explaining an example in which the position of s shifts from the actual position of the white line L 0 . When the driver recognizes the surrounding condition of the vehicle 10 based on such a bird's-eye view image, the position of the white line L present on the side of the vehicle 10 corresponds to, for example, the vehicle icon 40 displayed at the image center position. For example, it is displayed far from the actual. That is, in some cases giving the driver a different sense of distance from the actual distance to the white line L 0. As a result, there is a possibility that the vehicle 10 can not be moved in the width direction or the like according to the image, or the distance to the obstacle may be erroneously recognized and touched.

そこで、本実施形態の画像処理システム100の検出部32は、設置位置や姿勢がずれてしまっている撮像部14(例えば撮像部14a)で取得された撮像画像データ上で第一の参照位置Pに対応する第二の参照位置Qを検出する。例えば、設置位置や姿勢がずれた撮像部14aのカメラ座標系(X1,,Z)上で、ずれが無い状態で定められた投影変換パラメータ(初期値)を(X0,,Z)を(X1,,Z)に読み替えた式1に適用する。そして、撮像部14aで撮像された前輪12Fの接地位置を路面上の座標系(X,Y,Z)に投影する。つまり、検出部32は、第一の参照位置取得部28bが取得した第一の参照位置P(撮像部14aの設置位置や姿勢のずれがなければ前輪12Fの接地位置となる位置)に対応する位置である第二の参照位置Qを検出することができる。 Therefore, the detection unit 32 of the image processing system 100 according to the present embodiment is configured to detect the first reference position P on the captured image data acquired by the imaging unit 14 (for example, the imaging unit 14a) whose installation position or posture has shifted. A second reference position Q corresponding to is detected. For example, on the camera coordinate system (X 1, Y 1 , Z 1 ) of the imaging unit 14a in which the installation position or the orientation is shifted, a projection conversion parameter (initial value) determined in a state without displacement is set to (X 0, Y 0, Z 0) is applied to equation 1 read as the (X 1, Y 1, Z 1). Then, the contact position of the front wheel 12F imaged by the imaging unit 14a is projected on the coordinate system (X, Y, Z) on the road surface. That is, the detection unit 32 corresponds to the first reference position P acquired by the first reference position acquisition unit 28b (a position at which the front wheel 12F will be in the ground position if there is no shift in the installation position or posture of the imaging unit 14a). A second reference position Q, which is a position, can be detected.

そして、補正部34は、検出部32が検出した第一の参照位置Pと第二の参照位置Qとのずれ、すなわち変位量(差分、差分距離)に基づき、撮像部14(例えば撮像部14a)の画像処理上の認識位置を補正する。認識位置の補正は、例えば、投影変換するときの投影変換パラメータを補正することで実行することができる。   Then, the correction unit 34 detects the imaging unit 14 (for example, the imaging unit 14a) based on the deviation between the first reference position P and the second reference position Q detected by the detection unit 32, that is, the displacement amount (difference, difference distance). Correct the recognition position on the image processing of The correction of the recognition position can be performed, for example, by correcting a projection conversion parameter at the time of projection conversion.

変位取得部34aは、例えば、路面上の座標系(X,Y,Z)に投影された第一の参照位置Pと第二の参照位置Qとの変位量(ずれ)を検出する。ROM24bは、例えば、撮像部14aで物体を撮像して、本実施形態の画像処理システム100を用いて路面上の座標系(X,Y,Z)に投影した場合に、例えば10ドットで表示できる大きさ(長さ、距離等)を示す変位基準値データを第一の参照位置Pのデータと共に記憶する。変位取得部34aは、変位基準値データに基づき、第一の参照位置Pと第二の参照位置Qとの変位量を取得することができる。なお、変位基準値データは、図4で説明したように、基準位置Oと第一の参照位置Pとの現実の距離と画面上での距離(ドット数)との関係で定めてもよい。   The displacement acquisition unit 34a detects, for example, the displacement (displacement) between the first reference position P and the second reference position Q projected on the coordinate system (X, Y, Z) on the road surface. The ROM 24b can display, for example, 10 dots when the object is imaged by the imaging unit 14a and projected on a road coordinate system (X, Y, Z) using the image processing system 100 according to the present embodiment. The displacement reference value data indicating the size (length, distance, etc.) is stored together with the data of the first reference position P. The displacement acquisition unit 34a can acquire the displacement amounts of the first reference position P and the second reference position Q based on the displacement reference value data. The displacement reference value data may be determined by the relationship between the actual distance between the reference position O and the first reference position P and the distance on the screen (the number of dots), as described in FIG.

認識位置補正部34bは、変位取得部34aが取得した変位量に基づき、例えば、図7に示すように、設置位置や姿勢がずれた撮像部14aで用いているカメラ座標系(X1,,Z)を補正する。例えば、第二の参照位置Qが第一の参照位置Pに一致するように画像処理上の撮像部14aの認識位置に補正する。つまり、カメラ座標系(X1,,Z)をカメラ座標系(X2,,Z)に補正する。このとき、第一の参照位置Pと第二の参照位置Qとの変位量が10ドットの場合、第二の参照位置Qが第一の参照位置Pに一致するように、撮像部14aの認識位置を10ドットに相当する量だけ移動することで撮像部14aの認識位置を補正することができる。 Recognizing the position correcting unit 34b, based on the amount of displacement displacement acquiring unit 34a acquires, for example, as shown in FIG. 7, the camera coordinate system is used by the imaging unit 14a to the installation position and posture is displaced (X 1, Y Correct 1 , Z 1 ). For example, it is corrected to the recognition position of the imaging unit 14a in image processing so that the second reference position Q coincides with the first reference position P. That is, the correction camera coordinate system (X 1, Y 1, Z 1) in the camera coordinate system (X 2, Y 2, Z 2). At this time, when the displacement amount between the first reference position P and the second reference position Q is 10 dots, the recognition of the imaging unit 14a is performed such that the second reference position Q coincides with the first reference position P. The recognition position of the imaging unit 14a can be corrected by moving the position by an amount corresponding to 10 dots.

パラメータ補正部34cは、路面上の座標系を(X,Y,Z)、認識位置が補正された結果得られたカメラ座標系を(X2,,Z)とし、路面上の座標とカメラ画上の座標系の距離、角度を示す補正後の極座標(ρ,θ,φ)を算出する。そして、(X0,,Z)を(X2,,Z)に読み替えた式1に極座標(ρ,θ,φ)を適用した場合、係数部分が補正後の投影変換パラメータとなる。つまり、例えば、SSD24fの投影変換パラメータが更新されることになる。この場合、補正後の撮像部14aの画像処理上の認識位置に対応する極座標(ρ,θ,φ)をSSD24fに保存してもよいし、(X0,,Z)を(X2,,Z)に読み替えた式1にρ,θ,φを代入した係数とした補正後の投影変換パラメータを記憶してSSD24fに保存してもよい。 The parameter correction unit 34 c sets the coordinate system on the road surface as (X, Y, Z), and the camera coordinate system obtained as a result of correcting the recognition position as (X 2, Y 2 , Z 2 ). coordinate system distance on the camera image, the polar coordinate after correction illustrating the angle (ρ 2, θ 2, φ 2) is calculated. Then, when polar coordinates ( 2 2 , θ 2 , φ 2 ) are applied to equation 1 in which (X 0, Y 0 , Z 0 ) is replaced by (X 2, Y 2 , Z 2 ), the coefficient part is corrected It becomes a projection conversion parameter of That is, for example, the projection conversion parameter of the SSD 24 f is updated. In this case, polar coordinates (ρ 2 , θ 2 , φ 2 ) corresponding to the recognition position on the image processing of the imaging unit 14 a after correction may be stored in the SSD 24 f or (X 0, Y 0 , Z 0 ) The corrected projection conversion parameters may be stored in the SSD 24 f using the coefficients obtained by substituting ρ 2 , θ 2 , and φ 2 into Equation 1 in which X is replaced by (X 2, Y 2 , Z 2 ).

そして、投影処理部30は、補正された投影変換パラメータを用いて撮像部14aが撮像した撮像画像データを投影変換することにより、第一の参照位置Pと第二の参照位置Qとが一致した投影画像を得ることができる。   Then, the projection processing unit 30 performs projection conversion on the captured image data captured by the imaging unit 14a using the corrected projection conversion parameter, whereby the first reference position P and the second reference position Q coincide with each other. A projected image can be obtained.

画像処理部36は、認識位置が補正されて得られた例えば撮像部14aが撮像した撮像画像データに基づく画像と、他方の撮像部14(例えば、前方用の撮像部14c)の撮像した撮像画像データに基づく画像とを連結する処理を行う。その場合に、補正された撮像部14aの画像内容と撮像部14cの画像内容との連続性が保たれるように、撮像部14cの撮像画像データの補正を行う。例えば、画像処理部36は、図9に示すように、各撮像部14(14a〜14d)で撮像した撮像画像データの視点変換を行い、繋ぎ合わせることで車両10(自車アイコン40)の周囲を俯瞰視する俯瞰画像を生成する。この場合、撮像部14aが撮像した撮像画像データを補正部34による補正後の投影変換パラメータを用いて補正した領域Rと、投影変換パラメータの補正を行わず、当初設定の投影変換パラメータを用いて投影変換した領域R(撮像部14cの撮像画像データ)、領域R(撮像部14bの撮像画像データ)、領域R(撮像部14dの撮像画像データ)を合成する。 The image processing unit 36 is, for example, an image based on captured image data captured by the imaging unit 14a obtained by correcting the recognition position and a captured image captured by the other imaging unit 14 (for example, the imaging unit 14c for the front) A process is performed to connect the data based image. In that case, the captured image data of the imaging unit 14c is corrected so that the continuity between the corrected image content of the imaging unit 14a and the image content of the imaging unit 14c is maintained. For example, as illustrated in FIG. 9, the image processing unit 36 performs viewpoint conversion of captured image data captured by each of the image capturing units 14 (14 a to 14 d), and connects them together to surround the vehicle 10 (own vehicle icon 40). Generate a bird's-eye view image. In this case, using the region R 1 by the imaging unit 14a is corrected using the projective transformation parameter corrected by the correction unit 34 the captured image data obtained by imaging, without correction of the projective transformation parameters, the projection transformation parameters initially set region and projection transformation Te R 2 (captured image data of the imaging unit 14c), (captured image data of the image pickup unit 14b) regions R 3, to synthesize the regions R 4 (captured image data of the image pickup unit 14d).

前述したように、投影変換パラメータが補正されて投影変換された撮像部14aの撮像画像データによる画像が描画される領域Rに映っている白線Lは、現実の白線Lが存在する位置に対応して存在する。一方、投影変換パラメータが補正されずに投影変換された撮像部14cの撮像画像データによる画像が描画される領域Rに映っている右側の白線L2Rは、現実の位置からずれて描画されている可能性があり、白線Lと連続性が維持されない場合がある。この場合、白線L2Rは、回転処理や平行移動、拡縮処理等を施すことにより、補正された白線Lと一致させることができる。すなわち、白線L2Rも正しい位置に描画されるように処理されたことになる。この場合、領域Rに含まれる白線L2Lは、撮像部14cで撮像された同一領域中に存在するため、白線L2Lの描画位置も白線Lの補正の影響を受け、正確な位置に描画されていることになる。同様に、白線Lに基づき正確な位置に描画された領域Rの白線L2Lを基準に領域Rを回転処理や平行移動、拡縮処理等を施して描画することにより正確な位置に描画される。正確な位置に描画された領域Rの白線Lを基準に領域Rに回転処理や平行移動、拡縮処理等を施すことにより領域Rもまた正確な位置に描画することができる。その結果、白線L4Rは白線Lと一致し、白線L4Lは白線Lと一致する。 As described above, white lines L 1 to the image by the captured image data of the projected transformed captured portion 14a projected transformation parameter is corrected is reflected to a region R 1 to be drawn, the position where the white line L 0 of the real exists Exists corresponding to On the other hand, the white line L 2R on the right side image by capturing the image data of the imaging unit 14c which projected transformation parameters are projection transformation without being corrected is reflected in a region R 2 to be drawn is drawn offset from the actual position it may have, in some cases continuity white lines L 1 can not be maintained. In this case, the white line L 2 R can be made to coincide with the corrected white line L 1 by performing rotation processing, parallel movement, enlargement / reduction processing, and the like. That is, the white line L2R is also processed so as to be drawn at the correct position. In this case, the white line L 2L included in the region R 2, due to the presence in the same region taken by the imaging unit 14c, the drawing position of the white line L 2L affected correcting the white line L 1, in the correct position It will be drawn. Drawing Similarly, rotation processing or translation criteria to the region R 3 white lines L 2L of drawn in the correct position based on the white line L 1 region R 2, the exact position by drawing is subjected to scaling processing and the like Be done. The exact rotation process and translate the white line L 3 of the drawing area R 3 in the region R 4 to reference the position, can be drawn to the region R 4 also exact location by performing scaling processing or the like. As a result, white lines L 4R is consistent with the white line L 3, white lines L 4L is consistent with the white line L 1.

このように、撮像部14で撮像された撮像画像データについて、投影変換パラメータの補正を一カ所の撮像部14に対して行うことで、車両10(自車アイコン40)を中心とする正確な位置関係を示す俯瞰画像を容易な処理により生成することができる。なお、上述の例では、いずれか一つの撮像部14に対して、画像処理上の認識位置の補正(投影変換パラメータの補正)を行い、他の撮像部14の画像を補正された画像に合わせるように処理する例を示した。他の実施形態では、複数の撮像部14に対して画像処理上の認識位置の補正(投影変換パラメータの補正)を行ってもよい。この場合、合成される俯瞰画像の描画精度を向上することができる。   As described above, correction of the projection conversion parameter is performed on the imaging unit 14 at one place with respect to the captured image data captured by the imaging unit 14 to obtain an accurate position centered on the vehicle 10 (the vehicle icon 40). The bird's-eye view image showing the relationship can be generated by easy processing. In the above example, correction of the recognition position on the image processing (correction of the projection conversion parameter) is performed on any one of the imaging units 14, and the images of the other imaging units 14 are adjusted to the corrected image. An example of processing is shown. In another embodiment, the correction of the recognition position on the image processing (correction of the projection conversion parameter) may be performed on the plurality of imaging units 14. In this case, the drawing accuracy of the overhead image to be synthesized can be improved.

図10は、上述した画像処理システム100(画像処理装置)により俯瞰画像を生成する場合の画像処理の一例を説明するフローチャートである。なお、撮像部14の設置位置や姿勢は、頻繁にずれるものではなく、例えば、車両10の振動が大きくなる不整地路を長時間走行した場合や、撮像部14の設置位置(例えばドアミラー10aやドアミラー10b)が外部の物体と接触した場合、修理や交換を行った場合、または経時変化等で発生するのみで、基本的にはずれない。したがって、本実施形態において、投影変換パラメータの補正による撮像部14の画像処理上の認識位置の補正は、比較的長い間隔で例えば、定期的または不定期で実施することができる。   FIG. 10 is a flowchart for explaining an example of image processing in the case of generating a bird's-eye view image by the image processing system 100 (image processing apparatus) described above. The installation position and posture of the imaging unit 14 do not shift frequently, for example, when traveling on a rough road where the vibration of the vehicle 10 becomes large for a long time, or the installation position of the imaging unit 14 (for example, the door mirror 10a or When the door mirror 10b) comes in contact with an external object, the door mirror 10b is generated only when it is repaired or replaced, or changes over time, etc., and it basically does not deviate. Therefore, in the present embodiment, the correction of the recognition position on the image processing of the imaging unit 14 by the correction of the projection conversion parameter can be performed at relatively long intervals, for example, periodically or irregularly.

まず、CPU24aは、俯瞰画像の表示(作成)が要求されているか否かを確認する。表示装置16には、通常画面として、ナビゲーション画面やオーディオ画面が表示されているが、運転者が例えば、操作入力部20を操作して、俯瞰画像の表示を要求した場合、CPU24aは、俯瞰画像表示モードに移行する(S100のYes)。俯瞰画像の表示要求がなされた場合、画像取得部28aは、表示制御部24dを介して各撮像部14(14a〜14d)が撮像した撮像画像データ(周辺画像)を取得する(S102)。このとき、画像処理上の撮像部14の認識位置の再調整(補正)タイミングである場合(S104のYes)、第一の参照位置取得部28bは、例えばROM24bに記憶されている第一の参照位置Pに関する情報を取得する(S106)。なお、画像処理上の認識位置の再調整(補正)タイミングは、例えば、イグニッションスイッチがONされた場合や、前回の再調整から一定期間(例えば、1ヶ月)以上経過した場合、運転者が再調整を要望した場合等である。   First, the CPU 24a confirms whether display (creation) of the overhead image is requested. A navigation screen or an audio screen is displayed on the display device 16 as a normal screen, but when the driver requests the display of the bird's-eye view image by operating the operation input unit 20, for example, the CPU 24a displays the bird's-eye view image The display mode is entered (Yes in S100). When the display request for the overhead image is made, the image acquisition unit 28a acquires captured image data (peripheral image) captured by each of the imaging units 14 (14a to 14d) via the display control unit 24d (S102). At this time, if it is time to re-adjust (correct) the recognition position of the imaging unit 14 in image processing (Yes in S104), the first reference position acquisition unit 28b may, for example, make a first reference stored in the ROM 24b. Information on the position P is acquired (S106). Note that the readjustment (correction) timing of the recognition position on the image processing is, for example, when the ignition switch is turned on or when a predetermined period (for example, one month) or more has passed since the previous readjustment, the driver It is when you request adjustment.

撮像部14の画像処理上の認識位置の再調整のタイミングになった場合、投影処理部30は、パラメータ取得部28cを介して現在有効な投影変換パラメータをROM24bまたはSSD24fから取得し、仮の俯瞰画像を描画する(S108)。例えば、処理対象の撮像画像データが撮像部14aにより撮像されている場合、右側方の俯瞰画像を生成する。このとき、補正対象の撮像部14(例えば撮像部14a)の設置位置や姿勢がずれていた場合、図7に示すように、路面上の座標系(X,Y,Z)における第一の参照位置Pとは異なる位置に第二の参照位置Qが投影(描画)される。検出部32は、仮の俯瞰画像(路面上の座標系(X,Y,Z))に表示された第二の参照位置Q(前輪12Fの接地位置)を検出する(S110)。なお、補正対象の撮像部14(例えば撮像部14a)の設置位置や姿勢がずれていない場合、第一の参照位置Pと第二の参照位置Qとは実質的に一致するように描画される。   When it is time to re-adjust the recognition position on the image processing of the imaging unit 14, the projection processing unit 30 acquires a currently effective projection conversion parameter from the ROM 24b or the SSD 24f via the parameter acquisition unit 28c, An image is drawn (S108). For example, when the imaged image data to be processed is imaged by the imaging unit 14a, the bird's-eye view image on the right side is generated. At this time, if the installation position or posture of the imaging unit 14 (for example, the imaging unit 14a) to be corrected is deviated, as shown in FIG. 7, the first reference in the coordinate system (X, Y, Z) on the road surface The second reference position Q is projected (drawn) to a position different from the position P. The detection unit 32 detects the second reference position Q (the contact position of the front wheel 12F) displayed on the temporary overhead view image (coordinate system (X, Y, Z) on the road surface) (S110). Note that the first reference position P and the second reference position Q are drawn so as to substantially match when the installation position or posture of the imaging unit 14 (for example, the imaging unit 14a) to be corrected is not shifted. .

続いて、変位取得部34aは、路面上の座標系(X,Y,Z)上で第一の参照位置Pと第二の参照位置Qとの変位量を算出(取得)し(S112)、認識位置補正部34bは、変位取得部34aが取得した変位量に基づき、第一の参照位置Pと第二の参照位置Qが一致するように、画像処理上の撮像部14aの認識位置を、図7に示すように例えばカメラ座標系(X2,,Z)に補正する(S114)。そして、パラメータ補正部34cは、補正された認識位置(カメラ座標系(X2,,Z))における極座標(ρ,θ,φ)を算出し、(X0,,Z)を(X2,,Z)に読み替えた式1を用いて、撮像部14a用の投影変換パラメータを変更(更新)する(S116)。変更された投影変換パラメータは、例えば、SSD24fに保存され、次回投影変換パラメータが更新されるまで、撮像部14aが撮像した撮像画像データの投影変換に利用される。 Subsequently, the displacement acquisition unit 34a calculates (acquires) displacement amounts of the first reference position P and the second reference position Q on the coordinate system (X, Y, Z) on the road surface (S112), The recognition position correction unit 34b determines the recognition position of the imaging unit 14a in image processing so that the first reference position P and the second reference position Q coincide with each other based on the displacement amount acquired by the displacement acquisition unit 34a. for example the camera coordinate system as shown in FIG. 7 (X 2, Y 2, Z 2) to be corrected (S114). Then, the parameter correction unit 34 c calculates polar coordinates (ρ 2 , θ 2 , φ 2 ) at the corrected recognition position (camera coordinate system (X 2, Y 2 , Z 2 )), and (X 0, Y 0) , Z 0 ) are replaced by (X 2, Y 2 , Z 2 ), and the projection conversion parameter for the imaging unit 14a is changed (updated) using the equation 1 (S116). The changed projection conversion parameter is stored, for example, in the SSD 24 f and is used for projection conversion of captured image data captured by the imaging unit 14 a until the projection conversion parameter is updated next time.

続いて、投影処理部30は、側方の俯瞰画像を描画する(S118)。この場合、例えば右側方俯瞰画像は、パラメータ補正部34cが補正した最新の投影変換パラメータを撮像部14aが撮像した撮像画像データの各画素に適用して投影変換することで画像全体が描画される。一方、左側方俯瞰画像は、ROM24b等に記憶されている撮像部14bが設置されたときに定められた投影変換パラメータを撮像部14bが撮像した撮像画像データの各画素に適用して投影変換することで描画される。また、投影処理部30は、前後の俯瞰画像を描画する(S120)。この場合、前方の俯瞰画像は、ROM24b等に記憶されている撮像部14cが設置されたときに定められた投影変換パラメータを撮像部14cが撮像した撮像画像データの各画素に適用して投影変換することで描画される。同様に、後方の俯瞰画像は、ROM24b等に記憶されている撮像部14dが設置されたときに定められた投影変換パラメータを撮像部14dが撮像した撮像画像データの各画素に適用して投影変換することで描画される。   Subsequently, the projection processing unit 30 draws a side bird's eye view (S118). In this case, for example, the entire right side view image is drawn by applying the latest projection conversion parameter corrected by the parameter correction unit 34c to each pixel of the captured image data captured by the imaging unit 14a and performing projection conversion on the entire image. . On the other hand, the left-side view image is subjected to projection conversion by applying the projection conversion parameter determined when the imaging unit 14b stored in the ROM 24b or the like is installed to each pixel of the captured image data captured by the imaging unit 14b. It is drawn by. In addition, the projection processing unit 30 draws the overhead images before and after (S120). In this case, the front bird's-eye view image applies a projection conversion parameter determined when the imaging unit 14c stored in the ROM 24b or the like is installed to each pixel of captured image data captured by the imaging unit 14c. It is drawn by doing. Similarly, for the overhead bird's-eye view image, a projection conversion parameter determined when the imaging unit 14d stored in the ROM 24b or the like is installed is applied to each pixel of captured image data captured by the imaging unit 14d It is drawn by doing.

そして、画像処理部36は、描画された各俯瞰画像に映っている連続性のある共通点を抽出する(S122)。例えば、図9に示すように、撮像部14aで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線Lと撮像部14cで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L2Rとを抽出する。同様に、撮像部14cで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L2L、撮像部14bで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L、撮像部14dで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L4L,L4R等を抽出する。 Then, the image processing unit 36 extracts the common points having continuity appearing in the drawn overhead images (S122). For example, as shown in FIG. 9, the overhead region R 2 based on the captured image data captured by a white line L 1 and the imaging unit 14c that is reflected in the overhead image region R 1 based on the captured image data captured by the imaging unit 14a It extracts the white lines L 2R contained in the image. Similarly, the white line L 2 L in the overhead image of the region R 2 based on the captured image data captured by the imaging unit 14 c and the white line in the overhead image of the region R 3 based on the captured image data captured by the imaging unit 14 b L 3 , white lines L 4 L and L 4 R and the like appearing in the overhead image of the area R 4 based on the captured image data captured by the imaging unit 14 d are extracted.

そして、画像処理部36は、各撮像部14で撮像した撮像画像データに基づく俯瞰画像を合成して表示装置16に表示させる(S124)。具体的には、まず、画像処理部36は、白線Lと白線L2Rとが連続するように、白線Lに対して領域Rに表示される前方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。続いて画像処理部36は、白線L2Lと白線Lとが連続するように、白線L2Lに対して領域Rに表示される左側方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。同様、画像処理部36は、白線Lと白線L4Lとが連続するように、白線Lに対して領域Rに表示される後方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。その結果、図9に示すような、自車アイコン40に対して正確な位置に描画された白線Lを基準として、各俯瞰画像の位置合わせが実行されて、正確な描画が実現される。つまり、自車アイコン40(車両10)の周囲の表示物までの距離感と現実の物体までの距離感とが対応した、正確な俯瞰画像を表示装置16に表示させることができる。 Then, the image processing unit 36 synthesizes an overhead image based on the captured image data captured by each imaging unit 14 and causes the display device 16 to display the combined image (S124). Specifically, first, the image processing unit 36 performs rotation processing or parallel movement of the bird's-eye view image displayed in the region R 2 with respect to the white line L 1 so that the white line L 1 and the white line L 2 R are continuous. Perform processing, enlargement / reduction processing, etc. to adjust the drawing position. Then the image processing unit 36, as the white line L 2L and the white line L 3 are continuous, rotation processing and translation processing of the left side of the overhead image displayed on the region R 3 relative to the white line L 2L, scaling processing Apply and adjust the drawing position. Similarly, the image processing unit 36, so that the white line L 3 and the white lines L 4L are continuous, rotation processing and translation processing of the rear of the overhead image displayed on the region R 4 relative to the white line L 3, scaling processing, etc. To adjust the drawing position. As a result, as shown in FIG. 9, the white line L 1 as a reference drawn in the correct position relative to the vehicle icon 40, the alignment of each of the overhead image is performed, precise rendering is achieved. In other words, it is possible to display on the display device 16 an accurate overhead image in which the sense of distance to the display object around the vehicle icon 40 (vehicle 10) corresponds to the sense of distance to the real object.

表示装置16に俯瞰画像が表示されたら、CPU24aは、俯瞰画像の表示を終了させる要求がなされているか否かの確認を行う(S126)。例えば、操作入力部20が操作され、俯瞰画像の表示終了要求がなされた場合(S126のYes)、CPU24aは、表示装置16の表示内容を現在表示されている俯瞰画像の表示画面から通常画面であるナビゲーション画面やオーディオ画面に切り替えて(S128)、このフローを一旦終了する。   When the bird's-eye view image is displayed on the display device 16, the CPU 24a confirms whether a request for ending the display of the bird's-eye view image is made (S126). For example, when the operation input unit 20 is operated and the display end request for the overhead image is issued (Yes in S126), the CPU 24a displays the display content of the display device 16 from the display screen of the overhead image currently displayed. It switches to a certain navigation screen or audio screen (S128), and this flow is once ended.

S126において、俯瞰画像の表示終了要求がなされていない場合(S126のNo)、CPU24aは、S102の処理に戻り、次の処理周期で利用する周辺画像の取得を画像取得部28aを介して行い、以降の処理を繰り返し実行する。なお、この場合、S104で、画像処理上の認識位置の再調整(補正)タイミングでない場合(S104のNo)、S106〜S116の処理をスキップして、現在SSD24fに更新記憶された撮像部14a用の最新の投影変換パラメータと、ROM24bに記憶されている撮像部14b、撮像部14c、撮像部14d用の設定当初の投影変換パラメータとを用いて、S118以降の俯瞰画像の描画を行う。つまり、過剰に投影変換パラメータの更新処理が実施されることを抑制して、CPU24aの処理負荷の軽減に寄与している。なお、S100において、俯瞰画像の作成(表示装置16での表示)が要求されない場合(S100のNo)、S102〜S126の処理をスキップして、通常画面(ナビゲーション画面やオーディオ画面)の表示を継続する。   In S126, when the overhead image display end request is not made (No in S126), the CPU 24a returns to the process of S102 and performs acquisition of the peripheral image to be used in the next processing cycle via the image acquisition unit 28a. Execute the following process repeatedly. In this case, if it is not the timing of readjustment (correction) timing of the recognition position on the image processing in S104 (No in S104), the processing of S106 to S116 is skipped, and for the imaging unit 14a currently updated and stored in the SSD 24f. The overhead view image is drawn in S118 and subsequent steps using the latest projection conversion parameters and the projection conversion parameters initially set for the imaging unit 14b, the imaging unit 14c, and the imaging unit 14d stored in the ROM 24b. In other words, excessive execution of the projection conversion parameter updating process is suppressed, which contributes to the reduction of the processing load of the CPU 24a. In S100, when creation of a bird's-eye view image (display on the display device 16) is not requested (No in S100), processing of S102 to S126 is skipped and display of a normal screen (navigation screen or audio screen) is continued. Do.

なお、図10に示すフローチャートは、一例であり、実質的に同様な処理が実行できれば、適宜処理ステップの増減、入れ替え、変更が可能で同様な効果を得ることができる。上述の例では、撮像部14aの画像処理上の認識位置を補正することにより撮像部14aが撮像した撮像画像データに対する投影変換パラメータの補正を行った。別の実施形態では、他の撮像部14の画像処理上の認識位置を同様に補正して撮像した撮像画像データに対する投影変換パラメータの補正を併せて実行するようにしてもよいし、補正処理の度に補正対象とする撮像部14を変更するようにしてもよい。補正処理の度に対象とする撮像部14を変更する場合、S104の再調整(補正)タイミングで、まず撮像部14aの認識位置の補正を行い、次の処理周期で、撮像部14bの認識位置の補正を行う。そして、次の処理周期で撮像部14cの認識位置の補正を行い、次の処理周期で、撮像部14dの認識位置の補正を行う。つまり、各撮像部14の認識位置の補正が全て完了した時点で、再調整(補正)タイミングでの処理が完了したと見なす。この場合、各撮像部14の認識位置の補正が行われるので、より正確な俯瞰画像の生成ができる。   Note that the flowchart shown in FIG. 10 is an example, and if substantially the same processing can be executed, it is possible to appropriately increase, decrease, replace, and change the processing steps, and to obtain the same effect. In the above-described example, correction of the projection conversion parameter is performed on the captured image data captured by the imaging unit 14a by correcting the recognition position on the image processing of the imaging unit 14a. In another embodiment, the correction of the projection conversion parameter may be performed together with the captured image data captured by similarly correcting the recognition position on the image processing of the other imaging unit 14. The imaging unit 14 to be corrected may be changed each time. When changing the target imaging unit 14 every time the correction processing is performed, the recognition position of the imaging unit 14a is first corrected at the readjustment (correction) timing of S104, and the recognition position of the imaging unit 14b is performed in the next processing cycle. Make corrections for Then, the recognition position of the imaging unit 14c is corrected in the next processing cycle, and the recognition position of the imaging unit 14d is corrected in the next processing cycle. That is, when all the corrections of the recognition position of each imaging unit 14 are completed, it is considered that the processing at the readjustment (correction) timing is completed. In this case, since the correction of the recognition position of each imaging unit 14 is performed, it is possible to generate a bird's eye image more accurately.

なお、前方の領域を撮像する撮像部14cの場合、撮像部14cの撮像領域に含まれるフロントバンパ10c上に例えばマーク等を形成したり添付したりすることで第一の参照位置Pとしてもよい。同様に、後方の領域を撮像する撮像部14dの場合、撮像部14dの撮像領域に含まれるリヤバンパ10d上に例えばマーク等を形成したり添付したりすることで第一の参照位置Pとしてもよい。   In addition, in the case of the imaging unit 14c that images the area in front, for example, a mark or the like may be formed or attached on the front bumper 10c included in the imaging area of the imaging unit 14c to set the first reference position P. . Similarly, in the case of the imaging unit 14d that images the rear area, a first reference position P may be set by, for example, forming or attaching a mark or the like on the rear bumper 10d included in the imaging area of the imaging unit 14d. .

また、第一の参照位置Pに対応する第二の参照位置Qの認識性を向上させるため、例えば、車両10の一部に検出用のマーク、例えばシールやLED等を設けてもよい。マークとしてLED等の発光体を用いることにより、第二の参照位置Qの位置の検出精度が向上し、撮像部14の画像処理上の認識位置の補正精度を向上することができる。また、車両10の周囲が暗い状況(例えば夜間等)でも精度のよい補正処理を実行することができる。   Further, in order to improve the recognizability of the second reference position Q corresponding to the first reference position P, for example, a mark for detection, such as a seal or an LED, may be provided on a part of the vehicle 10. By using a light emitter such as an LED as the mark, the detection accuracy of the position of the second reference position Q can be improved, and the correction accuracy of the recognition position on the image processing of the imaging unit 14 can be improved. In addition, even when the surroundings of the vehicle 10 are dark (for example, at night), the correction process can be performed with high accuracy.

本実施形態のCPU24aで実行される画像処理のためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The program for image processing executed by the CPU 24a of the present embodiment is a file of an installable format or an executable format, and is a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), etc. The present invention may be configured to be provided by being recorded on a computer readable recording medium.

さらに、画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   Furthermore, the image processing program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the image processing program executed in the present embodiment may be provided or distributed via a network such as the Internet.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   While the embodiments and variations of the present invention have been described, these embodiments and variations are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and the gist of the invention, and are included in the invention described in the claims and the equivalent scope thereof.

10…車両、12…車輪、12F…前輪、14,14a,14b,14c,14d…撮像部、16…表示装置、20…操作入力部、24…ECU、24a…CPU、24b…ROM、24d…表示制御部、24f…SSD、28…取得部、28a…画像取得部、28b…第一の参照位置取得部、28c…パラメータ取得部、30…投影処理部、32…検出部、34…補正部、34a…変位取得部、34b…認識位置補正部、34c…パラメータ補正部、36…画像処理部、40…自車アイコン、100…画像処理システム、L…白線、P…第一の参照位置、Q…第二の参照位置。   DESCRIPTION OF SYMBOLS 10 ... Vehicle, 12 ... Wheel, 12F ... Front wheel, 14, 14a, 14b, 14c, 14d ... Imaging part, 16 ... Display apparatus, 20 ... Operation input part, 24 ... ECU, 24a ... CPU, 24b ... ROM, 24d ... Display control unit, 24f: SSD, 28: Acquisition unit, 28a: Image acquisition unit, 28b: First reference position acquisition unit, 28c: Parameter acquisition unit, 30: Projection processing unit, 32: Detection unit, 34: Correction unit , 34a: displacement acquisition unit, 34b: recognition position correction unit, 34c: parameter correction unit, 36: image processing unit, 40: vehicle icon, 100: image processing system, L: white line, P: first reference position, Q: Second reference position.

Claims (5)

車両の外面の一部に設定され、予め記憶された第一の参照位置を取得する取得部と、
前記車両に設けられた撮像部で取得された撮像画像データ上で前記第一の参照位置に対応する第二の参照位置を検出する検出部と、
前記第二の参照位置が前記第一の参照位置に一致するように画像処理上の前記撮像部の認識位置を補正する補正部と、
を備える画像処理装置。
An acquisition unit configured to acquire a first reference position which is set on a part of the outer surface of the vehicle and stored in advance;
A detection unit that detects a second reference position corresponding to the first reference position on captured image data acquired by an imaging unit provided in the vehicle;
A correction unit configured to correct a recognition position of the imaging unit in image processing such that the second reference position matches the first reference position;
An image processing apparatus comprising:
前記補正部は、前記第一の参照位置と前記第二の参照位置との変位量に基づき前記撮像部の認識位置を補正する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction unit corrects a recognition position of the imaging unit based on a displacement amount between the first reference position and the second reference position. 前記補正部は、補正した前記撮像部の認識位置に基づき投影変換パラメータを補正する請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction unit corrects the projection conversion parameter based on the corrected recognition position of the imaging unit. 前記第一の参照位置は前記車両の前輪の接地する位置である請求項1から請求項3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 3, wherein the first reference position is a position at which a front wheel of the vehicle is in contact with the ground. 前記撮像部は、前記車両の側方領域を撮像する第一の撮像部と、前記車両の進行方向領域を撮像する第二の撮像部とを備え、
前記補正部は、前記第一の撮像部と前記第二の撮像部とのいずれか一方の撮像部の認識位置を補正し、
前記認識位置が補正された前記一方の撮像部の撮像画像データに基づく画像に、他方の撮像部の撮像画像データを連結する場合に、画像内容の連続性が保たれるように、前記他方の撮像部の撮像画像データを補正する画像処理部を備える、請求項1から請求項4のいずれか1項に記載の画像処理装置。
The imaging unit includes a first imaging unit that images a side area of the vehicle, and a second imaging unit that images a traveling direction area of the vehicle.
The correction unit corrects a recognition position of one of the first imaging unit and the second imaging unit.
When the captured image data of the other imaging unit is connected to the image based on the captured image data of the one imaging unit whose recognition position has been corrected, the other of the other is maintained so as to maintain the continuity of the image content. The image processing apparatus according to any one of claims 1 to 4, further comprising an image processing unit configured to correct captured image data of the imaging unit.
JP2017248024A 2017-12-25 2017-12-25 Image processing device Active JP7110592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017248024A JP7110592B2 (en) 2017-12-25 2017-12-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017248024A JP7110592B2 (en) 2017-12-25 2017-12-25 Image processing device

Publications (2)

Publication Number Publication Date
JP2019114965A true JP2019114965A (en) 2019-07-11
JP7110592B2 JP7110592B2 (en) 2022-08-02

Family

ID=67222854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017248024A Active JP7110592B2 (en) 2017-12-25 2017-12-25 Image processing device

Country Status (1)

Country Link
JP (1) JP7110592B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008182652A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
WO2015129280A1 (en) * 2014-02-26 2015-09-03 京セラ株式会社 Image processing device and image processing method
JP2015202835A (en) * 2014-04-16 2015-11-16 株式会社デンソー Attachment error display control device of on-vehicle camera and attachment error detection device
JP2016001378A (en) * 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008182652A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
WO2015129280A1 (en) * 2014-02-26 2015-09-03 京セラ株式会社 Image processing device and image processing method
JP2015202835A (en) * 2014-04-16 2015-11-16 株式会社デンソー Attachment error display control device of on-vehicle camera and attachment error detection device
JP2016001378A (en) * 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera

Also Published As

Publication number Publication date
JP7110592B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
JP6028848B2 (en) Vehicle control apparatus and program
US9973734B2 (en) Vehicle circumference monitoring apparatus
US9902323B2 (en) Periphery surveillance apparatus and program
JP5190712B2 (en) Obstacle detection device
US11440475B2 (en) Periphery display control device
US9994157B2 (en) Periphery monitoring apparatus and periphery monitoring system
JP7039879B2 (en) Display control device
US10099617B2 (en) Driving assistance device and driving assistance method
JP2009126270A (en) Image processor and image processing method, drive assist system, and vehicle
JP2020043400A (en) Periphery monitoring device
CN111095921B (en) Display control device
JP6471522B2 (en) Camera parameter adjustment device
US9162621B2 (en) Parking support apparatus
JP2008085710A (en) Driving support system
CN111937380A (en) Image processing apparatus
JP6720729B2 (en) Display controller
US20180288371A1 (en) Assistance apparatus
JP2020077251A (en) Periphery monitoring device
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP7110592B2 (en) Image processing device
JP2020127171A (en) Periphery monitoring device
KR20220097656A (en) Driver asistance apparatus, vehicle and control method thereof
JP6855254B2 (en) Image processing device, image processing system, and image processing method
JP2006298217A (en) Vehicle periphery monitoring device
JP5287288B2 (en) Vehicle surroundings monitoring apparatus and vehicle surroundings monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R150 Certificate of patent or registration of utility model

Ref document number: 7110592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150