JP7110592B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP7110592B2
JP7110592B2 JP2017248024A JP2017248024A JP7110592B2 JP 7110592 B2 JP7110592 B2 JP 7110592B2 JP 2017248024 A JP2017248024 A JP 2017248024A JP 2017248024 A JP2017248024 A JP 2017248024A JP 7110592 B2 JP7110592 B2 JP 7110592B2
Authority
JP
Japan
Prior art keywords
image
imaging unit
reference position
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017248024A
Other languages
Japanese (ja)
Other versions
JP2019114965A (en
Inventor
正憲 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2017248024A priority Critical patent/JP7110592B2/en
Publication of JP2019114965A publication Critical patent/JP2019114965A/en
Application granted granted Critical
Publication of JP7110592B2 publication Critical patent/JP7110592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、画像処理装置に関する。 An embodiment of the present invention relates to an image processing apparatus.

従来、車両に設けられた複数の撮像部(カメラ)により車両周囲の状況を撮像し、撮像した複数の画像の画像処理(例えば視点変換)を行うとともに、各画像を繋げて周辺画像(例えば俯瞰画像)を生成する画像処理装置が知られている。このような画像処理装置では、各撮像部の取り付け誤差や取り付け後の衝撃等により撮像位置のずれが生じている場合があり、画像の繋ぎ目が不連続になってしまう場合がある。そこで、例えば、俯瞰画像を構成する隣接する画像に同一と認められる物体が映っているか否かを確認し、同一の物体が映っている場合には、その物体の輪郭を検出している。そして、隣接する撮像部の画像間で輪郭が繋がるように画像を補正することで、複数の画像を繋ぎ合わせた場合の連続性を確保するようにする技術がある。 Conventionally, a plurality of imaging units (cameras) provided in a vehicle capture images of the situation around the vehicle, perform image processing (e.g., viewpoint conversion) on the multiple captured images, and combine the images to form a surrounding image (e.g., a bird's-eye view). image) is known. In such an image processing apparatus, there are cases where the image pickup positions are displaced due to an installation error of each image pickup unit, a shock after installation, or the like, and the seams of the images may become discontinuous. Therefore, for example, it is checked whether or not the same object is shown in adjacent images forming the bird's-eye view image, and if the same object is shown, the contour of the object is detected. There is also a technique for ensuring continuity when a plurality of images are joined by correcting images so that the contours of adjacent images of imaging units are connected.

WO2015/129280号公報WO2015/129280

しかしながら従来技術の場合、物体の輪郭が繋がるように各画像の補正を行っているため、その物体の位置が実際の位置と対応していない場合がある。つまり、物体の輪郭を繋ぐために一方の画像または双方の画像に対して回転処理や平行移動処理、拡縮補正等の画像処理を施している。その結果、実際の物体の位置からずれている画像を基準に繋ぎ合わせが行われたり、双方の画像が互いに移動して実際の物体の位置とは異なる位置で繋ぎ合わせが行われたりする場合があった。このような場合、生成された画像を見た運転者が物体までの距離を誤って認識してしまう虞があった。 However, in the case of the conventional technology, since each image is corrected so that the contours of the object are connected, the position of the object may not correspond to the actual position. That is, image processing such as rotation processing, translation processing, scaling correction, or the like is performed on one image or both images in order to join the contours of the object. As a result, stitching may be performed based on an image that is shifted from the actual position of the object, or both images may move relative to each other and stitching may be performed at a position different from the actual position of the object. there were. In such a case, there is a possibility that the driver who sees the generated image may mistakenly recognize the distance to the object.

そこで、本発明の課題の一つは、撮像部で撮像した画像に画像処理を施して表示する場合に、表示される物体等が実際の位置に対応するように映すことができる画像処理装置を提供することである。 Therefore, one of the objects of the present invention is to provide an image processing apparatus that can display an object or the like to be displayed so as to correspond to an actual position when performing image processing on an image captured by an imaging unit and displaying the image. to provide.

本発明の実施形態にかかる画像処理装置は、例えば、車両の外面の一部に設定され、予め記憶された第一の参照位置を取得する取得部と、上記車両に設けられた撮像部で取得された撮像画像データ上で上記第一の参照位置に対応する第二の参照位置を検出する検出部と、上記第二の参照位置が上記第一の参照位置に一致するように画像処理上の上記撮像部の認識位置を補正する補正部と、を備える。この構成によれば、例えば、撮像した撮像画像データに視点変換等の画像処理を施して表示する場合に、撮像部の取り付け誤差等に基づく画像のずれが、車両の一部に定められ、予め記憶された第一の参照位置を基準として補正されるので、表示される画像の位置が車両基準で一定に定められる。その結果、画像に写っている物体等が実際の位置からずれて表示されてしまうことが軽減できる。
本発明の実施形態にかかる画像処理装置において、上記第一の参照位置は、例えば上記車両の前輪の接地する位置としてもよい。この構成によれば、例えば、撮像部が撮像した撮像画像データに基づく画像上で補正のときに基準とする位置が認識しやすくなる。その結果、補正処理が容易になると共に補正精度を向上することができる。
An image processing apparatus according to an embodiment of the present invention includes, for example, an acquisition unit that acquires a first reference position that is set on a part of the outer surface of a vehicle and is stored in advance, and an imaging unit that is provided in the vehicle. a detection unit that detects a second reference position corresponding to the first reference position on the captured image data that has been obtained; and a correction unit that corrects the recognition position of the imaging unit. According to this configuration, for example, when the captured image data is subjected to image processing such as viewpoint conversion and displayed, the deviation of the image based on the installation error of the imaging unit is determined in advance for a part of the vehicle. Since the correction is made with reference to the stored first reference position, the position of the displayed image is fixed on the basis of the vehicle. As a result, it is possible to reduce the possibility that an object or the like appearing in the image is displayed with deviation from its actual position.
In the image processing apparatus according to the embodiment of the present invention, the first reference position may be, for example, a position where the front wheels of the vehicle touch the ground. According to this configuration, for example, it becomes easier to recognize the reference position for correction on the image based on the captured image data captured by the imaging unit. As a result, correction processing can be facilitated and correction accuracy can be improved.

本発明の実施形態にかかる画像処理装置の上記補正部は、例えば、上記第一の参照位置と上記第二の参照位置との変位量に基づき上記撮像部の認識位置を補正してもよい。この構成によれば、例えば、第一の参照位置と第二の参照位置との位置関係に基づき、撮像部の認識位置の補正を実施することができる。 The correction unit of the image processing apparatus according to the embodiment of the present invention may correct the recognition position of the imaging unit based on the amount of displacement between the first reference position and the second reference position, for example. According to this configuration, for example, it is possible to correct the recognition position of the imaging unit based on the positional relationship between the first reference position and the second reference position.

本発明の実施形態にかかる画像処理装置の上記補正部は、例えば、補正した上記撮像部の認識位置に基づき投影変換パラメータを補正してもよい。この構成によれば、例えば、撮像部が撮像した画像の投影処理をスムーズに実施することができる。 The correcting unit of the image processing apparatus according to the embodiment of the present invention may correct the projection transformation parameter based on the corrected recognized position of the imaging unit, for example. According to this configuration, for example, it is possible to smoothly perform projection processing of an image captured by the imaging unit.

本発明の実施形態にかかる画像処理装置の上記撮像部は、例えば、上記車両の側方領域を撮像する第一の撮像部と、上記車両の進行方向領域を撮像する第二の撮像部とを備え、上記補正部は、例えば上記第一の撮像部と上記第二の撮像部とのいずれか一方の撮像部の認識位置を補正し、上記認識位置が補正された上記一方の撮像部の撮像画像データに基づく画像に、他方の撮像部の撮像画像データを連結する場合に、画像内容の連続性が保たれるように、上記他方の撮像部の撮像画像データを補正する画像処理部を備えるようにしてもよい。この構成によれば、例えば、物体等が実際の位置に対応する位置に映っている画像を基準に他の画像を繋ぎ合わせるので、繋ぎ合わせられた画像も認識位置の補正が行われた撮像部で撮像された画像に倣って位置合わせが行われる。その結果、画像のずれが全体としても解消され、合成画像(例えば俯瞰画像)の品質の向上ができる。 The imaging unit of the image processing apparatus according to the embodiment of the present invention includes, for example, a first imaging unit that images a side area of the vehicle and a second imaging unit that images a traveling direction area of the vehicle. The correction unit corrects the recognition position of one of the first imaging unit and the second imaging unit, for example, and performs imaging of the one imaging unit with the corrected recognition position. an image processing unit that corrects the captured image data of the other imaging unit so as to maintain the continuity of the image content when connecting the captured image data of the other imaging unit to the image based on the image data. You may do so. According to this configuration, for example, other images are spliced based on an image in which an object or the like is shown at a position corresponding to the actual position. Alignment is performed following the image captured by the . As a result, the deviation of the image is eliminated as a whole, and the quality of the composite image (for example, the bird's-eye view image) can be improved.

図1は、実施形態にかかる画像処理装置を搭載可能な車両の一例を示す模式的な上面図である。FIG. 1 is a schematic top view showing an example of a vehicle on which an image processing device according to an embodiment can be mounted; 図2は、実施形態にかかる画像処理装置を含む画像処理システムの構成の例示的なブロック図である。FIG. 2 is an exemplary block diagram of the configuration of an image processing system including the image processing apparatus according to the embodiment; 図3は、実施形態にかかる画像処理装置のCPUの構成の例示的なブロック図である。3 is an exemplary block diagram of the configuration of the CPU of the image processing apparatus according to the embodiment; FIG. 図4は、実施形態にかかる画像処理装置で用いる第一の参照位置の一例を示す俯瞰視図である。FIG. 4 is a bird's-eye view showing an example of a first reference position used in the image processing apparatus according to the embodiment; 図5は、実施形態にかかる画像処理装置で用いる第一の参照位置の一例を示す右側方の撮像部で撮像した画像例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of an image captured by an imaging unit on the right side, showing an example of a first reference position used in the image processing apparatus according to the embodiment; 図6は、実施形態にかかる画像処理装置において、撮像画像(カメラ画)上の座標系と路面上の座標系との関係を説明する例示的な模式図である。FIG. 6 is an exemplary schematic diagram for explaining the relationship between the coordinate system on the captured image (camera image) and the coordinate system on the road surface in the image processing apparatus according to the embodiment. 図7は、実施形態にかかる画像処理装置において、画像処理上の撮像部の認識位置のずれ補正を説明する例示的な模式図である。FIG. 7 is an exemplary schematic diagram for explaining deviation correction of recognition position of an imaging unit in image processing in the image processing apparatus according to the embodiment. 図8は、実施形態にかかる画像処理装置において、撮像部の実際の位置と画像処理上の撮像部の認識位置とがずれた結果、その状態で俯瞰画像を生成した場合に車両の周辺に存在する白線の位置が実際の位置からずれて表示される例を説明する模式図である。FIG. 8 shows, in the image processing apparatus according to the embodiment, as a result of a deviation between the actual position of the imaging unit and the recognized position of the imaging unit in image processing, when a bird's-eye view image is generated in that state, FIG. 11 is a schematic diagram illustrating an example in which the position of the white line to be displayed is shifted from the actual position; 図9は、実施形態にかかる画像処理装置による撮像部の画像処理上の認識位置のずれ補正を行い、俯瞰画像を生成した場合に、白線の位置が実際の位置と一致する例を説明する模式図である。FIG. 9 is a schematic diagram for explaining an example in which the position of a white line matches the actual position when a bird's-eye view image is generated by correcting the recognition position deviation in the image processing of the imaging unit by the image processing apparatus according to the embodiment; It is a diagram. 図10は、実施形態にかかる画像処理装置により俯瞰画像を生成する場合の処理手順の一例を説明するフローチャートである。FIG. 10 is a flowchart illustrating an example of a processing procedure for generating a bird's-eye view image using the image processing apparatus according to the embodiment;

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 Illustrative embodiments of the invention are disclosed below. The configurations of the embodiments shown below and the actions, results, and effects brought about by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

図1は、本実施形態の画像処理装置が搭載される車両10の模式的な平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪12(前輪12F、後輪12R)の駆動に関わる装置の方式、個数、及び、レイアウト等は、種々に設定することができる。 FIG. 1 is a schematic plan view of a vehicle 10 on which an image processing device of this embodiment is mounted. The vehicle 10 may be, for example, an automobile (internal combustion engine automobile) using an internal combustion engine (engine, not shown) as a drive source, or an automobile (electric automobile) using an electric motor (motor, not shown) as a drive source. , a fuel cell vehicle, etc.), or a vehicle (hybrid vehicle) using both of them as a driving source. In addition, the vehicle 10 can be equipped with various transmission devices, and can be equipped with various devices (systems, parts, etc.) necessary for driving the internal combustion engine and the electric motor. Further, the system, number, layout, etc. of the devices involved in driving the wheels 12 (the front wheels 12F and the rear wheels 12R) of the vehicle 10 can be set variously.

図1に例示されるように、車両10には、複数の撮像部14として、例えば四つの撮像部14a~14dが設けられている。撮像部14は、例えば、CCD(Charge Coupled Device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部14は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部14は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、撮像部14の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部14は、車両10が移動可能な路面や路面に付されたマーク(矢印や区画線、駐車スペースを示す線、車線分離線等を含む)や物体(障害物として、例えば、歩行者、車両等)を含む車両10の外部の周辺環境を逐次撮影し、撮像画像データとして出力する。 As illustrated in FIG. 1, the vehicle 10 is provided with, for example, four imaging units 14a to 14d as the plurality of imaging units 14. As shown in FIG. The imaging unit 14 is, for example, a digital camera incorporating an imaging element such as a CCD (Charge Coupled Device) or a CIS (CMOS image sensor). The imaging unit 14 can output moving image data (captured image data) at a predetermined frame rate. The imaging units 14 each have a wide-angle lens or a fish-eye lens, and can photograph a horizontal range of, for example, 140° to 220°. In some cases, the optical axis of the imaging unit 14 is set obliquely downward. Therefore, the imaging unit 14 can detect road surfaces on which the vehicle 10 can move, marks attached to the road surfaces (including arrows, lane markings, lines indicating parking spaces, lane separation lines, etc.) and objects (such as obstacles such as walking). The surrounding environment outside the vehicle 10 including people, vehicles, etc.) is sequentially captured and output as captured image data.

撮像部14は、車両10の外周部に設けられている。撮像部14aは、例えば、車両10の右側の端部、例えば右側のドアミラー10aに設けられて、車両10の右側方を中心とする領域(例えば右前方から右後方の領域)を含む右側方画像を撮像可能である。撮像部14bは、例えば、車両10の左側の端部、例えば左側のドアミラー10bに設けられて、車両10の左側方を中心とする領域(例えば左前方から左後方の領域)を含む左側方画像を撮像可能である。また、撮像部14cは、例えば、車両10の前側、すなわち車両前後方向の前方側で車幅方向のほぼ中央の端部、例えばフロントバンパ10cやフロントグリル等に設けられて、車両10の前端部(例えばフロントバンパ10c)を含む前方画像を撮像可能である。撮像部14dは、例えば、車両10の後側、すなわち車両前後方向の後方側で車幅方向のほぼ中央の端部、例えばリヤバンパ10dに設けられて、車両10の後端部(例えばリヤバンパ10d)を含む後方領域を撮像可能である。なお、撮像部14aおよび撮像部14bは、車両10の側方領域を撮像する第一の撮像部と称することができる。また、撮像部14c、撮像部14dは、車両10の進行方向領域を撮像する第二の撮像部と称することができる。 The imaging unit 14 is provided on the outer periphery of the vehicle 10 . The imaging unit 14a is provided, for example, at the right end of the vehicle 10, for example, the right door mirror 10a, and captures a right side image including an area centered on the right side of the vehicle 10 (for example, an area from the front right to the rear right). can be imaged. The imaging unit 14b is provided, for example, at the left end of the vehicle 10, for example, at the left door mirror 10b, and captures a left side image including an area centered on the left side of the vehicle 10 (for example, an area from the front left to the rear left). can be imaged. Further, the imaging unit 14c is provided, for example, on the front side of the vehicle 10, that is, on the front side in the vehicle front-rear direction and at the substantially central end portion in the vehicle width direction, for example, on the front bumper 10c or the front grille. (For example, the front bumper 10c) can be captured. The imaging unit 14d is provided, for example, on the rear side of the vehicle 10, that is, on the rear side in the vehicle front-rear direction and substantially in the center in the vehicle width direction, for example, on the rear bumper 10d. It is possible to image the rear area including the . In addition, the imaging unit 14 a and the imaging unit 14 b can be referred to as a first imaging unit that images the side area of the vehicle 10 . Further, the imaging units 14 c and 14 d can be referred to as a second imaging unit that captures an image of the traveling direction area of the vehicle 10 .

複数の撮像部14で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両10を上方から見た仮想的な俯瞰画像(平面画像)を生成したりすることができる。なお、各撮像部14が撮像する撮像画像データ(画像)には、互いに重複する重複領域を設けてもよい。例えば、撮像部14aの撮像した撮像画像データの前方側の端部と撮像部14cが撮像した撮像画像データの右側の端部とが重複する。そして、二つの画像を繋げる(合成する)場合、右側方画像の撮像画像データと前方画像の撮像画像データのそれぞれa%を利用して画像を合成するブレンド処理を実行してもよい。ブレンド処理を実行することにより、右側方画像と前方画像とが、徐々に変化するように合成され、明るさや色合いの違いによって生じる境界線を目立ちにくくすることができる。同様に、前方画像と左側方画像、左側方画像と後方画像、後方画像と右側方画像についてもブレンド処理を施すことで、合成した周辺画像全体において境界線を目立ちにくくすることができる。 Arithmetic processing and image processing are performed based on captured image data obtained by a plurality of imaging units 14 to generate an image with a wider viewing angle, or to generate a virtual bird's-eye view image (planar image) of the vehicle 10 viewed from above. ) can be generated. It should be noted that the captured image data (images) captured by the respective imaging units 14 may be provided with an overlapping region that overlaps with each other. For example, the front end of the captured image data captured by the imaging unit 14a overlaps the right end of the captured image data captured by the imaging unit 14c. Then, when connecting (combining) two images, a blending process may be performed in which the images are combined using a% of each of the captured image data of the right side image and the captured image data of the front image. By executing the blending process, the image on the right side and the image on the front side are combined so as to gradually change, and the boundary line caused by the difference in brightness and color tone can be made inconspicuous. Similarly, by blending the front image and the left image, the left image and the rear image, and the rear image and the right image, it is possible to make the boundary line inconspicuous in the entire combined peripheral image.

図2は、車両10に搭載される画像処理装置を含む画像処理システム100の構成の例示的なブロック図である。車両10の車室内には、表示装置16や、音声出力装置18が設けられている。表示装置16は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置18は、例えば、スピーカである。また、表示装置16は、例えば、タッチパネル等、透明な操作入力部20で覆われている。乗員(例えば、運転者)は、操作入力部20を介して表示装置16の表示画面に表示される画像を視認することができる。また、乗員は、表示装置16の表示画面に表示される画像に対応した位置で、手指等で操作入力部20を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置16や、音声出力装置18、操作入力部20等は、例えば、車両10のダッシュボードの車幅方向すなわち左右方向の中央部に位置されたモニタ装置22に設けられている。モニタ装置22は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。モニタ装置22は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。 FIG. 2 is an exemplary block diagram of the configuration of an image processing system 100 including an image processing device mounted on the vehicle 10. As shown in FIG. A display device 16 and an audio output device 18 are provided in the interior of the vehicle 10 . The display device 16 is, for example, an LCD (liquid crystal display), an OELD (organic electroluminescent display), or the like. The audio output device 18 is, for example, a speaker. Also, the display device 16 is covered with a transparent operation input unit 20 such as a touch panel. A passenger (for example, a driver) can visually recognize an image displayed on the display screen of the display device 16 via the operation input unit 20 . Further, the occupant can perform an operation input by touching, pressing, or moving the operation input unit 20 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 16. can. The display device 16, the audio output device 18, the operation input unit 20, and the like are provided, for example, in a monitor device 22 positioned at the center of the dashboard of the vehicle 10 in the vehicle width direction, that is, in the left-right direction. The monitor device 22 can have operation input units (not shown) such as switches, dials, joysticks, and push buttons. The monitor device 22 can also be used, for example, as a navigation system or an audio system.

また、図2に例示されるように、画像処理システム100(画像処理装置)は、撮像部14(14a~14d)やモニタ装置22に加え、ECU24(electronic control unit)が含まれる。画像処理システム100(画像処理装置)では、ECU24やモニタ装置22は、電気通信回線としての車内ネットワーク26を介して電気的に接続されている。車内ネットワーク26は、例えば、CAN(controller area network)として構成されている。ECU24は、車内ネットワーク26を通じて制御信号を送ることで、各種システムの制御が実行できる。また、ECU24は、車内ネットワーク26を介して、操作入力部20や各種スイッチの操作信号等や図示を省略している各種センサの検出信号等を、受け取ることができる。 Further, as illustrated in FIG. 2, the image processing system 100 (image processing device) includes an ECU 24 (electronic control unit) in addition to the imaging section 14 (14a to 14d) and the monitor device 22. FIG. In the image processing system 100 (image processing device), the ECU 24 and the monitor device 22 are electrically connected via an in-vehicle network 26 as an electric communication line. The in-vehicle network 26 is configured as, for example, a CAN (controller area network). The ECU 24 can control various systems by sending control signals through the in-vehicle network 26 . In addition, the ECU 24 can receive, via the in-vehicle network 26, operation signals of the operation input unit 20 and various switches, detection signals of various sensors (not shown), and the like.

ECU24は、撮像部14から撮像画像データを取得する。ECU24は、撮像画像等に基づいて生成した周辺画像や音声に関するデータをモニタ装置22へ送信する。ECU24は、例えば、CPU24a(central processing unit)や、ROM24b(read only memory)、RAM24c(random access memory)、表示制御部24d、音声制御部24e、SSD24f(solid state drive、フラッシュメモリ)等を有している。 The ECU 24 acquires captured image data from the imaging section 14 . The ECU 24 transmits to the monitor device 22 data relating to the peripheral image and sound generated based on the captured image and the like. The ECU 24 includes, for example, a CPU 24a (central processing unit), a ROM 24b (read only memory), a RAM 24c (random access memory), a display control section 24d, an audio control section 24e, and an SSD 24f (solid state drive, flash memory). ing.

CPU24aは、ROM24b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。ROM24bは、各プログラム及びプログラムの実行に必要なパラメータ等を記憶する。CPU24aは、例えば、図3に示すような各種モジュールを備え、表示装置16で表示される画像に関連した処理を実行する。例えば、CPU24aは、撮像部14が撮像した撮像画像データに補正処理や演算処理、画像処理等を実行して、複数の画像を繋ぎ合わせた周辺画像(例えば、俯瞰画像)を生成する。CPU24aの詳細は後述する。 The CPU 24a reads a program stored (installed) in a non-volatile storage device such as the ROM 24b, and executes arithmetic processing according to the program. The ROM 24b stores each program and parameters necessary for executing the program. The CPU 24a includes various modules as shown in FIG. 3, for example, and executes processing related to images displayed on the display device 16. For example, the CPU 24a executes correction processing, arithmetic processing, image processing, and the like on the captured image data captured by the imaging unit 14, and generates a peripheral image (for example, a bird's-eye view image) by connecting a plurality of images. Details of the CPU 24a will be described later.

RAM24cは、CPU24aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部24dは、ECU24での演算処理のうち、主として、表示装置16で表示させる表示用の画像のデータ変換等を実行する。また、音声制御部24eは、ECU24での演算処理のうち、主として、音声出力装置18で出力される音声データの処理を実行する。SSD24fは、書き換え可能な不揮発性の記憶部であって、ECU24の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU24aや、ROM24b、RAM24c等は、同一パッケージ内に集積されうる。また、ECU24は、CPU24aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD24fに替えてHDD(hard disk drive)が設けられてもよいし、SSD24fやHDDは、ECU24とは別に設けられてもよい。 The RAM 24c temporarily stores various data used in calculations by the CPU 24a. In addition, the display control unit 24 d mainly performs data conversion of images for display to be displayed on the display device 16 among the arithmetic processing in the ECU 24 . In addition, the audio control unit 24e mainly executes processing of audio data output from the audio output device 18 among the arithmetic processing in the ECU 24. FIG. The SSD 24f is a rewritable non-volatile storage unit, and can store data even when the power of the ECU 24 is turned off. The CPU 24a, ROM 24b, RAM 24c, etc. can be integrated in the same package. Further, the ECU 24 may have a configuration in which another logical operation processor such as a DSP (digital signal processor), a logic circuit, or the like is used instead of the CPU 24a. A HDD (hard disk drive) may be provided instead of the SSD 24f, or the SSD 24f and the HDD may be provided separately from the ECU 24.

本実施形態では、ECU24は、ハードウェアとソフトウェア(制御プログラム)が協働することにより、車両10の画像生成処理を司る。ECU24は、撮像部14が撮像した撮像画像データ(画像)を画像処理、例えば視点変換処理等を施して表示装置16に表示させる場合に、車両10(自車)に対して周囲の物体等が正しい位置(実際の位置に対応する位置)に表示されるように、画像処理上の撮像部14の認識位置を補正した上で画像処理を実行して表示画像を出力する。例えば、各撮像部14(14a~14d)で撮像した複数の撮像画像データ(画像)を繋ぎ合わせて周辺画像(例えば、俯瞰画像)を表示させる場合、車両10(自車)に対して周囲の物体等が正しい位置に表示されるように撮像画像データを補正した上で繋ぎ合わせて周辺画像を生成する。なお、本実施形態において、撮像部14の画像処理上の認識位置の補正は、いずれか一つの撮像部14に対して実施してもよいし、複数の撮像部14に対して実施してもよい。以下の説明では、車両10の撮像部14のうち例えば右側方を撮像する撮像部14aの設置位置や姿勢が設計上の位置や姿勢からずれていた場合に、画像処理上の撮像部14aの認識位置を補正することで、表示する画像全体の補正を実施する例を説明する。 In the present embodiment, the ECU 24 controls image generation processing of the vehicle 10 through cooperation of hardware and software (control program). When the ECU 24 performs image processing, such as viewpoint conversion processing, on the captured image data (image) captured by the imaging unit 14 and causes the display device 16 to display the captured image data (image), the vehicle 10 (own vehicle) may be affected by surrounding objects. After correcting the recognition position of the imaging unit 14 in the image processing so that the image is displayed at the correct position (the position corresponding to the actual position), the image processing is executed and the display image is output. For example, when displaying a peripheral image (for example, a bird's-eye view image) by joining a plurality of captured image data (images) captured by each of the imaging units 14 (14a to 14d), the vehicle 10 (own vehicle) is surrounded by Captured image data is corrected so that an object or the like is displayed at a correct position, and the data are joined together to generate a peripheral image. In the present embodiment, the correction of the recognition position in the image processing of the imaging unit 14 may be performed on any one imaging unit 14 or may be performed on a plurality of imaging units 14. good. In the following description, when the installation position and orientation of the imaging unit 14a for imaging the right side of the imaging unit 14 of the vehicle 10 is deviated from the designed position and orientation, recognition of the imaging unit 14a in image processing will be described. An example of correcting the entire image to be displayed by correcting the position will be described.

ECU24に含まれるCPU24aは、上述したような補正処理を実行するための各種モジュールを備える。各種モジュールは、CPU24aがROM24b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現される。例えば、CPU24aは、図3に示されるように、取得部28、投影処理部30、検出部32、補正部34、画像処理部36等のモジュールを備える。また、取得部28は、画像取得部28a、第一の参照位置取得部28b、パラメータ取得部28c等を含み、補正部34は、変位取得部34a、認識位置補正部34b、パラメータ補正部34c等を含む。 A CPU 24a included in the ECU 24 has various modules for executing the above-described correction processing. Various modules are implemented by the CPU 24a reading programs installed and stored in a storage device such as the ROM 24b and executing the programs. For example, the CPU 24a includes modules such as an acquisition unit 28, a projection processing unit 30, a detection unit 32, a correction unit 34, and an image processing unit 36, as shown in FIG. The acquisition unit 28 includes an image acquisition unit 28a, a first reference position acquisition unit 28b, a parameter acquisition unit 28c, etc. The correction unit 34 includes a displacement acquisition unit 34a, a recognition position correction unit 34b, a parameter correction unit 34c, etc. including.

取得部28は、撮像部14の画像処理上の認識位置を補正する処理を実行するために必要な各種情報を取得する。 The acquisition unit 28 acquires various kinds of information necessary for correcting the recognized position in the image processing of the imaging unit 14 .

画像取得部28aは、表示制御部24dを介して各撮像部14(14a~14d)が撮像した撮像画像データを逐次取得する。 The image acquisition unit 28a sequentially acquires captured image data captured by each imaging unit 14 (14a to 14d) via the display control unit 24d.

第一の参照位置取得部28bは、車両10の外面の一部に設定される第一の参照位置を取得する。車両10の外面の一部に設定される第一の参照位置は、例えばROM24bに後述する路面上の座標系(X,Y,Z)上の位置として予め記憶されている。図4は、第一の参照位置Pの一例を示す俯瞰視図である。また、図5は、第一の参照位置Pの一例を示す撮像部14a(右側方撮像部)で撮像した画像例を示す模式図である。第一の参照位置Pは、図4、図5に示すように、例えば、右側の前輪12Fの外面側の接地点とすることができる。第一の参照位置Pは、前輪12Fの外周面に限らず、補正対象となる撮像部14(例えば、撮像部14a)の撮像範囲に含まれる車両10の外面であれば、いずれの位置でもよい。別の実施形態では、第一の参照位置Pを車両10のボディの一部、例えば、ドアの下端コーナー部等に設定してもよく、同様な効果を得ることができる。なお、上述したように、撮像部14aで撮像する場合、第一の参照位置Pを撮像部14aからの距離が比較的近く、画像認識する場合でも容易に認識可能な前輪12Fの接地位置とすることで認識精度を向上することができる。 The first reference position acquisition unit 28 b acquires a first reference position set on a portion of the outer surface of the vehicle 10 . The first reference position set on a part of the outer surface of the vehicle 10 is pre-stored, for example, in the ROM 24b as a position on a road surface coordinate system (X, Y, Z), which will be described later. FIG. 4 is a bird's-eye view showing an example of the first reference position P. FIG. FIG. 5 is a schematic diagram showing an example of an image taken by the imaging section 14a (right side imaging section) showing an example of the first reference position P. As shown in FIG. The first reference position P, as shown in FIGS. 4 and 5, can be, for example, the ground contact point on the outer surface side of the right front wheel 12F. The first reference position P is not limited to the outer peripheral surface of the front wheel 12F, and may be any position on the outer surface of the vehicle 10 that is included in the imaging range of the imaging unit 14 (for example, the imaging unit 14a) to be corrected. . In another embodiment, the first reference position P may be set at a portion of the body of the vehicle 10, such as the bottom corner of a door, with similar effects. As described above, when the image is captured by the image capturing unit 14a, the first reference position P is the ground contact position of the front wheel 12F, which is relatively close to the image capturing unit 14a and can be easily recognized even when recognizing the image. By doing so, the recognition accuracy can be improved.

なお、第一の参照位置Pは、車両10に設定された基準位置Oを基準に定められてもよい。基準位置Oを設定しておくことにより、現実空間での第一の参照位置Pの位置や画像上での第一の参照位置Pの位置を認識させやすくすることができるとともに、座標系を用いた演算を行う場合に処理が容易になる。基準位置Oは、例えば、車両10の左右の後輪12Rを支持する後輪軸12aの長手方向(車幅方向)の中心位置とすることができる。また別の実施形態では、基準位置Oは、例えば、車両10の前後方向に延びる車両中心CL上の位置としてもよい。この場合、例えば、第一の参照位置Pから車両中心CLに下ろした垂線の交点を基準位置Oとしてもよい。なお、基準位置Oから第一の参照位置Pまでの実際の距離は既知であるため、基準位置Oおよび第一の参照位置Pを画像上に投影したときの画像上の離間距離(ドット数)を検出することにより、画像上の1ドットのずれと現実空間での距離のずれとの対応付けが容易になる。例えば、画像上で10ドットずれている場合は、現実空間では、10cmずれている等に対応付けを行うことができる。なお、画像上の1ドットに対応する距離を予めROM24b等に記憶しておくことで、画像上の1ドットのずれと現実空間での距離のずれとの対応付けを行うようにしてもよい。 Note that the first reference position P may be determined based on the reference position O set on the vehicle 10 . By setting the reference position O, the position of the first reference position P in the physical space and the position of the first reference position P on the image can be easily recognized, and a coordinate system can be used. This simplifies the processing when performing calculations using The reference position O can be, for example, the central position in the longitudinal direction (vehicle width direction) of the rear wheel axle 12a that supports the left and right rear wheels 12R of the vehicle 10 . In another embodiment, the reference position O may be a position on the vehicle center CL extending in the longitudinal direction of the vehicle 10, for example. In this case, for example, the reference position O may be the intersection of perpendicular lines drawn from the first reference position P to the vehicle center CL. Since the actual distance from the reference position O to the first reference position P is known, the separation distance (the number of dots) on the image when the reference position O and the first reference position P are projected onto the image By detecting , it becomes easy to associate the deviation of one dot on the image with the deviation of the distance in the physical space. For example, if there is a 10-dot shift on the image, it can be associated with a 10-cm shift in the physical space. By storing the distance corresponding to one dot on the image in advance in the ROM 24b or the like, the deviation of one dot on the image may be associated with the deviation of the distance in the physical space.

パラメータ取得部28cは、撮像部14が撮像した画像を投影変換する際に用いる投影変換パラメータを例えばROM24bやSSD24f等の記憶部から取得する。例えば、図6に示すように、路面上の座標系を(X,Y,Z)、撮像部14aのカメラ画上の座標系(カメラ座標系)を(X0,,Z)とし、路面上の座標とカメラ画上の座標系の距離、角度が極座標(ρ,θ,φ)で表されるとき、座標系の変換は、以下の式1で表すことができる。なお、ρは、路面上の座標系の原点(例えば、図4の基準位置Oに相当)からカメラ座標系の原点Tまでの距離である。また、θは、路面上の座標系の原点とカメラ座標系の原点Tを路面上の座標系のXY平面に投影した点Tの位置とを結んだ直線とX軸のなす角度である。また、φは、路面上の座標系の原点とカメラ座標系の原点Tとを結んだ直線とZ軸のなす角度である。

Figure 0007110592000001
この場合、式1における係数部分が投影変換パラメータとなる。ROM24bまたはSSD24fには、現在の撮像部14aの画像処理上の認識位置(例えば原点)に対応する極座標(ρ,θ,φ)が保存されてもよいし、式1にρ,θ,φを代入した係数とした投影変換パラメータとして記憶しておいてもよい。 The parameter acquisition unit 28c acquires projection transformation parameters used when projectively transforming an image captured by the imaging unit 14 from a storage unit such as the ROM 24b or the SSD 24f. For example, as shown in FIG. 6, the coordinate system on the road surface is (X, Y, Z), and the coordinate system (camera coordinate system) on the camera image of the imaging unit 14a is (X 0 , Y 0 , Z 0 ). , the distance and angle between the coordinates on the road surface and the coordinate system on the camera image are represented by polar coordinates (.rho., .theta., .phi.). ρ is the distance from the origin of the coordinate system on the road surface (corresponding to the reference position O in FIG. 4, for example) to the origin T0 of the camera coordinate system. θ is the angle between the X axis and the straight line connecting the origin of the coordinate system on the road surface and the position of the point T projected from the origin T0 of the camera coordinate system onto the XY plane of the coordinate system on the road surface. φ is the angle formed by the Z-axis and the straight line connecting the origin of the coordinate system on the road surface and the origin T0 of the camera coordinate system.
Figure 0007110592000001
In this case, the coefficient part in Equation 1 becomes the projection transformation parameter. The ROM 24b or SSD 24f may store the polar coordinates (ρ, θ, φ) corresponding to the current recognition position (for example, the origin) in the image processing of the imaging unit 14a. It may be stored as a projection transformation parameter as a substituted coefficient.

投影処理部30は、パラメータ取得部28cが取得した投影パラメータを適用することにより、撮像部14(例えば撮像部14a)が撮像した撮像画像データの各画素(カメラ座標系(X0,,Z)上の画素)を逐次路面上の座標系(X,Y,Z)に投影することができる。例えば、カメラ座標系(X0,,Z)の原点Tに位置する画素を路面上の座標系(X,Y,Z)上の点Tに投影することができる。この場合、撮像部14は車両10に対して固定されている。例えば、撮像部14aは右側のドアミラー10aの下面に固定されているので、撮像部14aの画像処理上の認識位置を一定の位置に定めることができる。したがって、撮像部14aの設置位置や取り付け姿勢が設計上の位置や姿勢に維持されている場合、撮像した撮像画像データに映っている例えば、前輪12Fの接地位置に対応する画素は、路面上の座標系(X,Y,Z)上で、第一の参照位置取得部28bが取得した第一の参照位置Pと一致する位置に投影変換される。 The projection processing unit 30 applies the projection parameters acquired by the parameter acquisition unit 28c to each pixel (camera coordinate system (X 0 , Y 0 , Z 0 )) can be sequentially projected onto the coordinate system (X, Y, Z) on the road surface. For example, a pixel positioned at the origin T 0 of the camera coordinate system (X 0 , Y 0 , Z 0 ) can be projected onto a point T on the coordinate system (X, Y, Z) on the road surface. In this case, the imaging unit 14 is fixed with respect to the vehicle 10 . For example, since the imaging unit 14a is fixed to the lower surface of the right side door mirror 10a, the recognition position of the imaging unit 14a in image processing can be fixed at a fixed position. Therefore, when the installation position and mounting posture of the imaging unit 14a are maintained at the design positions and postures, the pixels shown in the imaged image data, for example, corresponding to the contact position of the front wheel 12F, are on the road surface. On the coordinate system (X, Y, Z), it is projected and transformed to a position that matches the first reference position P acquired by the first reference position acquisition unit 28b.

一方、撮像部14aの設置位置や取り付け姿勢が何らかの原因、例えば、車両10が走行することにより与えられる振動や他の物体との接触等が原因で、設計上の位置や姿勢に対してずれてしまう場合がある。このような場合、例えば実際の前輪12Fの接地位置(第一の参照位置Pと実質的に同じ位置)に対応する画像は、図7に示すように、カメラ座標系(X0,,Z)からずれたカメラ座標系(X1,,Z)上で、撮像されることになる。この場合、画像処理上では、撮像部14aの認識位置は、カメラ座標系(X0,,Z)上での認識位置のままのため、撮像部14aの位置や姿勢がずれた状態で撮像された撮像画像データは、極座標(ρ,θ,φ)に対応する投影変換パラメータを適用した式1を用いて投影変換される。その結果、前輪12Fの接地位置に対応する画素は、撮像部14aの設置位置や姿勢のずれに対応する量だけ移動した状態で路面上の座標系(X,Y,Z)に投影されることになる。つまり、第一の参照位置Pからずれた第二の参照位置Qに投影される。図8は、撮像部14aの設置位置や姿勢がずれた状態で、撮像された撮像画像データに基づき、俯瞰画像(車両10の右側の俯瞰画像)を生成した例であり、表示される白線Lの位置が実際の白線Lの位置からずれてしまう例を説明する模式図である。このような俯瞰画像に基づき運転者が車両10の周辺状況の認識を行った場合、車両10の側方に存在する白線Lの位置は、例えば画像中心位置に表示される自車アイコン40に対して実際より例えば遠くに表示される。つまり、実際の白線Lまでの距離とは異なる距離感を運転者に与えてしまう場合がある。その結果、車両10の幅寄せ等がイメージ通りにできなかったり、障害物との距離を誤って認識して接触したりしてしまう場合がある。 On the other hand, the installation position and installation posture of the imaging unit 14a may deviate from the design position and posture due to some cause, for example, vibration given by running the vehicle 10 or contact with other objects. may be lost. In such a case, for example, an image corresponding to the actual ground contact position of the front wheel 12F (substantially the same position as the first reference position P) is expressed in the camera coordinate system (X 0 , Y 0 , Z 0 ) will be imaged on the camera coordinate system (X 1 , Y 1 , Z 1 ) deviated from the camera coordinate system. In this case, in terms of image processing, the recognition position of the imaging unit 14a remains the recognition position on the camera coordinate system (X 0 , Y 0 , Z 0 ). The imaged image data captured by is projected and transformed using Equation 1 to which the projection transformation parameters corresponding to the polar coordinates (ρ, θ, φ) are applied. As a result, the pixels corresponding to the contact position of the front wheel 12F are projected onto the coordinate system (X, Y, Z) on the road surface after being moved by an amount corresponding to the deviation of the installation position and posture of the imaging unit 14a. become. That is, it is projected to the second reference position Q shifted from the first reference position P. FIG. FIG. 8 shows an example in which a bird's-eye view image (a bird's-eye view image of the right side of the vehicle 10) is generated based on captured image data captured when the installation position and posture of the imaging unit 14a are shifted. is a schematic diagram for explaining an example in which the position of is deviated from the actual position of the white line L0 . When the driver recognizes the surroundings of the vehicle 10 based on such a bird's-eye view image, the position of the white line L existing on the side of the vehicle 10 is relative to the vehicle icon 40 displayed at the center of the image, for example. is displayed farther than it actually is. In other words, the driver may be given a sense of distance that is different from the actual distance to the white line L0 . As a result, the vehicle 10 may not be able to pull the vehicle 10 to the side as expected, or the distance to an obstacle may be mistakenly recognized and the vehicle may come into contact with the obstacle.

そこで、本実施形態の画像処理システム100の検出部32は、設置位置や姿勢がずれてしまっている撮像部14(例えば撮像部14a)で取得された撮像画像データ上で第一の参照位置Pに対応する第二の参照位置Qを検出する。例えば、設置位置や姿勢がずれた撮像部14aのカメラ座標系(X1,,Z)上で、ずれが無い状態で定められた投影変換パラメータ(初期値)を(X0,,Z)を(X1,,Z)に読み替えた式1に適用する。そして、撮像部14aで撮像された前輪12Fの接地位置を路面上の座標系(X,Y,Z)に投影する。つまり、検出部32は、第一の参照位置取得部28bが取得した第一の参照位置P(撮像部14aの設置位置や姿勢のずれがなければ前輪12Fの接地位置となる位置)に対応する位置である第二の参照位置Qを検出することができる。 Therefore, the detection unit 32 of the image processing system 100 of the present embodiment detects the first reference position P Detect a second reference position Q corresponding to . For example, on the camera coordinate system (X 1 , Y 1 , Z 1 ) of the imaging unit 14a whose installation position and orientation are shifted, the projection transformation parameters (initial values) determined in a state where there is no shift are represented by (X 0, Y 0 , Z 0 ) to (X 1 , Y 1 , Z 1 ). Then, the ground contact position of the front wheel 12F imaged by the imaging unit 14a is projected onto the coordinate system (X, Y, Z) on the road surface. That is, the detection unit 32 corresponds to the first reference position P acquired by the first reference position acquisition unit 28b (the position where the front wheel 12F is grounded if there is no deviation in the installation position or posture of the imaging unit 14a). A second reference position Q can be detected, which is the position.

そして、補正部34は、検出部32が検出した第一の参照位置Pと第二の参照位置Qとのずれ、すなわち変位量(差分、差分距離)に基づき、撮像部14(例えば撮像部14a)の画像処理上の認識位置を補正する。認識位置の補正は、例えば、投影変換するときの投影変換パラメータを補正することで実行することができる。 Then, the correction unit 34 detects the difference between the first reference position P and the second reference position Q detected by the detection unit 32, that is, the displacement amount (difference, difference distance), based on the imaging unit 14 (for example, the imaging unit 14a ) is corrected in image processing. Correction of the recognition position can be executed, for example, by correcting the projection transformation parameters when performing the projection transformation.

変位取得部34aは、例えば、路面上の座標系(X,Y,Z)に投影された第一の参照位置Pと第二の参照位置Qとの変位量(ずれ)を検出する。ROM24bは、例えば、撮像部14aで物体を撮像して、本実施形態の画像処理システム100を用いて路面上の座標系(X,Y,Z)に投影した場合に、例えば10ドットで表示できる大きさ(長さ、距離等)を示す変位基準値データを第一の参照位置Pのデータと共に記憶する。変位取得部34aは、変位基準値データに基づき、第一の参照位置Pと第二の参照位置Qとの変位量を取得することができる。なお、変位基準値データは、図4で説明したように、基準位置Oと第一の参照位置Pとの現実の距離と画面上での距離(ドット数)との関係で定めてもよい。 The displacement acquisition unit 34a detects, for example, the amount of displacement (deviation) between the first reference position P and the second reference position Q projected onto the coordinate system (X, Y, Z) on the road surface. For example, when an image of an object is captured by the imaging unit 14a and projected onto the coordinate system (X, Y, Z) on the road surface using the image processing system 100 of the present embodiment, the ROM 24b can display the image with 10 dots, for example. Displacement reference value data indicating the magnitude (length, distance, etc.) is stored together with the data of the first reference position P. FIG. The displacement acquisition unit 34a can acquire the amount of displacement between the first reference position P and the second reference position Q based on the displacement reference value data. Note that the displacement reference value data may be determined based on the relationship between the actual distance between the reference position O and the first reference position P and the distance (the number of dots) on the screen, as described with reference to FIG.

認識位置補正部34bは、変位取得部34aが取得した変位量に基づき、例えば、図7に示すように、設置位置や姿勢がずれた撮像部14aで用いているカメラ座標系(X1,,Z)を補正する。例えば、第二の参照位置Qが第一の参照位置Pに一致するように画像処理上の撮像部14aの認識位置に補正する。つまり、カメラ座標系(X1,,Z)をカメラ座標系(X2,,Z)に補正する。このとき、第一の参照位置Pと第二の参照位置Qとの変位量が10ドットの場合、第二の参照位置Qが第一の参照位置Pに一致するように、撮像部14aの認識位置を10ドットに相当する量だけ移動することで撮像部14aの認識位置を補正することができる。 Based on the displacement amount acquired by the displacement acquisition unit 34a, the recognition position correction unit 34b corrects the camera coordinate system (X 1, Y 1 , Z 1 ) are corrected. For example, the second reference position Q is corrected to the recognition position of the imaging unit 14a in image processing so that it matches the first reference position P. FIG. That is, the camera coordinate system ( X1 , Y1, Z1 ) is corrected to the camera coordinate system ( X2 , Y2, Z2 ). At this time, when the amount of displacement between the first reference position P and the second reference position Q is 10 dots, the imaging unit 14a recognizes the second reference position Q so that it matches the first reference position P. By moving the position by an amount corresponding to 10 dots, the recognition position of the imaging unit 14a can be corrected.

パラメータ補正部34cは、路面上の座標系を(X,Y,Z)、認識位置が補正された結果得られたカメラ座標系を(X2,,Z)とし、路面上の座標とカメラ画上の座標系の距離、角度を示す補正後の極座標(ρ,θ,φ)を算出する。そして、(X0,,Z)を(X2,,Z)に読み替えた式1に極座標(ρ,θ,φ)を適用した場合、係数部分が補正後の投影変換パラメータとなる。つまり、例えば、SSD24fの投影変換パラメータが更新されることになる。この場合、補正後の撮像部14aの画像処理上の認識位置に対応する極座標(ρ,θ,φ)をSSD24fに保存してもよいし、(X0,,Z)を(X2,,Z)に読み替えた式1にρ,θ,φを代入した係数とした補正後の投影変換パラメータを記憶してSSD24fに保存してもよい。 The parameter correction unit 34c sets the coordinate system on the road surface to (X, Y, Z), sets the camera coordinate system obtained as a result of correcting the recognition position to (X 2 , Y 2 , Z 2 ), and sets the coordinates on the road surface to and corrected polar coordinates (ρ 2 , θ 2 , φ 2 ) indicating the distance and angle of the coordinate system on the camera image. Then, when the polar coordinates (ρ 2 , θ 2 , φ 2 ) are applied to Equation 1 in which (X 0 , Y 0 , Z 0 ) are read as (X 2 , Y 2 , Z 2 ), the coefficient part becomes is the projection transformation parameter of That is, for example, the projection transformation parameters of the SSD 24f are updated. In this case, the polar coordinates (ρ 2 , θ 2 , φ 2 ) corresponding to the recognition position in the image processing of the imaging unit 14a after correction may be stored in the SSD 24f, or (X 0 , Y 0 , Z 0 ) may be replaced with (X 2 , Y 2 , Z 2 ) and ρ 2 , θ 2 , and φ 2 are substituted into Equation 1, and the corrected projection transformation parameters may be stored and saved in the SSD 24f.

そして、投影処理部30は、補正された投影変換パラメータを用いて撮像部14aが撮像した撮像画像データを投影変換することにより、第一の参照位置Pと第二の参照位置Qとが一致した投影画像を得ることができる。 Then, the projection processing unit 30 projects and transforms the captured image data captured by the imaging unit 14a using the corrected projection transformation parameter, so that the first reference position P and the second reference position Q match. A projection image can be obtained.

画像処理部36は、認識位置が補正されて得られた例えば撮像部14aが撮像した撮像画像データに基づく画像と、他方の撮像部14(例えば、前方用の撮像部14c)の撮像した撮像画像データに基づく画像とを連結する処理を行う。その場合に、補正された撮像部14aの画像内容と撮像部14cの画像内容との連続性が保たれるように、撮像部14cの撮像画像データの補正を行う。例えば、画像処理部36は、図9に示すように、各撮像部14(14a~14d)で撮像した撮像画像データの視点変換を行い、繋ぎ合わせることで車両10(自車アイコン40)の周囲を俯瞰視する俯瞰画像を生成する。この場合、撮像部14aが撮像した撮像画像データを補正部34による補正後の投影変換パラメータを用いて補正した領域Rと、投影変換パラメータの補正を行わず、当初設定の投影変換パラメータを用いて投影変換した領域R(撮像部14cの撮像画像データ)、領域R(撮像部14bの撮像画像データ)、領域R(撮像部14dの撮像画像データ)を合成する。 The image processing unit 36 generates an image obtained by correcting the recognition position, for example, based on captured image data captured by the imaging unit 14a, and a captured image captured by the other imaging unit 14 (for example, the front imaging unit 14c). Performs processing for concatenating images based on data. In this case, the captured image data of the imaging unit 14c is corrected so as to maintain continuity between the corrected image content of the imaging unit 14a and the image content of the imaging unit 14c. For example, as shown in FIG. 9, the image processing unit 36 performs viewpoint conversion of the captured image data captured by each of the image capturing units 14 (14a to 14d), and joins them together so that the surroundings of the vehicle 10 (own vehicle icon 40) are displayed. A bird's-eye view image is generated. In this case, a region R1 obtained by correcting the captured image data captured by the imaging unit 14a using the projection conversion parameters after correction by the correction unit 34, and a region R1 using the initially set projection conversion parameters without correcting the projection conversion parameters. The region R 2 (captured image data of the imaging unit 14c), the region R 3 (captured image data of the imaging unit 14b), and the region R 4 (captured image data of the imaging unit 14d) which have been projected and transformed are combined.

前述したように、投影変換パラメータが補正されて投影変換された撮像部14aの撮像画像データによる画像が描画される領域Rに映っている白線Lは、現実の白線Lが存在する位置に対応して存在する。一方、投影変換パラメータが補正されずに投影変換された撮像部14cの撮像画像データによる画像が描画される領域Rに映っている右側の白線L2Rは、現実の位置からずれて描画されている可能性があり、白線Lと連続性が維持されない場合がある。この場合、白線L2Rは、回転処理や平行移動、拡縮処理等を施すことにより、補正された白線Lと一致させることができる。すなわち、白線L2Rも正しい位置に描画されるように処理されたことになる。この場合、領域Rに含まれる白線L2Lは、撮像部14cで撮像された同一領域中に存在するため、白線L2Lの描画位置も白線Lの補正の影響を受け、正確な位置に描画されていることになる。同様に、白線Lに基づき正確な位置に描画された領域Rの白線L2Lを基準に領域Rを回転処理や平行移動、拡縮処理等を施して描画することにより正確な位置に描画される。正確な位置に描画された領域Rの白線Lを基準に領域Rに回転処理や平行移動、拡縮処理等を施すことにより領域Rもまた正確な位置に描画することができる。その結果、白線L4Rは白線Lと一致し、白線L4Lは白線Lと一致する。 As described above, the white line L1 appearing in the region R1 where the image based on the captured image data of the imaging unit 14a, which has been subjected to the projection conversion by correcting the projection conversion parameters, is drawn is the position where the actual white line L0 exists . exists corresponding to On the other hand, the right white line L2R appearing in the area R2 where the image based on the captured image data of the imaging unit 14c that has undergone the projection conversion without correcting the projection conversion parameters is drawn is shifted from the actual position. and may not maintain continuity with the white line L1 . In this case, the white line L2R can be aligned with the corrected white line L1 by performing rotation processing, translation processing, enlargement/reduction processing, and the like. That is, the white line L2R is also processed so as to be drawn at the correct position. In this case, since the white line L2L included in the region R2 exists in the same region captured by the image pickup unit 14c, the drawing position of the white line L2L is also affected by the correction of the white line L1 , and the drawing position is accurate. It will be drawn. Similarly, based on the white line L2L of the area R2 drawn at the correct position based on the white line L1 , the area R3 is drawn at the correct position by performing rotation processing, translation processing, scaling processing, etc. be done. The area R4 can also be drawn at an accurate position by performing rotation processing, parallel movement, scaling processing, etc. on the area R4 based on the white line L3 of the area R3 drawn at an accurate position. As a result, the white line L4R coincides with the white line L3, and the white line L4L coincides with the white line L1.

このように、撮像部14で撮像された撮像画像データについて、投影変換パラメータの補正を一カ所の撮像部14に対して行うことで、車両10(自車アイコン40)を中心とする正確な位置関係を示す俯瞰画像を容易な処理により生成することができる。なお、上述の例では、いずれか一つの撮像部14に対して、画像処理上の認識位置の補正(投影変換パラメータの補正)を行い、他の撮像部14の画像を補正された画像に合わせるように処理する例を示した。他の実施形態では、複数の撮像部14に対して画像処理上の認識位置の補正(投影変換パラメータの補正)を行ってもよい。この場合、合成される俯瞰画像の描画精度を向上することができる。 In this way, by correcting the projection transformation parameter for the captured image data captured by the imaging unit 14 at one location of the imaging unit 14, an accurate position centered on the vehicle 10 (own vehicle icon 40) can be obtained. A bird's-eye view image showing the relationship can be generated by simple processing. In the above example, the recognition position in image processing is corrected (projection transformation parameter correction) for any one of the imaging units 14, and the images of the other imaging units 14 are adjusted to the corrected image. I showed an example of processing like this. In another embodiment, correction of recognized positions in image processing (correction of projection transformation parameters) may be performed for a plurality of imaging units 14 . In this case, it is possible to improve the drawing accuracy of the synthesized bird's-eye view image.

図10は、上述した画像処理システム100(画像処理装置)により俯瞰画像を生成する場合の画像処理の一例を説明するフローチャートである。なお、撮像部14の設置位置や姿勢は、頻繁にずれるものではなく、例えば、車両10の振動が大きくなる不整地路を長時間走行した場合や、撮像部14の設置位置(例えばドアミラー10aやドアミラー10b)が外部の物体と接触した場合、修理や交換を行った場合、または経時変化等で発生するのみで、基本的にはずれない。したがって、本実施形態において、投影変換パラメータの補正による撮像部14の画像処理上の認識位置の補正は、比較的長い間隔で例えば、定期的または不定期で実施することができる。 FIG. 10 is a flowchart for explaining an example of image processing when generating a bird's-eye view image using the image processing system 100 (image processing apparatus) described above. Note that the installation position and posture of the imaging unit 14 do not shift frequently. This occurs only when the door mirror 10b) comes into contact with an external object, when it is repaired or replaced, or when it changes over time, and basically does not come off. Therefore, in the present embodiment, the correction of the recognition position in the image processing of the imaging unit 14 by correcting the projection transformation parameter can be performed at relatively long intervals, for example, regularly or irregularly.

まず、CPU24aは、俯瞰画像の表示(作成)が要求されているか否かを確認する。表示装置16には、通常画面として、ナビゲーション画面やオーディオ画面が表示されているが、運転者が例えば、操作入力部20を操作して、俯瞰画像の表示を要求した場合、CPU24aは、俯瞰画像表示モードに移行する(S100のYes)。俯瞰画像の表示要求がなされた場合、画像取得部28aは、表示制御部24dを介して各撮像部14(14a~14d)が撮像した撮像画像データ(周辺画像)を取得する(S102)。このとき、画像処理上の撮像部14の認識位置の再調整(補正)タイミングである場合(S104のYes)、第一の参照位置取得部28bは、例えばROM24bに記憶されている第一の参照位置Pに関する情報を取得する(S106)。なお、画像処理上の認識位置の再調整(補正)タイミングは、例えば、イグニッションスイッチがONされた場合や、前回の再調整から一定期間(例えば、1ヶ月)以上経過した場合、運転者が再調整を要望した場合等である。 First, the CPU 24a confirms whether display (creation) of a bird's-eye view image is requested. A navigation screen and an audio screen are displayed as normal screens on the display device 16, but when the driver operates the operation input unit 20 to request display of a bird's-eye view image, the CPU 24a displays the bird's-eye view image. The display mode is entered (Yes in S100). When a bird's-eye view display request is made, the image acquisition unit 28a acquires captured image data (peripheral images) captured by the imaging units 14 (14a to 14d) via the display control unit 24d (S102). At this time, if it is time to readjust (correct) the recognition position of the imaging unit 14 in image processing (Yes in S104), the first reference position acquisition unit 28b acquires the first reference position stored in the ROM 24b, for example. Information about the position P is acquired (S106). The timing of readjustment (correction) of the recognition position in image processing is, for example, when the ignition switch is turned on, or when a certain period of time (for example, one month) has passed since the previous readjustment. For example, when requesting adjustment.

撮像部14の画像処理上の認識位置の再調整のタイミングになった場合、投影処理部30は、パラメータ取得部28cを介して現在有効な投影変換パラメータをROM24bまたはSSD24fから取得し、仮の俯瞰画像を描画する(S108)。例えば、処理対象の撮像画像データが撮像部14aにより撮像されている場合、右側方の俯瞰画像を生成する。このとき、補正対象の撮像部14(例えば撮像部14a)の設置位置や姿勢がずれていた場合、図7に示すように、路面上の座標系(X,Y,Z)における第一の参照位置Pとは異なる位置に第二の参照位置Qが投影(描画)される。検出部32は、仮の俯瞰画像(路面上の座標系(X,Y,Z))に表示された第二の参照位置Q(前輪12Fの接地位置)を検出する(S110)。なお、補正対象の撮像部14(例えば撮像部14a)の設置位置や姿勢がずれていない場合、第一の参照位置Pと第二の参照位置Qとは実質的に一致するように描画される。 When the timing for readjusting the recognition position in the image processing of the imaging unit 14 comes, the projection processing unit 30 acquires the currently valid projection transformation parameters from the ROM 24b or the SSD 24f via the parameter acquisition unit 28c, and performs a provisional bird's-eye view. An image is drawn (S108). For example, when the captured image data to be processed is captured by the imaging unit 14a, a bird's-eye view image of the right side is generated. At this time, if the installation position or posture of the imaging unit 14 to be corrected (for example, the imaging unit 14a) is misaligned, as shown in FIG. A second reference position Q is projected (drawn) at a position different from the position P. The detection unit 32 detects the second reference position Q (the contact position of the front wheel 12F) displayed in the temporary bird's-eye view image (coordinate system (X, Y, Z) on the road surface) (S110). Note that when the installation position and orientation of the imaging unit 14 to be corrected (for example, the imaging unit 14a) are not deviated, the first reference position P and the second reference position Q are drawn so as to substantially match. .

続いて、変位取得部34aは、路面上の座標系(X,Y,Z)上で第一の参照位置Pと第二の参照位置Qとの変位量を算出(取得)し(S112)、認識位置補正部34bは、変位取得部34aが取得した変位量に基づき、第一の参照位置Pと第二の参照位置Qが一致するように、画像処理上の撮像部14aの認識位置を、図7に示すように例えばカメラ座標系(X2,,Z)に補正する(S114)。そして、パラメータ補正部34cは、補正された認識位置(カメラ座標系(X2,,Z))における極座標(ρ,θ,φ)を算出し、(X0,,Z)を(X2,,Z)に読み替えた式1を用いて、撮像部14a用の投影変換パラメータを変更(更新)する(S116)。変更された投影変換パラメータは、例えば、SSD24fに保存され、次回投影変換パラメータが更新されるまで、撮像部14aが撮像した撮像画像データの投影変換に利用される。 Subsequently, the displacement acquisition unit 34a calculates (acquires) the amount of displacement between the first reference position P and the second reference position Q on the coordinate system (X, Y, Z) on the road surface (S112), Based on the displacement amount acquired by the displacement acquisition unit 34a, the recognition position correction unit 34b corrects the recognition position of the imaging unit 14a in image processing so that the first reference position P and the second reference position Q match. As shown in FIG. 7, for example, it is corrected to the camera coordinate system (X 2 , Y 2 , Z 2 ) (S114). Then, the parameter correction unit 34c calculates the polar coordinates (ρ 2 , θ 2 , φ 2 ) in the corrected recognition position (camera coordinate system (X 2 , Y 2 , Z 2 )), and (X 0 , Y 0 , Z 0 ) are replaced with (X 2 , Y 2 , Z 2 ) to change (update) the projection transformation parameters for the imaging unit 14a (S116). The changed projection transformation parameters are stored in, for example, the SSD 24f, and are used for projection transformation of captured image data captured by the imaging unit 14a until the projection transformation parameters are updated next time.

続いて、投影処理部30は、側方の俯瞰画像を描画する(S118)。この場合、例えば右側方俯瞰画像は、パラメータ補正部34cが補正した最新の投影変換パラメータを撮像部14aが撮像した撮像画像データの各画素に適用して投影変換することで画像全体が描画される。一方、左側方俯瞰画像は、ROM24b等に記憶されている撮像部14bが設置されたときに定められた投影変換パラメータを撮像部14bが撮像した撮像画像データの各画素に適用して投影変換することで描画される。また、投影処理部30は、前後の俯瞰画像を描画する(S120)。この場合、前方の俯瞰画像は、ROM24b等に記憶されている撮像部14cが設置されたときに定められた投影変換パラメータを撮像部14cが撮像した撮像画像データの各画素に適用して投影変換することで描画される。同様に、後方の俯瞰画像は、ROM24b等に記憶されている撮像部14dが設置されたときに定められた投影変換パラメータを撮像部14dが撮像した撮像画像データの各画素に適用して投影変換することで描画される。 Subsequently, the projection processing unit 30 draws a side bird's-eye view image (S118). In this case, for example, the right bird's-eye view image is drawn as a whole by applying the latest projection transformation parameter corrected by the parameter correction unit 34c to each pixel of the captured image data captured by the imaging unit 14a and performing projection transformation. . On the other hand, the left side bird's-eye view image is projected and transformed by applying the projection transformation parameters determined when the imaging unit 14b is installed and stored in the ROM 24b to each pixel of the captured image data captured by the imaging unit 14b. is drawn by Also, the projection processing unit 30 draws the front and rear overhead images (S120). In this case, the front bird's-eye view image is projection-transformed by applying the projection transformation parameters, which are stored in the ROM 24b or the like and are determined when the imaging unit 14c is installed, to each pixel of the captured image data captured by the imaging unit 14c. It is drawn by Similarly, the rear bird's-eye view image is projected and transformed by applying the projection transformation parameters determined when the imaging unit 14d is installed and stored in the ROM 24b or the like to each pixel of the captured image data captured by the imaging unit 14d. It is drawn by

そして、画像処理部36は、描画された各俯瞰画像に映っている連続性のある共通点を抽出する(S122)。例えば、図9に示すように、撮像部14aで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線Lと撮像部14cで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L2Rとを抽出する。同様に、撮像部14cで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L2L、撮像部14bで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L、撮像部14dで撮像した撮像画像データに基づく領域Rの俯瞰画像に写っている白線L4L,L4R等を抽出する。 Then, the image processing unit 36 extracts a common point with continuity appearing in each drawn bird's-eye view image (S122). For example, as shown in FIG. 9, a white line L1 appearing in a bird's-eye view image of a region R1 based on the captured image data captured by the imaging unit 14a and a bird's-eye view of a region R2 based on the captured image data captured by the imaging unit 14c. The white lines L2R appearing in the image are extracted. Similarly, a white line L 2L appearing in the bird's-eye view image of the region R 2 based on the captured image data captured by the imaging unit 14c, and a white line appearing in the bird's-eye view image of the region R 3 based on the captured image data captured by the imaging unit 14b. L 3 , white lines L 4L , L 4R , etc. appearing in the bird's-eye view image of the region R 4 based on the captured image data captured by the imaging unit 14d are extracted.

そして、画像処理部36は、各撮像部14で撮像した撮像画像データに基づく俯瞰画像を合成して表示装置16に表示させる(S124)。具体的には、まず、画像処理部36は、白線Lと白線L2Rとが連続するように、白線Lに対して領域Rに表示される前方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。続いて画像処理部36は、白線L2Lと白線Lとが連続するように、白線L2Lに対して領域Rに表示される左側方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。同様、画像処理部36は、白線Lと白線L4Lとが連続するように、白線Lに対して領域Rに表示される後方の俯瞰画像の回転処理や平行移動処理、拡縮処理等を施し描画位置の調整を行う。その結果、図9に示すような、自車アイコン40に対して正確な位置に描画された白線Lを基準として、各俯瞰画像の位置合わせが実行されて、正確な描画が実現される。つまり、自車アイコン40(車両10)の周囲の表示物までの距離感と現実の物体までの距離感とが対応した、正確な俯瞰画像を表示装置16に表示させることができる。 Then, the image processing unit 36 synthesizes a bird's-eye view image based on the captured image data captured by each imaging unit 14 and displays it on the display device 16 (S124). Specifically, first , the image processing unit 36 rotates and translates the front bird's - eye view image displayed in the region R2 with respect to the white line L1 so that the white line L1 and the white line L2R are continuous. Processing, scaling, etc. are performed to adjust the drawing position. Subsequently, the image processing unit 36 rotates, translates, and scales the bird's-eye view image on the left side of the white line L2L displayed in the area R3 so that the white line L2L and the white line L3 are continuous. etc. to adjust the drawing position. Similarly, the image processing unit 36 performs rotation processing, translation processing, scaling processing, etc. of the bird's-eye view image displayed in the area R4 behind the white line L3 so that the white line L3 and the white line L4L are continuous . to adjust the drawing position. As a result, as shown in FIG. 9, each bird's-eye view image is aligned with reference to the white line L1 drawn at the correct position with respect to the own vehicle icon 40, and accurate drawing is realized. That is, it is possible to display an accurate bird's-eye view image on the display device 16 in which the sense of distance to the display objects around the own vehicle icon 40 (vehicle 10) corresponds to the sense of distance to the actual object.

表示装置16に俯瞰画像が表示されたら、CPU24aは、俯瞰画像の表示を終了させる要求がなされているか否かの確認を行う(S126)。例えば、操作入力部20が操作され、俯瞰画像の表示終了要求がなされた場合(S126のYes)、CPU24aは、表示装置16の表示内容を現在表示されている俯瞰画像の表示画面から通常画面であるナビゲーション画面やオーディオ画面に切り替えて(S128)、このフローを一旦終了する。 After the bird's-eye view image is displayed on the display device 16, the CPU 24a confirms whether or not a request to end the display of the bird's-eye view image has been made (S126). For example, when the operation input unit 20 is operated and a request to end the display of the bird's-eye view image is made (Yes in S126), the CPU 24a changes the display content of the display device 16 from the currently displayed bird's-eye view image to the normal screen. After switching to a certain navigation screen or audio screen (S128), this flow is terminated.

S126において、俯瞰画像の表示終了要求がなされていない場合(S126のNo)、CPU24aは、S102の処理に戻り、次の処理周期で利用する周辺画像の取得を画像取得部28aを介して行い、以降の処理を繰り返し実行する。なお、この場合、S104で、画像処理上の認識位置の再調整(補正)タイミングでない場合(S104のNo)、S106~S116の処理をスキップして、現在SSD24fに更新記憶された撮像部14a用の最新の投影変換パラメータと、ROM24bに記憶されている撮像部14b、撮像部14c、撮像部14d用の設定当初の投影変換パラメータとを用いて、S118以降の俯瞰画像の描画を行う。つまり、過剰に投影変換パラメータの更新処理が実施されることを抑制して、CPU24aの処理負荷の軽減に寄与している。なお、S100において、俯瞰画像の作成(表示装置16での表示)が要求されない場合(S100のNo)、S102~S126の処理をスキップして、通常画面(ナビゲーション画面やオーディオ画面)の表示を継続する。 In S126, if a request to end the display of the bird's-eye view image has not been issued (No in S126), the CPU 24a returns to the process of S102, acquires the peripheral image to be used in the next processing cycle via the image acquisition unit 28a, Repeat the following process. In this case, if it is not the time to readjust (correct) the recognition position in image processing in S104 (No in S104), the processes of S106 to S116 are skipped, and the image pickup unit 14a updated and stored in the current SSD 24f. and the projection transformation parameters initially set for the imaging units 14b, 14c, and 14d stored in the ROM 24b, the bird's-eye view image is drawn in and after S118. In other words, it prevents the projection transformation parameter from being excessively updated, thereby contributing to the reduction of the processing load on the CPU 24a. In S100, if creation of a bird's-eye view image (display on the display device 16) is not requested (No in S100), the processing of S102 to S126 is skipped and the normal screen (navigation screen or audio screen) continues to be displayed. do.

なお、図10に示すフローチャートは、一例であり、実質的に同様な処理が実行できれば、適宜処理ステップの増減、入れ替え、変更が可能で同様な効果を得ることができる。上述の例では、撮像部14aの画像処理上の認識位置を補正することにより撮像部14aが撮像した撮像画像データに対する投影変換パラメータの補正を行った。別の実施形態では、他の撮像部14の画像処理上の認識位置を同様に補正して撮像した撮像画像データに対する投影変換パラメータの補正を併せて実行するようにしてもよいし、補正処理の度に補正対象とする撮像部14を変更するようにしてもよい。補正処理の度に対象とする撮像部14を変更する場合、S104の再調整(補正)タイミングで、まず撮像部14aの認識位置の補正を行い、次の処理周期で、撮像部14bの認識位置の補正を行う。そして、次の処理周期で撮像部14cの認識位置の補正を行い、次の処理周期で、撮像部14dの認識位置の補正を行う。つまり、各撮像部14の認識位置の補正が全て完了した時点で、再調整(補正)タイミングでの処理が完了したと見なす。この場合、各撮像部14の認識位置の補正が行われるので、より正確な俯瞰画像の生成ができる。 Note that the flowchart shown in FIG. 10 is only an example, and if substantially the same processing can be executed, the processing steps can be appropriately increased, decreased, replaced, or changed, and similar effects can be obtained. In the above example, the projection transformation parameter for the captured image data captured by the imaging unit 14a is corrected by correcting the recognized position in the image processing of the imaging unit 14a. In another embodiment, the recognition position in the image processing of the other imaging unit 14 may be corrected in the same manner, and the projection transformation parameters for the captured image data may be corrected. The imaging unit 14 to be corrected may be changed each time. When the target imaging unit 14 is changed each time correction processing is performed, the recognition position of the imaging unit 14a is first corrected at the readjustment (correction) timing of S104, and the recognition position of the imaging unit 14b is corrected at the next processing cycle. correction. Then, the recognition position of the imaging unit 14c is corrected in the next processing cycle, and the recognition position of the imaging unit 14d is corrected in the next processing cycle. In other words, the processing at the readjustment (correction) timing is considered to be completed when all the corrections of the recognition positions of the imaging units 14 are completed. In this case, since the recognition position of each imaging unit 14 is corrected, a more accurate bird's-eye view image can be generated.

なお、前方の領域を撮像する撮像部14cの場合、撮像部14cの撮像領域に含まれるフロントバンパ10c上に例えばマーク等を形成したり添付したりすることで第一の参照位置Pとしてもよい。同様に、後方の領域を撮像する撮像部14dの場合、撮像部14dの撮像領域に含まれるリヤバンパ10d上に例えばマーク等を形成したり添付したりすることで第一の参照位置Pとしてもよい。 In the case of the imaging unit 14c that captures an image of an area in front, the first reference position P may be set by forming or attaching a mark or the like on the front bumper 10c included in the imaging area of the imaging unit 14c. . Similarly, in the case of the imaging unit 14d that images the rear area, the first reference position P may be set by forming or attaching a mark or the like on the rear bumper 10d included in the imaging area of the imaging unit 14d. .

また、第一の参照位置Pに対応する第二の参照位置Qの認識性を向上させるため、例えば、車両10の一部に検出用のマーク、例えばシールやLED等を設けてもよい。マークとしてLED等の発光体を用いることにより、第二の参照位置Qの位置の検出精度が向上し、撮像部14の画像処理上の認識位置の補正精度を向上することができる。また、車両10の周囲が暗い状況(例えば夜間等)でも精度のよい補正処理を実行することができる。 Further, in order to improve the recognizability of the second reference position Q corresponding to the first reference position P, for example, a detection mark such as a sticker or an LED may be provided on a part of the vehicle 10 . By using a light-emitting body such as an LED as the mark, the detection accuracy of the position of the second reference position Q can be improved, and the correction accuracy of the recognized position in the image processing of the imaging unit 14 can be improved. In addition, even when the surroundings of the vehicle 10 are dark (for example, at night), accurate correction processing can be performed.

本実施形態のCPU24aで実行される画像処理のためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。 The program for image processing executed by the CPU 24a of this embodiment is a file in an installable format or an executable format, and can may be configured to be recorded and provided on a computer-readable recording medium.

さらに、画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Furthermore, the image processing program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the image processing program executed in this embodiment may be configured to be provided or distributed via a network such as the Internet.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments and variations of the invention have been described, these embodiments and variations are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

10…車両、12…車輪、12F…前輪、14,14a,14b,14c,14d…撮像部、16…表示装置、20…操作入力部、24…ECU、24a…CPU、24b…ROM、24d…表示制御部、24f…SSD、28…取得部、28a…画像取得部、28b…第一の参照位置取得部、28c…パラメータ取得部、30…投影処理部、32…検出部、34…補正部、34a…変位取得部、34b…認識位置補正部、34c…パラメータ補正部、36…画像処理部、40…自車アイコン、100…画像処理システム、L…白線、P…第一の参照位置、Q…第二の参照位置。 DESCRIPTION OF SYMBOLS 10... Vehicle 12... Wheel 12F... Front wheel 14, 14a, 14b, 14c, 14d... Imaging part 16... Display device 20... Operation input part 24... ECU, 24a... CPU, 24b... ROM, 24d... Display control unit 24f SSD 28 acquisition unit 28a image acquisition unit 28b first reference position acquisition unit 28c parameter acquisition unit 30 projection processing unit 32 detection unit 34 correction unit , 34a... Displacement acquisition unit, 34b... Recognition position correction unit, 34c... Parameter correction unit, 36... Image processing unit, 40... Vehicle icon, 100... Image processing system, L... White line, P... First reference position, Q...Second reference position.

Claims (4)

車両の外面の一部に設定され、予め記憶された第一の参照位置を取得する取得部と、
前記車両に設けられた撮像部で取得された撮像画像データ上で前記第一の参照位置に対応する第二の参照位置を検出する検出部と、
前記第二の参照位置が前記第一の参照位置に一致するように画像処理上の前記撮像部の認識位置を補正する補正部と、を備え
前記第一の参照位置は前記車両の前輪の接地する位置である
画像処理装置。
an acquisition unit configured to acquire a pre-stored first reference position set on a portion of the outer surface of the vehicle;
a detection unit that detects a second reference position corresponding to the first reference position on captured image data acquired by an imaging unit provided in the vehicle;
a correction unit that corrects the recognition position of the imaging unit in image processing so that the second reference position matches the first reference position ,
The first reference position is the ground contact position of the front wheels of the vehicle.
Image processing device.
前記補正部は、前記第一の参照位置と前記第二の参照位置との変位量に基づき前記撮像部の認識位置を補正する請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the correction section corrects the recognition position of the imaging section based on the amount of displacement between the first reference position and the second reference position. 前記補正部は、補正した前記撮像部の認識位置に基づき投影変換パラメータを補正する請求項1または請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the correcting section corrects the projection transformation parameter based on the corrected recognized position of the imaging section. 前記撮像部は、前記車両の側方領域を撮像する第一の撮像部と、前記車両の進行方向領域を撮像する第二の撮像部とを備え、
前記補正部は、前記第一の撮像部と前記第二の撮像部とのいずれか一方の撮像部の認識位置を補正し、
前記認識位置が補正された前記一方の撮像部の撮像画像データに基づく画像に、他方の撮像部の撮像画像データを連結する場合に、画像内容の連続性が保たれるように、前記他方の撮像部の撮像画像データを補正する画像処理部を備える、請求項1から請求項のいずれか1項に記載の画像処理装置。
The imaging unit includes a first imaging unit that images a side area of the vehicle and a second imaging unit that images a traveling direction area of the vehicle,
The correction unit corrects the recognition position of one of the first imaging unit and the second imaging unit,
When connecting the captured image data of the other imaging unit to the image based on the captured image data of the one of the imaging units in which the recognition position is corrected, the other 4. The image processing apparatus according to any one of claims 1 to 3 , comprising an image processing section that corrects captured image data of the imaging section.
JP2017248024A 2017-12-25 2017-12-25 Image processing device Active JP7110592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017248024A JP7110592B2 (en) 2017-12-25 2017-12-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017248024A JP7110592B2 (en) 2017-12-25 2017-12-25 Image processing device

Publications (2)

Publication Number Publication Date
JP2019114965A JP2019114965A (en) 2019-07-11
JP7110592B2 true JP7110592B2 (en) 2022-08-02

Family

ID=67222854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017248024A Active JP7110592B2 (en) 2017-12-25 2017-12-25 Image processing device

Country Status (1)

Country Link
JP (1) JP7110592B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008182652A (en) 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
WO2015129280A1 (en) 2014-02-26 2015-09-03 京セラ株式会社 Image processing device and image processing method
JP2015202835A (en) 2014-04-16 2015-11-16 株式会社デンソー Attachment error display control device of on-vehicle camera and attachment error detection device
JP2016001378A (en) 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008182652A (en) 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
WO2015129280A1 (en) 2014-02-26 2015-09-03 京セラ株式会社 Image processing device and image processing method
JP2015202835A (en) 2014-04-16 2015-11-16 株式会社デンソー Attachment error display control device of on-vehicle camera and attachment error detection device
JP2016001378A (en) 2014-06-11 2016-01-07 株式会社デンソー Calibration device of on-vehicle camera

Also Published As

Publication number Publication date
JP2019114965A (en) 2019-07-11

Similar Documents

Publication Publication Date Title
US10676027B2 (en) Vehicle control apparatus and program
US9973734B2 (en) Vehicle circumference monitoring apparatus
US9902323B2 (en) Periphery surveillance apparatus and program
JP5190712B2 (en) Obstacle detection device
US9895974B2 (en) Vehicle control apparatus
JP5729158B2 (en) Parking assistance device and parking assistance method
US11440475B2 (en) Periphery display control device
US9994157B2 (en) Periphery monitoring apparatus and periphery monitoring system
JP7039879B2 (en) Display control device
WO2017018400A1 (en) Vehicle display device
CN111095921B (en) Display control device
JP2010246088A (en) Device and method for adjusting image captured by on-board camera device, and on-board camera device
JP2001218197A (en) Device for displaying periphery of vehicle
JP2009126270A (en) Image processor and image processing method, drive assist system, and vehicle
WO2020116352A1 (en) Road surface detection device and road surface detection program
CN111937380A (en) Image processing apparatus
US20180288371A1 (en) Assistance apparatus
JP7314518B2 (en) Perimeter monitoring device
JP7110592B2 (en) Image processing device
US20190126827A1 (en) Image generating apparatus and program
CN111937378B (en) Image processing apparatus
JP2006298217A (en) Vehicle periphery monitoring device
JP2010170445A (en) Device and method for surrounding monitoring for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220704

R150 Certificate of patent or registration of utility model

Ref document number: 7110592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150