JP2021160435A - Vehicle and image processing device - Google Patents

Vehicle and image processing device Download PDF

Info

Publication number
JP2021160435A
JP2021160435A JP2020062081A JP2020062081A JP2021160435A JP 2021160435 A JP2021160435 A JP 2021160435A JP 2020062081 A JP2020062081 A JP 2020062081A JP 2020062081 A JP2020062081 A JP 2020062081A JP 2021160435 A JP2021160435 A JP 2021160435A
Authority
JP
Japan
Prior art keywords
vehicle
image
image processing
camera
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020062081A
Other languages
Japanese (ja)
Inventor
直孝 江川
Naotaka Egawa
将由 道口
Masayoshi Michiguchi
博貴 神山
Hirotaka Kamiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020062081A priority Critical patent/JP2021160435A/en
Publication of JP2021160435A publication Critical patent/JP2021160435A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Abstract

To provide a vehicle and an image processing device which can properly perform image conversion in accordance with the number and arrangement of occupants in a vehicle at the time of image acquisition.SOLUTION: A vehicle 101 comprises: first wheels 3f; second wheels 3r; a vehicle body 2 which can move with the first wheels 3f and the second wheels 3r; a seat for at least one occupant which is arranged in the vehicle body 2; and an imaging part 6s which is arranged in the vehicle body 2 and captures an image including the periphery of the vehicle body 2. The image captured by the imaging part 6s includes at least one of the first wheels 3f and the second wheels 3r. The attitude of the imaging part 6s is determined on the basis of at least one grounding position of the first wheels 3f and the second wheels 3r included in the image. A parameter for image conversion is calculated on the basis of the determined attitude of the imaging part 6s. The image captured by the imaging part 6s is converted so as to be used in prescribed processing by using the calculated parameter for image conversion.SELECTED DRAWING: Figure 14

Description

本開示は、車両および画像処理装置に関する。 The present disclosure relates to vehicles and image processing devices.

車体に取り付けたカメラ等によって車両の周囲を撮像し、撮像した画像を駐車支援等の種々の処理に用いる技術が知られている。カメラからの画像は、所望の処理に適合するよう変換されて用いられる。画像変換は、例えばキャリブレーション時のカメラの姿勢を基準として行われる。 There is known a technique of capturing an image of the surroundings of a vehicle with a camera or the like attached to a vehicle body and using the captured image for various processes such as parking assistance. The image from the camera is converted and used to suit the desired processing. Image conversion is performed based on, for example, the posture of the camera at the time of calibration.

特開2016−149711号公報Japanese Unexamined Patent Publication No. 2016-149711 特表2017−188743号公報Special Table 2017-188743

しかしながら、上記のキャリブレーションは、例えば工場出荷時に作業効率の観点から車両の乗員がゼロ名の状態で行われる。このため、画像変換の対象となる画像の取得時に車両内の乗員の人数および配置が変化すると、キャリブレーション時とはカメラの姿勢が異なっている可能性がある。このため、画像変換が適正に実施されない場合がある。 However, the above calibration is performed, for example, at the time of shipment from the factory, with no vehicle occupants from the viewpoint of work efficiency. Therefore, if the number and arrangement of occupants in the vehicle change when the image to be converted is acquired, the posture of the camera may be different from that at the time of calibration. Therefore, image conversion may not be performed properly.

本開示は、画像取得時における車両内の乗員の人数および配置に応じて適正に画像変換をすることができる車両および画像処理装置を提供することを目的とする。 An object of the present disclosure is to provide a vehicle and an image processing device capable of appropriately performing image conversion according to the number and arrangement of occupants in the vehicle at the time of image acquisition.

本開示にかかる車両は、第1車輪と、第2車輪と、前記第1車輪及び前記第2車輪に結合され、前記第1車輪および前記第2車輪によって移動可能な車体と、前記車体に配置され、少なくとも1名分の乗員用の座席と、前記車体に配置され、前記車体の周囲を含む画像を撮像する撮像部と、を備える車両であって、前記撮像部が撮像する前記画像は、前記第1車輪及び前記第2車輪の少なくとも1つを含み、前記画像に含まれる前記第1車輪および前記第2車輪の前記少なくとも1つの接地位置に基づいて前記撮像部の姿勢を判定し、判定した前記撮像部の姿勢に基づいて画像変換用パラメータを算出し、算出した前記画像変換用パラメータを用いて、前記撮像部が撮像した画像を所定の処理に供するように変換する。 The vehicle according to the present disclosure is arranged on the first wheel, the second wheel, the vehicle body coupled to the first wheel and the second wheel, and movable by the first wheel and the second wheel, and the vehicle body. The vehicle is provided with a seat for at least one occupant and an imaging unit arranged on the vehicle body and capturing an image including the surroundings of the vehicle body, and the image captured by the imaging unit is The posture of the imaging unit is determined and determined based on at least one of the first wheel and the second wheel, and the first wheel and the second wheel included in the image. The image conversion parameter is calculated based on the posture of the imaging unit, and the calculated image conversion parameter is used to convert the image captured by the imaging unit so as to be subjected to a predetermined process.

本開示にかかる車両および画像処理装置によれば、画像取得時における車両内の乗員の人数および配置に応じて適正に画像変換をすることができる。 According to the vehicle and the image processing device according to the present disclosure, it is possible to appropriately perform image conversion according to the number and arrangement of occupants in the vehicle at the time of image acquisition.

図1は、実施形態1にかかる画像処理装置を備える車両の一例を示す模式図である。FIG. 1 is a schematic view showing an example of a vehicle including the image processing device according to the first embodiment. 図2は、実施形態1にかかる画像処理装置を備える車両の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of a vehicle including the image processing device according to the first embodiment. 図3は、実施形態1にかかる画像処理装置が用いるマップデータの構成の一例を示す図である。FIG. 3 is a diagram showing an example of the configuration of map data used by the image processing apparatus according to the first embodiment. 図4は、実施形態1にかかる画像処理装置の処理対象画像を撮像するカメラの姿勢変化の規定の一例を示す図である。FIG. 4 is a diagram showing an example of a definition of a posture change of a camera that captures an image to be processed by the image processing apparatus according to the first embodiment. 図5は、実施形態1にかかる画像処理装置の処理対象画像を撮像するカメラの姿勢変化の一例を示す図である。FIG. 5 is a diagram showing an example of a posture change of a camera that captures an image to be processed by the image processing apparatus according to the first embodiment. 図6は、実施形態1にかかる画像処理装置が駐車支援処理に利用可能な形式に画像を変換する例を示す図である。FIG. 6 is a diagram showing an example in which the image processing device according to the first embodiment converts an image into a format that can be used for parking support processing. 図7は、実施形態1にかかる画像処理装置が俯瞰画像の生成に利用可能な形式に画像を変換する例を示す図である。FIG. 7 is a diagram showing an example in which the image processing apparatus according to the first embodiment converts an image into a format that can be used to generate a bird's-eye view image. 図8は、実施形態1にかかる画像処理装置が駐車支援処理の開始に際して表示する画像の一例を示す図である。FIG. 8 is a diagram showing an example of an image displayed by the image processing apparatus according to the first embodiment at the start of the parking support process. 図9は、実施形態1にかかる画像処理装置が駐車支援処理の継続中に表示する画像の一例を示す図である。FIG. 9 is a diagram showing an example of an image displayed by the image processing device according to the first embodiment during the continuation of the parking support process. 図10は、実施形態1にかかる画像処理装置による画像処理の手順の一例を示すフロー図である。FIG. 10 is a flow chart showing an example of an image processing procedure by the image processing apparatus according to the first embodiment. 図11は、比較例にかかる画像処理装置が駐車支援処理に利用可能な画像を変換する例を示す図である。FIG. 11 is a diagram showing an example in which the image processing device according to the comparative example converts an image that can be used for parking support processing. 図12は、実施形態2にかかる画像処理装置を備える車両の構成の一例を示すブロック図である。FIG. 12 is a block diagram showing an example of the configuration of a vehicle including the image processing device according to the second embodiment. 図13は、実施形態2にかかる画像処理装置によるカメラの高さ位置の判定に用いられる撮像画像を示す図である。FIG. 13 is a diagram showing an captured image used for determining the height position of the camera by the image processing apparatus according to the second embodiment. 図14は、実施形態2にかかる画像処理装置により判定されたカメラの高さ位置と車両の姿勢との関係を示す模式図である。FIG. 14 is a schematic view showing the relationship between the height position of the camera and the posture of the vehicle determined by the image processing device according to the second embodiment. 図15は、実施形態2にかかる画像処理装置によるカメラの回転角の判定に用いられる撮像画像を示す図である。FIG. 15 is a diagram showing an captured image used for determining the rotation angle of the camera by the image processing apparatus according to the second embodiment. 図16は、実施形態2にかかる画像処理装置による画像処理の手順の一例を示すフロー図である。FIG. 16 is a flow chart showing an example of an image processing procedure by the image processing apparatus according to the second embodiment.

以下、図面を参照しながら、本開示にかかる車両および画像処理装置の実施形態について説明する。 Hereinafter, embodiments of the vehicle and the image processing apparatus according to the present disclosure will be described with reference to the drawings.

[実施形態1]
実施形態1について図面を用いて説明する。
[Embodiment 1]
The first embodiment will be described with reference to the drawings.

(車両の構成例)
図1は、実施形態1にかかる画像処理装置100を備える車両1の一例を示す模式図である。図1(a)は車両1の側面図であり、図1(b)は車両1の上面図である。
(Vehicle configuration example)
FIG. 1 is a schematic view showing an example of a vehicle 1 including the image processing device 100 according to the first embodiment. FIG. 1A is a side view of the vehicle 1, and FIG. 1B is a top view of the vehicle 1.

図1に示すように、車両1は、車体2と、車体2の車長方向(±Y方向)に沿って車体2に配置された2対の車輪3(1対のフロントタイヤ3f及び1対のリアタイヤ3r)とを備える。対になる2つのフロントタイヤ3f及び対になる2つのリアタイヤ3rは、それぞれ車体2の車幅方向(±Y方向に直交する±X方向)に沿って配置される。 As shown in FIG. 1, the vehicle 1 includes a vehicle body 2 and two pairs of wheels 3 (a pair of front tires 3f and a pair) arranged on the vehicle body 2 along the vehicle length direction (± Y direction) of the vehicle body 2. The rear tire 3r) is provided. The paired two front tires 3f and the paired two rear tires 3r are arranged along the vehicle width direction (± X direction orthogonal to the ± Y direction) of the vehicle body 2, respectively.

車両1は、車体2の±X方向の両端部であって、車体2の±Y方向のフロントタイヤ3f寄り、かつ、車高方向(±X方向および±Y方向に直交する±Z方向)における所定の高さ位置に1対のドアミラー4を備える。 The vehicle 1 is both ends of the vehicle body 2 in the ± X direction, is closer to the front tire 3f in the ± Y direction of the vehicle body 2, and is in the vehicle height direction (± X direction and ± Z direction orthogonal to the ± Y direction). A pair of door mirrors 4 are provided at a predetermined height position.

車両1は、車体2の内部に複数の座席5a〜5dを備える。座席5a,5bは、フロントタイヤ3f寄りに、±X方向に並んで配置される。座席5c,5dは、リアタイヤ3r寄りに、±X方向に並んで配置される。座席5cは座席5bの背後に配置され、座席5dは座席5aの背後に配置される。なお、車両1が備える座席5の数および配置は図1の例に限られない。 The vehicle 1 includes a plurality of seats 5a to 5d inside the vehicle body 2. The seats 5a and 5b are arranged side by side in the ± X direction near the front tire 3f. The seats 5c and 5d are arranged side by side in the ± X direction near the rear tire 3r. The seat 5c is located behind the seat 5b and the seat 5d is located behind the seat 5a. The number and arrangement of the seats 5 included in the vehicle 1 are not limited to the example of FIG.

車両1は、車体2の所定の端面に複数のカメラ6s,6f,6rを備える。撮像部としてのカメラ6s,6f,6rは、可視光カメラ、より広域の光を検出可能なCCDカメラ、またはCMOSカメラ等である。カメラ6s,6f,6rは、広角レンズを備えていることが好ましい。 The vehicle 1 includes a plurality of cameras 6s, 6f, 6r on a predetermined end surface of the vehicle body 2. The cameras 6s, 6f, 6r as the imaging unit are a visible light camera, a CCD camera capable of detecting light in a wider range, a CMOS camera, and the like. The cameras 6s, 6f, 6r preferably include a wide-angle lens.

カメラ6sは、2つのドアミラー4のそれぞれに、例えばレンズを下方に向けて配置される。カメラ6fは、車体2のフロントタイヤ3f側の端面に、例えばレンズを斜め下方に向けて配置される。カメラ6rは、車体2のリアタイヤ3r側の端面に、例えばレンズを斜め下方に向けて配置される。カメラ6s,6f,6rにより、路面を含む車体2の周囲の画像が撮像される。 The camera 6s is arranged on each of the two door mirrors 4, for example, with the lens facing downward. The camera 6f is arranged on the end surface of the vehicle body 2 on the front tire 3f side, for example, with the lens facing diagonally downward. The camera 6r is arranged on the end surface of the vehicle body 2 on the rear tire 3r side, for example, with the lens facing diagonally downward. The cameras 6s, 6f, and 6r capture images of the surroundings of the vehicle body 2 including the road surface.

なお、本明細書では、車体2のフロントタイヤ3f側の端面を前面と称することがある。また、車体2のリアタイヤ3r側の端面を後面と称することがある。また、車体2の±X方向の両端面を側面と称することがある。また、車両1内のいずれかの座席5a〜5dに着座した状態で、右側にあたる側面を右側面、左側にあたる側面を左側面と称することがある。 In this specification, the end surface of the vehicle body 2 on the front tire 3f side may be referred to as a front surface. Further, the end surface of the vehicle body 2 on the rear tire 3r side may be referred to as a rear surface. Further, both end faces of the vehicle body 2 in the ± X direction may be referred to as side surfaces. Further, when seated in any of the seats 5a to 5d in the vehicle 1, the side surface corresponding to the right side may be referred to as a right side surface, and the side surface corresponding to the left side may be referred to as a left side surface.

また、本明細書では、車体2の左側面に向かう方向を+X方向とし、右側面に向かう方向を−X方向とする。また、車体2の前面側に向かう方向を+Y方向とし、後面側に向かう方向を−Y方向とする。また、車体2の上方に向かう方向を+Z方向とし、下方(路面側)に向かう方向を−Z方向とする。 Further, in the present specification, the direction toward the left side surface of the vehicle body 2 is the + X direction, and the direction toward the right side surface is the −X direction. Further, the direction toward the front side of the vehicle body 2 is the + Y direction, and the direction toward the rear surface side is the −Y direction. Further, the upward direction of the vehicle body 2 is the + Z direction, and the downward direction (road surface side) is the −Z direction.

また、本明細書では、車両1が理想的な平面を有する路面に停車しているとき、車両1の±X方向の軸(X軸)及び±Y方向の軸(Y軸)は路面と平行であり、車両1の±Z方向の軸(Z軸)は路面に対する法線と平行であるものとする。 Further, in the present specification, when the vehicle 1 is stopped on a road surface having an ideal flat surface, the ± X direction axis (X axis) and the ± Y direction axis (Y axis) of the vehicle 1 are parallel to the road surface. It is assumed that the axis (Z axis) in the ± Z direction of the vehicle 1 is parallel to the normal line with respect to the road surface.

車両1は、±Y方向に沿って配置された2対の車輪3を用いて走行することが可能である。この場合、2対の車輪3が配置される±Y方向が車両1の走行方向(移動方向)となり、ギアの切り替え等により前進(+Y方向へ走行)または後退(−Y方向へ走行)することができる。また、操舵により右左折することもできる。 The vehicle 1 can travel using two pairs of wheels 3 arranged along the ± Y direction. In this case, the ± Y direction in which the two pairs of wheels 3 are arranged is the traveling direction (moving direction) of the vehicle 1, and the vehicle 1 is moved forward (traveling in the + Y direction) or backward (traveling in the −Y direction) by switching gears or the like. Can be done. You can also turn left or right by steering.

画像処理装置100は、例えば車両1に搭載され、カメラ6s,6f,6rからの画像に所定の変換を施す。画像変換は、例えばカメラ6s,6f,6rが斜め上から撮像した路面の画像を真上からの画像となるように視点を変換する処理等である。これにより、後述する駐車支援処理等の所定の処理に画像を利用することができる。 The image processing device 100 is mounted on the vehicle 1, for example, and performs predetermined conversion on the images from the cameras 6s, 6f, and 6r. The image conversion is, for example, a process of converting the viewpoint so that the image of the road surface captured by the cameras 6s, 6f, 6r from diagonally above becomes an image from directly above. As a result, the image can be used for a predetermined process such as a parking support process described later.

(画像処理装置の構成例)
図2は、実施形態1にかかる画像処理装置100を備える車両1の構成の一例を示すブロック図である。図2に示すように、車両1は、画像処理装置100及び駐車支援装置200を備える。
(Configuration example of image processing device)
FIG. 2 is a block diagram showing an example of the configuration of the vehicle 1 including the image processing device 100 according to the first embodiment. As shown in FIG. 2, the vehicle 1 includes an image processing device 100 and a parking support device 200.

画像処理装置100は、ECU(Electronic Cotrol Unit)10、入力装置31、及び出力装置32を備える。ただし、画像処理装置100に、カメラ6(図1のカメラ6s,6f,6r)、シートベルト着脱センサ7、及び着座センサ8が含まれてもよい。駐車支援装置200は、ECU10及び車両制御装置20を備える。ただし、駐車支援装置200に、カメラ6、入力装置31、及び出力装置32が含まれてもよい。 The image processing device 100 includes an ECU (Electronic Control Unit) 10, an input device 31, and an output device 32. However, the image processing device 100 may include a camera 6 (cameras 6s, 6f, 6r in FIG. 1), a seatbelt attachment / detachment sensor 7, and a seating sensor 8. The parking support device 200 includes an ECU 10 and a vehicle control device 20. However, the parking support device 200 may include a camera 6, an input device 31, and an output device 32.

ECU10は、例えばCPU(Central Processing Unit)11、RAM(Random Access Memory)12、及びROM(Read Only Memory)13を備えたコンピュータとして構成されている。ECU10に、HDD(Hard Disk Drive)等から構成される記憶装置14が内蔵されていてもよい。また、ECU10は、各種センサ等と検出信号および各種情報の送受信が可能なI/O(Input/Output)ポート15を備えている。 The ECU 10 is configured as a computer including, for example, a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, and a ROM (Read Only Memory) 13. The ECU 10 may include a storage device 14 composed of an HDD (Hard Disk Drive) or the like. Further, the ECU 10 includes an I / O (Input / Output) port 15 capable of transmitting and receiving detection signals and various information with various sensors and the like.

ECU10のRAM12、ROM13、記憶装置14、及びI/Oポート15の各構成は、例えば内部バスを介してCPU11と各種情報の送受信が可能に構成されている。 Each configuration of the RAM 12, the ROM 13, the storage device 14, and the I / O port 15 of the ECU 10 is configured to be capable of transmitting and receiving various information to and from the CPU 11 via, for example, an internal bus.

ECU10は、ROM12にインストールされているプログラムをCPU11が実行することにより、駐車区画の検出処理および駐車区画への駐車経路の算出処理等の駐車支援処理を制御する。また、ECU10は、ROM12にインストールされているプログラムをCPU11が実行することにより、上述のカメラ6からの画像を変換する等の画像処理を制御する。変換された画像は、例えば駐車支援処理における駐車区画の検出処理に用いられる。また、ECU10は、変換した画像を後述の出力装置32に出力する処理を制御する。 The ECU 10 controls parking support processing such as a parking area detection process and a parking route calculation process to the parking area by executing the program installed in the ROM 12 by the CPU 11. Further, the ECU 10 controls image processing such as converting an image from the above-mentioned camera 6 by executing a program installed in the ROM 12 by the CPU 11. The converted image is used, for example, in the parking zone detection process in the parking support process. Further, the ECU 10 controls a process of outputting the converted image to the output device 32 described later.

記憶装置14は、例えばキャリブレーションデータ(不図示)及びマップデータ14aを記憶する。 The storage device 14 stores, for example, calibration data (not shown) and map data 14a.

キャリブレーションは、車両1の製造時に生じるカメラ6の取り付け誤差等をキャンセルするため、例えば車両1の工場出荷の際などにカメラ6に対して行われる。キャリブレーションを行うことで、カメラ6の取り付け時の姿勢に若干のばらつきがあっても、路面に対する法線および路面に平行な平面、並びに路面の高さ位置(垂直方向における位置)が、個々のカメラ6の視点(画像)において共通に定まる。キャリブレーションデータには、カメラ6の画像処理時に基準となる路面に対する法線および路面に平行な平面、並びに路面の高さ位置等の情報が含まれる。 The calibration is performed on the camera 6 at the time of factory shipment of the vehicle 1, for example, in order to cancel the mounting error of the camera 6 that occurs at the time of manufacturing the vehicle 1. By performing calibration, even if there is a slight variation in the posture when the camera 6 is attached, the normal line to the road surface, the plane parallel to the road surface, and the height position (position in the vertical direction) of the road surface are individually determined. It is commonly determined from the viewpoint (image) of the camera 6. The calibration data includes information such as a normal to the road surface as a reference during image processing of the camera 6, a plane parallel to the road surface, and the height position of the road surface.

マップデータ14aは、車両1内の複数の座席5(例えば図1の座席5a〜5d)に対する乗員の着座状況を示す乗員配置情報を含む。乗員の着座状況とは、例えば車両1内の乗員数および複数の座席5への着座位置、つまり、乗員の配置である。異なる乗員数および乗員配置を示す複数の乗員配置情報のそれぞれには、ECU10がカメラ6からの画像を変換するときに用いる画像変換用パラメータが紐づけられている。それぞれの画像変換用パラメータは、自身が紐づけられている乗員配置情報の乗員数および乗員配置に応じて、異なる設定値を有する。 The map data 14a includes occupant placement information indicating the seating status of the occupants with respect to the plurality of seats 5 (for example, the seats 5a to 5d in FIG. 1) in the vehicle 1. The seating status of the occupants is, for example, the number of occupants in the vehicle 1 and the seating positions on the plurality of seats 5, that is, the arrangement of the occupants. An image conversion parameter used by the ECU 10 to convert an image from the camera 6 is associated with each of the plurality of occupant arrangement information indicating different numbers of occupants and occupant arrangements. Each image conversion parameter has a different set value depending on the number of occupants and the occupant arrangement of the occupant arrangement information associated with itself.

車両制御装置20は、操舵アクチュエータ21、舵角センサ22、アクセルセンサ23、ブレーキセンサ24、及び車速センサ25を備える。車両制御装置20は、舵角センサ22、アクセルセンサ23、ブレーキセンサ24、及び車速センサ25等から車両1の各部の状態を示す情報を取得する。これらの情報に基づき、車両制御装置20は、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御することで、例えば上述の駐車区画に車両1を駐車させる駐車支援を行う。 The vehicle control device 20 includes a steering actuator 21, a steering angle sensor 22, an accelerator sensor 23, a brake sensor 24, and a vehicle speed sensor 25. The vehicle control device 20 acquires information indicating the state of each part of the vehicle 1 from the steering angle sensor 22, the accelerator sensor 23, the brake sensor 24, the vehicle speed sensor 25, and the like. Based on this information, the vehicle control device 20 controls the steering actuator 21 while receiving operations such as accelerator and brake by the driver to provide parking support for parking the vehicle 1 in the above-mentioned parking section, for example.

シートベルト着脱センサ7は、乗員が車両1の座席5に着座したことを検出するセンサである。シートベルト着脱センサ7は、各々の座席5に設けられたシートベルトにそれぞれ取り付けられ、自身が取り付けられたシートベルトの着脱を検出する。シートベルト着脱センサ7は、シートベルトの装着を検出することで、その座席5への乗員の着座を検出する。 The seatbelt attachment / detachment sensor 7 is a sensor that detects that the occupant is seated in the seat 5 of the vehicle 1. The seatbelt attachment / detachment sensor 7 is attached to each of the seatbelts provided in each seat 5, and detects the attachment / detachment of the seatbelt to which it is attached. The seatbelt attachment / detachment sensor 7 detects the seating of the occupant on the seat 5 by detecting the wearing of the seatbelt.

着座センサ8は、例えば荷重を検出する荷重センサ等であり、車両1内の各々の座席5にそれぞれ取り付けられ、自身が取り付けられた座席5に加わる重量を検出する。すなわち、着座センサ8によっても、乗員が所定の座席5に着座したことを検出することができる。 The seating sensor 8 is, for example, a load sensor that detects a load, and is attached to each seat 5 in the vehicle 1 to detect the weight applied to the seat 5 to which the seat sensor 8 is attached. That is, the seating sensor 8 can also detect that the occupant is seated in the predetermined seat 5.

ECU10は、例えばシートベルト着脱センサ7からの信号を受け取って、車両1内の乗員数および着座位置を判定する。また、ECU10は、上述のマップデータ14aの複数の乗員配置情報の中から、判定した乗員数および着座位置と合致する乗員配置情報を選択することで、選択した乗員配置情報に紐づけられた画像変換用パラメータを記憶装置14から読み出して画像変換に用いる。 The ECU 10 receives a signal from, for example, the seatbelt attachment / detachment sensor 7, and determines the number of occupants and the seating position in the vehicle 1. Further, the ECU 10 selects an occupant arrangement information that matches the determined number of occupants and the seating position from the plurality of occupant arrangement information of the map data 14a described above, and the image is associated with the selected occupant arrangement information. The conversion parameters are read from the storage device 14 and used for image conversion.

ただし、車両1内の乗員数および着座位置の判定に、シートベルト着脱センサ7に替えて、あるいは加えて、着座センサ8からの信号が用いられてもよい。 However, a signal from the seating sensor 8 may be used in place of or in addition to the seatbelt attachment / detachment sensor 7 for determining the number of occupants and the seating position in the vehicle 1.

車両制御装置20が備える操舵アクチュエータ21、舵角センサ22、アクセルセンサ23、ブレーキセンサ24、及び車速センサ25等の各構成、並びにカメラ6、シートベルト着脱センサ7、及び着座センサ8と、ECU10のI/Oポート15とはバスにより接続される。これらを接続するバスは、例えばCAN(Controller Area Network)バス等であってよい。 Each configuration of the steering actuator 21, steering angle sensor 22, accelerator sensor 23, brake sensor 24, vehicle speed sensor 25, etc. included in the vehicle control device 20, as well as the camera 6, seatbelt attachment / detachment sensor 7, seating sensor 8, and ECU 10. It is connected to the I / O port 15 by a bus. The bus connecting these may be, for example, a CAN (Control Area Network) bus or the like.

表示部としての出力装置32は、例えば車両1内に搭載され、車両1内の乗員が視認することが可能な液晶モニタ等の表示装置である。表示装置には、例えばカメラ6により撮像され、ECU10により変換された画像等が表示される。つまり、出力装置32を備える画像処理装置100は、処理した画像を出力する画像出力装置としても機能する。 The output device 32 as a display unit is, for example, a display device such as a liquid crystal monitor that is mounted in the vehicle 1 and can be visually recognized by an occupant in the vehicle 1. On the display device, for example, an image imaged by the camera 6 and converted by the ECU 10 is displayed. That is, the image processing device 100 including the output device 32 also functions as an image output device that outputs the processed image.

入力装置31は、例えば液晶モニタと一体に成形されたタッチ式パネル等であり、車両1内の乗員による入力操作を受け付ける。乗員は、入力装置31を介して画像処理装置100に画像の表示を指示したり、駐車支援装置200に駐車支援処理の開始を指示したりすることができる。 The input device 31 is, for example, a touch-type panel integrally molded with the liquid crystal monitor, and receives an input operation by an occupant in the vehicle 1. The occupant can instruct the image processing device 100 to display an image or instruct the parking support device 200 to start the parking support process via the input device 31.

なお、入力装置31及び出力装置32の構成は上記に限られず、また、入力装置31と出力装置32とが別体であってもよい。 The configurations of the input device 31 and the output device 32 are not limited to the above, and the input device 31 and the output device 32 may be separate bodies.

(マップデータの構成例)
図3は、実施形態1にかかる画像処理装置100が用いるマップデータ14aの構成の一例を示す図である。図3に示すように、ECU10の記憶装置14に格納されるマップデータ14aは、例えば複数の画像変換データD1〜D8を有する。
(Map data configuration example)
FIG. 3 is a diagram showing an example of the configuration of map data 14a used by the image processing apparatus 100 according to the first embodiment. As shown in FIG. 3, the map data 14a stored in the storage device 14 of the ECU 10 has, for example, a plurality of image conversion data D1 to D8.

画像変換データD1〜D8はそれぞれ、乗員の種々の着座状況を示す複数の乗員配置情報に関連付けられている。画像変換データD1〜D8に示された(A)〜(D)は、それぞれ座席5a〜5dに対応しており、これらの座席5a〜5dへの乗員の着座を示す。 Each of the image conversion data D1 to D8 is associated with a plurality of occupant arrangement information indicating various seating situations of the occupant. (A) to (D) shown in the image conversion data D1 to D8 correspond to the seats 5a to 5d, respectively, and indicate the seating of the occupant in these seats 5a to 5d.

画像変換データD1〜D8には、それぞれ画像変換用パラメータが含まれる。それぞれの画像変換用パラメータには、画像変換データD1〜D8に関連付けられた乗員配置情報に応じた設定値が設定されている。 The image conversion data D1 to D8 include image conversion parameters, respectively. For each image conversion parameter, set values corresponding to the occupant arrangement information associated with the image conversion data D1 to D8 are set.

例えば、画像変換データD1は、乗員1名が座席5aに着座している着座状況を示す乗員配置情報に関連付けられており、そのような着座状況に応じた画像変換用パラメータを含む。 For example, the image conversion data D1 is associated with occupant arrangement information indicating a seating situation in which one occupant is seated in the seat 5a, and includes an image conversion parameter according to such a seating situation.

また例えば、画像変換データD3は、乗員2名がそれぞれ座席5a,5cに着座している着座状況を示す乗員配置情報に関連付けられており、そのような着座状況に応じた画像変換用パラメータを含む。 Further, for example, the image conversion data D3 is associated with occupant placement information indicating the seating status in which two occupants are seated in the seats 5a and 5c, respectively, and includes image conversion parameters according to such seating status. ..

また例えば、画像変換データD6は、乗員3名がそれぞれ座席5a,5c,5dに着座している着座状況を示す乗員配置情報に関連付けられており、そのような着座状況に応じた画像変換用パラメータを含む。 Further, for example, the image conversion data D6 is associated with the occupant arrangement information indicating the seating status in which the three occupants are seated in the seats 5a, 5c, and 5d, respectively, and the image conversion parameter according to the seating status. including.

このように、画像変換用パラメータは、乗員の着座位置のパターンごとに複数用意されている。 As described above, a plurality of image conversion parameters are prepared for each pattern of the seating position of the occupant.

車両1の工場出荷時には、取り付け位置の違いにより、個々のカメラ6の姿勢が異なる場合であっても画像処理が一様に行われるよう、上述のようにキャリブレーションが行われる。しかし、車両1内の乗員数および乗員配置が変化すると、カメラ6の姿勢もキャリブレーション時とは異なり得る。個々の画像変換用パラメータの設定値は、例えば乗員の着座状況に応じて変化するカメラ6の姿勢に基づいて決定される。 At the time of shipment from the factory of the vehicle 1, the calibration is performed as described above so that the image processing is uniformly performed even if the postures of the individual cameras 6 are different due to the difference in the mounting position. However, if the number of occupants and the arrangement of occupants in the vehicle 1 change, the posture of the camera 6 may be different from that at the time of calibration. The set values of the individual image conversion parameters are determined based on, for example, the posture of the camera 6 that changes according to the seating condition of the occupant.

(カメラ姿勢変化の規定例)
次に、図4及び図5を用いて、カメラ6の姿勢の変化量を規定する手法について説明する。図4は、実施形態1にかかる画像処理装置100の処理対象画像を撮像するカメラ6の姿勢変化の規定の一例を示す図である。ここでは、ドアミラー4に取り付けられたカメラ6sを例に挙げて説明する。なお、他のカメラ6f,6rについても、以下に説明する手法を用いて姿勢の変化を規定することができる。また、図中、カメラ6sは箱型の形状を有するように描かれているが、円柱型等の他の形状であってもよい。
(Example of camera posture change)
Next, a method of defining the amount of change in the posture of the camera 6 will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram showing an example of a definition of a posture change of a camera 6 that captures an image to be processed by the image processing apparatus 100 according to the first embodiment. Here, the camera 6s attached to the door mirror 4 will be described as an example. For the other cameras 6f and 6r, the change in posture can be defined by using the method described below. Further, although the camera 6s is drawn so as to have a box shape in the drawing, it may have another shape such as a cylindrical shape.

カメラ6sの姿勢の変化量は、例えば基準となるカメラ6sの姿勢からの位置ずれ量として規定することができる。基準となるカメラ6sの姿勢は、例えばキャリブレーション時におけるカメラ6sの位置に基づいて決定される。 The amount of change in the posture of the camera 6s can be defined as, for example, the amount of displacement from the reference posture of the camera 6s. The reference posture of the camera 6s is determined based on, for example, the position of the camera 6s at the time of calibration.

図4(a)に示すように、カメラ6sは、例えばレンズを下方に向けた状態でドアミラー4に取り付けられている。基準となるカメラ6sの姿勢は、例えばカメラ6sのレンズの向きに基づいて規定することができる。つまり、レンズの向きによって定まるカメラ6sの光軸を例えばZ軸として、レンズの向いた下方に向かう方向を−Z方向とし、上方に向かう方向を+Z方向とすることができる。 As shown in FIG. 4A, the camera 6s is attached to the door mirror 4, for example, with the lens facing downward. The reference posture of the camera 6s can be defined based on, for example, the orientation of the lens of the camera 6s. That is, the optical axis of the camera 6s determined by the direction of the lens can be set to, for example, the Z axis, the downward direction of the lens can be set to the −Z direction, and the upward direction can be set to the + Z direction.

また、カメラ6sのZ軸を基準に、カメラ6sのZ軸に直交する平面内の任意の方向を向いたX軸、及びZ軸に直交する平面内のX軸に直交する方向を向いたY軸を設定することができる。上記の任意の方向としては、例えば概ね車幅に沿う方向をX軸とし、概ね車長に沿う方向をY軸とすることができる。 Further, with reference to the Z-axis of the camera 6s, an X-axis oriented in an arbitrary direction in a plane orthogonal to the Z-axis of the camera 6s and a Y oriented in a direction orthogonal to the X-axis in a plane orthogonal to the Z-axis. The axis can be set. As the above-mentioned arbitrary direction, for example, the direction substantially along the vehicle width may be the X-axis, and the direction substantially along the vehicle length may be the Y-axis.

このとき、例えば車体2の左側面に向かう方向を+X方向とし、右側面に向かう方向を−X方向とすることができる。また、例えば車体2の前面側に向かう方向を+Y方向とし、後面側に向かう方向を−Y方向とすることができる。 At this time, for example, the direction toward the left side surface of the vehicle body 2 can be set to the + X direction, and the direction toward the right side surface can be set to the −X direction. Further, for example, the direction toward the front surface side of the vehicle body 2 can be set to the + Y direction, and the direction toward the rear surface side can be set to the −Y direction.

以上のように、基準となるカメラ6sの姿勢は、例えばX軸、Y軸、及びZ軸の3軸を用いて規定される。 As described above, the reference posture of the camera 6s is defined by using, for example, three axes of the X-axis, the Y-axis, and the Z-axis.

なお、カメラ6sについてこのように設定されたX軸、Y軸、及びZ軸は、車両1におけるX軸、Y軸、及びZ軸とは必ずしも完全に平行にはならないことに留意が必要である。車両1へのカメラ6sの取り付け誤差等により、例えばカメラ6sの光軸が車両1のZ軸と平行ではない場合等があるからである。 It should be noted that the X-axis, Y-axis, and Z-axis set in this way for the camera 6s are not necessarily completely parallel to the X-axis, Y-axis, and Z-axis in the vehicle 1. .. This is because, for example, the optical axis of the camera 6s may not be parallel to the Z axis of the vehicle 1 due to an error in mounting the camera 6s on the vehicle 1.

上述のように、車両1内の乗員数および乗員配置が変化すると、カメラ6sの姿勢も変化し得る。そのときのカメラ6sの姿勢の変化量は、基準となるキャリブレーション時のカメラ6sの姿勢に対して、上記のように定めたX軸、Y軸、及びZ軸におけるカメラ6sの位置ずれ値として規定される。 As described above, when the number of occupants and the arrangement of occupants in the vehicle 1 change, the posture of the camera 6s may also change. The amount of change in the posture of the camera 6s at that time is used as the displacement value of the camera 6s on the X-axis, Y-axis, and Z-axis determined as described above with respect to the posture of the camera 6s at the time of reference calibration. Is regulated.

具体的には、カメラ6sの姿勢の変化量は、以下に示すように、X軸、Y軸、及びZ軸の交点である原点からの±X方向、±Y方向、及び±Z方向へのカメラ6sの移動量、並びに、X軸、Y軸、及びZ軸を回転軸とするカメラ6sの回転角で規定することができる。 Specifically, as shown below, the amount of change in the posture of the camera 6s is in the ± X, ± Y, and ± Z directions from the origin, which is the intersection of the X, Y, and Z axes. It can be defined by the amount of movement of the camera 6s and the rotation angle of the camera 6s having the X-axis, the Y-axis, and the Z-axis as the rotation axes.

図4(b)に示すように、カメラ6sの原点位置がキャリブレーション時の位置から±X方向にどれだけずれたかは、±X方向の移動量ΔPxとして表すことができる。カメラ6sの+X方向の移動量ΔPxは例えばプラスを付けた値で表され、−X方向の移動量ΔPxは例えばマイナスを付けた値で表される。 As shown in FIG. 4B, how much the origin position of the camera 6s deviates from the position at the time of calibration in the ± X direction can be expressed as a movement amount ΔPx in the ± X direction. The movement amount ΔPx in the + X direction of the camera 6s is represented by a value with a plus, for example, and the movement amount ΔPx in the −X direction is represented by a value with a minus, for example.

図4(c)に示すように、カメラ6sの原点位置がキャリブレーション時の位置から±Y方向にどれだけずれたかは、±Y方向の移動量ΔPyとして表すことができる。カメラ6sの+Y方向の移動量ΔPyは例えばプラスを付けた値で表され、−Y方向の移動量ΔPyは例えばマイナスを付けた値で表される。 As shown in FIG. 4C, how much the origin position of the camera 6s deviates from the position at the time of calibration in the ± Y direction can be expressed as a movement amount ΔPy in the ± Y direction. The movement amount ΔPy in the + Y direction of the camera 6s is represented by a value with a plus, for example, and the movement amount ΔPy in the −Y direction is represented by a value with a minus, for example.

図4(d)に示すように、カメラ6sの原点位置がキャリブレーション時の位置から±Z方向にどれだけずれたかは、±Z方向の移動量ΔPzとして表すことができる。カメラ6sの+Z方向の移動量ΔPzは例えばプラスを付けた値で表され、−Z方向の移動量ΔPzは例えばマイナスを付けた値で表される。 As shown in FIG. 4D, how much the origin position of the camera 6s deviates from the position at the time of calibration in the ± Z direction can be expressed as a movement amount ΔPz in the ± Z direction. The movement amount ΔPz in the + Z direction of the camera 6s is represented by a value with a plus, for example, and the movement amount ΔPz in the −Z direction is represented by a value with a minus, for example.

図4(e)に示すように、カメラ6sがキャリブレーション時の位置からX軸を回転軸としてどれだけ回転したかは、X軸における回転角ΔRxとして表すことができる。換言すれば、回転角ΔRxは、Y軸およびZ軸に平行なYZ平面におけるカメラ6sの回転角である。X軸のプラス側からマイナス側を眺めた時に、カメラ6sの回転方向が反時計回りである場合には回転角ΔRxは例えばプラスを付けた値で表され、回転方向が時計回りである場合には回転角ΔRxは例えばマイナスを付けた値で表される。なお、X軸における回転角ΔRxはピッチ角とも呼ばれる。 As shown in FIG. 4 (e), how much the camera 6s has rotated from the position at the time of calibration with the X axis as the rotation axis can be expressed as a rotation angle ΔRx on the X axis. In other words, the rotation angle ΔRx is the rotation angle of the camera 6s in the Y-axis and the YZ plane parallel to the Z-axis. When the minus side of the X-axis is viewed from the plus side, when the rotation direction of the camera 6s is counterclockwise, the rotation angle ΔRx is represented by a value with a plus, for example, and when the rotation direction is clockwise. The rotation angle ΔRx is represented by, for example, a value with a minus. The rotation angle ΔRx on the X-axis is also called a pitch angle.

図4(f)に示すように、カメラ6sがキャリブレーション時の位置からY軸を回転軸としてどれだけ回転したかは、Y軸における回転角ΔRyとして表すことができる。換言すれば、回転角ΔRyは、X軸およびZ軸に平行なXZ平面におけるカメラ6sの回転角である。Y軸のプラス側からマイナス側を眺めた時に、カメラ6sの回転方向が反時計回りである場合には回転角ΔRyは例えばプラスを付けた値で表され、回転方向が時計回りである場合には回転角ΔRyは例えばマイナスを付けた値で表される。なお、Y軸における回転角ΔRyはロール角とも呼ばれる。 As shown in FIG. 4 (f), how much the camera 6s has rotated from the position at the time of calibration with the Y axis as the rotation axis can be expressed as a rotation angle ΔRy on the Y axis. In other words, the rotation angle ΔRy is the rotation angle of the camera 6s in the X-axis and the XZ plane parallel to the Z-axis. When the minus side of the Y-axis is viewed from the plus side, if the rotation direction of the camera 6s is counterclockwise, the rotation angle ΔRy is represented by a value with a plus, for example, and if the rotation direction is clockwise. The rotation angle ΔRy is represented by, for example, a value with a minus. The rotation angle ΔRy on the Y-axis is also called a roll angle.

図4(g)に示すように、カメラ6sがキャリブレーション時の位置からZ軸を回転軸としてどれだけ回転したかは、Z軸における回転角ΔRzとして表すことができる。換言すれば、回転角ΔRzは、X軸およびY軸に平行なXY平面におけるカメラ6sの回転角である。Z軸のプラス側からマイナス側を眺めた時に、カメラ6sの回転方向が反時計回りである場合には回転角ΔRzは例えばプラスを付けた値で表され、回転方向が時計回りである場合には回転角ΔRzは例えばマイナスを付けた値で表される。なお、Z軸における回転角ΔRzはヨー角とも呼ばれる。 As shown in FIG. 4 (g), how much the camera 6s has rotated from the position at the time of calibration with the Z axis as the rotation axis can be expressed as a rotation angle ΔRz in the Z axis. In other words, the rotation angle ΔRz is the rotation angle of the camera 6s in the XY plane parallel to the X-axis and the Y-axis. When looking at the minus side from the plus side of the Z axis, if the rotation direction of the camera 6s is counterclockwise, the rotation angle ΔRz is represented by a value with a plus, for example, and if the rotation direction is clockwise. The rotation angle ΔRz is represented by, for example, a value with a minus. The rotation angle ΔRz on the Z axis is also called a yaw angle.

次に、カメラ6sの姿勢の変化量の表し方について具体例を挙げて説明する。 Next, a method of expressing the amount of change in the posture of the camera 6s will be described with a specific example.

図5は、実施形態1にかかる画像処理装置100の処理対象画像を撮像するカメラ6の姿勢の変化の一例を示す図である。図5においても、ドアミラー4に取り付けられたカメラ6sを例に挙げて説明する。なお、他のカメラ6f,6rについても、以下に説明する手法を用いて姿勢の変化量を表すことができる。 FIG. 5 is a diagram showing an example of a change in the posture of the camera 6 that captures the image to be processed by the image processing device 100 according to the first embodiment. In FIG. 5, the camera 6s attached to the door mirror 4 will be described as an example. For the other cameras 6f and 6r, the amount of change in posture can be expressed by using the method described below.

図5(a)は、キャリブレーション時における車両1及びカメラ6sの状態を示している。車両1の工場出荷時等には、作業の効率性に鑑みて、例えば車両1内の乗員がゼロ名の状態でキャリブレーションが行われる。このため、車両1が停車する路面が理想的な平面を有している場合には、車両1のX軸およびY軸は路面に対して平行な状態となっており、車両1のZ軸は路面の法線に対して平行な状態となっている。 FIG. 5A shows the state of the vehicle 1 and the camera 6s at the time of calibration. At the time of factory shipment of the vehicle 1, in consideration of work efficiency, for example, calibration is performed with zero occupants in the vehicle 1. Therefore, when the road surface on which the vehicle 1 stops has an ideal flat surface, the X-axis and the Y-axis of the vehicle 1 are parallel to the road surface, and the Z-axis of the vehicle 1 is It is parallel to the normal of the road surface.

一方、カメラ6sは基準となる所定の姿勢で車両1に取り付けられている。上述のように、このときのカメラ6sの姿勢に基づくX軸、Y軸、及びZ軸は、必ずしも車両1のX軸、Y軸、及びZ軸とは平行ではない。ただし、カメラ6sのX軸、Y軸、及びZ軸と、車両1のX軸、Y軸、及びZ軸とは、所定の位置関係にある。 On the other hand, the camera 6s is attached to the vehicle 1 in a predetermined posture as a reference. As described above, the X-axis, Y-axis, and Z-axis based on the posture of the camera 6s at this time are not necessarily parallel to the X-axis, Y-axis, and Z-axis of the vehicle 1. However, the X-axis, Y-axis, and Z-axis of the camera 6s and the X-axis, Y-axis, and Z-axis of the vehicle 1 have a predetermined positional relationship.

図5(b)は、座席5aの位置に乗員1名が着座した場合の着座状況における車両1及びカメラ6sの状態を示している。図5(b)に示すように、乗員の座席5aへの着座により、車両1は例えば座席5aの位置において下方に沈み込む。また、車両1が若干前のめりになり、かつ、右側面方向へと傾くことも考えられる。これにより、キャリブレーション時とは異なり、車両1のX軸、Y軸、及びZ軸が、路面および路面の法線に対して傾くこととなる。 FIG. 5B shows the state of the vehicle 1 and the camera 6s in the seating state when one occupant is seated at the position of the seat 5a. As shown in FIG. 5B, when the occupant sits on the seat 5a, the vehicle 1 sinks downward, for example, at the position of the seat 5a. It is also conceivable that the vehicle 1 leans forward slightly and tilts toward the right side. As a result, unlike the case of calibration, the X-axis, Y-axis, and Z-axis of the vehicle 1 are tilted with respect to the road surface and the normal of the road surface.

一方、車両1に取り付けられたカメラ6sの姿勢も、車両1の上記状態変化に応じて変化する。ただし、カメラ6sのX軸、Y軸、及びZ軸と、車両1のX軸、Y軸、及びZ軸との位置関係は保たれたままである。 On the other hand, the posture of the camera 6s attached to the vehicle 1 also changes according to the above-mentioned state change of the vehicle 1. However, the positional relationship between the X-axis, Y-axis, and Z-axis of the camera 6s and the X-axis, Y-axis, and Z-axis of the vehicle 1 is maintained.

したがって、例えば車両1が座席5aの位置において下方に沈み込むのに応じて、カメラ6sの移動量ΔPzが所定の大きさを有するマイナスの値となる。 Therefore, for example, as the vehicle 1 sinks downward at the position of the seat 5a, the movement amount ΔPz of the camera 6s becomes a negative value having a predetermined magnitude.

また、例えば車両1が若干前のめりになるのに応じて、カメラ6sの移動量ΔPyが所定の大きさを有するプラスの値となり、また、カメラ6sの回転角ΔRxが所定の大きさを有するプラスの値となる。 Further, for example, the movement amount ΔPy of the camera 6s becomes a positive value having a predetermined magnitude as the vehicle 1 leans forward slightly, and the rotation angle ΔRx of the camera 6s becomes a positive value having a predetermined magnitude. It becomes a value.

また、例えば車両1が右側面方向へと傾くのに応じて、カメラ6sの移動量ΔPxが所定の大きさを有するマイナスの値となり、また、カメラ6sの回転角ΔRyが所定の大きさを有するプラスの値となる。 Further, for example, as the vehicle 1 tilts toward the right side surface, the movement amount ΔPx of the camera 6s becomes a negative value having a predetermined magnitude, and the rotation angle ΔRy of the camera 6s has a predetermined magnitude. It will be a positive value.

以上のように、図5(b)の例における車両1への乗員の着座状況に対し、カメラ6sの姿勢の変化量は、例えば、それぞれ所定の大きさを有するΔPx(−)、ΔPy(+)、ΔPz(−)、ΔRx(+)、及びΔRy(+)、並びにΔRz(±0)として表される。 As described above, with respect to the seating situation of the occupant on the vehicle 1 in the example of FIG. 5B, the amount of change in the posture of the camera 6s is, for example, ΔPx (−) and ΔPy (+) having predetermined magnitudes, respectively. ), ΔPz (−), ΔRx (+), and ΔRy (+), and ΔRz (± 0).

ところで、基準となるカメラ6sの姿勢におけるX軸、Y軸、及びZ軸は、車両1のX軸、Y軸、及びZ軸に対してだけでなく、車両1が停車する路面および路面の法線に対しても平行とはなっていない可能性がある。また、カメラ6sの取り付け誤差等により、カメラ6sと路面との相対的な高さ位置も様々に異なっている可能性がある。 By the way, the X-axis, Y-axis, and Z-axis in the posture of the reference camera 6s are not only with respect to the X-axis, Y-axis, and Z-axis of the vehicle 1, but also the road surface and the road surface method on which the vehicle 1 stops. It may not be parallel to the line either. Further, the relative height position between the camera 6s and the road surface may be different due to the mounting error of the camera 6s or the like.

このような場合であっても、上記キャリブレーションにより、カメラ6sを通した視点、つまり、カメラ6sにより撮像された画像において、路面に平行なX軸およびY軸、路面に対する法線に平行なZ軸、並びに路面の高さ位置が定まる。このとき、X軸およびY軸の向きは、例えば車両1のX軸およびY軸とそれぞれ平行になるように決定されてよい。つまり、カメラ6sを通した視点におけるX軸、Y軸、及びZ軸と、車両1のX軸、Y軸、及びZ軸と、路面および路面の法線とが互いに平行な状態となる。 Even in such a case, the X-axis and Y-axis parallel to the road surface and Z parallel to the normal to the road surface in the viewpoint through the camera 6s, that is, the image captured by the camera 6s by the above calibration. The axis and the height position of the road surface are determined. At this time, the directions of the X-axis and the Y-axis may be determined so as to be parallel to the X-axis and the Y-axis of the vehicle 1, for example. That is, the X-axis, Y-axis, and Z-axis at the viewpoint through the camera 6s, the X-axis, Y-axis, and Z-axis of the vehicle 1 and the road surface and the normal of the road surface are parallel to each other.

しかし、例えば上記の図5(b)の例のように、車両1のX軸、Y軸、及びZ軸が、路面および路面の法線に対して平行な状態ではなくなり、また、車両1の高さが路面に対して変化すると、基準となるカメラ6sの姿勢に基づき撮像画像について定めた路面に平行な平面、路面に対する法線、及び路面の高さ位置が、実際の路面、並びに路面の法線および高さ位置と一致しないこととなる。 However, for example, as in the example of FIG. 5B above, the X-axis, Y-axis, and Z-axis of the vehicle 1 are no longer parallel to the road surface and the normal of the road surface, and the vehicle 1 When the height changes with respect to the road surface, the plane parallel to the road surface defined for the captured image based on the attitude of the reference camera 6s, the normal to the road surface, and the height position of the road surface become the actual road surface and the road surface. It will not match the normal and height positions.

上述の画像変換データD1〜D8の画像変換用パラメータは、そのような場合において、カメラ6sの撮像画像における路面に平行な平面、路面に対する法線、及び路面の高さ位置と、実際の路面、並びに路面の法線および高さ位置とを一致させるための設定値を有する。 In such a case, the above-mentioned image conversion parameters of the image conversion data D1 to D8 include a plane parallel to the road surface in the image captured by the camera 6s, a normal to the road surface, a height position of the road surface, and an actual road surface. In addition, it has a set value for matching the normal and height positions of the road surface.

具体的には、画像変換データD1〜D8を生成するにあたり、画像変換データD1〜D8に関連付けられた乗員配置情報が示す乗員の着座状況のそれぞれにおいて、カメラ6sの姿勢の変化量を示すΔPx、ΔPy、ΔPz、ΔRx、ΔRy、及びΔRzが求められる。これらのカメラ6sの姿勢の変化量は、例えばシミュレーションにより、あるいは、実測により求めることができる。 Specifically, in generating the image conversion data D1 to D8, ΔPx, which indicates the amount of change in the posture of the camera 6s in each of the seating conditions of the occupants indicated by the occupant arrangement information associated with the image conversion data D1 to D8, ΔPy, ΔPz, ΔRx, ΔRy, and ΔRz are obtained. The amount of change in the posture of these cameras 6s can be obtained, for example, by simulation or actual measurement.

このようなカメラ6sの姿勢の変化量からは、その時々において、基準となるカメラ6sの姿勢に基づき撮像画像について定めた路面に平行な平面、路面に対する法線、及び路面の高さ位置と、実際の路面、並びに路面の法線および高さ位置とがどのような対応関係になっているかを知ることができる。そして、それらの対応関係に基づき、それぞれの画像変換用パラメータについて設定値を決定すればよい。 From the amount of change in the posture of the camera 6s, the plane parallel to the road surface defined for the captured image based on the reference posture of the camera 6s, the normal to the road surface, and the height position of the road surface are determined from time to time. It is possible to know how the actual road surface and the normal and height positions of the road surface correspond to each other. Then, the set value may be determined for each image conversion parameter based on the correspondence between them.

このような画像変換用パラメータを用いて画像変換をすることで、カメラ6sの撮像画像における路面に平行な平面、路面に対する法線、及び路面の高さ位置と、実際の路面、並びに路面の法線および高さ位置とが一致しないことによる画像の誤変換が抑制される。 By performing image conversion using such image conversion parameters, the plane parallel to the road surface in the image captured by the camera 6s, the normal to the road surface, the height position of the road surface, the actual road surface, and the method of the road surface Misconversion of the image due to inconsistency between the line and height position is suppressed.

(画像変換の例)
次に、図6及び図7を用いて、実施形態1の画像処理装置100による画像変換の例について説明する。画像処理装置100は、カメラ6からの画像を、例えば駐車支援装置200による駐車支援処理に用いる画像に変換する。また、画像処理装置100は、カメラ6からの画像を、出力装置32である液晶モニタ等に表示する俯瞰画像等に変換する。
(Example of image conversion)
Next, an example of image conversion by the image processing apparatus 100 of the first embodiment will be described with reference to FIGS. 6 and 7. The image processing device 100 converts the image from the camera 6 into an image used for parking support processing by, for example, the parking support device 200. Further, the image processing device 100 converts the image from the camera 6 into a bird's-eye view image or the like displayed on the liquid crystal monitor or the like which is the output device 32.

図6は、実施形態1にかかる画像処理装置100が駐車支援処理に利用可能な形式に画像を変換する例を示す図である。図6(a)は、ドアミラー4に取り付けられたカメラ6sによる撮像画像である。図6(b)は、カメラ6sの撮像画像を変換した後の画像である。 FIG. 6 is a diagram showing an example in which the image processing device 100 according to the first embodiment converts an image into a format that can be used for parking support processing. FIG. 6A is an image captured by the camera 6s attached to the door mirror 4. FIG. 6B is an image after converting the captured image of the camera 6s.

図6(a)に示すように、車両1を駐車場の空きスペースに横付けすると、カメラ6sが撮像した画像には、その空きスペースが映し出される。駐車支援処理においては、画像に映し出された空きスペースを検出し、空きスペースの広さ及び車両1から空きスペースまでの距離等を算出する。 As shown in FIG. 6A, when the vehicle 1 is placed side by side in an empty space in the parking lot, the empty space is projected in the image captured by the camera 6s. In the parking support process, the vacant space projected on the image is detected, and the size of the vacant space and the distance from the vehicle 1 to the vacant space are calculated.

しかしながら、カメラ6sの取り付け位置からは、斜め上方から見下ろした画像が撮像される。このため、このままの画像からでは、空きスペースの広さや距離を正しく算出することができない。なお、図6(a)の画像は、例えばカメラ6sが備える広角レンズを通した画像である。 However, from the mounting position of the camera 6s, an image looking down from diagonally above is captured. Therefore, it is not possible to correctly calculate the size and distance of the empty space from the image as it is. The image of FIG. 6A is, for example, an image passed through a wide-angle lens included in the camera 6s.

図6(b)に示すように、画像処理装置100は、例えば視点変換により、カメラ6sが撮像した画像を真上からの画像に変換する。その際、画像処理装置100は、例えばシートベルト着脱センサ7の信号を検出して車両1内の着座パターンを判定し、判定した着座パターンに応じた画像変換用パラメータを用いて画像変換を行う。 As shown in FIG. 6B, the image processing apparatus 100 converts the image captured by the camera 6s into an image from directly above, for example, by performing viewpoint conversion. At that time, the image processing device 100 detects, for example, the signal of the seatbelt attachment / detachment sensor 7 to determine the seating pattern in the vehicle 1, and performs image conversion using the image conversion parameters corresponding to the determined seating pattern.

駐車支援装置200は、変換後の画像に基づいて、空きスペースの広さ及び車両1から空きスペースまでの距離等を算出する。これにより、空きスペースの広さ及び距離等が適正に算出される。 The parking support device 200 calculates the size of the vacant space, the distance from the vehicle 1 to the vacant space, and the like based on the converted image. As a result, the size and distance of the empty space are properly calculated.

図7は、実施形態1にかかる画像処理装置100が俯瞰画像40tの生成に利用可能な形式に画像を変換する例を示す図である。 FIG. 7 is a diagram showing an example in which the image processing device 100 according to the first embodiment converts an image into a format that can be used to generate a bird's-eye view image 40t.

図7に示すように、車両1が備えるカメラ6s,6f,6rは、それぞれ車両1の側方、前方、及び後方を映し出す。これらの側方画像40m,40h、前方画像40f、及び後方画像40rは、例えば車両1近傍の路面を含む、斜め上方から周囲を見下ろした画像となっている。 As shown in FIG. 7, the cameras 6s, 6f, and 6r included in the vehicle 1 project the sides, the front, and the rear of the vehicle 1, respectively. These side images 40m and 40h, the front image 40f, and the rear image 40r are images looking down on the surroundings from diagonally above, including, for example, the road surface in the vicinity of the vehicle 1.

画像処理装置100は、画像変換により、斜め上から撮像したこれらの側方画像40m,40h、前方画像40f、及び後方画像40rを、真上からの画像となるように視点変換を行う。その際、画像処理装置100は、例えばシートベルト着脱センサ7の信号を検出して車両1内の着座パターンを判定し、判定した着座パターンに応じた画像変換用パラメータを用いて画像変換を行う。 The image processing device 100 performs viewpoint conversion by image conversion so that these side images 40m, 40h, front image 40f, and rear image 40r captured from diagonally above are images from directly above. At that time, the image processing device 100 detects, for example, the signal of the seatbelt attachment / detachment sensor 7 to determine the seating pattern in the vehicle 1, and performs image conversion using the image conversion parameters corresponding to the determined seating pattern.

画像処理装置100は、変換したそれらの画像を、車両アイコン1icの側方、前方、及び後方に配置することで、車両アイコン1icを中心とする俯瞰画像40tを生成する。車両アイコン1icは、例えば予め用意されたものであり、車両1を上方から見下ろした状態を表すアイコンである。画像処理装置100は、生成した俯瞰画像40tを出力装置32である液晶モニタ等に表示する。これにより、乗員が車両1の周囲の状況を認識可能となる。 The image processing device 100 generates a bird's-eye view image 40t centered on the vehicle icon 1ic by arranging the converted images on the sides, front, and rear of the vehicle icon 1ic. The vehicle icon 1ic is prepared in advance, for example, and is an icon representing a state in which the vehicle 1 is viewed from above. The image processing device 100 displays the generated bird's-eye view image 40t on the liquid crystal monitor or the like which is the output device 32. As a result, the occupant can recognize the situation around the vehicle 1.

(画像の表示例)
次に、図8及び図9を用いて、実施形態1の画像処理装置100による画像の表示例について説明する。画像処理装置100は、様々な状況において出力装置32に画像を表示し得る。ここでは、駐車支援装置200による駐車支援処理に際して、画像処理装置100が画像を表示する例について説明する。
(Image display example)
Next, an example of displaying an image by the image processing apparatus 100 of the first embodiment will be described with reference to FIGS. 8 and 9. The image processing device 100 can display an image on the output device 32 in various situations. Here, an example in which the image processing device 100 displays an image during the parking support processing by the parking support device 200 will be described.

図8は、実施形態1にかかる画像処理装置100が駐車支援処理の開始に際して表示する画像の一例を示す図である。図8(a)は、駐車支援処理の開始時の車両1の状態を示す図である、図8(b)は、駐車支援処理の開始時に出力装置32に表示される画像の例である。 FIG. 8 is a diagram showing an example of an image displayed by the image processing device 100 according to the first embodiment at the start of the parking support process. FIG. 8A is a diagram showing a state of the vehicle 1 at the start of the parking assistance process, and FIG. 8B is an example of an image displayed on the output device 32 at the start of the parking assistance process.

図8(a)に示すように、駐車支援処理の開始に際し、車両1は例えば駐車可能な空きスペース50に横付けされる。そして、この状態で、例えば運転者等が駐車支援処理を開始する操作を行う。 As shown in FIG. 8A, at the start of the parking support process, the vehicle 1 is placed side by side in, for example, an empty space 50 where parking is possible. Then, in this state, for example, the driver or the like performs an operation to start the parking support process.

図8(b)に示すように、駐車支援処理の開始操作がなされると、画像処理装置100は、出力装置32である液晶モニタ等に駐車支援処理の開始画面40aを出力する。駐車支援処理の開始画面40aは、例えば画像処理装置100が生成した俯瞰画像40tを左側に有し、カメラ6sが撮像した未変換の画像40hを右側に有する。 As shown in FIG. 8B, when the parking support processing start operation is performed, the image processing device 100 outputs the parking support processing start screen 40a to the liquid crystal monitor or the like which is the output device 32. The parking support processing start screen 40a has, for example, a bird's-eye view image 40t generated by the image processing device 100 on the left side and an unconverted image 40h captured by the camera 6s on the right side.

このとき、画像処理装置100は、俯瞰画像40t及び画像40hに重ねて、駐車枠50fを表示する。駐車枠50fは、空きスペース50の外形を示す枠型の図形であり、駐車支援装置200が空きスペース50を駐車可能な区画として識別することにより、俯瞰画像40t及び画像40h内の空きスペースが存在する位置に表示可能となる。駐車支援装置200は、例えば空きスペース50を含めた個々の駐車スペースに付され、これらの駐車スペースを区画する区画線等を検出することで、空きスペース50を識別する。 At this time, the image processing device 100 displays the parking frame 50f on the bird's-eye view image 40t and the image 40h. The parking frame 50f is a frame-shaped figure showing the outer shape of the empty space 50, and when the parking support device 200 identifies the empty space 50 as a parkingable section, the bird's-eye view image 40t and the empty space in the image 40h exist. It can be displayed at the position where it is to be displayed. The parking support device 200 is attached to each parking space including, for example, the vacant space 50, and identifies the vacant space 50 by detecting a lane marking or the like that divides these parking spaces.

また、画像処理装置100は、画像40hに重ねて、「この駐車スペースで良いですか?」等のメッセージ41、及びメッセージ41に対する回答を運転者等が選択可能な「はい」ボタン42、及び「中止」ボタン43等を表示する。運転者等が「はい」ボタン42を押下すると検出された空きスペース50への駐車支援処理が継続され、「中止」ボタン43を押下すると、その空きスペース50への駐車支援処理が中止される。 Further, the image processing device 100 superimposes the image 40h on the message 41 such as "Is this parking space okay?" The "Cancel" button 43 and the like are displayed. When the driver or the like presses the "Yes" button 42, the parking support process for the detected empty space 50 is continued, and when the "Cancel" button 43 is pressed, the parking support process for the empty space 50 is stopped.

「はい」ボタン42が押下されて駐車支援処理が継続されることとなると、駐車支援装置200は、車両1の現在位置から空きスペース50までの駐車経路を算出する。このとき、駐車支援装置200が算出した駐車経路には、例えば切り返し枠および駐車枠等が含まれる。 When the "Yes" button 42 is pressed and the parking support process is continued, the parking support device 200 calculates the parking route from the current position of the vehicle 1 to the empty space 50. At this time, the parking route calculated by the parking support device 200 includes, for example, a turning frame and a parking frame.

図9は、実施形態1にかかる画像処理装置100が駐車支援処理の継続中に表示する画像の一例を示す図である。図9の左図(a)(c)(e)は、駐車支援を受けて空きスペース50に駐車を試みる車両1の時々の状態を示す図である。図9の右図(b)(d)(f)は、図9(a)(c)(e)の場合に出力装置32に表示される画面を示す図である。 FIG. 9 is a diagram showing an example of an image displayed by the image processing device 100 according to the first embodiment during the continuation of the parking support process. The left figures (a), (c), and (e) of FIG. 9 are views showing the occasional state of the vehicle 1 attempting to park in the empty space 50 with parking assistance. The right figures (b), (d), and (f) of FIG. 9 are views showing a screen displayed on the output device 32 in the case of FIGS. 9 (a), (c), and (e).

図9(a)に示すように、車両1は、空きスペース50から一旦、遠ざかるように、右斜め前方への移動を開始する。駐車支援装置100の車両制御装置20は、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御して、所望の駐車経路にしたがって車両1を移動させる。 As shown in FIG. 9A, the vehicle 1 starts moving diagonally forward to the right so as to temporarily move away from the empty space 50. The vehicle control device 20 of the parking support device 100 controls the steering actuator 21 while receiving operations such as accelerator and brake by the driver to move the vehicle 1 according to a desired parking route.

図9(b)に示すように、車両1が図9(a)の状態にあるとき、画像処理装置100は、駐車支援処理の継続中を示す継続画面40bを出力装置32に表示する。画像処理装置100は、継続画面40b左側には、車両アイコン1icを中心に据えたまま、車両1の移動に合わせて周囲の画像が変化する俯瞰画像40tを表示する。画像処理装置100は、継続画面40b右側には、車両1の進行方向にあたるいずれかのカメラ6s,6f,6rの画像を例えば未変換のまま表示する。図9(b)においては、車両1の進行方向にあたる前方のカメラ6fの画像40fが表示される。 As shown in FIG. 9B, when the vehicle 1 is in the state of FIG. 9A, the image processing device 100 displays a continuation screen 40b indicating that the parking support process is ongoing on the output device 32. The image processing device 100 displays a bird's-eye view image 40t on the left side of the continuation screen 40b, in which the surrounding image changes according to the movement of the vehicle 1 while keeping the vehicle icon 1ic at the center. The image processing device 100 displays, for example, unconverted images of any of the cameras 6s, 6f, 6r corresponding to the traveling direction of the vehicle 1 on the right side of the continuation screen 40b. In FIG. 9B, the image 40f of the front camera 6f corresponding to the traveling direction of the vehicle 1 is displayed.

このとき、画像処理装置100は、俯瞰画像40t及び画像40fに重ねて、車両1が辿るべき駐車経路50rを表示する。また、画像処理装置100は、俯瞰画像40tに重ねて、車両1の切り返し位置を示す切り返し枠50tを表示する。また、画像処理装置100は、画像40fに重ねて、「左画面の枠に合わせて停止して下さい。」等のメッセージ44を表示する。 At this time, the image processing device 100 superimposes the bird's-eye view image 40t and the image 40f on the parking route 50r to be followed by the vehicle 1. Further, the image processing device 100 superimposes the bird's-eye view image 40t on the turning frame 50t indicating the turning position of the vehicle 1. Further, the image processing device 100 superimposes the image 40f and displays a message 44 such as "Please stop according to the frame on the left screen."

図9(c)に示すように、車両1は、切り返し位置に到達すると、空きスペース50に向かって左後方への移動を開始する。このときにも、車両制御装置20が、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御して、所望の駐車経路にしたがって車両1を移動させる。 As shown in FIG. 9C, when the vehicle 1 reaches the turning position, it starts moving to the left rear toward the empty space 50. Also at this time, the vehicle control device 20 controls the steering actuator 21 while receiving operations such as the accelerator and the brake by the driver to move the vehicle 1 according to a desired parking route.

図9(d)に示すように、車両1が図9(c)の状態にあるとき、画像処理装置100は継続画面40cを出力装置32に表示する。画像処理装置100は、継続画面40c左側には俯瞰画像40tを表示し、継続画面40c右側には車両1の進行方向にあたる後方のカメラ6rからの未処理の画像40rを表示する。 As shown in FIG. 9D, when the vehicle 1 is in the state of FIG. 9C, the image processing device 100 displays the continuation screen 40c on the output device 32. The image processing device 100 displays a bird's-eye view image 40t on the left side of the continuous screen 40c, and displays an unprocessed image 40r from the rear camera 6r corresponding to the traveling direction of the vehicle 1 on the right side of the continuous screen 40c.

このとき、画像処理装置100は、俯瞰画像40t及び画像40rに重ねて、車両1が辿るべき駐車経路50rを表示する。また、画像処理装置100は、俯瞰画像40tに重ねて、車両1の目標駐車位置を示す駐車枠50fを表示する。また、画像処理装置100は、画像40rに重ねて、「左画面の枠に合わせて停止して下さい。」等のメッセージ45を表示する。 At this time, the image processing device 100 superimposes the bird's-eye view image 40t and the image 40r on the parking route 50r to be followed by the vehicle 1. Further, the image processing device 100 superimposes the bird's-eye view image 40t on the parking frame 50f indicating the target parking position of the vehicle 1. Further, the image processing device 100 superimposes the image 40r and displays a message 45 such as "Please stop according to the frame on the left screen."

図9(e)に示すように、車両1は、空きスペース50への駐車を完了させる。 As shown in FIG. 9E, the vehicle 1 completes parking in the empty space 50.

図9(f)に示すように、このとき、画像処理装置100は駐車支援処理の終了画面40dを出力装置32に表示する。画像処理装置100は、終了画面40d左側には俯瞰画像40tを表示し、終了画面40d右側にはカメラ6rからの未処理の画像40rを表示する。 As shown in FIG. 9F, at this time, the image processing device 100 displays the parking support processing end screen 40d on the output device 32. The image processing device 100 displays a bird's-eye view image 40t on the left side of the end screen 40d, and displays an unprocessed image 40r from the camera 6r on the right side of the end screen 40d.

また、画像処理装置100は、画像40rに重ねて、「シフトをパーキングにして下さい。」等のメッセージ46を表示する。 Further, the image processing device 100 superimposes the image 40r on the image 40r and displays a message 46 such as "Please park the shift."

(画像処理装置の処理例)
次に、図10を用いて、実施形態1の画像処理装置100による画像処理の例について説明する。図10は、実施形態1にかかる画像処理装置100による画像処理の手順の一例を示すフロー図である。以下、駐車支援装置200による駐車支援処理の実行中における画像処理装置100の画像処理について説明する。このため、図10には、駐車支援装置200による処理が含まれる。
(Processing example of image processing device)
Next, an example of image processing by the image processing apparatus 100 of the first embodiment will be described with reference to FIG. FIG. 10 is a flow chart showing an example of an image processing procedure by the image processing apparatus 100 according to the first embodiment. Hereinafter, the image processing of the image processing device 100 during the execution of the parking support processing by the parking support device 200 will be described. Therefore, FIG. 10 includes processing by the parking support device 200.

図10に示すように、ECU10は、タッチ式パネル等である入力装置31から駐車支援処理の開始を指示する操作を受け付ける(ステップS101)。 As shown in FIG. 10, the ECU 10 receives an operation instructing the start of the parking support process from the input device 31 such as a touch panel (step S101).

ECU10は、これを受けて、例えばシートベルト着脱センサ7からの信号を取得する(ステップS102)。ECU10は、取得したシートベルト着脱センサ7の信号に基づき、複数の座席5a〜5dに対する乗員の着座パターンを特定する(ステップS103)。 In response to this, the ECU 10 acquires a signal from, for example, the seatbelt attachment / detachment sensor 7 (step S102). The ECU 10 identifies the seating patterns of the occupants for the plurality of seats 5a to 5d based on the acquired signals of the seatbelt attachment / detachment sensor 7 (step S103).

ECU10は、マップデータ14aの複数の画像変換データD1〜D8のうち、特定した着座パターンに対応する画像変換データを選択する(ステップS104)。 The ECU 10 selects the image conversion data corresponding to the specified seating pattern from the plurality of image conversion data D1 to D8 of the map data 14a (step S104).

ECU10は、カメラ6s,6f,6rが撮像した画像を取得する(ステップS105)。 The ECU 10 acquires images captured by the cameras 6s, 6f, and 6r (step S105).

ECU10は、選択した画像変換データに含まれる画像変換用パラメータを用いて、カメラ6s,6f,6rからの画像を変換する(ステップS106)。 The ECU 10 converts images from the cameras 6s, 6f, and 6r using the image conversion parameters included in the selected image conversion data (step S106).

上述の図8及び図9の例を参照すれば、ECU10は、例えばカメラ6sの画像を駐車支援処理に利用可能な形式に変換する。また、ECU10は、カメラ6s,6f,6rからの画像を乗員が車両1の周囲の状況を認識可能な俯瞰画像40tの形式に変換する。 With reference to the examples of FIGS. 8 and 9 described above, the ECU 10 converts, for example, the image of the camera 6s into a format that can be used for parking assistance processing. Further, the ECU 10 converts the images from the cameras 6s, 6f, and 6r into a bird's-eye view image 40t format in which the occupant can recognize the surrounding situation of the vehicle 1.

ECU10は、駐車支援処理に利用可能な形式に変換したカメラ6sからの変換画像に基づき、駐車枠50fを検出する(ステップS107)。 The ECU 10 detects the parking frame 50f based on the converted image from the camera 6s converted into a format that can be used for the parking support process (step S107).

ECU10は、駐車枠50fを重畳させた俯瞰画像40tおよびカメラ6s,6f,6rからの未変換画像等の出力装置32への出力を開始する(ステップS108)。 The ECU 10 starts outputting the bird's-eye view image 40t on which the parking frame 50f is superimposed and the unconverted image from the cameras 6s, 6f, 6r to the output device 32 (step S108).

ECU10は、駐車支援処理に利用可能な形式に変換したカメラ6sからの変換画像等に基づき、駐車枠50fへの駐車経路50rを算出する(ステップS109)。 The ECU 10 calculates the parking route 50r to the parking frame 50f based on the converted image from the camera 6s converted into a format that can be used for the parking support process (step S109).

車両制御装置20は、ECU10が算出した駐車経路50rにしたがって、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御して、駐車枠50fへ車両1を誘導する(ステップS110)。車両制御装置20は、駐車枠50fに車両1を停車させる(ステップS111)。 The vehicle control device 20 controls the steering actuator 21 while receiving operations such as accelerator and brake by the driver according to the parking path 50r calculated by the ECU 10, and guides the vehicle 1 to the parking frame 50f (step S110). .. The vehicle control device 20 stops the vehicle 1 in the parking frame 50f (step S111).

ECU10は、俯瞰画像40tおよびカメラ6s,6f,6rからの未変換画像等の出力装置32への出力を停止する(ステップS112)。 The ECU 10 stops the output of the bird's-eye view image 40t and the unconverted images from the cameras 6s, 6f, 6r to the output device 32 (step S112).

なお、以上に示すステップS101〜S112までの処理は、必ずしもこの順に実行されなくともよく、順番の入れ替えが可能な処理については異なる順番で実施されてもよい。また、1つの処理が1つ以上の他の処理と並行して行われてもよい。 The processes of steps S101 to S112 shown above do not necessarily have to be executed in this order, and the processes whose order can be changed may be executed in a different order. Further, one process may be performed in parallel with one or more other processes.

また、ECU10は、ステップS108にて画像の出力を開始し、ステップS112にて画像の出力を停止することとしたが、画像の出力の開始のタイミング、及び停止のタイミングは、これ以外のタイミングであってもよい。ECU10は、画像の出力を停止させることなく、継続的に出力するようにしてもよい。 Further, the ECU 10 decides to start the image output in step S108 and stop the image output in step S112, but the image output start timing and the stop timing are other timings. There may be. The ECU 10 may continuously output the image without stopping the output of the image.

(比較例)
比較例の画像処理装置は、例えば画像変換に用いられる画像変換データを1つのみ有する。この画像変換データは、例えば乗員ゼロ名で実施されるキャリブレーション時のカメラの姿勢を基準として設定されている。
(Comparison example)
The image processing apparatus of the comparative example has only one image conversion data used for image conversion, for example. This image conversion data is set based on, for example, the posture of the camera at the time of calibration performed with zero occupants.

しかしながら、車両1内の乗員数および乗員の着座配置パターンが変化すると、カメラの姿勢も変化する。このため、キャリブレーション時のカメラの姿勢に基づく画像変換データを用いても、画像が適正に変換されない場合がある。 However, when the number of occupants in the vehicle 1 and the seating arrangement pattern of the occupants change, the posture of the camera also changes. Therefore, even if the image conversion data based on the posture of the camera at the time of calibration is used, the image may not be converted properly.

一例として、例えば運転席に乗員が4名乗車し、車両1が全体的に下方に沈み込んでいるような場合、ドアミラーに取り付けられたカメラの画像(図11(a))が変換されると、変換後の画像(図11(b))において、駐車スペースに付された区画線Lf,Lrのうち、車両前方の区画線Lfが実際よりも、更に前方寄りの位置にずれてしまうことがある。また、車両後方の区画線Lrが実際よりも、更に後方寄りの位置にずれてしまうことがある。これによって、目標駐車位置も適正位置よりも車両1の後方寄りにずれてしまい、また、駐車スペースが実際よりも広く検出されてしまう。 As an example, when four passengers are in the driver's seat and the vehicle 1 is sunk downward as a whole, the image of the camera attached to the door mirror (FIG. 11 (a)) is converted. In the converted image (FIG. 11B), of the lane markings Lf and Lr attached to the parking space, the lane marking Lf in front of the vehicle may shift to a position closer to the front than it actually is. be. In addition, the lane marking Lr behind the vehicle may shift to a position closer to the rear than it actually is. As a result, the target parking position also shifts toward the rear of the vehicle 1 from the proper position, and the parking space is detected wider than it actually is.

実施形態1の画像処理装置100によれば、ECU10は、例えばシートベルト着脱センサ7から取得した乗員の着座状況に基づいて、画像変換用パラメータを選択する。また、ECU10は、選択した画像変換用パラメータを用いて、カメラ6が撮像した画像を所定の処理に供するように変換する。これにより、画像取得時における車両1内の乗員の人数および配置に応じて適正に画像変換をすることができる。 According to the image processing device 100 of the first embodiment, the ECU 10 selects an image conversion parameter based on, for example, the seating condition of the occupant acquired from the seatbelt attachment / detachment sensor 7. Further, the ECU 10 uses the selected image conversion parameters to convert the image captured by the camera 6 so as to be subjected to a predetermined process. As a result, the image can be appropriately converted according to the number and arrangement of the occupants in the vehicle 1 at the time of image acquisition.

実施形態1の画像処理装置100によれば、ECU10は、選択した画像変換用パラメータを用いて変換された俯瞰画像40tを出力装置32に出力する。これにより、乗員が車両1の周囲の状況を適正に認識することができる。 According to the image processing device 100 of the first embodiment, the ECU 10 outputs the bird's-eye view image 40t converted using the selected image conversion parameters to the output device 32. As a result, the occupant can properly recognize the situation around the vehicle 1.

実施形態1の画像処理装置100によれば、ECU10は、選択した画像変換用パラメータを用いて、駐車支援装置200が駐車枠50fを検出可能な形式に画像を変換する。これにより、駐車支援装置200は、車両1の現在位置から駐車枠50fまでの駐車経路50rを適正に算出することができる。 According to the image processing device 100 of the first embodiment, the ECU 10 uses the selected image conversion parameters to convert the image into a format in which the parking support device 200 can detect the parking frame 50f. As a result, the parking support device 200 can appropriately calculate the parking route 50r from the current position of the vehicle 1 to the parking frame 50f.

[実施形態2]
実施形態2について図面を用いて説明する。実施形態2の構成では、カメラにより撮像された画像に基づいてカメラ姿勢が判定され、更に画像変換用パラメータが算出される点が、上述の実施形態1の構成とは異なる。
[Embodiment 2]
The second embodiment will be described with reference to the drawings. The configuration of the second embodiment is different from the configuration of the first embodiment in that the camera posture is determined based on the image captured by the camera and the parameters for image conversion are calculated.

(画像処理装置の構成例)
図12は、実施形態2にかかる画像処理装置130を備える車両101の構成の一例を示すブロック図である。図12に示すように、車両101は、画像処理装置130及び駐車支援装置230を備える。
(Configuration example of image processing device)
FIG. 12 is a block diagram showing an example of the configuration of the vehicle 101 including the image processing device 130 according to the second embodiment. As shown in FIG. 12, the vehicle 101 includes an image processing device 130 and a parking support device 230.

なお、実施形態2の車両101も、上述の実施形態1の車両1と同様、車体2と、車輪3と、ドアミラー4と、座席5a〜5dと、撮像部としてのカメラ6s,6f,6rと、を少なくとも備える(図1参照)。また、以下の説明において、実施形態1と同じ構成には同じ符号を付し、その説明を省略する。 The vehicle 101 of the second embodiment also has the vehicle body 2, the wheels 3, the door mirrors 4, the seats 5a to 5d, and the cameras 6s, 6f, 6r as the imaging unit, as in the vehicle 1 of the above-described first embodiment. , At least (see FIG. 1). Further, in the following description, the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

画像処理装置130は、ECU110、入力装置31、及び出力装置32を備える。ただし、画像処理装置130に、カメラ6が含まれてもよい。駐車支援装置230は、ECU110及び車両制御装置20を備える。ただし、駐車支援装置230に、カメラ6、入力装置31、及び出力装置32が含まれてもよい。 The image processing device 130 includes an ECU 110, an input device 31, and an output device 32. However, the image processing device 130 may include the camera 6. The parking support device 230 includes an ECU 110 and a vehicle control device 20. However, the parking support device 230 may include a camera 6, an input device 31, and an output device 32.

ECU110は、例えばCPU111、RAM112、及びROM113を備えたコンピュータとして構成されている。ECU110に、HDD等から構成される記憶装置114が内蔵されていてもよい。また、ECU110は、各種センサ等と検出信号および各種情報の送受信が可能なI/Oポート115を備えている。 The ECU 110 is configured as a computer including, for example, a CPU 111, a RAM 112, and a ROM 113. A storage device 114 composed of an HDD or the like may be built in the ECU 110. Further, the ECU 110 includes an I / O port 115 capable of transmitting and receiving detection signals and various information to and from various sensors and the like.

ECU110のRAM112、ROM113、記憶装置114、及びI/Oポート115の各構成は、例えば内部バスを介してCPU111と各種情報の送受信が可能に構成されている。 Each configuration of the RAM 112, ROM 113, storage device 114, and I / O port 115 of the ECU 110 is configured to be capable of transmitting and receiving various information to and from the CPU 111, for example, via an internal bus.

ECU110は、ROM112にインストールされているプログラムをCPU111が実行することにより、車両101の駐車が可能な空きスペースの検出処理および空きスペースへの駐車経路の算出処理等の駐車支援処理を制御する。 The ECU 110 controls parking support processing such as detection processing of an empty space in which the vehicle 101 can be parked and calculation processing of a parking route to the empty space by executing the program installed in the ROM 112 by the CPU 111.

また、ECU110は、ROM112にインストールされているプログラムをCPU111が実行することにより、上述のカメラ6からの画像を変換する等の画像処理を制御する。変換された画像は、例えば駐車支援処理における空きスペースの検出処理および俯瞰画像の生成処理等に用いられる。また、ECU110は、変換した画像を後述の出力装置32に出力する処理を制御する。 Further, the ECU 110 controls image processing such as converting the image from the camera 6 described above by executing the program installed in the ROM 112 by the CPU 111. The converted image is used, for example, in a parking support process for detecting an empty space and for generating a bird's-eye view image. Further, the ECU 110 controls a process of outputting the converted image to the output device 32 described later.

記憶装置114は、例えばキャリブレーションデータ(不図示)及び標準時画像変換データ114aを記憶する。標準時画像変換データ114aには、標準時のカメラ6の姿勢に基づく画像変換用パラメータが格納されている。標準時のカメラ6の姿勢とは、例えばキャリブレーション時のカメラ6の姿勢であり、また例えば、車両101内の乗員がゼロ名の場合のカメラ6の姿勢である。カメラ6の姿勢は、上述の実施形態1と同様、例えばX軸、Y軸、及びZ軸の3軸を用いて規定される。 The storage device 114 stores, for example, calibration data (not shown) and standard time image conversion data 114a. The standard time image conversion data 114a stores image conversion parameters based on the posture of the camera 6 in the standard time. The posture of the camera 6 in the standard time is, for example, the posture of the camera 6 at the time of calibration, and for example, the posture of the camera 6 when there are no occupants in the vehicle 101. The posture of the camera 6 is defined by using, for example, three axes of the X-axis, the Y-axis, and the Z-axis, as in the first embodiment described above.

ここで、カメラ6の姿勢を規定するX軸、Y軸、及びZ軸は、それぞれ概ね車両101の車幅方向に沿う軸、概ね車両101の車長方向に沿う軸、及びカメラ6の光軸と平行な軸である。カメラ6のX軸が「車幅方向に沿う」とは、カメラ6のX軸が、車幅方向と完全に平行である場合のみならず、例えばカメラ6の車両101への取り付け誤差等に起因する誤差範囲内で略平行である場合を含む。カメラ6のY軸が「車長方向に沿う」とは、カメラ6のY軸が、車長方向と完全に平行である場合のみならず、例えばカメラ6の車両101への取り付け誤差等に起因する誤差範囲内で略平行である場合を含む。 Here, the X-axis, Y-axis, and Z-axis that define the posture of the camera 6 are an axis substantially along the vehicle width direction of the vehicle 101, an axis generally along the vehicle length direction of the vehicle 101, and an optical axis of the camera 6, respectively. It is an axis parallel to. The fact that the X-axis of the camera 6 "along the vehicle width direction" is caused not only when the X-axis of the camera 6 is completely parallel to the vehicle width direction, but also due to, for example, an error in mounting the camera 6 on the vehicle 101. Including the case where they are substantially parallel within the error range. The Y-axis of the camera 6 "along the vehicle length direction" is caused not only when the Y-axis of the camera 6 is completely parallel to the vehicle length direction, but also due to, for example, an error in mounting the camera 6 on the vehicle 101. Including the case where they are substantially parallel within the error range.

車両制御装置20は、例えば上述の実施形態1と同様に構成される。入力装置31及び表示部としての出力装置32は、例えば上述の実施形態1と同様に構成される。 The vehicle control device 20 is configured in the same manner as in the first embodiment described above, for example. The input device 31 and the output device 32 as a display unit are configured in the same manner as in the first embodiment described above, for example.

(カメラ姿勢の判定例)
次に、図13〜図15を用いて、実施形態2の画像処理装置130が、カメラ6の実際の姿勢をどのように判定するかについて説明する。画像処理装置130によるカメラ6の姿勢の判定は、例えばカメラ6の高さ位置(Z軸における位置)の判定と、カメラ6のピッチ角(X軸における回転角)の判定と、の2段階で実施される。
(Camera posture judgment example)
Next, how the image processing device 130 of the second embodiment determines the actual posture of the camera 6 will be described with reference to FIGS. 13 to 15. The posture of the camera 6 is determined by the image processing device 130 in two stages, for example, the height position of the camera 6 (position on the Z axis) and the pitch angle of the camera 6 (rotation angle on the X axis). Will be implemented.

図13は、実施形態2にかかる画像処理装置130によるカメラ6sの高さ位置の判定に用いられる撮像画像を示す図である。図13に示す撮像画像は、車両101のドアミラー4に取り付けられたカメラ6sにより撮像された画像である。図13の紙面右手が車両101の前方側であり、紙面左手が車両101の後方側である。 FIG. 13 is a diagram showing an captured image used for determining the height position of the camera 6s by the image processing device 130 according to the second embodiment. The captured image shown in FIG. 13 is an image captured by the camera 6s attached to the door mirror 4 of the vehicle 101. The right hand of the paper in FIG. 13 is the front side of the vehicle 101, and the left hand of the paper is the rear side of the vehicle 101.

図13(a)は、車両101内の乗員がゼロ名の場合の撮像画像を示している。 FIG. 13A shows a captured image when there are no occupants in the vehicle 101.

図13(a)に示すように、カメラ6sによる撮像画像には、車体2の一部、片側のフロントタイヤ3f、及びフロントタイヤ3fと路面等との接地位置Psが含まれる。このような撮像画像からは、フロントタイヤ3fと路面等との接地位置Psが、撮像画像の全体の縦幅Fwに対してどの位置にあるかを知ることができる。図13(a)は、車両101内の乗員がゼロ名であり、カメラ6sの姿勢が標準時の撮像画像であるため、接地位置Psの撮像画像内における高さ位置は標準の高さFsを示している。 As shown in FIG. 13A, the image captured by the camera 6s includes a part of the vehicle body 2, the front tire 3f on one side, and the ground contact position Ps between the front tire 3f and the road surface or the like. From such a captured image, it is possible to know at which position the ground contact position Ps between the front tire 3f and the road surface or the like is relative to the overall vertical width Fw of the captured image. In FIG. 13A, since there are no occupants in the vehicle 101 and the posture of the camera 6s is the captured image at the standard time, the height position in the captured image of the ground contact position Ps indicates the standard height Fs. ing.

図13(b)は、車両101内に乗員がいる場合の撮像画像を示している。 FIG. 13B shows a captured image when there is an occupant in the vehicle 101.

図13(b)に示すように、車両101内に乗員がいる場合の撮像画像では、フロントタイヤ3fと路面等との接地位置Paが画像内の下方にシフトし、接地位置Psの撮像画像内における高さが、上記の標準の高さFsよりも低い高さFaとなっている。このことは、車両101内の乗員の重量により車体2が沈み込み、カメラ6sから路面までの距離が近くなったことを意味している。 As shown in FIG. 13B, in the captured image when there is an occupant in the vehicle 101, the ground contact position Pa between the front tire 3f and the road surface or the like is shifted downward in the image, and the ground contact position Ps is in the captured image. Is a height Fa lower than the above standard height Fs. This means that the vehicle body 2 has sunk due to the weight of the occupants in the vehicle 101, and the distance from the camera 6s to the road surface has become shorter.

画像処理装置130は、図13(b)の撮像画像から得られた高さFaに基づき、カメラ6sの姿勢の1つとしてカメラ6sの路面からの実際の高さを判定する。 The image processing device 130 determines the actual height of the camera 6s from the road surface as one of the postures of the camera 6s based on the height Fa obtained from the captured image of FIG. 13B.

なお、画像処理装置130は、カメラ6sの高さを判定するにあたり、車両101の両側に取り付けられた1対のカメラ6sの画像のうち、一方の画像のみを用いてもよく、または、両方の画像を用いてもよい。 In determining the height of the camera 6s, the image processing device 130 may use only one of the images of the pair of cameras 6s attached to both sides of the vehicle 101, or both. Images may be used.

また、車両101内の乗員配置によって変化しうるX軸およびY軸におけるカメラ6sの位置は、画像変換処理において無視できるほどに小さいと考えられるため、画像処理装置130は、上記のように、例えば主にカメラ6sの高さ(Z軸における位置)について判定を行う。 Further, since the positions of the cameras 6s on the X-axis and the Y-axis, which can be changed depending on the occupant arrangement in the vehicle 101, are considered to be negligibly small in the image conversion process, the image processing device 130 is described as described above, for example. The height (position on the Z axis) of the camera 6s is mainly determined.

以上のように判定された路面からのカメラ6sの高さから、カメラ6sの実際の姿勢として幾つかの状態を想定することができる。判定されたカメラ6sの高さから想定される幾つかの状態を図14に示す。 From the height of the camera 6s from the road surface determined as described above, some states can be assumed as the actual posture of the camera 6s. FIG. 14 shows some states assumed from the determined height of the camera 6s.

図14は、実施形態2にかかる画像処理装置130により判定されたカメラ6sの高さ位置と車両101の姿勢との関係を示す模式図である。 FIG. 14 is a schematic view showing the relationship between the height position of the camera 6s and the posture of the vehicle 101 determined by the image processing device 130 according to the second embodiment.

図14(a)は、画像処理装置130により、カメラ6sが標準の高さDsであると判定された場合の車両101の状態を示している。標準の高さDsは、例えば上述の図13(a)の接地位置Psの撮像画像内における高さFsから求められる。 FIG. 14A shows the state of the vehicle 101 when the image processing device 130 determines that the camera 6s has a standard height Ds. The standard height Ds is obtained from, for example, the height Fs in the captured image of the ground contact position Ps in FIG. 13 (a) described above.

図14(a)に示すように、路面からカメラ6sまでが標準の高さDsであれば、車両101の姿勢も標準状態にあり、車両101内の乗員は例えばゼロ名であると考えられる。 As shown in FIG. 14A, if the height from the road surface to the camera 6s is the standard height Ds, the posture of the vehicle 101 is also in the standard state, and it is considered that the number of occupants in the vehicle 101 is, for example, zero.

図14(b)は、画像処理装置130により、カメラ6sが標準よりも低い高さDaであると判定された場合の車両101の状態の一例を示している。このような高さDaは、例えば上述の図13(b)の接地位置Paの撮像画像内における高さFaから求められる。 FIG. 14B shows an example of the state of the vehicle 101 when the image processing device 130 determines that the camera 6s has a height Da lower than the standard. Such a height Da can be obtained, for example, from the height Fa in the captured image of the ground contact position Pa in FIG. 13 (b) described above.

図14(b)に示すように、カメラ6sが標準よりも低い高さDaである場合、一例として、車両101の全体が一様に沈み込んだために、路面とカメラ6sとの距離が近くなっている状態が考えられる。このような車両101の状態は、例えば車両101の前後の座席に同じ人数の乗員が着座している場合等に生じ得る。 As shown in FIG. 14B, when the camera 6s has a height Da lower than the standard, as an example, the entire vehicle 101 is uniformly sunk, so that the distance between the road surface and the camera 6s is short. It is possible that it is in a state of being. Such a state of the vehicle 101 may occur, for example, when the same number of occupants are seated in the front and rear seats of the vehicle 101.

図14(c)は、画像処理装置130により、カメラ6sが標準よりも低い高さDaであると判定された場合の車両101の状態の他の一例を示している。 FIG. 14C shows another example of the state of the vehicle 101 when the image processing device 130 determines that the camera 6s has a height Da lower than the standard.

図14(b)に示すように、カメラ6sが標準よりも低い高さDaである場合、他の一例として、車両101の前部が沈み込んだために、路面とカメラ6sとの距離が近くなっている状態が考えられる。つまり、車両101のピッチ角が、実施形態1の例でいえばプラス方向にシフトした状態である(図4参照)。このような車両101の状態は、例えば車両101の前部の座席にのみ乗員が着座している場合や、車両101の前部の座席に後部の座席よりも多く乗員が着座している場合等に生じ得る。 As shown in FIG. 14B, when the camera 6s has a height Da lower than the standard, as another example, the distance between the road surface and the camera 6s is short because the front part of the vehicle 101 has sunk. It is possible that it is in a state of being. That is, the pitch angle of the vehicle 101 is shifted in the positive direction in the example of the first embodiment (see FIG. 4). Such a state of the vehicle 101 is, for example, when an occupant is seated only in the front seat of the vehicle 101, or when more occupants are seated in the front seat of the vehicle 101 than in the rear seat. Can occur in.

画像処理装置130は、カメラ6sの姿勢をより詳細に把握して、画像変換の精度を高めるため、カメラ6sの回転角の判定を行う。なお、車両101内の乗員配置によって変化しうるロール角(Y軸における回転角)及びヨー角(Z軸における回転角)は、画像変換処理において無視できるほどに小さいと考えられるため、画像処理装置130は、例えば、主にカメラ6sのピッチ角について判定を行う。 The image processing device 130 determines the rotation angle of the camera 6s in order to grasp the posture of the camera 6s in more detail and improve the accuracy of the image conversion. The roll angle (rotation angle on the Y-axis) and yaw angle (rotation angle on the Z-axis) that can change depending on the occupant arrangement in the vehicle 101 are considered to be negligibly small in the image conversion process, and thus the image processing apparatus. The 130 mainly determines the pitch angle of the camera 6s, for example.

画像処理装置130がピッチ角の判定を実施するにあたり、車両101の側方近傍に、例えば駐車スペースを区画する複数の区画線等が存在し、それらの区画線がカメラ6sの撮像画像に含まれていることが前提となる。 When the image processing device 130 determines the pitch angle, there are, for example, a plurality of lane markings for partitioning the parking space in the vicinity of the side of the vehicle 101, and these lane markings are included in the captured image of the camera 6s. It is assumed that it is.

このような状況は、例えば車両101の運転者が、所定の空きスペースに車両101を横付けしたような場合に生じ得る。つまり、このような状況は、例えば車両101の運転者が、所定の空きスペースに車両101を駐車しようと試みる初期段階に、しばしば生じ得る。 Such a situation may occur, for example, when the driver of the vehicle 101 lays the vehicle 101 sideways in a predetermined empty space. That is, such a situation can often occur, for example, in the early stages when the driver of the vehicle 101 attempts to park the vehicle 101 in a predetermined empty space.

図15は、実施形態2にかかる画像処理装置130によるカメラ6sの回転角の判定に用いられる撮像画像を示す図である。 FIG. 15 is a diagram showing an captured image used for determining the rotation angle of the camera 6s by the image processing device 130 according to the second embodiment.

図15(a)に示すように、カメラ6sによる撮像画像には、例えば車両101の側方近傍に位置する駐車スペースの車幅方向を区画する区画線Lf,Lrが含まれている。区画線Lfは、車両101の前方側に位置する区画線である。区画線Lrは、車両101の後方側に位置する区画線である。 As shown in FIG. 15A, the image captured by the camera 6s includes, for example, lane markings Lf and Lr that demarcate the width direction of the parking space located near the side of the vehicle 101. The lane marking Lf is a lane marking line located on the front side of the vehicle 101. The lane marking Lr is a lane marking line located on the rear side of the vehicle 101.

図15(b)に示すように、例えば標準時画像変換データ114aに含まれる画像変換用パラメータを用いて図15(a)の画像を変換する場合、区画線Lf,Lrは互いに平行な線として変換されるものとする。なお、図15(b)の画像は、画像変換処理により真上からの画像に変換された状態を示す。 As shown in FIG. 15 (b), for example, when the image of FIG. 15 (a) is converted using the image conversion parameters included in the standard time image conversion data 114a, the lane markings Lf and Lr are converted as lines parallel to each other. It shall be done. The image of FIG. 15B shows a state in which the image is converted into an image from directly above by the image conversion process.

ここで、駐車スペースの実際の区画線Lf,Lrは、通常、互いに平行に配置されていることが多いはずである。画像処理装置130は、実際の区画線Lf,Lrが互いに平行であることを前提として、上記の図15(b)の画像から、カメラ6sのピッチ角がシフトしておらず標準位置にあると判定する。 Here, the actual lane markings Lf and Lr of the parking space should usually be arranged parallel to each other. Assuming that the actual division lines Lf and Lr are parallel to each other, the image processing device 130 assumes that the pitch angle of the camera 6s is not shifted and is in the standard position from the image of FIG. 15B above. judge.

なお、撮像画像における区画線Lf,Lrが互いに平行であるか否かの判定は、画像変換後の区画線Lf,Lrのそれぞれの角度に基づいて判定される。区画線Lf,Lrのそれぞれの角度は、例えばカメラ6sの姿勢を規定する仮想線としてのX軸(概ね車幅方向に沿う軸)に対する角度とすることができる。これらの区画線Lf,Lrの角度θf,θrの差分または比率等をこれらの区画線Lf,Lrの平行度とし、平行度が所定値以内であれば、区画線Lf,Lrが互いに平行であると判定することができる。 It should be noted that the determination as to whether or not the division lines Lf and Lr in the captured image are parallel to each other is determined based on the respective angles of the division lines Lf and Lr after the image conversion. The respective angles of the lane markings Lf and Lr can be, for example, angles with respect to the X axis (axis generally along the vehicle width direction) as a virtual line defining the posture of the camera 6s. The difference or ratio of the angles θf and θr of these lane markings Lf and Lr is defined as the parallelism of these lane markings Lf and Lr, and if the parallelism is within a predetermined value, the lane markings Lf and Lr are parallel to each other. Can be determined.

図15(c)に示すように、例えば標準時画像変換データ114aに含まれる画像変換用パラメータを用いて図15(a)の画像を変換する場合、区画線Lf,Lrが平行な線として変換されないものとする。なお、図15(c)の画像は、画像変換処理により真上からの画像に変換された状態を示す。 As shown in FIG. 15 (c), for example, when the image of FIG. 15 (a) is converted using the image conversion parameters included in the standard time image conversion data 114a, the lane markings Lf and Lr are not converted as parallel lines. It shall be. The image of FIG. 15C shows a state in which the image is converted into an image from directly above by the image conversion process.

このように、区画線Lf,Lrが平行にならないのは、例えば車両101が上述の図14(c)に示すような姿勢となっていることが理由として考えられる。例えば、車両101の前部の座席に、車幅方向に1名ずつ均等に乗員が着座しているような場合(2名乗車の場合)である。なお、撮像画像にこのような変換誤差が生じる場合、区画線Lf,Lrのうち、例えば車両101の前方の区画線Lfよりも、車両101の後方の区画線Lrにおいて誤差が大きくなる場合がある。 It is considered that the reason why the lane markings Lf and Lr are not parallel in this way is that, for example, the vehicle 101 is in the posture as shown in FIG. 14C described above. For example, there is a case where one occupant is evenly seated in the front seat of the vehicle 101 in the vehicle width direction (in the case of two passengers). When such a conversion error occurs in the captured image, the error may be larger in the lane marking Lr behind the vehicle 101 than, for example, the lane marking Lf in front of the vehicle 101 among the lane markings Lf and Lr. ..

画像処理装置130は、例えば変換後の区画線Lf,Lrの角度θf,θrから平行度を算出し、平行度が所定値を超えていることなどから、区画線Lf,Lrが互いに平行ではないと判定する。つまり、この場合、カメラ6sのピッチ角がシフトしていると判定される。 The image processing apparatus 130 calculates the parallelism from the angles θf and θr of the converted lane markings Lf and Lr, and the lane markings Lf and Lr are not parallel to each other because the parallelism exceeds a predetermined value. Is determined. That is, in this case, it is determined that the pitch angle of the camera 6s is shifted.

また、画像処理装置130は、変換後の区画線Lf,Lrの角度θf,θrを補正して、互いに平行な線とする場合に必要となる補正値を算出する。補正値を算出するには、例えば実際に画像変換用パラメータを種々に変化させて、それぞれの場合における区画線Lf,Lrの平行度を判定する方法がある。画像処理装置130は、更に、得られた補正値からカメラ6sの実際のピッチ角を判定する。 Further, the image processing apparatus 130 corrects the angles θf and θr of the converted division lines Lf and Lr, and calculates the correction value required when the lines are parallel to each other. In order to calculate the correction value, for example, there is a method of actually changing the image conversion parameters in various ways and determining the parallelism of the lane markings Lf and Lr in each case. The image processing device 130 further determines the actual pitch angle of the camera 6s from the obtained correction value.

なお、区画線Lf,Lrの平行度を算出する際、画像処理装置130が、区画線Lf,Lrを含む撮像画像の変換を行って、変換画像を実際に生成するとは限らない。画像処理装置130は、変換された撮像画像を生成することなく、未変換の画像から直接的に、演算処理によって区画線Lf,Lrの平行度を算出することができる。 When calculating the parallelism of the lane markings Lf and Lr, the image processing device 130 does not always convert the captured image including the lane markings Lf and Lr to actually generate the converted image. The image processing device 130 can calculate the parallelism of the lane markings Lf and Lr directly from the unconverted image by arithmetic processing without generating the converted captured image.

また、区画線Lf,Lrの角度θf,θrを補正する補正値を算出する際、画像処理装置130が、区画線Lf,Lrの角度θf,θrを補正して、区画線Lf,Lrが互いに平行な線となった画像を実際に生成するとは限らない。画像処理装置130は、撮像画像を補正することなく、演算処理によって上記補正値を算出することができる。 Further, when calculating the correction value for correcting the angles θf and θr of the lane markings Lf and Lr, the image processing device 130 corrects the angles θf and θr of the lane markings Lf and Lr so that the lane markings Lf and Lr become mutually exclusive. It is not always the case that an image with parallel lines is actually generated. The image processing device 130 can calculate the correction value by arithmetic processing without correcting the captured image.

以上により、画像処理装置130は、カメラ6sの路面からの高さ、及びカメラ6sのピッチ角を少なくとも含むカメラ6sの実際の姿勢を判定することができる。画像処理装置130は、得られたカメラ6sの姿勢に基づいて、画像変換用パラメータを算出する。また、画像処理装置130は、算出した画像変換用パラメータを用いて、カメラ6sが撮像した画像を変換する。 From the above, the image processing device 130 can determine the height of the camera 6s from the road surface and the actual posture of the camera 6s including at least the pitch angle of the camera 6s. The image processing device 130 calculates an image conversion parameter based on the obtained posture of the camera 6s. Further, the image processing device 130 converts the image captured by the camera 6s using the calculated image conversion parameters.

画像処理装置130による画像変換処理には、上述の実施形態1の場合と同様、例えば駐車支援装置230による駐車支援処理において空きスペースの検出、並びに空きスペースの広さ及び空きスペースまでの距離の判定等に用いる画像に変換する処理、及び出力装置32である液晶モニタ等に表示する俯瞰画像等に変換する処理等が含まれる。 In the image conversion process by the image processing device 130, as in the case of the first embodiment, for example, in the parking support process by the parking support device 230, the vacant space is detected, and the size of the vacant space and the distance to the vacant space are determined. The process of converting the image into an image used for the above, and the process of converting the image into a bird's-eye view image displayed on the liquid crystal monitor or the like which is the output device 32 are included.

画像処理装置130は、上述の実施形態1の場合と同様、例えば変換後の俯瞰画像のほか、駐車支援処理において利用可能に変換された画像を出力装置32に表示してもよい。画像処理装置130は、上述の実施形態1の場合と同様、未変換の画像をそのまま出力装置32に表示してもよい。 Similar to the case of the first embodiment, the image processing device 130 may display, for example, a bird's-eye view image after conversion or an image converted so that it can be used in the parking support process on the output device 32. The image processing device 130 may display the unconverted image as it is on the output device 32 as in the case of the first embodiment described above.

(画像処理装置の処理例)
次に、図16を用いて、実施形態2の画像処理装置130による画像処理の例について説明する。図16は、実施形態2にかかる画像処理装置130による画像処理の手順の一例を示すフロー図である。以下、駐車支援装置230による駐車支援処理の実行中における画像処理装置130の画像処理について説明する。このため、図16には、駐車支援装置230による処理が含まれる。
(Processing example of image processing device)
Next, an example of image processing by the image processing apparatus 130 of the second embodiment will be described with reference to FIG. FIG. 16 is a flow chart showing an example of an image processing procedure by the image processing apparatus 130 according to the second embodiment. Hereinafter, the image processing of the image processing device 130 during the execution of the parking support processing by the parking support device 230 will be described. Therefore, FIG. 16 includes processing by the parking support device 230.

図16に示すように、ECU110は、タッチ式パネル等である入力装置31から駐車支援処理の開始を指示する操作を受け付ける(ステップS201)。 As shown in FIG. 16, the ECU 110 receives an operation instructing the start of the parking support process from the input device 31 such as a touch panel (step S201).

ECU110は、カメラ6s,6f,6rのうち、少なくともカメラ6sが撮像した画像を取得する(ステップS202)。 The ECU 110 acquires at least an image captured by the camera 6s among the cameras 6s, 6f, and 6r (step S202).

ECU110は、カメラ6sの撮像画像から、例えば車両101のフロントタイヤ3fと路面との接地位置を検出する(ステップS203)。 The ECU 110 detects, for example, the ground contact position between the front tire 3f of the vehicle 101 and the road surface from the captured image of the camera 6s (step S203).

ECU110は、検出した接地位置に基づいて、カメラ6sの高さを算出する(ステップS204)。すなわち、ECU110は、検出された接地位置の撮像画像内における高さ位置を検出する。また、ECU110は、接地位置の撮像画像内における高さ位置から、カメラ6sの路面からの高さを算出する。 The ECU 110 calculates the height of the camera 6s based on the detected ground contact position (step S204). That is, the ECU 110 detects the height position of the detected grounding position in the captured image. Further, the ECU 110 calculates the height of the camera 6s from the road surface from the height position in the captured image of the ground contact position.

ECU110は、カメラ6sの撮像画像から、例えば駐車スペースの車幅方向を区画する複数の区画線を検出する(ステップS205)。 The ECU 110 detects, for example, a plurality of division lines for dividing the vehicle width direction of the parking space from the captured image of the camera 6s (step S205).

ECU110は、検出した区画線の平行度を算出する(ステップS206)。すなわち、ECU110は、検出した区画線のカメラ6sのX軸に対する角度をそれぞれ算出する。また、ECU110は、算出した区画線のそれぞれの角度から、区画線の平行度を算出する。 The ECU 110 calculates the parallelism of the detected lane markings (step S206). That is, the ECU 110 calculates the angle of the detected lane marking with respect to the X-axis of the camera 6s. Further, the ECU 110 calculates the parallelism of the lane markings from each angle of the lane markings calculated.

ECU110は、区画線の平行度が所定値以内であるか否かを判定する(ステップS207)。区画線の平行度が所定値以内であれば(ステップS207:Yes)、ECU110は、カメラ6sのピッチ角が標準位置であるものとして、ステップS210の処理に進む。 The ECU 110 determines whether or not the parallelism of the lane markings is within a predetermined value (step S207). If the parallelism of the lane markings is within a predetermined value (step S207: Yes), the ECU 110 proceeds to the process of step S210 assuming that the pitch angle of the camera 6s is the standard position.

区画線の平行度が所定値を超えていた場合(ステップS207:No)、ECU110は、区画線が平行になる補正値を算出する(ステップS208)。すなわち、ECU110は、区画線の平行度が所定値以内となるよう、区画線の角度を補正することが可能な補正値を算出する。 When the parallelism of the lane markings exceeds a predetermined value (step S207: No), the ECU 110 calculates a correction value for the lane markings to be parallel (step S208). That is, the ECU 110 calculates a correction value capable of correcting the angle of the lane marking so that the parallelism of the lane marking is within a predetermined value.

ECU110は、算出した補正値からカメラ6sのピッチ角を算出する(ステップS209)。 The ECU 110 calculates the pitch angle of the camera 6s from the calculated correction value (step S209).

ECU110は、取得したカメラ6sの高さ及びピッチ角を含むカメラ6sの姿勢に基づき、画像変換用パラメータを算出する(ステップS210)。 The ECU 110 calculates an image conversion parameter based on the posture of the camera 6s including the acquired height and pitch angle of the camera 6s (step S210).

ECU110は、算出した画像変換用パラメータを用いて、カメラ6からの画像を変換する(ステップS211)。このとき、車両101が備える複数のカメラ6s,6f,6rからのそれぞれの撮像画像が変換されてよい。 The ECU 110 converts the image from the camera 6 using the calculated image conversion parameters (step S211). At this time, the captured images from the plurality of cameras 6s, 6f, 6r included in the vehicle 101 may be converted.

この後の、駐車支援装置230によるステップS307〜S312の駐車支援処理は、上述の実施形態1の駐車支援装置200によるステップS107〜S112の駐車支援処理と同様に行われる。 Subsequent parking support processing in steps S307 to S312 by the parking support device 230 is performed in the same manner as the parking support processing in steps S107 to S112 by the parking support device 200 in the first embodiment described above.

なお、以上に示すステップS201〜S211,S307〜S312までの処理は、必ずしもこの順に実行されなくともよく、順番の入れ替えが可能な処理については異なる順番で実施されてもよい。また、1つの処理が1つ以上の他の処理と並行して行われてもよい。 The processes of steps S201 to S211 and S307 to S312 shown above do not necessarily have to be executed in this order, and the processes whose order can be changed may be executed in a different order. Further, one process may be performed in parallel with one or more other processes.

また、ECU110は、ステップS308にて画像の出力を開始し、ステップS312にて画像の出力を停止することとしたが、画像の出力の開始のタイミング、及び停止のタイミングは、これ以外のタイミングであってもよい。ECU110は、画像の出力を停止させることなく、継続的に出力するようにしてもよい。 Further, the ECU 110 decides to start the image output in step S308 and stop the image output in step S312, but the image output start timing and the stop timing are other timings. There may be. The ECU 110 may continuously output the image without stopping the output of the image.

以上により、実施形態2の画像処理装置130による画像処理が終了する。 As described above, the image processing by the image processing apparatus 130 of the second embodiment is completed.

実施形態2の画像処理装置130によれば、ECU110は、カメラ6sの撮像画像に含まれるフロントタイヤ3fと路面との接地位置に基づいてカメラ6sの姿勢を判定し、それに応じた画像変換用パラメータを算出する。これにより、画像取得時における車両101内の乗員の人数および配置にしたがって変化するカメラ6sの姿勢に応じて適正に画像変換をすることができる。 According to the image processing device 130 of the second embodiment, the ECU 110 determines the posture of the camera 6s based on the ground contact position between the front tire 3f and the road surface included in the captured image of the camera 6s, and the image conversion parameter corresponding to the determination. Is calculated. As a result, the image can be appropriately converted according to the posture of the camera 6s that changes according to the number and arrangement of the occupants in the vehicle 101 at the time of image acquisition.

実施形態2の画像処理装置130によれば、ECU110は、カメラ6sの撮像画像に含まれる駐車スペースの区画線Lf,Lrの平行度に基づいてカメラ6sの姿勢を判定し、それに応じた画像変換用パラメータを算出する。これにより、画像取得時における車両101内の乗員の人数および配置にしたがって変化するカメラ6sの姿勢に応じて適正に画像変換をすることができる。 According to the image processing device 130 of the second embodiment, the ECU 110 determines the posture of the camera 6s based on the parallelism of the lane markings Lf and Lr of the parking space included in the captured image of the camera 6s, and converts the image accordingly. Calculate the parameters for. As a result, the image can be appropriately converted according to the posture of the camera 6s that changes according to the number and arrangement of the occupants in the vehicle 101 at the time of image acquisition.

実施形態2の画像処理装置130によれば、ECU110は、上記の画像変換用パラメータを用いて変換された俯瞰画像を出力装置32に出力し、また、上記の画像変換用パラメータを用いて変換された画像から駐車支援装置230に駐車枠等を検出させる。これにより、例えば出力画像を見た乗員が車両101の周囲の状況を適正に認識することができ、また、駐車支援装置230による駐車支援の精度が高まる。 According to the image processing device 130 of the second embodiment, the ECU 110 outputs a bird's-eye view image converted using the above-mentioned image conversion parameters to the output device 32, and is also converted using the above-mentioned image conversion parameters. The parking support device 230 is made to detect a parking frame or the like from the image. As a result, for example, the occupant who sees the output image can properly recognize the situation around the vehicle 101, and the accuracy of parking support by the parking support device 230 is improved.

なお、上述の実施形態2の画像処理装置130は、カメラ6sの撮像画像に含まれるフロントタイヤ3fと路面との接地位置からカメラ6sの高さを判定することとした。しかし、カメラ6sの撮像画像にはリアタイヤ3rと路面との接地位置が含まれていてもよく、また、車両の適正な位置にカメラを追加することにより、リアタイヤ3rと路面との接地位置を含む撮像画像を別途取得してもよい。この場合、画像処理装置は、リアタイヤ3rと路面との接地位置にのみ基づいてカメラの高さを判定してもよい。または、画像処理装置は、フロントタイヤ3fと路面との接地位置、及びリアタイヤ3rと路面との接地位置の両方に基づいてカメラの高さを判定してもよい。また、画像処理装置は、カメラのピッチ角を判定する際、上述の区画線等を用いる手法に替えて、または加えて、フロントタイヤ3f側の高さと、リアタイヤ3r側の高さとからピッチ角を判定してもよい。 The image processing device 130 of the second embodiment described above determines the height of the camera 6s from the ground contact position between the front tire 3f and the road surface included in the captured image of the camera 6s. However, the captured image of the camera 6s may include the ground contact position between the rear tire 3r and the road surface, and by adding the camera to an appropriate position of the vehicle, the ground contact position between the rear tire 3r and the road surface is included. The captured image may be acquired separately. In this case, the image processing device may determine the height of the camera only based on the ground contact position between the rear tire 3r and the road surface. Alternatively, the image processing device may determine the height of the camera based on both the ground contact position between the front tire 3f and the road surface and the ground contact position between the rear tire 3r and the road surface. Further, when determining the pitch angle of the camera, the image processing device determines the pitch angle from the height on the front tire 3f side and the height on the rear tire 3r side in place of or in addition to the method using the above-mentioned division line or the like. You may judge.

[その他の実施形態]
上述の実施形態1,2では、画像処理装置100,130が、駐車支援処理に用いられ、また、駐車支援処理の実行中に表示される画像を変換することとした。しかし、画像処理装置の処理対象となる画像はこれらに限られない。
[Other Embodiments]
In the above-described first and second embodiments, the image processing devices 100 and 130 are used for the parking support processing, and the images displayed during the execution of the parking support processing are converted. However, the images to be processed by the image processing apparatus are not limited to these.

上述の実施形態1,2では、画像処理装置100,130は、4輪を備える車両1に搭載されることとしたが、これに限られない。画像処理装置は、モーターバイク等の2輪以上を備える移動体に搭載されることができる。 In the above-described first and second embodiments, the image processing devices 100 and 130 are mounted on the vehicle 1 having four wheels, but the present invention is not limited to this. The image processing device can be mounted on a moving body having two or more wheels such as a motorbike.

本開示のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態およびその変形例は、発明の範囲および要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present disclosure have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.

1,101 車両
2 車体
3 車輪
4 ドアミラー
5(5a〜5d) 座席
6(6f,6r,6s) カメラ
7 シートベルト着脱センサ
8 着座センサ
10,110 ECU
11,111 CPU
12,112 RAM
13,113 ROM
14,114 記憶装置
14a マップデータ
15,115 I/Oポート
20 車両制御装置
31 入力装置
32 出力装置
100,130 画像処理装置
114a 標準時画像変換データ
200,230 駐車支援装置
1,101 Vehicle 2 Body 3 Wheels 4 Door mirrors 5 (5a-5d) Seats 6 (6f, 6r, 6s) Camera 7 Seatbelt attachment / detachment sensor 8 Seating sensor 10,110 ECU
11,111 CPU
12,112 RAM
13,113 ROM
14,114 Storage device 14a Map data 15,115 I / O port 20 Vehicle control device 31 Input device 32 Output device 100, 130 Image processing device 114a Standard time image conversion data 200, 230 Parking support device

Claims (20)

第1車輪と、
第2車輪と、
前記第1車輪及び前記第2車輪に結合され、前記第1車輪および前記第2車輪によって移動可能な車体と、
前記車体に配置される、少なくとも1名分の乗員用の座席と、
前記車体に配置され、前記車体の周囲を含む画像を撮像する撮像部と、を備える車両であって、
前記撮像部が撮像する前記画像は、前記第1車輪及び前記第2車輪の少なくとも1つを含み、
前記画像に含まれる前記第1車輪および前記第2車輪の前記少なくとも1つの接地位置に基づいて前記撮像部の姿勢を判定し、
判定した前記撮像部の姿勢に基づいて画像変換用パラメータを算出し、
算出した前記画像変換用パラメータを用いて、前記撮像部が撮像した画像を所定の処理に供するように変換する、
車両。
With the first wheel
With the second wheel
A vehicle body coupled to the first wheel and the second wheel and movable by the first wheel and the second wheel.
Seats for at least one occupant placed on the vehicle body,
A vehicle that is arranged on the vehicle body and includes an imaging unit that captures an image including the surroundings of the vehicle body.
The image captured by the imaging unit includes at least one of the first wheel and the second wheel.
The posture of the imaging unit is determined based on at least one ground contact position of the first wheel and the second wheel included in the image.
An image conversion parameter is calculated based on the determined posture of the imaging unit, and the image conversion parameter is calculated.
Using the calculated image conversion parameters, the image captured by the imaging unit is converted so as to be subjected to a predetermined process.
vehicle.
請求項1に記載の車両であって、
判定する前記撮像部の前記姿勢は、前記接地位置からの前記撮像部の高さを少なくとも含む、
車両。
The vehicle according to claim 1.
The posture of the imaging unit to be determined includes at least the height of the imaging unit from the ground contact position.
vehicle.
請求項1又は請求項2に記載の車両であって、
前記撮像部が撮像する前記画像に、駐車スペースの車幅方向を区画する複数の線が含まれる場合、
前記接地位置に加え、前記駐車スペースの前記車幅方向を区画する前記複数の線の平行度に基づいて前記撮像部の姿勢を判定する、
車両。
The vehicle according to claim 1 or 2.
When the image captured by the imaging unit includes a plurality of lines that demarcate the vehicle width direction of the parking space.
In addition to the ground contact position, the posture of the imaging unit is determined based on the parallelism of the plurality of lines that partition the vehicle width direction of the parking space.
vehicle.
請求項3に記載の車両であって、
前記駐車スペースの前記車幅方向を区画する前記複数の線の前記平行度は、
前記車体の車幅方向に平行な仮想線に対する前記複数の線のそれぞれの角度から求められる、
車両。
The vehicle according to claim 3.
The parallelism of the plurality of lines dividing the parking space in the vehicle width direction is
Obtained from the respective angles of the plurality of lines with respect to the virtual line parallel to the vehicle width direction of the vehicle body.
vehicle.
請求項3または請求項4に記載の車両であって、
判定する前記撮像部の前記姿勢は、前記車体の車幅方向に沿った軸を回転軸とする前記撮像部のピッチ角を少なくとも含む、
車両。
The vehicle according to claim 3 or 4.
The posture of the image pickup unit to be determined includes at least the pitch angle of the image pickup unit whose rotation axis is an axis along the vehicle width direction of the vehicle body.
vehicle.
請求項1から請求項5のいずれか1項に記載の車両であって、
前記撮像部は前記車体の側面側に配置されている、
車両。
The vehicle according to any one of claims 1 to 5.
The imaging unit is arranged on the side surface side of the vehicle body.
vehicle.
請求項1から請求項6のいずれか1項に記載の車両であって、
前記乗員による視認が可能な表示部を更に備え、
前記所定の処理は、前記乗員が前記車体の周囲の状況を認識可能な形式に変換された前記画像を前記表示部に表示させる処理である、
車両。
The vehicle according to any one of claims 1 to 6.
Further equipped with a display unit that can be visually recognized by the occupant,
The predetermined process is a process of displaying the image converted into a format in which the occupant can recognize the surrounding situation of the vehicle body on the display unit.
vehicle.
請求項7に記載の車両であって、
前記表示部に表示される前記画像は前記車両を含む俯瞰画像である、
車両。
The vehicle according to claim 7.
The image displayed on the display unit is a bird's-eye view image including the vehicle.
vehicle.
請求項1から請求項8のいずれか1項に記載の車両であって、
前記車両の現在位置から所定の駐車枠までの経路を算出可能に構成され、
前記所定の処理は、前記駐車枠を検出可能な形式に変換された前記画像から前記所定の駐車枠を検出する処理である、
車両。
The vehicle according to any one of claims 1 to 8.
It is configured so that the route from the current position of the vehicle to a predetermined parking frame can be calculated.
The predetermined process is a process of detecting the predetermined parking frame from the image obtained by converting the parking frame into a detectable format.
vehicle.
請求項9に記載の車両であって、
前記経路に基づき、少なくとも操舵角を制御する車両制御装置を備える、
車両。
The vehicle according to claim 9.
A vehicle control device for controlling at least a steering angle based on the path is provided.
vehicle.
第1車輪と、
第2車輪と、
前記第1車輪及び前記第2車輪に結合され、前記第1車輪および前記第2車輪によって移動可能な車体と、
前記車体に配置される、少なくとも1名分の乗員用の座席と、
前記車体に配置され、前記車体の周囲を含む画像を撮像する撮像部と、を備える車両に搭載可能な画像処理装置であって、
前記撮像部が撮像する前記画像は、前記第1車輪及び前記第2車輪の少なくとも1つを含み、
前記画像に含まれる前記第1車輪および前記第2車輪の前記少なくとも1つの接地位置に基づいて前記撮像部の姿勢を判定し、
判定した前記撮像部の姿勢に基づいて画像変換用パラメータを算出し、
算出した前記画像変換用パラメータを用いて、前記撮像部が撮像した画像を所定の処理に供するように変換する、
画像処理装置。
With the first wheel
With the second wheel
A vehicle body coupled to the first wheel and the second wheel and movable by the first wheel and the second wheel.
Seats for at least one occupant placed on the vehicle body,
An image processing device that is arranged on the vehicle body and can be mounted on a vehicle including an imaging unit that captures an image including the surroundings of the vehicle body.
The image captured by the imaging unit includes at least one of the first wheel and the second wheel.
The posture of the imaging unit is determined based on at least one ground contact position of the first wheel and the second wheel included in the image.
An image conversion parameter is calculated based on the determined posture of the imaging unit, and the image conversion parameter is calculated.
Using the calculated image conversion parameters, the image captured by the imaging unit is converted so as to be subjected to a predetermined process.
Image processing device.
請求項11に記載の画像処理装置であって、
判定する前記撮像部の前記姿勢は、前記接地位置からの前記撮像部の高さを少なくとも含む、
画像処理装置。
The image processing apparatus according to claim 11.
The posture of the imaging unit to be determined includes at least the height of the imaging unit from the ground contact position.
Image processing device.
請求項11又は請求項12に記載の画像処理装置であって、
前記撮像部が撮像する前記画像に、駐車スペースの車幅方向を区画する複数の線が含まれる場合、
前記接地位置に加え、前記駐車スペースの前記車幅方向を区画する前記複数の線の平行度に基づいて前記撮像部の姿勢を判定する、
画像処理装置。
The image processing apparatus according to claim 11 or 12.
When the image captured by the imaging unit includes a plurality of lines that demarcate the vehicle width direction of the parking space.
In addition to the ground contact position, the posture of the imaging unit is determined based on the parallelism of the plurality of lines that partition the vehicle width direction of the parking space.
Image processing device.
請求項13に記載の画像処理装置であって、
前記駐車スペースの前記車幅方向を区画する前記複数の線の前記平行度は、
前記車体の車幅方向に平行な仮想線に対する前記複数の線のそれぞれの角度から求められる、
画像処理装置。
The image processing apparatus according to claim 13.
The parallelism of the plurality of lines dividing the parking space in the vehicle width direction is
Obtained from the respective angles of the plurality of lines with respect to the virtual line parallel to the vehicle width direction of the vehicle body.
Image processing device.
請求項13または請求項14に記載の画像処理装置であって、
判定する前記撮像部の前記姿勢は、前記車体の車幅方向に沿った軸を回転軸とする前記撮像部のピッチ角を少なくとも含む、
画像処理装置。
The image processing apparatus according to claim 13 or 14.
The posture of the image pickup unit to be determined includes at least the pitch angle of the image pickup unit whose rotation axis is an axis along the vehicle width direction of the vehicle body.
Image processing device.
請求項11から請求項15のいずれか1項に記載の画像処理装置であって、
前記撮像部は前記車体の側面側に配置されている、
画像処理装置。
The image processing apparatus according to any one of claims 11 to 15.
The imaging unit is arranged on the side surface side of the vehicle body.
Image processing device.
請求項11から請求項16のいずれか1項に記載の画像処理装置であって、
前記車両は、前記乗員による視認が可能な表示部を更に備え、
前記所定の処理は、前記乗員が前記車体の周囲の状況を認識可能な形式に変換された前記画像を前記表示部に表示させる処理である、
画像処理装置。
The image processing apparatus according to any one of claims 11 to 16.
The vehicle further includes a display unit that can be visually recognized by the occupant.
The predetermined process is a process of displaying the image converted into a format in which the occupant can recognize the surrounding situation of the vehicle body on the display unit.
Image processing device.
請求項17に記載の画像処理装置であって、
前記表示部に表示される前記画像は前記車両を含む俯瞰画像である、
画像処理装置。
The image processing apparatus according to claim 17.
The image displayed on the display unit is a bird's-eye view image including the vehicle.
Image processing device.
請求項11から請求項18のいずれか1項に記載の画像処理装置であって、
前記車両の現在位置から所定の駐車枠までの経路を算出可能に構成され、
前記所定の処理は、前記駐車枠を検出可能な形式に変換された前記画像から前記所定の駐車枠を検出する処理である、
画像処理装置。
The image processing apparatus according to any one of claims 11 to 18.
It is configured so that the route from the current position of the vehicle to a predetermined parking frame can be calculated.
The predetermined process is a process of detecting the predetermined parking frame from the image obtained by converting the parking frame into a detectable format.
Image processing device.
請求項19に記載の画像処理装置であって、
前記車両は、前記経路に基づき、少なくとも操舵角を制御する車両制御装置を備える、
画像処理装置。
The image processing apparatus according to claim 19.
The vehicle includes a vehicle control device that controls at least a steering angle based on the route.
Image processing device.
JP2020062081A 2020-03-31 2020-03-31 Vehicle and image processing device Pending JP2021160435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020062081A JP2021160435A (en) 2020-03-31 2020-03-31 Vehicle and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020062081A JP2021160435A (en) 2020-03-31 2020-03-31 Vehicle and image processing device

Publications (1)

Publication Number Publication Date
JP2021160435A true JP2021160435A (en) 2021-10-11

Family

ID=78004302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020062081A Pending JP2021160435A (en) 2020-03-31 2020-03-31 Vehicle and image processing device

Country Status (1)

Country Link
JP (1) JP2021160435A (en)

Similar Documents

Publication Publication Date Title
JP5561566B2 (en) Driving assistance device
KR101265012B1 (en) Calibration device, method, and program for onboard camera
JP5229451B2 (en) Automobile lane departure prevention method
US9895974B2 (en) Vehicle control apparatus
JP6058256B2 (en) In-vehicle camera attitude detection apparatus and method
US10474898B2 (en) Image processing apparatus for vehicle
WO2019123840A1 (en) Imaging device, imaging system, and display system
JP6565148B2 (en) Image display control device and image display system
JP7211047B2 (en) Road surface detection device and road surface detection program
US20120182426A1 (en) Vehicle-surroundings monitoring device
US11127152B2 (en) Indoor monitoring device
EP3002727B1 (en) Periphery monitoring apparatus and periphery monitoring system
JP7091624B2 (en) Image processing equipment
US20220171275A1 (en) Image pickup system and image pickup device
JP2020104680A (en) Indoor monitor device
JP2021116013A (en) Vehicle and image processing device
JP2015106777A (en) Image processing system, operation support device, navigation device, and camera device
JP2021160435A (en) Vehicle and image processing device
JP7226930B2 (en) Calibration device and electronic mirror system
CN115050089B (en) Correction device, correction method, automobile data recorder, automobile and storage medium
WO2016088150A1 (en) Vehicle-mounted display device, vehicle, and display method
JP2021002790A (en) Camera parameter setting device, camera parameter setting method, and camera parameter setting program
US10846884B2 (en) Camera calibration device
JP7162489B2 (en) CALIBRATION DEVICE AND CALIBRATION METHOD
JP4040620B2 (en) Vehicle periphery monitoring device