JP2021160435A - Vehicle and image processing device - Google Patents
Vehicle and image processing device Download PDFInfo
- Publication number
- JP2021160435A JP2021160435A JP2020062081A JP2020062081A JP2021160435A JP 2021160435 A JP2021160435 A JP 2021160435A JP 2020062081 A JP2020062081 A JP 2020062081A JP 2020062081 A JP2020062081 A JP 2020062081A JP 2021160435 A JP2021160435 A JP 2021160435A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- image processing
- camera
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
Abstract
Description
本開示は、車両および画像処理装置に関する。 The present disclosure relates to vehicles and image processing devices.
車体に取り付けたカメラ等によって車両の周囲を撮像し、撮像した画像を駐車支援等の種々の処理に用いる技術が知られている。カメラからの画像は、所望の処理に適合するよう変換されて用いられる。画像変換は、例えばキャリブレーション時のカメラの姿勢を基準として行われる。 There is known a technique of capturing an image of the surroundings of a vehicle with a camera or the like attached to a vehicle body and using the captured image for various processes such as parking assistance. The image from the camera is converted and used to suit the desired processing. Image conversion is performed based on, for example, the posture of the camera at the time of calibration.
しかしながら、上記のキャリブレーションは、例えば工場出荷時に作業効率の観点から車両の乗員がゼロ名の状態で行われる。このため、画像変換の対象となる画像の取得時に車両内の乗員の人数および配置が変化すると、キャリブレーション時とはカメラの姿勢が異なっている可能性がある。このため、画像変換が適正に実施されない場合がある。 However, the above calibration is performed, for example, at the time of shipment from the factory, with no vehicle occupants from the viewpoint of work efficiency. Therefore, if the number and arrangement of occupants in the vehicle change when the image to be converted is acquired, the posture of the camera may be different from that at the time of calibration. Therefore, image conversion may not be performed properly.
本開示は、画像取得時における車両内の乗員の人数および配置に応じて適正に画像変換をすることができる車両および画像処理装置を提供することを目的とする。 An object of the present disclosure is to provide a vehicle and an image processing device capable of appropriately performing image conversion according to the number and arrangement of occupants in the vehicle at the time of image acquisition.
本開示にかかる車両は、第1車輪と、第2車輪と、前記第1車輪及び前記第2車輪に結合され、前記第1車輪および前記第2車輪によって移動可能な車体と、前記車体に配置され、少なくとも1名分の乗員用の座席と、前記車体に配置され、前記車体の周囲を含む画像を撮像する撮像部と、を備える車両であって、前記撮像部が撮像する前記画像は、前記第1車輪及び前記第2車輪の少なくとも1つを含み、前記画像に含まれる前記第1車輪および前記第2車輪の前記少なくとも1つの接地位置に基づいて前記撮像部の姿勢を判定し、判定した前記撮像部の姿勢に基づいて画像変換用パラメータを算出し、算出した前記画像変換用パラメータを用いて、前記撮像部が撮像した画像を所定の処理に供するように変換する。 The vehicle according to the present disclosure is arranged on the first wheel, the second wheel, the vehicle body coupled to the first wheel and the second wheel, and movable by the first wheel and the second wheel, and the vehicle body. The vehicle is provided with a seat for at least one occupant and an imaging unit arranged on the vehicle body and capturing an image including the surroundings of the vehicle body, and the image captured by the imaging unit is The posture of the imaging unit is determined and determined based on at least one of the first wheel and the second wheel, and the first wheel and the second wheel included in the image. The image conversion parameter is calculated based on the posture of the imaging unit, and the calculated image conversion parameter is used to convert the image captured by the imaging unit so as to be subjected to a predetermined process.
本開示にかかる車両および画像処理装置によれば、画像取得時における車両内の乗員の人数および配置に応じて適正に画像変換をすることができる。 According to the vehicle and the image processing device according to the present disclosure, it is possible to appropriately perform image conversion according to the number and arrangement of occupants in the vehicle at the time of image acquisition.
以下、図面を参照しながら、本開示にかかる車両および画像処理装置の実施形態について説明する。 Hereinafter, embodiments of the vehicle and the image processing apparatus according to the present disclosure will be described with reference to the drawings.
[実施形態1]
実施形態1について図面を用いて説明する。
[Embodiment 1]
The first embodiment will be described with reference to the drawings.
(車両の構成例)
図1は、実施形態1にかかる画像処理装置100を備える車両1の一例を示す模式図である。図1(a)は車両1の側面図であり、図1(b)は車両1の上面図である。
(Vehicle configuration example)
FIG. 1 is a schematic view showing an example of a vehicle 1 including the
図1に示すように、車両1は、車体2と、車体2の車長方向(±Y方向)に沿って車体2に配置された2対の車輪3(1対のフロントタイヤ3f及び1対のリアタイヤ3r)とを備える。対になる2つのフロントタイヤ3f及び対になる2つのリアタイヤ3rは、それぞれ車体2の車幅方向(±Y方向に直交する±X方向)に沿って配置される。
As shown in FIG. 1, the vehicle 1 includes a
車両1は、車体2の±X方向の両端部であって、車体2の±Y方向のフロントタイヤ3f寄り、かつ、車高方向(±X方向および±Y方向に直交する±Z方向)における所定の高さ位置に1対のドアミラー4を備える。
The vehicle 1 is both ends of the
車両1は、車体2の内部に複数の座席5a〜5dを備える。座席5a,5bは、フロントタイヤ3f寄りに、±X方向に並んで配置される。座席5c,5dは、リアタイヤ3r寄りに、±X方向に並んで配置される。座席5cは座席5bの背後に配置され、座席5dは座席5aの背後に配置される。なお、車両1が備える座席5の数および配置は図1の例に限られない。
The vehicle 1 includes a plurality of
車両1は、車体2の所定の端面に複数のカメラ6s,6f,6rを備える。撮像部としてのカメラ6s,6f,6rは、可視光カメラ、より広域の光を検出可能なCCDカメラ、またはCMOSカメラ等である。カメラ6s,6f,6rは、広角レンズを備えていることが好ましい。
The vehicle 1 includes a plurality of
カメラ6sは、2つのドアミラー4のそれぞれに、例えばレンズを下方に向けて配置される。カメラ6fは、車体2のフロントタイヤ3f側の端面に、例えばレンズを斜め下方に向けて配置される。カメラ6rは、車体2のリアタイヤ3r側の端面に、例えばレンズを斜め下方に向けて配置される。カメラ6s,6f,6rにより、路面を含む車体2の周囲の画像が撮像される。
The
なお、本明細書では、車体2のフロントタイヤ3f側の端面を前面と称することがある。また、車体2のリアタイヤ3r側の端面を後面と称することがある。また、車体2の±X方向の両端面を側面と称することがある。また、車両1内のいずれかの座席5a〜5dに着座した状態で、右側にあたる側面を右側面、左側にあたる側面を左側面と称することがある。
In this specification, the end surface of the
また、本明細書では、車体2の左側面に向かう方向を+X方向とし、右側面に向かう方向を−X方向とする。また、車体2の前面側に向かう方向を+Y方向とし、後面側に向かう方向を−Y方向とする。また、車体2の上方に向かう方向を+Z方向とし、下方(路面側)に向かう方向を−Z方向とする。
Further, in the present specification, the direction toward the left side surface of the
また、本明細書では、車両1が理想的な平面を有する路面に停車しているとき、車両1の±X方向の軸(X軸)及び±Y方向の軸(Y軸)は路面と平行であり、車両1の±Z方向の軸(Z軸)は路面に対する法線と平行であるものとする。 Further, in the present specification, when the vehicle 1 is stopped on a road surface having an ideal flat surface, the ± X direction axis (X axis) and the ± Y direction axis (Y axis) of the vehicle 1 are parallel to the road surface. It is assumed that the axis (Z axis) in the ± Z direction of the vehicle 1 is parallel to the normal line with respect to the road surface.
車両1は、±Y方向に沿って配置された2対の車輪3を用いて走行することが可能である。この場合、2対の車輪3が配置される±Y方向が車両1の走行方向(移動方向)となり、ギアの切り替え等により前進(+Y方向へ走行)または後退(−Y方向へ走行)することができる。また、操舵により右左折することもできる。 The vehicle 1 can travel using two pairs of wheels 3 arranged along the ± Y direction. In this case, the ± Y direction in which the two pairs of wheels 3 are arranged is the traveling direction (moving direction) of the vehicle 1, and the vehicle 1 is moved forward (traveling in the + Y direction) or backward (traveling in the −Y direction) by switching gears or the like. Can be done. You can also turn left or right by steering.
画像処理装置100は、例えば車両1に搭載され、カメラ6s,6f,6rからの画像に所定の変換を施す。画像変換は、例えばカメラ6s,6f,6rが斜め上から撮像した路面の画像を真上からの画像となるように視点を変換する処理等である。これにより、後述する駐車支援処理等の所定の処理に画像を利用することができる。
The
(画像処理装置の構成例)
図2は、実施形態1にかかる画像処理装置100を備える車両1の構成の一例を示すブロック図である。図2に示すように、車両1は、画像処理装置100及び駐車支援装置200を備える。
(Configuration example of image processing device)
FIG. 2 is a block diagram showing an example of the configuration of the vehicle 1 including the
画像処理装置100は、ECU(Electronic Cotrol Unit)10、入力装置31、及び出力装置32を備える。ただし、画像処理装置100に、カメラ6(図1のカメラ6s,6f,6r)、シートベルト着脱センサ7、及び着座センサ8が含まれてもよい。駐車支援装置200は、ECU10及び車両制御装置20を備える。ただし、駐車支援装置200に、カメラ6、入力装置31、及び出力装置32が含まれてもよい。
The
ECU10は、例えばCPU(Central Processing Unit)11、RAM(Random Access Memory)12、及びROM(Read Only Memory)13を備えたコンピュータとして構成されている。ECU10に、HDD(Hard Disk Drive)等から構成される記憶装置14が内蔵されていてもよい。また、ECU10は、各種センサ等と検出信号および各種情報の送受信が可能なI/O(Input/Output)ポート15を備えている。
The
ECU10のRAM12、ROM13、記憶装置14、及びI/Oポート15の各構成は、例えば内部バスを介してCPU11と各種情報の送受信が可能に構成されている。
Each configuration of the
ECU10は、ROM12にインストールされているプログラムをCPU11が実行することにより、駐車区画の検出処理および駐車区画への駐車経路の算出処理等の駐車支援処理を制御する。また、ECU10は、ROM12にインストールされているプログラムをCPU11が実行することにより、上述のカメラ6からの画像を変換する等の画像処理を制御する。変換された画像は、例えば駐車支援処理における駐車区画の検出処理に用いられる。また、ECU10は、変換した画像を後述の出力装置32に出力する処理を制御する。
The
記憶装置14は、例えばキャリブレーションデータ(不図示)及びマップデータ14aを記憶する。
The
キャリブレーションは、車両1の製造時に生じるカメラ6の取り付け誤差等をキャンセルするため、例えば車両1の工場出荷の際などにカメラ6に対して行われる。キャリブレーションを行うことで、カメラ6の取り付け時の姿勢に若干のばらつきがあっても、路面に対する法線および路面に平行な平面、並びに路面の高さ位置(垂直方向における位置)が、個々のカメラ6の視点(画像)において共通に定まる。キャリブレーションデータには、カメラ6の画像処理時に基準となる路面に対する法線および路面に平行な平面、並びに路面の高さ位置等の情報が含まれる。 The calibration is performed on the camera 6 at the time of factory shipment of the vehicle 1, for example, in order to cancel the mounting error of the camera 6 that occurs at the time of manufacturing the vehicle 1. By performing calibration, even if there is a slight variation in the posture when the camera 6 is attached, the normal line to the road surface, the plane parallel to the road surface, and the height position (position in the vertical direction) of the road surface are individually determined. It is commonly determined from the viewpoint (image) of the camera 6. The calibration data includes information such as a normal to the road surface as a reference during image processing of the camera 6, a plane parallel to the road surface, and the height position of the road surface.
マップデータ14aは、車両1内の複数の座席5(例えば図1の座席5a〜5d)に対する乗員の着座状況を示す乗員配置情報を含む。乗員の着座状況とは、例えば車両1内の乗員数および複数の座席5への着座位置、つまり、乗員の配置である。異なる乗員数および乗員配置を示す複数の乗員配置情報のそれぞれには、ECU10がカメラ6からの画像を変換するときに用いる画像変換用パラメータが紐づけられている。それぞれの画像変換用パラメータは、自身が紐づけられている乗員配置情報の乗員数および乗員配置に応じて、異なる設定値を有する。
The map data 14a includes occupant placement information indicating the seating status of the occupants with respect to the plurality of seats 5 (for example, the
車両制御装置20は、操舵アクチュエータ21、舵角センサ22、アクセルセンサ23、ブレーキセンサ24、及び車速センサ25を備える。車両制御装置20は、舵角センサ22、アクセルセンサ23、ブレーキセンサ24、及び車速センサ25等から車両1の各部の状態を示す情報を取得する。これらの情報に基づき、車両制御装置20は、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御することで、例えば上述の駐車区画に車両1を駐車させる駐車支援を行う。
The
シートベルト着脱センサ7は、乗員が車両1の座席5に着座したことを検出するセンサである。シートベルト着脱センサ7は、各々の座席5に設けられたシートベルトにそれぞれ取り付けられ、自身が取り付けられたシートベルトの着脱を検出する。シートベルト着脱センサ7は、シートベルトの装着を検出することで、その座席5への乗員の着座を検出する。 The seatbelt attachment / detachment sensor 7 is a sensor that detects that the occupant is seated in the seat 5 of the vehicle 1. The seatbelt attachment / detachment sensor 7 is attached to each of the seatbelts provided in each seat 5, and detects the attachment / detachment of the seatbelt to which it is attached. The seatbelt attachment / detachment sensor 7 detects the seating of the occupant on the seat 5 by detecting the wearing of the seatbelt.
着座センサ8は、例えば荷重を検出する荷重センサ等であり、車両1内の各々の座席5にそれぞれ取り付けられ、自身が取り付けられた座席5に加わる重量を検出する。すなわち、着座センサ8によっても、乗員が所定の座席5に着座したことを検出することができる。 The seating sensor 8 is, for example, a load sensor that detects a load, and is attached to each seat 5 in the vehicle 1 to detect the weight applied to the seat 5 to which the seat sensor 8 is attached. That is, the seating sensor 8 can also detect that the occupant is seated in the predetermined seat 5.
ECU10は、例えばシートベルト着脱センサ7からの信号を受け取って、車両1内の乗員数および着座位置を判定する。また、ECU10は、上述のマップデータ14aの複数の乗員配置情報の中から、判定した乗員数および着座位置と合致する乗員配置情報を選択することで、選択した乗員配置情報に紐づけられた画像変換用パラメータを記憶装置14から読み出して画像変換に用いる。
The
ただし、車両1内の乗員数および着座位置の判定に、シートベルト着脱センサ7に替えて、あるいは加えて、着座センサ8からの信号が用いられてもよい。 However, a signal from the seating sensor 8 may be used in place of or in addition to the seatbelt attachment / detachment sensor 7 for determining the number of occupants and the seating position in the vehicle 1.
車両制御装置20が備える操舵アクチュエータ21、舵角センサ22、アクセルセンサ23、ブレーキセンサ24、及び車速センサ25等の各構成、並びにカメラ6、シートベルト着脱センサ7、及び着座センサ8と、ECU10のI/Oポート15とはバスにより接続される。これらを接続するバスは、例えばCAN(Controller Area Network)バス等であってよい。
Each configuration of the
表示部としての出力装置32は、例えば車両1内に搭載され、車両1内の乗員が視認することが可能な液晶モニタ等の表示装置である。表示装置には、例えばカメラ6により撮像され、ECU10により変換された画像等が表示される。つまり、出力装置32を備える画像処理装置100は、処理した画像を出力する画像出力装置としても機能する。
The
入力装置31は、例えば液晶モニタと一体に成形されたタッチ式パネル等であり、車両1内の乗員による入力操作を受け付ける。乗員は、入力装置31を介して画像処理装置100に画像の表示を指示したり、駐車支援装置200に駐車支援処理の開始を指示したりすることができる。
The input device 31 is, for example, a touch-type panel integrally molded with the liquid crystal monitor, and receives an input operation by an occupant in the vehicle 1. The occupant can instruct the
なお、入力装置31及び出力装置32の構成は上記に限られず、また、入力装置31と出力装置32とが別体であってもよい。
The configurations of the input device 31 and the
(マップデータの構成例)
図3は、実施形態1にかかる画像処理装置100が用いるマップデータ14aの構成の一例を示す図である。図3に示すように、ECU10の記憶装置14に格納されるマップデータ14aは、例えば複数の画像変換データD1〜D8を有する。
(Map data configuration example)
FIG. 3 is a diagram showing an example of the configuration of map data 14a used by the
画像変換データD1〜D8はそれぞれ、乗員の種々の着座状況を示す複数の乗員配置情報に関連付けられている。画像変換データD1〜D8に示された(A)〜(D)は、それぞれ座席5a〜5dに対応しており、これらの座席5a〜5dへの乗員の着座を示す。
Each of the image conversion data D1 to D8 is associated with a plurality of occupant arrangement information indicating various seating situations of the occupant. (A) to (D) shown in the image conversion data D1 to D8 correspond to the
画像変換データD1〜D8には、それぞれ画像変換用パラメータが含まれる。それぞれの画像変換用パラメータには、画像変換データD1〜D8に関連付けられた乗員配置情報に応じた設定値が設定されている。 The image conversion data D1 to D8 include image conversion parameters, respectively. For each image conversion parameter, set values corresponding to the occupant arrangement information associated with the image conversion data D1 to D8 are set.
例えば、画像変換データD1は、乗員1名が座席5aに着座している着座状況を示す乗員配置情報に関連付けられており、そのような着座状況に応じた画像変換用パラメータを含む。
For example, the image conversion data D1 is associated with occupant arrangement information indicating a seating situation in which one occupant is seated in the
また例えば、画像変換データD3は、乗員2名がそれぞれ座席5a,5cに着座している着座状況を示す乗員配置情報に関連付けられており、そのような着座状況に応じた画像変換用パラメータを含む。
Further, for example, the image conversion data D3 is associated with occupant placement information indicating the seating status in which two occupants are seated in the
また例えば、画像変換データD6は、乗員3名がそれぞれ座席5a,5c,5dに着座している着座状況を示す乗員配置情報に関連付けられており、そのような着座状況に応じた画像変換用パラメータを含む。
Further, for example, the image conversion data D6 is associated with the occupant arrangement information indicating the seating status in which the three occupants are seated in the
このように、画像変換用パラメータは、乗員の着座位置のパターンごとに複数用意されている。 As described above, a plurality of image conversion parameters are prepared for each pattern of the seating position of the occupant.
車両1の工場出荷時には、取り付け位置の違いにより、個々のカメラ6の姿勢が異なる場合であっても画像処理が一様に行われるよう、上述のようにキャリブレーションが行われる。しかし、車両1内の乗員数および乗員配置が変化すると、カメラ6の姿勢もキャリブレーション時とは異なり得る。個々の画像変換用パラメータの設定値は、例えば乗員の着座状況に応じて変化するカメラ6の姿勢に基づいて決定される。 At the time of shipment from the factory of the vehicle 1, the calibration is performed as described above so that the image processing is uniformly performed even if the postures of the individual cameras 6 are different due to the difference in the mounting position. However, if the number of occupants and the arrangement of occupants in the vehicle 1 change, the posture of the camera 6 may be different from that at the time of calibration. The set values of the individual image conversion parameters are determined based on, for example, the posture of the camera 6 that changes according to the seating condition of the occupant.
(カメラ姿勢変化の規定例)
次に、図4及び図5を用いて、カメラ6の姿勢の変化量を規定する手法について説明する。図4は、実施形態1にかかる画像処理装置100の処理対象画像を撮像するカメラ6の姿勢変化の規定の一例を示す図である。ここでは、ドアミラー4に取り付けられたカメラ6sを例に挙げて説明する。なお、他のカメラ6f,6rについても、以下に説明する手法を用いて姿勢の変化を規定することができる。また、図中、カメラ6sは箱型の形状を有するように描かれているが、円柱型等の他の形状であってもよい。
(Example of camera posture change)
Next, a method of defining the amount of change in the posture of the camera 6 will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram showing an example of a definition of a posture change of a camera 6 that captures an image to be processed by the
カメラ6sの姿勢の変化量は、例えば基準となるカメラ6sの姿勢からの位置ずれ量として規定することができる。基準となるカメラ6sの姿勢は、例えばキャリブレーション時におけるカメラ6sの位置に基づいて決定される。
The amount of change in the posture of the
図4(a)に示すように、カメラ6sは、例えばレンズを下方に向けた状態でドアミラー4に取り付けられている。基準となるカメラ6sの姿勢は、例えばカメラ6sのレンズの向きに基づいて規定することができる。つまり、レンズの向きによって定まるカメラ6sの光軸を例えばZ軸として、レンズの向いた下方に向かう方向を−Z方向とし、上方に向かう方向を+Z方向とすることができる。
As shown in FIG. 4A, the
また、カメラ6sのZ軸を基準に、カメラ6sのZ軸に直交する平面内の任意の方向を向いたX軸、及びZ軸に直交する平面内のX軸に直交する方向を向いたY軸を設定することができる。上記の任意の方向としては、例えば概ね車幅に沿う方向をX軸とし、概ね車長に沿う方向をY軸とすることができる。
Further, with reference to the Z-axis of the
このとき、例えば車体2の左側面に向かう方向を+X方向とし、右側面に向かう方向を−X方向とすることができる。また、例えば車体2の前面側に向かう方向を+Y方向とし、後面側に向かう方向を−Y方向とすることができる。
At this time, for example, the direction toward the left side surface of the
以上のように、基準となるカメラ6sの姿勢は、例えばX軸、Y軸、及びZ軸の3軸を用いて規定される。
As described above, the reference posture of the
なお、カメラ6sについてこのように設定されたX軸、Y軸、及びZ軸は、車両1におけるX軸、Y軸、及びZ軸とは必ずしも完全に平行にはならないことに留意が必要である。車両1へのカメラ6sの取り付け誤差等により、例えばカメラ6sの光軸が車両1のZ軸と平行ではない場合等があるからである。
It should be noted that the X-axis, Y-axis, and Z-axis set in this way for the
上述のように、車両1内の乗員数および乗員配置が変化すると、カメラ6sの姿勢も変化し得る。そのときのカメラ6sの姿勢の変化量は、基準となるキャリブレーション時のカメラ6sの姿勢に対して、上記のように定めたX軸、Y軸、及びZ軸におけるカメラ6sの位置ずれ値として規定される。
As described above, when the number of occupants and the arrangement of occupants in the vehicle 1 change, the posture of the
具体的には、カメラ6sの姿勢の変化量は、以下に示すように、X軸、Y軸、及びZ軸の交点である原点からの±X方向、±Y方向、及び±Z方向へのカメラ6sの移動量、並びに、X軸、Y軸、及びZ軸を回転軸とするカメラ6sの回転角で規定することができる。
Specifically, as shown below, the amount of change in the posture of the
図4(b)に示すように、カメラ6sの原点位置がキャリブレーション時の位置から±X方向にどれだけずれたかは、±X方向の移動量ΔPxとして表すことができる。カメラ6sの+X方向の移動量ΔPxは例えばプラスを付けた値で表され、−X方向の移動量ΔPxは例えばマイナスを付けた値で表される。
As shown in FIG. 4B, how much the origin position of the
図4(c)に示すように、カメラ6sの原点位置がキャリブレーション時の位置から±Y方向にどれだけずれたかは、±Y方向の移動量ΔPyとして表すことができる。カメラ6sの+Y方向の移動量ΔPyは例えばプラスを付けた値で表され、−Y方向の移動量ΔPyは例えばマイナスを付けた値で表される。
As shown in FIG. 4C, how much the origin position of the
図4(d)に示すように、カメラ6sの原点位置がキャリブレーション時の位置から±Z方向にどれだけずれたかは、±Z方向の移動量ΔPzとして表すことができる。カメラ6sの+Z方向の移動量ΔPzは例えばプラスを付けた値で表され、−Z方向の移動量ΔPzは例えばマイナスを付けた値で表される。
As shown in FIG. 4D, how much the origin position of the
図4(e)に示すように、カメラ6sがキャリブレーション時の位置からX軸を回転軸としてどれだけ回転したかは、X軸における回転角ΔRxとして表すことができる。換言すれば、回転角ΔRxは、Y軸およびZ軸に平行なYZ平面におけるカメラ6sの回転角である。X軸のプラス側からマイナス側を眺めた時に、カメラ6sの回転方向が反時計回りである場合には回転角ΔRxは例えばプラスを付けた値で表され、回転方向が時計回りである場合には回転角ΔRxは例えばマイナスを付けた値で表される。なお、X軸における回転角ΔRxはピッチ角とも呼ばれる。
As shown in FIG. 4 (e), how much the
図4(f)に示すように、カメラ6sがキャリブレーション時の位置からY軸を回転軸としてどれだけ回転したかは、Y軸における回転角ΔRyとして表すことができる。換言すれば、回転角ΔRyは、X軸およびZ軸に平行なXZ平面におけるカメラ6sの回転角である。Y軸のプラス側からマイナス側を眺めた時に、カメラ6sの回転方向が反時計回りである場合には回転角ΔRyは例えばプラスを付けた値で表され、回転方向が時計回りである場合には回転角ΔRyは例えばマイナスを付けた値で表される。なお、Y軸における回転角ΔRyはロール角とも呼ばれる。
As shown in FIG. 4 (f), how much the
図4(g)に示すように、カメラ6sがキャリブレーション時の位置からZ軸を回転軸としてどれだけ回転したかは、Z軸における回転角ΔRzとして表すことができる。換言すれば、回転角ΔRzは、X軸およびY軸に平行なXY平面におけるカメラ6sの回転角である。Z軸のプラス側からマイナス側を眺めた時に、カメラ6sの回転方向が反時計回りである場合には回転角ΔRzは例えばプラスを付けた値で表され、回転方向が時計回りである場合には回転角ΔRzは例えばマイナスを付けた値で表される。なお、Z軸における回転角ΔRzはヨー角とも呼ばれる。
As shown in FIG. 4 (g), how much the
次に、カメラ6sの姿勢の変化量の表し方について具体例を挙げて説明する。
Next, a method of expressing the amount of change in the posture of the
図5は、実施形態1にかかる画像処理装置100の処理対象画像を撮像するカメラ6の姿勢の変化の一例を示す図である。図5においても、ドアミラー4に取り付けられたカメラ6sを例に挙げて説明する。なお、他のカメラ6f,6rについても、以下に説明する手法を用いて姿勢の変化量を表すことができる。
FIG. 5 is a diagram showing an example of a change in the posture of the camera 6 that captures the image to be processed by the
図5(a)は、キャリブレーション時における車両1及びカメラ6sの状態を示している。車両1の工場出荷時等には、作業の効率性に鑑みて、例えば車両1内の乗員がゼロ名の状態でキャリブレーションが行われる。このため、車両1が停車する路面が理想的な平面を有している場合には、車両1のX軸およびY軸は路面に対して平行な状態となっており、車両1のZ軸は路面の法線に対して平行な状態となっている。
FIG. 5A shows the state of the vehicle 1 and the
一方、カメラ6sは基準となる所定の姿勢で車両1に取り付けられている。上述のように、このときのカメラ6sの姿勢に基づくX軸、Y軸、及びZ軸は、必ずしも車両1のX軸、Y軸、及びZ軸とは平行ではない。ただし、カメラ6sのX軸、Y軸、及びZ軸と、車両1のX軸、Y軸、及びZ軸とは、所定の位置関係にある。
On the other hand, the
図5(b)は、座席5aの位置に乗員1名が着座した場合の着座状況における車両1及びカメラ6sの状態を示している。図5(b)に示すように、乗員の座席5aへの着座により、車両1は例えば座席5aの位置において下方に沈み込む。また、車両1が若干前のめりになり、かつ、右側面方向へと傾くことも考えられる。これにより、キャリブレーション時とは異なり、車両1のX軸、Y軸、及びZ軸が、路面および路面の法線に対して傾くこととなる。
FIG. 5B shows the state of the vehicle 1 and the
一方、車両1に取り付けられたカメラ6sの姿勢も、車両1の上記状態変化に応じて変化する。ただし、カメラ6sのX軸、Y軸、及びZ軸と、車両1のX軸、Y軸、及びZ軸との位置関係は保たれたままである。
On the other hand, the posture of the
したがって、例えば車両1が座席5aの位置において下方に沈み込むのに応じて、カメラ6sの移動量ΔPzが所定の大きさを有するマイナスの値となる。
Therefore, for example, as the vehicle 1 sinks downward at the position of the
また、例えば車両1が若干前のめりになるのに応じて、カメラ6sの移動量ΔPyが所定の大きさを有するプラスの値となり、また、カメラ6sの回転角ΔRxが所定の大きさを有するプラスの値となる。
Further, for example, the movement amount ΔPy of the
また、例えば車両1が右側面方向へと傾くのに応じて、カメラ6sの移動量ΔPxが所定の大きさを有するマイナスの値となり、また、カメラ6sの回転角ΔRyが所定の大きさを有するプラスの値となる。
Further, for example, as the vehicle 1 tilts toward the right side surface, the movement amount ΔPx of the
以上のように、図5(b)の例における車両1への乗員の着座状況に対し、カメラ6sの姿勢の変化量は、例えば、それぞれ所定の大きさを有するΔPx(−)、ΔPy(+)、ΔPz(−)、ΔRx(+)、及びΔRy(+)、並びにΔRz(±0)として表される。
As described above, with respect to the seating situation of the occupant on the vehicle 1 in the example of FIG. 5B, the amount of change in the posture of the
ところで、基準となるカメラ6sの姿勢におけるX軸、Y軸、及びZ軸は、車両1のX軸、Y軸、及びZ軸に対してだけでなく、車両1が停車する路面および路面の法線に対しても平行とはなっていない可能性がある。また、カメラ6sの取り付け誤差等により、カメラ6sと路面との相対的な高さ位置も様々に異なっている可能性がある。
By the way, the X-axis, Y-axis, and Z-axis in the posture of the
このような場合であっても、上記キャリブレーションにより、カメラ6sを通した視点、つまり、カメラ6sにより撮像された画像において、路面に平行なX軸およびY軸、路面に対する法線に平行なZ軸、並びに路面の高さ位置が定まる。このとき、X軸およびY軸の向きは、例えば車両1のX軸およびY軸とそれぞれ平行になるように決定されてよい。つまり、カメラ6sを通した視点におけるX軸、Y軸、及びZ軸と、車両1のX軸、Y軸、及びZ軸と、路面および路面の法線とが互いに平行な状態となる。
Even in such a case, the X-axis and Y-axis parallel to the road surface and Z parallel to the normal to the road surface in the viewpoint through the
しかし、例えば上記の図5(b)の例のように、車両1のX軸、Y軸、及びZ軸が、路面および路面の法線に対して平行な状態ではなくなり、また、車両1の高さが路面に対して変化すると、基準となるカメラ6sの姿勢に基づき撮像画像について定めた路面に平行な平面、路面に対する法線、及び路面の高さ位置が、実際の路面、並びに路面の法線および高さ位置と一致しないこととなる。
However, for example, as in the example of FIG. 5B above, the X-axis, Y-axis, and Z-axis of the vehicle 1 are no longer parallel to the road surface and the normal of the road surface, and the vehicle 1 When the height changes with respect to the road surface, the plane parallel to the road surface defined for the captured image based on the attitude of the
上述の画像変換データD1〜D8の画像変換用パラメータは、そのような場合において、カメラ6sの撮像画像における路面に平行な平面、路面に対する法線、及び路面の高さ位置と、実際の路面、並びに路面の法線および高さ位置とを一致させるための設定値を有する。
In such a case, the above-mentioned image conversion parameters of the image conversion data D1 to D8 include a plane parallel to the road surface in the image captured by the
具体的には、画像変換データD1〜D8を生成するにあたり、画像変換データD1〜D8に関連付けられた乗員配置情報が示す乗員の着座状況のそれぞれにおいて、カメラ6sの姿勢の変化量を示すΔPx、ΔPy、ΔPz、ΔRx、ΔRy、及びΔRzが求められる。これらのカメラ6sの姿勢の変化量は、例えばシミュレーションにより、あるいは、実測により求めることができる。
Specifically, in generating the image conversion data D1 to D8, ΔPx, which indicates the amount of change in the posture of the
このようなカメラ6sの姿勢の変化量からは、その時々において、基準となるカメラ6sの姿勢に基づき撮像画像について定めた路面に平行な平面、路面に対する法線、及び路面の高さ位置と、実際の路面、並びに路面の法線および高さ位置とがどのような対応関係になっているかを知ることができる。そして、それらの対応関係に基づき、それぞれの画像変換用パラメータについて設定値を決定すればよい。
From the amount of change in the posture of the
このような画像変換用パラメータを用いて画像変換をすることで、カメラ6sの撮像画像における路面に平行な平面、路面に対する法線、及び路面の高さ位置と、実際の路面、並びに路面の法線および高さ位置とが一致しないことによる画像の誤変換が抑制される。
By performing image conversion using such image conversion parameters, the plane parallel to the road surface in the image captured by the
(画像変換の例)
次に、図6及び図7を用いて、実施形態1の画像処理装置100による画像変換の例について説明する。画像処理装置100は、カメラ6からの画像を、例えば駐車支援装置200による駐車支援処理に用いる画像に変換する。また、画像処理装置100は、カメラ6からの画像を、出力装置32である液晶モニタ等に表示する俯瞰画像等に変換する。
(Example of image conversion)
Next, an example of image conversion by the
図6は、実施形態1にかかる画像処理装置100が駐車支援処理に利用可能な形式に画像を変換する例を示す図である。図6(a)は、ドアミラー4に取り付けられたカメラ6sによる撮像画像である。図6(b)は、カメラ6sの撮像画像を変換した後の画像である。
FIG. 6 is a diagram showing an example in which the
図6(a)に示すように、車両1を駐車場の空きスペースに横付けすると、カメラ6sが撮像した画像には、その空きスペースが映し出される。駐車支援処理においては、画像に映し出された空きスペースを検出し、空きスペースの広さ及び車両1から空きスペースまでの距離等を算出する。
As shown in FIG. 6A, when the vehicle 1 is placed side by side in an empty space in the parking lot, the empty space is projected in the image captured by the
しかしながら、カメラ6sの取り付け位置からは、斜め上方から見下ろした画像が撮像される。このため、このままの画像からでは、空きスペースの広さや距離を正しく算出することができない。なお、図6(a)の画像は、例えばカメラ6sが備える広角レンズを通した画像である。
However, from the mounting position of the
図6(b)に示すように、画像処理装置100は、例えば視点変換により、カメラ6sが撮像した画像を真上からの画像に変換する。その際、画像処理装置100は、例えばシートベルト着脱センサ7の信号を検出して車両1内の着座パターンを判定し、判定した着座パターンに応じた画像変換用パラメータを用いて画像変換を行う。
As shown in FIG. 6B, the
駐車支援装置200は、変換後の画像に基づいて、空きスペースの広さ及び車両1から空きスペースまでの距離等を算出する。これにより、空きスペースの広さ及び距離等が適正に算出される。
The
図7は、実施形態1にかかる画像処理装置100が俯瞰画像40tの生成に利用可能な形式に画像を変換する例を示す図である。
FIG. 7 is a diagram showing an example in which the
図7に示すように、車両1が備えるカメラ6s,6f,6rは、それぞれ車両1の側方、前方、及び後方を映し出す。これらの側方画像40m,40h、前方画像40f、及び後方画像40rは、例えば車両1近傍の路面を含む、斜め上方から周囲を見下ろした画像となっている。
As shown in FIG. 7, the
画像処理装置100は、画像変換により、斜め上から撮像したこれらの側方画像40m,40h、前方画像40f、及び後方画像40rを、真上からの画像となるように視点変換を行う。その際、画像処理装置100は、例えばシートベルト着脱センサ7の信号を検出して車両1内の着座パターンを判定し、判定した着座パターンに応じた画像変換用パラメータを用いて画像変換を行う。
The
画像処理装置100は、変換したそれらの画像を、車両アイコン1icの側方、前方、及び後方に配置することで、車両アイコン1icを中心とする俯瞰画像40tを生成する。車両アイコン1icは、例えば予め用意されたものであり、車両1を上方から見下ろした状態を表すアイコンである。画像処理装置100は、生成した俯瞰画像40tを出力装置32である液晶モニタ等に表示する。これにより、乗員が車両1の周囲の状況を認識可能となる。
The
(画像の表示例)
次に、図8及び図9を用いて、実施形態1の画像処理装置100による画像の表示例について説明する。画像処理装置100は、様々な状況において出力装置32に画像を表示し得る。ここでは、駐車支援装置200による駐車支援処理に際して、画像処理装置100が画像を表示する例について説明する。
(Image display example)
Next, an example of displaying an image by the
図8は、実施形態1にかかる画像処理装置100が駐車支援処理の開始に際して表示する画像の一例を示す図である。図8(a)は、駐車支援処理の開始時の車両1の状態を示す図である、図8(b)は、駐車支援処理の開始時に出力装置32に表示される画像の例である。
FIG. 8 is a diagram showing an example of an image displayed by the
図8(a)に示すように、駐車支援処理の開始に際し、車両1は例えば駐車可能な空きスペース50に横付けされる。そして、この状態で、例えば運転者等が駐車支援処理を開始する操作を行う。
As shown in FIG. 8A, at the start of the parking support process, the vehicle 1 is placed side by side in, for example, an
図8(b)に示すように、駐車支援処理の開始操作がなされると、画像処理装置100は、出力装置32である液晶モニタ等に駐車支援処理の開始画面40aを出力する。駐車支援処理の開始画面40aは、例えば画像処理装置100が生成した俯瞰画像40tを左側に有し、カメラ6sが撮像した未変換の画像40hを右側に有する。
As shown in FIG. 8B, when the parking support processing start operation is performed, the
このとき、画像処理装置100は、俯瞰画像40t及び画像40hに重ねて、駐車枠50fを表示する。駐車枠50fは、空きスペース50の外形を示す枠型の図形であり、駐車支援装置200が空きスペース50を駐車可能な区画として識別することにより、俯瞰画像40t及び画像40h内の空きスペースが存在する位置に表示可能となる。駐車支援装置200は、例えば空きスペース50を含めた個々の駐車スペースに付され、これらの駐車スペースを区画する区画線等を検出することで、空きスペース50を識別する。
At this time, the
また、画像処理装置100は、画像40hに重ねて、「この駐車スペースで良いですか?」等のメッセージ41、及びメッセージ41に対する回答を運転者等が選択可能な「はい」ボタン42、及び「中止」ボタン43等を表示する。運転者等が「はい」ボタン42を押下すると検出された空きスペース50への駐車支援処理が継続され、「中止」ボタン43を押下すると、その空きスペース50への駐車支援処理が中止される。
Further, the
「はい」ボタン42が押下されて駐車支援処理が継続されることとなると、駐車支援装置200は、車両1の現在位置から空きスペース50までの駐車経路を算出する。このとき、駐車支援装置200が算出した駐車経路には、例えば切り返し枠および駐車枠等が含まれる。
When the "Yes"
図9は、実施形態1にかかる画像処理装置100が駐車支援処理の継続中に表示する画像の一例を示す図である。図9の左図(a)(c)(e)は、駐車支援を受けて空きスペース50に駐車を試みる車両1の時々の状態を示す図である。図9の右図(b)(d)(f)は、図9(a)(c)(e)の場合に出力装置32に表示される画面を示す図である。
FIG. 9 is a diagram showing an example of an image displayed by the
図9(a)に示すように、車両1は、空きスペース50から一旦、遠ざかるように、右斜め前方への移動を開始する。駐車支援装置100の車両制御装置20は、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御して、所望の駐車経路にしたがって車両1を移動させる。
As shown in FIG. 9A, the vehicle 1 starts moving diagonally forward to the right so as to temporarily move away from the
図9(b)に示すように、車両1が図9(a)の状態にあるとき、画像処理装置100は、駐車支援処理の継続中を示す継続画面40bを出力装置32に表示する。画像処理装置100は、継続画面40b左側には、車両アイコン1icを中心に据えたまま、車両1の移動に合わせて周囲の画像が変化する俯瞰画像40tを表示する。画像処理装置100は、継続画面40b右側には、車両1の進行方向にあたるいずれかのカメラ6s,6f,6rの画像を例えば未変換のまま表示する。図9(b)においては、車両1の進行方向にあたる前方のカメラ6fの画像40fが表示される。
As shown in FIG. 9B, when the vehicle 1 is in the state of FIG. 9A, the
このとき、画像処理装置100は、俯瞰画像40t及び画像40fに重ねて、車両1が辿るべき駐車経路50rを表示する。また、画像処理装置100は、俯瞰画像40tに重ねて、車両1の切り返し位置を示す切り返し枠50tを表示する。また、画像処理装置100は、画像40fに重ねて、「左画面の枠に合わせて停止して下さい。」等のメッセージ44を表示する。
At this time, the
図9(c)に示すように、車両1は、切り返し位置に到達すると、空きスペース50に向かって左後方への移動を開始する。このときにも、車両制御装置20が、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御して、所望の駐車経路にしたがって車両1を移動させる。
As shown in FIG. 9C, when the vehicle 1 reaches the turning position, it starts moving to the left rear toward the
図9(d)に示すように、車両1が図9(c)の状態にあるとき、画像処理装置100は継続画面40cを出力装置32に表示する。画像処理装置100は、継続画面40c左側には俯瞰画像40tを表示し、継続画面40c右側には車両1の進行方向にあたる後方のカメラ6rからの未処理の画像40rを表示する。
As shown in FIG. 9D, when the vehicle 1 is in the state of FIG. 9C, the
このとき、画像処理装置100は、俯瞰画像40t及び画像40rに重ねて、車両1が辿るべき駐車経路50rを表示する。また、画像処理装置100は、俯瞰画像40tに重ねて、車両1の目標駐車位置を示す駐車枠50fを表示する。また、画像処理装置100は、画像40rに重ねて、「左画面の枠に合わせて停止して下さい。」等のメッセージ45を表示する。
At this time, the
図9(e)に示すように、車両1は、空きスペース50への駐車を完了させる。
As shown in FIG. 9E, the vehicle 1 completes parking in the
図9(f)に示すように、このとき、画像処理装置100は駐車支援処理の終了画面40dを出力装置32に表示する。画像処理装置100は、終了画面40d左側には俯瞰画像40tを表示し、終了画面40d右側にはカメラ6rからの未処理の画像40rを表示する。
As shown in FIG. 9F, at this time, the
また、画像処理装置100は、画像40rに重ねて、「シフトをパーキングにして下さい。」等のメッセージ46を表示する。
Further, the
(画像処理装置の処理例)
次に、図10を用いて、実施形態1の画像処理装置100による画像処理の例について説明する。図10は、実施形態1にかかる画像処理装置100による画像処理の手順の一例を示すフロー図である。以下、駐車支援装置200による駐車支援処理の実行中における画像処理装置100の画像処理について説明する。このため、図10には、駐車支援装置200による処理が含まれる。
(Processing example of image processing device)
Next, an example of image processing by the
図10に示すように、ECU10は、タッチ式パネル等である入力装置31から駐車支援処理の開始を指示する操作を受け付ける(ステップS101)。
As shown in FIG. 10, the
ECU10は、これを受けて、例えばシートベルト着脱センサ7からの信号を取得する(ステップS102)。ECU10は、取得したシートベルト着脱センサ7の信号に基づき、複数の座席5a〜5dに対する乗員の着座パターンを特定する(ステップS103)。
In response to this, the
ECU10は、マップデータ14aの複数の画像変換データD1〜D8のうち、特定した着座パターンに対応する画像変換データを選択する(ステップS104)。
The
ECU10は、カメラ6s,6f,6rが撮像した画像を取得する(ステップS105)。
The
ECU10は、選択した画像変換データに含まれる画像変換用パラメータを用いて、カメラ6s,6f,6rからの画像を変換する(ステップS106)。
The
上述の図8及び図9の例を参照すれば、ECU10は、例えばカメラ6sの画像を駐車支援処理に利用可能な形式に変換する。また、ECU10は、カメラ6s,6f,6rからの画像を乗員が車両1の周囲の状況を認識可能な俯瞰画像40tの形式に変換する。
With reference to the examples of FIGS. 8 and 9 described above, the
ECU10は、駐車支援処理に利用可能な形式に変換したカメラ6sからの変換画像に基づき、駐車枠50fを検出する(ステップS107)。
The
ECU10は、駐車枠50fを重畳させた俯瞰画像40tおよびカメラ6s,6f,6rからの未変換画像等の出力装置32への出力を開始する(ステップS108)。
The
ECU10は、駐車支援処理に利用可能な形式に変換したカメラ6sからの変換画像等に基づき、駐車枠50fへの駐車経路50rを算出する(ステップS109)。
The
車両制御装置20は、ECU10が算出した駐車経路50rにしたがって、運転者によるアクセル及びブレーキ等の操作を受けつつ、操舵アクチュエータ21を制御して、駐車枠50fへ車両1を誘導する(ステップS110)。車両制御装置20は、駐車枠50fに車両1を停車させる(ステップS111)。
The
ECU10は、俯瞰画像40tおよびカメラ6s,6f,6rからの未変換画像等の出力装置32への出力を停止する(ステップS112)。
The
なお、以上に示すステップS101〜S112までの処理は、必ずしもこの順に実行されなくともよく、順番の入れ替えが可能な処理については異なる順番で実施されてもよい。また、1つの処理が1つ以上の他の処理と並行して行われてもよい。 The processes of steps S101 to S112 shown above do not necessarily have to be executed in this order, and the processes whose order can be changed may be executed in a different order. Further, one process may be performed in parallel with one or more other processes.
また、ECU10は、ステップS108にて画像の出力を開始し、ステップS112にて画像の出力を停止することとしたが、画像の出力の開始のタイミング、及び停止のタイミングは、これ以外のタイミングであってもよい。ECU10は、画像の出力を停止させることなく、継続的に出力するようにしてもよい。
Further, the
(比較例)
比較例の画像処理装置は、例えば画像変換に用いられる画像変換データを1つのみ有する。この画像変換データは、例えば乗員ゼロ名で実施されるキャリブレーション時のカメラの姿勢を基準として設定されている。
(Comparison example)
The image processing apparatus of the comparative example has only one image conversion data used for image conversion, for example. This image conversion data is set based on, for example, the posture of the camera at the time of calibration performed with zero occupants.
しかしながら、車両1内の乗員数および乗員の着座配置パターンが変化すると、カメラの姿勢も変化する。このため、キャリブレーション時のカメラの姿勢に基づく画像変換データを用いても、画像が適正に変換されない場合がある。 However, when the number of occupants in the vehicle 1 and the seating arrangement pattern of the occupants change, the posture of the camera also changes. Therefore, even if the image conversion data based on the posture of the camera at the time of calibration is used, the image may not be converted properly.
一例として、例えば運転席に乗員が4名乗車し、車両1が全体的に下方に沈み込んでいるような場合、ドアミラーに取り付けられたカメラの画像(図11(a))が変換されると、変換後の画像(図11(b))において、駐車スペースに付された区画線Lf,Lrのうち、車両前方の区画線Lfが実際よりも、更に前方寄りの位置にずれてしまうことがある。また、車両後方の区画線Lrが実際よりも、更に後方寄りの位置にずれてしまうことがある。これによって、目標駐車位置も適正位置よりも車両1の後方寄りにずれてしまい、また、駐車スペースが実際よりも広く検出されてしまう。 As an example, when four passengers are in the driver's seat and the vehicle 1 is sunk downward as a whole, the image of the camera attached to the door mirror (FIG. 11 (a)) is converted. In the converted image (FIG. 11B), of the lane markings Lf and Lr attached to the parking space, the lane marking Lf in front of the vehicle may shift to a position closer to the front than it actually is. be. In addition, the lane marking Lr behind the vehicle may shift to a position closer to the rear than it actually is. As a result, the target parking position also shifts toward the rear of the vehicle 1 from the proper position, and the parking space is detected wider than it actually is.
実施形態1の画像処理装置100によれば、ECU10は、例えばシートベルト着脱センサ7から取得した乗員の着座状況に基づいて、画像変換用パラメータを選択する。また、ECU10は、選択した画像変換用パラメータを用いて、カメラ6が撮像した画像を所定の処理に供するように変換する。これにより、画像取得時における車両1内の乗員の人数および配置に応じて適正に画像変換をすることができる。
According to the
実施形態1の画像処理装置100によれば、ECU10は、選択した画像変換用パラメータを用いて変換された俯瞰画像40tを出力装置32に出力する。これにより、乗員が車両1の周囲の状況を適正に認識することができる。
According to the
実施形態1の画像処理装置100によれば、ECU10は、選択した画像変換用パラメータを用いて、駐車支援装置200が駐車枠50fを検出可能な形式に画像を変換する。これにより、駐車支援装置200は、車両1の現在位置から駐車枠50fまでの駐車経路50rを適正に算出することができる。
According to the
[実施形態2]
実施形態2について図面を用いて説明する。実施形態2の構成では、カメラにより撮像された画像に基づいてカメラ姿勢が判定され、更に画像変換用パラメータが算出される点が、上述の実施形態1の構成とは異なる。
[Embodiment 2]
The second embodiment will be described with reference to the drawings. The configuration of the second embodiment is different from the configuration of the first embodiment in that the camera posture is determined based on the image captured by the camera and the parameters for image conversion are calculated.
(画像処理装置の構成例)
図12は、実施形態2にかかる画像処理装置130を備える車両101の構成の一例を示すブロック図である。図12に示すように、車両101は、画像処理装置130及び駐車支援装置230を備える。
(Configuration example of image processing device)
FIG. 12 is a block diagram showing an example of the configuration of the
なお、実施形態2の車両101も、上述の実施形態1の車両1と同様、車体2と、車輪3と、ドアミラー4と、座席5a〜5dと、撮像部としてのカメラ6s,6f,6rと、を少なくとも備える(図1参照)。また、以下の説明において、実施形態1と同じ構成には同じ符号を付し、その説明を省略する。
The
画像処理装置130は、ECU110、入力装置31、及び出力装置32を備える。ただし、画像処理装置130に、カメラ6が含まれてもよい。駐車支援装置230は、ECU110及び車両制御装置20を備える。ただし、駐車支援装置230に、カメラ6、入力装置31、及び出力装置32が含まれてもよい。
The
ECU110は、例えばCPU111、RAM112、及びROM113を備えたコンピュータとして構成されている。ECU110に、HDD等から構成される記憶装置114が内蔵されていてもよい。また、ECU110は、各種センサ等と検出信号および各種情報の送受信が可能なI/Oポート115を備えている。
The ECU 110 is configured as a computer including, for example, a CPU 111, a RAM 112, and a
ECU110のRAM112、ROM113、記憶装置114、及びI/Oポート115の各構成は、例えば内部バスを介してCPU111と各種情報の送受信が可能に構成されている。
Each configuration of the RAM 112,
ECU110は、ROM112にインストールされているプログラムをCPU111が実行することにより、車両101の駐車が可能な空きスペースの検出処理および空きスペースへの駐車経路の算出処理等の駐車支援処理を制御する。
The ECU 110 controls parking support processing such as detection processing of an empty space in which the
また、ECU110は、ROM112にインストールされているプログラムをCPU111が実行することにより、上述のカメラ6からの画像を変換する等の画像処理を制御する。変換された画像は、例えば駐車支援処理における空きスペースの検出処理および俯瞰画像の生成処理等に用いられる。また、ECU110は、変換した画像を後述の出力装置32に出力する処理を制御する。
Further, the ECU 110 controls image processing such as converting the image from the camera 6 described above by executing the program installed in the ROM 112 by the CPU 111. The converted image is used, for example, in a parking support process for detecting an empty space and for generating a bird's-eye view image. Further, the ECU 110 controls a process of outputting the converted image to the
記憶装置114は、例えばキャリブレーションデータ(不図示)及び標準時画像変換データ114aを記憶する。標準時画像変換データ114aには、標準時のカメラ6の姿勢に基づく画像変換用パラメータが格納されている。標準時のカメラ6の姿勢とは、例えばキャリブレーション時のカメラ6の姿勢であり、また例えば、車両101内の乗員がゼロ名の場合のカメラ6の姿勢である。カメラ6の姿勢は、上述の実施形態1と同様、例えばX軸、Y軸、及びZ軸の3軸を用いて規定される。
The storage device 114 stores, for example, calibration data (not shown) and standard time
ここで、カメラ6の姿勢を規定するX軸、Y軸、及びZ軸は、それぞれ概ね車両101の車幅方向に沿う軸、概ね車両101の車長方向に沿う軸、及びカメラ6の光軸と平行な軸である。カメラ6のX軸が「車幅方向に沿う」とは、カメラ6のX軸が、車幅方向と完全に平行である場合のみならず、例えばカメラ6の車両101への取り付け誤差等に起因する誤差範囲内で略平行である場合を含む。カメラ6のY軸が「車長方向に沿う」とは、カメラ6のY軸が、車長方向と完全に平行である場合のみならず、例えばカメラ6の車両101への取り付け誤差等に起因する誤差範囲内で略平行である場合を含む。
Here, the X-axis, Y-axis, and Z-axis that define the posture of the camera 6 are an axis substantially along the vehicle width direction of the
車両制御装置20は、例えば上述の実施形態1と同様に構成される。入力装置31及び表示部としての出力装置32は、例えば上述の実施形態1と同様に構成される。
The
(カメラ姿勢の判定例)
次に、図13〜図15を用いて、実施形態2の画像処理装置130が、カメラ6の実際の姿勢をどのように判定するかについて説明する。画像処理装置130によるカメラ6の姿勢の判定は、例えばカメラ6の高さ位置(Z軸における位置)の判定と、カメラ6のピッチ角(X軸における回転角)の判定と、の2段階で実施される。
(Camera posture judgment example)
Next, how the
図13は、実施形態2にかかる画像処理装置130によるカメラ6sの高さ位置の判定に用いられる撮像画像を示す図である。図13に示す撮像画像は、車両101のドアミラー4に取り付けられたカメラ6sにより撮像された画像である。図13の紙面右手が車両101の前方側であり、紙面左手が車両101の後方側である。
FIG. 13 is a diagram showing an captured image used for determining the height position of the
図13(a)は、車両101内の乗員がゼロ名の場合の撮像画像を示している。
FIG. 13A shows a captured image when there are no occupants in the
図13(a)に示すように、カメラ6sによる撮像画像には、車体2の一部、片側のフロントタイヤ3f、及びフロントタイヤ3fと路面等との接地位置Psが含まれる。このような撮像画像からは、フロントタイヤ3fと路面等との接地位置Psが、撮像画像の全体の縦幅Fwに対してどの位置にあるかを知ることができる。図13(a)は、車両101内の乗員がゼロ名であり、カメラ6sの姿勢が標準時の撮像画像であるため、接地位置Psの撮像画像内における高さ位置は標準の高さFsを示している。
As shown in FIG. 13A, the image captured by the
図13(b)は、車両101内に乗員がいる場合の撮像画像を示している。
FIG. 13B shows a captured image when there is an occupant in the
図13(b)に示すように、車両101内に乗員がいる場合の撮像画像では、フロントタイヤ3fと路面等との接地位置Paが画像内の下方にシフトし、接地位置Psの撮像画像内における高さが、上記の標準の高さFsよりも低い高さFaとなっている。このことは、車両101内の乗員の重量により車体2が沈み込み、カメラ6sから路面までの距離が近くなったことを意味している。
As shown in FIG. 13B, in the captured image when there is an occupant in the
画像処理装置130は、図13(b)の撮像画像から得られた高さFaに基づき、カメラ6sの姿勢の1つとしてカメラ6sの路面からの実際の高さを判定する。
The
なお、画像処理装置130は、カメラ6sの高さを判定するにあたり、車両101の両側に取り付けられた1対のカメラ6sの画像のうち、一方の画像のみを用いてもよく、または、両方の画像を用いてもよい。
In determining the height of the
また、車両101内の乗員配置によって変化しうるX軸およびY軸におけるカメラ6sの位置は、画像変換処理において無視できるほどに小さいと考えられるため、画像処理装置130は、上記のように、例えば主にカメラ6sの高さ(Z軸における位置)について判定を行う。
Further, since the positions of the
以上のように判定された路面からのカメラ6sの高さから、カメラ6sの実際の姿勢として幾つかの状態を想定することができる。判定されたカメラ6sの高さから想定される幾つかの状態を図14に示す。
From the height of the
図14は、実施形態2にかかる画像処理装置130により判定されたカメラ6sの高さ位置と車両101の姿勢との関係を示す模式図である。
FIG. 14 is a schematic view showing the relationship between the height position of the
図14(a)は、画像処理装置130により、カメラ6sが標準の高さDsであると判定された場合の車両101の状態を示している。標準の高さDsは、例えば上述の図13(a)の接地位置Psの撮像画像内における高さFsから求められる。
FIG. 14A shows the state of the
図14(a)に示すように、路面からカメラ6sまでが標準の高さDsであれば、車両101の姿勢も標準状態にあり、車両101内の乗員は例えばゼロ名であると考えられる。
As shown in FIG. 14A, if the height from the road surface to the
図14(b)は、画像処理装置130により、カメラ6sが標準よりも低い高さDaであると判定された場合の車両101の状態の一例を示している。このような高さDaは、例えば上述の図13(b)の接地位置Paの撮像画像内における高さFaから求められる。
FIG. 14B shows an example of the state of the
図14(b)に示すように、カメラ6sが標準よりも低い高さDaである場合、一例として、車両101の全体が一様に沈み込んだために、路面とカメラ6sとの距離が近くなっている状態が考えられる。このような車両101の状態は、例えば車両101の前後の座席に同じ人数の乗員が着座している場合等に生じ得る。
As shown in FIG. 14B, when the
図14(c)は、画像処理装置130により、カメラ6sが標準よりも低い高さDaであると判定された場合の車両101の状態の他の一例を示している。
FIG. 14C shows another example of the state of the
図14(b)に示すように、カメラ6sが標準よりも低い高さDaである場合、他の一例として、車両101の前部が沈み込んだために、路面とカメラ6sとの距離が近くなっている状態が考えられる。つまり、車両101のピッチ角が、実施形態1の例でいえばプラス方向にシフトした状態である(図4参照)。このような車両101の状態は、例えば車両101の前部の座席にのみ乗員が着座している場合や、車両101の前部の座席に後部の座席よりも多く乗員が着座している場合等に生じ得る。
As shown in FIG. 14B, when the
画像処理装置130は、カメラ6sの姿勢をより詳細に把握して、画像変換の精度を高めるため、カメラ6sの回転角の判定を行う。なお、車両101内の乗員配置によって変化しうるロール角(Y軸における回転角)及びヨー角(Z軸における回転角)は、画像変換処理において無視できるほどに小さいと考えられるため、画像処理装置130は、例えば、主にカメラ6sのピッチ角について判定を行う。
The
画像処理装置130がピッチ角の判定を実施するにあたり、車両101の側方近傍に、例えば駐車スペースを区画する複数の区画線等が存在し、それらの区画線がカメラ6sの撮像画像に含まれていることが前提となる。
When the
このような状況は、例えば車両101の運転者が、所定の空きスペースに車両101を横付けしたような場合に生じ得る。つまり、このような状況は、例えば車両101の運転者が、所定の空きスペースに車両101を駐車しようと試みる初期段階に、しばしば生じ得る。
Such a situation may occur, for example, when the driver of the
図15は、実施形態2にかかる画像処理装置130によるカメラ6sの回転角の判定に用いられる撮像画像を示す図である。
FIG. 15 is a diagram showing an captured image used for determining the rotation angle of the
図15(a)に示すように、カメラ6sによる撮像画像には、例えば車両101の側方近傍に位置する駐車スペースの車幅方向を区画する区画線Lf,Lrが含まれている。区画線Lfは、車両101の前方側に位置する区画線である。区画線Lrは、車両101の後方側に位置する区画線である。
As shown in FIG. 15A, the image captured by the
図15(b)に示すように、例えば標準時画像変換データ114aに含まれる画像変換用パラメータを用いて図15(a)の画像を変換する場合、区画線Lf,Lrは互いに平行な線として変換されるものとする。なお、図15(b)の画像は、画像変換処理により真上からの画像に変換された状態を示す。
As shown in FIG. 15 (b), for example, when the image of FIG. 15 (a) is converted using the image conversion parameters included in the standard time
ここで、駐車スペースの実際の区画線Lf,Lrは、通常、互いに平行に配置されていることが多いはずである。画像処理装置130は、実際の区画線Lf,Lrが互いに平行であることを前提として、上記の図15(b)の画像から、カメラ6sのピッチ角がシフトしておらず標準位置にあると判定する。
Here, the actual lane markings Lf and Lr of the parking space should usually be arranged parallel to each other. Assuming that the actual division lines Lf and Lr are parallel to each other, the
なお、撮像画像における区画線Lf,Lrが互いに平行であるか否かの判定は、画像変換後の区画線Lf,Lrのそれぞれの角度に基づいて判定される。区画線Lf,Lrのそれぞれの角度は、例えばカメラ6sの姿勢を規定する仮想線としてのX軸(概ね車幅方向に沿う軸)に対する角度とすることができる。これらの区画線Lf,Lrの角度θf,θrの差分または比率等をこれらの区画線Lf,Lrの平行度とし、平行度が所定値以内であれば、区画線Lf,Lrが互いに平行であると判定することができる。
It should be noted that the determination as to whether or not the division lines Lf and Lr in the captured image are parallel to each other is determined based on the respective angles of the division lines Lf and Lr after the image conversion. The respective angles of the lane markings Lf and Lr can be, for example, angles with respect to the X axis (axis generally along the vehicle width direction) as a virtual line defining the posture of the
図15(c)に示すように、例えば標準時画像変換データ114aに含まれる画像変換用パラメータを用いて図15(a)の画像を変換する場合、区画線Lf,Lrが平行な線として変換されないものとする。なお、図15(c)の画像は、画像変換処理により真上からの画像に変換された状態を示す。
As shown in FIG. 15 (c), for example, when the image of FIG. 15 (a) is converted using the image conversion parameters included in the standard time
このように、区画線Lf,Lrが平行にならないのは、例えば車両101が上述の図14(c)に示すような姿勢となっていることが理由として考えられる。例えば、車両101の前部の座席に、車幅方向に1名ずつ均等に乗員が着座しているような場合(2名乗車の場合)である。なお、撮像画像にこのような変換誤差が生じる場合、区画線Lf,Lrのうち、例えば車両101の前方の区画線Lfよりも、車両101の後方の区画線Lrにおいて誤差が大きくなる場合がある。
It is considered that the reason why the lane markings Lf and Lr are not parallel in this way is that, for example, the
画像処理装置130は、例えば変換後の区画線Lf,Lrの角度θf,θrから平行度を算出し、平行度が所定値を超えていることなどから、区画線Lf,Lrが互いに平行ではないと判定する。つまり、この場合、カメラ6sのピッチ角がシフトしていると判定される。
The
また、画像処理装置130は、変換後の区画線Lf,Lrの角度θf,θrを補正して、互いに平行な線とする場合に必要となる補正値を算出する。補正値を算出するには、例えば実際に画像変換用パラメータを種々に変化させて、それぞれの場合における区画線Lf,Lrの平行度を判定する方法がある。画像処理装置130は、更に、得られた補正値からカメラ6sの実際のピッチ角を判定する。
Further, the
なお、区画線Lf,Lrの平行度を算出する際、画像処理装置130が、区画線Lf,Lrを含む撮像画像の変換を行って、変換画像を実際に生成するとは限らない。画像処理装置130は、変換された撮像画像を生成することなく、未変換の画像から直接的に、演算処理によって区画線Lf,Lrの平行度を算出することができる。
When calculating the parallelism of the lane markings Lf and Lr, the
また、区画線Lf,Lrの角度θf,θrを補正する補正値を算出する際、画像処理装置130が、区画線Lf,Lrの角度θf,θrを補正して、区画線Lf,Lrが互いに平行な線となった画像を実際に生成するとは限らない。画像処理装置130は、撮像画像を補正することなく、演算処理によって上記補正値を算出することができる。
Further, when calculating the correction value for correcting the angles θf and θr of the lane markings Lf and Lr, the
以上により、画像処理装置130は、カメラ6sの路面からの高さ、及びカメラ6sのピッチ角を少なくとも含むカメラ6sの実際の姿勢を判定することができる。画像処理装置130は、得られたカメラ6sの姿勢に基づいて、画像変換用パラメータを算出する。また、画像処理装置130は、算出した画像変換用パラメータを用いて、カメラ6sが撮像した画像を変換する。
From the above, the
画像処理装置130による画像変換処理には、上述の実施形態1の場合と同様、例えば駐車支援装置230による駐車支援処理において空きスペースの検出、並びに空きスペースの広さ及び空きスペースまでの距離の判定等に用いる画像に変換する処理、及び出力装置32である液晶モニタ等に表示する俯瞰画像等に変換する処理等が含まれる。
In the image conversion process by the
画像処理装置130は、上述の実施形態1の場合と同様、例えば変換後の俯瞰画像のほか、駐車支援処理において利用可能に変換された画像を出力装置32に表示してもよい。画像処理装置130は、上述の実施形態1の場合と同様、未変換の画像をそのまま出力装置32に表示してもよい。
Similar to the case of the first embodiment, the
(画像処理装置の処理例)
次に、図16を用いて、実施形態2の画像処理装置130による画像処理の例について説明する。図16は、実施形態2にかかる画像処理装置130による画像処理の手順の一例を示すフロー図である。以下、駐車支援装置230による駐車支援処理の実行中における画像処理装置130の画像処理について説明する。このため、図16には、駐車支援装置230による処理が含まれる。
(Processing example of image processing device)
Next, an example of image processing by the
図16に示すように、ECU110は、タッチ式パネル等である入力装置31から駐車支援処理の開始を指示する操作を受け付ける(ステップS201)。 As shown in FIG. 16, the ECU 110 receives an operation instructing the start of the parking support process from the input device 31 such as a touch panel (step S201).
ECU110は、カメラ6s,6f,6rのうち、少なくともカメラ6sが撮像した画像を取得する(ステップS202)。
The ECU 110 acquires at least an image captured by the
ECU110は、カメラ6sの撮像画像から、例えば車両101のフロントタイヤ3fと路面との接地位置を検出する(ステップS203)。
The ECU 110 detects, for example, the ground contact position between the
ECU110は、検出した接地位置に基づいて、カメラ6sの高さを算出する(ステップS204)。すなわち、ECU110は、検出された接地位置の撮像画像内における高さ位置を検出する。また、ECU110は、接地位置の撮像画像内における高さ位置から、カメラ6sの路面からの高さを算出する。
The ECU 110 calculates the height of the
ECU110は、カメラ6sの撮像画像から、例えば駐車スペースの車幅方向を区画する複数の区画線を検出する(ステップS205)。
The ECU 110 detects, for example, a plurality of division lines for dividing the vehicle width direction of the parking space from the captured image of the
ECU110は、検出した区画線の平行度を算出する(ステップS206)。すなわち、ECU110は、検出した区画線のカメラ6sのX軸に対する角度をそれぞれ算出する。また、ECU110は、算出した区画線のそれぞれの角度から、区画線の平行度を算出する。
The ECU 110 calculates the parallelism of the detected lane markings (step S206). That is, the ECU 110 calculates the angle of the detected lane marking with respect to the X-axis of the
ECU110は、区画線の平行度が所定値以内であるか否かを判定する(ステップS207)。区画線の平行度が所定値以内であれば(ステップS207:Yes)、ECU110は、カメラ6sのピッチ角が標準位置であるものとして、ステップS210の処理に進む。
The ECU 110 determines whether or not the parallelism of the lane markings is within a predetermined value (step S207). If the parallelism of the lane markings is within a predetermined value (step S207: Yes), the ECU 110 proceeds to the process of step S210 assuming that the pitch angle of the
区画線の平行度が所定値を超えていた場合(ステップS207:No)、ECU110は、区画線が平行になる補正値を算出する(ステップS208)。すなわち、ECU110は、区画線の平行度が所定値以内となるよう、区画線の角度を補正することが可能な補正値を算出する。 When the parallelism of the lane markings exceeds a predetermined value (step S207: No), the ECU 110 calculates a correction value for the lane markings to be parallel (step S208). That is, the ECU 110 calculates a correction value capable of correcting the angle of the lane marking so that the parallelism of the lane marking is within a predetermined value.
ECU110は、算出した補正値からカメラ6sのピッチ角を算出する(ステップS209)。
The ECU 110 calculates the pitch angle of the
ECU110は、取得したカメラ6sの高さ及びピッチ角を含むカメラ6sの姿勢に基づき、画像変換用パラメータを算出する(ステップS210)。
The ECU 110 calculates an image conversion parameter based on the posture of the
ECU110は、算出した画像変換用パラメータを用いて、カメラ6からの画像を変換する(ステップS211)。このとき、車両101が備える複数のカメラ6s,6f,6rからのそれぞれの撮像画像が変換されてよい。
The ECU 110 converts the image from the camera 6 using the calculated image conversion parameters (step S211). At this time, the captured images from the plurality of
この後の、駐車支援装置230によるステップS307〜S312の駐車支援処理は、上述の実施形態1の駐車支援装置200によるステップS107〜S112の駐車支援処理と同様に行われる。
Subsequent parking support processing in steps S307 to S312 by the
なお、以上に示すステップS201〜S211,S307〜S312までの処理は、必ずしもこの順に実行されなくともよく、順番の入れ替えが可能な処理については異なる順番で実施されてもよい。また、1つの処理が1つ以上の他の処理と並行して行われてもよい。 The processes of steps S201 to S211 and S307 to S312 shown above do not necessarily have to be executed in this order, and the processes whose order can be changed may be executed in a different order. Further, one process may be performed in parallel with one or more other processes.
また、ECU110は、ステップS308にて画像の出力を開始し、ステップS312にて画像の出力を停止することとしたが、画像の出力の開始のタイミング、及び停止のタイミングは、これ以外のタイミングであってもよい。ECU110は、画像の出力を停止させることなく、継続的に出力するようにしてもよい。 Further, the ECU 110 decides to start the image output in step S308 and stop the image output in step S312, but the image output start timing and the stop timing are other timings. There may be. The ECU 110 may continuously output the image without stopping the output of the image.
以上により、実施形態2の画像処理装置130による画像処理が終了する。
As described above, the image processing by the
実施形態2の画像処理装置130によれば、ECU110は、カメラ6sの撮像画像に含まれるフロントタイヤ3fと路面との接地位置に基づいてカメラ6sの姿勢を判定し、それに応じた画像変換用パラメータを算出する。これにより、画像取得時における車両101内の乗員の人数および配置にしたがって変化するカメラ6sの姿勢に応じて適正に画像変換をすることができる。
According to the
実施形態2の画像処理装置130によれば、ECU110は、カメラ6sの撮像画像に含まれる駐車スペースの区画線Lf,Lrの平行度に基づいてカメラ6sの姿勢を判定し、それに応じた画像変換用パラメータを算出する。これにより、画像取得時における車両101内の乗員の人数および配置にしたがって変化するカメラ6sの姿勢に応じて適正に画像変換をすることができる。
According to the
実施形態2の画像処理装置130によれば、ECU110は、上記の画像変換用パラメータを用いて変換された俯瞰画像を出力装置32に出力し、また、上記の画像変換用パラメータを用いて変換された画像から駐車支援装置230に駐車枠等を検出させる。これにより、例えば出力画像を見た乗員が車両101の周囲の状況を適正に認識することができ、また、駐車支援装置230による駐車支援の精度が高まる。
According to the
なお、上述の実施形態2の画像処理装置130は、カメラ6sの撮像画像に含まれるフロントタイヤ3fと路面との接地位置からカメラ6sの高さを判定することとした。しかし、カメラ6sの撮像画像にはリアタイヤ3rと路面との接地位置が含まれていてもよく、また、車両の適正な位置にカメラを追加することにより、リアタイヤ3rと路面との接地位置を含む撮像画像を別途取得してもよい。この場合、画像処理装置は、リアタイヤ3rと路面との接地位置にのみ基づいてカメラの高さを判定してもよい。または、画像処理装置は、フロントタイヤ3fと路面との接地位置、及びリアタイヤ3rと路面との接地位置の両方に基づいてカメラの高さを判定してもよい。また、画像処理装置は、カメラのピッチ角を判定する際、上述の区画線等を用いる手法に替えて、または加えて、フロントタイヤ3f側の高さと、リアタイヤ3r側の高さとからピッチ角を判定してもよい。
The
[その他の実施形態]
上述の実施形態1,2では、画像処理装置100,130が、駐車支援処理に用いられ、また、駐車支援処理の実行中に表示される画像を変換することとした。しかし、画像処理装置の処理対象となる画像はこれらに限られない。
[Other Embodiments]
In the above-described first and second embodiments, the
上述の実施形態1,2では、画像処理装置100,130は、4輪を備える車両1に搭載されることとしたが、これに限られない。画像処理装置は、モーターバイク等の2輪以上を備える移動体に搭載されることができる。
In the above-described first and second embodiments, the
本開示のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態およびその変形例は、発明の範囲および要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present disclosure have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.
1,101 車両
2 車体
3 車輪
4 ドアミラー
5(5a〜5d) 座席
6(6f,6r,6s) カメラ
7 シートベルト着脱センサ
8 着座センサ
10,110 ECU
11,111 CPU
12,112 RAM
13,113 ROM
14,114 記憶装置
14a マップデータ
15,115 I/Oポート
20 車両制御装置
31 入力装置
32 出力装置
100,130 画像処理装置
114a 標準時画像変換データ
200,230 駐車支援装置
1,101
11,111 CPU
12,112 RAM
13,113 ROM
14,114 Storage device 14a Map data 15,115 I /
Claims (20)
第2車輪と、
前記第1車輪及び前記第2車輪に結合され、前記第1車輪および前記第2車輪によって移動可能な車体と、
前記車体に配置される、少なくとも1名分の乗員用の座席と、
前記車体に配置され、前記車体の周囲を含む画像を撮像する撮像部と、を備える車両であって、
前記撮像部が撮像する前記画像は、前記第1車輪及び前記第2車輪の少なくとも1つを含み、
前記画像に含まれる前記第1車輪および前記第2車輪の前記少なくとも1つの接地位置に基づいて前記撮像部の姿勢を判定し、
判定した前記撮像部の姿勢に基づいて画像変換用パラメータを算出し、
算出した前記画像変換用パラメータを用いて、前記撮像部が撮像した画像を所定の処理に供するように変換する、
車両。 With the first wheel
With the second wheel
A vehicle body coupled to the first wheel and the second wheel and movable by the first wheel and the second wheel.
Seats for at least one occupant placed on the vehicle body,
A vehicle that is arranged on the vehicle body and includes an imaging unit that captures an image including the surroundings of the vehicle body.
The image captured by the imaging unit includes at least one of the first wheel and the second wheel.
The posture of the imaging unit is determined based on at least one ground contact position of the first wheel and the second wheel included in the image.
An image conversion parameter is calculated based on the determined posture of the imaging unit, and the image conversion parameter is calculated.
Using the calculated image conversion parameters, the image captured by the imaging unit is converted so as to be subjected to a predetermined process.
vehicle.
判定する前記撮像部の前記姿勢は、前記接地位置からの前記撮像部の高さを少なくとも含む、
車両。 The vehicle according to claim 1.
The posture of the imaging unit to be determined includes at least the height of the imaging unit from the ground contact position.
vehicle.
前記撮像部が撮像する前記画像に、駐車スペースの車幅方向を区画する複数の線が含まれる場合、
前記接地位置に加え、前記駐車スペースの前記車幅方向を区画する前記複数の線の平行度に基づいて前記撮像部の姿勢を判定する、
車両。 The vehicle according to claim 1 or 2.
When the image captured by the imaging unit includes a plurality of lines that demarcate the vehicle width direction of the parking space.
In addition to the ground contact position, the posture of the imaging unit is determined based on the parallelism of the plurality of lines that partition the vehicle width direction of the parking space.
vehicle.
前記駐車スペースの前記車幅方向を区画する前記複数の線の前記平行度は、
前記車体の車幅方向に平行な仮想線に対する前記複数の線のそれぞれの角度から求められる、
車両。 The vehicle according to claim 3.
The parallelism of the plurality of lines dividing the parking space in the vehicle width direction is
Obtained from the respective angles of the plurality of lines with respect to the virtual line parallel to the vehicle width direction of the vehicle body.
vehicle.
判定する前記撮像部の前記姿勢は、前記車体の車幅方向に沿った軸を回転軸とする前記撮像部のピッチ角を少なくとも含む、
車両。 The vehicle according to claim 3 or 4.
The posture of the image pickup unit to be determined includes at least the pitch angle of the image pickup unit whose rotation axis is an axis along the vehicle width direction of the vehicle body.
vehicle.
前記撮像部は前記車体の側面側に配置されている、
車両。 The vehicle according to any one of claims 1 to 5.
The imaging unit is arranged on the side surface side of the vehicle body.
vehicle.
前記乗員による視認が可能な表示部を更に備え、
前記所定の処理は、前記乗員が前記車体の周囲の状況を認識可能な形式に変換された前記画像を前記表示部に表示させる処理である、
車両。 The vehicle according to any one of claims 1 to 6.
Further equipped with a display unit that can be visually recognized by the occupant,
The predetermined process is a process of displaying the image converted into a format in which the occupant can recognize the surrounding situation of the vehicle body on the display unit.
vehicle.
前記表示部に表示される前記画像は前記車両を含む俯瞰画像である、
車両。 The vehicle according to claim 7.
The image displayed on the display unit is a bird's-eye view image including the vehicle.
vehicle.
前記車両の現在位置から所定の駐車枠までの経路を算出可能に構成され、
前記所定の処理は、前記駐車枠を検出可能な形式に変換された前記画像から前記所定の駐車枠を検出する処理である、
車両。 The vehicle according to any one of claims 1 to 8.
It is configured so that the route from the current position of the vehicle to a predetermined parking frame can be calculated.
The predetermined process is a process of detecting the predetermined parking frame from the image obtained by converting the parking frame into a detectable format.
vehicle.
前記経路に基づき、少なくとも操舵角を制御する車両制御装置を備える、
車両。 The vehicle according to claim 9.
A vehicle control device for controlling at least a steering angle based on the path is provided.
vehicle.
第2車輪と、
前記第1車輪及び前記第2車輪に結合され、前記第1車輪および前記第2車輪によって移動可能な車体と、
前記車体に配置される、少なくとも1名分の乗員用の座席と、
前記車体に配置され、前記車体の周囲を含む画像を撮像する撮像部と、を備える車両に搭載可能な画像処理装置であって、
前記撮像部が撮像する前記画像は、前記第1車輪及び前記第2車輪の少なくとも1つを含み、
前記画像に含まれる前記第1車輪および前記第2車輪の前記少なくとも1つの接地位置に基づいて前記撮像部の姿勢を判定し、
判定した前記撮像部の姿勢に基づいて画像変換用パラメータを算出し、
算出した前記画像変換用パラメータを用いて、前記撮像部が撮像した画像を所定の処理に供するように変換する、
画像処理装置。 With the first wheel
With the second wheel
A vehicle body coupled to the first wheel and the second wheel and movable by the first wheel and the second wheel.
Seats for at least one occupant placed on the vehicle body,
An image processing device that is arranged on the vehicle body and can be mounted on a vehicle including an imaging unit that captures an image including the surroundings of the vehicle body.
The image captured by the imaging unit includes at least one of the first wheel and the second wheel.
The posture of the imaging unit is determined based on at least one ground contact position of the first wheel and the second wheel included in the image.
An image conversion parameter is calculated based on the determined posture of the imaging unit, and the image conversion parameter is calculated.
Using the calculated image conversion parameters, the image captured by the imaging unit is converted so as to be subjected to a predetermined process.
Image processing device.
判定する前記撮像部の前記姿勢は、前記接地位置からの前記撮像部の高さを少なくとも含む、
画像処理装置。 The image processing apparatus according to claim 11.
The posture of the imaging unit to be determined includes at least the height of the imaging unit from the ground contact position.
Image processing device.
前記撮像部が撮像する前記画像に、駐車スペースの車幅方向を区画する複数の線が含まれる場合、
前記接地位置に加え、前記駐車スペースの前記車幅方向を区画する前記複数の線の平行度に基づいて前記撮像部の姿勢を判定する、
画像処理装置。 The image processing apparatus according to claim 11 or 12.
When the image captured by the imaging unit includes a plurality of lines that demarcate the vehicle width direction of the parking space.
In addition to the ground contact position, the posture of the imaging unit is determined based on the parallelism of the plurality of lines that partition the vehicle width direction of the parking space.
Image processing device.
前記駐車スペースの前記車幅方向を区画する前記複数の線の前記平行度は、
前記車体の車幅方向に平行な仮想線に対する前記複数の線のそれぞれの角度から求められる、
画像処理装置。 The image processing apparatus according to claim 13.
The parallelism of the plurality of lines dividing the parking space in the vehicle width direction is
Obtained from the respective angles of the plurality of lines with respect to the virtual line parallel to the vehicle width direction of the vehicle body.
Image processing device.
判定する前記撮像部の前記姿勢は、前記車体の車幅方向に沿った軸を回転軸とする前記撮像部のピッチ角を少なくとも含む、
画像処理装置。 The image processing apparatus according to claim 13 or 14.
The posture of the image pickup unit to be determined includes at least the pitch angle of the image pickup unit whose rotation axis is an axis along the vehicle width direction of the vehicle body.
Image processing device.
前記撮像部は前記車体の側面側に配置されている、
画像処理装置。 The image processing apparatus according to any one of claims 11 to 15.
The imaging unit is arranged on the side surface side of the vehicle body.
Image processing device.
前記車両は、前記乗員による視認が可能な表示部を更に備え、
前記所定の処理は、前記乗員が前記車体の周囲の状況を認識可能な形式に変換された前記画像を前記表示部に表示させる処理である、
画像処理装置。 The image processing apparatus according to any one of claims 11 to 16.
The vehicle further includes a display unit that can be visually recognized by the occupant.
The predetermined process is a process of displaying the image converted into a format in which the occupant can recognize the surrounding situation of the vehicle body on the display unit.
Image processing device.
前記表示部に表示される前記画像は前記車両を含む俯瞰画像である、
画像処理装置。 The image processing apparatus according to claim 17.
The image displayed on the display unit is a bird's-eye view image including the vehicle.
Image processing device.
前記車両の現在位置から所定の駐車枠までの経路を算出可能に構成され、
前記所定の処理は、前記駐車枠を検出可能な形式に変換された前記画像から前記所定の駐車枠を検出する処理である、
画像処理装置。 The image processing apparatus according to any one of claims 11 to 18.
It is configured so that the route from the current position of the vehicle to a predetermined parking frame can be calculated.
The predetermined process is a process of detecting the predetermined parking frame from the image obtained by converting the parking frame into a detectable format.
Image processing device.
前記車両は、前記経路に基づき、少なくとも操舵角を制御する車両制御装置を備える、
画像処理装置。
The image processing apparatus according to claim 19.
The vehicle includes a vehicle control device that controls at least a steering angle based on the route.
Image processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020062081A JP2021160435A (en) | 2020-03-31 | 2020-03-31 | Vehicle and image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020062081A JP2021160435A (en) | 2020-03-31 | 2020-03-31 | Vehicle and image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021160435A true JP2021160435A (en) | 2021-10-11 |
Family
ID=78004302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020062081A Pending JP2021160435A (en) | 2020-03-31 | 2020-03-31 | Vehicle and image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021160435A (en) |
-
2020
- 2020-03-31 JP JP2020062081A patent/JP2021160435A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5561566B2 (en) | Driving assistance device | |
KR101265012B1 (en) | Calibration device, method, and program for onboard camera | |
JP5229451B2 (en) | Automobile lane departure prevention method | |
US9895974B2 (en) | Vehicle control apparatus | |
JP6058256B2 (en) | In-vehicle camera attitude detection apparatus and method | |
US10474898B2 (en) | Image processing apparatus for vehicle | |
WO2019123840A1 (en) | Imaging device, imaging system, and display system | |
JP6565148B2 (en) | Image display control device and image display system | |
JP7211047B2 (en) | Road surface detection device and road surface detection program | |
US20120182426A1 (en) | Vehicle-surroundings monitoring device | |
US11127152B2 (en) | Indoor monitoring device | |
EP3002727B1 (en) | Periphery monitoring apparatus and periphery monitoring system | |
JP7091624B2 (en) | Image processing equipment | |
US20220171275A1 (en) | Image pickup system and image pickup device | |
JP2020104680A (en) | Indoor monitor device | |
JP2021116013A (en) | Vehicle and image processing device | |
JP2015106777A (en) | Image processing system, operation support device, navigation device, and camera device | |
JP2021160435A (en) | Vehicle and image processing device | |
JP7226930B2 (en) | Calibration device and electronic mirror system | |
CN115050089B (en) | Correction device, correction method, automobile data recorder, automobile and storage medium | |
WO2016088150A1 (en) | Vehicle-mounted display device, vehicle, and display method | |
JP2021002790A (en) | Camera parameter setting device, camera parameter setting method, and camera parameter setting program | |
US10846884B2 (en) | Camera calibration device | |
JP7162489B2 (en) | CALIBRATION DEVICE AND CALIBRATION METHOD | |
JP4040620B2 (en) | Vehicle periphery monitoring device |