JP2015106777A - Image processing system, operation support device, navigation device, and camera device - Google Patents

Image processing system, operation support device, navigation device, and camera device Download PDF

Info

Publication number
JP2015106777A
JP2015106777A JP2013247151A JP2013247151A JP2015106777A JP 2015106777 A JP2015106777 A JP 2015106777A JP 2013247151 A JP2013247151 A JP 2013247151A JP 2013247151 A JP2013247151 A JP 2013247151A JP 2015106777 A JP2015106777 A JP 2015106777A
Authority
JP
Japan
Prior art keywords
image
vehicle
image processing
camera
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013247151A
Other languages
Japanese (ja)
Inventor
恭佑 河野
Kyosuke Kono
恭佑 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu General Ltd
Original Assignee
Fujitsu General Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu General Ltd filed Critical Fujitsu General Ltd
Priority to JP2013247151A priority Critical patent/JP2015106777A/en
Publication of JP2015106777A publication Critical patent/JP2015106777A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system capable of improving visibility of an image displayed on the screen of a display device.SOLUTION: An image processing system 24 comprises: a generator 25 which, on the basis of an imaging signal for identifying an image captured by an in-vehicle camera 16, generates an image display signal for identifying an image displayed on the screen of a display device 15; and a processor 26 which performs coordinate transformation on an image of the imaging signal in accordance with a posture information signal indicating variation in the posture of a vehicle relative to the ground surface. Even when the posture of the vehicle varies relative to the ground surface, the inclination of a subject is corrected.

Description

本発明は画像処理装置に関する。   The present invention relates to an image processing apparatus.

特許文献1は車載カメラのキャリブレーション装置を開示する。車載カメラは車両に固定される。車載カメラで校正板が撮像される。校正板には校正パターンが描かれる。校正パターンの画像に基づき車載カメラの位置や姿勢は特定される。位置や姿勢に応じて車載カメラの校正パラメータは特定される。校正パラメータに従って画像内で被写体のずれは修正される。こうして車載カメラのキャリブレーションは実施される。   Patent Document 1 discloses an on-vehicle camera calibration device. The in-vehicle camera is fixed to the vehicle. The calibration plate is imaged by the in-vehicle camera. A calibration pattern is drawn on the calibration plate. The position and orientation of the in-vehicle camera are specified based on the calibration pattern image. The calibration parameters of the in-vehicle camera are specified according to the position and orientation. The deviation of the subject in the image is corrected according to the calibration parameter. Thus, the calibration of the in-vehicle camera is performed.

特開2010−103730号公報JP 2010-103730 A 特開2001−328484号公報JP 2001-328484 A

一度決められた校正パラメータは固定される。その車載カメラに対して変更されることはない。ここで、車両が配置される地面に対して車両が傾くと、車載カメラは同様に傾く。車載カメラで撮像された画像内で被写体は傾く。その一方で、車両は車が配置される地面に平行にしか動くことはできない。その結果、実際の車両の動きと画面内の被写体の動きとの間に方向のずれが生まれる。動きの向きが一致しない。運転手は車両の動きと画面内の被写体の動きとを良好に結び付けることができない。被写体の視認性は低下してしまう。   Once determined, the calibration parameters are fixed. There is no change to the in-vehicle camera. Here, when the vehicle is tilted with respect to the ground on which the vehicle is disposed, the in-vehicle camera is similarly tilted. The subject tilts in the image captured by the in-vehicle camera. On the other hand, the vehicle can only move parallel to the ground where the car is located. As a result, a direction shift occurs between the actual movement of the vehicle and the movement of the subject in the screen. The direction of movement does not match. The driver cannot satisfactorily combine the movement of the vehicle and the movement of the subject in the screen. The visibility of the subject is reduced.

本発明のいくつかの態様によれば、表示装置の画面に映し出される画像の視認性を高めることができる画像処理装置を提供する。   According to some aspects of the present invention, an image processing device capable of improving the visibility of an image displayed on a screen of a display device is provided.

本発明の一態様は、車載カメラで撮像される車外の画像を特定する撮像信号に基づき、表示装置の画面に表示される画像を特定する画像表示信号を生成する生成部と、車両が配置される地面に対して車両の姿勢変化を示す姿勢情報信号に応じて前記撮像信号の画像に座標変換を施す処理部とを備える画像処理装置に関する。   In one embodiment of the present invention, a generation unit that generates an image display signal that specifies an image displayed on a screen of a display device based on an imaging signal that specifies an image outside the vehicle that is captured by a vehicle-mounted camera, and a vehicle are arranged. The present invention relates to an image processing apparatus including a processing unit that performs coordinate transformation on an image of the imaging signal in accordance with a posture information signal indicating a posture change of a vehicle with respect to the ground.

車載カメラは車両に固定される。車両が配置される地面に対して車両の姿勢が変化すると、地面に対して車載カメラの姿勢は同様に変化する。したがって、車載カメラで撮像された画像内で被写体は傾く。このとき、画像に座標変換が施されると、被写体の傾きは修正されることができる。その結果、表示装置の画面には車両が配置される地面に対して傾くことなく真っ直ぐな被写体に基づき画像は映し出される。画像の視認性は確実に高まる。運転手は車両の動きと画面内の被写体の動きとを良好に結び付けることができる。   The in-vehicle camera is fixed to the vehicle. When the attitude of the vehicle changes with respect to the ground on which the vehicle is placed, the attitude of the in-vehicle camera changes similarly with respect to the ground. Accordingly, the subject is tilted in the image captured by the in-vehicle camera. At this time, if coordinate transformation is performed on the image, the inclination of the subject can be corrected. As a result, the image is displayed on the screen of the display device based on the straight subject without tilting with respect to the ground on which the vehicle is placed. The visibility of the image is definitely increased. The driver can satisfactorily link the movement of the vehicle and the movement of the subject in the screen.

前記座標変換は、前記車両に設定される直交三軸座標系の軸回りで角度を変換することができる。こうして角度変換は確実に実現される。   The coordinate conversion can convert an angle around an axis of an orthogonal triaxial coordinate system set in the vehicle. In this way, the angle conversion is reliably realized.

画像処理装置は記憶部をさらに備え、前記生成部は、前記画像表示信号の生成にあたって前記記憶部に記憶されている処理パラメータを用いて前記撮像信号に画像処理を施すことができ、前記処理部は、前記姿勢情報信号に応じて前記処理パラメータを変更することができる。こうして角度変換は確実に実現される。   The image processing apparatus further includes a storage unit, and the generation unit can perform image processing on the imaging signal using a processing parameter stored in the storage unit when generating the image display signal. Can change the processing parameter in accordance with the posture information signal. In this way, the angle conversion is reliably realized.

前記画像処理は俯瞰変換であることができる。撮像信号の画像では被写体の傾きは修正されることから、俯瞰変換後の画像では車両が配置される地面に対して垂直方向の視線で被写体は映し出されることができる。   The image processing may be overhead conversion. Since the inclination of the subject is corrected in the image of the imaging signal, the subject can be projected with a line of sight perpendicular to the ground on which the vehicle is placed in the image after the overhead conversion.

以上のような画像処理装置は運転支援装置に組み込まれることができる。このとき、運転支援装置は画像処理装置を備える。こうした運転支援装置は例えば車両に搭載されて利用されることができる。   The image processing apparatus as described above can be incorporated in the driving support apparatus. At this time, the driving support device includes an image processing device. Such a driving support device can be used by being mounted on a vehicle, for example.

その他、以上のような画像処理装置はナビゲーション装置に組み込まれることができる。このとき、ナビゲーション装置は画像処理装置を備える。こうしたナビゲーション装置は例えば車両に搭載されて利用されることができる。   In addition, the image processing apparatus as described above can be incorporated in a navigation apparatus. At this time, the navigation device includes an image processing device. Such a navigation device can be used by being mounted on a vehicle, for example.

その他、以上のような画像処理装置はカメラ装置に組み込まれることができる。このとき、カメラ装置はデータ変換装置を備える。こうしたカメラ装置は車両に搭載されて利用されることができる。   In addition, the image processing apparatus as described above can be incorporated in the camera apparatus. At this time, the camera device includes a data conversion device. Such a camera device can be used by being mounted on a vehicle.

以上のように開示の装置によれば、表示装置の画面に映し出される画像の視認性は高まる。   As described above, according to the disclosed device, the visibility of the image displayed on the screen of the display device is enhanced.

一実施形態に係る車両すなわち自動車の全体像を概略的に示す斜視図である。1 is a perspective view schematically showing an overall image of a vehicle, that is, an automobile according to an embodiment. 運転支援装置の構成を概略的に示すブロック図である。It is a block diagram which shows the structure of a driving assistance device roughly. ディスプレイパネルの画面に表示される画像の一具体例を示す図である。It is a figure which shows an example of the image displayed on the screen of a display panel. カメラ装置で撮像される画像の一具体例を示す図である。It is a figure which shows an example of the image imaged with a camera apparatus. カメラ装置で撮像される画像の他の具体例を示す図である。It is a figure which shows the other specific example of the image imaged with a camera apparatus. カメラ装置で撮像される画像のさらに他の具体例を示す図である。It is a figure which shows the other specific example of the image imaged with a camera apparatus. ディスプレイパネルの画面に表示される画像の他の具体例を示す図である。It is a figure which shows the other specific example of the image displayed on the screen of a display panel. カメラ装置で撮像される画像のさらに他の具体例を示す図である。It is a figure which shows the other specific example of the image imaged with a camera apparatus. ディスプレイパネルの画面に表示される画像のさらに他の具体例を示す図である。It is a figure which shows the other specific example of the image displayed on the screen of a display panel. カメラ装置で撮像される画像のさらに他の具体例を示す図である。It is a figure which shows the other specific example of the image imaged with a camera apparatus. 他の実施形態に係る車両すなわち自動車の全体像を概略的に示す斜視図である。It is a perspective view which shows roughly the whole image of the vehicle which concerns on other embodiment, ie, a motor vehicle.

以下、添付図面を参照しつつ本発明の一実施形態を説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

図1は一実施形態に係る自動車11を概略的に示す。自動車11の車両12には運転支援装置13が搭載される。運転支援装置13はナビゲーション装置14を備える。ナビゲーション装置14はディスプレイパネル(表示装置)15を有する。ディスプレイパネル15は例えば車両12のダッシュボードに組み込まれることができる。ディスプレイパネル15の表示画面には地図その他の情報が表示されることができる。   FIG. 1 schematically shows an automobile 11 according to an embodiment. A driving support device 13 is mounted on the vehicle 12 of the automobile 11. The driving support device 13 includes a navigation device 14. The navigation device 14 has a display panel (display device) 15. The display panel 15 can be incorporated in the dashboard of the vehicle 12, for example. A map and other information can be displayed on the display screen of the display panel 15.

運転支援装置13はカメラ装置16を備える。カメラ装置16は例えば車両12の後部に設置される。カメラ装置16は例えば車両12のリアバンパーの上方に取り付けられる。カメラ装置16の光軸17は例えば水平面に対して所定の角度に設定される。光軸17は、車両12から後方に離れるにつれて車両12が置かれている地面に近づくように傾斜する。カメラ装置16は車両12後方の被写体を撮像する。ここでは、光軸17に対して水平方向および垂直方向にいずれも少なくとも±90°の画角範囲で被写体の撮像画像は取得される。   The driving support device 13 includes a camera device 16. The camera device 16 is installed in the rear part of the vehicle 12, for example. The camera device 16 is attached above the rear bumper of the vehicle 12, for example. The optical axis 17 of the camera device 16 is set at a predetermined angle with respect to the horizontal plane, for example. The optical axis 17 is inclined so as to approach the ground on which the vehicle 12 is placed as it moves backward from the vehicle 12. The camera device 16 images a subject behind the vehicle 12. Here, a captured image of the subject is acquired in an angle of view range of at least ± 90 ° in both the horizontal and vertical directions with respect to the optical axis 17.

カメラ装置16は撮像画像に基づき表示画像の画像信号(以下「表示用画像信号」という)を生成する。表示用画像信号は車両12後方に関してカメラ視点の画像や車両12が配置される地面の俯瞰画像を特定する。画像や俯瞰画像は任意に切り替えられればよい。カメラ装置16はナビゲーション装置14に接続される。ナビゲーション装置14にはカメラ装置16から表示用画像信号が供給される。ディスプレイパネル15の表示画面には表示用画像信号に基づき車両12後方の映像が表示されることができる。この運転支援装置13では、例えば駐車場で駐車スペースに後進で進入する際に運転手は車両12の後方の様子を確認することができる。こうして運転支援装置13は運転手の後方確認を支援することができる。車両12はドア18を備える。ドア18は乗員の乗降に開閉される。   The camera device 16 generates an image signal of the display image (hereinafter referred to as “display image signal”) based on the captured image. The display image signal specifies an image of the camera viewpoint with respect to the rear of the vehicle 12 and an overhead image of the ground on which the vehicle 12 is arranged. The image or the overhead image may be switched arbitrarily. The camera device 16 is connected to the navigation device 14. A display image signal is supplied from the camera device 16 to the navigation device 14. An image behind the vehicle 12 can be displayed on the display screen of the display panel 15 based on the display image signal. In this driving support device 13, for example, the driver can check the state behind the vehicle 12 when entering the parking space backward in a parking lot. In this way, the driving support device 13 can support the driver's backward confirmation. The vehicle 12 includes a door 18. The door 18 is opened and closed for passengers to get on and off.

図2に示されるように、カメラ装置16は魚眼レンズ21を備える。魚眼レンズ21は、例えば光軸17に直交する赤道面を有する半球面で被写体の入射面を規定する。その結果、被写体から反射する光は、光軸17に対して水平方向および垂直方向にいずれも少なくとも±90°の画角範囲で入射する。画像では円の中心から外側に遠ざかるにつれて被写体は縮小する。   As shown in FIG. 2, the camera device 16 includes a fisheye lens 21. The fish-eye lens 21 defines, for example, an incident surface of a subject with a hemispherical surface having an equator plane orthogonal to the optical axis 17. As a result, the light reflected from the subject is incident on the optical axis 17 in the horizontal and vertical directions in an angle of view range of at least ± 90 °. In the image, the subject shrinks away from the center of the circle.

カメラ装置16は撮像素子22を備える。撮像素子22は、魚眼レンズ21から投影される被写体の画像を電気信号に変換する。撮像素子22はマトリクス状に配置された画素を備える。撮像素子22の撮像面に設定される二次元座標系に従って個々の画素の位置は特定される。例えばベイヤー配列ではRGGB(赤緑緑青)の電気信号で被写体の色が表現される。   The camera device 16 includes an image sensor 22. The image sensor 22 converts an image of a subject projected from the fisheye lens 21 into an electric signal. The image sensor 22 includes pixels arranged in a matrix. The position of each pixel is specified according to a two-dimensional coordinate system set on the imaging surface of the image sensor 22. For example, in the Bayer array, the color of the subject is expressed by an electrical signal of RGGB (red green green blue).

カメラ装置16は画像処理部23を備える。画像処理部23は撮像素子22に電気的に接続される。画像処理部23は画素の位置すなわちアドレスを順次指定しながら画素の電気信号を読み出す。画像処理部23はデジタルの撮像信号すなわち撮像データを出力する。撮像データは画素ごとに画像情報を特定する。   The camera device 16 includes an image processing unit 23. The image processing unit 23 is electrically connected to the image sensor 22. The image processing unit 23 reads out the electrical signals of the pixels while sequentially specifying the pixel positions, that is, addresses. The image processing unit 23 outputs a digital imaging signal, that is, imaging data. The imaging data specifies image information for each pixel.

カメラ装置16には画像処理装置24が組み込まれる。画像処理装置24は画像処理部23から撮像データを受信する。画像処理装置24は表示画像生成部25および処理部26を備える。表示画像生成部25は、撮像データに基づき、ディスプレイパネル15の画面に表示される画像を特定する画像表示信号を生成する。表示画像生成部25は画像表示信号の生成にあたって処理パラメータを用いて撮像データに俯瞰変換を施す。処理パラメータは例えば記憶部27から取得されればよい。このとき記憶部27には固定の処理パラメータが複数予め記憶されていてもよいし、車両12が配置される地面に対して車両12の姿勢変化を示す姿勢情報信号に応じて処理部26で演算された処理パラメータを記憶してもよい。記憶部27では撮像データの個々の画素ごとに画面上の座標値が指定される。俯瞰変換により俯瞰画像は生成される。   An image processing device 24 is incorporated in the camera device 16. The image processing device 24 receives imaging data from the image processing unit 23. The image processing device 24 includes a display image generation unit 25 and a processing unit 26. The display image generation unit 25 generates an image display signal that specifies an image displayed on the screen of the display panel 15 based on the imaging data. The display image generation unit 25 performs overhead conversion on the imaging data using the processing parameters when generating the image display signal. The processing parameter may be acquired from the storage unit 27, for example. At this time, a plurality of fixed processing parameters may be stored in the storage unit 27 in advance, or calculation is performed by the processing unit 26 according to an attitude information signal indicating the attitude change of the vehicle 12 with respect to the ground on which the vehicle 12 is placed. The processed parameters may be stored. In the storage unit 27, coordinate values on the screen are designated for each pixel of the imaging data. An overhead image is generated by the overhead conversion.

処理部26は姿勢情報信号に応じて前記撮像信号の画像に座標変換を施す。処理部26は姿勢情報信号に応じて処理パラメータを変更する。変更分によれば画面内で車両12が配置される地面に対して被写体の傾きは解消される。処理パラメータは車両12の姿勢に応じて変更される。記憶部27には傾きの角度ごとに1対1で処理パラメータを記憶させておいてもよいし、姿勢に応じて処理パラメータを処理部26で演算させてもよい。   The processing unit 26 performs coordinate conversion on the image of the imaging signal in accordance with the attitude information signal. The processing unit 26 changes the processing parameter according to the attitude information signal. According to the changed portion, the inclination of the subject with respect to the ground on which the vehicle 12 is arranged in the screen is eliminated. The processing parameter is changed according to the attitude of the vehicle 12. The storage unit 27 may store the processing parameters on a one-to-one basis for each tilt angle, or the processing unit 26 may calculate the processing parameters according to the posture.

処理部26には個々の車輪(右前輪FR、左前輪FL、右後輪RR、左後輪RL)ごとに設けられた検出センサ28が接続される。個々の検出センサ28の信号線はコネクタ29に接続される。検出センサ28は対応の車輪FR、FL、RR、RLに取り付けられるサスペンション31の沈み量を検出する。車輪FR、FL、RR、RLごとの沈み量に応じて車両12の姿勢は姿勢情報信号として出力される。ここでは、例えば車両12単体の重心に直交三軸座標系の原点が当てはめられる。直交三軸座標系の1軸(例えばz軸)は車両12が配置される地面に平行に車両12の前後方向を規定し、1軸(例えばx軸)は車両12が配置される地面に平行に車両12の車幅方向を規定し、1軸(例えばy軸)は車両12が配置される地面に直交する方向を規定する。車両12の姿勢は例えば直交三軸座標系の各軸回りの回転角で特定される。処理パラメータはこれら回転角を打ち消す値に設定される。   The processing unit 26 is connected to a detection sensor 28 provided for each wheel (right front wheel FR, left front wheel FL, right rear wheel RR, left rear wheel RL). Signal lines of the individual detection sensors 28 are connected to the connector 29. The detection sensor 28 detects the sinking amount of the suspension 31 attached to the corresponding wheels FR, FL, RR, RL. The attitude of the vehicle 12 is output as an attitude information signal according to the amount of sinking for each of the wheels FR, FL, RR, and RL. Here, for example, the origin of the orthogonal triaxial coordinate system is applied to the center of gravity of the vehicle 12 alone. One axis (for example, z-axis) of the orthogonal triaxial coordinate system defines the front-rear direction of the vehicle 12 parallel to the ground on which the vehicle 12 is disposed, and one axis (for example, x-axis) is parallel to the ground on which the vehicle 12 is disposed. The vehicle width direction of the vehicle 12 is defined, and one axis (for example, the y-axis) defines a direction orthogonal to the ground on which the vehicle 12 is disposed. The posture of the vehicle 12 is specified by, for example, the rotation angle around each axis of the orthogonal triaxial coordinate system. The processing parameter is set to a value that cancels these rotation angles.

処理部26にはロックセンサ32が接続される。ロックセンサ32の信号線はコネクタ33に接続される。ロックセンサ32はドアロック34の操作を検出する。ドアロック34の施錠や解錠は例えば無線や光通信を通じて電気的に実現される。ドアロック34は解錠の動作を検出すると検出信号を出力する。処理部26は検出信号の受信に応じて検出センサ28の初期値を取得する。自動車11のエンジンが停止し、キーが抜かれ所定時間(例えば10分)以上経過した以降に、ドアロック34が解除されたときには、自動車11にはだれも乗車していないと推定されることから、車両12の姿勢は基準姿勢に相当する。検出センサ28の出力によれば、基準姿勢からの車両12の姿勢変化は特定されることができる。   A lock sensor 32 is connected to the processing unit 26. The signal line of the lock sensor 32 is connected to the connector 33. The lock sensor 32 detects the operation of the door lock 34. Locking and unlocking of the door lock 34 is realized electrically, for example, through radio or optical communication. When the door lock 34 detects the unlocking operation, it outputs a detection signal. The processing unit 26 acquires an initial value of the detection sensor 28 in response to reception of the detection signal. When the door lock 34 is released after the engine of the automobile 11 is stopped and the key is removed and a predetermined time (for example, 10 minutes) has elapsed, it is estimated that nobody is in the automobile 11. The 12 postures correspond to the reference postures. According to the output of the detection sensor 28, the posture change of the vehicle 12 from the reference posture can be specified.

ナビゲーション装置14は演算処理部36を備える。演算処理部36は画像処理装置24に電気的に接続される。演算処理部36は例えばMPU(マイクロプロセッサユニット)およびメモリを有することができる。例えばメモリに格納されるソフトウェアに従ってMPUは動作することができる。演算処理部36はソフトウェアで実行される処理に従ってカメラ装置16から画像処理装置24により座標変換された後の画像情報を取得することができる。演算処理部36はナビゲーション装置14のナビゲーション動作と運転支援動作とを切り替えることができる。例えば自動車11のギアがバックに入れられると、演算処理部36はナビゲーション動作から運転支援動作にナビゲーション装置14を切り替えることができる。   The navigation device 14 includes an arithmetic processing unit 36. The arithmetic processing unit 36 is electrically connected to the image processing device 24. The arithmetic processing unit 36 can have, for example, an MPU (microprocessor unit) and a memory. For example, the MPU can operate according to software stored in the memory. The arithmetic processing unit 36 can acquire image information after the coordinate conversion is performed by the image processing device 24 from the camera device 16 in accordance with processing executed by software. The arithmetic processing unit 36 can switch between the navigation operation and the driving support operation of the navigation device 14. For example, when the gear of the automobile 11 is put in the back, the arithmetic processing unit 36 can switch the navigation device 14 from the navigation operation to the driving support operation.

ディスプレイパネル15は演算処理部36に電気的に接続される。ディスプレイパネル15には演算処理部36から画像情報が供給される。供給される画像情報に応じてディスプレイパネル15の表示画面には地図や車両12後方の映像が映し出されることができる。   The display panel 15 is electrically connected to the arithmetic processing unit 36. Image information is supplied from the arithmetic processing unit 36 to the display panel 15. Depending on the supplied image information, a map or a video behind the vehicle 12 can be displayed on the display screen of the display panel 15.

次に運転支援装置13の動作を間単に説明する。自動車11に乗員等が乗り込み、ドア18が閉じられ、エンジンが始動されると、検出センサ28は沈み量の初期値を特定する。処理部26は初期値からの乖離量に基づき車両12の傾きを検出する。処理部26は車両12に設定される三次元座標系の軸回りでそれぞれ回転角を算出する。処理部26は算出された回転角を打ち消す形で処理パラメータを特定する。処理部26は回転角の変化に応じて処理パラメータを変更する。   Next, the operation of the driving support device 13 will be briefly described. When an occupant or the like gets into the automobile 11, the door 18 is closed, and the engine is started, the detection sensor 28 specifies the initial value of the sinking amount. The processing unit 26 detects the inclination of the vehicle 12 based on the amount of deviation from the initial value. The processing unit 26 calculates a rotation angle around each axis of the three-dimensional coordinate system set for the vehicle 12. The processing unit 26 specifies the processing parameter in a form that cancels the calculated rotation angle. The processing unit 26 changes the processing parameter according to the change in the rotation angle.

いま、例えば後部座席に乗員が乗車し車両12の後方が沈む場合を想定する。このとき、処理部26はx軸回りで車両12の傾き(チルト角)を検出し姿勢情報信号として出力する。出力された姿勢情報信号に応じて処理パラメータは変更される。ここで、自動車11のギアがバックギアに入れられると、演算処理部36はナビゲーション動作から運転支援動作にナビゲーション装置14を切り替える。記憶部27に格納されている処理パラメータと姿勢情信号とに基づき俯瞰画像ではカメラ視線の傾きは修正される。修正は、記憶部27に多数の処理パラメータを格納しておき、姿勢制御信号に基づき処理部26で選択する形でもよいし、予め初期値として記憶部27に格納されている処理パラメータに、姿勢情報信号を基に処理部26で演算された値を加減算する形でもよい。図3に示されるように、ディスプレイパネル15の画面には車両12が配置される地面に対して傾くことなく真っ直ぐなカメラ視線に基づき俯瞰画像は映し出される。画像の視認性は高まる。したがって、運転手は車両12の動きと画面内の被写体の動きとを良好に結び付けることができる。運転手は車両12と駐車線との平行度を容易く確認することができる。運転手は良好にバックから駐車スペース内で規定の位置に自動車11を止めることができる。その一方で、カメラ装置16で撮像される画像では、カメラ装置16の光軸17は下向きに傾くことから、図4に示されるように、被写体の範囲が狭まると同時にy軸に平行な直線は車両12から遠ざかるにつれて相互に離れるように傾斜する。こうした画像がそのままディスプレイパネル15の画面に映し出されると、車両12と駐車線との平行度を確認することは難しい。バックで駐車スペース内の規定の位置に向かって進むことは難しい。駐車動作の支援に支障を来す。   Now, for example, a case is assumed where an occupant gets on the rear seat and the rear of the vehicle 12 sinks. At this time, the processing unit 26 detects the tilt (tilt angle) of the vehicle 12 around the x axis and outputs it as an attitude information signal. The processing parameter is changed according to the output attitude information signal. Here, when the gear of the automobile 11 is put in the back gear, the arithmetic processing unit 36 switches the navigation device 14 from the navigation operation to the driving support operation. Based on the processing parameters and the attitude information signal stored in the storage unit 27, the inclination of the camera line of sight is corrected in the overhead image. The correction may be performed by storing a large number of processing parameters in the storage unit 27 and selecting them by the processing unit 26 based on the attitude control signal. Alternatively, the processing parameters stored in the storage unit 27 as initial values in advance The value calculated by the processing unit 26 based on the information signal may be added or subtracted. As shown in FIG. 3, a bird's-eye view image is displayed on the screen of the display panel 15 based on a straight camera line of sight without tilting with respect to the ground on which the vehicle 12 is placed. The visibility of the image is increased. Therefore, the driver can satisfactorily link the movement of the vehicle 12 and the movement of the subject in the screen. The driver can easily check the parallelism between the vehicle 12 and the parking line. The driver can satisfactorily stop the automobile 11 at the specified position in the parking space from the back. On the other hand, in the image captured by the camera device 16, the optical axis 17 of the camera device 16 is inclined downward, so that the straight line parallel to the y-axis is simultaneously reduced as shown in FIG. As the vehicle 12 moves away from the vehicle 12, the vehicle tilts away from each other. If such an image is displayed on the screen of the display panel 15 as it is, it is difficult to confirm the parallelism between the vehicle 12 and the parking line. It is difficult to go back to the specified position in the parking space. This hinders support for parking operations.

例えば自動車11の助手席側に前後の座席で多人数が乗り込むと、処理部26はz軸回りで車両12の傾き(ロール角)を姿勢情報信号として出力する。出力された姿勢情報信号に応じて処理パラメータは変更される。記憶部27の処理パラメータに基づき俯瞰画像ではカメラ視線の傾きは修正される。前述と同様に、ディスプレイパネル15の画面には車両12が配置される地面に対して傾くことなく真っ直ぐなカメラ視線に基づき俯瞰画像は映し出される。その一方で、カメラ装置16で撮像される画像では、図5に示されるように、画面の左右で被写体の遠近が描写される。こうした画像がそのままディスプレイパネル15の画面に映し出されると、運転手は操舵の操作と画面内の被写体の動きとを関連づけることが難しい。バックで駐車スペース内の規定の位置に向かって進むことは難しい。駐車動作の支援に支障を来す。   For example, when a large number of people enter the passenger seat side of the automobile 11 in the front and rear seats, the processing unit 26 outputs the inclination (roll angle) of the vehicle 12 around the z axis as an attitude information signal. The processing parameter is changed according to the output attitude information signal. Based on the processing parameters in the storage unit 27, the inclination of the camera line of sight is corrected in the overhead view image. As described above, the overhead image is projected on the screen of the display panel 15 based on a straight camera line of sight without tilting with respect to the ground on which the vehicle 12 is placed. On the other hand, in the image captured by the camera device 16, the perspective of the subject is depicted on the left and right of the screen as shown in FIG. If such an image is displayed on the screen of the display panel 15 as it is, it is difficult for the driver to associate the steering operation with the movement of the subject in the screen. It is difficult to go back to the specified position in the parking space. This hinders support for parking operations.

その他、乗員の乗車位置やサスペンション31の設定に応じて、処理部26はy軸回りで車両12の傾き(パン角)を姿勢情報信号として出力する。出力された姿勢情報信号に応じて処理パラメータは変更される。記憶部27の処理パラメータに基づき俯瞰画像ではカメラ視線の傾きは修正される。前述と同様に、ディスプレイパネル15の画面には車両12が配置される地面に対して傾くことなく真っ直ぐなカメラ視線に基づき俯瞰画像は映し出される。その一方で、カメラ装置16で撮像される画像では、図6に示されるように、車両12の直進方向は左右の中心線から傾いて描写される。こうした画像がそのままディスプレイパネル15の画面に映し出されると、運転手は操舵の操作と画面内の被写体の動きとを関連づけることが難しい。バックで駐車スペース内の規定の位置に向かって進むことは難しい。駐車動作の支援に支障を来す。   In addition, the processing unit 26 outputs the inclination (pan angle) of the vehicle 12 about the y axis as an attitude information signal according to the occupant's boarding position and the setting of the suspension 31. The processing parameter is changed according to the output attitude information signal. Based on the processing parameters in the storage unit 27, the inclination of the camera line of sight is corrected in the overhead view image. As described above, the overhead image is projected on the screen of the display panel 15 based on a straight camera line of sight without tilting with respect to the ground on which the vehicle 12 is placed. On the other hand, in the image captured by the camera device 16, as shown in FIG. 6, the straight traveling direction of the vehicle 12 is depicted tilted from the left and right center lines. If such an image is displayed on the screen of the display panel 15 as it is, it is difficult for the driver to associate the steering operation with the movement of the subject in the screen. It is difficult to go back to the specified position in the parking space. This hinders support for parking operations.

表示画像生成部25は前述の俯瞰変換に代えてガイド線重畳処理を実施してもよい。図7に示されるように、ガイド線(図中の点線)38は画面内で地平線に平行に描かれる。ガイド線38は車両12が配置される地面の特定の位置を示す。図7では実際の駐車スペースでガイド線38に対応する位置に白テープ39が貼られる。白テープ39は被写体の一部として撮像される。処理部26は前述と同様に車両12が配置される地面に対して車両12の姿勢変化を検出する。検出された傾きに応じて処理パラメータは変更される。記憶部27の処理パラメータに基づき画像では車両12が配置される地面の傾きは修正される。ディスプレイパネル15の画面には地面に対して傾くことなく真っ直ぐなカメラ視線で遠近画像は映し出される。その一方で、カメラ装置16で撮像される画像では、図8に示されるように、画面の水平線に対して車両12が配置される地面は傾いて描写される。ガイド線38は車両12が配置される地面の水平方向に重なることができない。こうした画像がそのままディスプレイパネル15の画面に映し出されると、運転手は操舵の操作と画面内の被写体の動きとを関連づけることが難しい。バックで駐車スペース内の規定の位置に向かって進むことは難しい。駐車動作の支援に支障を来す。   The display image generation unit 25 may perform guide line superimposing processing instead of the above-described overhead conversion. As shown in FIG. 7, a guide line (dotted line in the figure) 38 is drawn in parallel with the horizon in the screen. The guide line 38 indicates a specific position on the ground where the vehicle 12 is disposed. In FIG. 7, the white tape 39 is pasted at a position corresponding to the guide line 38 in the actual parking space. The white tape 39 is imaged as part of the subject. The processing unit 26 detects a change in the attitude of the vehicle 12 with respect to the ground on which the vehicle 12 is arranged, as described above. The processing parameter is changed according to the detected inclination. Based on the processing parameters of the storage unit 27, the inclination of the ground on which the vehicle 12 is arranged is corrected in the image. A perspective image is projected on the screen of the display panel 15 with a straight line of sight of the camera without tilting with respect to the ground. On the other hand, in the image captured by the camera device 16, as shown in FIG. 8, the ground on which the vehicle 12 is disposed is depicted with an inclination with respect to the horizontal line of the screen. The guide line 38 cannot overlap the horizontal direction of the ground on which the vehicle 12 is disposed. If such an image is displayed on the screen of the display panel 15 as it is, it is difficult for the driver to associate the steering operation with the movement of the subject in the screen. It is difficult to go back to the specified position in the parking space. This hinders support for parking operations.

表示画像生成部25では前述の俯瞰変換に代えて画像は水平なカメラ視線の画像に変換されてもよい。魚眼レンズ21で撮像される撮像画像では光軸17から画面の縁に向かって遠ざかるにつれて被写体は拡大する。その結果、実空間の水平面に直交する被写体の直線形状や、光軸17を含む鉛直平面に直交する被写体の直線形状は損なわれ、直線形状は湾曲する。特に、光軸17が下向きに傾く場合には、車両12が配置される地面が湾曲したり道路脇の建物が傾いたり被写体は不自然に描写される。図9に示されるように、画面の下縁から地平線の中央位置に向かって直進性が維持されつつ、同時に画面の垂直方向に被写体の直線形状が維持されると、水平なカメラ視線の画像は得られる。こうした変換にあたって処理部26は前述と同様に車両12が配置される地面に対して車両12の姿勢変化を検出する。検出された傾きに応じて処理パラメータは変更される。記憶部27の処理パラメータに基づき画像では地面の傾きは修正される。ディスプレイパネル15の画面には車両12が配置される地面に対して傾くことなく真っ直ぐなカメラ視線で遠近画像は映し出される。その一方で、カメラ装置16で撮像される画像では、図10に示されるように、画面の水平線に対して車両12が配置される地面は傾いて描写される。同様に、水平線に直交する垂直線は傾いて描写される。こうした画像がそのままディスプレイパネル15の画面に映し出されると、運転手は操舵の操作と画面内の被写体の動きとを関連づけることが難しい。バックで駐車スペース内の規定の位置に向かって進むことは難しい。駐車動作の支援に支障を来す。   In the display image generation unit 25, instead of the above-described overhead view conversion, the image may be converted into an image of a horizontal camera line of sight. In the picked-up image picked up by the fisheye lens 21, the subject expands as it moves away from the optical axis 17 toward the edge of the screen. As a result, the linear shape of the subject orthogonal to the horizontal plane in real space and the linear shape of the subject orthogonal to the vertical plane including the optical axis 17 are impaired, and the linear shape is curved. In particular, when the optical axis 17 is tilted downward, the ground on which the vehicle 12 is placed is curved, the building beside the road is tilted, and the subject is depicted unnaturally. As shown in FIG. 9, when the straight line shape of the subject is maintained in the vertical direction of the screen while maintaining straightness from the lower edge of the screen toward the center of the horizon, the image of the horizontal camera line of sight is can get. In such conversion, the processing unit 26 detects a change in the attitude of the vehicle 12 with respect to the ground on which the vehicle 12 is arranged, as described above. The processing parameter is changed according to the detected inclination. Based on the processing parameters in the storage unit 27, the inclination of the ground is corrected in the image. The perspective image is displayed on the screen of the display panel 15 with a straight camera line of sight without tilting with respect to the ground on which the vehicle 12 is placed. On the other hand, in the image captured by the camera device 16, as shown in FIG. 10, the ground on which the vehicle 12 is disposed is depicted with an inclination with respect to the horizontal line of the screen. Similarly, a vertical line perpendicular to the horizontal line is depicted tilted. If such an image is displayed on the screen of the display panel 15 as it is, it is difficult for the driver to associate the steering operation with the movement of the subject in the screen. It is difficult to go back to the specified position in the parking space. This hinders support for parking operations.

図11に示されるように、カメラ装置16は車両12前方の被写体を撮像してもよい。こうした撮像画像は例えば自動車11の自動運転やブレーキ支援システムなどに利用されることができる。例えば画像認識技術に基づき車両12前方の環境は把握されることができる。カメラ装置16は車両12の前後に搭載されてもよい。   As shown in FIG. 11, the camera device 16 may image a subject in front of the vehicle 12. Such captured images can be used, for example, for automatic driving of the automobile 11 or a brake support system. For example, the environment in front of the vehicle 12 can be grasped based on the image recognition technology. The camera device 16 may be mounted before and after the vehicle 12.

なお、カメラ装置16のレンズは必ずしも前述のように魚眼レンズ21である必要はなく中心射影方式のレンズが用いられてもよい。また、車両12の傾きを検出する検出センサ28には座席に組み込まれる重量センサが用いられることができる。例えばシートベルト着用の警告信号に用いられる座席センサが車両12の傾きの検出に利用されれば、運転支援装置13の実現にあたってコストは低減されることができる。その他、検出センサ28の初期値は、エンジン停止時のドアロック34の解錠に応じて特定される必要はなく、予め個々の検出センサ28ごとに絶対値として処理部26に保存されてもよい。また、画像処理装置24は、前述のようにカメラ装置16に組み込まれることができるだけでなく、カメラ装置16とは別に構成されてもよく、ナビゲーション装置14に組み込まれてもよい。   The lens of the camera device 16 does not necessarily have to be the fisheye lens 21 as described above, and a central projection type lens may be used. A weight sensor incorporated in the seat can be used as the detection sensor 28 that detects the inclination of the vehicle 12. For example, if a seat sensor used for a warning signal for wearing a seat belt is used to detect the inclination of the vehicle 12, the cost for realizing the driving support device 13 can be reduced. In addition, the initial value of the detection sensor 28 does not need to be specified according to the unlocking of the door lock 34 when the engine is stopped, and may be stored in advance in the processing unit 26 as an absolute value for each individual detection sensor 28. . Further, the image processing device 24 can be incorporated not only in the camera device 16 as described above, but also may be configured separately from the camera device 16 or may be incorporated in the navigation device 14.

12 車両、13 運転支援装置、14 ナビゲーション装置、15 表示装置(ディスプレイパネル)、16 車載カメラ(カメラ装置)、24 画像処理装置、25 表示画像生成部、26 処理部。   DESCRIPTION OF SYMBOLS 12 Vehicle, 13 Driving assistance apparatus, 14 Navigation apparatus, 15 Display apparatus (display panel), 16 Car-mounted camera (camera apparatus), 24 Image processing apparatus, 25 Display image production | generation part, 26 Processing part.

Claims (7)

車載カメラで撮像される車外の画像を特定する撮像信号に基づき、表示装置の画面に表示される画像を特定する画像表示信号を生成する生成部と、
車が配置される地面に対して車両の姿勢変化を示す姿勢情報信号に応じて前記撮像信号の画像に座標変換を施す処理部と
を備えることを特徴とする画像処理装置。
A generating unit that generates an image display signal that specifies an image displayed on the screen of the display device, based on an imaging signal that specifies an image outside the vehicle captured by the in-vehicle camera;
An image processing apparatus comprising: a processing unit that performs coordinate conversion on an image of the imaging signal in accordance with a posture information signal indicating a posture change of the vehicle with respect to a ground on which the vehicle is disposed.
請求項1に記載の画像処理装置において、前記座標変換は、前記車両に設定される直交三軸座標系の軸回りで角度を変換することを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the coordinate conversion converts an angle around an axis of an orthogonal triaxial coordinate system set in the vehicle. 請求項2に記載の画像処理装置において、処理パラメータを記憶する記憶部をさらに備え、前記生成部は、前記画像表示信号の生成にあたって前記記憶部に記憶されている処理パラメータを用いて前記撮像信号に画像処理を施す機能を有し、前記処理部は、該処理部に入力された前記姿勢情報信号に応じて前記処理パラメータを変更する機能を有することを特徴とする画像処理装置。   The image processing apparatus according to claim 2, further comprising a storage unit that stores a processing parameter, wherein the generation unit uses the processing parameter stored in the storage unit when generating the image display signal. An image processing apparatus, wherein the processing unit has a function of changing the processing parameter in accordance with the posture information signal input to the processing unit. 請求項3に記載の画像処理装置において、前記画像処理は俯瞰変換であることを特徴とする画像処理装置。   The image processing apparatus according to claim 3, wherein the image processing is overhead conversion. 請求項1〜4のいずれか1項に記載の画像処理装置を備えることを特徴とする運転支援装置。   A driving support apparatus comprising the image processing apparatus according to claim 1. 請求項1〜4のいずれか1項に記載の画像処理装置を備えることを特徴とするナビゲーション装置。   A navigation apparatus comprising the image processing apparatus according to claim 1. 請求項1〜4のいずれか1項に記載の画像処理装置を備えることを特徴とするカメラ装置。   A camera apparatus comprising the image processing apparatus according to claim 1.
JP2013247151A 2013-11-29 2013-11-29 Image processing system, operation support device, navigation device, and camera device Pending JP2015106777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013247151A JP2015106777A (en) 2013-11-29 2013-11-29 Image processing system, operation support device, navigation device, and camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013247151A JP2015106777A (en) 2013-11-29 2013-11-29 Image processing system, operation support device, navigation device, and camera device

Publications (1)

Publication Number Publication Date
JP2015106777A true JP2015106777A (en) 2015-06-08

Family

ID=53436689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013247151A Pending JP2015106777A (en) 2013-11-29 2013-11-29 Image processing system, operation support device, navigation device, and camera device

Country Status (1)

Country Link
JP (1) JP2015106777A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017071235A (en) * 2015-10-05 2017-04-13 株式会社Nttドコモ Video display device
US10547815B2 (en) 2017-03-02 2020-01-28 JVC Kenwood Corporation Bird's-eye view video generation device, bird's-eye view video generation method and non-transitory storage medium
JP2020162020A (en) * 2019-03-27 2020-10-01 株式会社デンソーテン Image generation device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007266930A (en) * 2006-03-28 2007-10-11 Aisin Aw Co Ltd Driving assist method and driving support apparatus
JP2008148114A (en) * 2006-12-12 2008-06-26 Clarion Co Ltd Drive assisting device
JP2008174077A (en) * 2007-01-18 2008-07-31 Xanavi Informatics Corp Vehicle periphery monitoring device, and its camera position calculation method
JP2008182652A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
JP2009253571A (en) * 2008-04-04 2009-10-29 Clarion Co Ltd Monitor video image generation device for vehicle
JP2010245821A (en) * 2009-04-06 2010-10-28 Denso Corp Image display for vehicle
JP2011030140A (en) * 2009-07-29 2011-02-10 Hitachi Automotive Systems Ltd External world recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007266930A (en) * 2006-03-28 2007-10-11 Aisin Aw Co Ltd Driving assist method and driving support apparatus
JP2008148114A (en) * 2006-12-12 2008-06-26 Clarion Co Ltd Drive assisting device
JP2008174077A (en) * 2007-01-18 2008-07-31 Xanavi Informatics Corp Vehicle periphery monitoring device, and its camera position calculation method
JP2008182652A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
JP2009253571A (en) * 2008-04-04 2009-10-29 Clarion Co Ltd Monitor video image generation device for vehicle
JP2010245821A (en) * 2009-04-06 2010-10-28 Denso Corp Image display for vehicle
JP2011030140A (en) * 2009-07-29 2011-02-10 Hitachi Automotive Systems Ltd External world recognition device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017071235A (en) * 2015-10-05 2017-04-13 株式会社Nttドコモ Video display device
US10547815B2 (en) 2017-03-02 2020-01-28 JVC Kenwood Corporation Bird's-eye view video generation device, bird's-eye view video generation method and non-transitory storage medium
JP2020162020A (en) * 2019-03-27 2020-10-01 株式会社デンソーテン Image generation device
JP7188228B2 (en) 2019-03-27 2022-12-13 株式会社デンソーテン image generator

Similar Documents

Publication Publication Date Title
JP7245295B2 (en) METHOD AND DEVICE FOR DISPLAYING SURROUNDING SCENE OF VEHICLE-TOUCHED VEHICLE COMBINATION
EP2990265B1 (en) Vehicle control apparatus
US20170282813A1 (en) Image display control device and image display system
WO2014132680A1 (en) Program and device for controlling vehicle
US11087438B2 (en) Merging of partial images to form an image of surroundings of a mode of transport
JP6213567B2 (en) Predicted course presentation device and predicted course presentation method
JP2018531530A6 (en) Method and apparatus for displaying surrounding scene of vehicle / towed vehicle combination
JP2018531530A5 (en)
US10703275B2 (en) Image generation apparatus
JP2008152424A (en) Image display device
US10970812B2 (en) Image processing device
JP2008141578A (en) Visual recognizing apparatus for vehicle surrounding
WO2016027689A1 (en) Image display control device and image display system
JP2019028920A (en) Display control device
US10540807B2 (en) Image processing device
JP7168367B2 (en) accident reporting device
JP2015106777A (en) Image processing system, operation support device, navigation device, and camera device
JP4379148B2 (en) Rear confirmation device
US20200098134A1 (en) Imaging system, imaging device and signal processor
JP5891880B2 (en) In-vehicle image display device
KR101923899B1 (en) Apparatus and Method for AVM Calibration using Tire Press Monitoring Information
JP2021002790A (en) Camera parameter setting device, camera parameter setting method, and camera parameter setting program
EP3525455B1 (en) Periphery monitoring device
JP6007773B2 (en) Image data conversion device, navigation system, camera device, and vehicle
JP6772716B2 (en) Peripheral monitoring device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150903

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180530