JP2013186245A - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP2013186245A JP2013186245A JP2012050454A JP2012050454A JP2013186245A JP 2013186245 A JP2013186245 A JP 2013186245A JP 2012050454 A JP2012050454 A JP 2012050454A JP 2012050454 A JP2012050454 A JP 2012050454A JP 2013186245 A JP2013186245 A JP 2013186245A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- camera
- posture
- image
- road surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/40—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
- B60R2300/402—Image calibration
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、車両に取り付けられた車載カメラの撮影画像を異なる仮想カメラ位置から撮影したような画像に映像変換して車両周辺の合成画像を生成する車両周辺監視装置に関するものである。 The present invention relates to a vehicle periphery monitoring device that converts a captured image of an in-vehicle camera attached to a vehicle into an image captured from a different virtual camera position to generate a composite image around the vehicle.
従来、車両周辺を撮影した画像を上空から見た平面画像に変換して得られた鳥瞰画像を一時記憶メモリに記憶させるとともに、ハンドル各信号、車速信号等に基づいて車両の動きを算出し、この車両の動きに基づいて、一時記憶メモリに記憶された複数の鳥瞰画像を用いて車両周辺の合成画像を生成し、この合成画像を表示部に表示させるようにしたものがある(例えば、特許文献1参照)。 Conventionally, a bird's-eye view image obtained by converting an image of the periphery of a vehicle into a planar image viewed from above is stored in a temporary storage memory, and the movement of the vehicle is calculated based on each steering wheel signal, vehicle speed signal, Based on the movement of the vehicle, a composite image around the vehicle is generated using a plurality of bird's-eye images stored in a temporary storage memory, and the composite image is displayed on a display unit (for example, patents). Reference 1).
上記特許文献1に記載されたような装置では、車両に取り付けられた車載カメラの位置および向きを規定したパラメータを用いて車載カメラの撮影画像を車両上方の仮想カメラ位置から撮影したような鳥瞰画像に映像変換し、車両の移動に伴って映像変換された複数の鳥瞰画像を一次記憶メモリに記憶させるとともに一次記憶メモリに記憶された複数の鳥瞰画像を用いて車両周辺の合成画像を生成するように構成されている。 In the apparatus described in Patent Document 1, a bird's-eye view image obtained by capturing a captured image of the in-vehicle camera from a virtual camera position above the vehicle using parameters that define the position and orientation of the in-vehicle camera attached to the vehicle. And a plurality of bird's-eye images that have been converted according to the movement of the vehicle are stored in the primary storage memory and a composite image around the vehicle is generated using the plurality of bird's-eye images stored in the primary storage memory. It is configured.
しかしながら、このような構成では、車両に取り付けられた車載カメラの位置および向きを規定したパラメータを固定値として映像変換が行われるため、車両の姿勢が変化して車載カメラの位置や向きにずれが生じると、それまでと異なる仮想カメラ位置から撮影したような鳥瞰画像が一時記憶メモリに記憶され、歪んだ領域を含むような合成画像が生成されてしまう。 However, in such a configuration, since the video conversion is performed with the parameters defining the position and orientation of the in-vehicle camera attached to the vehicle as fixed values, the attitude of the vehicle changes and the position and orientation of the in-vehicle camera shifts. When this occurs, a bird's-eye view image taken from a different virtual camera position is stored in the temporary storage memory, and a composite image including a distorted area is generated.
図8に、車両が後進して路面に設けられた車止めに乗り上げた場合の車両の様子と合成画像の例を示す。図8(a)、(b)に示すように、車両が平坦な路面を後進している場合、正常に仮想カメラ位置への視点変換が行われ、合成画像に歪みは生じない。しかし、図8(c)に示すように、車両が路面に設けられた車止めに乗り上げて車両の姿勢が変化して車載カメラの位置や向きに変化が生じると、それまでと異なる仮想カメラ位置から撮影したような鳥瞰画像が一時記憶メモリに記憶される。このため、図8(d)中の点線で囲まれたA部に示すように、歪んだ領域を含むような合成画像が生成される。また、このような歪んだ領域は、図8(e)、(f)中のA部に示すように、車両が正常な姿勢に戻った後も履歴画像として合成画像に残るため、ユーザに違和感を与えてしまうといった問題がある。 FIG. 8 shows an example of the state of the vehicle and a composite image when the vehicle moves backward and rides on a car stop provided on the road surface. As shown in FIGS. 8A and 8B, when the vehicle moves backward on a flat road surface, the viewpoint conversion to the virtual camera position is normally performed, and the synthesized image is not distorted. However, as shown in FIG. 8 (c), when the vehicle rides on a car stop provided on the road surface and the posture of the vehicle changes to change the position and orientation of the in-vehicle camera, A bird's-eye view image as taken is stored in the temporary storage memory. For this reason, a composite image including a distorted region is generated as shown in part A surrounded by a dotted line in FIG. Further, such a distorted area remains in the composite image as a history image even after the vehicle returns to a normal posture as shown in part A in FIGS. 8 (e) and 8 (f). There is a problem of giving.
本発明は上記問題に鑑みたもので、車載カメラを搭載した車両の姿勢が変化したことによる合成画像の歪みを防止することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to prevent distortion of a composite image due to a change in the posture of a vehicle on which an in-vehicle camera is mounted.
上記目的を達成するため、請求項1に記載の発明は、車両に取り付けられた車載カメラの位置および向きを規定した第1のパラメータを用いて車載カメラの撮影画像を当該車載カメラと異なる仮想カメラ位置から撮影したような画像に映像変換する映像変換手段と、車両の移動に伴って映像変換手段により映像変換された複数の画像を一次記憶メモリに記憶させるとともに一次記憶メモリに記憶された複数の画像を用いて車両周辺の合成画像を生成する合成画像生成手段と、を備えた車両周辺監視装置であって、車両の路面に対する姿勢が異常であるか否かを判定する判定手段と、車両の路面に対する姿勢が異常となった状態の車載カメラの位置および向きの変化量を推定する変化量推定手段と、を備え、映像変換手段は、判定手段により車両の路面に対する姿勢が異常であると判定された場合、変化量推定手段により推定された車両の路面に対する姿勢が異常となった状態の車載カメラの位置および向きの変化量から実際の車載カメラの位置および向きを表す第2のパラメータを特定し、当該第2のパラメータを用いて車載カメラの撮影画像を、仮想カメラが撮影したような画像に映像変換することを特徴としている。 In order to achieve the above object, the invention described in claim 1 is a virtual camera that uses a first parameter that defines a position and an orientation of an in-vehicle camera attached to a vehicle to display a captured image of the in-vehicle camera different from the in-vehicle camera. Video converting means for converting video into an image taken from a position, and a plurality of images converted by the video converting means in accordance with movement of the vehicle are stored in a primary storage memory and a plurality of images stored in the primary storage memory A vehicle periphery monitoring device comprising: a composite image generation unit configured to generate a composite image of a vehicle periphery using an image; a determination unit that determines whether the posture of the vehicle with respect to a road surface is abnormal; Change amount estimating means for estimating the change amount of the position and orientation of the in-vehicle camera in a state in which the posture with respect to the road surface is abnormal, and the image conversion means If it is determined that the attitude of the vehicle with respect to the road surface is abnormal, the actual position of the in-vehicle camera is determined from the amount of change in the position and orientation of the in-vehicle camera in which the attitude with respect to the road surface of the vehicle estimated by the change amount estimation means is abnormal. And a second parameter representing the orientation is specified, and the captured image of the in-vehicle camera is converted into an image captured by the virtual camera using the second parameter.
このような構成によれば、車両の路面に対する姿勢が異常であるか否かを判定するとともに、車両の路面に対する姿勢が異常となった状態の車載カメラの位置および向きの変化量を推定し、車両の路面に対する姿勢が異常であると判定された場合、変化量推定手段により推定された車両の路面に対する姿勢が異常となった状態の車載カメラの位置および向きの変化量から実際の車載カメラの位置および向きを表す第2のパラメータを特定し、当該第2のパラメータを用いて車載カメラの撮影画像が、仮想カメラが撮影したような画像に映像変換されるので、車載カメラを搭載した車両の姿勢が変化したことによる合成画像の歪みを防止することができる。 According to such a configuration, it is determined whether or not the posture of the vehicle with respect to the road surface is abnormal, and the amount of change in the position and orientation of the in-vehicle camera in a state in which the posture of the vehicle with respect to the road surface is abnormal is estimated. When it is determined that the posture of the vehicle with respect to the road surface is abnormal, the actual amount of the vehicle-mounted camera is determined from the amount of change in the position and orientation of the vehicle-mounted camera in which the posture of the vehicle with respect to the road surface estimated by the change amount estimation unit is abnormal. The second parameter representing the position and orientation is specified, and the captured image of the in-vehicle camera is converted into an image captured by the virtual camera using the second parameter. Distortion of the composite image due to a change in posture can be prevented.
(第1実施形態)
本発明の第1実施形態に係る車両周辺監視装置の構成を図1に示す。本車両周辺監視装置は、カメラ角度推定部11、映像変換処理部12、車両移動量計算部13および画像合成部14を備えた制御部10を備えている。なお、制御部10には、車両後方を撮影する車載カメラ20および表示装置30が接続されている。
(First embodiment)
The configuration of the vehicle periphery monitoring apparatus according to the first embodiment of the present invention is shown in FIG. The vehicle periphery monitoring device includes a
車載カメラ20は、車両の後方を撮影するバックカメラとして車両後方の左右中央に取り付けられている。車載カメラ20は、車両後方を撮影した画像を車両周辺監視装置10へ送出する。
The in-
制御部10は、CPU、ROM、一次記憶メモリ、フラッシュメモリ、I/O等を備えたコンピュータとして構成されており、CPUはROMに記憶されたプログラムに従って各種処理を実施する。
The
カメラ角度推定部11は、車載カメラ20を搭載した車両の路面に対する姿勢の変化量を推定する。本実施形態におけるカメラ角度推定部11は、車両の前後方向の傾斜に応じた信号を出力する傾斜センサおよび車両の左右方向の傾斜に応じた信号を出力する傾斜センサ(いずれも図示せず)より出力される傾斜情報に基づいて車載カメラ20を搭載した車両の路面に対する姿勢の変化量を推定する。なお、本実施形態におけるカメラ角度推定部11は、各傾斜センサより出力される傾斜情報に基づいて車載カメラ20を搭載した車両の水平面に対する姿勢の変化量を推定する。
The camera
映像変換処理部12は、車両に取り付けられた車載カメラ20の位置および向きを規定したパラメータ(第1のパラメータに相当する)を用いて車載カメラ20の撮影画像を、当該車載カメラ20と異なる仮想カメラ位置から撮影したような画像に映像変換する。なお、このような、車載カメラ20の位置および向きを規定したパラメータを用いて車載カメラの撮影画像を当該車載カメラと異なる仮想カメラ位置から撮影したような画像に映像変換する技術は周知技術である(例えば、特許第3286306号公報、「全周囲カメラシステムの開発(Matsushita Technical Journal Vol.54 No.2 Jul.2008 松下電器産業コーポレートR&D戦略室)」等参照)。
The video
本実施形態では、後輪の車軸の左右中央の位置を基準として、車載カメラ20の位置Oを表す座標(X0、Y0、Z0)と水平方向を基準とした車載カメラ20の向き(俯角θ0)を規定したパラメータがフラッシュメモリに記憶されており、このフラッシュメモリに記憶されたパラメータを用いて車載カメラの撮影画像を車両の上方向に位置する仮想カメラ位置から撮影したような鳥瞰画像に映像変換する。なお、本実施形態では、車両の後進方向の水平右方向をX方向、車両の後進方向をY方向、路面からの高さ方向をZ方向とする。また、パラメータには、前輪の車軸と後輪の車軸との距離Lも含まれている。
In the present embodiment, the coordinates (X 0 , Y 0 , Z 0 ) representing the position O of the in-
なお、上記したパラメータは車種毎に用意されており、制御部10は、搭載車両の車種に該当するパラメータを使用して映像変換するようになっている。
The parameters described above are prepared for each vehicle type, and the
車両移動量計算部13には、シフトレバーの位置を表すシフト位置信号、車速に応じた車速信号およびステアリングの切り角に応じたステアリング信号が入力されている。車両移動量計算部13は、シフト位置信号、車速信号およびステアリング信号に基づいて車両の進行方向および移動距離を算出する。
The vehicle movement
画像合成部14は、車両の移動に伴って映像変換処理により映像変換された複数の画像を一次記憶メモリに記憶させるとともに一次記憶メモリに記憶された複数の画像を用いて車両周辺の合成画像を生成する。なお、このような映像変換処理により映像変換された複数の画像を一次記憶メモリに記憶させるとともに一次記憶メモリに記憶された複数の画像を用いて車両周辺の合成画像を生成する技術は周知技術である(例えば、特開2008−210084号公報参照)。
The
本実施形態における画像合成部14は、車両移動量計算部13により算出された車両の進行方向および移動距離を用いて映像変換処理により映像変換された複数の鳥瞰画像を一次記憶メモリに記憶させるとともに一次記憶メモリに記憶された複数の鳥瞰画像を用いて車両周辺の合成画像を生成し、生成した合成画像を表示装置30へ出力する。
The
表示装置30は、液晶等のディスプレイを有し、当該ディスプレイに車両周辺監視装置10より入力される映像信号に応じた映像を表示させる。
The
上記した構成において、車載カメラ20から車両周辺監視装置の制御部10へ車両後方の撮影画像が入力されると、映像変換処理部12は、車両に取り付けられた車載カメラ20の位置および向きを規定したパラメータを用いて車載カメラの撮影画像を当該車載カメラと異なる仮想カメラ位置から撮影したような画像に映像変換する。画像合成部14は、車両移動量計算部13により算出された車両の進行方向および移動距離を用いて映像変換処理部12により映像変換された複数の鳥瞰画像を一次記憶メモリに記憶させるとともに一次記憶メモリに記憶された複数の鳥瞰画像を用いて車両周辺の合成画像を生成し、生成した合成画像を表示装置30へ出力する。
In the above configuration, when a captured image of the rear of the vehicle is input from the in-
本実施形態における車両周辺監視装置は、車両の姿勢が変化して車載カメラ20の位置や向きに変化が生じると、それまでと異なる仮想カメラ位置から撮影したような鳥瞰画像が一時記憶メモリに記憶され、歪んだ領域を含むような合成画像が生成されてしまうという問題解決するため、車両の路面に対する姿勢が異常であるか否かを判定し、車両の路面に対する姿勢が異常であると判定された場合、車両の路面に対する姿勢が異常となった状態の車載カメラ20の位置および向きの変化量を推定し、この車載カメラ20の位置および向きの変化量から車両の路面に対する姿勢が異常となった状態の実際の車載カメラ20の位置および向きを表す第2のパラメータを特定し、当該第2のパラメータを用いて車載カメラ20の撮影画像を、仮想カメラが撮影したような画像に映像変換する。
The vehicle periphery monitoring apparatus according to the present embodiment stores a bird's-eye view image taken from a different virtual camera position in a temporary storage memory when the position of the vehicle-mounted
次に、図2に従って、制御部10の処理について説明する。本車両周辺監視装置は、運転者の操作に応じて車両のイグニッションスイッチがオン状態になると、定期的に図2に示す処理を実施する。
Next, the process of the
まず、シフト位置信号に基づいてシフトレバーの位置がリバース「R」になったか否かを判定する(S100)。ここで、シフトレバーの位置が、リバース「R」以外となっている場合、S100」の判定はNOとなり、本処理を終了する。 First, based on the shift position signal, it is determined whether or not the position of the shift lever is reverse “R” (S100). Here, when the position of the shift lever is other than the reverse “R”, the determination of S100 is NO, and this process ends.
また、運転者によりシフトレバーの位置がリバース「R」にされると、S100の判定はYESとなり、次に、車両の姿勢が異常であるか否かを判定する(S102)。本実施形態では、傾斜センサより入力される傾斜情報に基づいて車両の前後方向の傾斜および車両の左右方向の傾斜を特定し、車両の傾斜が閾値(例えば、5度)未満の場合は車両の姿勢が正常、車両の傾斜が閾値以上の場合は車両の姿勢が異常と判定する。 If the position of the shift lever is set to reverse “R” by the driver, the determination in S100 is YES, and then it is determined whether or not the posture of the vehicle is abnormal (S102). In the present embodiment, the front-rear direction inclination and the left-right direction inclination of the vehicle are specified based on the inclination information input from the inclination sensor, and when the vehicle inclination is less than a threshold (for example, 5 degrees), the vehicle When the posture is normal and the vehicle inclination is equal to or greater than the threshold, it is determined that the vehicle posture is abnormal.
ここで、車両の傾斜が閾値未満の場合、S102の判定はNOとなり、次に、映像変換を行う(S104)。具体的には、フラッシュメモリに記憶されたパラメータを用いて車載カメラ20の撮影画像を、車両の上方向に位置する仮想カメラ位置から撮影したような鳥瞰画像に映像変換する。具体的には、車載カメラ20の位置Oを表す座標を(X0、Y0、Z0)、水平方向を基準とした車載カメラ20の向きをθ0として、車載カメラ20の撮影画像を、車両の上方向に位置する仮想カメラ位置から撮影したような鳥瞰画像に映像変換する。
Here, when the inclination of the vehicle is less than the threshold value, the determination in S102 is NO, and then video conversion is performed (S104). Specifically, using the parameters stored in the flash memory, the captured image of the in-
次に、車両の動きを計算する(S106)。具体的には、シフト位置信号、車速信号およびステアリング信号に基づいて車両の進行方向および移動距離を算出する。 Next, the movement of the vehicle is calculated (S106). Specifically, the traveling direction and moving distance of the vehicle are calculated based on the shift position signal, the vehicle speed signal, and the steering signal.
次に、車両周辺の合成画像を生成し、生成した合成画像を表示装置30へ出力する(S108)。具体的には、S104にて映像変換された鳥瞰画像を一次記憶メモリに記憶させるとともに、一次記憶メモリに記憶されている複数の鳥瞰画像を用いて車両周辺の合成画像を生成する。 Next, a composite image around the vehicle is generated, and the generated composite image is output to the display device 30 (S108). Specifically, the bird's-eye view image converted in S104 is stored in the primary storage memory, and a composite image around the vehicle is generated using a plurality of bird's-eye images stored in the primary storage memory.
なお、既に、鳥瞰画像が一次記憶メモリに記憶されている場合には、一次記憶メモリに記憶されている複数の鳥瞰画像を用いて車両周辺の合成画像を生成する。具体的には、新たな鳥瞰画像を一次記憶メモリに記憶させる際に、前回、一次記憶メモリに鳥瞰画像を記憶してからの車両の移動方向および移動距離を関連付けて記憶させるようになっており、一次記憶メモリに記憶された各鳥瞰画像と、当該各鳥瞰画像と関連付けられた車両の移動方向および移動距離に基づいて車両周辺の合成画像を生成し、生成した合成画像を表示装置30へ出力する。
If a bird's-eye view image is already stored in the primary storage memory, a composite image around the vehicle is generated using a plurality of bird's-eye images stored in the primary storage memory. Specifically, when a new bird's-eye view image is stored in the primary storage memory, the movement direction and the movement distance of the vehicle since the bird's-eye view image was previously stored in the primary storage memory are stored in association with each other. Then, based on each bird's-eye image stored in the primary storage memory and the moving direction and distance of the vehicle associated with each bird's-eye image, a composite image around the vehicle is generated, and the generated composite image is output to the
ただし、ここでは、一次記憶メモリに鳥瞰画像が記憶されていないため、S106にて映像変換された鳥瞰画像を一次記憶メモリに記憶させるだけで、車両周辺の合成画像の生成までは行わない。 However, since the bird's-eye view image is not stored in the primary storage memory here, the bird's-eye view image converted in S106 is only stored in the primary storage memory, and the composite image around the vehicle is not generated.
上記した処理を繰り返し実施し、次回以降、S108では、新たな鳥瞰画像を一次記憶メモリに記憶させる際に、前回、一次記憶メモリに鳥瞰画像を記憶してからの車両の移動方向および移動距離を関連付けて記憶させる、一次記憶メモリに記憶された各鳥瞰画像と、当該各鳥瞰画像と関連付けられた車両の移動方向および移動距離に基づいて車両周辺の合成画像を生成し、生成した合成画像を表示装置30へ出力する。このようにして、車両周辺の合成画像が表示装置30に表示される。
The above processing is repeated, and in the next time, in S108, when a new bird's-eye view image is stored in the primary storage memory, the moving direction and distance of the vehicle after the previous storage of the bird's-eye view image in the primary storage memory is determined. Based on each bird's-eye image stored in the primary storage memory to be stored in association with the moving direction and distance of the vehicle associated with each bird's-eye image, a composite image around the vehicle is generated, and the generated composite image is displayed. Output to
ここで、例えば、車両が後進して車両の後輪が路面に設けられた車止めに乗り上げ、車両の傾斜が閾値以上となった場合、S102の判定はYESとなり、次に、車載カメラ20の位置および向きの変化量を推定する(S110)。
Here, for example, when the vehicle moves backward and the rear wheel of the vehicle rides on a vehicle stop provided on the road surface, and the inclination of the vehicle exceeds a threshold value, the determination in S102 is YES, and then the position of the in-
図3に、車両の後輪が車止めに乗り上げて、車両の姿勢が前方向に角度θ1傾いた場合の様子を示す。なお、車両の後輪の車軸の上方向に車載カメラ20が取り付けられているものとする。また、車載カメラ20の水平方向を基準とした取り付け向き(俯角)は、θ0=30度となっているものとする。
3, rides on the rear wheels of the vehicle bollard show a case where the posture of the vehicle is inclined angle theta 1 in the forward direction. It is assumed that the in-
ここで、車両の姿勢が前方向に角度θ1=5度傾いた場合、車載カメラ20の向きは5度上向きとなる。すなわち、車載カメラ20の水平方向を基準とした向きの変化量は5度と推定することができる。したがって、車載カメラ20の水平方向を基準とした向きは、θ0−θ1=(30度−5度)=25度と特定することができる。
Here, when the posture of the vehicle is inclined forward by an angle θ 1 = 5 degrees, the direction of the in-
また、車両の後輪が車止めに乗り上げて、車両の姿勢が前進方向に角度θ1傾いた場合、前輪の車軸と後輪の車軸との距離=Lとすると、実際の車載カメラ20の位置O’は、車両の姿勢が傾斜していない状態の車載カメラ20の位置OよりもL・tanθ1だけ上方向に移動する。すなわち、実際の車載カメラ20の位置O’の変化量はL・tanθ1と推定することができ、実際の車載カメラ20の位置O’の座標は、(X0、Y0、Z0+L・tanθ1)と特定することができる。
Further, rides on the rear wheels of the vehicle wheel stopping, when the posture of the vehicle is inclined angle theta 1 in the forward direction, when the distance = L between the axle of the front wheel axle and the rear wheel, the actual vehicle-mounted
また、図4に、車両の前輪が車止めに乗り上げて、車両の姿勢が後ろ方向に角度θ2傾いた場合の様子を示す。なお、車両の後輪の車軸の上方向に車載カメラ20が取り付けられており、車載カメラ20の水平方向を基準とした取り付け向き(俯角)は、θ0=30度となっているものとする。
Further, in FIG. 4, the front wheel of the vehicle rides on bollard show a case where the posture of the vehicle is the angle theta 2 tilted backwards. It is assumed that the in-
ここで、車両の姿勢が後ろ方向に角度θ2=5度傾いた場合、車載カメラ20の向きは5度下向きとなる。すなわち、車載カメラ20の水平方向を基準とした向きの変化量は−5度と推定することができる。したがって、車載カメラ20の水平方向を基準とした向きは、θ0+θ2=(30度+5度)=35度として特定することができる。
Here, when the posture of the vehicle is inclined backward by an angle θ 2 = 5 degrees, the in-
ただし、車載カメラ20の位置Oについては、図3に示した場合と異なり、車両の姿勢が傾斜していない状態の車載カメラ20の位置Oと同じとなる。すなわち、実際の車載カメラ20の位置O’の座標は、(X0、Y0、Z0)と特定することができる。
However, the position O of the in-
次に、フラッシュメモリに記憶されたパラメータに代えて、S110にて推定した車載カメラ20の位置および向きを表すパラメータ用いて車載カメラ20の撮影画像を、車両の上方向に位置する仮想カメラ位置から撮影したような鳥瞰画像に映像変換し(S112)、S106へ進む。
Next, instead of the parameters stored in the flash memory, using the parameters representing the position and orientation of the in-
車両の路面に対する姿勢が異常となったにもかかわらず、フラッシュメモリに記憶されたパラメータを用いて車載カメラ20の撮影画像を鳥瞰画像に映像変換した場合、図5に示すような、映像変換された画像が斜め方向から見たような映像となり歪みの要因となってしまうが、車両の路面に対する姿勢が異常となった場合に、車両の路面に対する姿勢が異常となった状態の車載カメラの位置および向きを、実際の車載カメラの位置および向きに補正して、車載カメラ20の撮影画像を鳥瞰画像に映像変換した場合、図6に示すような、映像変換された画像が、真上方向から見たような歪みのない映像に変換される。
When the image taken by the in-
また、車両の姿勢が傾斜していない状態に戻ると、S102の判定はNOとなり、次に、映像変換を行う(S104)。具体的には、フラッシュメモリに記憶されたパラメータを用いて車載カメラ20の撮影画像を、車両の上方向に位置する仮想カメラ位置から撮影したような鳥瞰画像に映像変換する。すなわち、車載カメラ20の位置Oを表す座標を(X0、Y0、Z0)、水平方向を基準とした車載カメラ20の向きをθ0として、車載カメラ20の撮影画像を、車両の上方向に位置する仮想カメラ位置から撮影したような鳥瞰画像に映像変換する。
Further, when the posture of the vehicle returns to the state where the vehicle is not tilted, the determination in S102 is NO, and then video conversion is performed (S104). Specifically, using the parameters stored in the flash memory, the captured image of the in-
上記した構成によれば、車両の路面に対する姿勢が異常であるか否かを判定するとともに、車両の路面に対する姿勢が異常となった状態の車載カメラの位置および向きの変化量を推定し、車両の路面に対する姿勢が異常であると判定された場合、変化量推定手段により推定された車両の路面に対する姿勢が異常となった状態の車載カメラの位置および向きの変化量から実際の車載カメラの位置および向きを表す第2のパラメータを特定し、当該第2のパラメータを用いて車載カメラの撮影画像が、仮想カメラが撮影したような画像に映像変換されるので、車載カメラを搭載した車両の姿勢が変化したことによる合成画像の歪みを防止することができる。 According to the configuration described above, it is determined whether or not the posture of the vehicle with respect to the road surface is abnormal, and the amount of change in the position and orientation of the in-vehicle camera in a state where the posture of the vehicle with respect to the road surface is abnormal is estimated. If it is determined that the attitude of the vehicle with respect to the road surface is abnormal, the actual position of the in-vehicle camera is determined from the amount of change in the position and orientation of the in-vehicle camera in which the attitude with respect to the road surface of the vehicle estimated by the change amount estimation means is abnormal. And the second parameter representing the orientation is specified, and the captured image of the in-vehicle camera is converted into an image captured by the virtual camera using the second parameter. It is possible to prevent the distortion of the composite image due to the change of.
また、上記したように、車両の路面に対する傾きに応じた傾斜情報を出力する傾斜センサを備え、傾斜センサより出力される傾斜情報に基づいて車載カメラの路面に対する姿勢が異常であるか否かを判定することができる。 In addition, as described above, the vehicle includes a tilt sensor that outputs tilt information corresponding to the tilt of the vehicle with respect to the road surface, and whether or not the in-vehicle camera has an abnormal posture with respect to the road surface based on the tilt information output from the tilt sensor. Can be determined.
(第2実施形態)
上記第1実施形態に係る車両周辺監視装置は、傾斜センサより入力される傾斜情報に基づいて車両の姿勢が異常であるか否かの判定および車両の姿勢が異常となった状態の車載カメラの位置および向きの変化量の推定を行うようにしたが、本実施形態では、車載カメラ20の撮影画像に含まれる各特徴点の動きの違いを画像解析により認識し、撮影画像に含まれる特徴点のオプティカルフローに基づいて車両の姿勢が異常であるか否かの判定および車両の姿勢が異常となった状態の車載カメラ20の位置および向きの変化量の推定を行う。なお、オプティカルフローとは、車載カメラ20の撮影画像の中で物体の動きをベクトルで表したものである。以下、上記実施形態と同一部分については同一符号を付して説明を省略し、異なる部分を中心に説明する。
(Second Embodiment)
The vehicle periphery monitoring apparatus according to the first embodiment determines whether or not the posture of the vehicle is abnormal based on the inclination information input from the inclination sensor and the vehicle-mounted camera in a state where the vehicle posture is abnormal. Although the amount of change in position and orientation is estimated, in this embodiment, the difference in motion of each feature point included in the captured image of the in-
車両が平坦な路面を走行する場合、車載カメラ20の撮影画像に含まれる各特徴点のオプティカルフローは、図7(a)中の矢印で示されるようなベクトルで表される。すなわち、撮影画像に含まれる各特徴点のオプティカルフローは、進行方向近くに現れる動きの無限遠点に収束するようなベクトルで表される。
When the vehicle travels on a flat road surface, the optical flow of each feature point included in the captured image of the in-
しかし、車両の車輪が段差に乗り上げて車両のピッチ角が変化したような場合、車載カメラ20の撮影画像に含まれる各特徴点のオプティカルフローは、図7(b)中の点線矢印に示したような、進行方向近くに現れる動きの無限遠点に収束するようなベクトルとは異なり、図7(b)中の実線矢印で示されるようなベクトルで表される。すなわち、車両の車輪が段差に乗り上げて車両のピッチ角が変化したような場合、撮影画像に含まれる各特徴点のオプティカルフローは、同一方向に向かうようなベクトルで表される。
However, when the vehicle wheel climbs a step and the pitch angle of the vehicle changes, the optical flow of each feature point included in the captured image of the in-
本実施形態では、車載カメラ20の撮影画像に含まれる各特徴点の動きの違いを画像解析により認識し、車両の姿勢が異常であるか否かの判定および車両の姿勢が異常となった状態の車載カメラ20の位置および向きの変化量を推定する。具体的には、車両が平坦な路面を走行する場合における車載カメラ20の撮影画像に含まれる各特徴点のベクトルがデータベースとして記憶されており、このデータベースにより特定される車両が平坦な路面を走行する場合における車載カメラ20の撮影画像に含まれる各特徴点のベクトルと、実際の車載カメラ20の撮影画像に含まれる各特徴点のベクトルの相違から、車両の姿勢が異常であるか否か判定を判定する(S102)。そして、車両の姿勢が異常であると判定された場合、車両が平坦な路面を走行する場合における車載カメラ20の撮影画像に含まれる各特徴点のベクトルと、実際の車載カメラ20の撮影画像に含まれる各特徴点のベクトルの相違から車両の姿勢が異常となった状態の車載カメラ20の位置および向きの変化量を推定する(S110)。
In the present embodiment, the difference in motion of each feature point included in the captured image of the in-
そして、車両の姿勢が異常となった状態の車載カメラ20の位置および向きの変化量から実際の車載カメラ20の位置および向きを表すパラメータを特定し、当該パラメータを用いて車載カメラ20の撮影画像を、仮想カメラが撮影したような画像に映像変換する(S112)。
Then, a parameter representing the actual position and orientation of the in-
上記したように、車載カメラの撮影画像を画像解析し、当該撮影画像に含まれる特徴点の移動ベクトルを推定し、この撮影画像に含まれる特徴点の移動ベクトルに基づいて車載カメラの路面に対する姿勢が異常であるか否かを判定することもできる。 As described above, the captured image of the in-vehicle camera is subjected to image analysis, the movement vector of the feature point included in the captured image is estimated, and the attitude of the in-vehicle camera with respect to the road surface based on the movement vector of the feature point included in the captured image It can also be determined whether or not is abnormal.
(第3実施形態)
上記第1実施形態に係る車両周辺監視装置は、傾斜センサより入力される傾斜情報に基づいて車両の姿勢が異常であるか否かの判定および車両の姿勢が異常となった状態の車載カメラの位置および向きの変化量の推定を行うようにしたが、本実施形態では、車両の旋回時の遠心力による車両の姿勢の変化量を特定するための信号(第1の信号に相当する)として、車両のステアリングの角度に応じた舵角信号を取得するとともに、車両の加減速による車両の姿勢の変化量を特定するための信号(第2の信号に相当する)として、車速センサより出力される車速信号を取得し、舵角信号により特定される車両の旋回時の遠心力による姿勢の変化量および車速信号により特定される車両の加減速による車両の姿勢の変化量に基づいて車載カメラの路面に対する姿勢が異常であるか否かを判定するとともに、車両の姿勢が異常となった状態の車載カメラの位置および向きの変化量の推定を行う。
(Third embodiment)
The vehicle periphery monitoring apparatus according to the first embodiment determines whether or not the posture of the vehicle is abnormal based on the inclination information input from the inclination sensor and the vehicle-mounted camera in a state where the vehicle posture is abnormal. Although the amount of change in position and orientation is estimated, in this embodiment, as a signal (corresponding to the first signal) for specifying the amount of change in the posture of the vehicle due to the centrifugal force when the vehicle turns A steering angle signal corresponding to the steering angle of the vehicle is acquired, and is output from the vehicle speed sensor as a signal (corresponding to the second signal) for specifying the amount of change in the posture of the vehicle due to acceleration / deceleration of the vehicle. Based on the amount of change in posture caused by centrifugal force during turning of the vehicle specified by the steering angle signal and the amount of change in vehicle posture caused by acceleration / deceleration of the vehicle specified by the vehicle speed signal. With the posture with respect to the surface to determine whether it is abnormal, it performs position and orientation of variation of the estimation of the vehicle camera in a state where the posture of the vehicle is abnormal.
なお、車両の走行時における車両の姿勢は、車両の旋回時の遠心力、車両の加速度の変化だけでなく、車両のサスペンションの性能等によっても左右される。 Note that the posture of the vehicle when the vehicle is traveling depends not only on the centrifugal force when the vehicle is turning and the change in the acceleration of the vehicle, but also on the performance of the suspension of the vehicle.
本実施形態における車両周辺監視装置は、車種毎に、車両のステアリング角、車両の加速度の変化等の車両の挙動と、車両の姿勢の変化量を規定したテーブルが用意されている。 The vehicle periphery monitoring device according to the present embodiment is provided with a table that defines the behavior of the vehicle such as a change in the vehicle steering angle and the vehicle acceleration, and the amount of change in the posture of the vehicle for each vehicle type.
本車両周辺監視装置は、搭載車両の車種に該当するテーブルを用いて車両の走行時における車両の姿勢が異常か否かを判定し(S102)、車両の路面に対する姿勢が異常であると判定された場合、車両の姿勢が異常となった状態の車載カメラ20の位置および向きの変化量を推定し(S110)、これらの車載カメラ20の位置および向きの変化量から実際の車載カメラ20の位置および向きを表すパラメータを特定し、当該パラメータを用いて車載カメラ20の撮影画像を、仮想カメラが撮影したような画像に映像変換する(S112)。
The vehicle periphery monitoring apparatus determines whether or not the posture of the vehicle when the vehicle travels is abnormal using a table corresponding to the vehicle type of the mounted vehicle (S102), and determines that the posture of the vehicle with respect to the road surface is abnormal. If this is the case, the amount of change in the position and orientation of the in-
(その他の実施形態)
上記第1〜第3実施形態では、車載カメラの撮影画像を、車両の上方向に位置する仮想カメラ位置から撮影したような鳥瞰画像に画像変換する例を示したが、仮想カメラ位置は、車両の上方向に限定されるものではない。
(Other embodiments)
In the first to third embodiments, the example in which the captured image of the in-vehicle camera is converted into a bird's-eye view image captured from the virtual camera position positioned in the upward direction of the vehicle has been described. It is not limited to the upward direction.
また、上記第1〜第3実施形態では、車両の上方向を仮想カメラ位置として、車載カメラの撮影画像を仮想カメラ位置から見たような鳥瞰画像に映像変換し、映像変換された複数の鳥瞰画像を一次記憶メモリに記憶させるとともに一次記憶メモリに記憶された複数の鳥瞰画像を用いて車両周辺の合成画像を生成する装置において、車載カメラの路面に対する姿勢が異常である判定された場合、車載カメラの路面に対する姿勢の変化量から実際の車載カメラの位置および向きを表す第2のパラメータを特定し、当該第2のパラメータを用いて車載カメラの撮影画像を、仮想カメラが撮影したような画像に映像変換するようにしたが、車載カメラの角度が変わることによって影響を受けるシステム、例えば、車両に取り付けられた車載カメラの撮影映像の画素から対象物との距離を推定するシステムにおいて、車載カメラの路面に対する姿勢が異常である判定された場合、車載カメラの路面に対する姿勢の変化量から実際の車載カメラの位置および向きを表す第2のパラメータを特定し、当該第2のパラメータを用いて車載カメラの撮影画像を、仮想カメラが撮影したような画像に映像変換するように構成してもよい。 In the first to third embodiments, the upward direction of the vehicle is set as the virtual camera position, and the captured image of the in-vehicle camera is converted into a bird's-eye image as seen from the virtual camera position, and a plurality of bird's-eye views that have been converted to video are converted. In a device that stores an image in a primary storage memory and generates a composite image around the vehicle using a plurality of bird's-eye images stored in the primary storage memory, if the posture of the in-vehicle camera relative to the road surface is determined to be abnormal, An image in which a second parameter representing the actual position and orientation of the in-vehicle camera is specified from the amount of change in the posture of the camera with respect to the road surface, and a captured image of the in-vehicle camera is captured by the virtual camera using the second parameter However, the system is affected by changes in the angle of the in-vehicle camera, for example, the in-vehicle camera attached to the vehicle. In a system that estimates the distance from an image pixel to an object, if the posture of the in-vehicle camera with respect to the road surface is determined to be abnormal, the actual position and orientation of the in-vehicle camera are represented from the amount of change in the posture of the in-vehicle camera with respect to the road surface. The second parameter may be specified, and the captured image of the in-vehicle camera may be converted into an image captured by the virtual camera using the second parameter.
また、上記第1実施形態では、車両の姿勢が前方向に傾いた場合と、車両の姿勢が後ろ方向に傾いた場合について、車載カメラの路面に対する姿勢の変化量から車載カメラの路面に対する姿勢が異常となった状態の車載カメラの位置および向きを表す第2のパラメータを特定する例を示したが、車両の姿勢が左方向に傾いた場合、車両の姿勢が右方向に傾いた場合、車両の姿勢が左前方向に傾いた場合、車両の姿勢が左後ろ方向に傾いた場合等、車載カメラの路面に対する姿勢の変化量から実際の車載カメラの位置および向きを表す第2のパラメータを特定することができる。また、第2、第3実施形態についても同様である。 Further, in the first embodiment, the posture of the vehicle-mounted camera with respect to the road surface is determined from the amount of change in the posture of the vehicle-mounted camera with respect to the road surface when the vehicle posture is tilted forward and when the vehicle posture is tilted backward. Although an example in which the second parameter indicating the position and orientation of the in-vehicle camera in an abnormal state is specified has been shown, the vehicle is tilted to the left, the vehicle is tilted to the right, the vehicle The second parameter representing the actual position and orientation of the in-vehicle camera is specified from the amount of change in the attitude of the in-vehicle camera with respect to the road surface, such as when the attitude of the in-vehicle camera is tilted to the left front direction, be able to. The same applies to the second and third embodiments.
また、車両の姿勢が異常であるか否かの判定および車両の姿勢が異常となった状態の車載カメラの位置および向きの変化量の推定を、上記第1実施形態では、傾斜センサからの傾斜情報を用いて行い、第2実施形態では車載カメラ20の撮影画像に含まれる各特徴点のオプティカルフローに基づいて行い、第3実施形態では、車両の旋回時の遠心力による姿勢の変化量および車速信号により特定される車両の加減速による車両の姿勢の変化量に基づいて行うようにしたが、第1〜第3実施形態に示した各手法のうち、少なくとも2つを組み合わせるようにして行うこともできる。
Further, in the first embodiment, the determination of whether or not the posture of the vehicle is abnormal and the estimation of the amount of change in the position and orientation of the in-vehicle camera in the state where the vehicle posture is abnormal are the tilts from the tilt sensor. In the second embodiment, based on the optical flow of each feature point included in the captured image of the in-
また、上記第1〜第3実施形態では、車載カメラ20の位置および向きを表すパラメータとして、車載カメラ20の位置Oを表す座標(X0、Y0、Z0)と水平方向を基準とした車載カメラ20の向き(俯角θ0)と前輪の車軸と後輪の車軸との距離Lを含む例を示したが、このような要素以外の情報をパラメータとして規定するように構成してもよい。
In the first to third embodiments, the coordinates (X 0 , Y 0 , Z 0 ) representing the position O of the in-
また、上記第1〜第3実施形態では、バックカメラとして車両に取り付けられた車載カメラ20の撮影画像から車両周辺の合成画像を生成する例を示したが、バックカメラ以外の車載カメラ20に適用することもできる。
Moreover, in the said 1st-3rd embodiment, although the example which produces | generates the synthetic | combination image of a vehicle periphery from the picked-up image of the vehicle-mounted
また、上記第1〜第3実施形態では、1つの車載カメラ20の撮影画像から車両周辺の合成画像を生成する例を示したが、複数の車載カメラ20の撮影画像から車両周辺の合成画像を生成するように構成してもよい。
Moreover, although the example which produces | generates the synthetic | combination image of a vehicle periphery from the picked-up image of one vehicle-mounted
なお、上記実施形態における構成と特許請求の範囲の構成との対応関係について説明すると、S104、S112が映像変換手段に相当し、S106、S108が合成画像生成手段に相当し、S102が判定手段に相当し、S110が変化量推定手段に相当する。 The correspondence relationship between the configuration of the above embodiment and the configuration of the claims will be described. S104 and S112 correspond to video conversion means, S106 and S108 correspond to composite image generation means, and S102 to determination means. S110 corresponds to the change amount estimating means.
10 制御部
11 カメラ角度推定部
12 映像変換処理部
13 車両移動量計算部
20 車載カメラ
30 表示装置
DESCRIPTION OF
Claims (8)
前記車両の移動に伴って前記映像変換手段により映像変換された複数の画像を一次記憶メモリに記憶させるとともに前記一次記憶メモリに記憶された前記複数の画像を用いて前記車両周辺の合成画像を生成する合成画像生成手段と、を備えた車両周辺監視装置であって、
前記車両の路面に対する姿勢が異常であるか否かを判定する判定手段と、
前記車両の路面に対する姿勢が異常となった状態の前記車載カメラの位置および向きの変化量を推定する変化量推定手段と、を備え、
前記映像変換手段は、前記判定手段により前記車両の路面に対する姿勢が異常であると判定された場合、前記変化量推定手段により推定された前記車両の路面に対する姿勢が異常となった状態の前記車載カメラの位置および向きの変化量から実際の前記車載カメラの位置および向きを表す第2のパラメータを特定し、当該第2のパラメータを用いて前記車載カメラの撮影画像を、前記仮想カメラが撮影したような画像に映像変換することを特徴とする車両周辺監視装置。 Video conversion means for converting a captured image of the in-vehicle camera into an image captured from a virtual camera position different from the in-vehicle camera, using a first parameter that defines the position and orientation of the in-vehicle camera attached to the vehicle; ,
A plurality of images that have undergone video conversion by the video conversion means as the vehicle moves are stored in a primary storage memory, and a composite image around the vehicle is generated using the plurality of images stored in the primary storage memory A vehicle periphery monitoring device comprising:
Determining means for determining whether or not the posture of the vehicle with respect to the road surface is abnormal;
A change amount estimating means for estimating a change amount of the position and orientation of the in-vehicle camera in a state where the posture of the vehicle with respect to the road surface is abnormal,
When the determination means determines that the posture of the vehicle with respect to the road surface is abnormal, the video conversion means has the vehicle-mounted state in which the posture of the vehicle with respect to the road surface estimated by the change amount estimation means is abnormal. A second parameter representing the actual position and orientation of the in-vehicle camera is identified from the amount of change in the position and orientation of the camera, and the captured image of the in-vehicle camera is captured by the virtual camera using the second parameter. A vehicle periphery monitoring device that converts video into such an image.
前記仮想カメラ位置から撮影したような画像は鳥瞰画像であることを特徴とする請求項1ないし7のいずれか1つに記載の車両周辺監視装置。 The virtual camera position is located above the vehicle,
8. The vehicle periphery monitoring device according to claim 1, wherein the image taken from the virtual camera position is a bird's-eye view image.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012050454A JP2013186245A (en) | 2012-03-07 | 2012-03-07 | Vehicle periphery monitoring device |
FR1351791A FR2987928A1 (en) | 2012-03-07 | 2013-02-28 | VEHICLE PERIPHERAL MONITORING APPARATUS |
DE102013203868A DE102013203868A1 (en) | 2012-03-07 | 2013-03-07 | VEHICLE MONITORING DEVICE ENVIRONMENT |
CN2013100721443A CN103303198A (en) | 2012-03-07 | 2013-03-07 | Vehicle circumference monitor device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012050454A JP2013186245A (en) | 2012-03-07 | 2012-03-07 | Vehicle periphery monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013186245A true JP2013186245A (en) | 2013-09-19 |
Family
ID=49029771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012050454A Pending JP2013186245A (en) | 2012-03-07 | 2012-03-07 | Vehicle periphery monitoring device |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2013186245A (en) |
CN (1) | CN103303198A (en) |
DE (1) | DE102013203868A1 (en) |
FR (1) | FR2987928A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140119597A1 (en) * | 2012-10-31 | 2014-05-01 | Hyundai Motor Company | Apparatus and method for tracking the position of a peripheral vehicle |
WO2017216998A1 (en) * | 2016-06-15 | 2017-12-21 | 株式会社Jvcケンウッド | Position change determination device, overhead view image generation device, overhead view image generation system, position change determination method, and program |
KR101864985B1 (en) * | 2017-02-16 | 2018-06-05 | 인하대학교 산학협력단 | Apparatus for compensating around view image distortion according to gradient variation of construction equipment and method thereof |
JP2018152014A (en) * | 2017-03-15 | 2018-09-27 | 株式会社Subaru | Video display device for vehicle |
WO2021068948A1 (en) * | 2019-10-12 | 2021-04-15 | 华为技术有限公司 | Camera control method and monitoring device |
CN113646815A (en) * | 2019-03-29 | 2021-11-12 | 马自达汽车株式会社 | Vehicle arithmetic device |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6380002B2 (en) * | 2014-10-28 | 2018-08-29 | アイシン精機株式会社 | Perimeter monitoring device |
JP2017117315A (en) * | 2015-12-25 | 2017-06-29 | 株式会社デンソー | Display control device |
CN108008596A (en) * | 2017-12-29 | 2018-05-08 | 百维雅(东莞)网络技术有限公司 | A kind of 360 degree of full-view image systems of solid and implementation method |
CN113795140A (en) * | 2019-03-20 | 2021-12-14 | 株式会社久保田 | Harvesting machine |
CN112124199B (en) * | 2019-06-24 | 2024-04-12 | 博世汽车部件(苏州)有限公司 | Imaging method and imaging system for vehicle running road conditions and vehicle |
CN113141574A (en) * | 2021-06-01 | 2021-07-20 | 江铃汽车股份有限公司 | Vehicle abnormal movement monitoring method based on high-precision positioning |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245131A (en) * | 2000-02-29 | 2001-09-07 | Matsushita Electric Ind Co Ltd | Image correcting method and image correcting device |
JP2003274394A (en) * | 2002-03-12 | 2003-09-26 | Denso Corp | Vehicle circumference image processor, program, and recording medium |
JP2004064441A (en) * | 2002-07-29 | 2004-02-26 | Sumitomo Electric Ind Ltd | Onboard image processor and ambient monitor system |
WO2006087993A1 (en) * | 2005-02-15 | 2006-08-24 | Matsushita Electric Industrial Co., Ltd. | Periphery supervising device, and periphery supervising method |
JP2010245821A (en) * | 2009-04-06 | 2010-10-28 | Denso Corp | Image display for vehicle |
JP2011130262A (en) * | 2009-12-18 | 2011-06-30 | Honda Motor Co Ltd | Apparatus for monitoring surroundings of vehicle |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03286306A (en) | 1990-04-03 | 1991-12-17 | Mitsubishi Electric Corp | Numerical controller |
EP2267656A3 (en) * | 1998-07-31 | 2012-09-26 | Panasonic Corporation | Image displaying apparatus und image displaying method |
JP4156214B2 (en) * | 2001-06-13 | 2008-09-24 | 株式会社デンソー | Vehicle periphery image processing apparatus and recording medium |
JP4075722B2 (en) * | 2003-07-22 | 2008-04-16 | 日産自動車株式会社 | Display control device for vehicle |
JP4596978B2 (en) * | 2005-03-09 | 2010-12-15 | 三洋電機株式会社 | Driving support system |
JP2007102798A (en) | 2006-10-11 | 2007-04-19 | Denso Corp | Vehicle circumference monitoring system |
JP4770755B2 (en) | 2007-02-26 | 2011-09-14 | 株式会社デンソー | Road sign recognition device |
-
2012
- 2012-03-07 JP JP2012050454A patent/JP2013186245A/en active Pending
-
2013
- 2013-02-28 FR FR1351791A patent/FR2987928A1/en not_active Withdrawn
- 2013-03-07 DE DE102013203868A patent/DE102013203868A1/en not_active Withdrawn
- 2013-03-07 CN CN2013100721443A patent/CN103303198A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001245131A (en) * | 2000-02-29 | 2001-09-07 | Matsushita Electric Ind Co Ltd | Image correcting method and image correcting device |
JP2003274394A (en) * | 2002-03-12 | 2003-09-26 | Denso Corp | Vehicle circumference image processor, program, and recording medium |
JP2004064441A (en) * | 2002-07-29 | 2004-02-26 | Sumitomo Electric Ind Ltd | Onboard image processor and ambient monitor system |
WO2006087993A1 (en) * | 2005-02-15 | 2006-08-24 | Matsushita Electric Industrial Co., Ltd. | Periphery supervising device, and periphery supervising method |
JP2010245821A (en) * | 2009-04-06 | 2010-10-28 | Denso Corp | Image display for vehicle |
JP2011130262A (en) * | 2009-12-18 | 2011-06-30 | Honda Motor Co Ltd | Apparatus for monitoring surroundings of vehicle |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140119597A1 (en) * | 2012-10-31 | 2014-05-01 | Hyundai Motor Company | Apparatus and method for tracking the position of a peripheral vehicle |
US9025819B2 (en) * | 2012-10-31 | 2015-05-05 | Hyundai Motor Company | Apparatus and method for tracking the position of a peripheral vehicle |
WO2017216998A1 (en) * | 2016-06-15 | 2017-12-21 | 株式会社Jvcケンウッド | Position change determination device, overhead view image generation device, overhead view image generation system, position change determination method, and program |
KR101864985B1 (en) * | 2017-02-16 | 2018-06-05 | 인하대학교 산학협력단 | Apparatus for compensating around view image distortion according to gradient variation of construction equipment and method thereof |
JP2018152014A (en) * | 2017-03-15 | 2018-09-27 | 株式会社Subaru | Video display device for vehicle |
CN113646815A (en) * | 2019-03-29 | 2021-11-12 | 马自达汽车株式会社 | Vehicle arithmetic device |
CN113646815B (en) * | 2019-03-29 | 2023-08-25 | 马自达汽车株式会社 | Vehicle computing device |
WO2021068948A1 (en) * | 2019-10-12 | 2021-04-15 | 华为技术有限公司 | Camera control method and monitoring device |
Also Published As
Publication number | Publication date |
---|---|
CN103303198A (en) | 2013-09-18 |
FR2987928A1 (en) | 2013-09-13 |
DE102013203868A1 (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013186245A (en) | Vehicle periphery monitoring device | |
US10363872B2 (en) | Periphery monitoring device | |
US9902323B2 (en) | Periphery surveillance apparatus and program | |
JP6028848B2 (en) | Vehicle control apparatus and program | |
JP6361382B2 (en) | Vehicle control device | |
JP7211047B2 (en) | Road surface detection device and road surface detection program | |
WO2015083228A1 (en) | Display control apparatus, display control method, and program | |
JP2016119570A (en) | Vehicle periphery monitoring device | |
JP2015058915A (en) | Vehicular roll angle estimation device | |
JP2016078484A (en) | Image generation apparatus and image generation method | |
JP6326869B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP7013751B2 (en) | Image processing equipment | |
JP2022126659A (en) | Vehicle image processing device, vehicle image processing system, vehicle image processing method, and program | |
JP2020077251A (en) | Periphery monitoring device | |
JP5891880B2 (en) | In-vehicle image display device | |
JP6941949B2 (en) | Vehicle image display device | |
JP6816436B2 (en) | Peripheral monitoring device | |
JP2008230561A (en) | Photographing control device and photometry area adjustment method | |
WO2022107235A1 (en) | Image processing device, image processing method, program, and image processing system | |
JP7454177B2 (en) | Peripheral monitoring device and program | |
JP2018152822A (en) | Video display device for vehicle | |
JP2019125894A (en) | On-vehicle image processing device | |
JP2019186620A (en) | Image processing system | |
JP6772716B2 (en) | Peripheral monitoring device | |
JP2018039295A (en) | Display method for display apparatus and display apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150310 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150707 |