JP2017200000A - Periphery monitoring device and periphery monitoring method - Google Patents

Periphery monitoring device and periphery monitoring method Download PDF

Info

Publication number
JP2017200000A
JP2017200000A JP2016087936A JP2016087936A JP2017200000A JP 2017200000 A JP2017200000 A JP 2017200000A JP 2016087936 A JP2016087936 A JP 2016087936A JP 2016087936 A JP2016087936 A JP 2016087936A JP 2017200000 A JP2017200000 A JP 2017200000A
Authority
JP
Japan
Prior art keywords
image
vehicle
bird
periphery monitoring
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016087936A
Other languages
Japanese (ja)
Other versions
JP6718295B2 (en
Inventor
前田 優
Masaru Maeda
優 前田
大輝 吉田
Daiki Yoshida
大輝 吉田
博彦 柳川
Hirohiko Yanagawa
博彦 柳川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2016087936A priority Critical patent/JP6718295B2/en
Publication of JP2017200000A publication Critical patent/JP2017200000A/en
Application granted granted Critical
Publication of JP6718295B2 publication Critical patent/JP6718295B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To allow for correct recognition of a distance feeling to an object existing on the periphery of a vehicle by an operator.SOLUTION: A periphery monitoring system is applied to a vehicle equipped with an on-vehicle camera 10 for shooting the vehicle periphery, and a display device 11 for displaying an image, where an image captured by the on-vehicle camera 10 is converted into a bird's eye view, viewing the pavement from a virtual view point set above the vehicle, and displayed in the display device 11. An ECU 20 crops the image in the peripheral region of the ground part of the object on the pavement and the pavement from a captured image or the bird's eye view image, and connects the remaining images thus performing correction for matching the position of the object on an image displayed in the display device 11 to the actual position of the object.SELECTED DRAWING: Figure 1

Description

本発明は、周辺監視装置及び周辺監視方法に関し、詳しくは、車両の周囲を撮影領域とするカメラと、画像を表示する表示装置とが搭載された車両に適用される周辺監視装置及び周辺監視方法に関する。   The present invention relates to a periphery monitoring device and a periphery monitoring method, and more specifically, a periphery monitoring device and a periphery monitoring method applied to a vehicle equipped with a camera having a photographing area around the vehicle and a display device for displaying an image. About.

従来、車両周囲の状況を車載カメラで撮影するとともに、その車載カメラで撮影した撮影画像を鳥瞰画像に変換して、車載の表示装置に表示させることが行われている(例えば、特許文献1参照)。特許文献1には、撮影画像を鳥瞰画像に変換するとともに、障害物検出センサによって物体の輪郭が特定されていれば、その特定した物体の輪郭によって囲まれた領域を少なくとも含むように物体の輪郭を境界の一部とした鳥瞰画像の領域である対象領域を、撮影画像を撮影したときのカメラの中心へと向かう方向に圧縮して最終出力画像として出力することが開示されている。これにより、撮影画像を鳥瞰画像に変換することによって歪んだ画像を修正し、自車の周囲の状況をより正確に把握させるようにしている。   Conventionally, a situation around a vehicle is photographed with an in-vehicle camera, and a captured image photographed with the in-vehicle camera is converted into a bird's-eye view image and displayed on an in-vehicle display device (see, for example, Patent Document 1). ). In Patent Document 1, a photographed image is converted into a bird's-eye view image, and if the outline of the object is specified by the obstacle detection sensor, the outline of the object is included so as to include at least a region surrounded by the specified outline of the object. It is disclosed that a target region, which is a bird's-eye image region with a part of the boundary, is compressed in a direction toward the center of the camera when the photographed image is photographed and output as a final output image. Thereby, the distorted image is corrected by converting the captured image into the bird's-eye view image, and the situation around the own vehicle is more accurately grasped.

特開2012−156632号公報JP 2012-156632 A

路面上に存在する車両等の立体物が被写体の一つである場合、バンパ部のように路面から浮いた部分については、車両の上方から路面上を見た鳥瞰画像に変換することにより、実際の位置よりも遠い位置にあるものとして画像が表示されてしまう。この場合、表示画像を見た運転者が、車両周囲に存在する物体との距離感に誤認を生じてしまうことが懸念される。   When a three-dimensional object such as a vehicle on the road surface is one of the subjects, a part floating from the road surface such as a bumper part is actually converted into a bird's-eye view of the road surface viewed from above the vehicle. The image is displayed as being located farther than the position of. In this case, there is a concern that the driver who sees the display image may misidentify the sense of distance from an object existing around the vehicle.

本発明は上記課題に鑑みなされたものであり、車両の周囲に存在する物体との距離感を運転者が正しく認識することができる周辺監視装置及び周辺監視方法を提供することを一つの目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a periphery monitoring device and a periphery monitoring method that allow a driver to correctly recognize a sense of distance from an object existing around a vehicle. To do.

本発明は、上記課題を解決するために、以下の手段を採用した。   The present invention employs the following means in order to solve the above problems.

本発明は、車両の周囲を撮影領域とするカメラ(10)と、画像を表示する表示装置(11)とが搭載された車両(50)に適用され、前記カメラにより撮影した撮影画像を、前記車両の上方に設定した仮想視点から路面上を見た鳥瞰画像に変換して前記表示装置に表示させる周辺監視装置に関する。請求項1に記載の発明は、前記路面上の物体と前記路面との接地部(54)の周辺領域の画像を前記撮影画像又は前記鳥瞰画像から切り出し、その切り出し後の残りの画像を繋ぎ合わせることにより、前記表示装置に表示される画像上における前記物体の位置を、前記物体の実際の位置に整合させる補正を行う画像補正部を備えることを特徴とする。   The present invention is applied to a vehicle (50) equipped with a camera (10) having a shooting area around the vehicle and a display device (11) for displaying an image. The present invention relates to a periphery monitoring device that converts a virtual viewpoint set above a vehicle into a bird's-eye image viewed on a road surface and displays the bird's-eye image on the display device. According to the first aspect of the present invention, an image of an area around the ground contact portion (54) between the object on the road surface and the road surface is cut out from the photographed image or the bird's-eye view image, and the remaining images after the cut-out are joined together. Accordingly, an image correction unit that performs correction for matching the position of the object on the image displayed on the display device with the actual position of the object is provided.

上記構成では、路面上の物体と路面との接地部の周辺領域の画像を撮影画像又は鳥瞰画像から切り出し、その切り出し後の残りの画像を繋ぎ合わせることによって、表示画像上での物体の位置を実際の位置に整合させる補正を行う。路面上に存在する車両等の立体物を撮影した場合に、平面仮定で鳥瞰画像に変換すると、鳥瞰画像上において物体が実際よりも遠い位置に表示され、運転者が物体との距離を誤認識するおそれがある。この点に鑑み、上記構成とすることで、表示装置に物体を正しい位置で表示させることができる。これにより、車両の周囲に存在する物体との距離感を運転者が正しく認識することができる。   In the above configuration, the image of the peripheral area of the contact portion between the object on the road surface and the road surface is cut out from the photographed image or the bird's-eye view image, and the remaining image after the cut-out is connected to thereby position the object on the display image. Correction to match the actual position is performed. When shooting a three-dimensional object such as a vehicle on the road surface, if it is converted to a bird's-eye view image on a plane assumption, the object is displayed at a position farther than the actual position on the bird's-eye view image, and the driver misrecognizes the distance to the object. There is a risk. In view of this point, with the above-described configuration, the display device can display an object at a correct position. As a result, the driver can correctly recognize a sense of distance from an object existing around the vehicle.

車載カメラの搭載位置を示す図。The figure which shows the mounting position of a vehicle-mounted camera. 第1実施形態の車両周辺監視システムの概略構成を示すブロック図。The block diagram which shows schematic structure of the vehicle periphery monitoring system of 1st Embodiment. 視点変換に伴う表示ずれを説明するための図。The figure for demonstrating the display shift accompanying a viewpoint conversion. 画像補正処理の具体的態様を説明する図。The figure explaining the specific aspect of an image correction process. 画像補正処理の処理手順を示すフローチャート。6 is a flowchart showing a processing procedure for image correction processing. 第2実施形態の車両周辺監視システムの概略構成を示すブロック図。The block diagram which shows schematic structure of the vehicle periphery monitoring system of 2nd Embodiment. 画像補正処理の具体的態様を説明する図。The figure explaining the specific aspect of an image correction process. 画像補正処理の処理手順を示すフローチャート。6 is a flowchart showing a processing procedure for image correction processing. 物体の反射面情報を求める手法を説明する図。The figure explaining the method of calculating | requiring the reflective surface information of an object.

(第1実施形態)
以下、第1実施形態を図面に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付しており、同一符号の部分についてはその説明を援用する。
(First embodiment)
Hereinafter, a first embodiment will be described with reference to the drawings. In the following embodiments, parts that are the same or equivalent to each other are denoted by the same reference numerals in the drawings, and the description of the same reference numerals is used.

まず、図1及び図2を参照して、本実施形態の車両周辺監視システムについて説明する。本実施形態の車両周辺監視システムは、図1に示すように、車両周辺を撮影領域A1とする車載カメラ10と、画像を表示する表示装置11とが搭載された車両(以下、「自車両50」という。)に適用される。当該システムでは、ECU20により、車載カメラ10により撮影した撮影画像を、自車両50の上方に設定した仮想視点から路面上を見た鳥瞰画像に変換して表示装置11に表示させる制御が実施される。   First, with reference to FIG.1 and FIG.2, the vehicle periphery monitoring system of this embodiment is demonstrated. As shown in FIG. 1, the vehicle periphery monitoring system according to the present embodiment includes a vehicle (hereinafter referred to as “own vehicle 50”) in which an in-vehicle camera 10 that has an imaging area A1 around the vehicle and a display device 11 that displays an image are mounted. "). In the system, the ECU 20 performs control for converting the captured image captured by the in-vehicle camera 10 into a bird's-eye image viewed on the road surface from the virtual viewpoint set above the host vehicle 50 and displaying the image on the display device 11. .

車載カメラ10は、例えばCCDカメラ、CMOSイメージセンサ、近赤外線カメラ等の単眼カメラで構成されている。車載カメラ10は、自車両50の前部において車幅方向中央の所定高さ(例えば、前部バンパよりも上の位置)に取り付けられており、車両前方へ向けて所定角度範囲で広がる領域を俯瞰視点から撮影する。表示装置11は、運転者が視認可能な位置(例えばインストルメントパネル)に設けられている。   The in-vehicle camera 10 is composed of a monocular camera such as a CCD camera, a CMOS image sensor, or a near infrared camera. The in-vehicle camera 10 is attached to a predetermined height (for example, a position above the front bumper) in the center of the vehicle width direction at the front portion of the host vehicle 50, and has a region extending in a predetermined angle range toward the front of the vehicle. Shoot from a bird's eye view. The display device 11 is provided at a position (for example, an instrument panel) that is visible to the driver.

図2は、本実施形態の車両周辺監視システムの概略構成を示すブロック図である。当該システムには、図2に示すように、自車両50の周囲に存在する物体までの距離を検出する測距センサとして、探査波を送信するとともに探査波の反射波を受信する超音波センサ12が設けられている。   FIG. 2 is a block diagram showing a schematic configuration of the vehicle periphery monitoring system of the present embodiment. As shown in FIG. 2, the system includes an ultrasonic sensor 12 that transmits a search wave and receives a reflected wave of the search wave as a distance measurement sensor that detects a distance to an object existing around the host vehicle 50. Is provided.

超音波センサ12は、例えばソナーであり、所定の制御周期ごとに探査波を送波し、自車両50の周囲に存在する物体で反射された反射波を受波する。この送波から受波までの時間である反射波時間に基づき、自車両50の周囲に存在する物体と自車両50との距離が算出される。本実施形態では、自車両50の前部及び後部のバンパ部に、それぞれ複数個の超音波センサ12が車幅方向に並べて所定間隔で取り付けられている。   The ultrasonic sensor 12 is, for example, a sonar, and transmits an exploration wave at every predetermined control period, and receives a reflected wave reflected by an object existing around the host vehicle 50. Based on the reflected wave time, which is the time from transmission to reception, the distance between the object existing around the host vehicle 50 and the host vehicle 50 is calculated. In the present embodiment, a plurality of ultrasonic sensors 12 are respectively attached to the front and rear bumper portions of the host vehicle 50 at predetermined intervals in the vehicle width direction.

ECU20は、CPU、ROM、RAM、I/O等を備えたコンピュータであり、CPUが、ROMにインストールされているプログラムを実行することで、自車両50の周辺の状況を表示装置11に表示して運転者に把握させるための各機能を実現する。本実施形態のECU20は、画像取得部21と、視点変換部22と、距離演算部23と、画像補正部24と、画像出力部25とを備えている。   ECU20 is a computer provided with CPU, ROM, RAM, I / O, etc., CPU displays the condition of the periphery of the own vehicle 50 on the display apparatus 11 by running the program installed in ROM. Each function to make the driver grasp it. The ECU 20 of this embodiment includes an image acquisition unit 21, a viewpoint conversion unit 22, a distance calculation unit 23, an image correction unit 24, and an image output unit 25.

画像取得部21は、車載カメラ10に接続されており、車載カメラ10で撮影された撮影画像を一定周期で取得する。また、取得した撮影画像を視点変換部22に出力する。視点変換部22は、画像取得部21で取得した撮影画像を、周知の座標変換式を用いることにより、自車両50の上方に設定した仮想視点を視点位置として路面上を見た鳥瞰画像に変換する。本実施形態では、地上面を鉛直方向に見下ろした鳥瞰画像に変換する。視点変換部22は、生成した鳥瞰画像を画像補正部24に出力する。   The image acquisition unit 21 is connected to the vehicle-mounted camera 10 and acquires captured images captured by the vehicle-mounted camera 10 at a constant period. The acquired captured image is output to the viewpoint conversion unit 22. The viewpoint conversion unit 22 converts the captured image acquired by the image acquisition unit 21 into a bird's-eye image viewed on the road surface with the virtual viewpoint set above the host vehicle 50 as the viewpoint position by using a known coordinate conversion formula. To do. In the present embodiment, the image is converted into a bird's-eye view image in which the ground surface is looked down in the vertical direction. The viewpoint conversion unit 22 outputs the generated bird's-eye view image to the image correction unit 24.

距離演算部23は、超音波センサ12に接続されており、超音波センサ12で検知された物体に関する位置情報として反射波時間を入力する。また、その入力した反射波時間に基づいて、探査波を反射した物体との実距離dを算出する。画像補正部24は、視点変換部22から鳥瞰画像を入力し、必要に応じた補正を行って画像出力部25に出力する。画像出力部25は、画像補正部24から入力した鳥瞰画像を表示装置11に出力し、表示装置11に鳥瞰画像を表示させる。   The distance calculation unit 23 is connected to the ultrasonic sensor 12 and inputs the reflected wave time as position information related to the object detected by the ultrasonic sensor 12. Further, based on the input reflected wave time, an actual distance d with respect to the object reflecting the exploration wave is calculated. The image correction unit 24 receives the bird's-eye image from the viewpoint conversion unit 22, performs correction as necessary, and outputs the image to the image output unit 25. The image output unit 25 outputs the bird's-eye image input from the image correction unit 24 to the display device 11 and causes the display device 11 to display the bird's-eye image.

ここで、路面上に存在する車両等の立体物が被写体の一つである場合、バンパ部のように路面から浮いた部分は、その撮影画像を鳥瞰画像に変換すると、バンパ部よりも遠い位置にあるはずの車両下の路面が自車両50により近い位置にあるものとして、路面画像の上にバンパ画像が繋ぎ合わされる。そのため、表示装置11には、実際よりも遠い位置にバンパ画像が表示されてしまい、表示画像を見た運転者が、車両周辺に存在する物体との距離感に誤認を生じるといったことが懸念される。   Here, when a three-dimensional object such as a vehicle existing on the road surface is one of the subjects, a portion that floats from the road surface, such as a bumper portion, is farther from the bumper portion when the captured image is converted into a bird's-eye view image. Assuming that the road surface under the vehicle that is supposed to be located at a position closer to the host vehicle 50, the bumper image is connected to the road image. For this reason, the bumper image is displayed on the display device 11 at a position farther than the actual position, and there is a concern that the driver who viewed the display image may misidentify the sense of distance from an object existing around the vehicle. The

図3は、視点変換に伴う表示ずれを説明するための図であり、(a)は、自車両50の前方に停車している他車両51を車載カメラ10で撮影した撮影画像であり、(b)は、自車両50と他車両51との位置関係を側方及び上方から見た図である。(b)の下段の図が鳥瞰画像に相当する。図3(a)の撮影画像中の白線52は、他車両51を地上面に向かって鉛直方向に見下ろしたときの他車両51の後部バンパ後端部の位置を路面53上にテープ等で示したものである。矢印Aは画像の上下方向を表し、矢印Bは画像の左右方向を表す(以下同じ)。   FIG. 3 is a diagram for explaining a display shift caused by viewpoint conversion. FIG. 3A is a photographed image obtained by photographing the other vehicle 51 stopped in front of the host vehicle 50 with the in-vehicle camera 10. b) is a view of the positional relationship between the host vehicle 50 and the other vehicle 51 as viewed from the side and above. The lower diagram in (b) corresponds to the bird's-eye view image. A white line 52 in the photographed image of FIG. 3A indicates the position of the rear end of the rear bumper of the other vehicle 51 on the road surface 53 with a tape or the like when the other vehicle 51 is looked down vertically toward the ground surface. It is a thing. An arrow A represents the vertical direction of the image, and an arrow B represents the horizontal direction of the image (hereinafter the same).

撮影画像から鳥瞰画像への変換は、撮影画像中の下のピクセルから上に向かって順に、自車両50からより遠くの位置の画像として変換される。ここで、図3(a)に示されるように、他車両51の後部バンパの後端部上の点Pと、白線52とは、自車両50からの距離が実際には同じであるにも関わらず、撮影画像上では、点Pは白線52よりも上の位置に表される。また、点Pは、撮影画像上では車両下の路面上の点Q(例えば、他車両51と路面53との接地部)よりも上の位置に表される。そのため、図3(a)の撮影画像が鳥瞰画像に変換されると、他車両51の後部バンパの後端部は、白線52からバンパ下端部までのピクセル数に対応する分、自車両50から遠い位置に表示される。すなわち、図3(b)に示すように、他車両51は、実距離dよりも表示ずれ量xだけ自車両50から遠い位置にある障害物として表示装置11に表示される。表示ずれ量xは、車載カメラ10の搭載高さCh、バンパ下端高さBh、及び他車両51との実距離dを用いて、下記式(1)により算出することができる。
x=(Bh/(Ch−Bh))×d …(1)
The conversion from the captured image to the bird's-eye view image is performed as an image at a position farther from the host vehicle 50 in order from the lower pixel in the captured image upward. Here, as shown in FIG. 3A, the point P on the rear end of the rear bumper of the other vehicle 51 and the white line 52 are actually the same distance from the host vehicle 50. Regardless, the point P is represented at a position above the white line 52 on the captured image. Further, the point P is represented at a position above the point Q (for example, the ground contact portion between the other vehicle 51 and the road surface 53) on the road surface below the vehicle on the photographed image. Therefore, when the captured image of FIG. 3A is converted into a bird's-eye view image, the rear end of the rear bumper of the other vehicle 51 corresponds to the number of pixels from the white line 52 to the lower end of the bumper. It is displayed at a far position. That is, as shown in FIG. 3B, the other vehicle 51 is displayed on the display device 11 as an obstacle located at a position farther from the host vehicle 50 by the display deviation amount x than the actual distance d. The display deviation amount x can be calculated by the following equation (1) using the mounting height Ch of the in-vehicle camera 10, the bumper lower end height Bh, and the actual distance d from the other vehicle 51.
x = (Bh / (Ch−Bh)) × d (1)

こうした点に鑑み、画像補正部24は、鳥瞰画像の一部、より具体的には、物体(図3では他車両51)と路面53との接地部54の周辺領域の画像を切り出し、その切り出した後の残りの画像を繋ぎ合わせることにより、表示画像上における物体までの距離を実距離dに整合させる補正を実施することとしている。   In view of these points, the image correction unit 24 cuts out a part of the bird's-eye view image, more specifically, an image of a peripheral region of the ground contact unit 54 between the object (the other vehicle 51 in FIG. 3) and the road surface 53. After that, the remaining images are connected to each other so that the distance to the object on the display image is matched with the actual distance d.

図4は、本実施形態における、視点変換に伴う表示ずれを解消するための画像補正処理の具体的態様を説明する図である。図4中、(a)は、自車両50の前方に停車している他車両51を撮影した撮影画像であり、(b)は、視点変換部22で生成した鳥瞰画像である。画像補正部24は、まず、視点変換部22から鳥瞰画像を取得する。そして、その取得した鳥瞰画像上の他車両51の接地部54の周辺領域の画像を切り出す処理を実行する。   FIG. 4 is a diagram for explaining a specific mode of image correction processing for eliminating display shifts associated with viewpoint conversion in the present embodiment. In FIG. 4, (a) is a photographed image obtained by photographing another vehicle 51 stopped in front of the host vehicle 50, and (b) is a bird's-eye image generated by the viewpoint conversion unit 22. The image correction unit 24 first acquires a bird's-eye image from the viewpoint conversion unit 22. And the process which cuts out the image of the peripheral region of the grounding part 54 of the other vehicle 51 on the acquired bird's-eye view image is executed.

具体的には、画像補正部24は、超音波センサ12によって取得した物体の距離情報を用い、その距離情報を鳥瞰画像上の座標に変換することによってセンサ検知点を特定することにより、画像上における物体の実際の位置を推定する。また、センサ検知点の上部の所定領域の画像を切り出し領域に設定する(図4(c)参照)。ここでは、センサ検知点列を基準に、センサ検知点列から画像の上方向に所定幅H1を有し、かつ画像の左右方向に典型的車幅に対応する所定幅H2を有する画像領域を切り出し領域に設定する。所定幅H1について本実施形態では、上記式(1)を用いて算出される表示ずれ量xに応じて設定する。なお、所定幅H1を、予め定めた一定値としてもよい。所定幅H1、H2について、他車両51の車種に応じて設定してもよい。   Specifically, the image correction unit 24 uses the distance information of the object acquired by the ultrasonic sensor 12 and converts the distance information into coordinates on the bird's-eye view image, thereby specifying the sensor detection point. Estimate the actual position of the object at. In addition, an image of a predetermined area above the sensor detection point is set as a cutout area (see FIG. 4C). Here, based on the sensor detection point sequence, an image region having a predetermined width H1 in the upward direction of the image from the sensor detection point sequence and having a predetermined width H2 corresponding to a typical vehicle width in the left-right direction of the image is cut out. Set to area. In the present embodiment, the predetermined width H1 is set according to the display deviation amount x calculated using the above equation (1). The predetermined width H1 may be a predetermined constant value. The predetermined widths H1 and H2 may be set according to the vehicle type of the other vehicle 51.

切り出し領域を設定すると、その切り出し領域の画像を鳥瞰画像から切り出す。画像を切り出した後は、切り出し領域よりも上の画像を下にずらして画像を繋ぎ合わせ、その繋ぎ合わせた後の画像を表示装置11に表示させる。なお、距離演算部23及び画像補正部24が位置推定部として機能する。   When the cutout area is set, the image of the cutout area is cut out from the bird's-eye view image. After the images are cut out, the images above the cut-out area are shifted downward to connect the images, and the images after the connection are displayed on the display device 11. The distance calculation unit 23 and the image correction unit 24 function as a position estimation unit.

次に、画像補正処理の処理手順を図5のフローチャートを用いて説明する。この処理は、ECU20によって所定周期毎に実行される。   Next, the processing procedure of the image correction process will be described with reference to the flowchart of FIG. This process is executed by the ECU 20 at predetermined intervals.

図5において、ステップS11では、車載カメラ10から撮像画像を取得し、ステップS12で、撮像画像を視点変換して鳥瞰画像を生成する。続くステップS13では、超音波センサ12によって取得した物体の位置情報をメモリから読み込む。また、ステップS14では、読み込んだ物体の位置情報から、鳥瞰画像上における物体の実際の位置を推定するとともに、その推定した位置の上の画像領域に切り出し領域を設定する。続くステップS15では、その設定した切り出し領域の画像を鳥瞰画像から切り出し、ステップS16では、切り出した領域よりも上の画像を下にずらして画像を繋ぎ合わせる。ステップS17では、補正後の鳥瞰画像を表示装置11に出力して処理を終了する。   In FIG. 5, in step S11, a captured image is acquired from the in-vehicle camera 10, and in step S12, the captured image is subjected to viewpoint conversion to generate a bird's-eye view image. In subsequent step S13, the position information of the object acquired by the ultrasonic sensor 12 is read from the memory. In step S14, the actual position of the object on the bird's-eye view image is estimated from the position information of the read object, and a cutout area is set in the image area above the estimated position. In subsequent step S15, the image of the set cut-out area is cut out from the bird's-eye view image, and in step S16, the image above the cut-out area is shifted downward to connect the images. In step S17, the corrected bird's-eye view image is output to the display device 11, and the process ends.

以上詳述した本実施形態によれば、次の優れた効果が得られる。   According to the embodiment described in detail above, the following excellent effects can be obtained.

路面上の物体と路面53との接地部54の周辺領域の画像を鳥瞰画像から切り出し、その切り出し後の残りの画像を繋ぎ合わせることによって、表示画像上での物体の位置を実際の位置に整合させる補正を行う構成とした。車両のように一部が浮いた構造の立体物を平面仮定で鳥瞰画像に変換すると、鳥瞰画像上において物体が実際よりも遠い位置に表示される。この点に鑑み、上記構成とすることで、表示装置11に物体を正しい位置で表示させることができる。その結果、車両の周囲に存在する物体との距離感を運転者が正しく認識することができる。   The image of the area around the ground contact portion 54 between the object on the road surface and the road surface 53 is cut out from the bird's-eye view image, and the remaining images after the cut-out are connected to match the position of the object on the display image with the actual position. It was set as the structure which performs correction | amendment. When a three-dimensional object with a partly floating structure such as a vehicle is converted into a bird's-eye view image on the assumption of a plane, the object is displayed at a position farther than the actual position on the bird's-eye view image. In view of this point, with the above-described configuration, the display device 11 can display an object at a correct position. As a result, the driver can correctly recognize the sense of distance from objects existing around the vehicle.

車載カメラ10で認識した物体の画像上での実際の位置を推定し、その推定した位置に基づいて、接地部54の周辺領域に画像の切り出し領域を設定するとともに、該設定した切り出し領域の画像を鳥瞰画像から切り出す構成とした。こうした構成によれば、鳥瞰画像としたときの表示ずれ量xを正確に把握して画像を切り出すことができ、表示位置補正を精度良く行うことができる。   The actual position on the image of the object recognized by the vehicle-mounted camera 10 is estimated, and based on the estimated position, an image clipping region is set in the peripheral region of the grounding unit 54, and the image of the set clipping region is set. Is cut out from a bird's-eye view image. According to such a configuration, it is possible to accurately grasp the display deviation amount x when it is a bird's-eye view image and cut out the image, and display position correction can be performed with high accuracy.

特に本実施形態では、測距センサの検知結果に基づいて、画像上における物体の実際の位置を推定し、その推定した位置に基づいて画像の切り出し領域を設定する構成とした。測距センサによれば、物体との実際の距離を精度良く検知することができ、表示ずれ量xを正確に把握することができる。   In particular, in the present embodiment, the actual position of the object on the image is estimated based on the detection result of the distance measuring sensor, and the image clipping region is set based on the estimated position. According to the distance measuring sensor, the actual distance from the object can be detected with high accuracy, and the display deviation amount x can be accurately grasped.

切り出し領域が大きすぎると、表示装置11に表示したときに画像が不自然なものになったり、処理に時間がかかったりすることが考えられる。この点に鑑み、物体幅に応じて画像の切り出し領域を設定する構成とした。こうした構成とすることにより、物体の位置の表示ずれを解消しつつ、より自然な画像を運転者に提供することができる。   If the cutout area is too large, the image may be unnatural when displayed on the display device 11 or the process may take a long time. In view of this point, the image clipping region is set according to the object width. By adopting such a configuration, it is possible to provide the driver with a more natural image while eliminating the display deviation of the position of the object.

(第2実施形態)
次に、第2実施形態について、上記第1実施形態との相違点を中心に説明する。上記第1実施形態では、画像補正部24は、接地部54の周辺領域の画像を鳥瞰画像から切り出し、その切り出し後の残りの画像を繋ぎ合わせる補正を実施した。これに対し、本実施形態では、接地部54の周辺領域の画像を撮影画像から切り出し、その切り出し後の残りの画像を繋ぎ合わせる補正を実施する。
(Second Embodiment)
Next, the second embodiment will be described focusing on the differences from the first embodiment. In the first embodiment, the image correction unit 24 cuts out an image of the peripheral region of the grounding unit 54 from the bird's-eye view image, and performs correction for joining the remaining images after the cut-out. On the other hand, in the present embodiment, an image of the peripheral area of the grounding unit 54 is cut out from the captured image, and correction is performed to join the remaining images after the cut-out.

図6は、本実施形態の車両周辺監視システムの概略構成を示すブロック図である。図6において、画像補正部24は、車載カメラ10の撮影画像を画像取得部21から入力し、その入力した撮影画像につき、表示画像上の表示ずれを抑制するための補正処理を行う。視点変換部22は、画像補正部24から入力した補正後の撮影画像を、周知の座標変換式を用いて鳥瞰画像に変換し、生成した鳥瞰画像を画像出力部25に出力する。画像出力部25は、視点変換部22から入力した鳥瞰画像を表示装置11に出力し、表示装置11に鳥瞰画像を表示させる。   FIG. 6 is a block diagram showing a schematic configuration of the vehicle periphery monitoring system of the present embodiment. In FIG. 6, the image correction unit 24 inputs a captured image of the in-vehicle camera 10 from the image acquisition unit 21, and performs a correction process for suppressing a display shift on the display image for the input captured image. The viewpoint conversion unit 22 converts the corrected captured image input from the image correction unit 24 into a bird's-eye image using a known coordinate conversion formula, and outputs the generated bird's-eye image to the image output unit 25. The image output unit 25 outputs the bird's-eye image input from the viewpoint conversion unit 22 to the display device 11 and causes the display device 11 to display the bird's-eye image.

次に、本実施形態の画像補正処理の具体的態様について図7を用いて説明する。図7の(a)は、自車両50の前方に停車している他車両51を車載カメラ10で撮影した撮影画像である。画像補正部24はまず、画像取得部21から取得した撮影画像上の他車両51の接地部54の周辺領域の画像を切り出す処理を実行する。   Next, a specific aspect of the image correction process of the present embodiment will be described with reference to FIG. FIG. 7A is a photographed image obtained by photographing the other vehicle 51 stopped in front of the host vehicle 50 with the in-vehicle camera 10. First, the image correction unit 24 performs a process of cutting out an image of a peripheral region of the ground contact unit 54 of the other vehicle 51 on the captured image acquired from the image acquisition unit 21.

具体的には、画像補正部24は、超音波センサ12によって取得した物体までの距離情報を鳥瞰画像上の座標に変換することによってセンサ検知点を特定するとともに、センサ検知点の下部の所定領域の画像を切り出し領域に設定する(図7(b)参照)。ここでは、センサ検知点列を基準に、センサ検知点列から画像の下方向に所定幅H4を有し、かつ画像の左右方向に典型的車幅に対応する所定幅H3を有する画像領域を切り出し領域に設定する。そして、その切り出し領域の画像を撮影画像から切り出す。所定幅H4は、バンパ下端高さBhの典型的高さに基づき予め定めた一定値である。ただし、撮影画像からバンパ下端高さBhを推定した推定値を用いてもよい。画像を切り出した後は、切り出し領域よりも上の画像を下にずらして画像を繋ぎ合わせ(図7(c)参照)、その繋ぎ合わせた後の画像を視点変換して鳥瞰画像を生成する(図7(d)参照)。こうして生成された鳥瞰画像を表示装置11に表示させる。なお、距離演算部23及び画像補正部24が位置推定部として機能する。   Specifically, the image correction unit 24 identifies the sensor detection point by converting the distance information to the object acquired by the ultrasonic sensor 12 into coordinates on the bird's-eye view image, and a predetermined region below the sensor detection point. Is set as a cutout area (see FIG. 7B). Here, based on the sensor detection point sequence, an image region having a predetermined width H4 in the lower direction of the image from the sensor detection point sequence and a predetermined width H3 corresponding to a typical vehicle width in the left-right direction of the image is cut out. Set to area. Then, the image of the cutout area is cut out from the captured image. The predetermined width H4 is a constant value determined in advance based on a typical height of the bumper lower end height Bh. However, an estimated value obtained by estimating the bumper lower end height Bh from the captured image may be used. After the image is cut out, the image above the cutout region is shifted downward to connect the images (see FIG. 7C), and the connected images are subjected to viewpoint conversion to generate a bird's-eye view image ( (Refer FIG.7 (d)). The bird's-eye view image generated in this way is displayed on the display device 11. The distance calculation unit 23 and the image correction unit 24 function as a position estimation unit.

次に、画像補正処理の処理手順を図8のフローチャートを用いて説明する。この処理は、ECU20によって所定周期毎に実行される。   Next, the processing procedure of the image correction process will be described with reference to the flowchart of FIG. This process is executed by the ECU 20 at predetermined intervals.

図8において、ステップS21では、車載カメラ10から撮像画像を取得し、ステップS22では、超音波センサ12によって取得した物体の位置情報(本実施形態では、物体の距離情報)をメモリから読み込む。ステップS23では、読み込んだ物体の位置情報から、鳥瞰画像上における物体の実際の位置を推定するとともに、その推定した位置の下の画像領域に切り出し領域を設定する。続くステップS24では、その設定した切り出し領域の画像を鳥瞰画像から切り出し、ステップS25で、切り出した領域よりも上の画像を下にずらして画像を繋ぎ合わせる。その後、ステップS26では、補正後の撮像画像を視点変換して鳥瞰画像を生成し、続くステップS27で、補正後の鳥瞰画像を表示装置11に出力して処理を終了する。   In FIG. 8, in step S21, a captured image is acquired from the in-vehicle camera 10, and in step S22, object position information (in the present embodiment, object distance information) acquired by the ultrasonic sensor 12 is read from the memory. In step S23, the actual position of the object on the bird's-eye view image is estimated from the position information of the read object, and a cutout area is set in the image area below the estimated position. In subsequent step S24, the image of the set cutout region is cut out from the bird's-eye view image, and in step S25, the image above the cutout region is shifted downward to connect the images. Thereafter, in step S26, the corrected captured image is subjected to viewpoint conversion to generate a bird's-eye view image, and in subsequent step S27, the corrected bird's-eye view image is output to the display device 11 and the process is terminated.

(他の実施形態)
本発明は上記の実施形態に限定されず、例えば以下のように実施されてもよい。
(Other embodiments)
The present invention is not limited to the above embodiment, and may be implemented as follows, for example.

・上記実施形態では、超音波センサ12によって検知された物体の位置情報を用いて、画像上における物体の実際の位置を推定し、画像の切り出し領域を設定する構成としたが、車載カメラ10で認識した画像から物体の実際の位置を推定してもよい。例えば、物体の全体又は物体の一部の画像上での大きさに基づいて、画像上での物体の実際の位置を推定する。具体的には、車両のようにある程度決まった大きさの画像や、ナンバープレートのように規定の大きさの画像と、物体までの距離との対応関係を予め定めておき、今回の撮影画像上での物体の大きさから自車両50との距離を推定する。   In the above embodiment, the position information of the object detected by the ultrasonic sensor 12 is used to estimate the actual position of the object on the image, and the cutout area of the image is set. The actual position of the object may be estimated from the recognized image. For example, the actual position of the object on the image is estimated based on the size of the entire object or a part of the object on the image. Specifically, the correspondence between an image of a certain size as in a vehicle, an image of a specified size as in a license plate, and the distance to an object is determined in advance, and The distance from the host vehicle 50 is estimated from the size of the object at.

車載カメラ10が単眼カメラの場合には、自車両50の移動に伴う座標の履歴を用いて自車両50に対する物体の座標を算出することにより、画像上での物体の実際の位置を推定してもよい。また、車載カメラ10としてステレオカメラを備える場合には、ステレオカメラで撮影した複数の画像に基づいて、画像上における物体の実際の位置を推定してもよい。   When the in-vehicle camera 10 is a monocular camera, the actual position of the object on the image is estimated by calculating the coordinates of the object with respect to the own vehicle 50 using the history of coordinates accompanying the movement of the own vehicle 50. Also good. In addition, when the in-vehicle camera 10 includes a stereo camera, the actual position of the object on the image may be estimated based on a plurality of images captured by the stereo camera.

・測距センサとして超音波センサ12を用いる構成において、直接波により取得した距離情報と、間接波により取得した距離情報とを用い、三角測量の原理を利用して、自車両50に対する物体の相対的な位置(座標)を算出するとともに、その座標を用いて画像の切り出し領域を設定してもよい。あるいは、自車両50の移動に伴う反射点の履歴を用い、三角測量の原理を利用して自車両50に対する物体の座標を算出し、その座標を用いて画像の切り出し領域を設定してもよい。   In a configuration using the ultrasonic sensor 12 as a distance measuring sensor, the distance information acquired by the direct wave and the distance information acquired by the indirect wave are used, and the relative of the object with respect to the host vehicle 50 using the principle of triangulation A specific position (coordinates) may be calculated, and an image clipping region may be set using the coordinates. Alternatively, using the history of reflection points accompanying the movement of the host vehicle 50, the coordinates of the object relative to the host vehicle 50 may be calculated using the principle of triangulation, and the image clipping region may be set using the coordinates. .

・測距センサの検知結果に基づいて物体の反射面情報を取得し、その取得した反射面情報を用いて、画像の切り出し領域を設定する構成としてもよい。こうした構成によれば、物体が自車両50に対して正対していない場合にも、物体の向きに応じた適切な表示位置補正を行うことができる。具体的には、自車両50の前方において、自車両50の進行方向に対して斜め方向に傾いて停車している他車両51がある場合、反射面情報を用いて、他車両51における自車両50から最も近い位置を推定し、その推定した位置を基準として画像の切り出し領域を設定する。例えば、他車両51の後部の左端部が自車両50から最も近い位置にある場合には、その左端部から後部バンパに対して平行になるように画像の切り出し領域を設定する。   -It is good also as a structure which acquires the reflective surface information of an object based on the detection result of a ranging sensor, and sets the cutout area of an image using the acquired reflective surface information. According to such a configuration, even when the object is not directly facing the host vehicle 50, it is possible to perform appropriate display position correction according to the direction of the object. Specifically, when there is another vehicle 51 that is tilted obliquely with respect to the traveling direction of the host vehicle 50 in front of the host vehicle 50, the host vehicle in the other vehicle 51 is used by using the reflection surface information. The closest position from 50 is estimated, and an image clipping region is set based on the estimated position. For example, when the left end portion of the rear portion of the other vehicle 51 is located closest to the host vehicle 50, the image clipping region is set so that the left end portion is parallel to the rear bumper.

なお、測距センサの検知結果を用いて物体の反射面情報を取得するには、直接波の反射点(以下、直接反射点という。)と、間接波の反射点(以下、間接反射点という。)とが同一平面上に存在することを前提として、物体表面の複数の反射点から面成分を検知する面モデルによって行う。より詳細には、図9において、物体60の表面には直接反射点Sと間接反射点Tとが存在しており、反射波を直接波として受信する第1センサ61aと直接反射点Sとを通る直線と、反射波を間接波として受信する第2センサ61bと間接反射点Tとを通る直線との交点がXである。この交点Xは、直接波による計測距離L1と、間接波による計測距離L2とにより求めることができる。すなわち、直接反射点Sは、第1センサ61aと交点Xとの中点である。また、間接反射点Tは、直接反射点Sを通り、かつその直接反射点Sと第1センサ61aとを結ぶ直線に所定角度で交差する向きに延びる交差直線上に存在する。この場合、物体表面の平面成分の向きを示す交差直線を物体60の反射面情報として取得することで物体60の向きを把握できる。また、交差直線上の線分STにより、反射面の向き及び反射面の幅を把握できるため、その反射面の幅に応じて画像の切り出し領域の左右方向の幅を設定することもできる。   In addition, in order to acquire the reflection surface information of an object using the detection result of the distance measuring sensor, a direct wave reflection point (hereinafter referred to as a direct reflection point) and an indirect wave reflection point (hereinafter referred to as an indirect reflection point). )) On the same plane, a surface model that detects surface components from a plurality of reflection points on the object surface is used. More specifically, in FIG. 9, there are a direct reflection point S and an indirect reflection point T on the surface of the object 60, and the first sensor 61a that receives the reflected wave as a direct wave and the direct reflection point S are arranged. The intersection of the straight line passing through and the straight line passing through the second sensor 61b that receives the reflected wave as an indirect wave and the indirect reflection point T is X. The intersection point X can be obtained from the measurement distance L1 using a direct wave and the measurement distance L2 using an indirect wave. That is, the direct reflection point S is a midpoint between the first sensor 61a and the intersection point X. Further, the indirect reflection point T exists on an intersecting straight line that passes through the direct reflection point S and extends in a direction that intersects the straight line connecting the direct reflection point S and the first sensor 61a at a predetermined angle. In this case, the direction of the object 60 can be grasped by acquiring the intersecting straight line indicating the direction of the plane component of the object surface as the reflection surface information of the object 60. Further, since the direction of the reflecting surface and the width of the reflecting surface can be grasped by the line segment ST on the intersecting straight line, the width in the left-right direction of the cutout region of the image can be set according to the width of the reflecting surface.

・撮影画像又は鳥瞰画像から抽出したエッジに基づいて、接地部54の周辺領域に画像の切り出し領域を設定する構成としてもよい。具体的には、例えば、撮影画像から抽出したエッジを用いて、撮影画像上における他車両51のバンパ下端部55と、タイヤとの接地部54とを検出する。そして、バンパ下端部55から接地部54までの画像領域を切り出し領域に設定し、その設定した切り出し領域の画像を撮影画像から切り出す。   -It is good also as a structure which sets the cutout area of an image to the peripheral area | region of the grounding part 54 based on the edge extracted from the picked-up image or the bird's-eye view image. Specifically, for example, the bumper lower end portion 55 of the other vehicle 51 and the ground contact portion 54 with the tire are detected on the captured image using the edge extracted from the captured image. Then, an image area from the bumper lower end 55 to the grounding section 54 is set as a cutout area, and an image of the set cutout area is cut out from the captured image.

また、別の態様としては、撮影画像から抽出したエッジを用いて、撮影画像上における他車両51のバンパ下端部55を検出し、バンパ下端部55から画像の下方向に所定幅H5だけずれた位置を、画像上における物体の実際の位置と推定する構成としてもよい。この場合、例えば、バンパ下端部55の位置を基準に、画像の下方向に所定幅H5を有し、かつ画像の左右方向に典型的車幅に対応する所定幅を有する画像領域を切り出し領域に設定する。   As another aspect, the bumper lower end 55 of the other vehicle 51 on the captured image is detected using the edge extracted from the captured image, and is shifted from the bumper lower end 55 by a predetermined width H5 in the lower direction of the image. The position may be estimated as the actual position of the object on the image. In this case, for example, an image area having a predetermined width H5 in the lower direction of the image and having a predetermined width corresponding to a typical vehicle width in the left-right direction of the image with respect to the position of the bumper lower end 55 is set as a cut-out area. Set.

・車載カメラ10で撮影した障害物が車両の場合、バンパ下端高さBhの典型的高さによって、視点変換に伴う画像の表示ずれの大きさをある程度特定することが可能である。この点に鑑み、他車両51の接地部54の周辺領域に、画像の上下方向に予め定めた所定の幅を有する切り出し領域を設定し、その設定した切り出し領域の画像を撮影画像又は鳥瞰画像から切り出す構成としてもよい。この構成によれば、測距センサなどの位置推定手段を用いなくても、車載カメラ10で撮影した画像のみを用いて表示位置補正を行うことができる。このとき、切り出し領域における画像上下方向の幅は、車種(例えば、普通車と大型車)に応じて可変に設定することが好ましい。具体的には、バンパ下端高さBhが大きい車ほど、切り出し領域における画像上下方向の幅を大きくする構成にするとよい。   When the obstacle imaged by the in-vehicle camera 10 is a vehicle, it is possible to specify to some extent the size of the image display displacement due to the viewpoint conversion by the typical height of the bumper lower end height Bh. In view of this point, a cutout area having a predetermined width in the vertical direction of the image is set in a peripheral area of the ground contact portion 54 of the other vehicle 51, and the image of the set cutout area is obtained from a captured image or a bird's-eye view image. It is good also as a structure cut out. According to this configuration, it is possible to perform display position correction using only an image captured by the in-vehicle camera 10 without using a position estimation unit such as a distance measuring sensor. At this time, it is preferable that the vertical width of the image in the cutout region is set variably according to the vehicle type (for example, a normal vehicle and a large vehicle). Specifically, a vehicle with a larger bumper lower end height Bh may be configured to increase the vertical width of the image in the cutout region.

・切り出し後の残りの画像を繋ぎ合わせる際、明度の違いや路面の材質の違い等によっては、補正後の画像を表示装置11の画面上に表示すると、画像同士を繋ぎ合わせた部分に違和感が生じる場合がある。例えば、他車両51の路面53との接地部の周辺にマンホール等の路面存在物があり、その路面存在物の一部が切り出し領域内に含まれている場合、切り出し後の残りの画像上に路面存在物の一部が残り、表示装置11に表示すると不自然な画像になるおそれがある。こうした点に鑑み、切り出し後の残りの画像の繋ぎ合わせ部分において表示画面上で違和感が生じるか否かを判定し、違和感が生じると判定された場合には、その繋ぎ合わせ部分を含む所定領域の輝度値を補正する構成としてもよい。具体的には、切り出し後の残りの画像について、画像の繋ぎ合わせ部分にエッジの輝度値が急激に変化している部分があるか否かを判定し、急激に変化している部分があると判定された場合に、その繋ぎ合わせ部分を含む所定領域の輝度値を段階的に平均化する処理を行う。   -When connecting the remaining images after cutting, depending on the difference in brightness, the material of the road surface, etc., when the corrected image is displayed on the screen of the display device 11, the part where the images are connected is uncomfortable. May occur. For example, when there is a road surface entity such as a manhole around the ground contact portion with the road surface 53 of the other vehicle 51 and a part of the road surface entity is included in the cutout region, the remaining image after the cutout is displayed on the remaining image. Some road surface objects remain, and when displayed on the display device 11, an unnatural image may be formed. In view of these points, it is determined whether or not a sense of incongruity occurs on the display screen at the joined portion of the remaining images after cutting, and when it is determined that a sense of incongruity occurs, the predetermined area including the joined portion is determined. It is good also as a structure which correct | amends a luminance value. Specifically, with respect to the remaining image after clipping, it is determined whether or not there is a portion where the luminance value of the edge is changing rapidly in the joined portion of the image, When the determination is made, a process of averaging the luminance values of a predetermined area including the joined portion in a stepwise manner is performed.

・上記実施形態では、地上面を鉛直方向に見下ろした鳥瞰画像に変換し、その変換した鳥瞰画像を表示装置11に表示する構成としたが、地上面を斜め上方から見下ろした鳥瞰画像に変換し、その変換した鳥瞰画像を表示装置11に表示する構成としてもよい。この場合、地上面を斜め上方から見下ろす角度α(<90°)に応じて、画像の切り出し領域の上下方向の幅(H1、H3)を設定する構成とすることが望ましい。具体的には、地上面を斜め上方から見下ろす画像を表示する場合には、地上面を鉛直方向に見下ろす画像を表示する場合よりも、切り出し領域の上下方向の幅を小さく設定する。   In the above embodiment, the ground surface is converted into a bird's-eye view image looking down in the vertical direction, and the converted bird's-eye view image is displayed on the display device 11. However, the ground surface is converted into a bird's-eye image looking down from above. The converted bird's-eye view image may be displayed on the display device 11. In this case, it is desirable to set the vertical width (H1, H3) of the cutout region of the image according to the angle α (<90 °) at which the ground surface is looked down obliquely from above. Specifically, when displaying an image in which the ground surface is looked down obliquely from above, the vertical width of the cutout region is set smaller than in the case of displaying an image in which the ground surface is looked down in the vertical direction.

・異なる位置から撮影した複数の画像から得られる視差情報に基づいて、物体の接地部54の周辺領域に画像の切り出し領域を設定し、その設定した切り出し領域の画像を撮影画像又は前記鳥瞰画像から切り出す構成としてもよい。物体までの距離と視差とは相関があり、物体までの距離が遠いほど視差が小さくなることから、視差情報を用いることにより、画像中の物体における実際の奥行き位置を把握することが可能である。具体的には、例えば車載カメラ10としてステレオカメラを備える車両において、2つのカメラのそれぞれで撮影された第1撮影画像及び第2撮影画像からピクセル毎に視差を算出する。そして、撮影画像中に、画像の下の領域よりも視差が大きいピクセルから構成される領域がある場合には、その領域を切り出し領域に設定する。こうした構成によれば、表示ずれを補正するための切り出し領域をピクセル単位で把握できるため、より正確に表示位置補正を行うことができる。また、画像の切り出し領域を最小限に抑えることができ、より自然な画像を表示させることができる。なお、単眼カメラの場合には、移動ステレオの原理によって上記構成を適用可能である。   Based on parallax information obtained from a plurality of images photographed from different positions, an image clipping region is set in the peripheral region of the object grounding unit 54, and the image of the set clipping region is determined from the captured image or the bird's-eye image It is good also as a structure cut out. The distance to the object has a correlation with the parallax, and the farther the distance to the object, the smaller the parallax. By using the parallax information, it is possible to grasp the actual depth position of the object in the image . Specifically, for example, in a vehicle including a stereo camera as the in-vehicle camera 10, the parallax is calculated for each pixel from the first captured image and the second captured image captured by each of the two cameras. If the captured image includes an area composed of pixels having a larger parallax than the area below the image, the area is set as a cutout area. According to such a configuration, the cutout region for correcting the display shift can be grasped in units of pixels, so that the display position can be corrected more accurately. In addition, the cutout area of the image can be minimized, and a more natural image can be displayed. In the case of a monocular camera, the above configuration can be applied based on the principle of moving stereo.

・車載カメラ10で認識した物体が車両か否かを判定し、車両と判定されたことを条件に、視点変換に伴う表示ずれを解消するための画像補正処理を実施する構成としてもよい。自車両50の近くに存在する障害物の全てについて上記の画像補正処理を実施すると、画像の切り出し及び繋ぎ合わせを行う部分が多くなり、表示画像が見にくくなってしまうおそれがある。そこで、補正の対象を車両に限定することによって、表示画像が見にくくなることを抑制しつつ、正確な位置に他車両51を表示することができる。   -It is good also as a structure which determines whether the object recognized with the vehicle-mounted camera 10 is a vehicle, and implements the image correction process for eliminating the display shift accompanying viewpoint conversion on the condition that it determined with the vehicle. When the above image correction processing is performed on all obstacles present near the host vehicle 50, there are many portions where the images are cut out and joined together, and the display image may be difficult to see. Therefore, by limiting the correction target to the vehicle, the other vehicle 51 can be displayed at an accurate position while suppressing the display image from being difficult to see.

・上記実施形態では、物体の幅に応じて画像の切り出し領域を設定したが、画像の左端から右端までの領域を切り出す構成としてもよい。   In the above embodiment, the cutout area of the image is set according to the width of the object. However, the area from the left end to the right end of the image may be cut out.

・上記実施形態では、車載カメラ10が自車両50の前方に搭載されている場合について説明したが、車載カメラ10の搭載位置は特に限定されず、自車両50の後方や側方に搭載されている車載カメラ10に適用してもよい。   In the above embodiment, the case where the in-vehicle camera 10 is mounted in front of the host vehicle 50 has been described. However, the mounting position of the in-vehicle camera 10 is not particularly limited, and is mounted on the rear or side of the host vehicle 50. You may apply to the vehicle-mounted camera 10 which exists.

・上記実施形態では、測距センサとして超音波センサ12を備える構成としたが、例えばミリ波レーダやレーザレーダ等を備える構成に適用してもよい。   In the above embodiment, the ultrasonic sensor 12 is provided as a distance measuring sensor. However, the present invention may be applied to a configuration including a millimeter wave radar, a laser radar, or the like.

・上記の各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、一つの構成要素が有する機能を複数の構成要素に分散して実現したり、複数の構成要素が有する機能を一つの構成要素で実現したりしてもよい。   -Each said component is conceptual and is not limited to the said embodiment. For example, the functions of one component may be realized by being distributed to a plurality of components, or the functions of a plurality of components may be realized by one component.

10…車載カメラ、11…表示装置、12…超音波センサ、20…ECU(周辺監視装置)、21…画像取得部、22…視点変換部、23…距離演算部、24…画像補正部、50…自車両、51…他車両、54…接地部。   DESCRIPTION OF SYMBOLS 10 ... Car-mounted camera, 11 ... Display apparatus, 12 ... Ultrasonic sensor, 20 ... ECU (periphery monitoring apparatus), 21 ... Image acquisition part, 22 ... Viewpoint conversion part, 23 ... Distance calculation part, 24 ... Image correction part, 50 ... own vehicle, 51 ... other vehicle, 54 ... grounding section.

Claims (11)

車両の周囲を撮影領域とするカメラ(10)と、画像を表示する表示装置(11)とが搭載された車両(50)に適用され、前記カメラにより撮影した撮影画像を、前記車両の上方に設定した仮想視点から路面上を見た鳥瞰画像に変換して前記表示装置に表示させる周辺監視装置であって、
前記路面上の物体と前記路面との接地部(54)の周辺領域の画像を前記撮影画像又は前記鳥瞰画像から切り出し、その切り出し後の残りの画像を繋ぎ合わせることにより、前記表示装置に表示される画像上における前記物体の位置を、前記物体の実際の位置に整合させる補正を行う画像補正部を備えることを特徴とする周辺監視装置。
The present invention is applied to a vehicle (50) equipped with a camera (10) having an imaging area around the vehicle and a display device (11) for displaying an image, and a captured image captured by the camera is placed above the vehicle. A perimeter monitoring device that converts a virtual viewpoint from a set virtual viewpoint into a bird's eye view seen on the road surface and displays the image on the display device,
An image of a peripheral area of the ground contact portion (54) between the object on the road surface and the road surface is cut out from the photographed image or the bird's-eye view image, and the remaining images after the cut-out are connected to be displayed on the display device. A periphery monitoring device comprising: an image correcting unit that performs correction for aligning the position of the object on the image with the actual position of the object.
画像上における前記物体の実際の位置を推定する位置推定部を備え、
前記画像補正部は、前記位置推定部により推定した位置に基づいて、前記接地部の周辺領域に画像の切り出し領域を設定し、該設定した切り出し領域の画像を前記撮影画像又は前記鳥瞰画像から切り出す、請求項1に記載の周辺監視装置。
A position estimation unit for estimating an actual position of the object on an image;
The image correction unit sets an image clipping region in a peripheral region of the grounding unit based on the position estimated by the position estimating unit, and clips an image of the set clipping region from the captured image or the bird's-eye image The periphery monitoring device according to claim 1.
探査波を送信するとともに前記探査波の反射波を受信する測距センサが前記車両に設けられており、
前記位置推定部は、前記測距センサの検知結果に基づいて、前記物体の実際の位置を推定する、請求項2に記載の周辺監視装置。
A distance measuring sensor that transmits a search wave and receives a reflected wave of the search wave is provided in the vehicle,
The periphery monitoring device according to claim 2, wherein the position estimation unit estimates an actual position of the object based on a detection result of the distance measuring sensor.
前記位置推定部は、前記測距センサの検知結果に基づいて前記物体の反射面情報を取得することにより前記物体の実際の位置を推定し、
前記画像補正部は、前記物体の反射面情報に基づいて前記切り出し領域を設定する、請求項3に記載の周辺監視装置。
The position estimation unit estimates the actual position of the object by obtaining reflection surface information of the object based on a detection result of the distance measuring sensor,
The periphery monitoring device according to claim 3, wherein the image correction unit sets the cutout region based on reflection surface information of the object.
前記物体は車両であり、
前記位置推定部は、前記物体の全体又は一部の画像上での大きさに基づいて、画像上での前記物体の実際の位置を推定する、請求項2に記載の周辺監視装置。
The object is a vehicle;
The periphery monitoring device according to claim 2, wherein the position estimation unit estimates an actual position of the object on the image based on a size of the whole or a part of the object on the image.
前記画像補正部は、前記接地部の周辺領域に、画像の上下方向に予め定めた所定の幅を有する切り出し領域を設定し、該設定した切り出し領域の画像を前記撮影画像又は前記鳥瞰画像から切り出す、請求項1に記載の周辺監視装置。   The image correction unit sets a cutout region having a predetermined width in the vertical direction of the image in a peripheral region of the grounding unit, and cuts out the image of the set cutout region from the captured image or the bird's-eye view image The periphery monitoring device according to claim 1. 前記画像補正部は、異なる位置から撮影した複数の画像から得られる視差情報に基づいて、前記接地部の周辺領域に画像の切り出し領域を設定し、該設定した切り出し領域の画像を前記撮影画像又は前記鳥瞰画像から切り出す、請求項1に記載の周辺監視装置。   The image correction unit sets an image clipping region in a peripheral region of the grounding unit based on parallax information obtained from a plurality of images captured from different positions, and sets the image of the set clipping region as the captured image or The periphery monitoring device according to claim 1, wherein the periphery monitoring device is cut out from the bird's-eye view image. 前記画像補正部は、前記残りの画像の繋ぎ合わせ部分において前記表示装置に表示される画像上で違和感が生じるか否かを判定し、違和感が生じると判定された場合に、該繋ぎ合わせ部分を含む所定領域の輝度値を補正する、請求項1〜7のいずれか一項に記載の周辺監視装置。   The image correction unit determines whether or not a sense of incongruity occurs on the image displayed on the display device in the joined part of the remaining images, and when it is determined that a sense of incongruity occurs, the joined part is determined. The periphery monitoring device according to any one of claims 1 to 7, wherein a luminance value of a predetermined area including the correction is corrected. 前記画像補正部は、前記物体の幅に応じて画像の切り出し領域を設定する、請求項1〜8のいずれか一項に記載の周辺監視装置。   The periphery monitoring device according to any one of claims 1 to 8, wherein the image correction unit sets an image clipping region according to a width of the object. 前記画像補正部は、前記仮想視点から前記路面を上方から見下ろす角度に応じて、画像の切り出し領域を設定する、請求項1〜9のいずれか一項に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the image correction unit sets an image clipping region according to an angle at which the road surface is looked down from above the virtual viewpoint. 車両の周囲を撮影領域とするカメラ(10)と、画像を表示する表示装置(11)とが搭載された車両(50)に適用され、前記カメラにより撮影した撮影画像を、前記車両の上方に設定した仮想視点から路面上を見た鳥瞰画像に変換して前記表示装置に表示させる周辺監視方法であって、
前記路面上の物体と前記路面との接地部(54)の周辺領域の画像を前記撮影画像又は前記鳥瞰画像から切り出し、その切り出し後の残りの画像を繋ぎ合わせることにより、前記表示装置に表示される画像上における前記物体の位置を、前記物体の実際の位置に整合させる補正を行うことを特徴とする周辺監視方法。
The present invention is applied to a vehicle (50) equipped with a camera (10) having an imaging area around the vehicle and a display device (11) for displaying an image, and a captured image captured by the camera is placed above the vehicle. A peripheral monitoring method for converting a virtual viewpoint set to a bird's-eye image viewed on a road surface and displaying the image on the display device,
An image of a peripheral area of the ground contact portion (54) between the object on the road surface and the road surface is cut out from the photographed image or the bird's-eye view image, and the remaining images after the cut-out are connected to be displayed on the display device. A periphery monitoring method, comprising: correcting the position of the object on an image to be matched with the actual position of the object.
JP2016087936A 2016-04-26 2016-04-26 Surrounding monitoring device and surrounding monitoring method Active JP6718295B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016087936A JP6718295B2 (en) 2016-04-26 2016-04-26 Surrounding monitoring device and surrounding monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016087936A JP6718295B2 (en) 2016-04-26 2016-04-26 Surrounding monitoring device and surrounding monitoring method

Publications (2)

Publication Number Publication Date
JP2017200000A true JP2017200000A (en) 2017-11-02
JP6718295B2 JP6718295B2 (en) 2020-07-08

Family

ID=60238151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016087936A Active JP6718295B2 (en) 2016-04-26 2016-04-26 Surrounding monitoring device and surrounding monitoring method

Country Status (1)

Country Link
JP (1) JP6718295B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7397744B2 (en) 2020-04-10 2023-12-13 株式会社デンソー object detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7397744B2 (en) 2020-04-10 2023-12-13 株式会社デンソー object detection device

Also Published As

Publication number Publication date
JP6718295B2 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
US10183621B2 (en) Vehicular image processing apparatus and vehicular image processing system
US7697029B2 (en) Image display apparatus and method
JP6392693B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP6606369B2 (en) Object detection apparatus and object detection method
JP5280768B2 (en) Vehicle periphery monitoring device
EP2639781A1 (en) Vehicle with improved traffic-object position detection
JP5011049B2 (en) Image processing system
US10099617B2 (en) Driving assistance device and driving assistance method
JP2006053890A (en) Obstacle detection apparatus and method therefor
JP2009014445A (en) Range finder
US20210004614A1 (en) Surround View System Having an Adapted Projection Surface
JP2011035816A (en) Vehicle periphery image display control apparatus
JP6471522B2 (en) Camera parameter adjustment device
US9162621B2 (en) Parking support apparatus
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
CN107004250B (en) Image generation device and image generation method
WO2020012879A1 (en) Head-up display
JP2019067150A (en) Surrounding monitoring device and surrounding monitoring method
US20200213574A1 (en) Stereo Image Processing Device
JP6243758B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP2012198857A (en) Approaching object detector and approaching object detection method
JP5256482B2 (en) Ranging device
JP6718295B2 (en) Surrounding monitoring device and surrounding monitoring method
JP2006031101A (en) Image generation method and device therefor
JP5580062B2 (en) Obstacle detection alarm device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200612

R150 Certificate of patent or registration of utility model

Ref document number: 6718295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250