JP2013115738A - Vehicle periphery imaging apparatus and method of processing vehicle peripheral image - Google Patents

Vehicle periphery imaging apparatus and method of processing vehicle peripheral image Download PDF

Info

Publication number
JP2013115738A
JP2013115738A JP2011262498A JP2011262498A JP2013115738A JP 2013115738 A JP2013115738 A JP 2013115738A JP 2011262498 A JP2011262498 A JP 2011262498A JP 2011262498 A JP2011262498 A JP 2011262498A JP 2013115738 A JP2013115738 A JP 2013115738A
Authority
JP
Japan
Prior art keywords
image
camera
vehicle
obstacle
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011262498A
Other languages
Japanese (ja)
Other versions
JP5906696B2 (en
Inventor
Kinji Yamamoto
欣司 山本
Seiko Takeda
聖子 武田
Kazuya Watanabe
一矢 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2011262498A priority Critical patent/JP5906696B2/en
Publication of JP2013115738A publication Critical patent/JP2013115738A/en
Application granted granted Critical
Publication of JP5906696B2 publication Critical patent/JP5906696B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle periphery imaging technique that can detect an obstacle in the vehicle periphery with high accuracy.SOLUTION: A first camera to image a scene in the periphery of a vehicle and a second camera to image an imaging range partially overlapped with an imaging range of the first camera are mounted on the vehicle. One of the first camera and the second camera is used as a main camera and the other is used as a sub camera. An image taken by the main camera is used as a main taken image, and an image taken by the sub camera is used as a sub taken image. A viewpoint conversion section 13 creates a viewpoint-converted image obtained by allowing the sub taken image to be viewpoint-converted into an image taken from a viewpoint position of the main camera. An image difference section 14 creates a difference image between the main taken image and the viewpoint-converted image as comparison information.

Description

本発明は、車両周辺の画像を撮影する技術、特に、撮影領域の一部が互いに重複するように車両に搭載された複数のカメラにより車両の周辺の情景を撮影する車両周辺撮影装置および、前記のカメラにより撮影された車両周辺画像の処理方法に関する。   The present invention relates to a technique for photographing an image around a vehicle, and in particular, a vehicle periphery photographing device that photographs a scene around a vehicle with a plurality of cameras mounted on the vehicle such that parts of the photographing regions overlap each other, and The present invention relates to a method for processing a vehicle periphery image taken by a camera.

近年、周辺の情景を撮影するカメラを搭載された車両が実用化されている。このような車両では、カメラにより撮影された画像を車室内に設けられたディスプレイに表示することにより、運転者は車両の周辺の障害物等を確認することができる。   In recent years, a vehicle equipped with a camera for photographing a surrounding scene has been put into practical use. In such a vehicle, the driver can check obstacles and the like around the vehicle by displaying an image photographed by the camera on a display provided in the vehicle interior.

障害物等の存在をより運転者に認知させるために、画像から障害物を検出する技術が提案されている。例えば、特許文献1から3の技術では、撮影範囲が部分的に重複する複数台の撮像装置によって撮像された画像を仮想視点から見た鳥瞰図画像に変換し、それぞれの鳥瞰図画像間の差分を求めることにより、差分領域(障害物が存在する領域)を検出している。   A technique for detecting an obstacle from an image has been proposed in order to make the driver recognize the presence of an obstacle or the like. For example, in the techniques of Patent Documents 1 to 3, images captured by a plurality of imaging devices with overlapping imaging ranges are converted into bird's-eye view images viewed from a virtual viewpoint, and differences between the bird's-eye view images are obtained. Thus, a difference area (area where an obstacle exists) is detected.

特許文献1の技術では、鳥瞰図画像を合成する際に、上述のようにして検出された差分領域に対しては一の鳥瞰図画像の画素値を用いることにより、合成された鳥瞰図画像において障害物の二重表示、および、障害物の消失を防止している。   In the technique of Patent Document 1, when a bird's-eye view image is synthesized, the pixel value of one bird's-eye view image is used for the difference area detected as described above, so that an obstacle in the synthesized bird's-eye view image is displayed. Double display and disappearance of obstacles are prevented.

一方、特許文献2の技術では、上述のようにして検出された差分領域に基づいて、障害物をよりよく撮影しているカメラを選択し、鳥瞰図画像を合成する際に、その選択されたカメラの鳥瞰図画像を優先的に使用している。これにより、運転者が障害物を視認しやすい鳥瞰図画像を合成することができる。   On the other hand, in the technique of Patent Document 2, when a camera that better captures an obstacle is selected based on the difference area detected as described above and the bird's-eye view image is synthesized, the selected camera is selected. The bird's-eye view image is preferentially used. Thereby, it is possible to synthesize a bird's eye view image in which the driver can easily see the obstacle.

他方、特許文献3の技術では、障害物が存在する差分領域を他の領域と区別するように表示することにより、運転者が障害物を視認しやすくしている。   On the other hand, in the technique of Patent Document 3, a difference area where an obstacle exists is displayed so as to be distinguished from other areas, thereby making it easier for the driver to visually recognize the obstacle.

特開2008−048317号公報JP 2008-048317 A 特開2008−048345号公報JP 2008-048345 A 特開2008−085710号公報JP 2008-085710 A

上述のように、特許文献1から3の技術では、撮影範囲が重複する撮像装置によって撮影された画像を鳥瞰図画像に変換し、それらを差分処理することにより障害物を検知している。しかしながら、鳥瞰図画像を生成するためには補間処理等が必要であり、補間処理がなされた領域では鮮鋭度が低下する等の画像劣化が生じる。そのため、鳥瞰図画像間の差分を算出すると、劣化した画像間で差分を算出することとなり、障害物の検出精度が低下するおそれがある。   As described above, in the techniques of Patent Documents 1 to 3, an image captured by an imaging device having overlapping imaging ranges is converted into a bird's eye view image, and obstacles are detected by performing differential processing on the images. However, in order to generate a bird's eye view image, an interpolation process or the like is necessary, and image degradation such as a reduction in sharpness occurs in an area where the interpolation process has been performed. Therefore, if the difference between the bird's-eye view images is calculated, the difference is calculated between the deteriorated images, and there is a possibility that the obstacle detection accuracy is lowered.

本発明は上記課題に鑑みてなされたものであり、その目的は、高精度に車両周辺の障害物を検出することができる車両周辺撮影技術を提供することである。   The present invention has been made in view of the above problems, and an object thereof is to provide a vehicle periphery photographing technique capable of detecting an obstacle around the vehicle with high accuracy.

上記課題を解決するため、本発明の車両周辺撮影装置は、車両に搭載され、当該車両の周辺の情景を撮影する第1カメラと、前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラと、前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された画像を主撮影画像とするとともに当該副カメラにより撮影された画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成する視点変換部と、前記主撮影画像と前記視点変換画像とを比較した比較情報を生成する画像情報比較部、とを備えている。   In order to solve the above-mentioned problems, a vehicle periphery photographing apparatus of the present invention is mounted on a vehicle, a first camera that captures a scene around the vehicle, and a photographing range and a part of the first camera that are mounted on the vehicle. A second camera that captures overlapping shooting ranges, and one of the first camera and the second camera as a main camera and the other as a sub camera, and an image captured by the main camera is a main captured image. A viewpoint conversion unit that generates a viewpoint conversion image obtained by converting the image captured by the sub camera as a sub captured image and converting the sub captured image into an image captured from the viewpoint position of the main camera; An image information comparison unit that generates comparison information comparing the captured image and the viewpoint-converted image.

この構成では、撮影範囲の一部が重複する第1カメラと第2カメラとにより車両周辺の情景が撮影される。そのため、重複した撮影範囲に障害物があれば、これらの画像を同じカメラの視点位置から撮影された画像に視点変換し、それらを比較することにより生成した比較情報(例えば、差分画像)を生成すると、障害物はそのような差分画像中で優位な画素値を有する領域として表される。上述したように、特許文献1から3では、両方の画像を、車両上方に光軸が鉛直下向きに設定された仮想的なカメラにより撮影された画像に視点変換し、それらの画像の差分を算出していた。これに対して、本発明では、一方の画像(主撮影画像)は視点変換を行わずに、他方の画像(副撮影画像)のみを主撮影画像を撮影したカメラ(主カメラ)の視点から撮影した画像に視点変換し、それらの比較を行っている。そのため、視点変換による歪は副撮影画像にのみ生じ、歪による障害物検出精度の低下を抑制することができる。   In this configuration, a scene around the vehicle is photographed by the first camera and the second camera that partially overlap the photographing range. Therefore, if there are obstacles in the overlapping shooting range, these images are converted into viewpoints taken from the same camera viewpoint position, and comparison information generated by comparing them is generated (for example, difference images). Then, the obstacle is represented as an area having a dominant pixel value in such a difference image. As described above, in Patent Documents 1 to 3, viewpoints of both images are converted into images taken by a virtual camera with the optical axis set vertically downward above the vehicle, and the difference between these images is calculated. Was. In contrast, in the present invention, one image (main photographed image) is not subjected to viewpoint conversion, and only the other image (sub-photographed image) is photographed from the viewpoint of the camera (main camera) that photographed the main photographed image. The viewpoints are converted into images and compared. Therefore, distortion due to viewpoint conversion occurs only in the sub-photographed image, and a decrease in obstacle detection accuracy due to distortion can be suppressed.

本発明の車両周辺撮影装置の好適な実施形態の一つでは、前記主撮影画像からエッジを抽出したエッジ画像を生成するエッジ抽出部と、前記比較情報としての差分画像と前記エッジ画像との画素値に論理積を施した積画像を生成し、当該積画像を出力画像として出力する積画像生成部と、を備えている。   In one preferred embodiment of the vehicle periphery photographing device of the present invention, an edge extraction unit that generates an edge image obtained by extracting an edge from the main photographed image, and a pixel of the difference image and the edge image as the comparison information A product image generating unit that generates a product image obtained by performing a logical product on the values and outputs the product image as an output image.

この構成では、視点変換が施されない主撮影画像からエッジを抽出したエッジ画像を生成し、そのエッジ画像と比較情報としての差分画像との論理積を施した積画像を生成している。そのため、積画像中で優位な画素値(真値)を有する領域は、差分画像中で優位な画素値を有する領域であり、主撮影画像中で明確なエッジを有している領域の輪郭となる。すなわち、この構成では、差分画像により検出することができる障害物の領域をエッジという情報により検証を行っている。これにより、障害物の検出精度を向上させることができる。   In this configuration, an edge image obtained by extracting an edge from a main captured image that is not subjected to viewpoint conversion is generated, and a product image obtained by performing a logical product of the edge image and a difference image as comparison information is generated. Therefore, the region having the dominant pixel value (true value) in the product image is the region having the dominant pixel value in the difference image, and the contour of the region having a clear edge in the main captured image. Become. In other words, in this configuration, the obstacle area that can be detected from the difference image is verified using information called an edge. Thereby, the detection accuracy of an obstacle can be improved.

本発明の車両周辺撮影装置の好適な実施形態の一つでは、前記主撮影画像を領域分割する領域分割部と、前記領域分割された各々の領域と前記積画像において真値を有する領域との類似性に基づいて障害物の領域を抽出した障害物画像を生成し、前記積画像に代えて当該障害物画像を前記出力画像として出力する障害物画像生成部と、を備えている。   In one preferred embodiment of the vehicle periphery photographing apparatus of the present invention, an area dividing unit that divides the main photographed image into regions, each region divided into regions, and a region having a true value in the product image. An obstacle image generated by extracting an obstacle area based on the similarity, and outputting the obstacle image as the output image instead of the product image.

上述したように、積画像において優位な値(真値)を有している領域は障害物の輪郭である。本構成では、この障害物の輪郭領域と主撮影画像中の領域分割された領域との類似性に基づいて、障害物の領域を抽出している。すなわち、本構成では、積画像に含まれる障害物の輪郭である可能性のある領域に対して、領域分割結果の領域の特徴量という情報により検証を行っている。これにより、障害物の検出精度を向上させることができる。   As described above, the region having a superior value (true value) in the product image is the contour of the obstacle. In this configuration, the obstacle region is extracted based on the similarity between the contour region of the obstacle and the region divided region in the main captured image. In other words, in this configuration, verification is performed on the area that may be the contour of the obstacle included in the product image by using the information about the area feature value of the area division result. Thereby, the detection accuracy of an obstacle can be improved.

本発明の車両周辺撮影装置の好適な実施形態の一つでは、前記第1カメラを前記主カメラとして前記出力画像を第1出力画像として生成するとともに、前記第2カメラを前記主カメラとして前記出力画像を第2出力画像として生成し、前記第1出力画像と前記第2出力画像とに基づいて障害物を示す画素を所定の画素値に設定した画像を出力画像として出力する。   In one preferred embodiment of the vehicle periphery photographing apparatus of the present invention, the output image is generated as the first output image using the first camera as the main camera, and the output is generated using the second camera as the main camera. An image is generated as a second output image, and an image in which a pixel indicating an obstacle is set to a predetermined pixel value based on the first output image and the second output image is output as an output image.

この構成では、視点変換されない第1カメラにより撮影された画像と視点変換された第2カメラにより撮影された画像とに基づいて上記処理により得られる第1出力画像と、視点変換された第1カメラにより撮影された画像と視点変換されない第2カメラにより撮影された画像とに基づいて上記処理により得られる第2出力画像と、を統合した画像を出力画像としている。すなわち、この構成では、主撮影画像と副撮影画像とを入れ換えた2つの処理結果を統合して出力画像とすることにより、出力画像に含まれる障害物の領域をダブルチェックしている。これにより、視点変換により生じる歪に起因する障害物の誤検出を低減し、障害物の検出精度を向上させることができる。   In this configuration, the first output image obtained by the above processing based on the image captured by the first camera that has not undergone viewpoint conversion and the image captured by the second camera that has undergone viewpoint conversion, and the first camera that has undergone viewpoint conversion. The output image is an image obtained by integrating the image output by the above processing and the second output image obtained by the above processing based on the image captured by the second camera not subjected to viewpoint conversion. In other words, in this configuration, the area of the obstacle included in the output image is double-checked by integrating the two processing results obtained by switching the main captured image and the sub captured image into an output image. Thereby, the erroneous detection of the obstacle resulting from the distortion caused by the viewpoint conversion can be reduced, and the obstacle detection accuracy can be improved.

また、上記課題を解決するため、本発明の車両周辺画像の処理方法は、車両に搭載され、当該車両の周辺の情景を撮影する第1カメラから撮影画像を取得するステップと、前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラから撮影画像を取得するステップと、前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された前記撮影画像を主撮影画像とするとともに当該副カメラにより撮影された前記撮影画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成するステップと、前記主撮影画像と前記視点変換画像とを比較した比較情報を生成するステップと、を備えている。当然ながら、このような車両周辺画像の処理方法にも、上述した車両周辺画像撮影装置の付加的特徴を適用することができる。   In order to solve the above-described problem, a vehicle peripheral image processing method according to the present invention is mounted on a vehicle, and acquires a captured image from a first camera that captures a scene around the vehicle, and is mounted on the vehicle. A step of acquiring a captured image from a second camera that captures an imaging range that partially overlaps the imaging range of the first camera, and using one of the first camera and the second camera as a main camera The other camera is the secondary camera, the captured image captured by the primary camera is the primary captured image, the captured image captured by the secondary camera is the secondary captured image, and the secondary captured image is the viewpoint position of the primary camera. Generating a viewpoint-converted image obtained by converting the viewpoint to an image photographed from, and generating comparison information comparing the main photographed image and the viewpoint-converted image. Eteiru. Of course, the above-described additional features of the vehicle periphery image capturing device can also be applied to such a vehicle periphery image processing method.

本発明の車両周辺撮影装置を搭載した車両の平面図である。It is a top view of the vehicle carrying the vehicle periphery imaging device of this invention. 実施例1における車両周辺撮影装置の機能ブロック図である。1 is a functional block diagram of a vehicle periphery photographing device in Embodiment 1. FIG. 実施例1における車両周辺撮影装置の処理の流れを表すフローチャートである。3 is a flowchart illustrating a process flow of the vehicle periphery photographing device according to the first embodiment. 画像間差分の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of the difference between images. フロントカメラの撮影画像と左サイドカメラの撮影画像をフロントカメラの視点位置から撮影した画像に視点変換した視点変換画像の例である。It is an example of the viewpoint conversion image which changed the viewpoint of the captured image of the front camera and the captured image of the left side camera into an image captured from the viewpoint position of the front camera. 第1画像と第2画像の視点変換画像との差分画像の例である。It is an example of the difference image of the viewpoint conversion image of a 1st image and a 2nd image. 実施例1における表示画像の例である。3 is an example of a display image in Embodiment 1. 実施例2における車両周辺撮影装置の機能ブロック図である。FIG. 6 is a functional block diagram of a vehicle periphery photographing device according to a second embodiment. 実施例2における車両周辺撮影装置の処理の流れを表すフローチャートである。6 is a flowchart illustrating a process flow of a vehicle periphery photographing apparatus according to a second embodiment. 第1画像のエッジ画像と図6の差分画像とから生成した積画像の例である。It is an example of the product image produced | generated from the edge image of a 1st image, and the difference image of FIG. 実施例2における表示画像の例である。10 is an example of a display image in Embodiment 2. 実施例3における車両周辺撮影装置の機能ブロック図である。FIG. 6 is a functional block diagram of a vehicle periphery photographing device in Embodiment 3. 実施例3における車両周辺撮影装置の処理の流れを表すフローチャートである。10 is a flowchart illustrating a process flow of the vehicle periphery photographing device according to the third embodiment. 実施例3における障害物画像生成部の処理の流れを表すフローチャートである。10 is a flowchart showing a flow of processing of an obstacle image generation unit in Embodiment 3. 実施例4の処理を実施例1に適用した場合の処理の流れを模式的に表すである。FIG. 6 schematically illustrates a process flow when the process of the fourth embodiment is applied to the first embodiment. FIG. 実施例4の処理を実施例2に適用した場合の処理の流れを模式的に表すである。FIG. 10 schematically illustrates a process flow when the process of the fourth embodiment is applied to the second embodiment. FIG. 実施例4の処理を実施例3に適用した場合の処理の流れを模式的に表すである。FIG. 10 schematically illustrates a process flow when the process of the fourth embodiment is applied to the third embodiment. FIG.

以下に、図面を用いて本発明の車両周辺撮影装置の実施形態を説明する。図1は本発明の車両周辺撮影装置を搭載した車両Vの平面図である。本実施形態の車両Vは、前方,後方,右方および左方をそれぞれ撮影するフロントカメラF,リアカメラR,右サイドカメラSR,左サイドカメラSLを備えている。なお、特にこれらを区別する必要がない場合は、カメラCと総称する。   Hereinafter, embodiments of a vehicle periphery photographing apparatus of the present invention will be described with reference to the drawings. FIG. 1 is a plan view of a vehicle V equipped with a vehicle periphery photographing apparatus of the present invention. The vehicle V of the present embodiment includes a front camera F, a rear camera R, a right side camera SR, and a left side camera SL that respectively photograph front, rear, right, and left sides. In addition, when it is not necessary to distinguish between these, the camera C is collectively referred to.

カメラCは、車両Vの周辺の情景、特に、車両Vの周囲に存在する立体物である障害物を撮影可能に設置されている。そのため、カメラCは、その光軸が水平よりも少し下方に向くように設置されている。   The camera C is installed so as to be able to photograph a scene around the vehicle V, in particular, an obstacle which is a three-dimensional object existing around the vehicle V. Therefore, the camera C is installed so that its optical axis is slightly below the horizontal.

また、カメラCは広角レンズを備えており、隣接するカメラCの撮影範囲は互いに部分的に重複している。図1には、カメラCとともにその撮影範囲および撮影範囲が重複する領域(ハッチング部分)を示している。例えば、フロントカメラFの撮影範囲と右サイドカメラSRの撮影範囲とは車両Vの右前方において重複している。すなわち、フロントカメラFおよび右サイドカメラSRはいずれも、車両Vの右前方を撮影することができる。   In addition, the camera C includes a wide-angle lens, and the shooting ranges of the adjacent cameras C partially overlap each other. In FIG. 1, the photographing range and the region where the photographing range overlaps (hatched portion) are shown together with the camera C. For example, the shooting range of the front camera F and the shooting range of the right side camera SR overlap on the right front side of the vehicle V. That is, both the front camera F and the right side camera SR can photograph the right front of the vehicle V.

なお、フロントカメラFと右サイドカメラSR、右サイドカメラSRとリアカメラR、リアカメラRと左サイドカメラSL、左サイドカメラSLとフロントカメラFのそれぞれの組み合わせが本発明の第1カメラと第2カメラとなる。なお、第1カメラと第2カメラとは入れ換えても構わない。   Each combination of the front camera F and the right side camera SR, the right side camera SR and the rear camera R, the rear camera R and the left side camera SL, and the left side camera SL and the front camera F is the first camera and the first camera of the present invention. 2 cameras. Note that the first camera and the second camera may be interchanged.

本実施形態では、カメラCは、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒15〜30フレームの2次元画像を撮影し、デジタル変換して動画データを出力するデジタルカメラを用いている。   In the present embodiment, the camera C uses an image sensor such as a CCD (charge coupled device) or CIS (CMOS image sensor) to take a two-dimensional image of 15 to 30 frames per second, and converts it into digital data by converting it into digital data. The output digital camera is used.

また、図2に示すように、車両Vの車内には各種表示を行うディスプレイDが備えられている。本実施例では、ディスプレイDは、ナビゲーションシステムのモニタ装置を兼用している。そのため、ディスプレイDは、表示部Daおよび表示部Da上に形成されたタッチパネルDbを有している。表示部Daは液晶ディスプレイによって構成することができ、タッチパネルDbは、表示部Daと共に形成され、指などによる接触位置をロケーションデータとして出力することができる感圧式や静電式の指示入力装置により構成することができる。   Further, as shown in FIG. 2, a display D for performing various displays is provided in the vehicle V. In the present embodiment, the display D also serves as a monitor device for the navigation system. Therefore, the display D has the display part Da and the touch panel Db formed on the display part Da. The display unit Da can be configured by a liquid crystal display, and the touch panel Db is formed by a pressure-sensitive or electrostatic instruction input device that is formed together with the display unit Da and can output a contact position by a finger or the like as location data. can do.

図2は、本実施例における車両周辺撮影装置のシステム構成図である。本実施例における車両周辺撮影装置は、CPU(central processing unit)を中核としてメモリ、その他の周辺回路と共に構成されたECU(electronic control unit)1を備えている。当然ながら、CPUに代えて、DSP(digital signal processor)など、他の論理演算プロセッサや論理回路を中核として構成しても構わない。   FIG. 2 is a system configuration diagram of the vehicle periphery photographing apparatus according to the present embodiment. The vehicle periphery photographing apparatus in the present embodiment includes an ECU (electronic control unit) 1 configured with a memory (CPU) and other peripheral circuits with a central processing unit (CPU) as a core. Of course, instead of the CPU, another logic operation processor or logic circuit such as a DSP (digital signal processor) may be used as a core.

カメラCにより撮影された車両Vの周辺の情景はこのECU1に入力される。また、ECU1は、各種情報やカメラCによって撮影された撮影画像や撮影画像を処理した画像等を表示部Daに表示したり、運転者がタッチパネルDbを操作した情報を取得したりする機能を備えている。   A scene around the vehicle V photographed by the camera C is input to the ECU 1. Further, the ECU 1 has a function of displaying various information, a photographed image photographed by the camera C, an image obtained by processing the photographed image, and the like on the display unit Da, and acquiring information obtained by the driver operating the touch panel Db. ing.

また、ECU1は車内ネットワーク(図示せず)を介して種々のシステムやセンサと通信可能に接続されている。車内ネットワークとしてはCAN(controller area network)を用いることができる。   The ECU 1 is communicably connected to various systems and sensors via an in-vehicle network (not shown). A CAN (controller area network) can be used as the in-vehicle network.

図に示すように、ECU1は、制御部10と、カメラCによって撮影された撮影画像を取得する画像取得部11と、取得した撮影画像に前処理を施す前処理部12と、撮影画像を任意の視点から撮影された画像に視点変換した視点変換画像を生成する視点変換部13と、画像間の差分を算出する画像差分部14(本発明の画像情報比較部の例)と、各カメラCにより撮影された画像を合成する画像合成部20と、を備えている。なお、これらの機能部は、ソフトウェアとCPUとが協働することにより実現されているが、ハードウェアを用いて実現しても構わない。   As shown in the figure, the ECU 1 arbitrarily controls a control unit 10, an image acquisition unit 11 that acquires a captured image captured by the camera C, a preprocessing unit 12 that performs preprocessing on the acquired captured image, and a captured image. A viewpoint conversion unit 13 that generates a viewpoint-converted image obtained by converting the viewpoint to an image captured from the viewpoint, an image difference unit 14 that calculates a difference between images (an example of the image information comparison unit of the present invention), and each camera C And an image synthesis unit 20 that synthesizes the images photographed by. Note that these functional units are realized by cooperation of software and the CPU, but may be realized by using hardware.

制御部10は、ECU1に構成されている各機能部全体の処理の流れの制御をはじめとして、各種制御を行う。   The control unit 10 performs various controls including control of the flow of processing of the entire functional units configured in the ECU 1.

画像取得部11は、フロントカメラF,リアカメラR,右サイドカメラSR,左サイドカメラSLのそれぞれから画像を取得する。なお、上述したように、本実施形態のカメラCは撮影画像としてデジタル動画を出力するものであるため、画像取得部11はカメラCから取得した動画から1フレームを抽出して静止画像(以下、画像と略称する)を生成する。このとき、全てのカメラCの動画から同じタイムフレームを抽出することが望ましい。   The image acquisition unit 11 acquires images from each of the front camera F, the rear camera R, the right side camera SR, and the left side camera SL. As described above, since the camera C of the present embodiment outputs a digital moving image as a captured image, the image acquisition unit 11 extracts one frame from the moving image acquired from the camera C and extracts a still image (hereinafter, referred to as a still image). Abbreviated as an image). At this time, it is desirable to extract the same time frame from the moving images of all the cameras C.

前処理部12は、取得した画像に対して前処理を施す。本実施形態では、前処理として平滑化処理を施しており、これにより、路面のアスファルト等のざらつきによる障害物の誤検出を抑制している。平滑化処理は、Gaussianフィルタ等の公知の方法を用いることができる。また、前処理部12では必要に応じて他の画像処理を行っても構わない。   The preprocessing unit 12 performs preprocessing on the acquired image. In the present embodiment, smoothing processing is performed as preprocessing, thereby suppressing erroneous detection of obstacles due to roughness such as asphalt on the road surface. For the smoothing process, a known method such as a Gaussian filter can be used. Further, the pre-processing unit 12 may perform other image processing as necessary.

視点変換部13は、画像の視点変換を行い、視点変換画像を生成する。例えば、カメラCにより撮影された画像を、車両Vの上方に鉛直下向きの視点を有する仮想的なカメラから撮影された画像(以下、トップビュー画像と称する)に変換したり、一のカメラCにより撮影された画像を他のカメラCの視点位置から撮影された画像に視点変換したりする。後者の場合には、例えば、左サイドカメラSLにより撮影された画像をフロントカメラFの視点位置から撮影された画像に視点変換する。なお、視点変換は、公知の方法を用いることができる。   The viewpoint conversion unit 13 performs viewpoint conversion of an image and generates a viewpoint converted image. For example, an image photographed by the camera C is converted into an image photographed from a virtual camera having a vertically downward viewpoint above the vehicle V (hereinafter referred to as a top view image), or by one camera C. The viewpoint of the photographed image is converted from the viewpoint position of another camera C to the photographed image. In the latter case, for example, the viewpoint of the image captured by the left side camera SL is converted into an image captured from the viewpoint position of the front camera F. Note that a known method can be used for the viewpoint conversion.

画像差分部14は、2つの画像間の差分を算出し、差分画像(本発明の比較画像の例)を生成する。差分の方法は、画素値、特に、輝度値の差の絶対値や正規化自己相関等を用いることができるが、本実施形態では、各画素位置における画素値の勾配方向のヒストグラム(以下、HOG(Histgrams of Oriented Gradients)と称する)を用いた差分を行っている。そのため、画像差分部14は、画像の各画素位置における画素値の勾配方向を算出する勾配方向算出部14a、画像の各画素位置におけるHOGを算出するヒストグラム生成部14b、2つの画像の各画素位置におけるHOGに基づいて、その画素位置における差分値を算出する画素差分部14cを備えている。なお、本実施形態では、比較情報として差分画像を用いているが、比較情報はこれに限定されるものではない。例えば、注目画素の周囲領域の輝度の類似度(NCC,SAD等)を比較情報とすることもできる。   The image difference unit 14 calculates a difference between two images and generates a difference image (an example of a comparative image of the present invention). The difference method can use pixel values, in particular, absolute values of luminance value differences, normalized autocorrelation, and the like. In this embodiment, a histogram of pixel value gradient directions at each pixel position (hereinafter referred to as HOG). (Referred to as Histgrams of Oriented Gradients). Therefore, the image difference unit 14 includes a gradient direction calculation unit 14a that calculates the gradient direction of pixel values at each pixel position of the image, a histogram generation unit 14b that calculates HOG at each pixel position of the image, and each pixel position of the two images. The pixel difference unit 14c that calculates the difference value at the pixel position based on the HOG in FIG. In the present embodiment, the difference image is used as the comparison information, but the comparison information is not limited to this. For example, the luminance similarity (NCC, SAD, etc.) in the surrounding area of the target pixel can be used as the comparison information.

勾配方向算出部14aは、画像を構成する各画素の画素位置における画素値の勾配方向を算出する。なお、本実施形態では、画素値として輝度値を用い、カメラCがカラーカメラの場合には、前処理部12において画像をモノクロ変換しておく。例えば、画素位置(x,y)における画素値をf(x,y)とすると、画素位置(x,y)におけるx方向の変化量ΔxはΔx=2f(x+1,y)−2f(x−1,y)、y方向における変化量ΔyはΔy=2f(x,y+1)−2f(x,y−1)と表すことができ、勾配角度θはθ=tan―1(Δy/Δx)となる。ただし、この算出方法では、実際の勾配方向がθであるかθ+πであるかが不明である。そのため、本実施形態では、Δxが正の場合のθ(−π/2<θ<π/2)を4段階に符号化した値を勾配方向するとともに、Δxが負の場合のθ(−π/2≦θ≦π/2)を4段階に符号化した値を勾配方向としている。具体的には、0≦θ<π/4およびπ/4≦θ<π/2のそれぞれに対して符号(勾配方向)0,1を割り当て、−π/2<θ≦−π/4および−π/4<θ<0のそれぞれに対して勾配方向6,7を割り当てる。そして、Δxが負の場合には、(勾配方向+4)mod8を勾配方向とする。ここで、「mod」は剰余を算出する演算子である。これにより、算出された勾配角度θは8段階の勾配方向に符号化される。なお、ΔxおよびΔyがともに0の場合には、無方向(=8)としている。したがって、本実施形態では、勾配方向は、無方向と、8つの方向(有方向)とのいずれかである。 The gradient direction calculation unit 14a calculates the gradient direction of the pixel value at the pixel position of each pixel constituting the image. In the present embodiment, the luminance value is used as the pixel value, and when the camera C is a color camera, the pre-processing unit 12 performs monochrome conversion on the image. For example, if the pixel value at the pixel position (x, y) is f (x, y), the change amount Δx in the x direction at the pixel position (x, y) is Δx = 2f (x + 1, y) -2f (x− 1, y), the change amount Δy in the y direction can be expressed as Δy = 2f (x, y + 1) −2f (x, y−1), and the gradient angle θ is θ = tan− 1 (Δy / Δx). Become. However, in this calculation method, it is unknown whether the actual gradient direction is θ or θ + π. Therefore, in this embodiment, θ (−π / 2 <θ <π / 2) when Δx is positive is directed in a gradient direction, and θ (−π when Δx is negative). A value obtained by encoding / 2 ≦ θ ≦ π / 2) in four stages is a gradient direction. Specifically, signs (gradient directions) 0 and 1 are assigned to 0 ≦ θ <π / 4 and π / 4 ≦ θ <π / 2, and −π / 2 <θ ≦ −π / 4 and Gradient directions 6 and 7 are assigned to each of −π / 4 <θ <0. When Δx is negative, (gradient direction + 4) mod 8 is set as the gradient direction. Here, “mod” is an operator for calculating a remainder. As a result, the calculated gradient angle θ is encoded in eight gradient directions. When Δx and Δy are both 0, no direction (= 8) is set. Therefore, in this embodiment, the gradient direction is one of no direction and eight directions (directional).

ヒストグラム生成部14bは、勾配方向算出部14aにより算出された勾配方向に基づいて、画像の各画素位置におけるHOGを求める。具体的には、注目画素の周囲に領域(以下、ヒストグラム生成領域と称する)を設定し、そのヒストグラム生成領域に含まれる各画素の画素位置における勾配方向を取得し、勾配方向毎の度数を積算する。この度数分布が注目画素の画素位置におけるHOGとなる。注目画素を走査することにより、画像の各画素位置におけるHOGを求めることができる。なお、本実施形態では、ヒストグラム生成領域は、注目画素を中心とする5×5の大きさとしているが、ヒストグラム生成領域の設定は適宜変更可能である。   The histogram generation unit 14b obtains the HOG at each pixel position of the image based on the gradient direction calculated by the gradient direction calculation unit 14a. Specifically, an area (hereinafter referred to as a histogram generation area) is set around the pixel of interest, the gradient direction at the pixel position of each pixel included in the histogram generation area is acquired, and the frequency for each gradient direction is integrated. To do. This frequency distribution becomes the HOG at the pixel position of the target pixel. By scanning the target pixel, the HOG at each pixel position of the image can be obtained. In the present embodiment, the histogram generation area has a size of 5 × 5 centered on the pixel of interest, but the setting of the histogram generation area can be changed as appropriate.

画素差分部14cは、2つの画像の各画素位置におけるHOGに基づいて、その画素位置における差分値(以下、画素差分値と称する)を算出する。具体的には、第1の画像の差分対象となる画素(以下、差分対象画素と称する)の画素位置におけるHOGと第2の画像の差分対象画素の画素位置におけるHOGとの差異を求めて、その差分対象画素の画素位置における画素差分値とする。なお、HOGどうしの差異は、各勾配方向における度数の差の絶対値和を用いることができる。すなわち、勾配方向をi(=0〜8)、第1の画像および第2の画像の差分対象画素の画素位置におけるHOGをそれぞれHOG1,HOG2とし、HOGの勾配方向iの度数をHOG[i]とすると、差分対象画素の画素位置における画素差分値dは、

Figure 2013115738
と表すことができる。 The pixel difference unit 14c calculates a difference value (hereinafter referred to as a pixel difference value) at the pixel position based on the HOG at each pixel position of the two images. Specifically, the difference between the HOG at the pixel position of the pixel that is the difference target of the first image (hereinafter referred to as the difference target pixel) and the HOG at the pixel position of the difference target pixel of the second image is obtained. The pixel difference value at the pixel position of the difference target pixel is used. The difference between the HOGs can be the absolute value sum of the frequency differences in each gradient direction. That is, the gradient direction is i (= 0 to 8), the HOGs at the pixel positions of the difference target pixels of the first image and the second image are HOG1 and HOG2, respectively, and the frequency of the HOG gradient direction i is HOG [i]. Then, the pixel difference value d at the pixel position of the difference target pixel is
Figure 2013115738
It can be expressed as.

画像差分部14は、画素差分部14cに対して、画像の各画素を順次差分対象画素として設定することにより、全画素位置における画素差分値を取得し、2つの画像間の差分を求める。   The image difference unit 14 sequentially sets each pixel of the image as a difference target pixel with respect to the pixel difference unit 14c, thereby acquiring pixel difference values at all pixel positions and obtaining a difference between the two images.

画像合成部20は、各カメラCにより撮影された画像を合成した合成画像を生成する。   The image synthesizing unit 20 generates a synthesized image obtained by synthesizing images taken by the cameras C.

以下に、図3のフローチャートを用いて本実施例における車両周辺撮影装置の処理の流れを説明する。なお、以下の説明では、フロントカメラFを本発明の第1カメラおよび主カメラ、左サイドカメラSLを本発明の第2カメラおよび副カメラとした場合のみを説明するが、他のカメラCについても同様の処理が行われる。   The processing flow of the vehicle periphery photographing apparatus in the present embodiment will be described below using the flowchart of FIG. In the following description, only the case where the front camera F is the first camera and the main camera of the present invention and the left side camera SL is the second camera and the sub camera of the present invention will be described. Similar processing is performed.

本実施形態では、運転者がタッチパネルDbを操作して、車両周辺撮影装置の作動を明示的に指示した場合に以下の処理が実行されるが、車両Vに搭載されている各種センサ等の出力に基づいて、制御部10が処理を実行するか否かを判断する構成としても構わない。   In the present embodiment, the following processing is executed when the driver operates the touch panel Db to explicitly instruct the operation of the vehicle periphery photographing device, but outputs from various sensors and the like mounted on the vehicle V The control unit 10 may determine whether to execute the process based on the above.

まず、運転者がタッチパネルDbを操作して、車両周辺撮影装置の作動を指示すると、その指示は制御部10により取得され、指示を取得した制御部10は、画像取得部11に対して画像を取得する旨の指示を送る。これに対して、画像取得部11は主カメラおよび副カメラから画像を取得する(#01)。取得された画像はそれぞれ主撮影画像および副撮影画像としてメモリ(図示せず)に記憶される。   First, when the driver operates the touch panel Db to instruct the operation of the vehicle periphery photographing apparatus, the instruction is acquired by the control unit 10, and the control unit 10 that acquired the instruction displays an image to the image acquisition unit 11. Send instructions to obtain. On the other hand, the image acquisition unit 11 acquires images from the main camera and the sub camera (# 01). The acquired images are stored in a memory (not shown) as a main captured image and a sub captured image, respectively.

画像の取得が完了すると、制御部10は、視点変換部13に対して、副撮影画像を主カメラの視点から撮影した画像に視点変換するよう指示を送る。これに対して、視点変換部13は、公知の方法により、副撮影画像から視点変換画像を生成する(#02)。生成された視点変換画像は、メモリに記憶される。なお、各カメラCの視点位置(車両座標系中におけるカメラ原点の座標および光軸方向)または、視点変換のための変換テーブルは予めメモリ等に記録されており、視点変換処理に用いられる。   When the image acquisition is completed, the control unit 10 sends an instruction to the viewpoint conversion unit 13 to change the viewpoint of the sub-captured image from the viewpoint of the main camera. In contrast, the viewpoint conversion unit 13 generates a viewpoint conversion image from the sub-captured image by a known method (# 02). The generated viewpoint conversion image is stored in the memory. Note that the viewpoint position of each camera C (the coordinates of the camera origin in the vehicle coordinate system and the optical axis direction) or a conversion table for viewpoint conversion is recorded in advance in a memory or the like and used for viewpoint conversion processing.

視点変換画像の生成が完了すると、制御部10は、画像差分部14に対して、主撮影画像と視点変換画像との差分を算出するように指示を送る。これに対して、画像差分部14は主撮影画像と視点変換画像との差分を算出する(#03)。本実施例では、主撮影画像と視点変換画像との差分結果は、各画素位置における画素差分値を画素値とする差分画像として出力し、メモリに記憶される。   When the generation of the viewpoint conversion image is completed, the control unit 10 sends an instruction to the image difference unit 14 so as to calculate the difference between the main captured image and the viewpoint conversion image. On the other hand, the image difference unit 14 calculates the difference between the main captured image and the viewpoint conversion image (# 03). In the present embodiment, the difference result between the main captured image and the viewpoint conversion image is output as a difference image having a pixel difference value at each pixel position as a pixel value and stored in the memory.

図4は本実施形態における画像間差分の処理の流れを表すフローチャートである。ここでは、画像間差分を行う2つの画像を第1画像および第2画像と称する。まず、勾配方向算出部14aは、上述の方法により、第1画像および第2画像の各画素位置における輝度値の勾配方向を算出し、2次元配列形式でメモリに記憶する(#21,#22)。   FIG. 4 is a flowchart showing the flow of the inter-image difference processing in this embodiment. Here, the two images that perform the inter-image difference are referred to as a first image and a second image. First, the gradient direction calculation unit 14a calculates the gradient direction of the luminance value at each pixel position of the first image and the second image by the method described above, and stores it in the memory in a two-dimensional array format (# 21, # 22). ).

次に、ヒストグラム生成部14bは、上述の処理により算出した各画素位置における勾配方向を用いて、上述の処理により、第1画像および第2画像の各画素位置におけるHOGを算出する(#23,#24)。各画素位置におけるHOGは9の要素を持つ1次元配列であるため、算出された全画素位置におけるHOGは3次元配列形式でメモリに記憶される。   Next, the histogram generation unit 14b calculates the HOG at each pixel position of the first image and the second image by the above process using the gradient direction at each pixel position calculated by the above process (# 23, # 24). Since the HOG at each pixel position is a one-dimensional array having nine elements, the calculated HOGs at all pixel positions are stored in the memory in a three-dimensional array format.

画像差分部14は、第1画像から順次1つの画素を差分対象画素として選択し、画素差分部14cに対して差分対象画素の画素位置における画素差分値を算出するよう指示を送る。   The image difference unit 14 sequentially selects one pixel from the first image as a difference target pixel, and sends an instruction to the pixel difference unit 14c to calculate a pixel difference value at the pixel position of the difference target pixel.

具体的には、まず、画像差分部14は第1画像から位置の画素を差分対象画素として選択する(#25)。選択された差分対象画素の画素位置は画像差分部14から画素差分部14c送られる。差分対象画素の画素位置を取得した画素差分部14cは、メモリから第1画像の差分対象画素の画素位置におけるHOGと第2画像の差分対象画素の画素位置におけるHOGとを取得し、上述の式(1)により画素差分値dを算出する(#26)。算出された画素差分値dは画像差分部14に送られる。   Specifically, first, the image difference unit 14 selects a pixel at a position from the first image as a difference target pixel (# 25). The pixel position of the selected difference target pixel is sent from the image difference unit 14 to the pixel difference unit 14c. The pixel difference unit 14c that has acquired the pixel position of the difference target pixel acquires the HOG at the pixel position of the difference target pixel of the first image and the HOG at the pixel position of the difference target pixel of the second image from the memory, and calculates the above equation. The pixel difference value d is calculated from (1) (# 26). The calculated pixel difference value d is sent to the image difference unit 14.

画像差分部14は、メモリ上に画素差分値を記憶するための2次元配列を確保しておき、その2次元配列の差分対象画素の画素位置に対応する位置に取得した画素差分値dを記憶させる。   The image difference unit 14 reserves a two-dimensional array for storing pixel difference values on the memory, and stores the acquired pixel difference value d at a position corresponding to the pixel position of the difference target pixel in the two-dimensional array. Let

上述の処理が完了すると、画像差分部14は未処理、すなわち、差分対象画素として選択していない画素の有無を判定し(#27)、未処理画素が存在すれば(#27のYes分岐)、処理を#25に移行して上述の処理を繰り返す。   When the above processing is completed, the image difference unit 14 determines whether or not there is a pixel that has not been processed, that is, is not selected as a difference target pixel (# 27), and if there is an unprocessed pixel (Yes branch of # 27). The process proceeds to # 25 and the above-described process is repeated.

図5(a)および(b)に、主撮影画像としてのフロントカメラFにより撮影された画像と、副撮影画像としての左サイドカメラSLにより撮影された画像をフロントカメラFの視点位置から撮影された画像に視点変換した視点変換画像の例を示す。また、図6は図5(a)の画像と図5(b)の画像との差分画像である。なお、図5(b)の視点変換画像は、図5(a)と位置合せを行った後、図5(a)と重複する部分のみをクリッピングしたものである。図に示すように、主撮影画像および視点変換画像には白線Wと障害物Aとが含まれている。また、図5から明らかなように、主撮影画像中の白線Wと視点変換画像中の白線Wとは、略同じ位置となっている。したがって、主撮影画像と視点変換画像との画像間差分をとると、図6に示すように、白線Wに対応する領域では優位な画素差分値は算出されない。一方、図6に示すように、障害物Aに対応する領域、特に、障害物Aの上部に対応する領域では優位な画素差分値が算出される。したがって、差分画像内に優位な画素差分値を有する領域があるか否かを判定すれば、車両Vの周辺に障害物が存在するか否かを判定することができる。   5A and 5B, an image photographed by the front camera F as the main photographed image and an image photographed by the left side camera SL as the sub-photographed image are photographed from the viewpoint position of the front camera F. 2 shows an example of a viewpoint-converted image obtained by converting the viewpoint to an image. FIG. 6 is a difference image between the image of FIG. 5A and the image of FIG. Note that the viewpoint-converted image in FIG. 5B is obtained by clipping only the portion overlapping with FIG. 5A after alignment with FIG. 5A. As shown in the figure, the main photographed image and the viewpoint conversion image include a white line W and an obstacle A. Further, as is clear from FIG. 5, the white line W in the main captured image and the white line W in the viewpoint conversion image are substantially at the same position. Therefore, when the inter-image difference between the main photographed image and the viewpoint conversion image is taken, a dominant pixel difference value is not calculated in the region corresponding to the white line W as shown in FIG. On the other hand, as shown in FIG. 6, a dominant pixel difference value is calculated in the area corresponding to the obstacle A, particularly in the area corresponding to the upper part of the obstacle A. Therefore, it can be determined whether there is an obstacle around the vehicle V if it is determined whether there is a region having a dominant pixel difference value in the difference image.

この差分画像を運転者に提示することにより、運転者は車両Vの周辺に存在する障害物の有無を判断することはできるが、より運転者の判断が容易になるように、本実施形態では、表示部Daにトップビュー画像を表示し、その画像中に障害物を示す指標を重畳表示している。   By presenting this difference image to the driver, the driver can determine the presence or absence of obstacles around the vehicle V, but in the present embodiment, the driver's determination becomes easier. A top view image is displayed on the display unit Da, and an index indicating an obstacle is superimposed on the image.

そのため、差分画像が生成されると、制御部10は、画像合成部20に対して、トップビュー画像の生成、および、トップビュー画像に障害物を示す指標を重畳させるよう指示を送る。これに対して、画像合成部20は、視点変換部12を用いて、各カメラCの撮影画像および差分画像をトップビュー画像に視点変換する(#10)。なお、差分画像は主撮影画像を基準として生成されたものであるため、主撮影画像と同じ視点変換処理を受ける。   Therefore, when the difference image is generated, the control unit 10 sends an instruction to the image synthesis unit 20 to generate a top view image and superimpose an index indicating an obstacle on the top view image. On the other hand, the image composition unit 20 uses the viewpoint conversion unit 12 to convert the captured image and the difference image of each camera C into a top view image (# 10). Note that the difference image is generated based on the main captured image, and thus undergoes the same viewpoint conversion processing as the main captured image.

また、画像合成部20は差分画像から障害物を検出する(#11)。上述したように、障害物は差分画像中で優位な画素値を有する領域である。そのため、差分画像に対して2値化および領域分割を施せば、障害物の領域が検出できる。また、差分画像に対してエッジ抽出および2値化を施せば、障害物の輪郭を抽出することができる。画像合成部20は、このようにして障害物を検出し、上述の処理により合成したトップビュー画像に対して、障害物の位置を示す指標を合成する(#12)。このようにして生成された画像はメモリに記憶され、制御部10の指示によって表示部Daに表示される(#13)。   Further, the image composition unit 20 detects an obstacle from the difference image (# 11). As described above, the obstacle is a region having a dominant pixel value in the difference image. Therefore, if binarization and area division are applied to the difference image, the area of the obstacle can be detected. Further, if edge extraction and binarization are performed on the difference image, the contour of the obstacle can be extracted. The image composition unit 20 detects the obstacle in this way, and composes an index indicating the position of the obstacle with the top view image synthesized by the above-described processing (# 12). The image generated in this way is stored in the memory and displayed on the display unit Da according to an instruction from the control unit 10 (# 13).

図7は上述の処理によって表示部Daに表示される表示画像の例である。図7(a)では、トップビュー画像に対して障害物Aの輪郭を表す指標Eを合成している。一方、図7(b)では、トップビュー画像に対して障害物Aの路面との接地位置を示す指標Eを合成している。なお、この例では、トップビュー画像を合成する際に、フロントカメラFの撮影範囲と左サイドカメラSLの撮影範囲との重複する範囲は双方の画像を合成しているため、障害物Aの形状は実際の形状とは異なっている。   FIG. 7 is an example of a display image displayed on the display unit Da by the above-described processing. In FIG. 7A, an index E representing the contour of the obstacle A is synthesized with the top view image. On the other hand, in FIG.7 (b), the parameter | index E which shows the contact position with the road surface of the obstruction A is synthesize | combined with respect to the top view image. In this example, when the top view image is combined, the overlapping range of the shooting range of the front camera F and the shooting range of the left side camera SL combines both images, so the shape of the obstacle A Is different from the actual shape.

図8は本実施例における車両周辺撮影装置の機能ブロック図である。なお、実施例1と同様の機能部に対しては実施例1と同じ符号を付しており、詳細な説明は省略する。本実施例の車両周辺撮影装置は、画像のエッジ抽出を行うエッジ抽出部15、2つの画像に対して論理積を施した積画像を生成する積画像生成部16を備えている点において実施例1と異なっている。   FIG. 8 is a functional block diagram of the vehicle periphery photographing apparatus in the present embodiment. In addition, the same code | symbol as Example 1 is attached | subjected to the function part similar to Example 1, and detailed description is abbreviate | omitted. The vehicle periphery photographing apparatus according to the present embodiment is provided with an edge extraction unit 15 that extracts an edge of an image, and a product image generation unit 16 that generates a product image obtained by performing a logical product on two images. 1 and different.

エッジ抽出部15は、画像からエッジ抽出を行う。エッジの抽出は、CannyアルゴリズムやSobelオペレータ等の公知の方法を用いることができる。なお、Sobelオペレータを使用すると実際のエッジの両側にエッジが検出されるため、膨張処理および細線化処理を施しておくことが望ましい。   The edge extraction unit 15 performs edge extraction from the image. For extracting the edge, a known method such as the Canny algorithm or the Sobel operator can be used. Note that when the Sobel operator is used, edges are detected on both sides of the actual edge, so it is desirable to perform expansion processing and thinning processing.

積画像生成部16は、2つの画像において対応する画素位置の画素値の論理積を算出し、その論理積の値を画素値とする積画像を生成する。なお、本発明における論理積とは一般的な論理積の概念を拡張したものであり、第1の画素値および第2の画素値がともに優位な値(例えば、閾値よりも大きい値)を有している場合にこれらの論理積が優位な値(固定値であっても、所定の値よりも大きい値であっても構わない)となり、それ以外の場合にはこれらの論理積は劣位(例えば、閾値以下の場合)な値となるものである。したがって、2つの画像がともに2値画像であれば本発明における論理積は一般的なandオペレータとなる。   The product image generation unit 16 calculates a logical product of pixel values at corresponding pixel positions in the two images, and generates a product image having the logical product value as a pixel value. The logical product in the present invention is an extension of the general concept of logical product, and both the first pixel value and the second pixel value have superior values (for example, values larger than the threshold value). These logical products have superior values (either fixed values or larger values than the predetermined value), and in other cases, these logical products are inferior ( For example, the value is less than or equal to the threshold value. Therefore, if both images are binary images, the logical product in the present invention is a general and operator.

一方、画像が多値の場合には次のようにして論理積を算出することができる。例えば、真値を1(優位な値)、偽値を0(劣位な値)とし、第1の画素値をp1、第2の画素値をp2とすると、第1の画素値p1と第2の画素値p2との論理積は(p1>TH1)&(p2>TH2)なる論理演算の結果とすることができる。この場合、第1の画素値p1が閾値TH1よりも大きく、かつ、第2の画素値p2が閾値TH2よりも大きい、すなわち、両方の画素値が優位な値である場合にのみ、上述の論理演算の結果は真値となる。この場合には、積画像は2値画像となる。なお、閾値TH1と閾値TH2とは同じ値であっても構わないし、異なる値であっても構わない。また、閾値TH1と閾値TH2とは固定値であっても構わないし、大津の判別分析法等の方法等によって画像の画素値の分布に応じて定められた値であっても構わない。   On the other hand, when the image is multi-valued, the logical product can be calculated as follows. For example, if the true value is 1 (dominant value), the false value is 0 (inferior value), the first pixel value is p1, and the second pixel value is p2, the first pixel value p1 and the second pixel value Can be the result of a logical operation of (p1> TH1) & (p2> TH2). In this case, only when the first pixel value p1 is larger than the threshold value TH1 and the second pixel value p2 is larger than the threshold value TH2, that is, both the pixel values are dominant values, The result of the operation is a true value. In this case, the product image is a binary image. Note that the threshold value TH1 and the threshold value TH2 may be the same value or different values. Further, the threshold value TH1 and the threshold value TH2 may be fixed values, or may be values determined according to the distribution of pixel values of the image by a method such as Otsu's discriminant analysis method.

このように、論理積の概念を拡張することにより、画像を予め2値化することなく、画像間の論理積を算出することができる。そのため、2値画像を記憶するためのメモリが不要となり、車両周辺撮影装置のメモリ容量が小さい場合には有利となる。   Thus, by extending the concept of logical product, logical product between images can be calculated without binarizing the images in advance. This eliminates the need for a memory for storing binary images, which is advantageous when the memory capacity of the vehicle periphery photographing apparatus is small.

図9は本実施例における画像周辺撮影装置の処理の流れを表すフローチャートである。なお、#01から#03、および、#10〜#13までの処理は実施例1と同様であるため、詳細な説明は省略する。   FIG. 9 is a flowchart showing the processing flow of the image peripheral photographing apparatus in the present embodiment. Since the processes from # 01 to # 03 and # 10 to # 13 are the same as those in the first embodiment, detailed description thereof is omitted.

制御部10は、差分画像の生成が完了すると、エッジ抽出部15に対して主撮影画像のエッジ抽出を行うよう指示を送る。エッジ抽出部15はこの指示を受けて、主撮影画像に対してCannyアルゴリズムを適用してエッジ画像を生成する(#04)。なお、本実施形態では、エッジ抽出部15は、生成されたエッジ画像に対して膨張処理を施している。このようにして生成されたエッジ画像(2値画像)はメモリに記憶される。なお、本実施例におけるエッジ画像では、エッジ画素の画素値を1(優位な値)、非エッジ画素の画素値を0(劣位な値)としている。   When the generation of the difference image is completed, the control unit 10 sends an instruction to the edge extraction unit 15 to perform edge extraction of the main captured image. In response to this instruction, the edge extraction unit 15 applies the Canny algorithm to the main captured image to generate an edge image (# 04). In the present embodiment, the edge extraction unit 15 performs an expansion process on the generated edge image. The edge image (binary image) generated in this way is stored in the memory. In the edge image in this embodiment, the pixel value of the edge pixel is 1 (dominant value), and the pixel value of the non-edge pixel is 0 (inferior value).

制御部10は、エッジ画像の生成が完了すると、積画像生成部16に対して、差分画像と主撮影画像のエッジ画像とから積画像を生成するよう指示を送る。この指示を受けた積画像生成部16は、上述の処理により積画像を生成する(#05)。なお、本実施例では、差分画像が多値画像、エッジ画像が2値画像であるため、差分画像の画素値をp1、エッジ画像の画素値をp2とすると、論理演算式は(p1>TH1)&p2となる。このようにして生成された積画像はメモリに記憶される。   When the generation of the edge image is completed, the control unit 10 sends an instruction to the product image generation unit 16 to generate a product image from the difference image and the edge image of the main captured image. Upon receiving this instruction, the product image generation unit 16 generates a product image by the above-described processing (# 05). In this embodiment, since the difference image is a multi-valued image and the edge image is a binary image, if the pixel value of the difference image is p1 and the pixel value of the edge image is p2, the logical operation formula is (p1> TH1 ) & P2. The product image generated in this way is stored in the memory.

制御部10は、積画像の生成が完了すると、画像合成部20に対して合成画像の生成を指示し、生成された合成画像を表示部Daに表示する(#10〜#13)。なお、実施例1では#11の処理において差分画像から障害物を検出したが、本実施例では差分画像から障害物の領域を抽出することに代えて、積画像において真値を有する領域を障害物の領域とする。   When the generation of the product image is completed, the control unit 10 instructs the image composition unit 20 to generate a composite image, and displays the generated composite image on the display unit Da (# 10 to # 13). In the first embodiment, an obstacle is detected from the difference image in the process of # 11. However, in this embodiment, instead of extracting the obstacle area from the difference image, an area having a true value is obstructed in the product image. This is the object area.

図10(a)は第1画像のエッジ画像の例であり、エッジ画像には主撮影画像における障害物の輪郭や路面の白線等の輪郭が含まれている。図10(b)はこのエッジ画像と図6の差分画像とから生成した積画像の例である。図から明らかなように、積画像には白線等の領域が含まれておらず、差分画像では正確に検出されていなかった障害物の輪郭形状がより正確に検出されている。したがって、この障害物の輪郭形状を用いれば、図11に示すように、正確な障害物Aの輪郭形状を示す指標Eを合成したトップビュー画像を合成することができる。   FIG. 10A shows an example of an edge image of the first image. The edge image includes an outline of an obstacle in the main captured image and a contour such as a white line on the road surface. FIG. 10B is an example of a product image generated from this edge image and the difference image of FIG. As is apparent from the figure, the product image does not include an area such as a white line, and the contour shape of the obstacle that has not been accurately detected in the difference image is detected more accurately. Therefore, if the contour shape of the obstacle is used, a top view image obtained by synthesizing the index E indicating the exact contour shape of the obstacle A can be synthesized as shown in FIG.

本実施例では、このように、主撮影画像のエッジと差分画像との積画像に基づいて障害物の領域を抽出している。そのため、本実施例によれば、実施例1において誤検出された障害物の領域であって、障害物の輪郭付近にない領域を除外することができる。そのため、実施例1に比べて、より高精度な障害物の領域の抽出を行うことができる。   In this embodiment, the area of the obstacle is thus extracted based on the product image of the edge of the main captured image and the difference image. Therefore, according to the present embodiment, it is possible to exclude an area of an obstacle that is erroneously detected in the first embodiment and is not near the outline of the obstacle. Therefore, the obstacle area can be extracted with higher accuracy than in the first embodiment.

図12は本実施例における画像周辺撮影装置の機能ブロック図である。なお、実施例2と同様の機能部に対しては実施例2と同じ符号を付しており、詳細な説明は省略する。本実施例の車両周辺撮影装置は、画像に対して領域分割処理を施す領域分割部17、障害物画像生成部18を備えている。   FIG. 12 is a functional block diagram of the image peripheral photographing apparatus in the present embodiment. In addition, the same code | symbol as Example 2 is attached | subjected to the function part similar to Example 2, and detailed description is abbreviate | omitted. The vehicle periphery photographing apparatus of the present embodiment includes an area dividing unit 17 and an obstacle image generating unit 18 that perform an area dividing process on an image.

領域分割部17は、画像の画素値(RGB値等のカラー値であっても輝度値であっても構わない)に基づいて領域分割処理を行い、ラベリング画像を生成する。なお、ラベリング画像とは、領域分割処理において同じ領域に属すると判定された画素に同じ画素値(ラベル値)を付与した画像である。領域分割は、グラフカット、Mean−Shift等の公知の手法を用いることができる。   The area dividing unit 17 performs an area dividing process based on the pixel value of the image (which may be a color value such as an RGB value or a luminance value) to generate a labeled image. Note that a labeling image is an image in which the same pixel value (label value) is given to pixels that are determined to belong to the same region in the region division processing. For area division, a known method such as graph cut or Mean-Shift can be used.

障害物画像生成部18は、領域分割された各々の領域と積画像において真値を有する領域との類似性に基づいて障害物の領域を抽出した障害物画像を生成する。なお、障害物画像とは、障害物であると判定された領域に属する画素の画素値を真値とした画像である。   The obstacle image generation unit 18 generates an obstacle image obtained by extracting the obstacle area based on the similarity between each area divided and the area having the true value in the product image. An obstacle image is an image in which the pixel value of a pixel belonging to a region determined to be an obstacle is a true value.

上述したように、積画像において真値を有する領域は障害物の輪郭形状を表している。したがって、障害物画像生成部18は、領域分割された各々の領域と、積画像に表されている輪郭との類似性に基づいて障害物の領域を求めている。なお、領域と輪郭との類似性の尺度は様々なものを利用することができる。例えば、比較対象の輪郭と、比較対象の領域の輪郭との一致性や、比較対象の輪郭により囲まれた領域と比較対象の領域との一致性等を用いることができる。   As described above, the region having the true value in the product image represents the contour shape of the obstacle. Therefore, the obstacle image generation unit 18 obtains an obstacle area based on the similarity between each area divided and the contour represented in the product image. Note that various measures of similarity between the region and the contour can be used. For example, the consistency between the contour of the comparison target and the contour of the comparison target region, the consistency between the region surrounded by the comparison target contour and the comparison target region, or the like can be used.

図13は本実施例における画像周辺撮影装置の処理の流れを表すフローチャートである。なお、#01から#05、および、#10〜#13までの処理は実施例2と同様であるため、詳細な説明は省略する。   FIG. 13 is a flowchart showing the processing flow of the image peripheral photographing apparatus in the present embodiment. Since the processes from # 01 to # 05 and # 10 to # 13 are the same as those in the second embodiment, detailed description thereof is omitted.

制御部10は、積画像の生成が完了すると、領域分割部17に対して、主撮影画像および積画像の領域分割を行うよう指示を送る。指示を受けた領域分割部17は主撮影画像を領域分割し、第1ラベリング画像を生成する(#06)。また、積画像を領域分割し、第2ラベリング画像を生成する(#07)。これらのラベリング画像はメモリに記憶される。   When the generation of the product image is completed, the control unit 10 sends an instruction to the region dividing unit 17 to divide the main captured image and the product image into regions. Upon receiving the instruction, the area dividing unit 17 divides the main captured image into areas and generates a first labeling image (# 06). Further, the product image is divided into regions to generate a second labeling image (# 07). These labeling images are stored in a memory.

制御部10は、領域分割が完了すると、障害物画像生成部18に対して障害物画像を生成するよう指示を送る。指示を受けた障害物画像生成部18は、障害物画像を生成し、メモリに記憶する(#08)。   When the region division is completed, the control unit 10 sends an instruction to the obstacle image generation unit 18 to generate an obstacle image. Upon receiving the instruction, the obstacle image generation unit 18 generates an obstacle image and stores it in the memory (# 08).

図14は、障害物画像生成処理の流れを表すフローチャートである。まず、第1ラベリング画像から一の領域(以下、第1領域と称する)を選択する(#31)。また、第2ラベリング画像から一の領域(以下、第2領域と称する)を選択する(#32)。そして、第1領域と第2領域との類似性を算出する(#33)。このとき、使用する類似性の尺度に応じて第1領域および第2領域の特徴量の算出が行われる。なお、予め領域の特徴量を求めておき、メモリに記憶させておいても構わない。   FIG. 14 is a flowchart showing the flow of the obstacle image generation process. First, one area (hereinafter referred to as the first area) is selected from the first labeling image (# 31). Also, one area (hereinafter referred to as the second area) is selected from the second labeling image (# 32). Then, the similarity between the first area and the second area is calculated (# 33). At this time, the feature amounts of the first region and the second region are calculated according to the similarity measure to be used. Note that the feature amount of the area may be obtained in advance and stored in the memory.

算出された類似性が所定の閾値よりも大きければ(#34のYes分岐)、第1領域を障害物の領域とし、メモリ上に確保された障害物領域画像用の2次元配列の第1領域に対応する画素値に真値を代入する(#35)。   If the calculated similarity is larger than a predetermined threshold (Yes branch of # 34), the first area is set as the obstacle area, and the first area of the two-dimensional array for the obstacle area image secured on the memory A true value is substituted for the pixel value corresponding to (# 35).

第2ラベリング画像において未処理の領域が存在すれば(#36のYes分岐)、処理を#32に移行させ、上述の処理を繰り返す。一方、第2ラベリング画像において未処理の領域が存在しなければ(#36のNo分岐)、第1ラベリング画像において未処理の領域が存在するか否かが判定され(#37)、未処理の領域が存在すれば(#37のYes分岐)、処理を#31に移行させ、上述の処理が繰り返される。   If there is an unprocessed area in the second labeling image (Yes branch of # 36), the process is shifted to # 32 and the above process is repeated. On the other hand, if there is no unprocessed area in the second labeling image (No branch of # 36), it is determined whether or not there is an unprocessed area in the first labeling image (# 37). If there is an area (Yes branch of # 37), the process is shifted to # 31, and the above process is repeated.

本実施例では、このように、主撮影画像の各領域と積画像において真値を有する領域、すなわち、実施例2で障害物として抽出された領域との類似性に基づいて、障害物の領域を抽出している。そのため、本実施例によれば、実施例2において誤検出された障害物の領域であって、主撮影画像の領域と整合しない形状等を有する領域を除外することができる。そのため、実施例2に比べて、より高精度な障害物の領域の抽出を行うことができる。   In this embodiment, as described above, the area of the obstacle is based on the similarity between each area of the main captured image and the area having the true value in the product image, that is, the area extracted as the obstacle in the second embodiment. Is extracted. Therefore, according to the present embodiment, it is possible to exclude an area of an obstacle erroneously detected in the second embodiment and having a shape or the like that does not match the area of the main captured image. Therefore, the obstacle area can be extracted with higher accuracy than in the second embodiment.

上述の実施例1から実施例3では、第1カメラ(上述の実施例では、フロントカメラF)を主カメラ、第2カメラ(上述の実施例では、左サイドカメラSL)を副カメラとして処理を行った。これに対して、本実施例では、第1カメラを主カメラ、第2カメラを副カメラとした処理結果(出力画像)と、第1カメラを副カメラ,第2カメラを主カメラとした処理結果(出力画像)とを統合した結果を出力する。なお、処理結果の統合は、例えば、両方の処理結果において、障害物の領域が対応する位置になければ、処理結果から除外する。これにより、障害物の領域の障害物としての確からしさがダブルチェックされ、抽出精度を高めることができる。なお、両方の処理結果における障害物の領域の位置の対応関係は主カメラと副カメラとの姿勢に基づいて検証することができる。また、視点変換等の誤差により、両方の処理結果における障害物の領域は完全に対応する位置とはならない可能性がある。その場合には、車両Vに近い側の障害物の領域を使用することが望ましい。   In the first to third embodiments, the first camera (front camera F in the above embodiment) is the main camera and the second camera (left side camera SL in the above embodiment) is the sub camera. went. In contrast, in this embodiment, the processing result (output image) in which the first camera is the main camera and the second camera is the sub camera, and the processing result in which the first camera is the sub camera and the second camera is the main camera. The result of integration with (output image) is output. Note that the integration of the processing results is excluded from the processing results, for example, if the obstacle area is not located at the corresponding position in both processing results. As a result, the likelihood of the obstacle region as an obstacle is double-checked, and the extraction accuracy can be improved. The correspondence relationship between the positions of the obstacle regions in both processing results can be verified based on the postures of the main camera and the sub camera. Further, due to errors such as viewpoint conversion, there is a possibility that the area of the obstacle in both processing results may not be a completely corresponding position. In that case, it is desirable to use the area of the obstacle on the side close to the vehicle V.

〔実施例1への適用〕
図15は本実施例の処理を実施例1の処理に適用した場合の処理の流れを模式的に表す図である。まず、実施例1と同様に第1カメラを主カメラ、第2カメラを副カメラとして、差分画像(以下、第1差分画像と称する)の生成を行う(#02〜#03)。また、第2カメラを主カメラ、第1カメラを副カメラとして、差分画像(以下、第2差分画像と称する)の生成を行う(#02’〜#03’)。そして、第1差分画像と第2差分画像とを統合して出力画像としての差分画像を生成する。
[Application to Example 1]
FIG. 15 is a diagram schematically showing the flow of processing when the processing of the present embodiment is applied to the processing of the first embodiment. First, as in the first embodiment, a difference image (hereinafter referred to as a first difference image) is generated using the first camera as a main camera and the second camera as a sub camera (# 02 to # 03). Also, a difference image (hereinafter referred to as a second difference image) is generated using the second camera as the main camera and the first camera as the sub camera (# 02 ′ to # 03 ′). Then, the first difference image and the second difference image are integrated to generate a difference image as an output image.

〔実施例2への適用〕
実施例2の処理において、実施例1の処理により生成された差分画像に代えて、図15の処理により生成された差分画像(出力画像)を用いても構わない。また、図16に模式的に示す処理を行っても構わない。まず、実施例2と同様に第1カメラを主カメラ、第2カメラを副カメラとして、積画像(以下、第1積画像と称する)の生成を行う(#02〜#05)。また、第2カメラを主カメラ、第1カメラを副カメラとして、積画像(以下、第2積画像と称する)の生成を行う(#02’〜#05’)。そして、第1積画像と第2積画像とを統合して出力画像としての積画像を生成する。また、この図16の処理における差分画像の生成処理を図15の処理に置き換えても構わない。
[Application to Example 2]
In the process of the second embodiment, the difference image (output image) generated by the process of FIG. 15 may be used instead of the difference image generated by the process of the first embodiment. Moreover, you may perform the process typically shown in FIG. First, similarly to the second embodiment, a product image (hereinafter referred to as a first product image) is generated using the first camera as a main camera and the second camera as a sub camera (# 02 to # 05). Also, product images (hereinafter referred to as second product images) are generated using the second camera as the main camera and the first camera as the sub camera (# 02 ′ to # 05 ′). Then, the first product image and the second product image are integrated to generate a product image as an output image. Further, the difference image generation process in the process of FIG. 16 may be replaced with the process of FIG.

〔実施例3への適用〕
実施例3の処理において、実施例2の処理により生成された積画像に代えて、図16の処理により生成された積画像(出力画像)を用いても構わない。また、図17に模式的に示す処理を行っても構わない。まず、実施例3と同様に第1カメラを主カメラ、第2カメラを副カメラとして、障害物画像(以下、第1障害物画像と称する)の生成を行う(#02〜#08)。また、第2カメラを主カメラ、第1カメラを副カメラとして、障害物画像(以下、第2障害物画像と称する)の生成を行う(#02’〜#08’)。そして、第1障害物画像と第2障害物画像とを統合して出力画像としての障害物画像を生成する。また、この図17の処理における差分画像の生成処理を図15の処理に置き換えても構わないし、積画像の生成処理を図16の処理に置き換えても構わない。
[Application to Example 3]
In the processing of the third embodiment, the product image (output image) generated by the processing of FIG. 16 may be used instead of the product image generated by the processing of the second embodiment. Moreover, you may perform the process typically shown in FIG. First, as in the third embodiment, an obstacle image (hereinafter referred to as a first obstacle image) is generated using the first camera as a main camera and the second camera as a sub camera (# 02 to # 08). Also, an obstacle image (hereinafter referred to as a second obstacle image) is generated using the second camera as the main camera and the first camera as the sub camera (# 02 ′ to # 08 ′). Then, the first obstacle image and the second obstacle image are integrated to generate an obstacle image as an output image. Also, the difference image generation process in the process of FIG. 17 may be replaced with the process of FIG. 15, or the product image generation process may be replaced with the process of FIG.

〔別実施形態〕
(1)上述の実施形態では、4つのカメラCの撮影画像を合成したトップビュー画像を生成してディスプレイに表示する構成としたが、一部のカメラCの撮影画像を用いた表示を行う構成としても構わない。この場合には、車両Vに搭載されている様々なセンサ等の出力に基づいて使用するカメラを選択する構成とすることもできる。例えば、ステアリングの操舵角を検出するステアリングセンサの出力とシフトレバーの操作位置を検出するシフトレバーセンサの出力とに基づいて車両Vの進行方向を判定し、その進行方向側のカメラCの撮影画像を用いた表示を行う構成とすることができる。具体的には、ステアリングセンサの操舵角が左方向であり、シフトレバーセンサの出力が後進(=R)の場合には、車両Vの進行方向は左後方であるため、左サイドカメラSLとリアカメラRとの撮影画像を用いた表示を行う。
[Another embodiment]
(1) In the above-described embodiment, the top view image obtained by synthesizing the captured images of the four cameras C is generated and displayed on the display. However, the display using the captured images of some cameras C is performed. It does not matter. In this case, the camera to be used can be selected based on the outputs of various sensors and the like mounted on the vehicle V. For example, the traveling direction of the vehicle V is determined based on the output of the steering sensor that detects the steering angle of the steering and the output of the shift lever sensor that detects the operation position of the shift lever, and the captured image of the camera C on the traveling direction side. It can be set as the structure which displays using this. Specifically, when the steering angle of the steering sensor is the left direction and the output of the shift lever sensor is reverse (= R), the traveling direction of the vehicle V is the left rear, so the left side camera SL and the rear Display using a photographed image with the camera R is performed.

(2)また、撮影画像を合成せずに、各々のカメラCにより撮影された画像をそのまま表示しても構わない。なお、この場合にも障害物を示す指標Eを重畳させることが望ましい。 (2) Moreover, you may display the image image | photographed with each camera C as it is, without combining a picked-up image. In this case as well, it is desirable to superimpose an index E indicating an obstacle.

本発明は、撮影領域の一部が互いに重複するように車両に搭載された複数のカメラにより車両の周辺の情景を撮影する車両周辺撮影技術に適用することができる。   The present invention can be applied to a vehicle periphery photographing technique for photographing a scene around a vehicle using a plurality of cameras mounted on the vehicle such that a part of the photographing region overlaps each other.

C:カメラ
F:フロントカメラ
R:リアカメラ
SR:右サイドカメラ
SL:左サイドカメラ
13:視点変換部
14:画像差分部(画像情報比較部)
15:エッジ抽出部
16:積画像生成部
17:領域分割部
18:障害物画像生成部
C: Camera F: Front camera R: Rear camera SR: Right side camera SL: Left side camera 13: Viewpoint conversion unit 14: Image difference unit (image information comparison unit)
15: Edge extraction unit 16: Product image generation unit 17: Area division unit 18: Obstacle image generation unit

Claims (5)

車両に搭載され、当該車両の周辺の情景を撮影する第1カメラと、
前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラと、
前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された画像を主撮影画像とするとともに当該副カメラにより撮影された画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成する視点変換部と、
前記主撮影画像と前記視点変換画像とを比較した比較情報を生成する画像情報比較部、とを備えた車両周辺撮影装置。
A first camera mounted on a vehicle and photographing a scene around the vehicle;
A second camera mounted on the vehicle for photographing a photographing range partially overlapping with a photographing range of the first camera;
One of the first camera and the second camera is a main camera and the other is a sub camera. An image photographed by the main camera is a main photographed image and an image photographed by the sub camera is sub photographed. A viewpoint conversion unit that generates a viewpoint conversion image obtained by converting the sub-photographed image into an image captured from the viewpoint position of the main camera, as an image;
A vehicle periphery photographing apparatus comprising: an image information comparison unit that generates comparison information comparing the main photographed image and the viewpoint conversion image.
前記主撮影画像からエッジを抽出したエッジ画像を生成するエッジ抽出部と、
前記比較情報としての差分画像と前記エッジ画像との画素値に論理積を施した積画像を生成し、当該積画像を出力画像として出力する積画像生成部と、を備えた請求項1記載の車両周辺撮影装置。
An edge extraction unit that generates an edge image obtained by extracting an edge from the main photographed image;
The product image generation part which produces | generates the product image which performed the logical product to the pixel value of the difference image as the said comparison information, and the said edge image, and outputs the said product image as an output image. Vehicle periphery photographing device.
前記主撮影画像を領域分割する領域分割部と、
前記領域分割された各々の領域と前記積画像において真値を有する領域との類似性に基づいて障害物の領域を抽出した障害物画像を生成し、前記積画像に代えて当該障害物画像を前記出力画像として出力する障害物画像生成部と、を備えた請求項2記載の車両周辺撮影装置。
An area dividing unit for dividing the main photographed image into areas;
An obstacle image is generated by extracting an obstacle area based on the similarity between each of the divided areas and the area having a true value in the product image, and the obstacle image is used instead of the product image. The vehicle periphery photographing apparatus according to claim 2, further comprising an obstacle image generation unit that outputs the output image.
前記第1カメラを前記主カメラとして前記出力画像を第1出力画像として生成するとともに、前記第2カメラを前記主カメラとして前記出力画像を第2出力画像として生成し、
前記第1出力画像と前記第2出力画像とに基づいて障害物を示す画素を所定の画素値に設定した画像を出力画像として出力する請求項1から3のいずれか一項に記載の車両周辺撮影装置。
Generating the output image as a first output image with the first camera as the main camera, and generating the output image as a second output image with the second camera as the main camera;
The vehicle periphery according to any one of claims 1 to 3, wherein an image in which a pixel indicating an obstacle is set to a predetermined pixel value based on the first output image and the second output image is output as an output image. Shooting device.
車両に搭載され、当該車両の周辺の情景を撮影する第1カメラから撮影画像を取得するステップと、
前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラから撮影画像を取得するステップと、
前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された前記撮影画像を主撮影画像とするとともに当該副カメラにより撮影された前記撮影画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成するステップと、
前記主撮影画像と前記視点変換画像とを比較した比較情報を生成するステップと、を備えた車両周辺画像の処理方法。
Acquiring a captured image from a first camera mounted on a vehicle and capturing a scene around the vehicle;
Obtaining a captured image from a second camera mounted on the vehicle and capturing an imaging range partially overlapping with the imaging range of the first camera;
One of the first camera and the second camera is a primary camera and the other is a secondary camera. The captured image captured by the primary camera is a primary captured image and the captured image is captured by the secondary camera. Generating a viewpoint-converted image obtained by converting the sub-photographed image into an image photographed from the viewpoint position of the main camera, using the image as a sub-photographed image;
Generating a comparison information comparing the main photographed image and the viewpoint conversion image, and a vehicle peripheral image processing method.
JP2011262498A 2011-11-30 2011-11-30 Vehicle periphery photographing apparatus and vehicle periphery image processing method Active JP5906696B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011262498A JP5906696B2 (en) 2011-11-30 2011-11-30 Vehicle periphery photographing apparatus and vehicle periphery image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011262498A JP5906696B2 (en) 2011-11-30 2011-11-30 Vehicle periphery photographing apparatus and vehicle periphery image processing method

Publications (2)

Publication Number Publication Date
JP2013115738A true JP2013115738A (en) 2013-06-10
JP5906696B2 JP5906696B2 (en) 2016-04-20

Family

ID=48710866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011262498A Active JP5906696B2 (en) 2011-11-30 2011-11-30 Vehicle periphery photographing apparatus and vehicle periphery image processing method

Country Status (1)

Country Link
JP (1) JP5906696B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6091586B1 (en) * 2015-11-12 2017-03-08 三菱電機株式会社 VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
JP2019500695A (en) * 2015-12-16 2019-01-10 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Method for identifying object in surrounding area of motor vehicle, driver support system, and motor vehicle
US10417743B2 (en) 2015-11-06 2019-09-17 Mitsubishi Electric Corporation Image processing device, image processing method and computer readable medium
JP2022532204A (en) * 2019-05-29 2022-07-13 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング How to perform a harmonious depiction of the obscured area around the mobile platform

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143156A (en) * 1991-11-21 1993-06-11 Mazda Motor Corp Device for recognizing environment
JPH07250319A (en) * 1994-03-14 1995-09-26 Yazaki Corp Supervisory equipment around vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143156A (en) * 1991-11-21 1993-06-11 Mazda Motor Corp Device for recognizing environment
JPH07250319A (en) * 1994-03-14 1995-09-26 Yazaki Corp Supervisory equipment around vehicle

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417743B2 (en) 2015-11-06 2019-09-17 Mitsubishi Electric Corporation Image processing device, image processing method and computer readable medium
JP6091586B1 (en) * 2015-11-12 2017-03-08 三菱電機株式会社 VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
JP2017091284A (en) * 2015-11-12 2017-05-25 三菱電機株式会社 Image processing device for vehicle and image processing system for vehicle
JP2019500695A (en) * 2015-12-16 2019-01-10 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Method for identifying object in surrounding area of motor vehicle, driver support system, and motor vehicle
US10635896B2 (en) 2015-12-16 2020-04-28 Valeo Schalter Und Sensoren Gmbh Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
JP2022532204A (en) * 2019-05-29 2022-07-13 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング How to perform a harmonious depiction of the obscured area around the mobile platform
JP7444902B2 (en) 2019-05-29 2024-03-06 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング How to implement harmonized representation of unknown areas around mobile platforms

Also Published As

Publication number Publication date
JP5906696B2 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
JP6371553B2 (en) Video display device and video display system
JP6554169B2 (en) Object recognition device and object recognition system
JP2016513320A (en) Method and apparatus for image enhancement and edge verification using at least one additional image
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2009129001A (en) Operation support system, vehicle, and method for estimating three-dimensional object area
CN107950023B (en) Vehicle display device and vehicle display method
JP7159384B2 (en) Image processing device, image processing method, and program
KR20090109437A (en) Method and System for Image Matching While Driving Vehicle
JP5906696B2 (en) Vehicle periphery photographing apparatus and vehicle periphery image processing method
JP2006318060A (en) Apparatus, method, and program for image processing
JP6617150B2 (en) Object detection method and object detection apparatus
JP6239205B2 (en) Image processing apparatus, image processing method, and image processing program
JP2009188635A (en) Vehicle peripheral image processor and vehicle peripheral condition presenting method
JP2006318059A (en) Apparatus, method, and program for image processing
JP6429483B2 (en) Information processing apparatus, imaging apparatus, information processing system, information processing method, and program
JP5911062B2 (en) Object detection apparatus and program
JP5891751B2 (en) Inter-image difference device and inter-image difference method
KR101470198B1 (en) Apparatus and method for combining image
JP2012185555A (en) Object detecting device and method, and program
JP5935118B2 (en) Object detection apparatus and object detection method
JP2009077022A (en) Driving support system and vehicle
CN115034988A (en) RGBD camera-based two-stage main body point cloud filtering method
JP4736611B2 (en) Image processing apparatus and image processing method
JP2013200840A (en) Video processing device, video processing method, video processing program, and video display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R151 Written notification of patent or utility model registration

Ref document number: 5906696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151