JP2013115738A - Vehicle periphery imaging apparatus and method of processing vehicle peripheral image - Google Patents
Vehicle periphery imaging apparatus and method of processing vehicle peripheral image Download PDFInfo
- Publication number
- JP2013115738A JP2013115738A JP2011262498A JP2011262498A JP2013115738A JP 2013115738 A JP2013115738 A JP 2013115738A JP 2011262498 A JP2011262498 A JP 2011262498A JP 2011262498 A JP2011262498 A JP 2011262498A JP 2013115738 A JP2013115738 A JP 2013115738A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- vehicle
- obstacle
- main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両周辺の画像を撮影する技術、特に、撮影領域の一部が互いに重複するように車両に搭載された複数のカメラにより車両の周辺の情景を撮影する車両周辺撮影装置および、前記のカメラにより撮影された車両周辺画像の処理方法に関する。 The present invention relates to a technique for photographing an image around a vehicle, and in particular, a vehicle periphery photographing device that photographs a scene around a vehicle with a plurality of cameras mounted on the vehicle such that parts of the photographing regions overlap each other, and The present invention relates to a method for processing a vehicle periphery image taken by a camera.
近年、周辺の情景を撮影するカメラを搭載された車両が実用化されている。このような車両では、カメラにより撮影された画像を車室内に設けられたディスプレイに表示することにより、運転者は車両の周辺の障害物等を確認することができる。 In recent years, a vehicle equipped with a camera for photographing a surrounding scene has been put into practical use. In such a vehicle, the driver can check obstacles and the like around the vehicle by displaying an image photographed by the camera on a display provided in the vehicle interior.
障害物等の存在をより運転者に認知させるために、画像から障害物を検出する技術が提案されている。例えば、特許文献1から3の技術では、撮影範囲が部分的に重複する複数台の撮像装置によって撮像された画像を仮想視点から見た鳥瞰図画像に変換し、それぞれの鳥瞰図画像間の差分を求めることにより、差分領域(障害物が存在する領域)を検出している。 A technique for detecting an obstacle from an image has been proposed in order to make the driver recognize the presence of an obstacle or the like. For example, in the techniques of Patent Documents 1 to 3, images captured by a plurality of imaging devices with overlapping imaging ranges are converted into bird's-eye view images viewed from a virtual viewpoint, and differences between the bird's-eye view images are obtained. Thus, a difference area (area where an obstacle exists) is detected.
特許文献1の技術では、鳥瞰図画像を合成する際に、上述のようにして検出された差分領域に対しては一の鳥瞰図画像の画素値を用いることにより、合成された鳥瞰図画像において障害物の二重表示、および、障害物の消失を防止している。 In the technique of Patent Document 1, when a bird's-eye view image is synthesized, the pixel value of one bird's-eye view image is used for the difference area detected as described above, so that an obstacle in the synthesized bird's-eye view image is displayed. Double display and disappearance of obstacles are prevented.
一方、特許文献2の技術では、上述のようにして検出された差分領域に基づいて、障害物をよりよく撮影しているカメラを選択し、鳥瞰図画像を合成する際に、その選択されたカメラの鳥瞰図画像を優先的に使用している。これにより、運転者が障害物を視認しやすい鳥瞰図画像を合成することができる。 On the other hand, in the technique of Patent Document 2, when a camera that better captures an obstacle is selected based on the difference area detected as described above and the bird's-eye view image is synthesized, the selected camera is selected. The bird's-eye view image is preferentially used. Thereby, it is possible to synthesize a bird's eye view image in which the driver can easily see the obstacle.
他方、特許文献3の技術では、障害物が存在する差分領域を他の領域と区別するように表示することにより、運転者が障害物を視認しやすくしている。 On the other hand, in the technique of Patent Document 3, a difference area where an obstacle exists is displayed so as to be distinguished from other areas, thereby making it easier for the driver to visually recognize the obstacle.
上述のように、特許文献1から3の技術では、撮影範囲が重複する撮像装置によって撮影された画像を鳥瞰図画像に変換し、それらを差分処理することにより障害物を検知している。しかしながら、鳥瞰図画像を生成するためには補間処理等が必要であり、補間処理がなされた領域では鮮鋭度が低下する等の画像劣化が生じる。そのため、鳥瞰図画像間の差分を算出すると、劣化した画像間で差分を算出することとなり、障害物の検出精度が低下するおそれがある。 As described above, in the techniques of Patent Documents 1 to 3, an image captured by an imaging device having overlapping imaging ranges is converted into a bird's eye view image, and obstacles are detected by performing differential processing on the images. However, in order to generate a bird's eye view image, an interpolation process or the like is necessary, and image degradation such as a reduction in sharpness occurs in an area where the interpolation process has been performed. Therefore, if the difference between the bird's-eye view images is calculated, the difference is calculated between the deteriorated images, and there is a possibility that the obstacle detection accuracy is lowered.
本発明は上記課題に鑑みてなされたものであり、その目的は、高精度に車両周辺の障害物を検出することができる車両周辺撮影技術を提供することである。 The present invention has been made in view of the above problems, and an object thereof is to provide a vehicle periphery photographing technique capable of detecting an obstacle around the vehicle with high accuracy.
上記課題を解決するため、本発明の車両周辺撮影装置は、車両に搭載され、当該車両の周辺の情景を撮影する第1カメラと、前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラと、前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された画像を主撮影画像とするとともに当該副カメラにより撮影された画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成する視点変換部と、前記主撮影画像と前記視点変換画像とを比較した比較情報を生成する画像情報比較部、とを備えている。 In order to solve the above-mentioned problems, a vehicle periphery photographing apparatus of the present invention is mounted on a vehicle, a first camera that captures a scene around the vehicle, and a photographing range and a part of the first camera that are mounted on the vehicle. A second camera that captures overlapping shooting ranges, and one of the first camera and the second camera as a main camera and the other as a sub camera, and an image captured by the main camera is a main captured image. A viewpoint conversion unit that generates a viewpoint conversion image obtained by converting the image captured by the sub camera as a sub captured image and converting the sub captured image into an image captured from the viewpoint position of the main camera; An image information comparison unit that generates comparison information comparing the captured image and the viewpoint-converted image.
この構成では、撮影範囲の一部が重複する第1カメラと第2カメラとにより車両周辺の情景が撮影される。そのため、重複した撮影範囲に障害物があれば、これらの画像を同じカメラの視点位置から撮影された画像に視点変換し、それらを比較することにより生成した比較情報(例えば、差分画像)を生成すると、障害物はそのような差分画像中で優位な画素値を有する領域として表される。上述したように、特許文献1から3では、両方の画像を、車両上方に光軸が鉛直下向きに設定された仮想的なカメラにより撮影された画像に視点変換し、それらの画像の差分を算出していた。これに対して、本発明では、一方の画像(主撮影画像)は視点変換を行わずに、他方の画像(副撮影画像)のみを主撮影画像を撮影したカメラ(主カメラ)の視点から撮影した画像に視点変換し、それらの比較を行っている。そのため、視点変換による歪は副撮影画像にのみ生じ、歪による障害物検出精度の低下を抑制することができる。 In this configuration, a scene around the vehicle is photographed by the first camera and the second camera that partially overlap the photographing range. Therefore, if there are obstacles in the overlapping shooting range, these images are converted into viewpoints taken from the same camera viewpoint position, and comparison information generated by comparing them is generated (for example, difference images). Then, the obstacle is represented as an area having a dominant pixel value in such a difference image. As described above, in Patent Documents 1 to 3, viewpoints of both images are converted into images taken by a virtual camera with the optical axis set vertically downward above the vehicle, and the difference between these images is calculated. Was. In contrast, in the present invention, one image (main photographed image) is not subjected to viewpoint conversion, and only the other image (sub-photographed image) is photographed from the viewpoint of the camera (main camera) that photographed the main photographed image. The viewpoints are converted into images and compared. Therefore, distortion due to viewpoint conversion occurs only in the sub-photographed image, and a decrease in obstacle detection accuracy due to distortion can be suppressed.
本発明の車両周辺撮影装置の好適な実施形態の一つでは、前記主撮影画像からエッジを抽出したエッジ画像を生成するエッジ抽出部と、前記比較情報としての差分画像と前記エッジ画像との画素値に論理積を施した積画像を生成し、当該積画像を出力画像として出力する積画像生成部と、を備えている。 In one preferred embodiment of the vehicle periphery photographing device of the present invention, an edge extraction unit that generates an edge image obtained by extracting an edge from the main photographed image, and a pixel of the difference image and the edge image as the comparison information A product image generating unit that generates a product image obtained by performing a logical product on the values and outputs the product image as an output image.
この構成では、視点変換が施されない主撮影画像からエッジを抽出したエッジ画像を生成し、そのエッジ画像と比較情報としての差分画像との論理積を施した積画像を生成している。そのため、積画像中で優位な画素値(真値)を有する領域は、差分画像中で優位な画素値を有する領域であり、主撮影画像中で明確なエッジを有している領域の輪郭となる。すなわち、この構成では、差分画像により検出することができる障害物の領域をエッジという情報により検証を行っている。これにより、障害物の検出精度を向上させることができる。 In this configuration, an edge image obtained by extracting an edge from a main captured image that is not subjected to viewpoint conversion is generated, and a product image obtained by performing a logical product of the edge image and a difference image as comparison information is generated. Therefore, the region having the dominant pixel value (true value) in the product image is the region having the dominant pixel value in the difference image, and the contour of the region having a clear edge in the main captured image. Become. In other words, in this configuration, the obstacle area that can be detected from the difference image is verified using information called an edge. Thereby, the detection accuracy of an obstacle can be improved.
本発明の車両周辺撮影装置の好適な実施形態の一つでは、前記主撮影画像を領域分割する領域分割部と、前記領域分割された各々の領域と前記積画像において真値を有する領域との類似性に基づいて障害物の領域を抽出した障害物画像を生成し、前記積画像に代えて当該障害物画像を前記出力画像として出力する障害物画像生成部と、を備えている。 In one preferred embodiment of the vehicle periphery photographing apparatus of the present invention, an area dividing unit that divides the main photographed image into regions, each region divided into regions, and a region having a true value in the product image. An obstacle image generated by extracting an obstacle area based on the similarity, and outputting the obstacle image as the output image instead of the product image.
上述したように、積画像において優位な値(真値)を有している領域は障害物の輪郭である。本構成では、この障害物の輪郭領域と主撮影画像中の領域分割された領域との類似性に基づいて、障害物の領域を抽出している。すなわち、本構成では、積画像に含まれる障害物の輪郭である可能性のある領域に対して、領域分割結果の領域の特徴量という情報により検証を行っている。これにより、障害物の検出精度を向上させることができる。 As described above, the region having a superior value (true value) in the product image is the contour of the obstacle. In this configuration, the obstacle region is extracted based on the similarity between the contour region of the obstacle and the region divided region in the main captured image. In other words, in this configuration, verification is performed on the area that may be the contour of the obstacle included in the product image by using the information about the area feature value of the area division result. Thereby, the detection accuracy of an obstacle can be improved.
本発明の車両周辺撮影装置の好適な実施形態の一つでは、前記第1カメラを前記主カメラとして前記出力画像を第1出力画像として生成するとともに、前記第2カメラを前記主カメラとして前記出力画像を第2出力画像として生成し、前記第1出力画像と前記第2出力画像とに基づいて障害物を示す画素を所定の画素値に設定した画像を出力画像として出力する。 In one preferred embodiment of the vehicle periphery photographing apparatus of the present invention, the output image is generated as the first output image using the first camera as the main camera, and the output is generated using the second camera as the main camera. An image is generated as a second output image, and an image in which a pixel indicating an obstacle is set to a predetermined pixel value based on the first output image and the second output image is output as an output image.
この構成では、視点変換されない第1カメラにより撮影された画像と視点変換された第2カメラにより撮影された画像とに基づいて上記処理により得られる第1出力画像と、視点変換された第1カメラにより撮影された画像と視点変換されない第2カメラにより撮影された画像とに基づいて上記処理により得られる第2出力画像と、を統合した画像を出力画像としている。すなわち、この構成では、主撮影画像と副撮影画像とを入れ換えた2つの処理結果を統合して出力画像とすることにより、出力画像に含まれる障害物の領域をダブルチェックしている。これにより、視点変換により生じる歪に起因する障害物の誤検出を低減し、障害物の検出精度を向上させることができる。 In this configuration, the first output image obtained by the above processing based on the image captured by the first camera that has not undergone viewpoint conversion and the image captured by the second camera that has undergone viewpoint conversion, and the first camera that has undergone viewpoint conversion. The output image is an image obtained by integrating the image output by the above processing and the second output image obtained by the above processing based on the image captured by the second camera not subjected to viewpoint conversion. In other words, in this configuration, the area of the obstacle included in the output image is double-checked by integrating the two processing results obtained by switching the main captured image and the sub captured image into an output image. Thereby, the erroneous detection of the obstacle resulting from the distortion caused by the viewpoint conversion can be reduced, and the obstacle detection accuracy can be improved.
また、上記課題を解決するため、本発明の車両周辺画像の処理方法は、車両に搭載され、当該車両の周辺の情景を撮影する第1カメラから撮影画像を取得するステップと、前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラから撮影画像を取得するステップと、前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された前記撮影画像を主撮影画像とするとともに当該副カメラにより撮影された前記撮影画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成するステップと、前記主撮影画像と前記視点変換画像とを比較した比較情報を生成するステップと、を備えている。当然ながら、このような車両周辺画像の処理方法にも、上述した車両周辺画像撮影装置の付加的特徴を適用することができる。 In order to solve the above-described problem, a vehicle peripheral image processing method according to the present invention is mounted on a vehicle, and acquires a captured image from a first camera that captures a scene around the vehicle, and is mounted on the vehicle. A step of acquiring a captured image from a second camera that captures an imaging range that partially overlaps the imaging range of the first camera, and using one of the first camera and the second camera as a main camera The other camera is the secondary camera, the captured image captured by the primary camera is the primary captured image, the captured image captured by the secondary camera is the secondary captured image, and the secondary captured image is the viewpoint position of the primary camera. Generating a viewpoint-converted image obtained by converting the viewpoint to an image photographed from, and generating comparison information comparing the main photographed image and the viewpoint-converted image. Eteiru. Of course, the above-described additional features of the vehicle periphery image capturing device can also be applied to such a vehicle periphery image processing method.
以下に、図面を用いて本発明の車両周辺撮影装置の実施形態を説明する。図1は本発明の車両周辺撮影装置を搭載した車両Vの平面図である。本実施形態の車両Vは、前方,後方,右方および左方をそれぞれ撮影するフロントカメラF,リアカメラR,右サイドカメラSR,左サイドカメラSLを備えている。なお、特にこれらを区別する必要がない場合は、カメラCと総称する。 Hereinafter, embodiments of a vehicle periphery photographing apparatus of the present invention will be described with reference to the drawings. FIG. 1 is a plan view of a vehicle V equipped with a vehicle periphery photographing apparatus of the present invention. The vehicle V of the present embodiment includes a front camera F, a rear camera R, a right side camera SR, and a left side camera SL that respectively photograph front, rear, right, and left sides. In addition, when it is not necessary to distinguish between these, the camera C is collectively referred to.
カメラCは、車両Vの周辺の情景、特に、車両Vの周囲に存在する立体物である障害物を撮影可能に設置されている。そのため、カメラCは、その光軸が水平よりも少し下方に向くように設置されている。 The camera C is installed so as to be able to photograph a scene around the vehicle V, in particular, an obstacle which is a three-dimensional object existing around the vehicle V. Therefore, the camera C is installed so that its optical axis is slightly below the horizontal.
また、カメラCは広角レンズを備えており、隣接するカメラCの撮影範囲は互いに部分的に重複している。図1には、カメラCとともにその撮影範囲および撮影範囲が重複する領域(ハッチング部分)を示している。例えば、フロントカメラFの撮影範囲と右サイドカメラSRの撮影範囲とは車両Vの右前方において重複している。すなわち、フロントカメラFおよび右サイドカメラSRはいずれも、車両Vの右前方を撮影することができる。 In addition, the camera C includes a wide-angle lens, and the shooting ranges of the adjacent cameras C partially overlap each other. In FIG. 1, the photographing range and the region where the photographing range overlaps (hatched portion) are shown together with the camera C. For example, the shooting range of the front camera F and the shooting range of the right side camera SR overlap on the right front side of the vehicle V. That is, both the front camera F and the right side camera SR can photograph the right front of the vehicle V.
なお、フロントカメラFと右サイドカメラSR、右サイドカメラSRとリアカメラR、リアカメラRと左サイドカメラSL、左サイドカメラSLとフロントカメラFのそれぞれの組み合わせが本発明の第1カメラと第2カメラとなる。なお、第1カメラと第2カメラとは入れ換えても構わない。 Each combination of the front camera F and the right side camera SR, the right side camera SR and the rear camera R, the rear camera R and the left side camera SL, and the left side camera SL and the front camera F is the first camera and the first camera of the present invention. 2 cameras. Note that the first camera and the second camera may be interchanged.
本実施形態では、カメラCは、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒15〜30フレームの2次元画像を撮影し、デジタル変換して動画データを出力するデジタルカメラを用いている。 In the present embodiment, the camera C uses an image sensor such as a CCD (charge coupled device) or CIS (CMOS image sensor) to take a two-dimensional image of 15 to 30 frames per second, and converts it into digital data by converting it into digital data. The output digital camera is used.
また、図2に示すように、車両Vの車内には各種表示を行うディスプレイDが備えられている。本実施例では、ディスプレイDは、ナビゲーションシステムのモニタ装置を兼用している。そのため、ディスプレイDは、表示部Daおよび表示部Da上に形成されたタッチパネルDbを有している。表示部Daは液晶ディスプレイによって構成することができ、タッチパネルDbは、表示部Daと共に形成され、指などによる接触位置をロケーションデータとして出力することができる感圧式や静電式の指示入力装置により構成することができる。 Further, as shown in FIG. 2, a display D for performing various displays is provided in the vehicle V. In the present embodiment, the display D also serves as a monitor device for the navigation system. Therefore, the display D has the display part Da and the touch panel Db formed on the display part Da. The display unit Da can be configured by a liquid crystal display, and the touch panel Db is formed by a pressure-sensitive or electrostatic instruction input device that is formed together with the display unit Da and can output a contact position by a finger or the like as location data. can do.
図2は、本実施例における車両周辺撮影装置のシステム構成図である。本実施例における車両周辺撮影装置は、CPU(central processing unit)を中核としてメモリ、その他の周辺回路と共に構成されたECU(electronic control unit)1を備えている。当然ながら、CPUに代えて、DSP(digital signal processor)など、他の論理演算プロセッサや論理回路を中核として構成しても構わない。 FIG. 2 is a system configuration diagram of the vehicle periphery photographing apparatus according to the present embodiment. The vehicle periphery photographing apparatus in the present embodiment includes an ECU (electronic control unit) 1 configured with a memory (CPU) and other peripheral circuits with a central processing unit (CPU) as a core. Of course, instead of the CPU, another logic operation processor or logic circuit such as a DSP (digital signal processor) may be used as a core.
カメラCにより撮影された車両Vの周辺の情景はこのECU1に入力される。また、ECU1は、各種情報やカメラCによって撮影された撮影画像や撮影画像を処理した画像等を表示部Daに表示したり、運転者がタッチパネルDbを操作した情報を取得したりする機能を備えている。 A scene around the vehicle V photographed by the camera C is input to the ECU 1. Further, the ECU 1 has a function of displaying various information, a photographed image photographed by the camera C, an image obtained by processing the photographed image, and the like on the display unit Da, and acquiring information obtained by the driver operating the touch panel Db. ing.
また、ECU1は車内ネットワーク(図示せず)を介して種々のシステムやセンサと通信可能に接続されている。車内ネットワークとしてはCAN(controller area network)を用いることができる。 The ECU 1 is communicably connected to various systems and sensors via an in-vehicle network (not shown). A CAN (controller area network) can be used as the in-vehicle network.
図に示すように、ECU1は、制御部10と、カメラCによって撮影された撮影画像を取得する画像取得部11と、取得した撮影画像に前処理を施す前処理部12と、撮影画像を任意の視点から撮影された画像に視点変換した視点変換画像を生成する視点変換部13と、画像間の差分を算出する画像差分部14(本発明の画像情報比較部の例)と、各カメラCにより撮影された画像を合成する画像合成部20と、を備えている。なお、これらの機能部は、ソフトウェアとCPUとが協働することにより実現されているが、ハードウェアを用いて実現しても構わない。
As shown in the figure, the ECU 1 arbitrarily controls a
制御部10は、ECU1に構成されている各機能部全体の処理の流れの制御をはじめとして、各種制御を行う。
The
画像取得部11は、フロントカメラF,リアカメラR,右サイドカメラSR,左サイドカメラSLのそれぞれから画像を取得する。なお、上述したように、本実施形態のカメラCは撮影画像としてデジタル動画を出力するものであるため、画像取得部11はカメラCから取得した動画から1フレームを抽出して静止画像(以下、画像と略称する)を生成する。このとき、全てのカメラCの動画から同じタイムフレームを抽出することが望ましい。
The
前処理部12は、取得した画像に対して前処理を施す。本実施形態では、前処理として平滑化処理を施しており、これにより、路面のアスファルト等のざらつきによる障害物の誤検出を抑制している。平滑化処理は、Gaussianフィルタ等の公知の方法を用いることができる。また、前処理部12では必要に応じて他の画像処理を行っても構わない。
The preprocessing
視点変換部13は、画像の視点変換を行い、視点変換画像を生成する。例えば、カメラCにより撮影された画像を、車両Vの上方に鉛直下向きの視点を有する仮想的なカメラから撮影された画像(以下、トップビュー画像と称する)に変換したり、一のカメラCにより撮影された画像を他のカメラCの視点位置から撮影された画像に視点変換したりする。後者の場合には、例えば、左サイドカメラSLにより撮影された画像をフロントカメラFの視点位置から撮影された画像に視点変換する。なお、視点変換は、公知の方法を用いることができる。
The
画像差分部14は、2つの画像間の差分を算出し、差分画像(本発明の比較画像の例)を生成する。差分の方法は、画素値、特に、輝度値の差の絶対値や正規化自己相関等を用いることができるが、本実施形態では、各画素位置における画素値の勾配方向のヒストグラム(以下、HOG(Histgrams of Oriented Gradients)と称する)を用いた差分を行っている。そのため、画像差分部14は、画像の各画素位置における画素値の勾配方向を算出する勾配方向算出部14a、画像の各画素位置におけるHOGを算出するヒストグラム生成部14b、2つの画像の各画素位置におけるHOGに基づいて、その画素位置における差分値を算出する画素差分部14cを備えている。なお、本実施形態では、比較情報として差分画像を用いているが、比較情報はこれに限定されるものではない。例えば、注目画素の周囲領域の輝度の類似度(NCC,SAD等)を比較情報とすることもできる。
The
勾配方向算出部14aは、画像を構成する各画素の画素位置における画素値の勾配方向を算出する。なお、本実施形態では、画素値として輝度値を用い、カメラCがカラーカメラの場合には、前処理部12において画像をモノクロ変換しておく。例えば、画素位置(x,y)における画素値をf(x,y)とすると、画素位置(x,y)におけるx方向の変化量ΔxはΔx=2f(x+1,y)−2f(x−1,y)、y方向における変化量ΔyはΔy=2f(x,y+1)−2f(x,y−1)と表すことができ、勾配角度θはθ=tan―1(Δy/Δx)となる。ただし、この算出方法では、実際の勾配方向がθであるかθ+πであるかが不明である。そのため、本実施形態では、Δxが正の場合のθ(−π/2<θ<π/2)を4段階に符号化した値を勾配方向するとともに、Δxが負の場合のθ(−π/2≦θ≦π/2)を4段階に符号化した値を勾配方向としている。具体的には、0≦θ<π/4およびπ/4≦θ<π/2のそれぞれに対して符号(勾配方向)0,1を割り当て、−π/2<θ≦−π/4および−π/4<θ<0のそれぞれに対して勾配方向6,7を割り当てる。そして、Δxが負の場合には、(勾配方向+4)mod8を勾配方向とする。ここで、「mod」は剰余を算出する演算子である。これにより、算出された勾配角度θは8段階の勾配方向に符号化される。なお、ΔxおよびΔyがともに0の場合には、無方向(=8)としている。したがって、本実施形態では、勾配方向は、無方向と、8つの方向(有方向)とのいずれかである。
The gradient
ヒストグラム生成部14bは、勾配方向算出部14aにより算出された勾配方向に基づいて、画像の各画素位置におけるHOGを求める。具体的には、注目画素の周囲に領域(以下、ヒストグラム生成領域と称する)を設定し、そのヒストグラム生成領域に含まれる各画素の画素位置における勾配方向を取得し、勾配方向毎の度数を積算する。この度数分布が注目画素の画素位置におけるHOGとなる。注目画素を走査することにより、画像の各画素位置におけるHOGを求めることができる。なお、本実施形態では、ヒストグラム生成領域は、注目画素を中心とする5×5の大きさとしているが、ヒストグラム生成領域の設定は適宜変更可能である。
The
画素差分部14cは、2つの画像の各画素位置におけるHOGに基づいて、その画素位置における差分値(以下、画素差分値と称する)を算出する。具体的には、第1の画像の差分対象となる画素(以下、差分対象画素と称する)の画素位置におけるHOGと第2の画像の差分対象画素の画素位置におけるHOGとの差異を求めて、その差分対象画素の画素位置における画素差分値とする。なお、HOGどうしの差異は、各勾配方向における度数の差の絶対値和を用いることができる。すなわち、勾配方向をi(=0〜8)、第1の画像および第2の画像の差分対象画素の画素位置におけるHOGをそれぞれHOG1,HOG2とし、HOGの勾配方向iの度数をHOG[i]とすると、差分対象画素の画素位置における画素差分値dは、
画像差分部14は、画素差分部14cに対して、画像の各画素を順次差分対象画素として設定することにより、全画素位置における画素差分値を取得し、2つの画像間の差分を求める。
The
画像合成部20は、各カメラCにより撮影された画像を合成した合成画像を生成する。
The
以下に、図3のフローチャートを用いて本実施例における車両周辺撮影装置の処理の流れを説明する。なお、以下の説明では、フロントカメラFを本発明の第1カメラおよび主カメラ、左サイドカメラSLを本発明の第2カメラおよび副カメラとした場合のみを説明するが、他のカメラCについても同様の処理が行われる。 The processing flow of the vehicle periphery photographing apparatus in the present embodiment will be described below using the flowchart of FIG. In the following description, only the case where the front camera F is the first camera and the main camera of the present invention and the left side camera SL is the second camera and the sub camera of the present invention will be described. Similar processing is performed.
本実施形態では、運転者がタッチパネルDbを操作して、車両周辺撮影装置の作動を明示的に指示した場合に以下の処理が実行されるが、車両Vに搭載されている各種センサ等の出力に基づいて、制御部10が処理を実行するか否かを判断する構成としても構わない。
In the present embodiment, the following processing is executed when the driver operates the touch panel Db to explicitly instruct the operation of the vehicle periphery photographing device, but outputs from various sensors and the like mounted on the vehicle V The
まず、運転者がタッチパネルDbを操作して、車両周辺撮影装置の作動を指示すると、その指示は制御部10により取得され、指示を取得した制御部10は、画像取得部11に対して画像を取得する旨の指示を送る。これに対して、画像取得部11は主カメラおよび副カメラから画像を取得する(#01)。取得された画像はそれぞれ主撮影画像および副撮影画像としてメモリ(図示せず)に記憶される。
First, when the driver operates the touch panel Db to instruct the operation of the vehicle periphery photographing apparatus, the instruction is acquired by the
画像の取得が完了すると、制御部10は、視点変換部13に対して、副撮影画像を主カメラの視点から撮影した画像に視点変換するよう指示を送る。これに対して、視点変換部13は、公知の方法により、副撮影画像から視点変換画像を生成する(#02)。生成された視点変換画像は、メモリに記憶される。なお、各カメラCの視点位置(車両座標系中におけるカメラ原点の座標および光軸方向)または、視点変換のための変換テーブルは予めメモリ等に記録されており、視点変換処理に用いられる。
When the image acquisition is completed, the
視点変換画像の生成が完了すると、制御部10は、画像差分部14に対して、主撮影画像と視点変換画像との差分を算出するように指示を送る。これに対して、画像差分部14は主撮影画像と視点変換画像との差分を算出する(#03)。本実施例では、主撮影画像と視点変換画像との差分結果は、各画素位置における画素差分値を画素値とする差分画像として出力し、メモリに記憶される。
When the generation of the viewpoint conversion image is completed, the
図4は本実施形態における画像間差分の処理の流れを表すフローチャートである。ここでは、画像間差分を行う2つの画像を第1画像および第2画像と称する。まず、勾配方向算出部14aは、上述の方法により、第1画像および第2画像の各画素位置における輝度値の勾配方向を算出し、2次元配列形式でメモリに記憶する(#21,#22)。
FIG. 4 is a flowchart showing the flow of the inter-image difference processing in this embodiment. Here, the two images that perform the inter-image difference are referred to as a first image and a second image. First, the gradient
次に、ヒストグラム生成部14bは、上述の処理により算出した各画素位置における勾配方向を用いて、上述の処理により、第1画像および第2画像の各画素位置におけるHOGを算出する(#23,#24)。各画素位置におけるHOGは9の要素を持つ1次元配列であるため、算出された全画素位置におけるHOGは3次元配列形式でメモリに記憶される。
Next, the
画像差分部14は、第1画像から順次1つの画素を差分対象画素として選択し、画素差分部14cに対して差分対象画素の画素位置における画素差分値を算出するよう指示を送る。
The
具体的には、まず、画像差分部14は第1画像から位置の画素を差分対象画素として選択する(#25)。選択された差分対象画素の画素位置は画像差分部14から画素差分部14c送られる。差分対象画素の画素位置を取得した画素差分部14cは、メモリから第1画像の差分対象画素の画素位置におけるHOGと第2画像の差分対象画素の画素位置におけるHOGとを取得し、上述の式(1)により画素差分値dを算出する(#26)。算出された画素差分値dは画像差分部14に送られる。
Specifically, first, the
画像差分部14は、メモリ上に画素差分値を記憶するための2次元配列を確保しておき、その2次元配列の差分対象画素の画素位置に対応する位置に取得した画素差分値dを記憶させる。
The
上述の処理が完了すると、画像差分部14は未処理、すなわち、差分対象画素として選択していない画素の有無を判定し(#27)、未処理画素が存在すれば(#27のYes分岐)、処理を#25に移行して上述の処理を繰り返す。
When the above processing is completed, the
図5(a)および(b)に、主撮影画像としてのフロントカメラFにより撮影された画像と、副撮影画像としての左サイドカメラSLにより撮影された画像をフロントカメラFの視点位置から撮影された画像に視点変換した視点変換画像の例を示す。また、図6は図5(a)の画像と図5(b)の画像との差分画像である。なお、図5(b)の視点変換画像は、図5(a)と位置合せを行った後、図5(a)と重複する部分のみをクリッピングしたものである。図に示すように、主撮影画像および視点変換画像には白線Wと障害物Aとが含まれている。また、図5から明らかなように、主撮影画像中の白線Wと視点変換画像中の白線Wとは、略同じ位置となっている。したがって、主撮影画像と視点変換画像との画像間差分をとると、図6に示すように、白線Wに対応する領域では優位な画素差分値は算出されない。一方、図6に示すように、障害物Aに対応する領域、特に、障害物Aの上部に対応する領域では優位な画素差分値が算出される。したがって、差分画像内に優位な画素差分値を有する領域があるか否かを判定すれば、車両Vの周辺に障害物が存在するか否かを判定することができる。 5A and 5B, an image photographed by the front camera F as the main photographed image and an image photographed by the left side camera SL as the sub-photographed image are photographed from the viewpoint position of the front camera F. 2 shows an example of a viewpoint-converted image obtained by converting the viewpoint to an image. FIG. 6 is a difference image between the image of FIG. 5A and the image of FIG. Note that the viewpoint-converted image in FIG. 5B is obtained by clipping only the portion overlapping with FIG. 5A after alignment with FIG. 5A. As shown in the figure, the main photographed image and the viewpoint conversion image include a white line W and an obstacle A. Further, as is clear from FIG. 5, the white line W in the main captured image and the white line W in the viewpoint conversion image are substantially at the same position. Therefore, when the inter-image difference between the main photographed image and the viewpoint conversion image is taken, a dominant pixel difference value is not calculated in the region corresponding to the white line W as shown in FIG. On the other hand, as shown in FIG. 6, a dominant pixel difference value is calculated in the area corresponding to the obstacle A, particularly in the area corresponding to the upper part of the obstacle A. Therefore, it can be determined whether there is an obstacle around the vehicle V if it is determined whether there is a region having a dominant pixel difference value in the difference image.
この差分画像を運転者に提示することにより、運転者は車両Vの周辺に存在する障害物の有無を判断することはできるが、より運転者の判断が容易になるように、本実施形態では、表示部Daにトップビュー画像を表示し、その画像中に障害物を示す指標を重畳表示している。 By presenting this difference image to the driver, the driver can determine the presence or absence of obstacles around the vehicle V, but in the present embodiment, the driver's determination becomes easier. A top view image is displayed on the display unit Da, and an index indicating an obstacle is superimposed on the image.
そのため、差分画像が生成されると、制御部10は、画像合成部20に対して、トップビュー画像の生成、および、トップビュー画像に障害物を示す指標を重畳させるよう指示を送る。これに対して、画像合成部20は、視点変換部12を用いて、各カメラCの撮影画像および差分画像をトップビュー画像に視点変換する(#10)。なお、差分画像は主撮影画像を基準として生成されたものであるため、主撮影画像と同じ視点変換処理を受ける。
Therefore, when the difference image is generated, the
また、画像合成部20は差分画像から障害物を検出する(#11)。上述したように、障害物は差分画像中で優位な画素値を有する領域である。そのため、差分画像に対して2値化および領域分割を施せば、障害物の領域が検出できる。また、差分画像に対してエッジ抽出および2値化を施せば、障害物の輪郭を抽出することができる。画像合成部20は、このようにして障害物を検出し、上述の処理により合成したトップビュー画像に対して、障害物の位置を示す指標を合成する(#12)。このようにして生成された画像はメモリに記憶され、制御部10の指示によって表示部Daに表示される(#13)。
Further, the
図7は上述の処理によって表示部Daに表示される表示画像の例である。図7(a)では、トップビュー画像に対して障害物Aの輪郭を表す指標Eを合成している。一方、図7(b)では、トップビュー画像に対して障害物Aの路面との接地位置を示す指標Eを合成している。なお、この例では、トップビュー画像を合成する際に、フロントカメラFの撮影範囲と左サイドカメラSLの撮影範囲との重複する範囲は双方の画像を合成しているため、障害物Aの形状は実際の形状とは異なっている。 FIG. 7 is an example of a display image displayed on the display unit Da by the above-described processing. In FIG. 7A, an index E representing the contour of the obstacle A is synthesized with the top view image. On the other hand, in FIG.7 (b), the parameter | index E which shows the contact position with the road surface of the obstruction A is synthesize | combined with respect to the top view image. In this example, when the top view image is combined, the overlapping range of the shooting range of the front camera F and the shooting range of the left side camera SL combines both images, so the shape of the obstacle A Is different from the actual shape.
図8は本実施例における車両周辺撮影装置の機能ブロック図である。なお、実施例1と同様の機能部に対しては実施例1と同じ符号を付しており、詳細な説明は省略する。本実施例の車両周辺撮影装置は、画像のエッジ抽出を行うエッジ抽出部15、2つの画像に対して論理積を施した積画像を生成する積画像生成部16を備えている点において実施例1と異なっている。
FIG. 8 is a functional block diagram of the vehicle periphery photographing apparatus in the present embodiment. In addition, the same code | symbol as Example 1 is attached | subjected to the function part similar to Example 1, and detailed description is abbreviate | omitted. The vehicle periphery photographing apparatus according to the present embodiment is provided with an
エッジ抽出部15は、画像からエッジ抽出を行う。エッジの抽出は、CannyアルゴリズムやSobelオペレータ等の公知の方法を用いることができる。なお、Sobelオペレータを使用すると実際のエッジの両側にエッジが検出されるため、膨張処理および細線化処理を施しておくことが望ましい。
The
積画像生成部16は、2つの画像において対応する画素位置の画素値の論理積を算出し、その論理積の値を画素値とする積画像を生成する。なお、本発明における論理積とは一般的な論理積の概念を拡張したものであり、第1の画素値および第2の画素値がともに優位な値(例えば、閾値よりも大きい値)を有している場合にこれらの論理積が優位な値(固定値であっても、所定の値よりも大きい値であっても構わない)となり、それ以外の場合にはこれらの論理積は劣位(例えば、閾値以下の場合)な値となるものである。したがって、2つの画像がともに2値画像であれば本発明における論理積は一般的なandオペレータとなる。
The product
一方、画像が多値の場合には次のようにして論理積を算出することができる。例えば、真値を1(優位な値)、偽値を0(劣位な値)とし、第1の画素値をp1、第2の画素値をp2とすると、第1の画素値p1と第2の画素値p2との論理積は(p1>TH1)&(p2>TH2)なる論理演算の結果とすることができる。この場合、第1の画素値p1が閾値TH1よりも大きく、かつ、第2の画素値p2が閾値TH2よりも大きい、すなわち、両方の画素値が優位な値である場合にのみ、上述の論理演算の結果は真値となる。この場合には、積画像は2値画像となる。なお、閾値TH1と閾値TH2とは同じ値であっても構わないし、異なる値であっても構わない。また、閾値TH1と閾値TH2とは固定値であっても構わないし、大津の判別分析法等の方法等によって画像の画素値の分布に応じて定められた値であっても構わない。 On the other hand, when the image is multi-valued, the logical product can be calculated as follows. For example, if the true value is 1 (dominant value), the false value is 0 (inferior value), the first pixel value is p1, and the second pixel value is p2, the first pixel value p1 and the second pixel value Can be the result of a logical operation of (p1> TH1) & (p2> TH2). In this case, only when the first pixel value p1 is larger than the threshold value TH1 and the second pixel value p2 is larger than the threshold value TH2, that is, both the pixel values are dominant values, The result of the operation is a true value. In this case, the product image is a binary image. Note that the threshold value TH1 and the threshold value TH2 may be the same value or different values. Further, the threshold value TH1 and the threshold value TH2 may be fixed values, or may be values determined according to the distribution of pixel values of the image by a method such as Otsu's discriminant analysis method.
このように、論理積の概念を拡張することにより、画像を予め2値化することなく、画像間の論理積を算出することができる。そのため、2値画像を記憶するためのメモリが不要となり、車両周辺撮影装置のメモリ容量が小さい場合には有利となる。 Thus, by extending the concept of logical product, logical product between images can be calculated without binarizing the images in advance. This eliminates the need for a memory for storing binary images, which is advantageous when the memory capacity of the vehicle periphery photographing apparatus is small.
図9は本実施例における画像周辺撮影装置の処理の流れを表すフローチャートである。なお、#01から#03、および、#10〜#13までの処理は実施例1と同様であるため、詳細な説明は省略する。 FIG. 9 is a flowchart showing the processing flow of the image peripheral photographing apparatus in the present embodiment. Since the processes from # 01 to # 03 and # 10 to # 13 are the same as those in the first embodiment, detailed description thereof is omitted.
制御部10は、差分画像の生成が完了すると、エッジ抽出部15に対して主撮影画像のエッジ抽出を行うよう指示を送る。エッジ抽出部15はこの指示を受けて、主撮影画像に対してCannyアルゴリズムを適用してエッジ画像を生成する(#04)。なお、本実施形態では、エッジ抽出部15は、生成されたエッジ画像に対して膨張処理を施している。このようにして生成されたエッジ画像(2値画像)はメモリに記憶される。なお、本実施例におけるエッジ画像では、エッジ画素の画素値を1(優位な値)、非エッジ画素の画素値を0(劣位な値)としている。
When the generation of the difference image is completed, the
制御部10は、エッジ画像の生成が完了すると、積画像生成部16に対して、差分画像と主撮影画像のエッジ画像とから積画像を生成するよう指示を送る。この指示を受けた積画像生成部16は、上述の処理により積画像を生成する(#05)。なお、本実施例では、差分画像が多値画像、エッジ画像が2値画像であるため、差分画像の画素値をp1、エッジ画像の画素値をp2とすると、論理演算式は(p1>TH1)&p2となる。このようにして生成された積画像はメモリに記憶される。
When the generation of the edge image is completed, the
制御部10は、積画像の生成が完了すると、画像合成部20に対して合成画像の生成を指示し、生成された合成画像を表示部Daに表示する(#10〜#13)。なお、実施例1では#11の処理において差分画像から障害物を検出したが、本実施例では差分画像から障害物の領域を抽出することに代えて、積画像において真値を有する領域を障害物の領域とする。
When the generation of the product image is completed, the
図10(a)は第1画像のエッジ画像の例であり、エッジ画像には主撮影画像における障害物の輪郭や路面の白線等の輪郭が含まれている。図10(b)はこのエッジ画像と図6の差分画像とから生成した積画像の例である。図から明らかなように、積画像には白線等の領域が含まれておらず、差分画像では正確に検出されていなかった障害物の輪郭形状がより正確に検出されている。したがって、この障害物の輪郭形状を用いれば、図11に示すように、正確な障害物Aの輪郭形状を示す指標Eを合成したトップビュー画像を合成することができる。 FIG. 10A shows an example of an edge image of the first image. The edge image includes an outline of an obstacle in the main captured image and a contour such as a white line on the road surface. FIG. 10B is an example of a product image generated from this edge image and the difference image of FIG. As is apparent from the figure, the product image does not include an area such as a white line, and the contour shape of the obstacle that has not been accurately detected in the difference image is detected more accurately. Therefore, if the contour shape of the obstacle is used, a top view image obtained by synthesizing the index E indicating the exact contour shape of the obstacle A can be synthesized as shown in FIG.
本実施例では、このように、主撮影画像のエッジと差分画像との積画像に基づいて障害物の領域を抽出している。そのため、本実施例によれば、実施例1において誤検出された障害物の領域であって、障害物の輪郭付近にない領域を除外することができる。そのため、実施例1に比べて、より高精度な障害物の領域の抽出を行うことができる。 In this embodiment, the area of the obstacle is thus extracted based on the product image of the edge of the main captured image and the difference image. Therefore, according to the present embodiment, it is possible to exclude an area of an obstacle that is erroneously detected in the first embodiment and is not near the outline of the obstacle. Therefore, the obstacle area can be extracted with higher accuracy than in the first embodiment.
図12は本実施例における画像周辺撮影装置の機能ブロック図である。なお、実施例2と同様の機能部に対しては実施例2と同じ符号を付しており、詳細な説明は省略する。本実施例の車両周辺撮影装置は、画像に対して領域分割処理を施す領域分割部17、障害物画像生成部18を備えている。
FIG. 12 is a functional block diagram of the image peripheral photographing apparatus in the present embodiment. In addition, the same code | symbol as Example 2 is attached | subjected to the function part similar to Example 2, and detailed description is abbreviate | omitted. The vehicle periphery photographing apparatus of the present embodiment includes an
領域分割部17は、画像の画素値(RGB値等のカラー値であっても輝度値であっても構わない)に基づいて領域分割処理を行い、ラベリング画像を生成する。なお、ラベリング画像とは、領域分割処理において同じ領域に属すると判定された画素に同じ画素値(ラベル値)を付与した画像である。領域分割は、グラフカット、Mean−Shift等の公知の手法を用いることができる。
The
障害物画像生成部18は、領域分割された各々の領域と積画像において真値を有する領域との類似性に基づいて障害物の領域を抽出した障害物画像を生成する。なお、障害物画像とは、障害物であると判定された領域に属する画素の画素値を真値とした画像である。
The obstacle
上述したように、積画像において真値を有する領域は障害物の輪郭形状を表している。したがって、障害物画像生成部18は、領域分割された各々の領域と、積画像に表されている輪郭との類似性に基づいて障害物の領域を求めている。なお、領域と輪郭との類似性の尺度は様々なものを利用することができる。例えば、比較対象の輪郭と、比較対象の領域の輪郭との一致性や、比較対象の輪郭により囲まれた領域と比較対象の領域との一致性等を用いることができる。
As described above, the region having the true value in the product image represents the contour shape of the obstacle. Therefore, the obstacle
図13は本実施例における画像周辺撮影装置の処理の流れを表すフローチャートである。なお、#01から#05、および、#10〜#13までの処理は実施例2と同様であるため、詳細な説明は省略する。 FIG. 13 is a flowchart showing the processing flow of the image peripheral photographing apparatus in the present embodiment. Since the processes from # 01 to # 05 and # 10 to # 13 are the same as those in the second embodiment, detailed description thereof is omitted.
制御部10は、積画像の生成が完了すると、領域分割部17に対して、主撮影画像および積画像の領域分割を行うよう指示を送る。指示を受けた領域分割部17は主撮影画像を領域分割し、第1ラベリング画像を生成する(#06)。また、積画像を領域分割し、第2ラベリング画像を生成する(#07)。これらのラベリング画像はメモリに記憶される。
When the generation of the product image is completed, the
制御部10は、領域分割が完了すると、障害物画像生成部18に対して障害物画像を生成するよう指示を送る。指示を受けた障害物画像生成部18は、障害物画像を生成し、メモリに記憶する(#08)。
When the region division is completed, the
図14は、障害物画像生成処理の流れを表すフローチャートである。まず、第1ラベリング画像から一の領域(以下、第1領域と称する)を選択する(#31)。また、第2ラベリング画像から一の領域(以下、第2領域と称する)を選択する(#32)。そして、第1領域と第2領域との類似性を算出する(#33)。このとき、使用する類似性の尺度に応じて第1領域および第2領域の特徴量の算出が行われる。なお、予め領域の特徴量を求めておき、メモリに記憶させておいても構わない。 FIG. 14 is a flowchart showing the flow of the obstacle image generation process. First, one area (hereinafter referred to as the first area) is selected from the first labeling image (# 31). Also, one area (hereinafter referred to as the second area) is selected from the second labeling image (# 32). Then, the similarity between the first area and the second area is calculated (# 33). At this time, the feature amounts of the first region and the second region are calculated according to the similarity measure to be used. Note that the feature amount of the area may be obtained in advance and stored in the memory.
算出された類似性が所定の閾値よりも大きければ(#34のYes分岐)、第1領域を障害物の領域とし、メモリ上に確保された障害物領域画像用の2次元配列の第1領域に対応する画素値に真値を代入する(#35)。 If the calculated similarity is larger than a predetermined threshold (Yes branch of # 34), the first area is set as the obstacle area, and the first area of the two-dimensional array for the obstacle area image secured on the memory A true value is substituted for the pixel value corresponding to (# 35).
第2ラベリング画像において未処理の領域が存在すれば(#36のYes分岐)、処理を#32に移行させ、上述の処理を繰り返す。一方、第2ラベリング画像において未処理の領域が存在しなければ(#36のNo分岐)、第1ラベリング画像において未処理の領域が存在するか否かが判定され(#37)、未処理の領域が存在すれば(#37のYes分岐)、処理を#31に移行させ、上述の処理が繰り返される。 If there is an unprocessed area in the second labeling image (Yes branch of # 36), the process is shifted to # 32 and the above process is repeated. On the other hand, if there is no unprocessed area in the second labeling image (No branch of # 36), it is determined whether or not there is an unprocessed area in the first labeling image (# 37). If there is an area (Yes branch of # 37), the process is shifted to # 31, and the above process is repeated.
本実施例では、このように、主撮影画像の各領域と積画像において真値を有する領域、すなわち、実施例2で障害物として抽出された領域との類似性に基づいて、障害物の領域を抽出している。そのため、本実施例によれば、実施例2において誤検出された障害物の領域であって、主撮影画像の領域と整合しない形状等を有する領域を除外することができる。そのため、実施例2に比べて、より高精度な障害物の領域の抽出を行うことができる。 In this embodiment, as described above, the area of the obstacle is based on the similarity between each area of the main captured image and the area having the true value in the product image, that is, the area extracted as the obstacle in the second embodiment. Is extracted. Therefore, according to the present embodiment, it is possible to exclude an area of an obstacle erroneously detected in the second embodiment and having a shape or the like that does not match the area of the main captured image. Therefore, the obstacle area can be extracted with higher accuracy than in the second embodiment.
上述の実施例1から実施例3では、第1カメラ(上述の実施例では、フロントカメラF)を主カメラ、第2カメラ(上述の実施例では、左サイドカメラSL)を副カメラとして処理を行った。これに対して、本実施例では、第1カメラを主カメラ、第2カメラを副カメラとした処理結果(出力画像)と、第1カメラを副カメラ,第2カメラを主カメラとした処理結果(出力画像)とを統合した結果を出力する。なお、処理結果の統合は、例えば、両方の処理結果において、障害物の領域が対応する位置になければ、処理結果から除外する。これにより、障害物の領域の障害物としての確からしさがダブルチェックされ、抽出精度を高めることができる。なお、両方の処理結果における障害物の領域の位置の対応関係は主カメラと副カメラとの姿勢に基づいて検証することができる。また、視点変換等の誤差により、両方の処理結果における障害物の領域は完全に対応する位置とはならない可能性がある。その場合には、車両Vに近い側の障害物の領域を使用することが望ましい。 In the first to third embodiments, the first camera (front camera F in the above embodiment) is the main camera and the second camera (left side camera SL in the above embodiment) is the sub camera. went. In contrast, in this embodiment, the processing result (output image) in which the first camera is the main camera and the second camera is the sub camera, and the processing result in which the first camera is the sub camera and the second camera is the main camera. The result of integration with (output image) is output. Note that the integration of the processing results is excluded from the processing results, for example, if the obstacle area is not located at the corresponding position in both processing results. As a result, the likelihood of the obstacle region as an obstacle is double-checked, and the extraction accuracy can be improved. The correspondence relationship between the positions of the obstacle regions in both processing results can be verified based on the postures of the main camera and the sub camera. Further, due to errors such as viewpoint conversion, there is a possibility that the area of the obstacle in both processing results may not be a completely corresponding position. In that case, it is desirable to use the area of the obstacle on the side close to the vehicle V.
〔実施例1への適用〕
図15は本実施例の処理を実施例1の処理に適用した場合の処理の流れを模式的に表す図である。まず、実施例1と同様に第1カメラを主カメラ、第2カメラを副カメラとして、差分画像(以下、第1差分画像と称する)の生成を行う(#02〜#03)。また、第2カメラを主カメラ、第1カメラを副カメラとして、差分画像(以下、第2差分画像と称する)の生成を行う(#02’〜#03’)。そして、第1差分画像と第2差分画像とを統合して出力画像としての差分画像を生成する。
[Application to Example 1]
FIG. 15 is a diagram schematically showing the flow of processing when the processing of the present embodiment is applied to the processing of the first embodiment. First, as in the first embodiment, a difference image (hereinafter referred to as a first difference image) is generated using the first camera as a main camera and the second camera as a sub camera (# 02 to # 03). Also, a difference image (hereinafter referred to as a second difference image) is generated using the second camera as the main camera and the first camera as the sub camera (# 02 ′ to # 03 ′). Then, the first difference image and the second difference image are integrated to generate a difference image as an output image.
〔実施例2への適用〕
実施例2の処理において、実施例1の処理により生成された差分画像に代えて、図15の処理により生成された差分画像(出力画像)を用いても構わない。また、図16に模式的に示す処理を行っても構わない。まず、実施例2と同様に第1カメラを主カメラ、第2カメラを副カメラとして、積画像(以下、第1積画像と称する)の生成を行う(#02〜#05)。また、第2カメラを主カメラ、第1カメラを副カメラとして、積画像(以下、第2積画像と称する)の生成を行う(#02’〜#05’)。そして、第1積画像と第2積画像とを統合して出力画像としての積画像を生成する。また、この図16の処理における差分画像の生成処理を図15の処理に置き換えても構わない。
[Application to Example 2]
In the process of the second embodiment, the difference image (output image) generated by the process of FIG. 15 may be used instead of the difference image generated by the process of the first embodiment. Moreover, you may perform the process typically shown in FIG. First, similarly to the second embodiment, a product image (hereinafter referred to as a first product image) is generated using the first camera as a main camera and the second camera as a sub camera (# 02 to # 05). Also, product images (hereinafter referred to as second product images) are generated using the second camera as the main camera and the first camera as the sub camera (# 02 ′ to # 05 ′). Then, the first product image and the second product image are integrated to generate a product image as an output image. Further, the difference image generation process in the process of FIG. 16 may be replaced with the process of FIG.
〔実施例3への適用〕
実施例3の処理において、実施例2の処理により生成された積画像に代えて、図16の処理により生成された積画像(出力画像)を用いても構わない。また、図17に模式的に示す処理を行っても構わない。まず、実施例3と同様に第1カメラを主カメラ、第2カメラを副カメラとして、障害物画像(以下、第1障害物画像と称する)の生成を行う(#02〜#08)。また、第2カメラを主カメラ、第1カメラを副カメラとして、障害物画像(以下、第2障害物画像と称する)の生成を行う(#02’〜#08’)。そして、第1障害物画像と第2障害物画像とを統合して出力画像としての障害物画像を生成する。また、この図17の処理における差分画像の生成処理を図15の処理に置き換えても構わないし、積画像の生成処理を図16の処理に置き換えても構わない。
[Application to Example 3]
In the processing of the third embodiment, the product image (output image) generated by the processing of FIG. 16 may be used instead of the product image generated by the processing of the second embodiment. Moreover, you may perform the process typically shown in FIG. First, as in the third embodiment, an obstacle image (hereinafter referred to as a first obstacle image) is generated using the first camera as a main camera and the second camera as a sub camera (# 02 to # 08). Also, an obstacle image (hereinafter referred to as a second obstacle image) is generated using the second camera as the main camera and the first camera as the sub camera (# 02 ′ to # 08 ′). Then, the first obstacle image and the second obstacle image are integrated to generate an obstacle image as an output image. Also, the difference image generation process in the process of FIG. 17 may be replaced with the process of FIG. 15, or the product image generation process may be replaced with the process of FIG.
〔別実施形態〕
(1)上述の実施形態では、4つのカメラCの撮影画像を合成したトップビュー画像を生成してディスプレイに表示する構成としたが、一部のカメラCの撮影画像を用いた表示を行う構成としても構わない。この場合には、車両Vに搭載されている様々なセンサ等の出力に基づいて使用するカメラを選択する構成とすることもできる。例えば、ステアリングの操舵角を検出するステアリングセンサの出力とシフトレバーの操作位置を検出するシフトレバーセンサの出力とに基づいて車両Vの進行方向を判定し、その進行方向側のカメラCの撮影画像を用いた表示を行う構成とすることができる。具体的には、ステアリングセンサの操舵角が左方向であり、シフトレバーセンサの出力が後進(=R)の場合には、車両Vの進行方向は左後方であるため、左サイドカメラSLとリアカメラRとの撮影画像を用いた表示を行う。
[Another embodiment]
(1) In the above-described embodiment, the top view image obtained by synthesizing the captured images of the four cameras C is generated and displayed on the display. However, the display using the captured images of some cameras C is performed. It does not matter. In this case, the camera to be used can be selected based on the outputs of various sensors and the like mounted on the vehicle V. For example, the traveling direction of the vehicle V is determined based on the output of the steering sensor that detects the steering angle of the steering and the output of the shift lever sensor that detects the operation position of the shift lever, and the captured image of the camera C on the traveling direction side. It can be set as the structure which displays using this. Specifically, when the steering angle of the steering sensor is the left direction and the output of the shift lever sensor is reverse (= R), the traveling direction of the vehicle V is the left rear, so the left side camera SL and the rear Display using a photographed image with the camera R is performed.
(2)また、撮影画像を合成せずに、各々のカメラCにより撮影された画像をそのまま表示しても構わない。なお、この場合にも障害物を示す指標Eを重畳させることが望ましい。 (2) Moreover, you may display the image image | photographed with each camera C as it is, without combining a picked-up image. In this case as well, it is desirable to superimpose an index E indicating an obstacle.
本発明は、撮影領域の一部が互いに重複するように車両に搭載された複数のカメラにより車両の周辺の情景を撮影する車両周辺撮影技術に適用することができる。 The present invention can be applied to a vehicle periphery photographing technique for photographing a scene around a vehicle using a plurality of cameras mounted on the vehicle such that a part of the photographing region overlaps each other.
C:カメラ
F:フロントカメラ
R:リアカメラ
SR:右サイドカメラ
SL:左サイドカメラ
13:視点変換部
14:画像差分部(画像情報比較部)
15:エッジ抽出部
16:積画像生成部
17:領域分割部
18:障害物画像生成部
C: Camera F: Front camera R: Rear camera SR: Right side camera SL: Left side camera 13: Viewpoint conversion unit 14: Image difference unit (image information comparison unit)
15: Edge extraction unit 16: Product image generation unit 17: Area division unit 18: Obstacle image generation unit
Claims (5)
前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラと、
前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された画像を主撮影画像とするとともに当該副カメラにより撮影された画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成する視点変換部と、
前記主撮影画像と前記視点変換画像とを比較した比較情報を生成する画像情報比較部、とを備えた車両周辺撮影装置。 A first camera mounted on a vehicle and photographing a scene around the vehicle;
A second camera mounted on the vehicle for photographing a photographing range partially overlapping with a photographing range of the first camera;
One of the first camera and the second camera is a main camera and the other is a sub camera. An image photographed by the main camera is a main photographed image and an image photographed by the sub camera is sub photographed. A viewpoint conversion unit that generates a viewpoint conversion image obtained by converting the sub-photographed image into an image captured from the viewpoint position of the main camera, as an image;
A vehicle periphery photographing apparatus comprising: an image information comparison unit that generates comparison information comparing the main photographed image and the viewpoint conversion image.
前記比較情報としての差分画像と前記エッジ画像との画素値に論理積を施した積画像を生成し、当該積画像を出力画像として出力する積画像生成部と、を備えた請求項1記載の車両周辺撮影装置。 An edge extraction unit that generates an edge image obtained by extracting an edge from the main photographed image;
The product image generation part which produces | generates the product image which performed the logical product to the pixel value of the difference image as the said comparison information, and the said edge image, and outputs the said product image as an output image. Vehicle periphery photographing device.
前記領域分割された各々の領域と前記積画像において真値を有する領域との類似性に基づいて障害物の領域を抽出した障害物画像を生成し、前記積画像に代えて当該障害物画像を前記出力画像として出力する障害物画像生成部と、を備えた請求項2記載の車両周辺撮影装置。 An area dividing unit for dividing the main photographed image into areas;
An obstacle image is generated by extracting an obstacle area based on the similarity between each of the divided areas and the area having a true value in the product image, and the obstacle image is used instead of the product image. The vehicle periphery photographing apparatus according to claim 2, further comprising an obstacle image generation unit that outputs the output image.
前記第1出力画像と前記第2出力画像とに基づいて障害物を示す画素を所定の画素値に設定した画像を出力画像として出力する請求項1から3のいずれか一項に記載の車両周辺撮影装置。 Generating the output image as a first output image with the first camera as the main camera, and generating the output image as a second output image with the second camera as the main camera;
The vehicle periphery according to any one of claims 1 to 3, wherein an image in which a pixel indicating an obstacle is set to a predetermined pixel value based on the first output image and the second output image is output as an output image. Shooting device.
前記車両に搭載され、前記第1カメラの撮影範囲と部分的に重複する撮影範囲を撮影する第2カメラから撮影画像を取得するステップと、
前記第1カメラと前記第2カメラとの一方を主カメラとするとともに他方を副カメラとし、当該主カメラにより撮影された前記撮影画像を主撮影画像とするとともに当該副カメラにより撮影された前記撮影画像を副撮影画像として、当該副撮影画像を当該主カメラの視点位置から撮影された画像に視点変換した視点変換画像を生成するステップと、
前記主撮影画像と前記視点変換画像とを比較した比較情報を生成するステップと、を備えた車両周辺画像の処理方法。 Acquiring a captured image from a first camera mounted on a vehicle and capturing a scene around the vehicle;
Obtaining a captured image from a second camera mounted on the vehicle and capturing an imaging range partially overlapping with the imaging range of the first camera;
One of the first camera and the second camera is a primary camera and the other is a secondary camera. The captured image captured by the primary camera is a primary captured image and the captured image is captured by the secondary camera. Generating a viewpoint-converted image obtained by converting the sub-photographed image into an image photographed from the viewpoint position of the main camera, using the image as a sub-photographed image;
Generating a comparison information comparing the main photographed image and the viewpoint conversion image, and a vehicle peripheral image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011262498A JP5906696B2 (en) | 2011-11-30 | 2011-11-30 | Vehicle periphery photographing apparatus and vehicle periphery image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011262498A JP5906696B2 (en) | 2011-11-30 | 2011-11-30 | Vehicle periphery photographing apparatus and vehicle periphery image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013115738A true JP2013115738A (en) | 2013-06-10 |
JP5906696B2 JP5906696B2 (en) | 2016-04-20 |
Family
ID=48710866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011262498A Active JP5906696B2 (en) | 2011-11-30 | 2011-11-30 | Vehicle periphery photographing apparatus and vehicle periphery image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5906696B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6091586B1 (en) * | 2015-11-12 | 2017-03-08 | 三菱電機株式会社 | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM |
JP2019500695A (en) * | 2015-12-16 | 2019-01-10 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Method for identifying object in surrounding area of motor vehicle, driver support system, and motor vehicle |
US10417743B2 (en) | 2015-11-06 | 2019-09-17 | Mitsubishi Electric Corporation | Image processing device, image processing method and computer readable medium |
JP2022532204A (en) * | 2019-05-29 | 2022-07-13 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング | How to perform a harmonious depiction of the obscured area around the mobile platform |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05143156A (en) * | 1991-11-21 | 1993-06-11 | Mazda Motor Corp | Device for recognizing environment |
JPH07250319A (en) * | 1994-03-14 | 1995-09-26 | Yazaki Corp | Supervisory equipment around vehicle |
-
2011
- 2011-11-30 JP JP2011262498A patent/JP5906696B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05143156A (en) * | 1991-11-21 | 1993-06-11 | Mazda Motor Corp | Device for recognizing environment |
JPH07250319A (en) * | 1994-03-14 | 1995-09-26 | Yazaki Corp | Supervisory equipment around vehicle |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417743B2 (en) | 2015-11-06 | 2019-09-17 | Mitsubishi Electric Corporation | Image processing device, image processing method and computer readable medium |
JP6091586B1 (en) * | 2015-11-12 | 2017-03-08 | 三菱電機株式会社 | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM |
JP2017091284A (en) * | 2015-11-12 | 2017-05-25 | 三菱電機株式会社 | Image processing device for vehicle and image processing system for vehicle |
JP2019500695A (en) * | 2015-12-16 | 2019-01-10 | ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Method for identifying object in surrounding area of motor vehicle, driver support system, and motor vehicle |
US10635896B2 (en) | 2015-12-16 | 2020-04-28 | Valeo Schalter Und Sensoren Gmbh | Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle |
JP2022532204A (en) * | 2019-05-29 | 2022-07-13 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング | How to perform a harmonious depiction of the obscured area around the mobile platform |
JP7444902B2 (en) | 2019-05-29 | 2024-03-06 | コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング | How to implement harmonized representation of unknown areas around mobile platforms |
Also Published As
Publication number | Publication date |
---|---|
JP5906696B2 (en) | 2016-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6371553B2 (en) | Video display device and video display system | |
JP6554169B2 (en) | Object recognition device and object recognition system | |
JP2016513320A (en) | Method and apparatus for image enhancement and edge verification using at least one additional image | |
JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
JP4872769B2 (en) | Road surface discrimination device and road surface discrimination method | |
JP2009129001A (en) | Operation support system, vehicle, and method for estimating three-dimensional object area | |
CN107950023B (en) | Vehicle display device and vehicle display method | |
JP7159384B2 (en) | Image processing device, image processing method, and program | |
KR20090109437A (en) | Method and System for Image Matching While Driving Vehicle | |
JP5906696B2 (en) | Vehicle periphery photographing apparatus and vehicle periphery image processing method | |
JP2006318060A (en) | Apparatus, method, and program for image processing | |
JP6617150B2 (en) | Object detection method and object detection apparatus | |
JP6239205B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2009188635A (en) | Vehicle peripheral image processor and vehicle peripheral condition presenting method | |
JP2006318059A (en) | Apparatus, method, and program for image processing | |
JP6429483B2 (en) | Information processing apparatus, imaging apparatus, information processing system, information processing method, and program | |
JP5911062B2 (en) | Object detection apparatus and program | |
JP5891751B2 (en) | Inter-image difference device and inter-image difference method | |
KR101470198B1 (en) | Apparatus and method for combining image | |
JP2012185555A (en) | Object detecting device and method, and program | |
JP5935118B2 (en) | Object detection apparatus and object detection method | |
JP2009077022A (en) | Driving support system and vehicle | |
CN115034988A (en) | RGBD camera-based two-stage main body point cloud filtering method | |
JP4736611B2 (en) | Image processing apparatus and image processing method | |
JP2013200840A (en) | Video processing device, video processing method, video processing program, and video display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141010 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160307 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5906696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |