JP2010287029A - Periphery display device - Google Patents

Periphery display device Download PDF

Info

Publication number
JP2010287029A
JP2010287029A JP2009140114A JP2009140114A JP2010287029A JP 2010287029 A JP2010287029 A JP 2010287029A JP 2009140114 A JP2009140114 A JP 2009140114A JP 2009140114 A JP2009140114 A JP 2009140114A JP 2010287029 A JP2010287029 A JP 2010287029A
Authority
JP
Japan
Prior art keywords
image
area
obstacle
dimensional information
position change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009140114A
Other languages
Japanese (ja)
Inventor
Hiroshi Yamato
宏 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2009140114A priority Critical patent/JP2010287029A/en
Publication of JP2010287029A publication Critical patent/JP2010287029A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a periphery display device which enables display in consideration of presence of occlusion area when displaying a surrounding bird's-eye view image in a vehicle such as an automobile. <P>SOLUTION: An image processing apparatus 10 includes: an image acquisition section 11 which incorporates image data; a three-dimensional information measurement section 12 which measures three-dimensional information based on the image data; a visual point position change image generation section 14 which creates a visual point position change image which has changed a visual point position of image data; a critical region determination section 13 which determines an obstacle area presumed to be an area which includes an obstacle from three-dimensional information on the visual point position change image, and which determines around the area which cannot obtain three-dimensional information to be a critical region, based on three-dimensional information measured in a three-dimensional information measurement section 12; a superposition information image generation section 15 which carries out marking to a critical region on a visual point position change image etc. based on the determination result in the critical region determination section 13; and a visual point position change image composition section 16 which compounds a visual point position change image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は周辺表示装置に関し、特に、自走可能な移動体の周辺状況を俯瞰的に表示する周辺表示装置に関する。   The present invention relates to a peripheral display device, and more particularly, to a peripheral display device that displays a bird's-eye view of a surrounding state of a mobile object capable of self-running.

複数の撮像手段によって車両周辺の画像を個々に撮像し、それぞれの画像を視点変換して路面を投影面とする複数の俯瞰画像を作成し、当該複数の俯瞰画像を車両周辺に並べるように合成することで、自車両周辺の俯瞰画像を得る種々の技術が開示されている。   Images of the surroundings of the vehicle are individually captured by a plurality of imaging means, and a plurality of bird's-eye images are generated by converting the viewpoints of the respective images and using the road surface as a projection surface. Thus, various techniques for obtaining an overhead view image around the host vehicle are disclosed.

例えば、特許文献1では、俯瞰画像上で物体検出処理を施し、検出された物体が車両だった場合は、疑似車両を俯瞰画像上に描画することで視認性の向上を図る技術が開示されている。   For example, Patent Document 1 discloses a technique for improving visibility by performing object detection processing on a bird's-eye view image and drawing a pseudo vehicle on the bird's-eye view image when the detected object is a vehicle. Yes.

また、特許文献2では、ステレオカメラで計測された3次元情報を用いて物体の高さ情報を考慮した疑似画像(高さ方向に圧縮した画像)を含んだ俯瞰画像を作成することで視認性の向上を図る技術が開示されている。   Further, in Patent Document 2, visibility is created by creating a bird's-eye view image including a pseudo image (an image compressed in the height direction) considering the height information of an object using three-dimensional information measured by a stereo camera. A technique for improving the above is disclosed.

特開2003−309844号公報JP 2003-309844 A 特開2006−333009号公報JP 2006-333209 A

上述した何れの特許文献においても、物体の画像をより自然な画像に近づけることはできるものの、当該物体の背後の見えない領域(オクルージョン領域)に物が存在している場合でも、その前の物体しか表示されないので背後の物体を認識することができないという問題を有していた。   In any of the above-mentioned patent documents, an object image can be brought closer to a more natural image, but even if an object exists in an invisible area (occlusion area) behind the object, Since it is only displayed, it has a problem that an object behind it cannot be recognized.

本発明は上記のような問題点を解消するためになされたもので、自動車などの自走可能な移動体において周辺の俯瞰画像を表示する場合に、オクルージョン領域の存在を考慮した表示を可能とする周辺表示装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and when displaying a bird's-eye view of the surroundings of a mobile object such as a car, it is possible to display in consideration of the presence of an occlusion area. An object of the present invention is to provide a peripheral display device.

本発明に係る周辺表示装置の第1の態様は、自走可能な移動体における周辺の画像データを取得する画像取得部と、前記画像データに基づいて3次元情報を計測する3次元情報計測部と、前記画像データの視点位置を、前記移動体の上方から俯瞰する位置に変更した視点位置変更画像を作成する視点位置変更画像生成部と、前記3次元情報に基づいて、前記視点位置変更画像上の障害物のある領域と推定される障害物領域を特定するとともに、前記障害物領域の周辺で前記3次元情報を取得不能な領域を危険領域として判定する危険領域判定部と、を備え、前記危険領域判定部での判定結果を受け、前記障害物領域および前記危険領域が存在する場合には警告を与える。   A first aspect of the peripheral display device according to the present invention includes an image acquisition unit that acquires peripheral image data in a mobile object that can be self-propelled, and a three-dimensional information measurement unit that measures three-dimensional information based on the image data. A viewpoint position change image generating unit that generates a viewpoint position change image in which the viewpoint position of the image data is changed to a position overlooking the moving body, and the viewpoint position change image based on the three-dimensional information A hazard area determination unit that identifies an obstacle area that is estimated to be an obstacle area above, and that determines an area where the three-dimensional information cannot be acquired around the obstacle area as a danger area, A warning is given when the obstacle area and the dangerous area exist in response to the determination result of the dangerous area determination unit.

本発明に係る周辺表示装置の第2の態様は、前記画像データは、ステレオカメラによって取得され、前記画像取得部は、前記ステレオカメラで得られた2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の各点の3次元位置を算出することで3次元情報を取得し、前記危険領域判定部は、前記3次元情報に含まれる視差情報と、予め保持している路面の画像についての視差情報をテーブル化した視差テーブルとを比較することで、前記障害物領域を特定し、前記障害物領域の背後の、前記3次元情報を取得不能で視差を計測不可能な領域を前記危険領域として判定する。   In a second aspect of the peripheral display device according to the present invention, the image data is acquired by a stereo camera, and the image acquisition unit associates feature points of two images acquired by the stereo camera with each other. The 3D information is obtained by calculating the 3D position of each point on the image from the parallax obtained as a result, and the dangerous area determination unit stores in advance the parallax information included in the 3D information. The obstacle area is identified by comparing with a parallax table in which the parallax information on the road surface image is tabulated, and the parallax cannot be measured because the three-dimensional information behind the obstacle area cannot be obtained. A possible area is determined as the dangerous area.

本発明に係る周辺表示装置の第3の態様は、前記視差テーブルは、前記路面の画像を更新することで随時更新される。   In a third aspect of the peripheral display device according to the present invention, the parallax table is updated as needed by updating the image of the road surface.

本発明に係る周辺表示装置の第4の態様は、前記危険領域判定部が、前記3次元情報に基づいて得られる3次元空間上の計測点を路面と想定される平面にマッピングした場合に、前記計測点が疎らな領域を前記危険領域として判定し、前記危険領域の近傍であって前記計測点が密集する領域を前記障害物領域として判定する。   In a fourth aspect of the peripheral display device according to the present invention, when the dangerous area determination unit maps measurement points on a three-dimensional space obtained based on the three-dimensional information to a plane assumed to be a road surface, An area where the measurement points are sparse is determined as the dangerous area, and an area in the vicinity of the dangerous area where the measurement points are dense is determined as the obstacle area.

本発明に係る周辺表示装置の第5の態様は、前記危険領域判定部が、予め取得した前記路面の画像についての前記計測点のマッピングの分布状態との比較により前記計測点の粗密を判定する。   In a fifth aspect of the peripheral display device according to the present invention, the dangerous area determination unit determines the density of the measurement points by comparing with a distribution state of the measurement point mapping with respect to the road surface image acquired in advance. .

本発明に係る周辺表示装置の第6の態様は、自走可能な移動体における周辺の画像データを取得する画像取得部と、前記画像データに基づいて3次元情報を計測する3次元情報計測部と、前記画像データの視点位置を、前記移動体の上方から俯瞰する位置に変更した視点位置変更画像を作成する視点位置変更画像生成部と、前記画像データに基づいて障害物を特定するとともに、前記視点位置変更画像における前記障害物の位置に基づいて危険領域を判定する危険領域判定部と、を備え、前記危険領域判定部での判定結果を受け、前記障害物領域および前記危険領域が存在する場合には警告を与える。   A sixth aspect of the peripheral display device according to the present invention is an image acquisition unit that acquires peripheral image data in a self-propelled movable body, and a three-dimensional information measurement unit that measures three-dimensional information based on the image data. And a viewpoint position change image generation unit that creates a viewpoint position change image that changes the viewpoint position of the image data to a position that is viewed from above the moving body, and an obstacle based on the image data, A dangerous region determination unit that determines a dangerous region based on the position of the obstacle in the viewpoint position change image, and the obstacle region and the dangerous region exist according to a determination result in the dangerous region determination unit Give a warning if you want.

本発明に係る周辺表示装置の第7の態様は、前記危険領域判定部が、前記視点位置変更画像における前記障害物の存在する位置でのオクルージョン領域を前記障害物領域として判定する。   In a seventh aspect of the peripheral display device according to the present invention, the dangerous area determination unit determines an occlusion area at the position where the obstacle exists in the viewpoint position change image as the obstacle area.

本発明に係る周辺表示装置の第8の態様は、前記オクルージョン領域は、前記画像データを取得したカメラの画角と前記障害物の位置との関係に基づいて定められる。   In an eighth aspect of the peripheral display device according to the present invention, the occlusion area is determined based on the relationship between the angle of view of the camera that acquired the image data and the position of the obstacle.

本発明に係る周辺表示装置の第9の態様は、前記危険領域判定部での判定結果に基づいて、前記視点位置変更画像上の前記危険領域にマーキング画像を重畳する重畳情報画像生成部を備える。   A ninth aspect of the peripheral display device according to the present invention includes a superimposed information image generation unit that superimposes a marking image on the dangerous region on the viewpoint position change image based on a determination result in the dangerous region determination unit. .

本発明に係る周辺表示装置の第1の態様によれば、自動車などの自走可能な移動体において、周辺の俯瞰画像を表示する場合に、例えばオクルージョン領域などの危険領域を判定して警告を与えることが可能となり、有効な危険回避が可能となる。   According to the first aspect of the peripheral display device according to the present invention, when displaying a bird's-eye view of the surrounding area in a mobile body such as an automobile, a warning is made by determining a dangerous area such as an occlusion area, for example. Can be given, and effective danger avoidance becomes possible.

本発明に係る周辺表示装置の第2の態様によれば、3次元情報に含まれる視差情報を用いて障害物領域を特定し、障害物領域の背後の、3次元情報を取得不能で視差を計測不可能な領域を危険領域として判定するので、比較的容易に障害物領域および危険領域の特定を行うことができる。   According to the second aspect of the peripheral display device of the present invention, the obstacle area is specified using the parallax information included in the three-dimensional information, and the three-dimensional information behind the obstacle area cannot be obtained and the parallax is not obtained. Since the area that cannot be measured is determined as the dangerous area, the obstacle area and the dangerous area can be identified relatively easily.

本発明に係る周辺表示装置の第3の態様によれば、視差テーブルは、路面の画像を更新することで随時更新するので、路面の状態が変わる場合に対応することができる。   According to the third aspect of the peripheral display device of the present invention, the parallax table is updated as needed by updating the road surface image, so that it is possible to cope with the case where the road surface state changes.

本発明に係る周辺表示装置の第4および題5の態様によれば、3次元上の計測点の粗密状態を判定基準として用いることで、正確な物体検出処理を必要とせずに障害物領域および危険領域を特定することができる。   According to the fourth and fifth aspects of the peripheral display device according to the present invention, by using the coarse / dense state of the three-dimensional measurement points as a determination criterion, the obstacle region and Hazardous areas can be identified.

本発明に係る周辺表示装置の第6ないし第8の態様によれば、自動車などの自走可能な移動体において、周辺の俯瞰画像を表示する場合に、画像データに基づいて障害物を特定することができれば危険領域の判定は比較的容易に行うことができ、例えばオクルージョン領域などの危険領域を判定して警告を与えることが可能となり、有効な危険回避が可能となる。   According to the sixth to eighth aspects of the peripheral display device according to the present invention, an obstacle is specified based on image data when displaying a surrounding bird's-eye view image on a mobile object such as a car. If possible, it is possible to determine the dangerous area relatively easily. For example, it is possible to determine a dangerous area such as an occlusion area and give a warning, and effective danger avoidance is possible.

本発明に係る周辺表示装置の第9の態様によれば、危険領域の視覚化が可能となる。   According to the ninth aspect of the peripheral display device of the present invention, the dangerous area can be visualized.

ステレオカメラの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a stereo camera. 本発明に係る周辺表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the peripheral display apparatus which concerns on this invention. 対応点探索の概念を説明する図である。It is a figure explaining the concept of corresponding point search. ステレオカメラが、障害物のない路面を撮影する状態を模式的に示す図である。It is a figure which shows typically the state in which a stereo camera image | photographs the road surface without an obstruction. 路面の2次元画像に計測点を重ねて示した図である。It is the figure which overlapped and showed the measurement point on the two-dimensional image of the road surface. 視差テーブルと障害物のない路面の計測視差との関係を示す図である。It is a figure which shows the relationship between a parallax table and the measurement parallax of the road surface without an obstruction. ステレオカメラが、障害物のある路面を撮影する状態を模式的に示す図である。It is a figure which shows typically the state in which a stereo camera image | photographs the road surface with an obstruction. 視差テーブルと障害物のある路面の計測視差との関係を示す図である。It is a figure which shows the relationship between a parallax table and the measurement parallax of the road surface with an obstruction. 車両の上方から見た俯瞰図である。It is a bird's-eye view seen from the upper part of vehicles. 視差と計測点の個数(度数)との関係をヒストグラムで表す図である。It is a figure showing the relationship between parallax and the number (frequency) of a measurement point with a histogram. 視差と計測点の個数(度数)との関係をヒストグラムで表す図である。It is a figure showing the relationship between parallax and the number (frequency) of a measurement point with a histogram. 路面上に障害物がない場合の計測点を俯瞰画像上にマッピングした図である。It is the figure which mapped the measurement point when there is no obstacle on a road surface on a bird's-eye view image. 路面上に障害物がある場合の計測点を俯瞰画像上にマッピングした図である。It is the figure which mapped the measurement point when there is an obstacle on a road surface on a bird's-eye view image. ステレオカメラが、窪みのある路面を撮影する状態を模式的に示す図である。It is a figure which shows typically the state in which a stereo camera image | photographs the road surface with a hollow. 路面上に窪みがある場合の計測点を俯瞰画像上にマッピングした図である。It is the figure which mapped the measurement point when there is a dent on a road surface on a bird's-eye view image.

<実施の形態>
<装置構成>
図1は、本発明に係る周辺表示装置を搭載した車両VCにおけるステレオカメラの配置例を示す図である。
<Embodiment>
<Device configuration>
FIG. 1 is a diagram showing an arrangement example of stereo cameras in a vehicle VC equipped with a peripheral display device according to the present invention.

図1において、車両VCには、前方、左右および後方の画像を取得する4台のステレオカメラと、左斜め前方、左斜め後方、右斜め前方および右斜め後方の画像を取得する4台のステレオカメラとが搭載されている。   In FIG. 1, a vehicle VC includes four stereo cameras that acquire front, left, and right images, and four stereos that acquire left oblique front, left oblique rear, right oblique front, and right oblique rear images. And a camera.

すなわち、前方の画像を取得するステレオカメラSC1、前方に対して左側の画像を取得するステレオカメラSC2、後方の画像を取得するステレオカメラSC3および前方に対して右側の画像を取得するステレオカメラSC4と、左斜め前方の画像を取得するステレオカメラSC5、左斜め後方の画像を取得するステレオカメラSC6、右斜め後方の画像を取得するステレオカメラSC7および左斜め前方の画像を取得するステレオカメラSC8を備えている。また、図1では、ステレオカメラSC1〜SC8のそれぞれでの画角内領域を領域R1、R2、R3、R4、R5、R6、R7およびR8で示し、監視範囲を実線で示している。   That is, a stereo camera SC1 that acquires a front image, a stereo camera SC2 that acquires a left image relative to the front, a stereo camera SC3 that acquires a rear image, and a stereo camera SC4 that acquires a right image relative to the front A stereo camera SC5 that acquires a left diagonally forward image, a stereo camera SC6 that acquires a diagonally backward left image, a stereo camera SC7 that acquires a diagonally backward right image, and a stereo camera SC8 that acquires a diagonally forward left image ing. Further, in FIG. 1, the in-view angle regions in the stereo cameras SC1 to SC8 are indicated by regions R1, R2, R3, R4, R5, R6, R7, and R8, and the monitoring range is indicated by a solid line.

また、図1では、ステレオカメラSC1〜SC8のそれぞれに含まれる2台のカメラを、例えばステレオカメラSC1についてはカメラ1a、1bとして表している。   Further, in FIG. 1, two cameras included in each of the stereo cameras SC1 to SC8 are represented as cameras 1a and 1b, for example, for the stereo camera SC1.

このようなシステムを用いることで、自車両の周辺の画像データを取得し、それを視点を変えて自車両の上方から見た俯瞰図に変更することが可能となるが、以下の説明では、ステレオカメラSC1で取得した前方画像を使用する場合を例に採って説明する。   By using such a system, it is possible to acquire image data around the host vehicle and change it to an overhead view seen from above the host vehicle by changing the viewpoint, but in the following description, A case where the front image acquired by the stereo camera SC1 is used will be described as an example.

なお、各カメラの実際の配置位置は車種によって異なるが、例えば、ステレオカメラSC1はルームミラーの位置に配置され、ステレオカメラSC2およびSC4は、それぞれ、左右のサイドミラーの位置に配置され、ステレオカメラSC4は、リヤバンパーの位置に、ステレオカメラSC5〜SC8は、何れも車両VCの四隅のバンパーの位置などに配置される。なお、上記配置は一例であり、ステレオカメラの配置はこれに限定されるものではない。   The actual arrangement position of each camera differs depending on the vehicle type. For example, the stereo camera SC1 is arranged at the position of the room mirror, and the stereo cameras SC2 and SC4 are arranged at the positions of the left and right side mirrors, respectively. SC4 is arranged at the position of the rear bumper, and the stereo cameras SC5 to SC8 are all arranged at bumper positions at the four corners of the vehicle VC. The above arrangement is an example, and the arrangement of the stereo camera is not limited to this.

図2は、本発明に係る周辺表示装置100の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1〜SC8と、ステレオカメラSC1〜SC8で得られた画像データの画像処理を行う画像処理装置10と、画像処理装置10から出力される処理済みの画像データを表示する表示部20とを主たる構成として備えている。   FIG. 2 is a block diagram showing the configuration of the peripheral display device 100 according to the present invention. As shown in FIG. 2, the peripheral display device 100 includes stereo cameras SC <b> 1 to SC <b> 8, an image processing device 10 that performs image processing of image data obtained by the stereo cameras SC <b> 1 to SC <b> 8, and processing output from the image processing device 10. And a display unit 20 for displaying completed image data.

画像処理装置10は、ステレオカメラSC1〜SC8で得られた画像データを取り込む画像取得部11と、画像取得部11で取得した画像データに基づいて3次元情報を計測する3次元情報計測部12と、画像取得部11で取得した画像データの視点位置を変更した視点位置変更画像を作成する視点位置変更画像生成部14と、3次元情報計測部12で計測された3次元情報に基づいて、視点位置変更画像上の3次元情報から障害物のある領域と推定される障害物領域を判定するとともに、その周辺で3次元情報を取得不能な領域を危険領域と判定する危険領域判定部13と、危険領域判定部13での判定結果に基づいて、視点位置変更画像上の危険領域等にマーキングを行う重畳情報画像生成部15と、各ステレオカメラSC1〜SC8のそれぞれの画角内領域R1〜R8に対応して得られた視点位置変更画像を合成して、車両VC周辺の俯瞰画像を得る視点位置変更画像合成部16とを備えている。以下、各部についての説明を行う。   The image processing apparatus 10 includes an image acquisition unit 11 that captures image data obtained by the stereo cameras SC1 to SC8, a 3D information measurement unit 12 that measures 3D information based on the image data acquired by the image acquisition unit 11, and Based on the viewpoint position change image generation unit 14 that generates a viewpoint position change image obtained by changing the viewpoint position of the image data acquired by the image acquisition unit 11 and the 3D information measured by the 3D information measurement unit 12, A dangerous area determination unit 13 that determines an obstacle area that is estimated to be an obstacle area from the three-dimensional information on the position-changed image, and determines an area in which the three-dimensional information cannot be acquired as a dangerous area in the vicinity thereof; Based on the determination result in the dangerous area determination unit 13, the superimposed information image generation unit 15 for marking the dangerous area on the viewpoint position change image and the stereo cameras SC1 to SC8. By combining the viewpoint position change image obtained in correspondence with the field angle region R1~R8 of respectively, and a viewpoint position change image synthesizing unit 16 to obtain an overhead view image around the vehicle VC. Hereinafter, each part will be described.

<画像取得部1>
ステレオカメラは、2台のカメラで異なる視点から同時に撮影を行うことができ、画像取得部1では、各カメラで得られた画像データを画素単位で取り込む。
<Image acquisition unit 1>
The stereo camera can simultaneously shoot from different viewpoints with two cameras, and the image acquisition unit 1 captures image data obtained by each camera in units of pixels.

<3次元情報計測部12>
3次元情報計測部12では、ステレオカメラの、2台のカメラでそれぞれ得られた2つの画像の特徴点について相互に対応付けを行う。これは、対応点探索と呼称され、従来的な手法である。
<Three-dimensional information measuring unit 12>
The three-dimensional information measuring unit 12 associates feature points of two images obtained by two cameras of the stereo camera with each other. This is called a corresponding point search and is a conventional method.

図3は、対応点探索の概念を説明する図であり、ステレオカメラの2台のカメラで撮像された画像の一方を基準画像Gaとし、他方を参照画像Gbとして表している。そして、参照画像Gb上での対応画素(対応点)Wbを探索するための基準画像Ga上で指定される画素をWaとして設定している。   FIG. 3 is a diagram for explaining the concept of corresponding point search, in which one of images captured by two cameras of stereo cameras is represented as a standard image Ga and the other is represented as a reference image Gb. Then, a pixel designated on the reference image Ga for searching for a corresponding pixel (corresponding point) Wb on the reference image Gb is set as Wa.

画素Waの座標が(x,y)で表され、画素Wbの座標が(x’,y’)で表されるならば、両画素の視差dは、x−x’で算出される。   If the coordinates of the pixel Wa are represented by (x, y) and the coordinates of the pixel Wb are represented by (x ′, y ′), the parallax d of both pixels is calculated by x−x ′.

なお、対応点探索においては、画像間から勾配法(gradient-based method)により算出する方法や、SAD(Sum of Absolute Difference)法と呼ばれる方法が知られている。この方法は、ステレオカメラのように異なる視点から撮影した2つの画像のうち、一方の画像である基準画像上の注目点に対して、この注目点を内包するようなウィンドウを設定するとともに、他方の画像である参照画像上にも同サイズのウィンドウを複数設定し、基準画像上のウィンドウと、参照画像上の各ウィンドウ間で相関値を算出して、最も相関値が高い参照画像上のウィンドウを探索し、そのウィンドウの重心位置を注目点の対応点として求める方法である。   It should be noted that, in the corresponding point search, a method of calculating from the images by a gradient-based method and a method called SAD (Sum of Absolute Difference) method are known. In this method, a window that includes this attention point is set for the attention point on the reference image, which is one of two images taken from different viewpoints as in a stereo camera, and the other Set multiple windows of the same size on the reference image that is the same image, calculate the correlation value between the window on the standard image and each window on the reference image, and the window on the reference image with the highest correlation value And the barycentric position of the window is obtained as the corresponding point of the point of interest.

また、位相限定相関法(POC法)を用いた方法もある。この方法は、基準画像上のピクセルレベルの注目点 に対応する参照画像上のピクセルレベルの対応点を算出した後に、注目点に対する対応点のサブピクセルレベルのずれ量を求めるものであり、高精度な対応付けが可能となる。   There is also a method using a phase only correlation method (POC method). In this method, the pixel level corresponding point on the reference image corresponding to the pixel level attention point on the base image is calculated, and then the sub-pixel level shift amount of the corresponding point with respect to the target point is obtained. Association is possible.

そして、算出された対応点に対して、平行化、歪補正、3次元再構成の処理を行うことで3次元情報を取得する。   Then, three-dimensional information is acquired by performing parallelization, distortion correction, and three-dimensional reconstruction processing on the calculated corresponding points.

<危険領域判定部13>
危険領域判定部13では、3次元情報計測部12から提供される3次元情報に基づいて、障害物領域を判定するとともに危険領域を判定するが、危険領域の判定方法には以下の2通りの方法がある。
<Dangerous area determination unit 13>
The dangerous area determination unit 13 determines the obstacle area and the dangerous area based on the three-dimensional information provided from the three-dimensional information measurement unit 12, and the dangerous area determination method includes the following two methods. There is a way.

<危険領域の判定方法1>
3次元情報計測部12から提供される3次元情報には、ステレオカメラで撮像された画像の視差情報が含まれており、これと、予め保持している路面の画像についての視差情報をテーブル化した視差テーブルとを比較することで、まず障害物領域を特定する。以下、図4〜図9を用いて具体的に説明する。
<Dangerous area determination method 1>
The three-dimensional information provided from the three-dimensional information measuring unit 12 includes parallax information of an image captured by a stereo camera, and a table of the parallax information about a road surface image that is stored in advance. The obstacle region is first identified by comparing with the parallax table. Hereinafter, it demonstrates concretely using FIGS. 4-9.

図4は、車両VCの進行方向(z方向)の前方を撮影するステレオカメラSC1が、路面を撮影する状態を模式的に示しており、ステレオカメラSC1の画角内領域R1において対応点探索を行う計測点M1を模式的に示している。   FIG. 4 schematically shows a state in which the stereo camera SC1 that captures the front in the traveling direction (z direction) of the vehicle VC captures the road surface. The corresponding point search is performed in the in-angle region R1 of the stereo camera SC1. The measurement point M1 to perform is typically shown.

図5は、路面の2次元画像に計測点M1を重ねて示した図であり、図においてx方向が路面を横断する方向であり、z方向が路面の延在する方向である。計測点M1は、図の手前側ほど多く、遠くになるほど少なくなっている。図6では、路面上に障害物は存在しておらず、視差テーブルと路面の画像についての視差情報(実際の計測視差)とが一致している状態を表している。   FIG. 5 is a diagram showing a measurement point M1 superimposed on a two-dimensional image of a road surface. In the figure, the x direction is a direction crossing the road surface, and the z direction is a direction in which the road surface extends. The number of measurement points M1 is greater on the near side of the figure and decreases as the distance is greater. FIG. 6 shows a state in which no obstacle exists on the road surface, and the parallax table and the parallax information (actual measurement parallax) about the image of the road surface match.

図6は、視差テーブルと実際の計測視差との関係を示す図であり、路面の2次元画像における計測点M1をz方向のレベルごとに階層分けして示している。ここで、視差テーブルにおいて、最下層での視差を基準視差αとすると、次のレベルでの視差は基準視差αよりも数値aの分だけ小さくなった値(α−a)として表される。さらに、次のレベルでの視差は基準視差αよりも数値bの分だけ小さくなった値(α−b)で表され、さらに、次のレベルでの視差は基準視差αよりも数値cの分だけ小さくなった値(α−c)で表される。ここで、数値a〜cの大小関係は、数値aが最も小さく、数値cが最も大きく(c>b>a)、カメラから遠いほど視差が小さくなることを表している。   FIG. 6 is a diagram showing the relationship between the parallax table and the actual measured parallax, and shows the measurement points M1 in the two-dimensional image of the road surface divided into layers for each level in the z direction. Here, in the parallax table, when the parallax at the lowest layer is the reference parallax α, the parallax at the next level is expressed as a value (α−a) that is smaller than the reference parallax α by the numerical value a. Further, the parallax at the next level is represented by a value (α−b) that is smaller than the reference parallax α by the numerical value b, and further, the parallax at the next level is the numerical value c more than the reference parallax α. It is represented by a value (α-c) that is reduced by a small amount. Here, the magnitude relationship between the numerical values a to c indicates that the numerical value a is the smallest, the numerical value c is the largest (c> b> a), and the disparity becomes smaller as the distance from the camera increases.

視差テーブルは、路面上に障害物が存在しない状態で撮影した路面の画像から取得したものであるので、路面上に障害物が存在しない場合は、実際の計測視差d(i,j)と視差テーブルの視差とは一致し、最下層ではd(i,j)=α、 次のレベルではd(i,j)=α−a、さらに次のレベルではd(i,j)=α−b、さらに次のレベルではd(i,j)=α−cとなる。ここで、iは画像横方向(x方向)の指定位置を表し、jは画像縦方向(z方向)の指定位置を表す。   Since the parallax table is obtained from an image of the road surface that is captured in a state where no obstacle exists on the road surface, when there is no obstacle on the road surface, the actual measured parallax d (i, j) and the parallax are obtained. It matches the parallax of the table, d (i, j) = α at the lowest layer, d (i, j) = α−a at the next level, and d (i, j) = α−b at the next level. In the next level, d (i, j) = α−c. Here, i represents a designated position in the image horizontal direction (x direction), and j represents a designated position in the image vertical direction (z direction).

図7は、路面上に障害物がある場合に、ステレオカメラSC1が、路面を撮影する状態を模式的に示しており、路面上の計測点M1と、障害物OB上の計測点M2とが模式的に示されている。   FIG. 7 schematically shows a state in which the stereo camera SC1 captures a road surface when there is an obstacle on the road surface. The measurement point M1 on the road surface and the measurement point M2 on the obstacle OB are It is shown schematically.

図7に示されるように、路面上に障害物OBが存在する場合、障害物OBの表面に計測点M2が設定される一方で、障害物OBの背後の路面上には、計測点M1が設定されないこととなる。   As shown in FIG. 7, when the obstacle OB exists on the road surface, the measurement point M2 is set on the surface of the obstacle OB, while the measurement point M1 is on the road surface behind the obstacle OB. It will not be set.

図8は、路面上に障害物OBが存在する場合の視差テーブルと実際の計測視差との関係を示す図であり、障害物OBは枠線で囲まれた領域として示されている。   FIG. 8 is a diagram showing the relationship between the parallax table and the actual measured parallax when the obstacle OB exists on the road surface, and the obstacle OB is shown as a region surrounded by a frame line.

障害物OBが図7に示すような立方体である場合、車両VCに対面する表面に計測点M2が設定され、その表面の位置は、路面の2次元画像における各計測点レベルの何れかに存在することとなる。その表面は、図8ではα−aのレベルに存在するので、計測点M2の視差はどこの値であってもα−aとなる。   When the obstacle OB is a cube as shown in FIG. 7, the measurement point M2 is set on the surface facing the vehicle VC, and the position of the surface exists at any one of the measurement point levels in the two-dimensional image of the road surface. Will be. Since the surface exists at the level of α-a in FIG. 8, the parallax at the measurement point M2 is α-a regardless of the value.

従って、障害物OBが存在することで、実際の計測視差d(i,j)と視差テーブルの視差とが一致しない領域が現れることとなる。従って、実際の計測視差d(i,j)と視差テーブルの視差とが一致しない領域が確認された場合、各計測点の座標(i,j)から、当該領域のx方向の長さと、x方向における位置を取得し、当該x方向の長さと位置の情報を、車両VCに対面する表面が存在するレベル、ここでは視差α−aのレベルに当てはめることで障害物領域を特定する。   Therefore, when the obstacle OB exists, an area where the actual measurement parallax d (i, j) and the parallax of the parallax table do not coincide with each other appears. Therefore, when an area where the actual measurement parallax d (i, j) and the parallax in the parallax table do not match is confirmed, the length in the x direction of the area is calculated from the coordinates (i, j) of each measurement point, and x The position in the direction is acquired, and the obstacle region is specified by applying the length and position information in the x direction to the level where the surface facing the vehicle VC exists, in this case, the level of the parallax α-a.

障害物領域の背後には、ステレオカメラSC1の画角によって決まる、視差を計測不可能な未計測領域が存在することとなり、当該領域は障害物領域ORに隠れて見えない危険領域DRと判断する。   Behind the obstacle area, there is an unmeasured area where parallax cannot be measured, which is determined by the angle of view of the stereo camera SC1, and the area is determined to be a dangerous area DR hidden behind the obstacle area OR. .

図9は、車両VCの上方から見た3次元の俯瞰図の一例であり、車両VCの前方に、上述した方法で求めた障害物領域ORが示され、その背後には、障害物領域ORに隠れて見えない危険領域DRが示されている。   FIG. 9 is an example of a three-dimensional overhead view seen from above the vehicle VC. The obstacle area OR obtained by the above-described method is shown in front of the vehicle VC, and behind the obstacle area OR. A dangerous area DR which is hidden behind and cannot be seen is shown.

図9は、図5に示された路面の2次元画像の視点変換を行って作成されるものであり、視点変換を行った結果、計測点M1は、車両VCから離れるほど間隔が広くなり、危険領域DRは台形状に広がった領域として表されている。   FIG. 9 is created by performing viewpoint conversion of the two-dimensional image of the road surface shown in FIG. 5. As a result of performing viewpoint conversion, the measurement point M1 becomes wider as the distance from the vehicle VC increases. The dangerous area DR is represented as an area extending in a trapezoidal shape.

このように、実際の計測視差d(i,j)と視差テーブルの視差との比較を行うことで、容易に障害物領域を特定することができ、障害物領域を特定した後は、ステレオカメラの画角によって決まる、視差を計測不可能な未計測領域を危険領域として特定することで、オクルージョン領域を考慮した表示が可能となる。   Thus, by comparing the actual measured parallax d (i, j) with the parallax of the parallax table, the obstacle area can be easily identified. After the obstacle area is identified, the stereo camera By specifying an unmeasured area where the parallax cannot be measured, which is determined by the angle of view, as the dangerous area, it is possible to display in consideration of the occlusion area.

ここで、視差テーブルは、予め路面を撮影して取得した視差値を固定値として用いても良いが、定期的(分刻み)に路面を撮影して視差値を取得し、随時更新する構成としても良い。例えば、平坦な路面と坂道とでは路面の状態が変わるので、このような場合には有効である。   Here, the parallax table may use a parallax value obtained by photographing the road surface in advance as a fixed value, but the parallax table is obtained periodically by photographing the road surface to obtain the parallax value and updating it as needed. Also good. For example, the road surface condition changes between a flat road surface and a slope, which is effective in such a case.

また、図5に示したように、計測点M1は、図の手前側、すなわちカメラに近いほど多く、遠くになるほど少なく、各レベルでは、同じ視差となるので、視差と計測点の個数(度数)との関係をヒストグラムにして表すと図10に示すようになる。   Also, as shown in FIG. 5, the number of measurement points M1 increases toward the near side of the figure, that is, closer to the camera, and decreases toward the far side. ) Is represented as a histogram as shown in FIG.

すなわち、図10において、カメラから遠い位置では視差は小さく、カメラに近づくにつれて段階的に視差が大きくなるようなヒストグラムとなる。   That is, in FIG. 10, the disparity is small at a position far from the camera, and the histogram is such that the disparity increases stepwise as the camera is approached.

しかし、障害物が存在する場合、この階段状のヒストグラムが得られず、何れかの視差のみ度数が突出したり、逆に、度数が減少した形状となる。この状態を図11に示す。   However, when there is an obstacle, this step-like histogram cannot be obtained, and the frequency protrudes only for one of the parallaxes, or conversely, the frequency decreases. This state is shown in FIG.

図11においては、度数が突出した部分にハッチングを付しているが、この視差を有するレベルに障害物が存在するということが判る。また、度数が突出した視差の手前、すなわち障害物が存在するレベルより遠い位置では、度数が減少しており、度数が減少している視差の範囲から、危険領域を特定することができる。   In FIG. 11, hatching is given to the portion where the frequency protrudes, but it can be seen that there is an obstacle at a level having this parallax. In addition, the frequency is decreasing before the parallax where the frequency protrudes, that is, at a position far from the level where the obstacle exists, and the dangerous area can be identified from the parallax range where the frequency is decreasing.

また、3次元情報計測部12において3次元情報を得るにはカメラパラメータを使用するが、この3次元情報に基づいて得られる3次元上の計測点を路面と想定される平面にマッピングすることで、マッピング結果の計測点の粗密状態から障害物領域および危険領域を特定することができる。   In order to obtain 3D information in the 3D information measuring unit 12, camera parameters are used. By mapping 3D measurement points obtained based on the 3D information to a plane assumed to be a road surface, The obstacle area and the dangerous area can be specified from the density state of the measurement points of the mapping result.

図12は、路面上に障害物がない場合の計測点M1を俯瞰画像上にマッピングした図であり、計測点の分布に粗密は見られない。   FIG. 12 is a diagram in which the measurement points M1 when there are no obstacles on the road surface are mapped on the bird's-eye view image, and the distribution of the measurement points is not dense.

図13は、路面上に障害物がある場合の計測点M1を俯瞰画像上にマッピングした図であり、障害物の表面上には計測点M2が存在するものの、奥行き方向、すなわちz方向では計測点が存在せず、計測点の分布に粗密が発生する。障害物の表面位置を知ることで、障害物領域を特定することができ、計測点が存在しない領域から危険領域を特定することができる。なお、障害物がある場合の計測点M1の粗密度の判定は、予め取得した路面上に障害物がない場合の計測点M1のマッピング結果と比較することで行う。   FIG. 13 is a diagram in which the measurement point M1 when there is an obstacle on the road surface is mapped on the bird's-eye view image. Although the measurement point M2 exists on the surface of the obstacle, the measurement is performed in the depth direction, that is, in the z direction. There are no points, and the distribution of measurement points is uneven. By knowing the surface position of the obstacle, the obstacle area can be specified, and the dangerous area can be specified from the area where the measurement point does not exist. The determination of the coarse density of the measurement point M1 when there is an obstacle is made by comparing with the mapping result of the measurement point M1 when there is no obstacle on the road surface acquired in advance.

このように、3次元上の計測点の粗密状態を判定基準として用いることで、正確な物体検出処理を必要とせずに障害物領域および危険領域を特定することができる。   As described above, by using the density state of the three-dimensional measurement points as the determination criterion, it is possible to specify the obstacle region and the dangerous region without requiring an accurate object detection process.

なお、この方法を用いることで、路面上に突出する障害物だけでなく、路面の窪みなどの障害物も特定することができる。   In addition, by using this method, not only obstacles protruding on the road surface but also obstacles such as depressions on the road surface can be specified.

図14は、車両VCの進行方向(z方向)の前方を撮影するステレオカメラSC1が、路面を撮影する状態を模式的に示しており、ステレオカメラSC1の画角内領域R1において路面に窪みCPがある場合を模式的に示している。   FIG. 14 schematically shows a state in which the stereo camera SC1 that captures the forward direction of the vehicle VC in the traveling direction (z direction) captures the road surface, and the depression CP on the road surface in the in-angle region R1 of the stereo camera SC1. The case where there exists is shown typically.

図14において、画角内領域R1では、窪みCP以外では計測点M1が存在するが、窪みCPでは、計測点M1が存在せず、窪みの一方の壁面、すなわち車両VCから見える側の壁面にのみ計測点M2が存在することとなる。   In FIG. 14, in the in-view region R1, there is a measurement point M1 other than the depression CP. However, in the depression CP, the measurement point M1 does not exist, and one wall surface of the depression, that is, the wall surface on the side visible from the vehicle VC. Only the measurement point M2 exists.

図15は、路面上に窪みCPがある場合の計測点M1およびM2を俯瞰画像上にマッピングした図であり、窪みCPの車両VCの進行方向(z方向)の奥側の壁面には計測点M2が存在するものの、その手前側は計測点M1もM2も存在しない領域となっている。この場合、計測点M1もM2も存在しない領域によって危険領域DRが特定される。   FIG. 15 is a diagram in which measurement points M1 and M2 in the case where there is a depression CP on the road surface are mapped on the bird's-eye view image, and measurement points are placed on the wall surface on the back side in the traveling direction (z direction) of the vehicle VC in the depression CP Although M2 exists, the near side is an area where neither measurement point M1 nor M2 exists. In this case, the dangerous area DR is specified by an area where neither the measurement point M1 nor M2 exists.

<危険領域の判定方法2>
以上説明した危険領域の判定方法1では、視差情報を用いて障害物を検出していたが、障害物の検出方法はこれに限定されるものではなく、従来的な方法を用いて障害物を検出しても良い。
<Dangerous area determination method 2>
In the dangerous area determination method 1 described above, an obstacle is detected using disparity information. However, the obstacle detection method is not limited to this, and the obstacle is detected using a conventional method. It may be detected.

例えば、障害物となる可能性のある物体についてのテンプレートを予め準備しておき、ステレオカメラを構成する2つのカメラの一方で得られた2次元画像にテンプレートを当てはめ、パターンマッチングを行って、マッチングした場合には当該テンプレートに相当する物体があると判断する手法を採っても良い。   For example, a template for an object that may be an obstacle is prepared in advance, the template is applied to the two-dimensional image obtained from one of the two cameras that make up the stereo camera, pattern matching is performed, and matching is performed. In such a case, a method of determining that there is an object corresponding to the template may be adopted.

また、2次元画像より算出された特徴量に対して、教師データを当てはめ、パターンマッチングを行って、マッチングした場合には当該教師データに相当する物体があると判断する手法を採っても良い。   In addition, a technique may be adopted in which teacher data is applied to the feature amount calculated from the two-dimensional image, pattern matching is performed, and when matching is performed, it is determined that there is an object corresponding to the teacher data.

また、ステレオカメラを用いて取得した3次元情報に基づいて、実空間上の位置を算出し、道路モデルに基づいて、横方向および視差方向(距離方向)において位置的に対応する道路面の高さと比較して、前記位置が道路面より上にある場合には、その位置のデータを立体物を表すデータとして抽出することで、路面上の障害物を検出する手法を採っても良い。この方法については、特開2006−134035号公報に開示がある。   In addition, the position in the real space is calculated based on the three-dimensional information acquired using the stereo camera, and the road surface height corresponding to the position in the horizontal direction and the parallax direction (distance direction) is calculated based on the road model. In contrast, when the position is above the road surface, a method of detecting an obstacle on the road surface by extracting the data of the position as data representing a three-dimensional object may be adopted. This method is disclosed in Japanese Patent Application Laid-Open No. 2006-134035.

なお、検出された障害物に対応する危険領域の判定は、視点位置変更画像生成部14において生成された視点位置変更後の俯瞰画像における障害物の位置に基づいて判定を行う。この判定では、ステレオカメラSC1の画角と障害物の位置との関係で決まるオクルージョン領域を障害物領域とすることが現実的である。この場合、図2に示す構成において、視点位置変更画像生成部14において生成された視点位置変更後の俯瞰画像データを危険領域判定部13に取り込むことになる。   The dangerous area corresponding to the detected obstacle is determined based on the position of the obstacle in the overhead image after the viewpoint position change generated by the viewpoint position change image generation unit 14. In this determination, it is realistic that the occlusion area determined by the relationship between the angle of view of the stereo camera SC1 and the position of the obstacle is the obstacle area. In this case, in the configuration shown in FIG. 2, the overhead image data after the viewpoint position change generated by the viewpoint position change image generation unit 14 is taken into the dangerous area determination unit 13.

<視点位置変更画像生成部14>
視点位置変更画像生成部14では、ステレオカメラで撮影された画像を、自車両の上方から見た俯瞰画像にするための視点位置の変更(座標変換)を行う。この処理は公知の技術を用いれば良く、撮影レンズの光軸の向き、撮影レンズの特性などの撮影条件に基づいて予め作成され、ステレオカメラで撮影された画像の各点と、俯瞰画像の各点とを対応付ける変換テーブルを用いて変換を行う方法が一般的である。
<Viewpoint position change image generation unit 14>
The viewpoint position change image generation unit 14 changes the viewpoint position (coordinate conversion) so that an image captured by the stereo camera is an overhead image viewed from above the host vehicle. This process may be performed using a known technique, and each point of an image that is created in advance based on photographing conditions such as the direction of the optical axis of the photographing lens and the characteristics of the photographing lens and photographed with a stereo camera, and each of the overhead images. A method of performing conversion using a conversion table that associates points is common.

<重畳情報画像生成部15>
重畳情報画像生成部15は、視点位置変更画像生成部14で生成された俯瞰画像上の障害物領域および危険領域にマーキング画像の重畳を行う。
<Superimposition information image generation unit 15>
The superimposition information image generation unit 15 superimposes the marking image on the obstacle region and the dangerous region on the overhead image generated by the viewpoint position change image generation unit 14.

これは、俯瞰画像上の対象領域にレイヤー画像を重畳して色付けを行う処理であり、運転者が車内モニターを見て判りやすいようにマーキングを行う処理である。   This is a process of performing coloration by superimposing a layer image on a target area on the bird's-eye view image, and is a process of marking so that the driver can easily understand by looking at the in-vehicle monitor.

なお、危険領域等にマーキングを行うのではなく、正確な3次元情報を取得でき、安全に走行できる領域にマーキングを行うようにしても良い。   Instead of marking a dangerous area or the like, marking may be performed on an area where accurate three-dimensional information can be acquired and the vehicle can travel safely.

<視点位置変更画像合成部16>
視点位置変更画像合成部16では、重畳情報画像生成部15で生成されたマーキング済みの俯瞰画像を含めて、各ステレオカメラで得られた画像を視点位置変更して得られた俯瞰画像を合成して、車両VC周辺の俯瞰画像を取得する。
<Viewpoint position change image composition unit 16>
The viewpoint position change image composition unit 16 synthesizes the bird's-eye view image obtained by changing the viewpoint position of the image obtained by each stereo camera, including the marked overhead view image generated by the superimposition information image generation unit 15. Thus, an overhead image around the vehicle VC is acquired.

<表示部20>
表示部20は車内モニターに相当し、画像処理装置10から出力される処理済みの画像データを表示するが、危険領域が多い場合は、警告音や音声ガイダンス等で、運転者の注意を喚起しやすい方法で警告を行うようにしても良い。
<Display unit 20>
The display unit 20 corresponds to an in-vehicle monitor and displays processed image data output from the image processing device 10, but if there are many dangerous areas, the driver's attention is alerted with a warning sound or voice guidance. A warning may be given in an easy way.

<変形例>
以上説明した周辺表示装置100においては、自車両の前方画像を例に採って説明したが、ステレオカメラSC1〜SC8の何れで撮影された画像についても、障害物領域および危険領域の検出をすることは可能であり、例えば、車庫入れや、幅寄せの際には後方および側方のステレオカメラで撮影された画像について同様の処理を行えば良い。
<Modification>
In the peripheral display device 100 described above, the front image of the host vehicle has been described as an example. However, the obstacle region and the dangerous region can be detected for any image captured by any of the stereo cameras SC1 to SC8. For example, in the case of garage entry or width adjustment, the same processing may be performed on images taken by the rear and side stereo cameras.

SC1〜SC8 ステレオカメラ
OR 障害物領域
DR 危険領域
OB 障害物
VC 車両
SC1 to SC8 Stereo camera OR Obstacle area DR Hazardous area OB Obstacle VC Vehicle

Claims (9)

自走可能な移動体における周辺の画像データを取得する画像取得部と、
前記画像データに基づいて3次元情報を計測する3次元情報計測部と、
前記画像データの視点位置を、前記移動体の上方から俯瞰する位置に変更した視点位置変更画像を作成する視点位置変更画像生成部と、
前記3次元情報に基づいて、前記視点位置変更画像上の障害物のある領域と推定される障害物領域を特定するとともに、前記障害物領域の周辺で前記3次元情報を取得不能な領域を危険領域として判定する危険領域判定部と、を備え、
前記危険領域判定部での判定結果を受け、前記障害物領域および前記危険領域が存在する場合には警告を与える、周辺表示装置。
An image acquisition unit for acquiring peripheral image data in a self-propelled movable body;
A three-dimensional information measuring unit that measures three-dimensional information based on the image data;
A viewpoint position change image generation unit that creates a viewpoint position change image in which the viewpoint position of the image data is changed to a position overlooking the moving body;
Based on the three-dimensional information, an obstacle area estimated as an obstacle area on the viewpoint position change image is specified, and an area where the three-dimensional information cannot be obtained around the obstacle area is dangerous. A dangerous area determination unit for determining as an area,
A peripheral display device that receives a determination result from the dangerous area determination unit and gives a warning when the obstacle area and the dangerous area exist.
前記画像データは、ステレオカメラによって取得され、
前記画像取得部は、
前記ステレオカメラで得られた2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の各点の3次元位置を算出することで3次元情報を取得し、
前記危険領域判定部は、
前記3次元情報に含まれる視差情報と、予め保持している路面の画像についての視差情報をテーブル化した視差テーブルとを比較することで、前記障害物領域を特定し、前記障害物領域の背後の、前記3次元情報を取得不能で視差を計測不可能な領域を前記危険領域として判定する、請求項1記載の周辺表示装置。
The image data is acquired by a stereo camera,
The image acquisition unit
3D information is obtained by associating the feature points of the two images obtained by the stereo camera with each other and calculating the 3D position of each point on the image from the parallax obtained as a result,
The dangerous area determination unit
The obstacle region is identified by comparing the disparity information included in the three-dimensional information with a disparity table in which the disparity information about the road surface image stored in advance is tabulated, and behind the obstacle region The peripheral display device according to claim 1, wherein an area where the three-dimensional information cannot be acquired and parallax cannot be measured is determined as the dangerous area.
前記視差テーブルは、前記路面の画像を更新することで随時更新される、請求項2記載の周辺表示装置。   The peripheral display device according to claim 2, wherein the parallax table is updated as needed by updating an image of the road surface. 前記危険領域判定部は、
前記3次元情報に基づいて得られる3次元空間上の計測点を路面と想定される平面にマッピングした場合に、前記計測点が疎らな領域を前記危険領域として判定し、前記危険領域の近傍であって前記計測点が密集する領域を前記障害物領域として判定する、請求項1記載の周辺表示装置。
The dangerous area determination unit
When a measurement point on a three-dimensional space obtained based on the three-dimensional information is mapped to a plane assumed to be a road surface, an area in which the measurement point is sparse is determined as the danger area, and in the vicinity of the danger area The peripheral display device according to claim 1, wherein an area where the measurement points are dense is determined as the obstacle area.
前記危険領域判定部は、
予め取得した前記路面の画像についての前記計測点のマッピングの分布状態との比較により前記計測点の粗密を判定する、請求項4記載の周辺表示装置。
The dangerous area determination unit
The peripheral display device according to claim 4, wherein the density of the measurement points is determined by comparison with a distribution state of the mapping of the measurement points for the road surface image acquired in advance.
自走可能な移動体における周辺の画像データを取得する画像取得部と、
前記画像データに基づいて3次元情報を計測する3次元情報計測部と、
前記画像データの視点位置を、前記移動体の上方から俯瞰する位置に変更した視点位置変更画像を作成する視点位置変更画像生成部と、
前記画像データに基づいて障害物を特定するとともに、前記視点位置変更画像における前記障害物の位置に基づいて危険領域を判定する危険領域判定部と、を備え、
前記危険領域判定部での判定結果を受け、前記障害物領域および前記危険領域が存在する場合には警告を与える、周辺表示装置。
An image acquisition unit for acquiring peripheral image data in a self-propelled movable body;
A three-dimensional information measuring unit that measures three-dimensional information based on the image data;
A viewpoint position change image generation unit that creates a viewpoint position change image in which the viewpoint position of the image data is changed to a position overlooking the moving body;
A hazard area determination unit that identifies an obstacle based on the image data and determines a danger area based on the position of the obstacle in the viewpoint position change image,
A peripheral display device that receives a determination result from the dangerous area determination unit and gives a warning when the obstacle area and the dangerous area exist.
前記危険領域判定部は、
前記視点位置変更画像における前記障害物の存在する位置でのオクルージョン領域を前記障害物領域として判定する、請求項6記載の周辺表示装置。
The dangerous area determination unit
The peripheral display device according to claim 6, wherein an occlusion area at a position where the obstacle exists in the viewpoint position change image is determined as the obstacle area.
前記オクルージョン領域は、前記画像データを取得したカメラの画角と前記障害物の位置との関係に基づいて定められる、請求項7記載の周辺表示装置。   The peripheral display device according to claim 7, wherein the occlusion area is determined based on a relationship between an angle of view of a camera that has acquired the image data and a position of the obstacle. 前記危険領域判定部での判定結果に基づいて、前記視点位置変更画像上の前記危険領域にマーキング画像を重畳する重畳情報画像生成部を備える、請求項1または請求項6記載の周辺表示装置。   The peripheral display device according to claim 1, further comprising a superimposition information image generation unit that superimposes a marking image on the dangerous region on the viewpoint position change image based on a determination result in the dangerous region determination unit.
JP2009140114A 2009-06-11 2009-06-11 Periphery display device Pending JP2010287029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009140114A JP2010287029A (en) 2009-06-11 2009-06-11 Periphery display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009140114A JP2010287029A (en) 2009-06-11 2009-06-11 Periphery display device

Publications (1)

Publication Number Publication Date
JP2010287029A true JP2010287029A (en) 2010-12-24

Family

ID=43542680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009140114A Pending JP2010287029A (en) 2009-06-11 2009-06-11 Periphery display device

Country Status (1)

Country Link
JP (1) JP2010287029A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103496339A (en) * 2013-08-26 2014-01-08 江西好帮手电子科技有限公司 Display system for displaying panorama of automobile through 3D and implement method thereof
CN105074600A (en) * 2013-02-27 2015-11-18 夏普株式会社 Surrounding environment recognition device, autonomous mobile system using same, and surrounding environment recognition method
DE102014108684A1 (en) * 2014-06-20 2015-12-24 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Vehicle with environment monitoring device and method for operating such a monitoring device
JP2017162436A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image processing method, image processing apparatus, and program
WO2018012299A1 (en) * 2016-07-13 2018-01-18 ソニー株式会社 Image generation device, image generation method, and program
CN108957748A (en) * 2012-07-10 2018-12-07 三星电子株式会社 For showing the transparent display device and its method of the information of dangerous element
JP2019213039A (en) * 2018-06-04 2019-12-12 国立大学法人 東京大学 Overlooking video presentation system
JP2021015558A (en) * 2019-07-16 2021-02-12 アルパイン株式会社 Three-dimensional data analytical device and three-dimensional data analytical method
KR102235949B1 (en) * 2020-03-24 2021-04-06 (주)에이스캠엔지니어링 Viewer for Vehicle and Car Controlling System Using the Same
CN115244594A (en) * 2020-03-24 2022-10-25 三菱电机株式会社 Information processing apparatus, information processing method, and computer program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector
JP2003269937A (en) * 2002-03-15 2003-09-25 Sony Corp Obstruction recognition device, obstruction recognition method, obstruction recognition program and mobile robot device
JP2005346381A (en) * 2004-06-02 2005-12-15 Calsonic Kansei Corp Apparatus and method for recognizing solid object
JP2006333009A (en) * 2005-05-25 2006-12-07 Nissan Motor Co Ltd Overlooking picture display and overlooking picture displaying method
JP2007309799A (en) * 2006-05-18 2007-11-29 Matsushita Electric Ind Co Ltd On-board distance measuring apparatus
JP2008102620A (en) * 2006-10-17 2008-05-01 Toyota Motor Corp Image processing device
JP2009086882A (en) * 2007-09-28 2009-04-23 Konica Minolta Holdings Inc Object detector

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector
JP2003269937A (en) * 2002-03-15 2003-09-25 Sony Corp Obstruction recognition device, obstruction recognition method, obstruction recognition program and mobile robot device
JP2005346381A (en) * 2004-06-02 2005-12-15 Calsonic Kansei Corp Apparatus and method for recognizing solid object
JP2006333009A (en) * 2005-05-25 2006-12-07 Nissan Motor Co Ltd Overlooking picture display and overlooking picture displaying method
JP2007309799A (en) * 2006-05-18 2007-11-29 Matsushita Electric Ind Co Ltd On-board distance measuring apparatus
JP2008102620A (en) * 2006-10-17 2008-05-01 Toyota Motor Corp Image processing device
JP2009086882A (en) * 2007-09-28 2009-04-23 Konica Minolta Holdings Inc Object detector

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108957748A (en) * 2012-07-10 2018-12-07 三星电子株式会社 For showing the transparent display device and its method of the information of dangerous element
CN105074600A (en) * 2013-02-27 2015-11-18 夏普株式会社 Surrounding environment recognition device, autonomous mobile system using same, and surrounding environment recognition method
US9411338B2 (en) 2013-02-27 2016-08-09 Sharp Kabushiki Kaisha Surrounding environment recognition device, autonomous mobile system using same, and surrounding environment recognition method
CN105074600B (en) * 2013-02-27 2017-09-19 夏普株式会社 Surrounding environment identifying device, the autonomous system using it and surrounding environment recognition methods
CN103496339A (en) * 2013-08-26 2014-01-08 江西好帮手电子科技有限公司 Display system for displaying panorama of automobile through 3D and implement method thereof
US10710506B2 (en) 2014-06-20 2020-07-14 Knorr-Bremse Systeme Fuer Nutzfahrzeuge Gmbh Vehicle with surroundings-monitoring device and method for operating such a monitoring device
DE102014108684A1 (en) * 2014-06-20 2015-12-24 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Vehicle with environment monitoring device and method for operating such a monitoring device
DE102014108684B4 (en) 2014-06-20 2024-02-22 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Vehicle with an environmental monitoring device and method for operating such a monitoring device
EP3157786B1 (en) 2014-06-20 2019-03-06 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Vehicle with surroundings-monitoring device and method for operating such a monitoring device
JP2017162436A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image processing method, image processing apparatus, and program
US10857942B2 (en) 2016-07-13 2020-12-08 Sony Corporation Image generating device, image generating method, and program
WO2018012299A1 (en) * 2016-07-13 2018-01-18 ソニー株式会社 Image generation device, image generation method, and program
JP2019213039A (en) * 2018-06-04 2019-12-12 国立大学法人 東京大学 Overlooking video presentation system
JP7138856B2 (en) 2018-06-04 2022-09-20 国立大学法人 東京大学 Bird's eye view presentation system
JP2021015558A (en) * 2019-07-16 2021-02-12 アルパイン株式会社 Three-dimensional data analytical device and three-dimensional data analytical method
JP7301474B2 (en) 2019-07-16 2023-07-03 アルパイン株式会社 3D data analysis device and 3D data analysis method
KR102235949B1 (en) * 2020-03-24 2021-04-06 (주)에이스캠엔지니어링 Viewer for Vehicle and Car Controlling System Using the Same
CN115244594A (en) * 2020-03-24 2022-10-25 三菱电机株式会社 Information processing apparatus, information processing method, and computer program
CN115244594B (en) * 2020-03-24 2023-10-31 三菱电机株式会社 Information processing apparatus and information processing method

Similar Documents

Publication Publication Date Title
JP2010287029A (en) Periphery display device
KR101911610B1 (en) Method and device for the distortion-free display of an area surrounding a vehicle
JP6474905B2 (en) Remote operation system and operation support system
US9862316B2 (en) Method and device for visualizing the surroundings of a vehicle
JP6079131B2 (en) Image processing apparatus, method, and program
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6171593B2 (en) Object tracking method and system from parallax map
JP6392693B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, and program
JP2009017462A (en) Driving support system and vehicle
JP5299296B2 (en) Vehicle periphery image display device and vehicle periphery image display method
US20210004614A1 (en) Surround View System Having an Adapted Projection Surface
JP2010016805A (en) Image processing apparatus, driving support system, and image processing method
KR20170118077A (en) Method and device for the distortion-free display of an area surrounding a vehicle
JP4626400B2 (en) Overhead image display device and overhead image display method
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
JP5299101B2 (en) Peripheral display device
JP2014165810A (en) Parameter acquisition device, parameter acquisition method and program
US20200286290A1 (en) Method for displaying object on three-dimensional model
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
TW201605247A (en) Image processing system and method
JP2008309637A (en) Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system
KR101868549B1 (en) Method of generating around view and apparatus performing the same
JP5271186B2 (en) Image display device for vehicle
JP2003346189A (en) Image display device for vehicle
WO2012131862A1 (en) Image-processing device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130124

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130618