JP5299101B2 - Peripheral display device - Google Patents

Peripheral display device Download PDF

Info

Publication number
JP5299101B2
JP5299101B2 JP2009140105A JP2009140105A JP5299101B2 JP 5299101 B2 JP5299101 B2 JP 5299101B2 JP 2009140105 A JP2009140105 A JP 2009140105A JP 2009140105 A JP2009140105 A JP 2009140105A JP 5299101 B2 JP5299101 B2 JP 5299101B2
Authority
JP
Japan
Prior art keywords
image data
dimensional
data
calculation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009140105A
Other languages
Japanese (ja)
Other versions
JP2010288060A (en
Inventor
伸一 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2009140105A priority Critical patent/JP5299101B2/en
Publication of JP2010288060A publication Critical patent/JP2010288060A/en
Application granted granted Critical
Publication of JP5299101B2 publication Critical patent/JP5299101B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a circumference display device capable of reducing calculation costs when bird's-eye view images around a self-propelled mobile object such as a vehicle are acquired. <P>SOLUTION: The circumference display device is provided with: a three-dimensionalization calculation part 11 which calculates three-dimensional image data; a coordinate conversion part 12 which converts three-dimensional image data expressed in a stereo camera coordinate system into three-dimensional image data expressed in a vehicle coordinate system by adapting a three-dimensional conversion matrix expressing a position of a stereo camera in the vehicle coordinate system to the three-dimensional image data calculated by the three-dimensionalization calculation part 11; an integration part 5 which integrates the three-dimensional image data expressed in the vehicle coordinate system with data of a three-dimensional model of a self-vehicle stored in a storage part 7 to generate three-dimensional image data; and an image generation part 6 which generates the three-dimensional image data generated by the integration part 5 into bird's-eye view image data observed by a camera arranged at a virtual position. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は周辺表示装置に関し、特に、自走可能な移動体の周辺状況を俯瞰的に表示する周辺表示装置に関する。   The present invention relates to a peripheral display device, and more particularly, to a peripheral display device that displays a bird's-eye view of a surrounding state of a mobile object capable of self-running.

複数の撮像手段によって車両周辺の2次元画像を個々に撮像し、それぞれの画像を視点変換して路面を投影面とする複数の俯瞰画像を作成し、当該複数の俯瞰画像を車両周辺に並べるように合成することで、自車両周辺の俯瞰画像を得る種々の技術が開示されている。   Two-dimensional images around the vehicle are individually picked up by a plurality of imaging means, and a plurality of overhead images are created with the road surface as a projection plane by converting each image to a viewpoint, and the plurality of overhead images are arranged around the vehicle. Various techniques for obtaining a bird's-eye view of the vicinity of the host vehicle by combining them are disclosed.

例えば、特許文献1には、リアルタイムに取得した周辺環境の感覚を立体的に使用者に伝える仮想現実システムに関し、時系列に変化した画像の組から3次元測定を行い、箱型の3次元周辺モデルの壁面にテクスチャマッピングして3次元表示する技術を開示している。   For example, Patent Document 1 relates to a virtual reality system that three-dimensionally conveys a sense of the surrounding environment acquired in real time to a user, performs three-dimensional measurement from a set of images that have changed in time series, and has a box-shaped three-dimensional periphery. A technique is disclosed in which texture mapping is performed on a wall surface of a model and three-dimensional display is performed.

特開2004−287808号公報JP 2004-287808 A

車両周辺の画像を3次元的に表示するには、ステレオカメラで取得した2次元画像に基づいて距離情報を含む3次元情報を取得する3次元化計算が必要であり、また、取得した3次元情報に基づいて描画を行う必要があるが、これらの処理には時間を要し、車両に搭載されたシステムで行うには、ハードウエア資源に限界があり、計算コストを無視できないが、特許文献1には、計算コストの低減に関する工夫は開示されていない。   In order to display an image around the vehicle three-dimensionally, a three-dimensional calculation for acquiring three-dimensional information including distance information based on a two-dimensional image acquired by a stereo camera is required. Although it is necessary to perform drawing based on information, these processes take time, and there is a limit to hardware resources to perform with a system mounted on a vehicle, and the calculation cost cannot be ignored. 1 does not disclose a device for reducing the calculation cost.

本発明は上記のような問題点を解消するためになされたもので、自動車などの自走可能な移動体周辺の俯瞰画像を取得する際に計算コストを削減できる周辺表示装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a peripheral display device that can reduce the calculation cost when acquiring an overhead view image of a mobile object such as a car that can be self-propelled. Objective.

本発明に係る周辺表示装置の第1の態様は、自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、前記統合データから俯瞰画像データを生成する画像生成部とを備え、前記3次元化計算部は、前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、前記計算対象制限情報が前記3次元化計算部に与えられ、前記測定点のうち前記3次元位置の算出対象を制限する情報である。 A first aspect of the peripheral display device according to the present invention calculates a first three-dimensional image data based on a plurality of stereo cameras that acquire peripheral image data in a mobile object capable of self-propelling and the image data. A three-dimensional calculation unit and a coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second three-dimensional image data And an integration unit that generates integrated data obtained by integrating the second 3D image data and the data of the 3D model of the moving body, and an image generation unit that generates overhead image data from the integrated data. The three-dimensional calculation unit associates feature points of two images with each other with respect to the image data obtained by each of the plurality of stereo cameras, and determines a measurement point on the image from the parallax obtained as a result. Three-dimensional position Calculation target restriction information for reducing the processing target data in at least one of the three-dimensionalization calculation unit, the coordinate conversion unit, and the integration unit is acquired by calculating the first three-dimensional image data. Yes, and the calculated target restriction information is given to the three-dimensional calculation unit is information to limit the calculation target of the three-dimensional position of the measurement point.

本発明に係る周辺表示装置の第の態様は、前記計算対象制限情報が、前記複数のステレオカメラのそれぞれで得られた2次元画像上で規定される所定の測定領域の情報であって、前記所定の測定領域に含まれる前記測定点のデータについては、前記3次元位置の算出対象としない。 In a second aspect of the peripheral display device according to the present invention, the calculation target restriction information is information on a predetermined measurement area defined on a two-dimensional image obtained by each of the plurality of stereo cameras, The data of the measurement points included in the predetermined measurement area is not subject to calculation of the three-dimensional position.

本発明に係る周辺表示装置の第の態様は、前記所定の測定領域が、前記複数のステレオカメラのそれぞれにおいて互い重複する測定領域に相当する。 In a third aspect of the peripheral display device according to the present invention, the predetermined measurement area corresponds to a measurement area that overlaps each other in each of the plurality of stereo cameras.

本発明に係る周辺表示装置の第の態様は、前記計算対象制限情報が、前記測定点の視差量に対して設定された閾値の情報であって、視差量が前記閾値を超えない前記測定点のデータについては、前記3次元位置の算出対象としない。 In a fourth aspect of the peripheral display device according to the present invention, the calculation target restriction information is information on a threshold value set for the parallax amount at the measurement point, and the parallax amount does not exceed the threshold value. The point data is not subject to calculation of the three-dimensional position.

本発明に係る周辺表示装置の第の態様は、自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、前記統合データから俯瞰画像データを生成する画像生成部とを備え、前記3次元化計算部は、前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、前記計算対象制限情報が、前記3次元化計算部に与えられ、前記複数のステレオカメラのそれぞれで得られた3次元画像上で規定される所定の測定領域の情報であって、前記所定の測定領域に含まれる前記測定点のデータについては、前記3次元位置の算出対象としない。 A fifth aspect of the peripheral display device according to the present invention calculates a first three-dimensional image data based on a plurality of stereo cameras that acquire peripheral image data in a mobile object capable of self-propelling and the image data. A three-dimensional calculation unit and a coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second three-dimensional image data And an integration unit that generates integrated data obtained by integrating the second 3D image data and the data of the 3D model of the moving body, and an image generation unit that generates overhead image data from the integrated data. The three-dimensional calculation unit associates feature points of two images with each other with respect to the image data obtained by each of the plurality of stereo cameras, and determines a measurement point on the image from the parallax obtained as a result. Three-dimensional position Calculation target restriction information for reducing the processing target data in at least one of the three-dimensionalization calculation unit, the coordinate conversion unit, and the integration unit is acquired by calculating the first three-dimensional image data. The calculation target restriction information is given to the three-dimensional calculation unit and is information on a predetermined measurement region defined on a three-dimensional image obtained by each of the plurality of stereo cameras, the data of the measurement points included in the predetermined measurement area, have such a calculation target of the three-dimensional position.

本発明に係る周辺表示装置の第の態様は、自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、前記統合データから俯瞰画像データを生成する画像生成部とを備え、前記3次元化計算部は、前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、前記計算対象制限情報が、前記座標変換部に与えられ、前記第1の3次元画像データのうち、座標変換の対象を削減する情報である。 A sixth aspect of the peripheral display device according to the present invention calculates a first three-dimensional image data based on a plurality of stereo cameras that acquire peripheral image data in a self-propelled movable body and the image data. A three-dimensional calculation unit and a coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second three-dimensional image data And an integration unit that generates integrated data obtained by integrating the second 3D image data and the data of the 3D model of the moving body, and an image generation unit that generates overhead image data from the integrated data. The three-dimensional calculation unit associates feature points of two images with each other with respect to the image data obtained by each of the plurality of stereo cameras, and determines a measurement point on the image from the parallax obtained as a result. Three-dimensional position Calculation target restriction information for reducing the processing target data in at least one of the three-dimensionalization calculation unit, the coordinate conversion unit, and the integration unit is acquired by calculating the first three-dimensional image data. The calculation target restriction information is provided to the coordinate conversion unit, and is information for reducing the target of coordinate conversion in the first three-dimensional image data.

本発明に係る周辺表示装置の第の態様は、前記計算対象制限情報が、前記複数のステレオカメラのそれぞれで得られた3次元画像上で規定される所定の測定領域の情報であって、前記所定の測定領域に含まれる前記測定点のデータについては、前記座標変換の対象としない。 In a seventh aspect of the peripheral display device according to the present invention, the calculation target restriction information is information on a predetermined measurement area defined on a three-dimensional image obtained by each of the plurality of stereo cameras, The data of the measurement points included in the predetermined measurement area is not subject to the coordinate conversion.

本発明に係る周辺表示装置の第の態様は、前記計算対象制限情報が、前記移動体座標系によって表される3次元画像上で規定される所定の測定領域の情報であって、前記所定の測定領域に含まれる前記測定点のデータについては、前記座標変換の対象としない。 In an eighth aspect of the peripheral display device according to the present invention, the calculation target restriction information is information on a predetermined measurement region defined on a three-dimensional image represented by the moving body coordinate system, The measurement point data included in the measurement area is not subject to the coordinate conversion.

本発明に係る周辺表示装置の第の態様は、前記所定の測定領域が、前記複数のステレオカメラのそれぞれから所定距離前方の位置に境界を設定し、該境界と各ステレオカメラの画角とで規定される領域以外の領域に相当する。 In a ninth aspect of the peripheral display device according to the present invention, the predetermined measurement region sets a boundary at a position ahead of each of the plurality of stereo cameras by a predetermined distance, and the boundary and the angle of view of each stereo camera are set. It corresponds to an area other than the area defined by.

本発明に係る周辺表示装置の第10の態様は、自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、前記統合データから俯瞰画像データを生成する画像生成部とを備え、前記3次元化計算部は、前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、前記計算対象制限情報が前記統合部に与えられ、前記統合データのうち、前記画像生成部で前記俯瞰画像データとして生成されるべき領域を限定する情報である。 A tenth aspect of the peripheral display device according to the present invention calculates a first three-dimensional image data based on a plurality of stereo cameras that acquire peripheral image data in a mobile object capable of traveling, and the image data. A three-dimensional calculation unit and a coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second three-dimensional image data And an integration unit that generates integrated data obtained by integrating the second 3D image data and the data of the 3D model of the moving body, and an image generation unit that generates overhead image data from the integrated data. The three-dimensional calculation unit associates feature points of two images with each other with respect to the image data obtained by each of the plurality of stereo cameras, and determines a measurement point on the image from the parallax obtained as a result. Three-dimensional Calculation target restriction information for acquiring the first three-dimensional image data by calculating a position and reducing processing target data in at least one of the three-dimensional calculation unit, the coordinate conversion unit, and the integration unit The calculation target restriction information is provided to the integration unit, and the information that limits the region to be generated as the overhead image data by the image generation unit in the integrated data.

本発明に係る周辺表示装置の第11の態様は、前記計算対象制限情報が、前記移動体座標系によって表される3次元画像上で規定される所定の測定領域の情報であって、前記所定の測定領域に含まれる前記測定点のデータについては破棄される。 In an eleventh aspect of the peripheral display device according to the present invention, the calculation target restriction information is information on a predetermined measurement area defined on a three-dimensional image represented by the moving body coordinate system, The measurement point data included in the measurement area is discarded.

本発明に係る周辺表示装置の第12の態様は、前記複数のステレオカメラで取得された前記画像データに基づいて、各ステレオカメラで撮影された画像が正常な状態で撮影された画像であるか、異常な状態で撮影された画像であるかを判定する異常検知部をさらに備え、前記異常検知部で異常と判定された画像については、前記画像データを破棄する。 In a twelfth aspect of the peripheral display device according to the present invention, is the image taken by each stereo camera based on the image data obtained by the plurality of stereo cameras being an image taken in a normal state? The image forming apparatus further includes an abnormality detection unit that determines whether the image is captured in an abnormal state, and discards the image data for an image determined to be abnormal by the abnormality detection unit.

本発明に係る周辺表示装置の第13の態様は、前記異常検知部が、前記複数のステレオカメラで取得された前記画像データについて、画素値が所定値以上の画素の個数をカウントし、予め定めた閾値以上の画素数がカウントされる場合は、該画像データを異常と判定する。 In a thirteenth aspect of the peripheral display device according to the present invention, the abnormality detection unit counts the number of pixels having a pixel value equal to or larger than a predetermined value for the image data acquired by the plurality of stereo cameras, and determines in advance. When the number of pixels equal to or greater than the threshold value is counted, the image data is determined to be abnormal.

本発明に係る周辺表示装置の第1の態様によれば、3次元化計算部、座標変換部および統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有するので、移動体周辺の俯瞰画像を取得する際の計算コストを削減できる。また、計算対象制限情報に基づいて、3次元化計算部において、測定点のうち3次元位置の算出対象を制限するので、3次元化計算の対象データを削減し、計算コストを軽減することができる。 According to the first aspect of the peripheral display device of the present invention, since the calculation target restriction information for reducing the processing target data in at least one of the three-dimensional calculation unit, the coordinate conversion unit, and the integration unit is included, the movement The calculation cost when acquiring a bird's-eye view image around the body can be reduced. Further, since the calculation target of the three-dimensional position among the measurement points is limited in the three-dimensional calculation unit based on the calculation target restriction information, it is possible to reduce the target data of the three-dimensional calculation and reduce the calculation cost. it can.

本発明に係る周辺表示装置の第の態様によれば、計算対象制限情報が、複数のステレオカメラのそれぞれで得られた2次元画像上で規定される所定の測定領域の情報であるので、例えば各ステレオカメラの画角に基づいて一義的に制限領域を設定することも可能であり、制限領域の設定を比較的容易に行うことができる。 According to the second aspect of the peripheral display device according to the present invention, the calculation target restriction information is information on a predetermined measurement region defined on a two-dimensional image obtained by each of a plurality of stereo cameras. For example, it is possible to uniquely set the limited area based on the angle of view of each stereo camera, and the limited area can be set relatively easily.

本発明に係る周辺表示装置の第の態様によれば、複数のステレオカメラのそれぞれにおいて互い重複する測定領域を制限領域とするので、より実際的な設定が可能となる。 According to the third aspect of the peripheral display device according to the present invention, since the measurement areas that overlap each other in each of the plurality of stereo cameras are set as the restriction areas, more practical settings are possible.

本発明に係る周辺表示装置の第の態様によれば、視差量が閾値を超えない測定点のデータについては、3次元位置の算出対象としないので、移動体の運転時に把握する必要のある測定点についてはデータを残しながらも、計算対象のデータを削減して、計算コストを低減することが可能となる。 According to the fourth aspect of the peripheral display device according to the present invention, the data of the measurement point whose parallax amount does not exceed the threshold value is not subject to calculation of the three-dimensional position, and therefore needs to be grasped when the moving body is in operation. It is possible to reduce the calculation cost by reducing the data to be calculated while leaving the data for the measurement points.

本発明に係る周辺表示装置の第の態様によれば、所定の測定領域に含まれる測定点のデータについては、3次元位置の算出より後の処理対象データとしないので、その分の計算コストを低減することができる。 According to the fifth aspect of the peripheral display device of the present invention, the measurement point data included in the predetermined measurement region is not the processing target data after the calculation of the three-dimensional position. Can be reduced.

本発明に係る周辺表示装置の第の態様によれば、計算対象制限情報に基づいて、座標変換部において座標変換の対象を削減するので、座標変換の対象データを削減し、計算コストを軽減することができる。 According to the sixth aspect of the peripheral display device of the present invention, since the coordinate conversion target is reduced in the coordinate conversion unit based on the calculation target restriction information, the coordinate conversion target data is reduced, and the calculation cost is reduced. can do.

本発明に係る周辺表示装置の第の態様によれば、所定の測定領域に含まれる測定点のデータについては座標変換の対象としないので、座標変換に伴う計算コストを軽減することができる。 According to the seventh aspect of the peripheral display device of the present invention, the measurement point data included in the predetermined measurement region is not subject to coordinate conversion, and therefore the calculation cost associated with coordinate conversion can be reduced.

本発明に係る周辺表示装置の第の態様によれば、移動体座標系によって表される3次元画像上で規定される所定の測定領域に含まれる前記測定点のデータについては、座標変換の対象としないので、座標変換に伴う計算コストを軽減することができる。 According to the eighth aspect of the peripheral display device of the present invention, the data of the measurement point included in the predetermined measurement area defined on the three-dimensional image represented by the moving object coordinate system is subjected to coordinate conversion. Since it is not a target, the calculation cost associated with coordinate transformation can be reduced.

本発明に係る周辺表示装置の第の態様によれば、所定の測定領域を一義的に設定することが可能である。 According to the ninth aspect of the peripheral display device of the present invention, it is possible to uniquely set a predetermined measurement region.

本発明に係る周辺表示装置の第10の態様によれば、計算対象制限情報に基づいて、統合部において、統合データのうち、画像生成部で俯瞰画像データとして生成されるべき領域を限定するので、3次元描画に伴う計算コストを軽減することができる。 According to the tenth aspect of the peripheral display device of the present invention, based on the calculation target restriction information, the integration unit limits a region that should be generated as overhead image data by the image generation unit in the integration data. Calculation costs associated with three-dimensional drawing can be reduced.

本発明に係る周辺表示装置の第11の態様によれば、移動体座標系によって表される3次元画像上で規定される所定の測定領域に含まれる測定点のデータについては破棄されるので、3次元描画に伴う計算コストを軽減することができる。 According to the eleventh aspect of the peripheral display device according to the present invention, the data of the measurement points included in the predetermined measurement region defined on the three-dimensional image represented by the moving body coordinate system is discarded. Calculation costs associated with three-dimensional drawing can be reduced.

本発明に係る周辺表示装置の第12の態様によれば、異常検知部で異常と判定された画像については画像データを破棄するので、異常な画像データについてまで3次元化計算等の処理を施すことが防止されるので、計算コストを軽減することができる。 According to the twelfth aspect of the peripheral display device of the present invention, the image data is discarded for the image determined to be abnormal by the abnormality detection unit, and therefore processing such as three-dimensional calculation is performed for the abnormal image data. Therefore, the calculation cost can be reduced.

本発明に係る周辺表示装置の第13の態様によれば、異常検知部が、複数のステレオカメラで取得された画像データについて、画素値が所定値以上の画素の個数をカウントし、予め定めた閾値以上の画素数がカウントされる場合は、該画像データを異常と判定するので、飽和画素が極端に多くなるような異常状態に対応することができる。
According to the thirteenth aspect of the peripheral display device according to the present invention, the abnormality detection unit counts the number of pixels having a pixel value equal to or greater than a predetermined value for image data acquired by a plurality of stereo cameras, and determines the predetermined value. When the number of pixels equal to or greater than the threshold value is counted, the image data is determined to be abnormal, so that it is possible to cope with an abnormal state in which the number of saturated pixels is extremely large.

ステレオカメラの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a stereo camera. 本発明に係る周辺表示装置の実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of embodiment of the peripheral display apparatus which concerns on this invention. ステレオカメラの測定領域の重複を模式的に示す図である。It is a figure which shows typically the duplication of the measurement area | region of a stereo camera. 計算対象制限領域の例を模式的に示す図である。It is a figure which shows the example of a calculation object restriction | limiting area | region typically. 計算対象制限領域の例を模式的に示す図である。It is a figure which shows the example of a calculation object restriction | limiting area | region typically. 計算対象制限領域の例を模式的に示す図である。It is a figure which shows the example of a calculation object restriction | limiting area | region typically. 計算対象制限領域の例を模式的に示す図である。It is a figure which shows the example of a calculation object restriction | limiting area | region typically. 統合部における計算対象制限領域の例を模式的に示す図である。It is a figure which shows typically the example of the calculation object restriction | limiting area | region in an integration part. 本発明に係る周辺表示装置の実施の形態の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of embodiment of the peripheral display apparatus which concerns on this invention. ステレオカメラ座標系の3次元画像データに対応する計算対象制限領域を示す図である。It is a figure which shows the calculation object restriction | limiting area | region corresponding to the three-dimensional image data of a stereo camera coordinate system. 視差の特性を模式的に示す図である。It is a figure which shows the characteristic of parallax typically. 本発明に係る周辺表示装置の実施の形態の変形例の構成を示すブロック図である。It is a block diagram which shows the structure of the modification of embodiment of the periphery display apparatus which concerns on this invention. 本発明に係る周辺表示装置の実施の形態の変形例の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the modification of embodiment of the periphery display apparatus which concerns on this invention. ステレオカメラの他の配置例を示す図である。It is a figure which shows the other example of arrangement | positioning of a stereo camera.

<実施の形態>
<装置構成>
図1は、本発明に係る周辺表示装置を搭載した車両VCにおけるステレオカメラの配置例を示す図である。
<Embodiment>
<Device configuration>
FIG. 1 is a diagram showing an arrangement example of stereo cameras in a vehicle VC equipped with a peripheral display device according to the present invention.

図1において、車両VCには、前方、左右および後方の画像を取得する4台のステレオカメラが搭載されている。すなわち、前方の画像を取得するステレオカメラSC1、前方に対して右側の画像を取得するステレオカメラSC2、後方の画像を取得するステレオカメラSC3および前方に対して左側の画像を取得するステレオカメラSC4を備えている。   In FIG. 1, a vehicle VC is equipped with four stereo cameras that acquire front, left, and right images. That is, a stereo camera SC1 that acquires a front image, a stereo camera SC2 that acquires a right image with respect to the front, a stereo camera SC3 that acquires a rear image, and a stereo camera SC4 that acquires a left image with respect to the front. I have.

このようなシステムを用いることで、自車両の周辺の画像データを取得し、それを視点を変えて自車両の所定の方向から見た俯瞰図に変更することが可能となるが、以下の説明では、ステレオカメラSC1およびSC4で取得した画像を使用する場合を例に採って説明する。   By using such a system, it is possible to acquire image data around the host vehicle and change it to an overhead view seen from a predetermined direction of the host vehicle by changing the viewpoint. Now, a case where images acquired by the stereo cameras SC1 and SC4 are used will be described as an example.

なお、各カメラの実際の配置位置は車種によって異なるが、例えば、ステレオカメラSC1はルームミラーの位置に配置され、ステレオカメラSC2およびSC4は、それぞれ、右および左のサイドミラーの位置に配置され、ステレオカメラSC3は、リヤバンパーの位置などに配置される。なお、上記配置は一例であり、ステレオカメラの配置はこれに限定されるものではない。   The actual arrangement position of each camera differs depending on the vehicle type. For example, the stereo camera SC1 is arranged at the position of the room mirror, and the stereo cameras SC2 and SC4 are arranged at the positions of the right and left side mirrors, respectively. Stereo camera SC3 is arranged at the position of the rear bumper. The above arrangement is an example, and the arrangement of the stereo camera is not limited to this.

図2は、本発明に係る周辺表示装置100の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1〜SC4と、ステレオカメラSC1〜SC4で得られた画像データの画像処理を行う表示画像生成部80と、表示画像生成部100から出力される処理済みの画像データを表示する画像表示部90とを主たる構成として備えている。   FIG. 2 is a block diagram showing the configuration of the peripheral display device 100 according to the present invention. As shown in FIG. 2, the peripheral display device 100 is output from the stereo cameras SC <b> 1 to SC <b> 4, a display image generation unit 80 that performs image processing of image data obtained by the stereo cameras SC <b> 1 to SC <b> 4, and the display image generation unit 100. And an image display unit 90 for displaying processed image data.

表示画像生成部80は、ステレオカメラSC1〜SC4でそれぞれ得られた2次元画像データに基づいて、3次元画像データを算出する3次元化計算部11、21、31および41と、3次元化計算部11、21、31および41のそれぞれで計算された3次元画像データ(第1の3次元画像データ)に、自動車座標系(移動体座標系)内でのステレオカメラの位置を表現する3次元変換行列を適用することで、ステレオカメラ座標系で表現された3次元画像データを自動車座標系で表現された3次元画像データ(第2の3次元画像データ)に変換する座標変換部12、22、32および42と、座標変換部12、22、32および42から出力された自動車座標系で表現された3次元画像データと、記憶部7に格納された自車両の3次元モデルのデータとを統合して、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された各3次元画像データを並べるように統合して測定空間の3次元画像データ(統合データ)を生成する統合部5と、統合部5で生成された3次元画像データを、仮想位置に配置したカメラで観測した俯瞰画像データに生成する画像生成部6とを備えている。   The display image generation unit 80 includes three-dimensional calculation units 11, 21, 31, and 41 that calculate three-dimensional image data based on the two-dimensional image data obtained by the stereo cameras SC1 to SC4, and three-dimensional calculation. 3D expressing the position of the stereo camera in the vehicle coordinate system (moving body coordinate system) in the 3D image data (first 3D image data) calculated by each of the units 11, 21, 31 and 41 By applying the transformation matrix, the coordinate transformation units 12 and 22 that transform the three-dimensional image data expressed in the stereo camera coordinate system into the three-dimensional image data (second three-dimensional image data) expressed in the car coordinate system. , 32 and 42, three-dimensional image data expressed in the automobile coordinate system output from the coordinate conversion units 12, 22, 32 and 42, and the three-dimensional model of the host vehicle stored in the storage unit 7. 3D image data in the measurement space (integrated) with the vehicle as the origin of the vehicle coordinate system and the 3D image data expressed in the vehicle coordinate system arranged around the vehicle coordinate system. Data) and an image generation unit 6 that generates the three-dimensional image data generated by the integration unit 5 as overhead image data observed by a camera arranged at a virtual position.

ステレオカメラSC1〜SC4は、何れも2台のカメラで異なる視点から同時に撮影を行い、3次元化計算部11、21、31および41のそれぞれでは、三角測量の原理に基づいて、対応するステレオカメラで得られた2つの画像の特徴点を相互に対応付けし(対応点探査)、その結果得られた視差、焦点距離、基線長などのパラメータから、各対応点の組についての3次元位置を求めることで3次元画像データを算出する。   The stereo cameras SC1 to SC4 are both taken simultaneously from different viewpoints by the two cameras, and each of the three-dimensional calculation units 11, 21, 31 and 41 corresponds to the corresponding stereo camera based on the principle of triangulation. The feature points of the two images obtained in step 1 are associated with each other (corresponding point search), and the three-dimensional position for each pair of corresponding points is obtained from parameters such as parallax, focal length, and baseline length obtained as a result. The three-dimensional image data is calculated by obtaining.

3次元化計算部11、21、31および41では、3次元画像データの算出に際して、3次元化計算の対象データを削減するために、予め設定された計算対象制限領域に位置するデータについては3次元化計算の対象としないという措置を採る。   In the three-dimensional calculation units 11, 21, 31, and 41, in calculating three-dimensional image data, in order to reduce the target data of the three-dimensional calculation, the data located in the preset calculation target restriction area is set to three. Take measures not to be subject to dimensional calculation.

すなわち、図1に示されるように搭載されたステレオカメラSC1〜SC4は、測定漏れを防止するために、各ステレオカメラの測定領域を互いにある程度重複させるように配置されている。   That is, the stereo cameras SC1 to SC4 mounted as shown in FIG. 1 are arranged so that the measurement areas of the stereo cameras overlap each other to some extent in order to prevent measurement omission.

図3は、ステレオカメラSC1およびSC4の測定領域の重複を模式的に示す図であり、ステレオカメラSC1の画角で決まる測定領域R1と、ステレオカメラSC4の画角で決まる測定領域R4とは、自車両VCの左斜め前方において互いに重複している。この重複領域DRの3次元画像データは冗長なデータを含むことになる。   FIG. 3 is a diagram schematically showing the overlap of the measurement areas of the stereo cameras SC1 and SC4. The measurement area R1 determined by the angle of view of the stereo camera SC1 and the measurement area R4 determined by the angle of view of the stereo camera SC4 are: They overlap each other in the diagonally left front of the host vehicle VC. The three-dimensional image data in the overlapping area DR includes redundant data.

そこで、各ステレオカメラごとに、この重複領域DRに対応する画像上での領域を計算対象制限領域として予め設定しておき、3次元化計算に際しては、この計算対象制限領域内にある測定データに対しては3次元化計算を行わないという処理を行うことで、3次元化計算の対象データを削減し、計算コストを軽減する。   Therefore, for each stereo camera, a region on the image corresponding to the overlapping region DR is set in advance as a calculation target restriction region, and in the three-dimensional calculation, measurement data in the calculation target restriction region is used. On the other hand, by performing the process of not performing the three-dimensional calculation, the target data of the three-dimensional calculation is reduced, and the calculation cost is reduced.

このため、図2に示されるように、3次元化計算部11、21、31および41のそれぞれには、計算対象制限領域の情報(制限情報)を格納した記憶部13、23、33および43から、制限情報が与えられる構成となっている。なお、便宜的に、記憶部13、23、33および43のそれぞれに格納される制限情報を、制限情報1、制限情報2、制限情報3および制限情報4と呼称する。   Therefore, as shown in FIG. 2, each of the three-dimensional calculation units 11, 21, 31 and 41 has storage units 13, 23, 33 and 43 each storing information (limitation information) on the calculation target restriction region. Therefore, the restriction information is given. For convenience, the restriction information stored in each of the storage units 13, 23, 33, and 43 is referred to as restriction information 1, restriction information 2, restriction information 3, and restriction information 4.

なお、図2においては記憶部13、23、33および43を互いに独立した構成として示しているが、これらはそれぞれROM(Read Only Memory)やハードディスク記憶装置の記憶領域の1つによって構成されていても良い。   In FIG. 2, the storage units 13, 23, 33, and 43 are shown as being independent from each other, but each of them is constituted by a ROM (Read Only Memory) or one of storage areas of a hard disk storage device. Also good.

ここで、計算対象制限領域の例について図4〜図8を用いて説明する。なお、以下においては、図3に示すステレオカメラSC1およびSC4のそれぞれの測定領域R1およびR4を例に採って説明するものとし、車両OVが撮影されているものとする。   Here, an example of the calculation target restricted area will be described with reference to FIGS. In the following description, the measurement areas R1 and R4 of the stereo cameras SC1 and SC4 shown in FIG. 3 will be described as an example, and the vehicle OV is taken.

まず、第1の例について図4および図5を用いて説明する。図4はステレオカメラSC1によって撮影された画像を示し、図5はステレオカメラSC4によって撮影された画像を示している。   First, a first example will be described with reference to FIGS. 4 and 5. 4 shows an image taken by the stereo camera SC1, and FIG. 5 shows an image taken by the stereo camera SC4.

図3に示されるように、車両OVは、自車両VCの前方にあって、測定領域R1およびR4の重複領域DRにその一部が含まれるように位置しており、図4においては全体が写っているが、図5においてその一部のみが写っている。   As shown in FIG. 3, the vehicle OV is located in front of the host vehicle VC so that a part of the vehicle OV is included in the overlapping region DR of the measurement regions R1 and R4. Although it is shown, only a part of it is shown in FIG.

図3に示されるような重複領域DRの場合、図5において、向かって右上角部に破線で囲まれて示される3角形の領域が、ステレオカメラSC4から見た重複領域DRに該当することになる。従って、ステレオカメラSC4の測定領域R4のうち、この3角形の領域を計算対象制限領域LMRとして設定し、この領域に含まれる画素データについては、3次元化処理を行わないことで計算コストを低減できる。計算対象制限領域LMR以外の領域については計算対象領域ORとし、この領域に含まれる画素データについては3次元化処理を行う。   In the case of the overlapping region DR as shown in FIG. 3, the triangular region shown by a broken line at the upper right corner in FIG. 5 corresponds to the overlapping region DR viewed from the stereo camera SC4. Become. Therefore, among the measurement region R4 of the stereo camera SC4, this triangular region is set as the calculation target restricted region LMR, and the pixel data included in this region is not subjected to three-dimensional processing, thereby reducing the calculation cost. it can. A region other than the calculation target restricted region LMR is set as a calculation target region OR, and pixel data included in this region is subjected to a three-dimensional process.

なお、図4においては計算対象制限領域LMRは設定されておらず、全領域が計算対象領域ORとなる。重複領域DRは、計算対象制限領域LMRとしてステレオカメラSC4の測定領域R4から除外されているので、画像データが重複することはない。   In FIG. 4, the calculation target restricted region LMR is not set, and the entire region is the calculation target region OR. Since the overlapping region DR is excluded from the measurement region R4 of the stereo camera SC4 as the calculation target restricted region LMR, the image data does not overlap.

次に、第2の例について図6および図7を用いて説明する。図6はステレオカメラSC1によって撮影された画像を示し、図7はステレオカメラSC4によって撮影された画像を示している。図6および図7において車両OVの位置は、図4および図5の例と同じである。   Next, a second example will be described with reference to FIGS. 6 shows an image taken by the stereo camera SC1, and FIG. 7 shows an image taken by the stereo camera SC4. 6 and 7, the position of the vehicle OV is the same as in the examples of FIGS. 4 and 5.

図3に示されるような重複領域DRを想定すると、図6において、向かって左上角部に破線で囲まれて示される2つの3角形の領域を合わせた領域が、ステレオカメラSC1から見た重複領域DRに該当することになる。また、図7においては、向かって右上角部に破線で囲まれて示される2つの3角形の領域を合わせた領域が、ステレオカメラSC4から見た重複領域DRに該当することになる。   Assuming an overlapping region DR as shown in FIG. 3, in FIG. 6, the region obtained by combining two triangular regions surrounded by a broken line at the upper left corner is an overlap seen from the stereo camera SC1. This corresponds to the region DR. In FIG. 7, a region obtained by combining two triangular regions surrounded by a broken line at the upper right corner portion corresponds to the overlapping region DR viewed from the stereo camera SC4.

図6および図7において、それぞれの角部を含む3角形の領域が計算対象制限領域LMRとして設定され、計算対象制限領域LMRの隣の3角形の領域は、重複領域DRではあるが計算対象領域となる重複計算領域DORであり、実質的には計算対象領域ORとして扱われる。   6 and 7, a triangular area including each corner is set as a calculation target restriction area LMR, and a triangular area adjacent to the calculation target restriction area LMR is an overlap area DR but a calculation target area. The overlapping calculation area DOR is substantially treated as the calculation target area OR.

このように、重複領域DRの一部についても計算対象領域として処理することで、必要な画像データが欠落する可能性を低減できる。   In this way, by processing a part of the overlapping region DR as the calculation target region, it is possible to reduce the possibility of missing necessary image data.

なお、重複領域DRを、計算対象制限領域LMRと重複計算領域DORとに区分する方法としては、各ステレオカメラから見た重複領域DRについて予め定めた面積比となるように区分する方法を採ることができる。   In addition, as a method of dividing the overlapping region DR into the calculation target restricted region LMR and the overlapping calculation region DOR, a method of dividing the overlapping region DR viewed from each stereo camera so as to have a predetermined area ratio is adopted. Can do.

なお、図6および図7の例では、計算対象制限領域LMRと重複計算領域DORとが面積比で同じとなるように設定されているが、これに限定されるものではなく、重複領域DRの位置や大きさによって適宜に設定すれば良い。   In the examples of FIGS. 6 and 7, the calculation target restriction region LMR and the overlap calculation region DOR are set to be the same in area ratio, but the present invention is not limited to this, and the overlap region DR What is necessary is just to set suitably according to a position and a magnitude | size.

また、統合部5においては、統合部5で生成された3次元画像データのうち、画像生成部6で俯瞰画像データとして生成されるべき領域を予め限定しておくことで、3次元描画に伴う計算コストを軽減することができる。   Further, in the integration unit 5, among the three-dimensional image data generated by the integration unit 5, an area to be generated as overhead image data by the image generation unit 6 is limited in advance, thereby accompanying the three-dimensional drawing. Calculation cost can be reduced.

この領域の一例を図8に示す。図8において、ステレオカメラSC1〜SC4のそれぞれの画角で決まる測定領域(重複領域を含む)を、自動車座標系で表現された3次元画像データにおいて示しており、各測定領域において、それぞれステレオカメラから所定距離前方の位置に境界を設定し、当該境界で囲まれる閉領域を描画対象領域VORとし、それ以外の領域を計算対象制限領域LMRとする。図8の例では描画対象領域VORは、自車両VCを中心として取り囲む矩形領域として表されている。   An example of this area is shown in FIG. In FIG. 8, the measurement areas (including overlapping areas) determined by the respective angles of view of the stereo cameras SC1 to SC4 are shown in the three-dimensional image data expressed in the automobile coordinate system. A boundary is set at a position ahead of a predetermined distance from the closed region, a closed region surrounded by the boundary is set as a drawing target region VOR, and the other region is set as a calculation target restricted region LMR. In the example of FIG. 8, the drawing target area VOR is represented as a rectangular area surrounding the host vehicle VC as a center.

図2においては、このような描画対象領域VORおよび計算対象制限領域LMRの情報が制限情報5として統合部5に与えられ、統合部5では、この描画対象領域VORに含まれる3次元画像データのみを画像生成部6に与えて俯瞰画像データとして生成させる構成となっている。   In FIG. 2, such information on the drawing target area VOR and the calculation target restriction area LMR is provided to the integration unit 5 as restriction information 5, and the integration part 5 performs only the 3D image data included in the drawing target area VOR. Is generated to the image generation unit 6 to generate overhead image data.

図2に示すように、制限情報5は独立した記憶部53に格納されているが、これも記憶部13等と同様にROMやハードディスク記憶装置の記憶領域の1つによって構成されていても良い。   As shown in FIG. 2, the restriction information 5 is stored in the independent storage unit 53, but this may also be configured by one of storage areas of a ROM or a hard disk storage device, similar to the storage unit 13 or the like. .

<動作>
次に、上述した説明を前提として、周辺表示装置100の動作について、図9に示すフローチャートを用いて説明する。
<Operation>
Next, on the premise of the above description, the operation of the peripheral display device 100 will be described using the flowchart shown in FIG.

周辺表示装置100が動作を開始すると、ステレオカメラSC1〜SC4による画像データが取得され始める(ステップS1)。   When the peripheral display device 100 starts operating, image data from the stereo cameras SC1 to SC4 starts to be acquired (step S1).

そして、3次元化計算部11、21、31および41のそれぞれでは、対応するステレオカメラの2台のカメラでそれぞれ得られた2つの画像の特徴点(測定点)について、相互に対応付けする対応点探索を行う(ステップS2)。これは、従来的な手法である。   In each of the three-dimensional calculation units 11, 21, 31 and 41, the feature points (measurement points) of the two images respectively obtained by the two cameras of the corresponding stereo cameras are associated with each other. A point search is performed (step S2). This is a conventional technique.

この対応点探索によって相互に対応付けされた測定点(対応点)について、記憶部13、23、33および43に格納された制限情報1〜4で設定される計算対象制限領域LMRに含まれているか否かの判定を行う(ステップS3)。   The measurement points (corresponding points) associated with each other by the corresponding point search are included in the calculation target restriction region LMR set by the restriction information 1 to 4 stored in the storage units 13, 23, 33 and 43. It is determined whether or not there is (step S3).

そして、当該測定点が計算対象制限領域LMRに含まれていると判定された場合は、ステップS9に進んで当該測定点のデータを破棄した後、ステップS8に進む。   If it is determined that the measurement point is included in the calculation target restricted region LMR, the process proceeds to step S9 to discard the data of the measurement point, and then proceeds to step S8.

一方、当該測定点が計算対象制限領域LMRに含まれていないと判定された場合は、ステップS4に進み、測定点に対して、視差、焦点距離、基線長などのパラメータから、各対応点の組についての3次元位置を求める3次元化計算を行うことで3次元画像データを算出する。   On the other hand, when it is determined that the measurement point is not included in the calculation target restriction region LMR, the process proceeds to step S4, and the parameter of each corresponding point is determined from parameters such as parallax, focal length, and baseline length with respect to the measurement point. Three-dimensional image data is calculated by performing a three-dimensional calculation for obtaining a three-dimensional position for the set.

3次元化計算部11、21、31および41から出力される3次元画像データは、ステレオカメラ座標系で表現されているので、自動車座標系で表現された3次元画像データに変換するために座標変換部12、22、32および42において座標変換を行う(ステップS5)。   Since the three-dimensional image data output from the three-dimensional calculation units 11, 21, 31, and 41 is expressed in the stereo camera coordinate system, coordinates are used for conversion into the three-dimensional image data expressed in the car coordinate system. Coordinate conversion is performed in the conversion units 12, 22, 32, and 42 (step S5).

この座標変換は、3次元化計算部11、21、31および41から出力される3次元画像データに対して、それぞれ所定の3次元変換行列Mat1、Mat2、Mat3およびMat4を適用することで実行される。   This coordinate transformation is executed by applying predetermined three-dimensional transformation matrices Mat1, Mat2, Mat3, and Mat4 to the three-dimensional image data output from the three-dimensional calculation units 11, 21, 31, and 41, respectively. The

ここで、3次元変換行列Mat1〜Mat4は、図2に示されるように、それぞれ座標変換部12、22、32および42に対応付けられた記憶部14、24、34および44に格納されている。   Here, as shown in FIG. 2, the three-dimensional transformation matrices Mat1 to Mat4 are stored in the storage units 14, 24, 34, and 44 associated with the coordinate transformation units 12, 22, 32, and 42, respectively. .

座標変換部12、22、32および42から出力される自動車座標系で表現された3次元画像データは統合部5に与えられて、自車両の3次元モデルのデータと統合されるが、この統合処理に際して、各測定点(自動車座標系に変換済み)が、例えば図8に示したような描画対象領域VORに含まれているか否かを判定する(ステップS6)。   The three-dimensional image data expressed in the car coordinate system output from the coordinate conversion units 12, 22, 32 and 42 is given to the integration unit 5 and integrated with the data of the three-dimensional model of the host vehicle. At the time of processing, it is determined whether or not each measurement point (converted to the vehicle coordinate system) is included in the drawing target area VOR as shown in FIG. 8, for example (step S6).

そして、当該測定点が、描画対象領域VORに含まれていると判定された場合は、当該測定点の画像データを画像生成部6に与えて俯瞰画像データを生成する(ステップS7)。   If it is determined that the measurement point is included in the drawing target area VOR, the image data of the measurement point is given to the image generation unit 6 to generate overhead image data (step S7).

一方、当該測定点が、描画対象領域VORに含まれていないと判定された場合は、ステップS9に進んで当該測定点のデータを破棄した後、ステップS8に進む。   On the other hand, when it is determined that the measurement point is not included in the drawing target region VOR, the process proceeds to step S9, the data of the measurement point is discarded, and then the process proceeds to step S8.

画像生成部6で俯瞰画像データを生成した後は、ステップS8において、全ての測定点についてステップS3以降の処理を完了したか否かの確認を行い、全ての測定点について処理を終えた場合は俯瞰画像データを画像表示部90に出力して一連の動作を終了する。 一方、全ての測定点についての処理が終わっていない場合は、新たな測定点についてステップS3以下の処理を繰り返す。   After the bird's-eye view image data is generated by the image generation unit 6, in step S 8, it is confirmed whether or not the processing after step S 3 has been completed for all measurement points, and when the processing has been completed for all measurement points. The overhead image data is output to the image display unit 90, and the series of operations ends. On the other hand, if the processing for all the measurement points has not been completed, the processing after step S3 is repeated for the new measurement points.

なお、ステップS8の判定は画像生成部6において行っても良く、統合部5において行っても良く、また、表示画像生成部80を制御する図示されない制御部において行っても良い。   Note that the determination in step S8 may be performed by the image generation unit 6, may be performed by the integration unit 5, or may be performed by a control unit (not shown) that controls the display image generation unit 80.

以上説明したように、周辺表示装置100の表示画像生成部80においては、各ステレオカメラで測定された測定点について、予め設定された計算対象制限領域に含まれているか否かの判定を行い、3次元化計算部11、21、31および41での3次元化計算に際しては、この計算対象制限領域内にある測定データに対しては3次元化計算を行わないという処理を行うことで、3次元化計算の対象データを削減し、計算コストを軽減することができる。   As described above, the display image generation unit 80 of the peripheral display device 100 determines whether or not the measurement points measured by each stereo camera are included in the preset calculation target restriction region, In the three-dimensional calculation in the three-dimensional calculation units 11, 21, 31 and 41, the measurement data in the calculation target restriction region is processed so that the three-dimensional calculation is not performed. The target data of the dimensionalization calculation can be reduced, and the calculation cost can be reduced.

また、統合部5においては、統合部5で生成された3次元画像データのうち、画像生成部6で俯瞰画像データとして生成されるべき領域を描画対象領域として予め限定しておくことで、3次元描画に伴う計算コストを軽減することができる。   Further, in the integration unit 5, among the three-dimensional image data generated by the integration unit 5, an area to be generated as the overhead image data by the image generation unit 6 is limited in advance as a drawing target area. It is possible to reduce the calculation cost associated with the dimension drawing.

<変形例1>
以上説明したように、周辺表示装置100の表示画像生成部80においては、3次元化計算部11、21、31および41での3次元化計算に際して、計算対象制限領域内にある測定データに対しては3次元化計算を行わないという構成を示したが、当該計算対象制限領域を規定する制限情報1〜4は、ステレオカメラ座標系の2次元画像データに対応するものであった。これの代わりに、制限情報1〜4をステレオカメラ座標系の3次元画像データに対応するものとして設定しても良い。
<Modification 1>
As described above, in the display image generation unit 80 of the peripheral display device 100, when the three-dimensional calculation is performed by the three-dimensional calculation units 11, 21, 31, and 41, the measurement data in the calculation target restricted region is processed. Although the configuration in which the three-dimensional calculation is not performed is shown, the restriction information 1 to 4 that defines the calculation target restriction region corresponds to the two-dimensional image data of the stereo camera coordinate system. Instead, the restriction information 1 to 4 may be set as corresponding to the three-dimensional image data of the stereo camera coordinate system.

図10には、ステレオカメラ座標系の3次元画像データに対応する計算対象制限領域の一例を示す。   FIG. 10 shows an example of the calculation target restricted area corresponding to the three-dimensional image data of the stereo camera coordinate system.

図10においては、自車両VCの上方から見た場合のステレオカメラSC1の測定領域を示しており、ステレオカメラSC1から所定距離前方の位置に境界を設定し、当該境界とステレオカメラSC1の画角とで規定される領域を計算対象領域ORとし、それ以外を計算対象制限領域LMRとする。   FIG. 10 shows the measurement area of the stereo camera SC1 when viewed from above the host vehicle VC. A boundary is set at a position ahead of the stereo camera SC1 by a predetermined distance, and the angle of view of the boundary and the stereo camera SC1 is shown. The region defined by the above is a calculation target region OR, and the other region is a calculation target restricted region LMR.

そして、3次元化計算部11、21、31および41での3次元化計算の結果、当該計算対象制限領域LMRに含まれる測定点については、3次元画像データとして出力しないという措置を採る。これにより、3次元化計算よりも後の処理における計算コストを低減することができる。   Then, as a result of the three-dimensional calculation by the three-dimensional calculation units 11, 21, 31, and 41, a measure is taken that the measurement points included in the calculation target restricted region LMR are not output as three-dimensional image data. Thereby, the calculation cost in the processing after the three-dimensional calculation can be reduced.

<変形例2>
周辺表示装置100の表示画像生成部80においては、3次元化計算部11、21、31および41での3次元化計算に際して、計算対象制限領域内にある測定データに対しては3次元化計算を行わないという構成を示したが、当該測定データが計算対象制限領域内にあるか否かは、対応点探索で得られた対応点が、各ステレオカメラで撮影される画面上でどこに位置するかによって判定していた。
<Modification 2>
In the display image generation unit 80 of the peripheral display device 100, when the three-dimensional calculation is performed by the three-dimensional calculation units 11, 21, 31, and 41, the three-dimensional calculation is performed on the measurement data in the calculation target restricted area. The corresponding point obtained by the corresponding point search is located on the screen shot by each stereo camera. It was judged by what.

しかし、対応点探索に使用する視差を用いることで、3次元化計算を行わない対応点をより簡便に規定することも可能である。   However, by using the parallax used for the corresponding point search, it is possible to more easily define the corresponding points for which the three-dimensional calculation is not performed.

すなわち、対応点探索に使用する視差は、カメラからの距離が遠くなるに従い小さい値となる。図11にはこの視差の特性を模式的に示す。   That is, the parallax used for the corresponding point search becomes smaller as the distance from the camera increases. FIG. 11 schematically shows the parallax characteristics.

図11においては、ステレオカメラを構成する2つのカメラのそれぞれの受光部を、センサ面SF1およびSF2として示し、2つのカメラのそれぞれのレンズ系による焦点位置を焦点FP1およびFP2として示している。   In FIG. 11, the light receiving portions of the two cameras constituting the stereo camera are shown as sensor surfaces SF1 and SF2, and the focal positions by the lens systems of the two cameras are shown as the focal points FP1 and FP2.

ここで、カメラに最も近い位置にある対応点を対応点P1とし、次に遠い位置にある対応点を対応点P2とし、最も遠い位置にある対応点を対応点P3とした場合、対応点P1、P2およびP3のそれぞれの視差量はL1、L2およびL3で表され、L1が最も大きく、L3が最も小さいことが表されている。   Here, when the corresponding point closest to the camera is the corresponding point P1, the next farthest corresponding point is the corresponding point P2, and the farthest corresponding point is the corresponding point P3, the corresponding point P1. , P2 and P3 are represented by L1, L2 and L3, respectively, and L1 is the largest and L3 is the smallest.

視差量に、このような大小関係を有する対応点P1〜P3について、視差量の閾値を設定すると、当該閾値に対応して距離が決まり、この距離を想定制限距離VLMと呼称する。図11においては、この想定制限距離VLMが対応点P2の距離に対応するように設定されており、この想定制限距離VLMに対応する視差量はL2となる。   When the threshold value of the parallax amount is set for the corresponding points P1 to P3 having such a magnitude relationship with the parallax amount, the distance is determined corresponding to the threshold value, and this distance is referred to as an assumed limit distance VLM. In FIG. 11, the assumed limit distance VLM is set so as to correspond to the distance of the corresponding point P2, and the parallax amount corresponding to the assumed limit distance VLM is L2.

この視差量L2を閾値とし、当該閾値を超えない視差量を有する対応点(図11ではP3)については、3次元化計算部11、21、31および41での3次元化計算を行わないという措置を採ることで、自車両の運転時に把握する必要のない遠距離にある対応点については3次元化計算を不要とし、結果的に、運転時に把握する必要のある対応点についてはデータを残しながらも、計算対象のデータを削減して、計算コストを低減することが可能となる。   The three-dimensional calculation by the three-dimensional calculation units 11, 21, 31 and 41 is not performed on the corresponding point (P3 in FIG. 11) having the parallax amount L2 as a threshold and having a parallax amount not exceeding the threshold. By taking measures, 3D calculation is not required for corresponding points at a long distance that do not need to be grasped during driving of the vehicle, and as a result, data is left for corresponding points that need to be grasped during driving. However, the calculation cost can be reduced by reducing the data to be calculated.

<変形例3>
周辺表示装置100の表示画像生成部80においては、3次元化計算部11、21、31および41での3次元化計算に際して、計算対象制限領域(図4〜図7)内にある測定データに対しては3次元化計算を行わないという構成を示したが、3次元化計算部11、21、31および41での3次元化計算は全ての測定データについて実施し、3次元化計算部11、21、31および41から出力される3次元画像データについて、計算対象制限領域内にある3次元画像データについては、座標変換部12、22、32および42での座標変換を行わないという構成を採っても良い。
<Modification 3>
In the display image generation unit 80 of the peripheral display device 100, when the three-dimensional calculation units 11, 21, 31, and 41 perform the three-dimensional calculation, the measurement data in the calculation target restricted region (FIGS. 4 to 7) Although the configuration in which the three-dimensional calculation is not performed is shown, the three-dimensional calculation in the three-dimensional calculation units 11, 21, 31 and 41 is performed for all measurement data, and the three-dimensional calculation unit 11 is performed. , 21, 31 and 41, the coordinate conversion units 12, 22, 32 and 42 do not perform coordinate conversion on the three-dimensional image data in the calculation target restricted area. You may take it.

この場合、計算対象制限領域は、図10を用いて説明したように、ステレオカメラ座標系の3次元画像データに対応するものとして設定すれば良い。   In this case, the calculation target restricted region may be set as corresponding to the three-dimensional image data of the stereo camera coordinate system as described with reference to FIG.

また、統合部5において描画対象領域VOR(図8)を設定する例を示したが、座標変換部12、22、32および42においても同様の領域を設定し、当該領域内の3次元画像データについてのみ座標変換を行うという構成を採っても良い。   Moreover, although the example which sets the drawing object area | region VOR (FIG. 8) in the integration part 5 was shown, the same area | region is set also in the coordinate transformation parts 12, 22, 32, and 42, and the three-dimensional image data in the said area | region A configuration may be adopted in which coordinate transformation is performed only for the.

これらの方法を採ることで、座標変換処理を削減して、計算コストを低減することが可能となる。   By adopting these methods, it is possible to reduce the coordinate conversion process and reduce the calculation cost.

<変形例4>
図2を用いて説明した表示画像生成部80に、各ステレオカメラで撮影された画像が正常な状態で撮影された画像であるか、異常な状態で撮影された画像であるかを判定する異常検知部をさらに有する構成としても良い。図12は、当該異常検知部を有した表示画像生成部80Aを備えた周辺表示装置100Aの構成を示すブロック図である。なお、図12に示す周辺表示装置100Aにおいて、図2に示した周辺表示装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
<Modification 4>
The display image generation unit 80 described with reference to FIG. 2 determines whether the image captured by each stereo camera is an image captured in a normal state or an image captured in an abnormal state. It is good also as a structure which further has a detection part. FIG. 12 is a block diagram illustrating a configuration of a peripheral display device 100A including a display image generation unit 80A having the abnormality detection unit. In the peripheral display device 100A shown in FIG. 12, the same components as those in the peripheral display device 100 shown in FIG.

周辺表示装置100Aにおいては、ステレオカメラSC1〜SC4の出力を3次元化計算部11、21、31および41にそれぞれ与える信号線に、異常検知部10、20、30および40が接続された構成となっている。   Peripheral display device 100A has a configuration in which abnormality detection units 10, 20, 30, and 40 are connected to signal lines that provide outputs of stereo cameras SC1 to SC4 to three-dimensional calculation units 11, 21, 31, and 41, respectively. It has become.

各異常検知部は、例えば、それぞれに対応するステレオカメラで撮影された画像データについて、画素値が所定値(画素の飽和値に近い値)以上の画素の個数をカウントし、予め定めた閾値以上の画素数がカウントされる場合は、当該画像データを異常と判定する処理を行う。この処理は、飽和画素が極端に多くなるような異常に対応することができる。   Each abnormality detection unit, for example, counts the number of pixels having a pixel value equal to or greater than a predetermined value (a value close to the saturation value of the pixel) for image data captured by a corresponding stereo camera, and is equal to or greater than a predetermined threshold value. When the number of pixels is counted, processing for determining that the image data is abnormal is performed. This process can cope with an abnormality in which the number of saturated pixels becomes extremely large.

また、他の例として、ステレオカメラで撮影された画像データについて各画素値の時間変化を測定し、予め定めた時間以上画素値の変化がない画素の個数をカウントし、無変化の画素数の全画素数に対する割合が予め定めた閾値以上となる場合は、当該画像データを異常と判定する処理を行う。この処理は、カメラのレンズに汚れが付着したような場合に対応することができる。   As another example, the time change of each pixel value is measured for image data captured by a stereo camera, the number of pixels that have not changed for a predetermined time or more is counted, and the number of unchanged pixels is determined. When the ratio with respect to the total number of pixels is equal to or greater than a predetermined threshold value, processing for determining the image data as abnormal is performed. This processing can cope with a case where dirt is attached to the lens of the camera.

また、他の例として、ステレオカメラで撮影された画像データについての対応点探索に際して、画素の表現パラメータ(誤差値)を評価して類似度を探索する類似度探索を行い、類似度が所定値以上となる画素数が予め定めた閾値以下となる場合は、当該画像データを異常と判定する処理を行う。この処理は、飽和画素が極端に多くなるような異常やカメラのレンズに汚れが付着したような場合に対応できる。   As another example, when searching for corresponding points for image data captured by a stereo camera, a similarity search is performed in which a pixel expression parameter (error value) is evaluated to search for a similarity, and the similarity is a predetermined value. When the above number of pixels is equal to or less than a predetermined threshold value, processing for determining that the image data is abnormal is performed. This processing can cope with an abnormality in which the number of saturated pixels becomes extremely large or a stain on the camera lens.

このような機能を有する、異常検知部10、20、30および40を有する周辺表示装置100Aの動作について、図13に示すフローチャートを用いて説明する。   The operation of the peripheral display device 100A having such functions and having the abnormality detection units 10, 20, 30, and 40 will be described with reference to the flowchart shown in FIG.

周辺表示装置100Aが動作を開始すると、ステレオカメラSC1〜SC4による画像データが取得され始める(ステップS11)。   When the peripheral display device 100A starts operating, image data from the stereo cameras SC1 to SC4 starts to be acquired (step S11).

そして、3次元化計算部11、21、31および41のそれぞれでは、対応するステレオカメラの2台のカメラでそれぞれ得られた2つの画像の特徴点(測定点)について、相互に対応付けする対応点探索を行う(ステップS12)。これは、従来的な手法である。   In each of the three-dimensional calculation units 11, 21, 31 and 41, the feature points (measurement points) of the two images respectively obtained by the two cameras of the corresponding stereo cameras are associated with each other. A point search is performed (step S12). This is a conventional technique.

また、異常検知部10、20、30および40では、それぞれに対応するステレオカメラSC1〜SC4で撮影された画像データについて、上述した手法で異常の有無を検出する(ステップS13)。   Further, the abnormality detection units 10, 20, 30 and 40 detect the presence or absence of abnormality in the image data captured by the corresponding stereo cameras SC1 to SC4 by the above-described method (step S13).

そして、画像データの異常を検出しなかった場合はステップS14以下の処理を行う。なお、ステップS14〜S20の処理は図9に示したステップS3〜S9の処理と同じであるので説明は省略する。   If no abnormality is detected in the image data, the process from step S14 is performed. In addition, since the process of step S14-S20 is the same as the process of step S3-S9 shown in FIG. 9, description is abbreviate | omitted.

一方、ステップS13で画像データの異常を検出した場合は、ステップS21で当該画像データを破棄し、ステップS11以下の動作を繰り返す。   On the other hand, if an abnormality in the image data is detected in step S13, the image data is discarded in step S21, and the operations in step S11 and subsequent steps are repeated.

このように、周辺表示装置100Aでは、ステレオカメラSC1〜SC4で取得した画像データが異常な状態で撮影された場合には、それを判定することができ、異常な画像データについては破棄する処理を行うことで、異常な画像データについてまで3次元化計算等の処理を施すことが防止されるので、計算コストを軽減することができる。   As described above, in the peripheral display device 100A, when the image data acquired by the stereo cameras SC1 to SC4 is captured in an abnormal state, it can be determined, and processing for discarding the abnormal image data is performed. By doing so, it is possible to prevent the abnormal image data from being subjected to processing such as three-dimensional calculation, so that the calculation cost can be reduced.

<変形例5>
図1においては、車両VCの4方向に1台ずつステレオカメラを配置した例を示したが、図14に示されるように、車両VCの4方向に2台ずつステレオカメラを配置する構成としても良い。
<Modification 5>
FIG. 1 shows an example in which one stereo camera is arranged in each of the four directions of the vehicle VC. However, as shown in FIG. 14, two stereo cameras may be arranged in each of the four directions of the vehicle VC. good.

すなわち、図14に示すように、車両VCの、前方の左右の画像を取得するステレオカメラSC1およびSC2が配置され、前方に対して右側の前方寄りおよび後方寄りの画像を取得するステレオカメラSC3およびSC4が配置され、後方の左右の画像を取得するステレオカメラSC5およびSC6が配置され、前方に対して左側の後方寄りおよび前方寄りの画像を取得するステレオカメラSC7およびSC8が配置されている。   That is, as shown in FIG. 14, stereo cameras SC1 and SC2 that acquire the left and right images of the vehicle VC are arranged, and the stereo camera SC3 that acquires the images of the front side and the rear side on the right side with respect to the front side. SC4 is arranged, stereo cameras SC5 and SC6 for obtaining the left and right images at the rear are arranged, and stereo cameras SC7 and SC8 for obtaining the images at the rear and the front on the left side with respect to the front are arranged.

このようなシステムを用いることで、より、死角の少ない周辺の画像データを取得することが可能となる。   By using such a system, it is possible to acquire peripheral image data with fewer blind spots.

5 統合部
6 画像生成部
10,20,30,40 異常検知部
11,21,31,41 3次元化計算部
12,22,32,42 座標変換部
SC1〜SC4 ステレオカメラ
5 Integration unit 6 Image generation unit 10, 20, 30, 40 Anomaly detection unit 11, 21, 31, 41 Three-dimensional calculation unit 12, 22, 32, 42 Coordinate conversion unit SC1 to SC4 Stereo camera

Claims (13)

自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、
前記統合データから俯瞰画像データを生成する画像生成部とを備え、
前記3次元化計算部は、
前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、
前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、
前記計算対象制限情報は、
前記3次元化計算部に与えられ、前記測定点のうち前記3次元位置の算出対象を制限する情報である、周辺表示装置。
A plurality of stereo cameras that acquire peripheral image data in a self-propelled movable body;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second 3D image data;
An integration unit that generates integrated data obtained by integrating the second three-dimensional image data and the data of the three-dimensional model of the moving body;
An image generation unit that generates overhead image data from the integrated data,
The three-dimensional calculation unit
For the image data obtained by each of the plurality of stereo cameras, the feature points of two images are associated with each other, and the three-dimensional position of the measurement point on the image is calculated from the parallax obtained as a result. Obtaining the first three-dimensional image data;
The three-dimensional calculation unit, have a calculated target restriction information for reducing in at least one processing target data of the coordinate transformation unit and the integration unit,
The calculation target restriction information is
A peripheral display device, which is information given to the three-dimensional calculation unit, and is information that limits a calculation target of the three-dimensional position among the measurement points .
前記計算対象制限情報は、
前記複数のステレオカメラのそれぞれで得られた2次元画像上で規定される所定の測定領域の情報であって、
前記所定の測定領域に含まれる前記測定点のデータについては、前記3次元位置の算出対象としない、請求項1記載の周辺表示装置。
The calculation target restriction information is
Information on a predetermined measurement area defined on a two-dimensional image obtained by each of the plurality of stereo cameras,
The peripheral display device according to claim 1, wherein the measurement point data included in the predetermined measurement region is not subject to calculation of the three-dimensional position .
前記所定の測定領域は、
前記複数のステレオカメラのそれぞれにおいて互い重複する測定領域に相当する、請求項2記載の周辺表示装置。
The predetermined measurement area is:
The peripheral display device according to claim 2, which corresponds to a measurement region that overlaps each other in each of the plurality of stereo cameras.
前記計算対象制限情報は、
前記測定点の視差量に対して設定された閾値の情報であって、
視差量が前記閾値を超えない前記測定点のデータについては、前記3次元位置の算出対象としない、請求項記載の周辺表示装置。
The calculation target restriction information is
Information on a threshold value set for the parallax amount of the measurement point,
The data of the measurement points parallax amount does not exceed the threshold value, no calculation target of the three-dimensional position, a peripheral display device according to claim 1, wherein.
自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、
前記統合データから俯瞰画像データを生成する画像生成部とを備え、
前記3次元化計算部は、
前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、
前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、
前記計算対象制限情報は、
前記3次元化計算部に与えられ、
前記複数のステレオカメラのそれぞれで得られた3次元画像上で規定される所定の測定領域の情報であって、
前記所定の測定領域に含まれる前記測定点のデータについては、前記3次元位置の算出より後の処理対象データとしない、周辺表示装置。
A plurality of stereo cameras that acquire peripheral image data in a self-propelled movable body;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second 3D image data;
An integration unit that generates integrated data obtained by integrating the second three-dimensional image data and the data of the three-dimensional model of the moving body;
An image generation unit that generates overhead image data from the integrated data,
The three-dimensional calculation unit
For the image data obtained by each of the plurality of stereo cameras, the feature points of two images are associated with each other, and the three-dimensional position of the measurement point on the image is calculated from the parallax obtained as a result. Obtaining the first three-dimensional image data;
Calculation target restriction information for reducing processing target data in at least one of the three-dimensional calculation unit, the coordinate conversion unit, and the integration unit;
The calculation target restriction information is
Given to the three-dimensional calculation unit,
Information on a predetermined measurement region defined on a three-dimensional image obtained by each of the plurality of stereo cameras,
Wherein the data of said measurement point is included in a predetermined measurement region, not processed data after the calculation of the three-dimensional position, peripheral display device.
自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、
前記統合データから俯瞰画像データを生成する画像生成部とを備え、
前記3次元化計算部は、
前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、
前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、
前記計算対象制限情報は、前記座標変換部に与えられ、
前記第1の3次元画像データのうち、座標変換の対象を削減する情報である、周辺表示装置。
A plurality of stereo cameras that acquire peripheral image data in a self-propelled movable body;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second 3D image data;
An integration unit that generates integrated data obtained by integrating the second three-dimensional image data and the data of the three-dimensional model of the moving body;
An image generation unit that generates overhead image data from the integrated data,
The three-dimensional calculation unit
For the image data obtained by each of the plurality of stereo cameras, the feature points of two images are associated with each other, and the three-dimensional position of the measurement point on the image is calculated from the parallax obtained as a result. Obtaining the first three-dimensional image data;
Calculation target restriction information for reducing processing target data in at least one of the three-dimensional calculation unit, the coordinate conversion unit, and the integration unit;
The calculation target restriction information is given to the coordinate conversion unit,
The first of the three-dimensional image data, which is information to reduce the target coordinate transformation, peripheral display device.
前記計算対象制限情報は、
前記複数のステレオカメラのそれぞれで得られた3次元画像上で規定される所定の測定領域の情報であって、
前記所定の測定領域に含まれる前記測定点のデータについては、前記座標変換の対象としない、請求項記載の周辺表示装置。
The calculation target restriction information is
Information on a predetermined measurement region defined on a three-dimensional image obtained by each of the plurality of stereo cameras,
The peripheral display device according to claim 6 , wherein the data of the measurement points included in the predetermined measurement area is not subject to the coordinate conversion .
前記計算対象制限情報は、
前記移動体座標系によって表される3次元画像上で規定される所定の測定領域の情報であって、
前記所定の測定領域に含まれる前記測定点のデータについては、前記座標変換の対象としない、請求項記載の周辺表示装置。
The calculation target restriction information is
Information on a predetermined measurement area defined on a three-dimensional image represented by the moving body coordinate system,
The peripheral display device according to claim 6 , wherein the data of the measurement points included in the predetermined measurement area is not subject to the coordinate conversion.
前記所定の測定領域は、
前記複数のステレオカメラのそれぞれから所定距離前方の位置に境界を設定し、該境界と各ステレオカメラの画角とで規定される領域以外の領域に相当する、請求項5、請求項7および請求項8の何れか1項に記載の周辺表示装置。
The predetermined measurement area is:
8. A boundary is set at a position ahead of each of the plurality of stereo cameras by a predetermined distance, and corresponds to an area other than an area defined by the boundary and an angle of view of each stereo camera. Item 9. The peripheral display device according to any one of items 8 to 9 .
自走可能な移動体における周辺の画像データを取得する複数のステレオカメラと、
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体の所定の方向から俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記第2の3次元画像データと、前記移動体の3次元モデルのデータとを統合した統合データを生成する統合部と、
前記統合データから俯瞰画像データを生成する画像生成部とを備え、
前記3次元化計算部は、
前記複数のステレオカメラのそれぞれで得られた前記画像データについて、2つの画像の特徴点を相互に対応付けし、その結果得られた視差から画像上の測定点の3次元位置を算出することで前記第1の3次元画像データを取得し、
前記3次元化計算部、前記座標変換部および前記統合部の少なくとも1つにおける処理対象データを削減するための計算対象制限情報を有し、
前記計算対象制限情報は、前記統合部に与えられ、
前記統合データのうち、前記画像生成部で前記俯瞰画像データとして生成されるべき領域を限定する情報である、周辺表示装置。
A plurality of stereo cameras that acquire peripheral image data in a self-propelled movable body;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is looked down from a predetermined direction of the moving body to obtain second 3D image data;
An integration unit that generates integrated data obtained by integrating the second three-dimensional image data and the data of the three-dimensional model of the moving body;
An image generation unit that generates overhead image data from the integrated data,
The three-dimensional calculation unit
For the image data obtained by each of the plurality of stereo cameras, the feature points of two images are associated with each other, and the three-dimensional position of the measurement point on the image is calculated from the parallax obtained as a result. Obtaining the first three-dimensional image data;
Calculation target restriction information for reducing processing target data in at least one of the three-dimensional calculation unit, the coordinate conversion unit, and the integration unit;
The calculation target restriction information is given to the integration unit,
Wherein among the integrated data is information to limit the area to be generated as the bird's eye image data in the image generation unit, peripheral display device.
前記計算対象制限情報は、
前記移動体座標系によって表される3次元画像上で規定される所定の測定領域の情報であって、
前記所定の測定領域に含まれる前記測定点のデータについては破棄される、請求項10記載の周辺表示装置。
The calculation target restriction information is
Information on a predetermined measurement area defined on a three-dimensional image represented by the moving body coordinate system,
The peripheral display device according to claim 10 , wherein data of the measurement points included in the predetermined measurement area is discarded .
前記複数のステレオカメラで取得された前記画像データに基づいて、各ステレオカメラで撮影された画像が正常な状態で撮影された画像であるか、異常な状態で撮影された画像であるかを判定する異常検知部をさらに備え、
前記異常検知部で異常と判定された画像については、前記画像データを破棄する、請求項1、5、6および10の何れか1項に記載の周辺表示装置。
Based on the image data acquired by the plurality of stereo cameras, it is determined whether an image captured by each stereo camera is an image captured in a normal state or an image captured in an abnormal state. An anomaly detection unit that
The peripheral display device according to any one of claims 1 , 5, 6, and 10 , wherein the image data is discarded for an image determined to be abnormal by the abnormality detection unit .
前記異常検知部は、
前記複数のステレオカメラで取得された前記画像データについて、画素値が所定値以上の画素の個数をカウントし、予め定めた閾値以上の画素数がカウントされる場合は、該画像データを異常と判定する、請求項12記載の周辺表示装置。
The abnormality detection unit
Regarding the image data acquired by the plurality of stereo cameras, the number of pixels having a pixel value equal to or greater than a predetermined value is counted, and if the number of pixels equal to or greater than a predetermined threshold is counted, the image data is determined to be abnormal. to the peripheral display device according to claim 12.
JP2009140105A 2009-06-11 2009-06-11 Peripheral display device Expired - Fee Related JP5299101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009140105A JP5299101B2 (en) 2009-06-11 2009-06-11 Peripheral display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009140105A JP5299101B2 (en) 2009-06-11 2009-06-11 Peripheral display device

Publications (2)

Publication Number Publication Date
JP2010288060A JP2010288060A (en) 2010-12-24
JP5299101B2 true JP5299101B2 (en) 2013-09-25

Family

ID=43543450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009140105A Expired - Fee Related JP5299101B2 (en) 2009-06-11 2009-06-11 Peripheral display device

Country Status (1)

Country Link
JP (1) JP5299101B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107472135A (en) * 2016-06-07 2017-12-15 松下知识产权经营株式会社 Video generation device, image generating method and program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5680436B2 (en) * 2011-02-15 2015-03-04 アルパイン株式会社 Foreign matter adhesion determination device for in-vehicle camera lens
DE102011082974B4 (en) * 2011-09-19 2012-12-13 Robert Bosch Gmbh Method and camera system for monitoring a vehicle surrounding area by means of a reversing camera during operation of a lighting device for illuminating the rear license plate of the motor vehicle
JP2014006243A (en) * 2012-05-28 2014-01-16 Ricoh Co Ltd Abnormality diagnostic device, abnormality diagnostic method, imaging apparatus, moving body control system and moving body
US10165256B2 (en) 2016-09-14 2018-12-25 Amazon Technologies, Inc. Aerial vehicle optical sensor configuration
JP2018191061A (en) * 2017-04-28 2018-11-29 アイシン精機株式会社 Periphery monitoring device
CN108437898B (en) * 2018-05-12 2019-04-30 吉林大学 A kind of environment sensing device based on eye-tracking

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187266A (en) * 2001-12-19 2003-07-04 Ricoh Co Ltd Three-dimensional shape processor and data processing method
JP3893981B2 (en) * 2002-01-11 2007-03-14 オムロン株式会社 Vehicle recognition method and traffic flow measuring apparatus using this method
JP2004320642A (en) * 2003-04-18 2004-11-11 Sumitomo Electric Ind Ltd Moving body notifying method, moving body detecting method, image-taking device, and moving body detecting system
JP2005268847A (en) * 2004-03-16 2005-09-29 Olympus Corp Image generating apparatus, image generating method, and image generating program
JP2005323137A (en) * 2004-05-10 2005-11-17 Fuji Xerox Co Ltd Color space information conversion device, converting method and program
JP2006060425A (en) * 2004-08-18 2006-03-02 Olympus Corp Image generating method and apparatus thereof
JP2006134035A (en) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd Moving object detecting device and moving object detecting method
JP4248570B2 (en) * 2006-08-21 2009-04-02 三洋電機株式会社 Image processing apparatus and visibility support apparatus and method
JP4762880B2 (en) * 2006-12-26 2011-08-31 富士重工業株式会社 Image processing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107472135A (en) * 2016-06-07 2017-12-15 松下知识产权经营株式会社 Video generation device, image generating method and program
EP3264367A2 (en) 2016-06-07 2018-01-03 Panasonic Intellectual Property Management Co., Ltd. Image generating apparatus, image generating method, and recording medium
CN107472135B (en) * 2016-06-07 2022-03-25 松下知识产权经营株式会社 Image generation device, image generation method, and recording medium

Also Published As

Publication number Publication date
JP2010288060A (en) 2010-12-24

Similar Documents

Publication Publication Date Title
JP5299101B2 (en) Peripheral display device
KR102207768B1 (en) Super-resolving depth map by moving pattern projector
JP6565188B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP5057936B2 (en) Bird&#39;s-eye image generation apparatus and method
JP5412979B2 (en) Peripheral display device
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
JP4814669B2 (en) 3D coordinate acquisition device
JP5053043B2 (en) Vehicle peripheral image generation device and vehicle peripheral image distortion correction method
JP6079131B2 (en) Image processing apparatus, method, and program
JP2007263657A (en) Three-dimensional coordinates acquisition system
KR101944911B1 (en) Image processing method and image processing apparatus
JP5011528B2 (en) 3D distance measurement sensor and 3D distance measurement method
JP5007863B2 (en) 3D object position measuring device
KR20170135952A (en) A method for displaying a peripheral area of a vehicle
US9162621B2 (en) Parking support apparatus
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP2010287029A (en) Periphery display device
KR20170118077A (en) Method and device for the distortion-free display of an area surrounding a vehicle
JP6890288B2 (en) Image processing equipment, image display system and image processing method
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP2011024079A (en) Peripheral display device
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
CN107531182B (en) Display device for vehicle and display method for vehicle
JP4207519B2 (en) Moving object periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130603

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees