JP2010268369A - Peripheral display device - Google Patents
Peripheral display device Download PDFInfo
- Publication number
- JP2010268369A JP2010268369A JP2009119892A JP2009119892A JP2010268369A JP 2010268369 A JP2010268369 A JP 2010268369A JP 2009119892 A JP2009119892 A JP 2009119892A JP 2009119892 A JP2009119892 A JP 2009119892A JP 2010268369 A JP2010268369 A JP 2010268369A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- data
- dimensional
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は周辺表示装置に関し、特に、自走可能な移動体の周辺状況を俯瞰的に表示する周辺表示装置に関する。 The present invention relates to a peripheral display device, and more particularly, to a peripheral display device that displays a bird's-eye view of a surrounding state of a mobile object capable of self-running.
複数の撮像手段によって車両周辺の2次元画像を個々に撮像し、それぞれの画像を視点変換して路面を投影面とする複数の俯瞰画像を作成し、当該複数の俯瞰画像を車両周辺に並べるように合成することで、自車両周辺の俯瞰画像を得る種々の技術が開示されている。 Two-dimensional images around the vehicle are individually picked up by a plurality of imaging means, and a plurality of overhead images are created with the road surface as a projection plane by converting each image to a viewpoint, and the plurality of overhead images are arranged around the vehicle. Various techniques for obtaining a bird's-eye view of the vicinity of the host vehicle by combining them are disclosed.
例えば、特許文献1には、車両後方を撮影するステレオカメラを設け、ステレオ測定の信頼度に応じて画像合成方法を変えて表示画像を作成する方法が開示されている。
For example,
また、特許文献2では、ステレオカメラで計測された3次元情報を用いて物体の高さ情報を考慮した疑似画像(高さ方向に圧縮した画像)を含んだ俯瞰画像を作成することで視認性の向上を図る技術が開示されている。
Further, in
車両周辺の画像を3次元的に表示するには、ステレオカメラで取得した2次元画像に基づいて距離情報を含む3次元情報を取得する3次元化計算が必要であり、また、取得した3次元情報に基づいて描画を行う必要があるが、一般的には、各ステレオカメラに対応する3次元情報を画像処理部で統合処理して俯瞰画像を生成している。 In order to display an image around the vehicle three-dimensionally, a three-dimensional calculation for acquiring three-dimensional information including distance information based on a two-dimensional image acquired by a stereo camera is required. Although it is necessary to perform drawing based on the information, generally, an overhead image is generated by integrating processing of three-dimensional information corresponding to each stereo camera by an image processing unit.
しかし、3次元情報はデータ量が多く、ステレオカメラをそれぞれ含む各画像測定部から画像処理部にデータを転送するのに時間を要し、また、統合処理にも時間を要するという問題があった。 However, the three-dimensional information has a large amount of data, and it takes time to transfer data from each image measurement unit including a stereo camera to the image processing unit, and also requires time for integration processing. .
本発明は上記のような問題点を解消するためになされたもので、自動車などの自走可能な移動体周辺の俯瞰画像を表示する周辺表示装置において、画像測定部から画像処理部に転送するデータを削減して、俯瞰画像の表示に費やす時間を削減した周辺表示装置を提供することを目的とする。 The present invention has been made to solve the above-described problems. In a peripheral display device that displays a bird's-eye view image around a mobile object such as an automobile, it is transferred from the image measurement unit to the image processing unit. An object of the present invention is to provide a peripheral display device that reduces data and reduces the time spent on displaying a bird's-eye view image.
本発明に係る周辺表示装置の第1の態様は、自走可能な移動体における周辺の画像データを取得するステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体の外側に仮想的に配置された仮想カメラから俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記座標変換部から出力された前記第2の3次元画像データに基づいて俯瞰画像データを生成する画像生成部とを有した複数の画像測定部と、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部とを備えている。 A first aspect of the peripheral display device according to the present invention is a stereo camera that acquires peripheral image data in a self-propelled movable body, and a three-dimensional image that calculates first three-dimensional image data based on the image data. And the second three-dimensional image data obtained by converting the coordinate system of the first three-dimensional image data into a moving body coordinate system that is viewed from a virtual camera virtually arranged outside the moving body. A plurality of image measuring units, a plurality of image measuring units each including an image generating unit that generates overhead image data based on the second three-dimensional image data output from the coordinate converting unit, and the plurality of images And an image processing unit that integrates the bird's-eye view image data output from each measurement unit into one image to form a display image.
本発明に係る周辺表示装置の第2の態様は、前記画像生成部が、前記第2の3次元画像データと前記移動体の3次元モデルのデータとを合成し、前記移動体を原点とし、その周辺に前記第2の3次元画像データを配置して前記俯瞰画像データとする。 In a second aspect of the peripheral display device according to the present invention, the image generation unit synthesizes the second three-dimensional image data and the data of the three-dimensional model of the moving object, and uses the moving object as an origin. The second three-dimensional image data is arranged in the vicinity thereof and used as the overhead image data.
本発明に係る周辺表示装置の第3の態様は、前記画像処理部が、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータを移動体座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備えている。 In a third aspect of the peripheral display device according to the present invention, the image processing unit uses the overhead image data output from the plurality of image measurement units and the data of the three-dimensional model of the moving body as moving body coordinates. An image integration unit that integrates the moving object data represented by the system and generates integrated data in which the moving object is the origin and the overhead image data is arranged around the origin.
本発明に係る周辺表示装置の第4の態様は、前記複数の画像測定部のそれぞれは、前記ステレオカメラを複数有し、前記3次元化計算部および前記座標変換部は、前記複数のステレオカメラの個々に対して固有に対応付けられて一連の処理システムを構成し、前記画像生成部は、前記処理システムのそれぞれから出力される前記第2の3次元画像データを共通に受けて俯瞰画像データを生成する。 In a fourth aspect of the peripheral display device according to the present invention, each of the plurality of image measurement units includes a plurality of the stereo cameras, and the three-dimensional calculation unit and the coordinate conversion unit include the plurality of stereo cameras. A series of processing systems that are uniquely associated with each of the image processing units, and the image generation unit receives the second three-dimensional image data output from each of the processing systems in common and receives overhead image data. Is generated.
本発明に係る周辺表示装置の第5の態様は、自走可能な移動体における周辺の画像データを取得するステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記移動体の外側に仮想的に配置される仮想カメラを、ステレオカメラ座標系で表した仮想カメラデータを含む第2の3次元画像データを生成する変換部と、前記第2の3次元画像データと前記第1の3次元画像データとに基づいて俯瞰画像データを生成する画像生成部と、を有した複数の画像測定部と、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部と、を備えている。 A fifth aspect of the peripheral display device according to the present invention is a stereo camera that acquires peripheral image data in a self-propelled mobile body, and a three-dimensional image that calculates first three-dimensional image data based on the image data. A conversion calculation unit, a conversion unit that generates second 3D image data including virtual camera data in which a virtual camera virtually disposed outside the moving body is represented in a stereo camera coordinate system, and the second A plurality of image measurement units each including an image generation unit that generates overhead image data based on the three-dimensional image data and the first three-dimensional image data, and the plurality of image measurement units respectively output An image processing unit that integrates the overhead image data into a single image to generate a display image.
本発明に係る周辺表示装置の第6の態様は、前記第2の3次元画像データが、前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データを含み、前記画像生成部は、前記第1の3次元画像データと、仮想カメラデータおよび前記移動体データとを合成し、前記移動体を原点とし、その周辺に前記第1の3次元画像データを配置して前記俯瞰画像データとする。 In a sixth aspect of the peripheral display device according to the present invention, the second 3D image data includes moving body data in which a data of a 3D model of the moving body is represented in a stereo camera coordinate system, and the image generation The unit synthesizes the first three-dimensional image data, the virtual camera data, and the moving body data, uses the moving body as an origin, and arranges the first three-dimensional image data around the moving body, so that the overhead view is obtained. Let it be image data.
本発明に係る周辺表示装置の第7の態様は、前記画像処理部が、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備えている。 In a seventh aspect of the peripheral display device according to the present invention, the image processing unit converts the overhead image data output from each of the plurality of image measurement units and the data of the three-dimensional model of the moving body into stereo camera coordinates. An image integration unit that integrates the moving object data represented by the system and generates integrated data in which the moving object is the origin and the overhead image data is arranged around the origin.
本発明に係る周辺表示装置の第8の態様は、前記俯瞰画像データが、その構成画素ごとに前記仮想カメラからの距離情報を含んでいる。 In an eighth aspect of the peripheral display device according to the present invention, the overhead image data includes distance information from the virtual camera for each constituent pixel.
本発明に係る周辺表示装置の第9の態様は、前記画像処理部が、前記俯瞰画像データを1つの画像に統合する際に、重複して存在する画素データについて、前記距離情報を比較し、前記仮想カメラからの距離がより近い値を有する画素データを採用する処理を行う。 In a ninth aspect of the peripheral display device according to the present invention, when the image processing unit integrates the overhead image data into one image, the distance information is compared with respect to overlapping pixel data, A process of adopting pixel data having a value closer to the distance from the virtual camera is performed.
本発明に係る周辺表示装置の第10の態様は、前記画像生成部が、前記ステレオカメラで取得した前記画像データが、壁面の画像データである場合、前記画像データの撮影時の前記ステレオカメラの視線方向と、前記画像データの分布とに基づいて計算される前記壁面の向きが、前記仮想カメラから見て裏向きとなる場合は、前記壁面の画像データに該当する領域を半透明として表現する処理を行う。 In a tenth aspect of the peripheral display device according to the present invention, when the image data acquired by the stereo camera is image data of a wall surface, the stereo image of the stereo camera at the time of capturing the image data is acquired. When the direction of the wall surface calculated based on the line-of-sight direction and the distribution of the image data is facing away from the virtual camera, the area corresponding to the image data on the wall surface is expressed as translucent. Process.
本発明に係る周辺表示装置の第11の態様は、前記画像生成部が、前記ステレオカメラで取得した前記画像データが、前記仮想カメラの視野内に存在しない場合は、該ステレオカメラについては、前記俯瞰画像データを生成しない処理を行う。 In an eleventh aspect of the peripheral display device according to the present invention, when the image data acquired by the stereo camera is not within the visual field of the virtual camera, the stereo camera Processing that does not generate overhead image data is performed.
本発明に係る周辺表示装置の第1および第2の態様によれば、複数の画像測定部から俯瞰画像データが画像処理部に転送されるので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。 According to the first and second aspects of the peripheral display device according to the present invention, since the overhead image data is transferred from the plurality of image measurement units to the image processing unit, the three-dimensional information having a large amount of data is transferred. In comparison, the transfer time can be reduced, and the time required for the integration process can also be reduced.
本発明に係る周辺表示装置の第3の態様によれば、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。 According to the third aspect of the peripheral display device of the present invention, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.
本発明に係る周辺表示装置の第4の態様によれば、画像生成部を共通化することができ、システム構成を簡素化することができる。 According to the fourth aspect of the peripheral display device of the present invention, the image generation unit can be shared, and the system configuration can be simplified.
本発明に係る周辺表示装置の第5および第6の態様によれば、複数の画像測定部から俯瞰画像データが画像処理部に転送されるので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。 According to the fifth and sixth aspects of the peripheral display device according to the present invention, since the overhead image data is transferred from the plurality of image measuring units to the image processing unit, the three-dimensional information having a large amount of data is transferred. In comparison, the transfer time can be reduced, and the time required for the integration process can also be reduced.
本発明に係る周辺表示装置の第7の態様によれば、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。 According to the seventh aspect of the peripheral display device of the present invention, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.
本発明に係る周辺表示装置の第8の態様によれば、統合処理に際して、仮想カメラからの遠近によって、どの画素を採用するかしないかの判断に距離情報を使用することが可能となる。 According to the eighth aspect of the peripheral display device of the present invention, it is possible to use distance information to determine which pixel is not to be adopted depending on the perspective from the virtual camera during the integration process.
本発明に係る周辺表示装置の第9の態様によれば、距離情報を使用することで、重複する画素データの取捨選択を行うことができる。 According to the ninth aspect of the peripheral display device of the present invention, it is possible to select overlapping pixel data by using the distance information.
本発明に係る周辺表示装置の第10の態様によれば、移動体が壁に隠れるような場合でも、移動体を確認することができる。 According to the tenth aspect of the peripheral display device of the present invention, the moving body can be confirmed even when the moving body is hidden by the wall.
本発明に係る周辺表示装置の第11の態様によれば、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。 According to the eleventh aspect of the peripheral display device of the present invention, the amount of data transferred from the image measurement unit to the image processing unit can be further reduced.
<実施の形態1>
<装置構成1>
図1は、本発明に係る周辺表示装置を搭載した車両VCにおけるステレオカメラの配置例を示す図である。
<
<
FIG. 1 is a diagram showing an arrangement example of stereo cameras in a vehicle VC equipped with a peripheral display device according to the present invention.
図1において、車両VCには、前方、左右および後方の画像を取得する4台のステレオカメラが搭載されている。すなわち、前方の画像を取得するステレオカメラSC1、前方に対して右側の画像を取得するステレオカメラSC2、後方の画像を取得するステレオカメラSC3および前方に対して左側の画像を取得するステレオカメラSC4を備えている。 In FIG. 1, a vehicle VC is equipped with four stereo cameras that acquire front, left, and right images. That is, a stereo camera SC1 that acquires a front image, a stereo camera SC2 that acquires a right image with respect to the front, a stereo camera SC3 that acquires a rear image, and a stereo camera SC4 that acquires a left image with respect to the front. I have.
このようなシステムを用いることで、自車両の周辺の画像データを取得し、それを視点を変えて自車両の上方から見た俯瞰図に変更することが可能となる。 By using such a system, it is possible to acquire image data around the host vehicle, and change the viewpoint to an overhead view viewed from above the host vehicle.
なお、各カメラの実際の配置位置は車種によって異なるが、例えば、ステレオカメラSC1はルームミラーの位置に配置され、ステレオカメラSC2およびSC4は、それぞれ、右および左のサイドミラーの位置に配置され、ステレオカメラSC3は、リヤバンパーの位置などに配置される。なお、上記配置は一例であり、ステレオカメラの配置はこれに限定されるものではない。 The actual arrangement position of each camera differs depending on the vehicle type. For example, the stereo camera SC1 is arranged at the position of the room mirror, and the stereo cameras SC2 and SC4 are arranged at the positions of the right and left side mirrors, respectively. Stereo camera SC3 is arranged at the position of the rear bumper. The above arrangement is an example, and the arrangement of the stereo camera is not limited to this.
図2は、本発明に係る周辺表示装置100の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1、SC2、SC3およびSC4をそれぞれ含む画像測定部10、20、30および40と、画像測定部10〜40からそれぞれ出力される3次元画像データを統合処理して表示画像を生成する画像処理部50と、自車両の3次元モデルのデータを格納する記憶部7と、仮想カメラの視点位置の情報を含む仮想カメラ情報を格納する記憶部8とを主たる構成として備えている。
FIG. 2 is a block diagram showing the configuration of the
画像測定部10は、ステレオカメラSC1で得られた2次元画像データに基づいて、3次元画像データを算出する3次元化計算部11と、3次元化計算部11で計算された3次元画像データ(第1の3次元画像データ)に、自動車座標系(移動体座標系)内でのステレオカメラの位置、姿勢を表現する3次元変換行列を適用することで、ステレオカメラ座標系で表現された3次元画像データを自動車座標系で表現された3次元画像データ(第2の3次元画像データ)に変換する座標変換部12と、座標変換部12から出力された自動車座標系で表現された3次元画像データと、記憶部7に格納された自車両の3次元モデルのデータとを合成し、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データを生成する画像生成部13とを備えている。また、座標変換部12には、3次元変換行列Mat1を格納する記憶部14が接続されている。
The
画像測定部20も同じ構成を有し、ステレオカメラSC2、3次元化計算部21、座標変換部22と、画像生成部23および記憶部24を備えている。
The
画像測定部30も同じ構成を有し、ステレオカメラSC3、3次元化計算部31、座標変換部32と、画像生成部33および記憶部34を備えている。
The
画像測定部40も同じ構成を有し、ステレオカメラSC4、3次元化計算部41、座標変換部42と、画像生成部43および記憶部44を備えている。
The
画像処理部50は、画像測定部10〜40のそれぞれの画像生成部13、23、33および43から出力される俯瞰画像データを1つの画像に統合して3次元画像データ(統合データ)を生成する画像統合部5と、画像統合部5で生成された3次元画像データを表示画像として表示する画像表示部6とを備えている。
The
<基本動作>
次に、上述した構成を有する周辺表示装置100の基本動作について説明する。
<Basic operation>
Next, the basic operation of the
ステレオカメラSC1〜SC4は、何れも2台のカメラで異なる視点から同時に撮影を行い、3次元化計算部11、21、31および41のそれぞれでは、三角測量の原理に基づいて、対応するステレオカメラで得られた2つの画像の各画素を相互に対応付けし(対応点探索)、その得られた対応点の組のそれぞれについて視差、焦点距離、基線長などのパラメータから、各対応点の組についての3次元位置を求めることで3次元画像データを算出し、当該3次元画像データに対応するテクスチャ画像と共に出力する。
The stereo cameras SC1 to SC4 are both taken simultaneously from different viewpoints by the two cameras, and each of the three-
3次元化計算部11、21、31および41から出力される3次元画像データは、ステレオカメラ座標系で表現されているので、自動車座標系で表現された3次元画像データに変換するために座標変換部12、22、32および42において座標変換を行う。
Since the three-dimensional image data output from the three-
図3には、ステレオカメラSC1〜SC4のそれぞれにおけるステレオカメラ座標系と、自車両VCの自動車座標系とを模式的に示している。 In FIG. 3, the stereo camera coordinate system in each of stereo camera SC1-SC4 and the motor vehicle coordinate system of the own vehicle VC are shown typically.
図3において、ステレオカメラ座標系はx軸、y軸で表され、自動車座標系はX軸、Y軸で表されており、ステレオカメラ座標系は、ステレオカメラSC1〜SC4のそれぞれで異なっている。 In FIG. 3, the stereo camera coordinate system is represented by x-axis and y-axis, the automobile coordinate system is represented by X-axis and Y-axis, and the stereo camera coordinate system is different for each of the stereo cameras SC1 to SC4. .
また、図4には自動車座標系で表される3次元画像データを撮影する仮想カメラVCAを模式的に示しており、図5にはステレオカメラSC1〜SC4のそれぞれの座標系に対して、仮想カメラVCAの位置関係を模式的に示している。 FIG. 4 schematically shows a virtual camera VCA that captures three-dimensional image data represented in the vehicle coordinate system. FIG. 5 shows a virtual camera for each coordinate system of the stereo cameras SC1 to SC4. The positional relationship of camera VCA is shown typically.
すなわち、図5の(a)部には、ステレオカメラSC1の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示しており、矢印ARの示す方向が車両前部方向である。 That is, FIG. 5A shows the positional relationship of the virtual camera VCA with respect to the coordinate system of the stereo camera SC1, and the direction indicated by the arrow AR is the vehicle front direction. .
同様に、図5の(b)部には、ステレオカメラSC2の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示しており、図5の(c)部には、ステレオカメラSC3の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示しており、図5の(d)部には、ステレオカメラSC4の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示している。 Similarly, part (b) of FIG. 5 shows the positional relationship of virtual camera VCA with respect to the coordinate system of stereo camera SC2, and part (c) of FIG. The positional relationship of the virtual camera VCA with respect to the coordinate system of the camera SC3 is shown. FIG. 5D shows how the virtual camera VCA is relative to the coordinate system of the stereo camera SC4. It shows whether there is a proper positional relationship.
この座標変換は、3次元化計算部11、21、31および41から出力される3次元画像データに対して、それぞれ所定の3次元変換行列Mat1、Mat2、Mat3およびMat4を適用することで実行される。
This coordinate transformation is executed by applying predetermined three-dimensional transformation matrices Mat1, Mat2, Mat3, and Mat4 to the three-dimensional image data output from the three-
座標変換部12、22、32および42から出力される自動車座標系で表現された3次元画像データは、それぞれ画像生成部13、23、33および43に与えられる。
The three-dimensional image data expressed in the vehicle coordinate system output from the coordinate
画像生成部13、23、33および43では、自動車座標系で表現された3次元画像データと、テクスチャ画像と、記憶部7から与えられる自車両の3次元モデルのデータとを合成し、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データを生成する。
The
この際、生成する画像の各画素ごとに仮想カメラからの距離情報を持たせる構成としても良い。この距離情報は、画像統合部5での統合処理に際して、仮想カメラからの遠近によって、どの画素を採用するかしないかの判断に使用することができる。
At this time, distance information from the virtual camera may be provided for each pixel of the generated image. This distance information can be used to determine which pixel is not to be used depending on the distance from the virtual camera during the integration processing in the
このように、周辺表示装置100においては、画像測定部10、20、30および40に、それぞれ画像生成部13、23、33および43を備え、それぞれで俯瞰画像データを生成して、そのデータを画像処理部50に転送して統合処理するので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。
As described above, in the
また、画像生成部13、23、33および43では、それぞれ対応するステレオカメラSC1〜SC4で撮影した画像についてのみ俯瞰画像データを生成するので、俯瞰画像において各ステレオカメラの撮影範囲外の画素については、有効な画像データが存在しないものとして無効値を設定する。
In addition, since the
また、画像生成部13、23、33および43では、ステレオカメラで測定(撮影)された測定データが、例えば壁面を測定したデータである場合、この測定データの測定時のステレオカメラの視線方向と、測定データの分布とに基づいて計算される当該測定データの存在する面の向きが、仮想カメラから見て裏向きとなる場合は、当該測定データに該当する領域を画像に変換する際に、仮想カメラから見た側に壁面を表示することや、仮想カメラから見た側の壁面を、例えば画素値に反映させるデータを間引くなどして壁面として表示される画像を半透明にする処理を行うことも可能である。
Further, in the
また、仮想カメラの視野内に測定データが存在しないステレオカメラについては、俯瞰画像データを生成しないものとする。 In addition, it is assumed that overhead image data is not generated for a stereo camera in which no measurement data exists within the visual field of the virtual camera.
画像生成部13、23、33および43で生成された俯瞰画像データは、画像統合部5に与えられて1つの画像に統合されるが、このとき、記憶部8に格納された仮想カメラ情報に含まれる仮想カメラの視点位置の情報に基づいて統合が実行される。
The overhead image data generated by the
画像統合部5で統合された3次元画像データは、画像表示部6に与えられて、仮想カメラから見た俯瞰画像として表示される。
The three-dimensional image data integrated by the
ここで、画像統合部5では、最終的に得られる表示画像における特定の有効画素が、新たに得られた統合前の俯瞰画像データに重複して存在している場合、当該重複する画素が有する仮想カメラからの距離情報と、表示画像における特定の有効画素の仮想カメラからの距離情報とを比較し、より仮想カメラからの距離が近い値を有する画素のデータを採用する処理を行うこととしても良い。当該処理のフローチャートを図6に示す。
Here, in the
図6において、ステップS1において、最終的に得られる表示画像における特定の画素Pr(x,y)を取得する。 In FIG. 6, in step S1, a specific pixel Pr (x, y) in the finally obtained display image is acquired.
次に、ステップS2において、統合前の4つの俯瞰画像データ(4つのステレオカメラで得られたそれぞれの画像について仮想カメラ画像に座標変換したデータ)から、画素Prに対応する画素Pn(x,y)が存在するか否かを判定する。ここで、nは、4つの俯瞰画像データの番号を表しており、1〜4の何れかの数字となる。 Next, in step S2, the pixel Pn (x, y) corresponding to the pixel Pr is converted from the four bird's-eye view image data before integration (data obtained by coordinate-converting each image obtained by the four stereo cameras into a virtual camera image). ) Exists. Here, n represents the number of the four bird's-eye view image data, and is any number from 1 to 4.
ステップS2において、画素Prに対応する画素Pn(x,y)が存在すると判定された場合、何れかの画素Pn(x,y)を選択し、ステップS3において画素Pn(x,y)が無効画素であるか否かの判定を行う。 If it is determined in step S2 that the pixel Pn (x, y) corresponding to the pixel Pr exists, one of the pixels Pn (x, y) is selected, and the pixel Pn (x, y) is invalid in step S3. It is determined whether or not it is a pixel.
一方、ステップS2において、画素Prに対応する画素Pn(x,y)が存在しないと判定された場合は、処理を終了する。 On the other hand, if it is determined in step S2 that the pixel Pn (x, y) corresponding to the pixel Pr does not exist, the process ends.
ステップS3において、画素Pn(x,y)が無効画素である場合はステップS2の処理に戻り、他の俯瞰画像データにおいて、画素Prに対応する画素Pn(x,y)が存在するか否かを判定する。 In step S3, if the pixel Pn (x, y) is an invalid pixel, the process returns to step S2, and whether or not there is a pixel Pn (x, y) corresponding to the pixel Pr in the other overhead image data. Determine.
一方、ステップS3において、画素Pn(x,y)が有効画素であると判定された場合は、ステップS4において、画素Prの仮想カメラからの距離情報と、画素Pnの仮想カメラからの距離情報とを比較し、画素Pnの仮想カメラからの距離の方が、予め定めた閾値以上近いと判定された場合は、画素Prの画素値を画素Pnの画素値で置き換え、画素Prの距離情報を、画素Pnの距離情報に置き換える。 On the other hand, when it is determined in step S3 that the pixel Pn (x, y) is an effective pixel, in step S4, the distance information from the virtual camera of the pixel Pr and the distance information from the virtual camera of the pixel Pn If the distance from the virtual camera of the pixel Pn is determined to be closer than a predetermined threshold, the pixel value of the pixel Pr is replaced with the pixel value of the pixel Pn, and the distance information of the pixel Pr is Replace with the distance information of the pixel Pn.
一方、ステップS4において、画素Prの距離情報と画素Pnの距離情報との差が、予め定めた閾値よりも小さい場合は、画素値および距離情報の置き換えは行わず、ステップS2以下の処理を繰り返す。 On the other hand, if the difference between the distance information of the pixel Pr and the distance information of the pixel Pn is smaller than a predetermined threshold value in step S4, the pixel value and the distance information are not replaced, and the processes in and after step S2 are repeated. .
このような処理を行うことで、重複する画素データの取捨選択を行うことができる。 By performing such processing, it is possible to select overlapping pixel data.
<装置構成2>
以上説明した周辺表示装置100に代えて、図7に示す周辺表示装置100Aの構成を採ることも可能である。なお、図7に示す周辺表示装置100Aにおいて、図2に示した周辺表示装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
<
Instead of the
図2に示した周辺表示装置100においては、画像測定部10、20、30および40のそれぞれの画像生成部13、23、33および43において、自動車座標系で表現された3次元画像データと、記憶部7に格納された自車両の3次元モデルのデータを自動車座標系で表現した自車両データとを合成し、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データを生成するものとして説明したが、図7に示す周辺表示装置100Aにおいては、自車両の3次元モデルのデータとの合成は、画像処理部50Aに設けた画像生成部9において行う構成となっている。
In the
すなわち、図7に示すように、記憶部7に格納された自車両の3次元モデルのデータは、画像処理部50Aに設けた画像生成部9に与えられる構成となっており、画像生成部9で自車両の3次元モデルのデータを俯瞰画像データとし、画像生成部13、23、33および43において生成された俯瞰画像データとの統合を画像処理部50Aに設けた画像統合部5で行う構成となっている。また、仮想カメラ情報も、画像生成部9に与えられる構成となっている。
That is, as shown in FIG. 7, the data of the three-dimensional model of the host vehicle stored in the
このような構成を採ることで、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。 By adopting such a configuration, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.
<装置構成3>
図2に示した周辺表示装置100に代えて、図8に示す周辺表示装置100Bの構成を採ることも可能である。なお、図8に示す周辺表示装置100Bにおいて、図2に示した周辺表示装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
<Apparatus configuration 3>
Instead of the
図2に示した周辺表示装置100においては、画像測定部10、20、30および40が、それぞれ画像生成部13、23、33および43を有し、ステレオカメラS1〜S4で得られた2次元画像データについてそれぞれ、俯瞰画像データを生成するものとして説明したが、図8に示す周辺表示装置100Bにおいては、複数のステレオカメラで得られた2次元画像データを1つにまとめて俯瞰画像データを生成する構成となっている。
In the
すなわち、図8に示すように周辺表示装置100Bは、ステレオカメラSC1およびSC2を含む画像測定部10Aと、ステレオカメラSC3およびSC4を含む画像測定部20Aと、画像測定部10Aおよび20Aからそれぞれ出力される3次元画像データを統合処理して表示画像を生成する画像処理部50Aと、自車両の3次元モデルのデータを格納する記憶部7と、仮想カメラの視点位置の情報を含む仮想カメラ情報を格納する記憶部8とを主たる構成として備えている。
That is, as shown in FIG. 8,
画像測定部10Aは、ステレオカメラSC1からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部11、座標変換部12および記憶部14と、ステレオカメラSC2からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部21、座標変換部22および記憶部24と、座標変換部12および22の出力に基づいて俯瞰画像データを生成する画像生成部131とを備えている。
The
画像測定部20Aも同様であり、ステレオカメラSC3からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部21、座標変換部32および記憶部34と、ステレオカメラSC4からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部41、座標変換部42および記憶部44と、座標変換部32および42の出力に基づいて俯瞰画像データを生成する画像生成部231とを備えている。
The same applies to the
このような構成を採ることで、画像生成部を共通化することができ、システム構成を簡素化することができる。 By adopting such a configuration, it is possible to share the image generation unit and simplify the system configuration.
また、図8に示す周辺表示装置100Bにおいては、自車両の3次元モデルのデータとの合成は、画像処理部50Aに設けた画像生成部9において行う構成となっている。
Further, in the
すなわち、図8に示すように、記憶部7に格納された自車両の3次元モデルのデータは、画像処理部50Aに設けた画像生成部9に与えられる構成となっており、画像生成部131および231においては、自動車座標系で表現された3次元画像データを俯瞰画像データとして生成し、それぞれから画像処理部50Aに設けた画像生成部9に与える構成となっている。
That is, as shown in FIG. 8, the data of the three-dimensional model of the host vehicle stored in the
そして、それぞれの俯瞰画像データと、自車両の3次元モデルのデータとの合成は画像生成部9において行う構成となっている。
Then, the composition of the overhead image data and the data of the three-dimensional model of the host vehicle is performed in the
このような構成を採ることで、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。 By adopting such a configuration, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.
<実施の形態2>
<装置構成1>
図9は、本発明に係る周辺表示装置200の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1、SC2、SC3およびSC4をそれぞれ含む画像測定部101、201、301および401と、画像測定部101〜401からそれぞれ出力される3次元画像データを統合処理して表示画像を生成する画像処理部50と、自車両の3次元モデルのデータを格納する記憶部7と、仮想カメラの視点位置の情報を含む仮想カメラ情報を格納する記憶部8とを主たる構成として備えている。
<
<
FIG. 9 is a block diagram showing the configuration of the
画像測定部101は、ステレオカメラSC1で得られた2次元画像データに基づいて、3次元画像データを算出する3次元化計算部11と、自動車座標系(移動体座標系)で表現されている仮想カメラ情報(記憶部8に格納)および自車両の3次元モデルのデータ(記憶部7に格納)を受け、自動車座標系内での各ステレオカメラの位置、姿勢を表現する3次元変換行列(Mat11)を適用することで、仮想カメラの位置、姿勢をステレオカメラ座標系(図5)で表現した仮想カメラデータと、自車両の3次元モデルをステレオカメラ座標系で表現した自車両データを生成するパラメータ変換部15と、パラメータ変換部15から出力されたステレオカメラ座標系で表現された、仮想カメラデータおよび自車両データと、3次元化計算部11から出力されるステレオカメラ座標系で表現された3次元画像データとを合成し、ステレオカメラ座標系で表される仮想カメラから撮影した俯瞰画像データを生成する画像生成部13とを備えている。
The
また、パラメータ変換部15には、3次元変換行列Mat11を格納する記憶部14が接続されている。
The
画像測定部201も同じ構成を有し、ステレオカメラSC2、3次元化計算部21、パラメータ変換部25と、画像生成部23および3次元変換行列Mat21を格納する記憶部24を備えている。
The
画像測定部301も同じ構成を有し、ステレオカメラSC3、3次元化計算部31、パラメータ変換部35と、画像生成部33および3次元変換行列Mat31を格納する記憶部34を備えている。
The
画像測定部401も同じ構成を有し、ステレオカメラSC4、3次元化計算部41、パラメータ変換部45と、画像生成部43および3次元変換行列Mat41を格納する記憶部44を備えている。
The
画像処理部50は、画像測定部101〜401のそれぞれの画像生成部13、23、33および43から出力される俯瞰画像データを1つの画像に統合して3次元画像データ(統合データ)を生成する画像統合部5と、画像統合部5で生成された3次元画像データを表示画像として表示する画像表示部6とを備えている。
The
このような構成を採ることで、画像生成部13、23、33および43のそれぞれで俯瞰画像データを生成して、そのデータを画像処理部50に転送して統合処理するので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。
By adopting such a configuration, each of the
<基本動作>
次に、上述した構成を有する周辺表示装置200の基本動作について説明する。基本的には図2に示した周辺表示装置100の基本動作と同じであるが、画像生成部13、23、33および43では、3次元化計算部11、21、31および41から出力される3次元画像データに、座標変換部12、22、32および42でステレオカメラ座標系に座標変換された自車両の3次元モデルを合成し、ステレオカメラ座標系で表現される仮想カメラから撮影した俯瞰画像データを生成するという点が異なっている。
<Basic operation>
Next, the basic operation of the
ステレオカメラSC1〜SC4のそれぞれのステレオカメラ座標系を中心とした場合の仮想カメラVCAの位置関係は図5において示されており、画像測定部101〜401のそれぞれにおいては、各ステレオカメラ座標系で得られた3次元画像データと、自車両の3次元モデルを合成するので、画像測定部101においては、例えば図5の(a)部に示すように自車両VCの前部方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られることとなる。同様に、画像測定部102においては、例えば図5の(b)部に示すように自車両VCの前部方向とは垂直な方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られ、画像測定部103においては、例えば図5の(c)部に示すように自車両VCの前部方向とは反対方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られ、画像測定部104においては、例えば図5の(d)部に示すように自車両VCの前部方向とは垂直な方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られ、これらを画像処理部50において統合することで、周辺表示装置100と同様の仮想カメラから見た俯瞰画像を得ることができる。
The positional relationship of the virtual camera VCA when the stereo camera coordinate system of each of the stereo cameras SC1 to SC4 is centered is shown in FIG. 5. In each of the
<装置構成2>
以上説明した周辺表示装置200に代えて、図10に示す周辺表示装置200Aの構成を採ることも可能である。なお、図10に示す周辺表示装置200Aにおいて、図2に示した周辺表示装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
<
Instead of the
図9に示した周辺表示装置200においては、画像測定部101、201、301および401それぞれの画像生成部13、23、33および43において、ステレオカメラ座標系で表現された自車両の3次元モデルのデータをステレオカメラ座標系で表現した自車両データと、3次元化計算部11から出力されるステレオカメラ座標系で表現された3次元画像データとを合成して、ステレオカメラ座標系で表現される仮想カメラから撮影した俯瞰画像データを生成するものとして説明したが、図10に示す周辺表示装置200Aにおいては、自車両の3次元モデルのデータとの合成は、画像処理部50Aに設けた画像統合部5において行う構成となっている。
In the
すなわち、図10に示すように、記憶部7に格納された自車両の3次元モデルのデータは、画像処理部50Aに設けた画像生成部9に与えられて、ステレオカメラ座標系で表現された自車両データとされ、画像生成部13、23、33および43においては、ステレオカメラ座標系で表現された3次元画像データを俯瞰画像データとして生成し、それぞれから画像処理部50Aに設けた画像生成部9に与えられ、それぞれの俯瞰画像データと、自車両データとは画像統合部5において統合される構成となっている。また、仮想カメラ情報は、画像生成部9にも与えられる構成となっている。
That is, as shown in FIG. 10, the data of the three-dimensional model of the host vehicle stored in the
このような構成を採ることで、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。 By adopting such a configuration, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.
<仮想カメラによる俯瞰画像>
以上説明した実施の形態1および2の周辺表示装置で得られる俯瞰画像のバリエーションについて、以下に説明する。
<Overhead image by virtual camera>
Variations of the overhead image obtained by the peripheral display devices of the first and second embodiments described above will be described below.
<俯瞰画像の例1>
図11は、自車両VCの上方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左側に壁WLが接近して存在する状況を示している。このような状況において、ステレオカメラSC1〜SC4のそれぞれの撮影範囲を図12に示す。
<Example 1 of an overhead image>
FIG. 11 shows a situation where the virtual camera VCA is arranged above the host vehicle VC and the wall WL is close to the left side with respect to the front of the host vehicle VC. In such a situation, each imaging range of the stereo cameras SC1 to SC4 is shown in FIG.
図12において、ステレオカメラSC1の撮影範囲を領域R1として示し、ステレオカメラSC2の撮影範囲を領域R2として示し、ステレオカメラSC3の撮影範囲を領域R3として示し、ステレオカメラSC4の撮影範囲を領域R4として示している。 In FIG. 12, the shooting range of stereo camera SC1 is shown as region R1, the shooting range of stereo camera SC2 is shown as region R2, the shooting range of stereo camera SC3 is shown as region R3, and the shooting range of stereo camera SC4 is shown as region R4. Show.
そして、ステレオカメラSC1〜SC4で撮影された2次元画像は図13に示される画像として表すことができる。 And the two-dimensional image image | photographed with stereo camera SC1-SC4 can be represented as an image shown by FIG.
すなわち、図13の(a)部に示すように、ステレオカメラSC1で撮影された画像には、壁WLの前方側端部が写っており、図13の(b)部に示すように、ステレオカメラSC2で撮影された画像には、壁WLは写っていない。また、図13の(c)部に示すように、ステレオカメラSC3で撮影された画像には、壁WLの後方側端部が写っており、図13の(d)部に示すように、ステレオカメラSC4で撮影された画像には、連続する壁WLが写っている。 That is, as shown in part (a) of FIG. 13, the front end of the wall WL is reflected in the image taken by the stereo camera SC1, and as shown in part (b) of FIG. The wall WL is not shown in the image taken by the camera SC2. Further, as shown in part (c) of FIG. 13, the rear end of the wall WL is reflected in the image photographed by the stereo camera SC3. As shown in part (d) of FIG. A continuous wall WL is shown in the image taken by the camera SC4.
図2に示した周辺表示装置100を例に採れば、このような画像の2次元画像データに基づいて、3次元画像データを算出し、3次元画像データに、自動車座標系内でのステレオカメラの位置、姿勢を表現する3次元変換行列を適用することで、ステレオカメラ座標系で表現された3次元画像データを自動車座標系で表現された3次元画像データに変換し、画像生成部において、自車両の3次元モデルのデータと合成して、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データが生成される。
If the
図14には、周辺表示装置100の画像生成部13、23、33および43において生成された俯瞰画像を示す。
FIG. 14 shows overhead images generated by the
先に説明したように、画像生成部13、23、33および43では、それぞれ対応するステレオカメラSC1〜SC4で撮影した画像についてのみ俯瞰画像データを生成するので、俯瞰画像において各ステレオカメラの撮影範囲外の画素については、無効値を設定する。従って、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図14の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。
As described above, the
同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図14の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。 Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the imaging range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black.
また、ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図14の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。 In addition, in the overhead image data for the image captured by the stereo camera SC3, pixels other than the region R3 indicating the imaging range of the stereo camera SC3 are invalid pixels, as shown in part (c) of FIG. Shown in black.
また、ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図14の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。 In addition, in the overhead image data for the image captured by the stereo camera SC4, pixels other than the region R4 indicating the imaging range of the stereo camera SC4 are invalid pixels, as shown in the part (d) of FIG. Shown in black.
このような、俯瞰画像データを画像処理部50に転送することで、転送すべきデータ量を削減することが可能となる。
By transferring such overhead image data to the
<俯瞰画像の例2>
図15は、自車両VCの前方に対して右側面の外方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左側に壁WLが接近して存在する状況を示している。このような状況において、ステレオカメラSC1〜SC4(図1)で撮影された画像は図13に示されたものと同じとなるが、例えば、周辺表示装置100の画像生成部13、23、33および43において生成された俯瞰画像は、図16に示される画像として表すことができる。
<Example 2 of an overhead image>
FIG. 15 shows a situation in which the virtual camera VCA is disposed outside the right side with respect to the front of the host vehicle VC, and the wall WL is close to the left side with respect to the front of the host vehicle VC. ing. In such a situation, the images taken by the stereo cameras SC1 to SC4 (FIG. 1) are the same as those shown in FIG. 13, but for example, the
すなわち、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図16の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R1には壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 That is, in the overhead image data for the image captured by the stereo camera SC1, the pixels other than the region R1 indicating the imaging range of the stereo camera SC1 are invalid pixels as shown in part (a) of FIG. Shown in black. Since the region R1 includes the wall surface of the wall WL, the wall surface is shown as an effective pixel.
同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図16の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R2には壁WLは含まれていない。 Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the shooting range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black. Note that the wall R is not included in the region R2.
ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図16の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R3には壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 In the bird's-eye view image data for the image captured by the stereo camera SC3, as shown in part (c) of FIG. 16, pixels other than the region R3 indicating the imaging range of the stereo camera SC3 are invalid pixels and are filled in black. Is shown. Note that since the region R3 includes the wall surface of the wall WL, the wall surface is shown as an effective pixel.
ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図16の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R4には壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 In the bird's-eye view image data for the image photographed by the stereo camera SC4, as shown in the part (d) of FIG. 16, the pixels other than the region R4 indicating the photographing range of the stereo camera SC4 are invalid pixels and are blacked out. Is shown. Since the region R4 includes the wall surface of the wall WL, the wall surface is shown as an effective pixel.
<俯瞰画像の例3>
図17は、自車両VCの後方上方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左右に壁WLが接近して存在する状況を示している。このような状況において、ステレオカメラSC1〜SC4(図1)で撮影された画像を図18に示す。
<Example 3 of an overhead image>
FIG. 17 shows a situation where the virtual camera VCA is arranged at the upper rear side of the host vehicle VC and the wall WL is close to the left and right of the front of the host vehicle VC. In such a situation, images taken by stereo cameras SC1 to SC4 (FIG. 1) are shown in FIG.
すなわち、図18の(a)部に示すように、ステレオカメラSC1で撮影された画像には、左右の壁WLのそれぞれの前方側端部が写っており、図18の(b)部に示すように、ステレオカメラSC2で撮影された画像には、連続する右側の壁WLが写っている。また、図18の(c)部に示すように、ステレオカメラSC3で撮影された画像には、左右の壁WLの後方側端部が写っており、図18の(d)部に示すように、ステレオカメラSC4で撮影された画像には、連続する左側の壁WLが写っている。 That is, as shown in part (a) of FIG. 18, the front end portions of the left and right walls WL are reflected in the image taken by the stereo camera SC <b> 1, and are shown in part (b) of FIG. 18. As described above, the continuous right wall WL is shown in the image taken by the stereo camera SC2. Further, as shown in FIG. 18 (c), the image captured by the stereo camera SC3 includes the rear end portions of the left and right walls WL, as shown in FIG. 18 (d). In the image taken by the stereo camera SC4, the continuous left wall WL is shown.
ここで、先に説明したように、画像生成部13、23、33および43では、ステレオカメラで測定(撮影)された測定データが、例えば壁面を測定したデータである場合、この測定データの測定時のステレオカメラの視線方向と、測定データの分布とに基づいて計算される当該測定データの存在する面の向きが、仮想カメラから見て裏向きとなる場合、すなわち仮想カメラVCAが図16に示すような位置にある場合は、当該測定データに該当する領域を画像に変換する際に、仮想カメラから見た側に壁面を表示する処理を行うことが可能であるので、図18に示した画像データは、図2に示した周辺表示装置100を例に採れば、図19に示される俯瞰画像として表すことができる。
Here, as described above, in the
すなわち、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図19の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R1には左側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 That is, in the bird's-eye view image data for the image captured by the stereo camera SC1, the pixels other than the region R1 indicating the imaging range of the stereo camera SC1 are invalid pixels as shown in part (a) of FIG. Shown in black. Note that since the region R1 includes the wall surface of the left wall WL, the wall surface is shown as an effective pixel.
同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図19の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R2には連続する右側の壁WLの壁面が含まれるので、当該壁面は有効画素とし、仮想カメラから見た側に壁面を表示している。 Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the shooting range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black. Since the region R2 includes the wall surface of the continuous right wall WL, the wall surface is an effective pixel, and the wall surface is displayed on the side viewed from the virtual camera.
ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図19の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R3には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 As shown in FIG. 19 (c), the overhead image data for the image captured by the stereo camera SC3 is a pixel that is not a pixel other than the region R3 indicating the imaging range of the stereo camera SC3, and is blacked out. Is shown. In addition, since the wall surface of the right wall WL is included in the region R3, the wall surface is shown as an effective pixel.
ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図19の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R4には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 In the bird's-eye view image data for the image captured by the stereo camera SC4, pixels other than the region R4 indicating the shooting range of the stereo camera SC4 are invalid pixels as shown in FIG. Is shown. In addition, since the wall surface of the right wall WL is included in the region R4, the wall surface is shown as an effective pixel.
<俯瞰画像の例4>
また、先に説明したように、画像生成部13、23、33および43では、ステレオカメラで測定(撮影)された測定データが、例えば壁面を測定したデータである場合、この測定データの測定時のステレオカメラの視線方向と、測定データの分布とに基づいて計算される当該測定データの存在する面の向きが、仮想カメラから見て裏向きとなる場合、すなわち仮想カメラVCAが図16に示すような位置にある場合は、当該測定データに該当する領域を画像に変換する際に、仮想カメラから見た側の壁面を、画素値に反映させるデータを間引くなどして壁面として表示される画像を半透明にする処理を行うことも可能であるので、図18に示した画像データは、図2に示した周辺表示装置100を例に採れば、図20に示される俯瞰画像として表すことができる。
<Example 4 of an overhead image>
Further, as described above, in the
すなわち、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図20の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R1には左側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 That is, in the overhead image data for the image captured by the stereo camera SC1, the pixels other than the region R1 indicating the imaging range of the stereo camera SC1 are invalid pixels as shown in part (a) of FIG. Shown in black. Note that since the region R1 includes the wall surface of the left wall WL, the wall surface is shown as an effective pixel.
同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図20の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R2には連続する右側の壁WLの壁面が含まれるので、当該壁面は有効画素とし、仮想カメラから見た側に壁面を表示しているが、ここでは、データを間引くなどして壁面として表示される画像を半透明にして表示している。 Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the shooting range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black. In addition, since the wall surface of the right side wall WL is included in the region R2, the wall surface is regarded as an effective pixel, and the wall surface is displayed on the side viewed from the virtual camera. The image displayed as the wall surface is displayed as being translucent.
ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図20の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R3には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 In the bird's-eye view image data for the image captured by the stereo camera SC3, pixels other than the region R3 indicating the imaging range of the stereo camera SC3 are invalid pixels as shown in FIG. Is shown. In addition, since the wall surface of the right wall WL is included in the region R3, the wall surface is shown as an effective pixel.
ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図20の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R4には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。 In the bird's-eye view image data for the image captured by the stereo camera SC4, pixels other than the region R4 indicating the imaging range of the stereo camera SC4 are invalid pixels as shown in FIG. Is shown. In addition, since the wall surface of the right wall WL is included in the region R4, the wall surface is shown as an effective pixel.
以上説明した、例1〜例4の俯瞰画像を統合した俯瞰画像を図21〜図24に示す。すなわち、図21は、図14の(a)部〜(d)部に示した俯瞰画像を統合した図であり、図22は、図16の(a)部〜(d)部に示した俯瞰画像を統合した図であり、図23は、図19の(a)部〜(d)部に示した俯瞰画像を統合した図であり、図24は、図20の(a)部〜(d)部に示した俯瞰画像を統合した図である。 The overhead images obtained by integrating the overhead images of Examples 1 to 4 described above are shown in FIGS. That is, FIG. 21 is a view obtained by integrating the bird's-eye view images shown in the parts (a) to (d) of FIG. 14, and FIG. 22 is a bird's-eye view shown in the parts (a) to (d) of FIG. FIG. 23 is a diagram in which the overhead images shown in (a) to (d) of FIG. 19 are integrated, and FIG. 24 is a diagram in which (a) to (d) of FIG. It is the figure which integrated the bird's-eye view image shown to the part.
<俯瞰画像の例5>
図11に示したように、自車両VCの上方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左側に壁WLが接近して存在する状況において、ステレオカメラSC1〜SC4(図1)で撮影された画像は図13に示されたものと同じとなるが、例えば、図8に示す周辺表示装置100Bの画像生成部131および231において生成された俯瞰画像は、図25に示される画像として表すことができる。
<Example 5 of an overhead image>
As shown in FIG. 11, in the situation where the virtual camera VCA is arranged above the host vehicle VC and the wall WL is close to the left side with respect to the front of the host vehicle VC, the stereo cameras SC1 to SC1. The image taken in SC4 (FIG. 1) is the same as that shown in FIG. 13. For example, the overhead image generated in the
すなわち、ステレオカメラSC1およびSC2で撮影した画像についての俯瞰画像データは、図25の(a)部に示されるように、ステレオカメラSC1およびSC2の撮影範囲を示す領域R1およびR2以外の画素は無効画素となっており、黒く塗り潰して示されている。 In other words, the overhead image data for the images taken by the stereo cameras SC1 and SC2 is invalid for the pixels other than the regions R1 and R2 indicating the shooting ranges of the stereo cameras SC1 and SC2, as shown in part (a) of FIG. It is a pixel and is shown in black.
同様に、ステレオカメラSC3およびSC4で撮影した画像についての俯瞰画像データは、図25の(b)部に示されるように、ステレオカメラSC3およびSC4の撮影範囲を示す領域R3およびR4以外の画素は無効画素となっており、黒く塗り潰して示されている。 Similarly, as shown in FIG. 25 (b), the overhead image data for the images captured by the stereo cameras SC3 and SC4 is the pixels other than the regions R3 and R4 indicating the imaging ranges of the stereo cameras SC3 and SC4. It is an invalid pixel and is shown in black.
<変形例>
図1においては、車両VCの4方向に1台ずつステレオカメラを配置した例を示したが、図26に示されるように、車両VCの4方向に2台ずつステレオカメラを配置する構成としても良い。
<Modification>
FIG. 1 shows an example in which one stereo camera is arranged in four directions of the vehicle VC. However, as shown in FIG. 26, two stereo cameras may be arranged in four directions of the vehicle VC. good.
すなわち、図26に示すように、車両VCの、前方の左右の画像を取得するステレオカメラSC1およびSC2が配置され、前方に対して右側の前方寄りおよび後方寄りの画像を取得するステレオカメラSC3およびSC4が配置され、後方の左右の画像を取得するステレオカメラSC5およびSC6が配置され、前方に対して左側の後方寄りおよび前方寄りの画像を取得するステレオカメラSC7およびSC8が配置されている。 That is, as shown in FIG. 26, stereo cameras SC1 and SC2 that acquire the left and right images of the vehicle VC are arranged, and the stereo camera SC3 that acquires images on the right front side and rear side with respect to the front side. SC4 is arranged, stereo cameras SC5 and SC6 for obtaining the left and right images at the rear are arranged, and stereo cameras SC7 and SC8 for obtaining the images at the rear left side and the front side of the left side with respect to the front are arranged.
このようなシステムを用いることで、より、死角の少ない周辺の画像データを取得することが可能となる。 By using such a system, it is possible to acquire peripheral image data with fewer blind spots.
5 画像統合部
11,21,31,41 3次元化計算部
12,22,32,42 座標変換部
13,23,33,43 画像生成部
15,25,35,45 変換部
10〜40 画像測定部
50,50A 画像処理部
SC1〜SC4 ステレオカメラ
5
Claims (11)
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体の外側に仮想的に配置された仮想カメラから俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記座標変換部から出力された前記第2の3次元画像データに基づいて俯瞰画像データを生成する画像生成部と、を有した複数の画像測定部と、
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部と、を備える周辺表示装置。 A stereo camera that acquires image data of the surroundings of a self-propelled moving object;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is viewed from a virtual camera that is virtually arranged outside the moving body to obtain second 3D image data. When,
A plurality of image measurement units each including an image generation unit that generates overhead image data based on the second three-dimensional image data output from the coordinate conversion unit;
A peripheral display device comprising: an image processing unit that integrates the bird's-eye image data output from the plurality of image measurement units into one image to form a display image.
前記第2の3次元画像データと前記移動体の3次元モデルのデータとを合成し、前記移動体を原点とし、その周辺に前記第2の3次元画像データを配置して前記俯瞰画像データとする、請求項1記載の周辺表示装置。 The image generation unit
The second three-dimensional image data and the data of the three-dimensional model of the moving object are combined, the moving object is set as the origin, and the second three-dimensional image data is arranged around the origin, and the overhead image data and The peripheral display device according to claim 1.
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータを移動体座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備える、請求項1記載の周辺表示装置。 The image processing unit
The bird's-eye view image data output from each of the plurality of image measuring units and the moving object data representing the data of the three-dimensional model of the moving object in a moving object coordinate system, the moving object as an origin, The peripheral display device according to claim 1, further comprising an image integration unit that generates integrated data in which the overhead image data is arranged in the periphery.
前記ステレオカメラを複数有し、
前記3次元化計算部および前記座標変換部は、前記複数のステレオカメラの個々に対して固有に対応付けられて一連の処理システムを構成し、
前記画像生成部は、前記処理システムのそれぞれから出力される前記第2の3次元画像データを共通に受けて俯瞰画像データを生成する、請求項1記載の周辺表示装置。 Each of the plurality of image measuring units is
A plurality of stereo cameras;
The three-dimensional calculation unit and the coordinate conversion unit are uniquely associated with each of the plurality of stereo cameras to form a series of processing systems,
The peripheral display device according to claim 1, wherein the image generation unit generates the overhead image data by commonly receiving the second three-dimensional image data output from each of the processing systems.
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記移動体の外側に仮想的に配置される仮想カメラを、ステレオカメラ座標系で表した仮想カメラデータを含む第2の3次元画像データを生成する変換部と、
前記第2の3次元画像データと前記第1の3次元画像データとに基づいて俯瞰画像データを生成する画像生成部と、を有した複数の画像測定部と、
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部と、を備える周辺表示装置。 A stereo camera that acquires image data of the surroundings of a self-propelled moving object;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A conversion unit that generates second three-dimensional image data including virtual camera data in which a virtual camera virtually disposed outside the moving body is represented in a stereo camera coordinate system;
A plurality of image measurement units each including an image generation unit that generates overhead image data based on the second three-dimensional image data and the first three-dimensional image data;
A peripheral display device comprising: an image processing unit that integrates the bird's-eye image data output from the plurality of image measurement units into one image to form a display image.
前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データを含み、
前記画像生成部は、
前記第1の3次元画像データと、仮想カメラデータおよび前記移動体データとを合成し、前記移動体を原点とし、その周辺に前記第1の3次元画像データを配置して前記俯瞰画像データとする、請求項5記載の周辺表示装置。 The second three-dimensional image data is
Including mobile object data representing the data of the three-dimensional model of the mobile object in a stereo camera coordinate system;
The image generation unit
The first three-dimensional image data, the virtual camera data, and the moving body data are synthesized, the moving body is set as an origin, and the first three-dimensional image data is arranged around the moving body data, and the overhead image data The peripheral display device according to claim 5.
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備える、請求項5記載の周辺表示装置。 The image processing unit
The overhead image data output from each of the plurality of image measuring units and the moving body data representing the data of the three-dimensional model of the moving body in a stereo camera coordinate system are integrated, and the moving body is used as an origin, The peripheral display device according to claim 5, further comprising an image integration unit that generates integrated data in which the overhead image data is arranged around the periphery.
前記俯瞰画像データを1つの画像に統合する際に、重複して存在する画素データについて、前記距離情報を比較し、前記仮想カメラからの距離がより近い値を有する画素データを採用する処理を行う、請求項8記載の周辺表示装置。 The image processing unit
When integrating the bird's-eye view image data into a single image, the distance information is compared with respect to overlapping pixel data, and pixel data having a closer distance from the virtual camera is used. The peripheral display device according to claim 8.
前記ステレオカメラで取得した前記画像データが、壁面の画像データである場合、前記画像データの撮影時の前記ステレオカメラの視線方向と、前記画像データの分布とに基づいて計算される前記壁面の向きが、前記仮想カメラから見て裏向きとなる場合は、前記壁面の画像データに該当する領域を半透明として表現する処理を行う、請求項1または請求項5記載の周辺表示装置。 The image generation unit
When the image data acquired by the stereo camera is image data of a wall surface, the direction of the wall surface calculated based on the line-of-sight direction of the stereo camera at the time of capturing the image data and the distribution of the image data 6. The peripheral display device according to claim 1 or 5, wherein, when facing away from the virtual camera, processing for expressing a region corresponding to the image data on the wall surface as translucent is performed.
前記ステレオカメラで取得した前記画像データが、前記仮想カメラの視野内に存在しない場合は、該ステレオカメラについては、前記俯瞰画像データを生成しない処理を行う、請求項1または請求項5記載の周辺表示装置。 The image generation unit
6. The peripheral according to claim 1 or 5, wherein when the image data acquired by the stereo camera does not exist within the field of view of the virtual camera, the stereo camera performs processing that does not generate the overhead image data. Display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009119892A JP2010268369A (en) | 2009-05-18 | 2009-05-18 | Peripheral display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009119892A JP2010268369A (en) | 2009-05-18 | 2009-05-18 | Peripheral display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010268369A true JP2010268369A (en) | 2010-11-25 |
Family
ID=43364955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009119892A Pending JP2010268369A (en) | 2009-05-18 | 2009-05-18 | Peripheral display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010268369A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737406A (en) * | 2011-04-06 | 2012-10-17 | 卡西欧计算机株式会社 | Three-dimensional modeling apparatus and method |
-
2009
- 2009-05-18 JP JP2009119892A patent/JP2010268369A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737406A (en) * | 2011-04-06 | 2012-10-17 | 卡西欧计算机株式会社 | Three-dimensional modeling apparatus and method |
JP2012221128A (en) * | 2011-04-06 | 2012-11-12 | Casio Comput Co Ltd | Three-dimensional modeling device, three-dimensional modeling method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6079131B2 (en) | Image processing apparatus, method, and program | |
JP7038345B2 (en) | Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device | |
US8817079B2 (en) | Image processing apparatus and computer-readable recording medium | |
JP6311020B2 (en) | Image composition system, image composition apparatus and image composition method therefor | |
JP6310652B2 (en) | Video display system, video composition device, and video composition method | |
KR102126241B1 (en) | Image processing device, image processing method, program for image processing device, storage medium, and image display device | |
JP5057936B2 (en) | Bird's-eye image generation apparatus and method | |
JP4642723B2 (en) | Image generating apparatus and image generating method | |
JP5676092B2 (en) | Panorama image generation method and panorama image generation program | |
JP5412979B2 (en) | Peripheral display device | |
JP2004062758A (en) | Information processor and information processing method | |
JP6969121B2 (en) | Imaging system, image processing device and image processing program | |
JP5299296B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP5481337B2 (en) | Image processing device | |
JP2009118416A (en) | Vehicle-periphery image generating apparatus and method of correcting distortion of vehicle-periphery image | |
JP2015074436A (en) | Image processing device, image processing method, and program | |
KR20130025005A (en) | Apparatus and method for compensating around image of vehicle | |
KR102049456B1 (en) | Method and apparatus for formating light field image | |
JP2010287029A (en) | Periphery display device | |
JP5299101B2 (en) | Peripheral display device | |
JP2011024079A (en) | Peripheral display device | |
JP2020129823A (en) | Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program | |
JP7074546B2 (en) | Image processing equipment and methods | |
JP2001256482A (en) | Device and method for generating parallax image | |
JP2010268369A (en) | Peripheral display device |