JP2010268369A - Peripheral display device - Google Patents

Peripheral display device Download PDF

Info

Publication number
JP2010268369A
JP2010268369A JP2009119892A JP2009119892A JP2010268369A JP 2010268369 A JP2010268369 A JP 2010268369A JP 2009119892 A JP2009119892 A JP 2009119892A JP 2009119892 A JP2009119892 A JP 2009119892A JP 2010268369 A JP2010268369 A JP 2010268369A
Authority
JP
Japan
Prior art keywords
image
image data
data
dimensional
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009119892A
Other languages
Japanese (ja)
Inventor
Shinichi Hotta
伸一 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2009119892A priority Critical patent/JP2010268369A/en
Publication of JP2010268369A publication Critical patent/JP2010268369A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a peripheral display device reduced in time spent for display of an overhead image by reducing data to be transferred from an image measurement part to an image processing part, in a peripheral display device for displaying an overhead image around a self-propelled mobile object. <P>SOLUTION: The image measurement part 10 includes: a three-dimensionalization calculation part 11 for calculating three-dimensional image data based on two-dimensional image data obtained by a stereo camera SC1; a coordinate conversion part 12 for converting the three-dimensional image data to three-dimensional image data expressed by an automobile coordinate system by applying, into the three-dimensional image data, a three-dimensional conversion matrix for expressing the position and attitude of the stereo camera in the automobile coordinate system; and an image generation part 13 for combining the three-dimensional image data with data of a three-dimensional model of the own vehicle, and generating, by using the own vehicle as an origin of the automobile coordinate system, overhead image data with the three-dimensional image data, expressed by the automobile coordinate system, arranged around it. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は周辺表示装置に関し、特に、自走可能な移動体の周辺状況を俯瞰的に表示する周辺表示装置に関する。   The present invention relates to a peripheral display device, and more particularly, to a peripheral display device that displays a bird's-eye view of a surrounding state of a mobile object capable of self-running.

複数の撮像手段によって車両周辺の2次元画像を個々に撮像し、それぞれの画像を視点変換して路面を投影面とする複数の俯瞰画像を作成し、当該複数の俯瞰画像を車両周辺に並べるように合成することで、自車両周辺の俯瞰画像を得る種々の技術が開示されている。   Two-dimensional images around the vehicle are individually picked up by a plurality of imaging means, and a plurality of overhead images are created with the road surface as a projection plane by converting each image to a viewpoint, and the plurality of overhead images are arranged around the vehicle. Various techniques for obtaining a bird's-eye view of the vicinity of the host vehicle by combining them are disclosed.

例えば、特許文献1には、車両後方を撮影するステレオカメラを設け、ステレオ測定の信頼度に応じて画像合成方法を変えて表示画像を作成する方法が開示されている。   For example, Patent Document 1 discloses a method of providing a stereo camera that captures the rear of a vehicle and creating a display image by changing an image synthesis method according to the reliability of stereo measurement.

また、特許文献2では、ステレオカメラで計測された3次元情報を用いて物体の高さ情報を考慮した疑似画像(高さ方向に圧縮した画像)を含んだ俯瞰画像を作成することで視認性の向上を図る技術が開示されている。   Further, in Patent Document 2, visibility is created by creating a bird's-eye view image including a pseudo image (an image compressed in the height direction) considering the height information of an object using three-dimensional information measured by a stereo camera. A technique for improving the above is disclosed.

特開2004−56778号公報JP 2004-56778 A 特開2006−333009号公報JP 2006-333209 A

車両周辺の画像を3次元的に表示するには、ステレオカメラで取得した2次元画像に基づいて距離情報を含む3次元情報を取得する3次元化計算が必要であり、また、取得した3次元情報に基づいて描画を行う必要があるが、一般的には、各ステレオカメラに対応する3次元情報を画像処理部で統合処理して俯瞰画像を生成している。   In order to display an image around the vehicle three-dimensionally, a three-dimensional calculation for acquiring three-dimensional information including distance information based on a two-dimensional image acquired by a stereo camera is required. Although it is necessary to perform drawing based on the information, generally, an overhead image is generated by integrating processing of three-dimensional information corresponding to each stereo camera by an image processing unit.

しかし、3次元情報はデータ量が多く、ステレオカメラをそれぞれ含む各画像測定部から画像処理部にデータを転送するのに時間を要し、また、統合処理にも時間を要するという問題があった。   However, the three-dimensional information has a large amount of data, and it takes time to transfer data from each image measurement unit including a stereo camera to the image processing unit, and also requires time for integration processing. .

本発明は上記のような問題点を解消するためになされたもので、自動車などの自走可能な移動体周辺の俯瞰画像を表示する周辺表示装置において、画像測定部から画像処理部に転送するデータを削減して、俯瞰画像の表示に費やす時間を削減した周辺表示装置を提供することを目的とする。   The present invention has been made to solve the above-described problems. In a peripheral display device that displays a bird's-eye view image around a mobile object such as an automobile, it is transferred from the image measurement unit to the image processing unit. An object of the present invention is to provide a peripheral display device that reduces data and reduces the time spent on displaying a bird's-eye view image.

本発明に係る周辺表示装置の第1の態様は、自走可能な移動体における周辺の画像データを取得するステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記第1の3次元画像データの座標系を、前記移動体の外側に仮想的に配置された仮想カメラから俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、前記座標変換部から出力された前記第2の3次元画像データに基づいて俯瞰画像データを生成する画像生成部とを有した複数の画像測定部と、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部とを備えている。   A first aspect of the peripheral display device according to the present invention is a stereo camera that acquires peripheral image data in a self-propelled movable body, and a three-dimensional image that calculates first three-dimensional image data based on the image data. And the second three-dimensional image data obtained by converting the coordinate system of the first three-dimensional image data into a moving body coordinate system that is viewed from a virtual camera virtually arranged outside the moving body. A plurality of image measuring units, a plurality of image measuring units each including an image generating unit that generates overhead image data based on the second three-dimensional image data output from the coordinate converting unit, and the plurality of images And an image processing unit that integrates the bird's-eye view image data output from each measurement unit into one image to form a display image.

本発明に係る周辺表示装置の第2の態様は、前記画像生成部が、前記第2の3次元画像データと前記移動体の3次元モデルのデータとを合成し、前記移動体を原点とし、その周辺に前記第2の3次元画像データを配置して前記俯瞰画像データとする。   In a second aspect of the peripheral display device according to the present invention, the image generation unit synthesizes the second three-dimensional image data and the data of the three-dimensional model of the moving object, and uses the moving object as an origin. The second three-dimensional image data is arranged in the vicinity thereof and used as the overhead image data.

本発明に係る周辺表示装置の第3の態様は、前記画像処理部が、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータを移動体座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備えている。   In a third aspect of the peripheral display device according to the present invention, the image processing unit uses the overhead image data output from the plurality of image measurement units and the data of the three-dimensional model of the moving body as moving body coordinates. An image integration unit that integrates the moving object data represented by the system and generates integrated data in which the moving object is the origin and the overhead image data is arranged around the origin.

本発明に係る周辺表示装置の第4の態様は、前記複数の画像測定部のそれぞれは、前記ステレオカメラを複数有し、前記3次元化計算部および前記座標変換部は、前記複数のステレオカメラの個々に対して固有に対応付けられて一連の処理システムを構成し、前記画像生成部は、前記処理システムのそれぞれから出力される前記第2の3次元画像データを共通に受けて俯瞰画像データを生成する。   In a fourth aspect of the peripheral display device according to the present invention, each of the plurality of image measurement units includes a plurality of the stereo cameras, and the three-dimensional calculation unit and the coordinate conversion unit include the plurality of stereo cameras. A series of processing systems that are uniquely associated with each of the image processing units, and the image generation unit receives the second three-dimensional image data output from each of the processing systems in common and receives overhead image data. Is generated.

本発明に係る周辺表示装置の第5の態様は、自走可能な移動体における周辺の画像データを取得するステレオカメラと、前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、前記移動体の外側に仮想的に配置される仮想カメラを、ステレオカメラ座標系で表した仮想カメラデータを含む第2の3次元画像データを生成する変換部と、前記第2の3次元画像データと前記第1の3次元画像データとに基づいて俯瞰画像データを生成する画像生成部と、を有した複数の画像測定部と、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部と、を備えている。   A fifth aspect of the peripheral display device according to the present invention is a stereo camera that acquires peripheral image data in a self-propelled mobile body, and a three-dimensional image that calculates first three-dimensional image data based on the image data. A conversion calculation unit, a conversion unit that generates second 3D image data including virtual camera data in which a virtual camera virtually disposed outside the moving body is represented in a stereo camera coordinate system, and the second A plurality of image measurement units each including an image generation unit that generates overhead image data based on the three-dimensional image data and the first three-dimensional image data, and the plurality of image measurement units respectively output An image processing unit that integrates the overhead image data into a single image to generate a display image.

本発明に係る周辺表示装置の第6の態様は、前記第2の3次元画像データが、前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データを含み、前記画像生成部は、前記第1の3次元画像データと、仮想カメラデータおよび前記移動体データとを合成し、前記移動体を原点とし、その周辺に前記第1の3次元画像データを配置して前記俯瞰画像データとする。   In a sixth aspect of the peripheral display device according to the present invention, the second 3D image data includes moving body data in which a data of a 3D model of the moving body is represented in a stereo camera coordinate system, and the image generation The unit synthesizes the first three-dimensional image data, the virtual camera data, and the moving body data, uses the moving body as an origin, and arranges the first three-dimensional image data around the moving body, so that the overhead view is obtained. Let it be image data.

本発明に係る周辺表示装置の第7の態様は、前記画像処理部が、前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備えている。   In a seventh aspect of the peripheral display device according to the present invention, the image processing unit converts the overhead image data output from each of the plurality of image measurement units and the data of the three-dimensional model of the moving body into stereo camera coordinates. An image integration unit that integrates the moving object data represented by the system and generates integrated data in which the moving object is the origin and the overhead image data is arranged around the origin.

本発明に係る周辺表示装置の第8の態様は、前記俯瞰画像データが、その構成画素ごとに前記仮想カメラからの距離情報を含んでいる。   In an eighth aspect of the peripheral display device according to the present invention, the overhead image data includes distance information from the virtual camera for each constituent pixel.

本発明に係る周辺表示装置の第9の態様は、前記画像処理部が、前記俯瞰画像データを1つの画像に統合する際に、重複して存在する画素データについて、前記距離情報を比較し、前記仮想カメラからの距離がより近い値を有する画素データを採用する処理を行う。   In a ninth aspect of the peripheral display device according to the present invention, when the image processing unit integrates the overhead image data into one image, the distance information is compared with respect to overlapping pixel data, A process of adopting pixel data having a value closer to the distance from the virtual camera is performed.

本発明に係る周辺表示装置の第10の態様は、前記画像生成部が、前記ステレオカメラで取得した前記画像データが、壁面の画像データである場合、前記画像データの撮影時の前記ステレオカメラの視線方向と、前記画像データの分布とに基づいて計算される前記壁面の向きが、前記仮想カメラから見て裏向きとなる場合は、前記壁面の画像データに該当する領域を半透明として表現する処理を行う。   In a tenth aspect of the peripheral display device according to the present invention, when the image data acquired by the stereo camera is image data of a wall surface, the stereo image of the stereo camera at the time of capturing the image data is acquired. When the direction of the wall surface calculated based on the line-of-sight direction and the distribution of the image data is facing away from the virtual camera, the area corresponding to the image data on the wall surface is expressed as translucent. Process.

本発明に係る周辺表示装置の第11の態様は、前記画像生成部が、前記ステレオカメラで取得した前記画像データが、前記仮想カメラの視野内に存在しない場合は、該ステレオカメラについては、前記俯瞰画像データを生成しない処理を行う。   In an eleventh aspect of the peripheral display device according to the present invention, when the image data acquired by the stereo camera is not within the visual field of the virtual camera, the stereo camera Processing that does not generate overhead image data is performed.

本発明に係る周辺表示装置の第1および第2の態様によれば、複数の画像測定部から俯瞰画像データが画像処理部に転送されるので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。   According to the first and second aspects of the peripheral display device according to the present invention, since the overhead image data is transferred from the plurality of image measurement units to the image processing unit, the three-dimensional information having a large amount of data is transferred. In comparison, the transfer time can be reduced, and the time required for the integration process can also be reduced.

本発明に係る周辺表示装置の第3の態様によれば、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。   According to the third aspect of the peripheral display device of the present invention, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.

本発明に係る周辺表示装置の第4の態様によれば、画像生成部を共通化することができ、システム構成を簡素化することができる。   According to the fourth aspect of the peripheral display device of the present invention, the image generation unit can be shared, and the system configuration can be simplified.

本発明に係る周辺表示装置の第5および第6の態様によれば、複数の画像測定部から俯瞰画像データが画像処理部に転送されるので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。   According to the fifth and sixth aspects of the peripheral display device according to the present invention, since the overhead image data is transferred from the plurality of image measuring units to the image processing unit, the three-dimensional information having a large amount of data is transferred. In comparison, the transfer time can be reduced, and the time required for the integration process can also be reduced.

本発明に係る周辺表示装置の第7の態様によれば、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。   According to the seventh aspect of the peripheral display device of the present invention, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.

本発明に係る周辺表示装置の第8の態様によれば、統合処理に際して、仮想カメラからの遠近によって、どの画素を採用するかしないかの判断に距離情報を使用することが可能となる。   According to the eighth aspect of the peripheral display device of the present invention, it is possible to use distance information to determine which pixel is not to be adopted depending on the perspective from the virtual camera during the integration process.

本発明に係る周辺表示装置の第9の態様によれば、距離情報を使用することで、重複する画素データの取捨選択を行うことができる。   According to the ninth aspect of the peripheral display device of the present invention, it is possible to select overlapping pixel data by using the distance information.

本発明に係る周辺表示装置の第10の態様によれば、移動体が壁に隠れるような場合でも、移動体を確認することができる。   According to the tenth aspect of the peripheral display device of the present invention, the moving body can be confirmed even when the moving body is hidden by the wall.

本発明に係る周辺表示装置の第11の態様によれば、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。   According to the eleventh aspect of the peripheral display device of the present invention, the amount of data transferred from the image measurement unit to the image processing unit can be further reduced.

ステレオカメラの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of a stereo camera. 本発明に係る周辺表示装置の実施の形態1の構成を示すブロック図である。It is a block diagram which shows the structure of Embodiment 1 of the peripheral display apparatus which concerns on this invention. 各ステレオカメラにおけるステレオカメラ座標系と、自車両の自動車座系とを模式的に示す図である。It is a figure which shows typically the stereo camera coordinate system in each stereo camera, and the motor vehicle seat system of the own vehicle. 自動車座標系で表される3次元画像データを撮影する仮想カメラを模式的に示す図である。It is a figure which shows typically the virtual camera which image | photographs the three-dimensional image data represented by a motor vehicle coordinate system. 各ステレオカメラにおける座標系に対して、仮想カメラの位置関係を模式的に示す図である。It is a figure which shows typically the positional relationship of a virtual camera with respect to the coordinate system in each stereo camera. 距離情報を用いて仮想カメラからの距離がより近い値を有する画素データを採用する処理を説明するフローチャートである。It is a flowchart explaining the process which employ | adopts the pixel data which has a near value from the virtual camera using distance information. 本発明に係る周辺表示装置の実施の形態1の変形例の構成を示すブロック図である。It is a block diagram which shows the structure of the modification of Embodiment 1 of the peripheral display apparatus which concerns on this invention. 本発明に係る周辺表示装置の実施の形態1の変形例の構成を示すブロック図である。It is a block diagram which shows the structure of the modification of Embodiment 1 of the peripheral display apparatus which concerns on this invention. 本発明に係る周辺表示装置の実施の形態2の構成を示すブロック図である。It is a block diagram which shows the structure of Embodiment 2 of the peripheral display apparatus which concerns on this invention. 本発明に係る周辺表示装置の実施の形態2の変形例の構成を示すブロック図である。It is a block diagram which shows the structure of the modification of Embodiment 2 of the peripheral display apparatus which concerns on this invention. 自車両の上方に仮想カメラを配置した例を示す図である。It is a figure which shows the example which has arrange | positioned the virtual camera above the own vehicle. 各ステレオカメラの撮影範囲を示す図である。It is a figure which shows the imaging | photography range of each stereo camera. 各ステレオカメラで撮影された2次元画像を示す図である。It is a figure which shows the two-dimensional image image | photographed with each stereo camera. 画像生成部において生成された俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image produced | generated in the image generation part. 自車両の側面上方に仮想カメラを配置した例を示す図である。It is a figure which shows the example which has arrange | positioned the virtual camera above the side surface of the own vehicle. 画像生成部において生成された俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image produced | generated in the image generation part. 自車両の側面上方に仮想カメラを配置した例を示す図である。It is a figure which shows the example which has arrange | positioned the virtual camera above the side surface of the own vehicle. 各ステレオカメラで撮影された2次元画像を示す図である。It is a figure which shows the two-dimensional image image | photographed with each stereo camera. 画像生成部において生成された俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image produced | generated in the image generation part. 画像生成部において生成された俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image produced | generated in the image generation part. 統合された俯瞰画像を示す図である。It is a figure which shows the integrated bird's-eye view image. 統合された俯瞰画像を示す図である。It is a figure which shows the integrated bird's-eye view image. 統合された俯瞰画像を示す図である。It is a figure which shows the integrated bird's-eye view image. 統合された俯瞰画像を示す図である。It is a figure which shows the integrated bird's-eye view image. 画像生成部において生成された俯瞰画像を示す図である。It is a figure which shows the bird's-eye view image produced | generated in the image generation part. ステレオカメラの他の配置例を示す図である。It is a figure which shows the other example of arrangement | positioning of a stereo camera.

<実施の形態1>
<装置構成1>
図1は、本発明に係る周辺表示装置を搭載した車両VCにおけるステレオカメラの配置例を示す図である。
<Embodiment 1>
<Apparatus configuration 1>
FIG. 1 is a diagram showing an arrangement example of stereo cameras in a vehicle VC equipped with a peripheral display device according to the present invention.

図1において、車両VCには、前方、左右および後方の画像を取得する4台のステレオカメラが搭載されている。すなわち、前方の画像を取得するステレオカメラSC1、前方に対して右側の画像を取得するステレオカメラSC2、後方の画像を取得するステレオカメラSC3および前方に対して左側の画像を取得するステレオカメラSC4を備えている。   In FIG. 1, a vehicle VC is equipped with four stereo cameras that acquire front, left, and right images. That is, a stereo camera SC1 that acquires a front image, a stereo camera SC2 that acquires a right image with respect to the front, a stereo camera SC3 that acquires a rear image, and a stereo camera SC4 that acquires a left image with respect to the front. I have.

このようなシステムを用いることで、自車両の周辺の画像データを取得し、それを視点を変えて自車両の上方から見た俯瞰図に変更することが可能となる。   By using such a system, it is possible to acquire image data around the host vehicle, and change the viewpoint to an overhead view viewed from above the host vehicle.

なお、各カメラの実際の配置位置は車種によって異なるが、例えば、ステレオカメラSC1はルームミラーの位置に配置され、ステレオカメラSC2およびSC4は、それぞれ、右および左のサイドミラーの位置に配置され、ステレオカメラSC3は、リヤバンパーの位置などに配置される。なお、上記配置は一例であり、ステレオカメラの配置はこれに限定されるものではない。   The actual arrangement position of each camera differs depending on the vehicle type. For example, the stereo camera SC1 is arranged at the position of the room mirror, and the stereo cameras SC2 and SC4 are arranged at the positions of the right and left side mirrors, respectively. Stereo camera SC3 is arranged at the position of the rear bumper. The above arrangement is an example, and the arrangement of the stereo camera is not limited to this.

図2は、本発明に係る周辺表示装置100の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1、SC2、SC3およびSC4をそれぞれ含む画像測定部10、20、30および40と、画像測定部10〜40からそれぞれ出力される3次元画像データを統合処理して表示画像を生成する画像処理部50と、自車両の3次元モデルのデータを格納する記憶部7と、仮想カメラの視点位置の情報を含む仮想カメラ情報を格納する記憶部8とを主たる構成として備えている。   FIG. 2 is a block diagram showing the configuration of the peripheral display device 100 according to the present invention. As shown in FIG. 2, the peripheral display device 100 includes three-dimensional images output from the image measuring units 10, 20, 30, and 40 including the stereo cameras SC 1, SC 2, SC 3, and SC 4, and the image measuring units 10 to 40, respectively. An image processing unit 50 that integrates data to generate a display image, a storage unit 7 that stores data of a three-dimensional model of the host vehicle, and a storage unit that stores virtual camera information including information on the viewpoint position of the virtual camera 8 as a main configuration.

画像測定部10は、ステレオカメラSC1で得られた2次元画像データに基づいて、3次元画像データを算出する3次元化計算部11と、3次元化計算部11で計算された3次元画像データ(第1の3次元画像データ)に、自動車座標系(移動体座標系)内でのステレオカメラの位置、姿勢を表現する3次元変換行列を適用することで、ステレオカメラ座標系で表現された3次元画像データを自動車座標系で表現された3次元画像データ(第2の3次元画像データ)に変換する座標変換部12と、座標変換部12から出力された自動車座標系で表現された3次元画像データと、記憶部7に格納された自車両の3次元モデルのデータとを合成し、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データを生成する画像生成部13とを備えている。また、座標変換部12には、3次元変換行列Mat1を格納する記憶部14が接続されている。   The image measurement unit 10 includes a three-dimensional calculation unit 11 that calculates three-dimensional image data based on the two-dimensional image data obtained by the stereo camera SC1, and the three-dimensional image data calculated by the three-dimensional calculation unit 11. Expressed in the stereo camera coordinate system by applying a 3D transformation matrix that represents the position and orientation of the stereo camera in the car coordinate system (moving body coordinate system) to the (first 3D image data) A coordinate converter 12 that converts the three-dimensional image data into three-dimensional image data (second three-dimensional image data) expressed in the car coordinate system, and 3 expressed in the car coordinate system output from the coordinate converter 12 The three-dimensional image data and the data of the three-dimensional model of the host vehicle stored in the storage unit 7 are combined, and the host vehicle is set as the origin of the automobile coordinate system. Arrangement And an image generating unit 13 for generating the overhead image data. The coordinate conversion unit 12 is connected to a storage unit 14 that stores a three-dimensional conversion matrix Mat1.

画像測定部20も同じ構成を有し、ステレオカメラSC2、3次元化計算部21、座標変換部22と、画像生成部23および記憶部24を備えている。   The image measurement unit 20 has the same configuration, and includes a stereo camera SC2, a three-dimensional calculation unit 21, a coordinate conversion unit 22, an image generation unit 23, and a storage unit 24.

画像測定部30も同じ構成を有し、ステレオカメラSC3、3次元化計算部31、座標変換部32と、画像生成部33および記憶部34を備えている。   The image measurement unit 30 has the same configuration, and includes a stereo camera SC3, a three-dimensional calculation unit 31, a coordinate conversion unit 32, an image generation unit 33, and a storage unit 34.

画像測定部40も同じ構成を有し、ステレオカメラSC4、3次元化計算部41、座標変換部42と、画像生成部43および記憶部44を備えている。   The image measurement unit 40 has the same configuration, and includes a stereo camera SC4, a three-dimensional calculation unit 41, a coordinate conversion unit 42, an image generation unit 43, and a storage unit 44.

画像処理部50は、画像測定部10〜40のそれぞれの画像生成部13、23、33および43から出力される俯瞰画像データを1つの画像に統合して3次元画像データ(統合データ)を生成する画像統合部5と、画像統合部5で生成された3次元画像データを表示画像として表示する画像表示部6とを備えている。   The image processing unit 50 integrates the overhead image data output from the image generation units 13, 23, 33, and 43 of the image measurement units 10 to 40 into one image to generate three-dimensional image data (integrated data). And an image display unit 6 that displays the three-dimensional image data generated by the image integration unit 5 as a display image.

<基本動作>
次に、上述した構成を有する周辺表示装置100の基本動作について説明する。
<Basic operation>
Next, the basic operation of the peripheral display device 100 having the above-described configuration will be described.

ステレオカメラSC1〜SC4は、何れも2台のカメラで異なる視点から同時に撮影を行い、3次元化計算部11、21、31および41のそれぞれでは、三角測量の原理に基づいて、対応するステレオカメラで得られた2つの画像の各画素を相互に対応付けし(対応点探索)、その得られた対応点の組のそれぞれについて視差、焦点距離、基線長などのパラメータから、各対応点の組についての3次元位置を求めることで3次元画像データを算出し、当該3次元画像データに対応するテクスチャ画像と共に出力する。   The stereo cameras SC1 to SC4 are both taken simultaneously from different viewpoints by the two cameras, and each of the three-dimensional calculation units 11, 21, 31 and 41 corresponds to the corresponding stereo camera based on the principle of triangulation. Each pixel of the two images obtained in step 1 is associated with each other (corresponding point search), and each corresponding point set is obtained from parameters such as parallax, focal length, and base line length. The three-dimensional image data is calculated by obtaining the three-dimensional position, and is output together with the texture image corresponding to the three-dimensional image data.

3次元化計算部11、21、31および41から出力される3次元画像データは、ステレオカメラ座標系で表現されているので、自動車座標系で表現された3次元画像データに変換するために座標変換部12、22、32および42において座標変換を行う。   Since the three-dimensional image data output from the three-dimensional calculation units 11, 21, 31, and 41 is expressed in the stereo camera coordinate system, coordinates are used for conversion into the three-dimensional image data expressed in the car coordinate system. Coordinate conversion is performed in the conversion units 12, 22, 32 and 42.

図3には、ステレオカメラSC1〜SC4のそれぞれにおけるステレオカメラ座標系と、自車両VCの自動車座標系とを模式的に示している。   In FIG. 3, the stereo camera coordinate system in each of stereo camera SC1-SC4 and the motor vehicle coordinate system of the own vehicle VC are shown typically.

図3において、ステレオカメラ座標系はx軸、y軸で表され、自動車座標系はX軸、Y軸で表されており、ステレオカメラ座標系は、ステレオカメラSC1〜SC4のそれぞれで異なっている。   In FIG. 3, the stereo camera coordinate system is represented by x-axis and y-axis, the automobile coordinate system is represented by X-axis and Y-axis, and the stereo camera coordinate system is different for each of the stereo cameras SC1 to SC4. .

また、図4には自動車座標系で表される3次元画像データを撮影する仮想カメラVCAを模式的に示しており、図5にはステレオカメラSC1〜SC4のそれぞれの座標系に対して、仮想カメラVCAの位置関係を模式的に示している。   FIG. 4 schematically shows a virtual camera VCA that captures three-dimensional image data represented in the vehicle coordinate system. FIG. 5 shows a virtual camera for each coordinate system of the stereo cameras SC1 to SC4. The positional relationship of camera VCA is shown typically.

すなわち、図5の(a)部には、ステレオカメラSC1の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示しており、矢印ARの示す方向が車両前部方向である。   That is, FIG. 5A shows the positional relationship of the virtual camera VCA with respect to the coordinate system of the stereo camera SC1, and the direction indicated by the arrow AR is the vehicle front direction. .

同様に、図5の(b)部には、ステレオカメラSC2の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示しており、図5の(c)部には、ステレオカメラSC3の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示しており、図5の(d)部には、ステレオカメラSC4の座標系に対して仮想カメラVCAがどのような位置関係にあるかを示している。   Similarly, part (b) of FIG. 5 shows the positional relationship of virtual camera VCA with respect to the coordinate system of stereo camera SC2, and part (c) of FIG. The positional relationship of the virtual camera VCA with respect to the coordinate system of the camera SC3 is shown. FIG. 5D shows how the virtual camera VCA is relative to the coordinate system of the stereo camera SC4. It shows whether there is a proper positional relationship.

この座標変換は、3次元化計算部11、21、31および41から出力される3次元画像データに対して、それぞれ所定の3次元変換行列Mat1、Mat2、Mat3およびMat4を適用することで実行される。   This coordinate transformation is executed by applying predetermined three-dimensional transformation matrices Mat1, Mat2, Mat3, and Mat4 to the three-dimensional image data output from the three-dimensional calculation units 11, 21, 31, and 41, respectively. The

座標変換部12、22、32および42から出力される自動車座標系で表現された3次元画像データは、それぞれ画像生成部13、23、33および43に与えられる。   The three-dimensional image data expressed in the vehicle coordinate system output from the coordinate conversion units 12, 22, 32, and 42 is given to the image generation units 13, 23, 33, and 43, respectively.

画像生成部13、23、33および43では、自動車座標系で表現された3次元画像データと、テクスチャ画像と、記憶部7から与えられる自車両の3次元モデルのデータとを合成し、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データを生成する。   The image generation units 13, 23, 33, and 43 combine the three-dimensional image data expressed in the automobile coordinate system, the texture image, and the data of the three-dimensional model of the host vehicle given from the storage unit 7, and Is used as the origin of the vehicle coordinate system, and overhead image data in which three-dimensional image data expressed in the vehicle coordinate system is arranged around the origin is generated.

この際、生成する画像の各画素ごとに仮想カメラからの距離情報を持たせる構成としても良い。この距離情報は、画像統合部5での統合処理に際して、仮想カメラからの遠近によって、どの画素を採用するかしないかの判断に使用することができる。   At this time, distance information from the virtual camera may be provided for each pixel of the generated image. This distance information can be used to determine which pixel is not to be used depending on the distance from the virtual camera during the integration processing in the image integration unit 5.

このように、周辺表示装置100においては、画像測定部10、20、30および40に、それぞれ画像生成部13、23、33および43を備え、それぞれで俯瞰画像データを生成して、そのデータを画像処理部50に転送して統合処理するので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。   As described above, in the peripheral display device 100, the image measuring units 10, 20, 30, and 40 are provided with the image generating units 13, 23, 33, and 43, respectively, and the overhead image data is generated respectively, and the data is stored. Since transfer processing is performed to the image processing unit 50 and integration processing is performed, transfer time can be reduced and time required for integration processing can be reduced as compared with the case of transferring three-dimensional information having a large amount of data.

また、画像生成部13、23、33および43では、それぞれ対応するステレオカメラSC1〜SC4で撮影した画像についてのみ俯瞰画像データを生成するので、俯瞰画像において各ステレオカメラの撮影範囲外の画素については、有効な画像データが存在しないものとして無効値を設定する。   In addition, since the image generation units 13, 23, 33, and 43 generate overhead image data only for images captured by the corresponding stereo cameras SC1 to SC4, for pixels outside the imaging range of each stereo camera in the overhead image. An invalid value is set assuming that there is no valid image data.

また、画像生成部13、23、33および43では、ステレオカメラで測定(撮影)された測定データが、例えば壁面を測定したデータである場合、この測定データの測定時のステレオカメラの視線方向と、測定データの分布とに基づいて計算される当該測定データの存在する面の向きが、仮想カメラから見て裏向きとなる場合は、当該測定データに該当する領域を画像に変換する際に、仮想カメラから見た側に壁面を表示することや、仮想カメラから見た側の壁面を、例えば画素値に反映させるデータを間引くなどして壁面として表示される画像を半透明にする処理を行うことも可能である。   Further, in the image generation units 13, 23, 33 and 43, when the measurement data measured (captured) by the stereo camera is, for example, data obtained by measuring a wall surface, the line-of-sight direction of the stereo camera at the time of measurement of the measurement data When the surface of the measurement data calculated based on the distribution of the measurement data is facing away from the virtual camera, when converting the area corresponding to the measurement data into an image, Displaying the wall surface on the side viewed from the virtual camera, or performing processing to make the image displayed as the wall surface translucent, for example, by thinning out the data reflected on the pixel value on the wall surface viewed from the virtual camera It is also possible.

また、仮想カメラの視野内に測定データが存在しないステレオカメラについては、俯瞰画像データを生成しないものとする。   In addition, it is assumed that overhead image data is not generated for a stereo camera in which no measurement data exists within the visual field of the virtual camera.

画像生成部13、23、33および43で生成された俯瞰画像データは、画像統合部5に与えられて1つの画像に統合されるが、このとき、記憶部8に格納された仮想カメラ情報に含まれる仮想カメラの視点位置の情報に基づいて統合が実行される。   The overhead image data generated by the image generation units 13, 23, 33 and 43 is given to the image integration unit 5 and integrated into one image. At this time, the virtual camera information stored in the storage unit 8 is added to the virtual camera information. Integration is executed based on the viewpoint position information of the included virtual camera.

画像統合部5で統合された3次元画像データは、画像表示部6に与えられて、仮想カメラから見た俯瞰画像として表示される。   The three-dimensional image data integrated by the image integration unit 5 is given to the image display unit 6 and displayed as an overhead image viewed from the virtual camera.

ここで、画像統合部5では、最終的に得られる表示画像における特定の有効画素が、新たに得られた統合前の俯瞰画像データに重複して存在している場合、当該重複する画素が有する仮想カメラからの距離情報と、表示画像における特定の有効画素の仮想カメラからの距離情報とを比較し、より仮想カメラからの距離が近い値を有する画素のデータを採用する処理を行うこととしても良い。当該処理のフローチャートを図6に示す。   Here, in the image integration unit 5, when a specific effective pixel in the finally obtained display image is duplicated in the newly obtained overhead image data before integration, the overlapping pixel has. The distance information from the virtual camera may be compared with the distance information from the virtual camera of the specific effective pixel in the display image, and the processing of adopting the data of the pixel having a value closer to the distance from the virtual camera may be performed. good. A flowchart of this process is shown in FIG.

図6において、ステップS1において、最終的に得られる表示画像における特定の画素Pr(x,y)を取得する。   In FIG. 6, in step S1, a specific pixel Pr (x, y) in the finally obtained display image is acquired.

次に、ステップS2において、統合前の4つの俯瞰画像データ(4つのステレオカメラで得られたそれぞれの画像について仮想カメラ画像に座標変換したデータ)から、画素Prに対応する画素Pn(x,y)が存在するか否かを判定する。ここで、nは、4つの俯瞰画像データの番号を表しており、1〜4の何れかの数字となる。   Next, in step S2, the pixel Pn (x, y) corresponding to the pixel Pr is converted from the four bird's-eye view image data before integration (data obtained by coordinate-converting each image obtained by the four stereo cameras into a virtual camera image). ) Exists. Here, n represents the number of the four bird's-eye view image data, and is any number from 1 to 4.

ステップS2において、画素Prに対応する画素Pn(x,y)が存在すると判定された場合、何れかの画素Pn(x,y)を選択し、ステップS3において画素Pn(x,y)が無効画素であるか否かの判定を行う。   If it is determined in step S2 that the pixel Pn (x, y) corresponding to the pixel Pr exists, one of the pixels Pn (x, y) is selected, and the pixel Pn (x, y) is invalid in step S3. It is determined whether or not it is a pixel.

一方、ステップS2において、画素Prに対応する画素Pn(x,y)が存在しないと判定された場合は、処理を終了する。   On the other hand, if it is determined in step S2 that the pixel Pn (x, y) corresponding to the pixel Pr does not exist, the process ends.

ステップS3において、画素Pn(x,y)が無効画素である場合はステップS2の処理に戻り、他の俯瞰画像データにおいて、画素Prに対応する画素Pn(x,y)が存在するか否かを判定する。   In step S3, if the pixel Pn (x, y) is an invalid pixel, the process returns to step S2, and whether or not there is a pixel Pn (x, y) corresponding to the pixel Pr in the other overhead image data. Determine.

一方、ステップS3において、画素Pn(x,y)が有効画素であると判定された場合は、ステップS4において、画素Prの仮想カメラからの距離情報と、画素Pnの仮想カメラからの距離情報とを比較し、画素Pnの仮想カメラからの距離の方が、予め定めた閾値以上近いと判定された場合は、画素Prの画素値を画素Pnの画素値で置き換え、画素Prの距離情報を、画素Pnの距離情報に置き換える。   On the other hand, when it is determined in step S3 that the pixel Pn (x, y) is an effective pixel, in step S4, the distance information from the virtual camera of the pixel Pr and the distance information from the virtual camera of the pixel Pn If the distance from the virtual camera of the pixel Pn is determined to be closer than a predetermined threshold, the pixel value of the pixel Pr is replaced with the pixel value of the pixel Pn, and the distance information of the pixel Pr is Replace with the distance information of the pixel Pn.

一方、ステップS4において、画素Prの距離情報と画素Pnの距離情報との差が、予め定めた閾値よりも小さい場合は、画素値および距離情報の置き換えは行わず、ステップS2以下の処理を繰り返す。   On the other hand, if the difference between the distance information of the pixel Pr and the distance information of the pixel Pn is smaller than a predetermined threshold value in step S4, the pixel value and the distance information are not replaced, and the processes in and after step S2 are repeated. .

このような処理を行うことで、重複する画素データの取捨選択を行うことができる。   By performing such processing, it is possible to select overlapping pixel data.

<装置構成2>
以上説明した周辺表示装置100に代えて、図7に示す周辺表示装置100Aの構成を採ることも可能である。なお、図7に示す周辺表示装置100Aにおいて、図2に示した周辺表示装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
<Apparatus configuration 2>
Instead of the peripheral display device 100 described above, the configuration of the peripheral display device 100A shown in FIG. 7 can be adopted. In addition, in the peripheral display device 100A shown in FIG. 7, the same components as those in the peripheral display device 100 shown in FIG.

図2に示した周辺表示装置100においては、画像測定部10、20、30および40のそれぞれの画像生成部13、23、33および43において、自動車座標系で表現された3次元画像データと、記憶部7に格納された自車両の3次元モデルのデータを自動車座標系で表現した自車両データとを合成し、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データを生成するものとして説明したが、図7に示す周辺表示装置100Aにおいては、自車両の3次元モデルのデータとの合成は、画像処理部50Aに設けた画像生成部9において行う構成となっている。   In the peripheral display device 100 shown in FIG. 2, three-dimensional image data expressed in an automobile coordinate system in each of the image generation units 13, 23, 33, and 43 of the image measurement units 10, 20, 30, and 40, The data of the three-dimensional model of the host vehicle stored in the storage unit 7 is synthesized with the host vehicle data expressed in the car coordinate system, and the host vehicle is set as the origin of the car coordinate system and is expressed in the car coordinate system around it. Although described as generating overhead image data in which three-dimensional image data is arranged, in the peripheral display device 100A shown in FIG. 7, synthesis with the data of the three-dimensional model of the host vehicle is provided in the image processing unit 50A. The image generation unit 9 performs the configuration.

すなわち、図7に示すように、記憶部7に格納された自車両の3次元モデルのデータは、画像処理部50Aに設けた画像生成部9に与えられる構成となっており、画像生成部9で自車両の3次元モデルのデータを俯瞰画像データとし、画像生成部13、23、33および43において生成された俯瞰画像データとの統合を画像処理部50Aに設けた画像統合部5で行う構成となっている。また、仮想カメラ情報も、画像生成部9に与えられる構成となっている。   That is, as shown in FIG. 7, the data of the three-dimensional model of the host vehicle stored in the storage unit 7 is provided to the image generation unit 9 provided in the image processing unit 50 </ b> A. In this configuration, the data of the three-dimensional model of the host vehicle is used as overhead image data, and the image integration unit 5 provided in the image processing unit 50A performs integration with the overhead image data generated by the image generation units 13, 23, 33, and 43. It has become. The virtual camera information is also given to the image generation unit 9.

このような構成を採ることで、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。   By adopting such a configuration, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.

<装置構成3>
図2に示した周辺表示装置100に代えて、図8に示す周辺表示装置100Bの構成を採ることも可能である。なお、図8に示す周辺表示装置100Bにおいて、図2に示した周辺表示装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
<Apparatus configuration 3>
Instead of the peripheral display device 100 shown in FIG. 2, the configuration of the peripheral display device 100B shown in FIG. 8 can be adopted. In the peripheral display device 100B shown in FIG. 8, the same components as those in the peripheral display device 100 shown in FIG.

図2に示した周辺表示装置100においては、画像測定部10、20、30および40が、それぞれ画像生成部13、23、33および43を有し、ステレオカメラS1〜S4で得られた2次元画像データについてそれぞれ、俯瞰画像データを生成するものとして説明したが、図8に示す周辺表示装置100Bにおいては、複数のステレオカメラで得られた2次元画像データを1つにまとめて俯瞰画像データを生成する構成となっている。   In the peripheral display device 100 shown in FIG. 2, the image measuring units 10, 20, 30, and 40 have image generating units 13, 23, 33, and 43, respectively, and are two-dimensional obtained by stereo cameras S <b> 1 to S <b> 4. Each of the image data has been described as generating overhead image data. However, in the peripheral display device 100B shown in FIG. 8, the two-dimensional image data obtained by a plurality of stereo cameras are combined into a single overhead image data. It has a configuration to generate.

すなわち、図8に示すように周辺表示装置100Bは、ステレオカメラSC1およびSC2を含む画像測定部10Aと、ステレオカメラSC3およびSC4を含む画像測定部20Aと、画像測定部10Aおよび20Aからそれぞれ出力される3次元画像データを統合処理して表示画像を生成する画像処理部50Aと、自車両の3次元モデルのデータを格納する記憶部7と、仮想カメラの視点位置の情報を含む仮想カメラ情報を格納する記憶部8とを主たる構成として備えている。   That is, as shown in FIG. 8, peripheral display device 100B is output from image measurement unit 10A including stereo cameras SC1 and SC2, image measurement unit 20A including stereo cameras SC3 and SC4, and image measurement units 10A and 20A, respectively. Image processing unit 50A that integrates three-dimensional image data to generate a display image, storage unit 7 that stores data of a three-dimensional model of the host vehicle, and virtual camera information that includes information on the viewpoint position of the virtual camera. A storage unit 8 is provided as a main configuration.

画像測定部10Aは、ステレオカメラSC1からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部11、座標変換部12および記憶部14と、ステレオカメラSC2からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部21、座標変換部22および記憶部24と、座標変換部12および22の出力に基づいて俯瞰画像データを生成する画像生成部131とを備えている。   The image measurement unit 10A includes a three-dimensional calculation unit 11, a coordinate conversion unit 12, and a storage unit 14 that form a series of processing systems for processing two-dimensional image data from the stereo camera SC1, and two from the stereo camera SC2. An image for generating overhead image data based on the outputs of the three-dimensional calculation unit 21, the coordinate conversion unit 22 and the storage unit 24, and the coordinate conversion units 12 and 22 constituting a series of processing systems for processing the dimensional image data. And a generation unit 131.

画像測定部20Aも同様であり、ステレオカメラSC3からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部21、座標変換部32および記憶部34と、ステレオカメラSC4からの2次元画像データを処理するための一連の処理システムを構成する3次元化計算部41、座標変換部42および記憶部44と、座標変換部32および42の出力に基づいて俯瞰画像データを生成する画像生成部231とを備えている。   The same applies to the image measurement unit 20A. The three-dimensional calculation unit 21, the coordinate conversion unit 32, and the storage unit 34 that form a series of processing systems for processing the two-dimensional image data from the stereo camera SC3, and the stereo camera SC4. Based on the outputs of the three-dimensional calculation unit 41, the coordinate conversion unit 42 and the storage unit 44, and the coordinate conversion units 32 and 42 which constitute a series of processing systems for processing the two-dimensional image data from And an image generation unit 231 for generation.

このような構成を採ることで、画像生成部を共通化することができ、システム構成を簡素化することができる。   By adopting such a configuration, it is possible to share the image generation unit and simplify the system configuration.

また、図8に示す周辺表示装置100Bにおいては、自車両の3次元モデルのデータとの合成は、画像処理部50Aに設けた画像生成部9において行う構成となっている。   Further, in the peripheral display device 100B shown in FIG. 8, the composition with the data of the three-dimensional model of the host vehicle is performed in the image generation unit 9 provided in the image processing unit 50A.

すなわち、図8に示すように、記憶部7に格納された自車両の3次元モデルのデータは、画像処理部50Aに設けた画像生成部9に与えられる構成となっており、画像生成部131および231においては、自動車座標系で表現された3次元画像データを俯瞰画像データとして生成し、それぞれから画像処理部50Aに設けた画像生成部9に与える構成となっている。   That is, as shown in FIG. 8, the data of the three-dimensional model of the host vehicle stored in the storage unit 7 is provided to the image generation unit 9 provided in the image processing unit 50 </ b> A. In 231 and 231, three-dimensional image data expressed in the car coordinate system is generated as overhead image data, and each is supplied to the image generation unit 9 provided in the image processing unit 50 </ b> A.

そして、それぞれの俯瞰画像データと、自車両の3次元モデルのデータとの合成は画像生成部9において行う構成となっている。   Then, the composition of the overhead image data and the data of the three-dimensional model of the host vehicle is performed in the image generation unit 9.

このような構成を採ることで、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。   By adopting such a configuration, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.

<実施の形態2>
<装置構成1>
図9は、本発明に係る周辺表示装置200の構成を示すブロック図である。図2に示すように周辺表示装置100は、ステレオカメラSC1、SC2、SC3およびSC4をそれぞれ含む画像測定部101、201、301および401と、画像測定部101〜401からそれぞれ出力される3次元画像データを統合処理して表示画像を生成する画像処理部50と、自車両の3次元モデルのデータを格納する記憶部7と、仮想カメラの視点位置の情報を含む仮想カメラ情報を格納する記憶部8とを主たる構成として備えている。
<Embodiment 2>
<Apparatus configuration 1>
FIG. 9 is a block diagram showing the configuration of the peripheral display device 200 according to the present invention. As shown in FIG. 2, the peripheral display device 100 includes three-dimensional images output from the image measurement units 101, 201, 301, and 401 and the image measurement units 101 to 401 including stereo cameras SC 1, SC 2, SC 3, and SC 4, respectively. An image processing unit 50 that integrates data to generate a display image, a storage unit 7 that stores data of a three-dimensional model of the host vehicle, and a storage unit that stores virtual camera information including information on the viewpoint position of the virtual camera 8 as a main configuration.

画像測定部101は、ステレオカメラSC1で得られた2次元画像データに基づいて、3次元画像データを算出する3次元化計算部11と、自動車座標系(移動体座標系)で表現されている仮想カメラ情報(記憶部8に格納)および自車両の3次元モデルのデータ(記憶部7に格納)を受け、自動車座標系内での各ステレオカメラの位置、姿勢を表現する3次元変換行列(Mat11)を適用することで、仮想カメラの位置、姿勢をステレオカメラ座標系(図5)で表現した仮想カメラデータと、自車両の3次元モデルをステレオカメラ座標系で表現した自車両データを生成するパラメータ変換部15と、パラメータ変換部15から出力されたステレオカメラ座標系で表現された、仮想カメラデータおよび自車両データと、3次元化計算部11から出力されるステレオカメラ座標系で表現された3次元画像データとを合成し、ステレオカメラ座標系で表される仮想カメラから撮影した俯瞰画像データを生成する画像生成部13とを備えている。   The image measuring unit 101 is expressed by a three-dimensional calculation unit 11 that calculates three-dimensional image data based on two-dimensional image data obtained by the stereo camera SC1, and an automobile coordinate system (moving body coordinate system). Receives virtual camera information (stored in the storage unit 8) and data of a three-dimensional model of the host vehicle (stored in the storage unit 7), and represents a three-dimensional transformation matrix (representing the position and orientation of each stereo camera in the automobile coordinate system) By applying Mat11), virtual camera data expressing the position and orientation of the virtual camera in the stereo camera coordinate system (FIG. 5) and own vehicle data expressing the three-dimensional model of the own vehicle in the stereo camera coordinate system are generated. Parameter conversion unit 15 to perform, virtual camera data and host vehicle data expressed in a stereo camera coordinate system output from the parameter conversion unit 15, and a three-dimensional calculation unit 1 It synthesizes the three-dimensional image data represented in the stereo camera coordinate system output from, and an image generating unit 13 for generating the overhead image data captured from a virtual camera is represented by the stereo camera coordinate system.

また、パラメータ変換部15には、3次元変換行列Mat11を格納する記憶部14が接続されている。   The parameter conversion unit 15 is connected to a storage unit 14 that stores a three-dimensional conversion matrix Mat11.

画像測定部201も同じ構成を有し、ステレオカメラSC2、3次元化計算部21、パラメータ変換部25と、画像生成部23および3次元変換行列Mat21を格納する記憶部24を備えている。   The image measurement unit 201 has the same configuration, and includes a stereo camera SC2, a three-dimensional calculation unit 21, a parameter conversion unit 25, an image generation unit 23, and a storage unit 24 that stores a three-dimensional conversion matrix Mat21.

画像測定部301も同じ構成を有し、ステレオカメラSC3、3次元化計算部31、パラメータ変換部35と、画像生成部33および3次元変換行列Mat31を格納する記憶部34を備えている。   The image measurement unit 301 has the same configuration, and includes a stereo camera SC3, a three-dimensional calculation unit 31, a parameter conversion unit 35, an image generation unit 33, and a storage unit 34 that stores a three-dimensional conversion matrix Mat31.

画像測定部401も同じ構成を有し、ステレオカメラSC4、3次元化計算部41、パラメータ変換部45と、画像生成部43および3次元変換行列Mat41を格納する記憶部44を備えている。   The image measurement unit 401 has the same configuration, and includes a stereo camera SC4, a three-dimensional calculation unit 41, a parameter conversion unit 45, an image generation unit 43, and a storage unit 44 that stores a three-dimensional conversion matrix Mat41.

画像処理部50は、画像測定部101〜401のそれぞれの画像生成部13、23、33および43から出力される俯瞰画像データを1つの画像に統合して3次元画像データ(統合データ)を生成する画像統合部5と、画像統合部5で生成された3次元画像データを表示画像として表示する画像表示部6とを備えている。   The image processing unit 50 integrates the overhead image data output from the image generation units 13, 23, 33, and 43 of the image measurement units 101 to 401 into one image and generates three-dimensional image data (integrated data). And an image display unit 6 that displays the three-dimensional image data generated by the image integration unit 5 as a display image.

このような構成を採ることで、画像生成部13、23、33および43のそれぞれで俯瞰画像データを生成して、そのデータを画像処理部50に転送して統合処理するので、データ量の大きな3次元情報を転送する場合に比べて、転送時間を削減でき、また、統合処理に要する時間も削減できる。   By adopting such a configuration, each of the image generation units 13, 23, 33, and 43 generates overhead image data and transfers the data to the image processing unit 50 for integration processing. Compared to the case of transferring three-dimensional information, the transfer time can be reduced, and the time required for the integration process can also be reduced.

<基本動作>
次に、上述した構成を有する周辺表示装置200の基本動作について説明する。基本的には図2に示した周辺表示装置100の基本動作と同じであるが、画像生成部13、23、33および43では、3次元化計算部11、21、31および41から出力される3次元画像データに、座標変換部12、22、32および42でステレオカメラ座標系に座標変換された自車両の3次元モデルを合成し、ステレオカメラ座標系で表現される仮想カメラから撮影した俯瞰画像データを生成するという点が異なっている。
<Basic operation>
Next, the basic operation of the peripheral display device 200 having the above-described configuration will be described. Basically, it is the same as the basic operation of the peripheral display device 100 shown in FIG. 2, but is output from the three-dimensional calculation units 11, 21, 31 and 41 in the image generation units 13, 23, 33 and 43. A bird's-eye view taken from a virtual camera expressed in the stereo camera coordinate system by synthesizing the three-dimensional image of the host vehicle coordinate-converted into the stereo camera coordinate system by the coordinate converters 12, 22, 32, and 42 with the three-dimensional image data The difference is that image data is generated.

ステレオカメラSC1〜SC4のそれぞれのステレオカメラ座標系を中心とした場合の仮想カメラVCAの位置関係は図5において示されており、画像測定部101〜401のそれぞれにおいては、各ステレオカメラ座標系で得られた3次元画像データと、自車両の3次元モデルを合成するので、画像測定部101においては、例えば図5の(a)部に示すように自車両VCの前部方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られることとなる。同様に、画像測定部102においては、例えば図5の(b)部に示すように自車両VCの前部方向とは垂直な方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られ、画像測定部103においては、例えば図5の(c)部に示すように自車両VCの前部方向とは反対方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られ、画像測定部104においては、例えば図5の(d)部に示すように自車両VCの前部方向とは垂直な方向を向いた仮想カメラVCAによって撮影された俯瞰画像データが得られ、これらを画像処理部50において統合することで、周辺表示装置100と同様の仮想カメラから見た俯瞰画像を得ることができる。   The positional relationship of the virtual camera VCA when the stereo camera coordinate system of each of the stereo cameras SC1 to SC4 is centered is shown in FIG. 5. In each of the image measuring units 101 to 401, the stereo camera coordinate system is the same. Since the obtained three-dimensional image data and the three-dimensional model of the host vehicle are synthesized, the image measuring unit 101 is a virtual that faces the front of the host vehicle VC, for example, as shown in part (a) of FIG. Overhead image data photographed by the camera VCA is obtained. Similarly, in the image measuring unit 102, for example, as shown in part (b) of FIG. 5, overhead image data captured by the virtual camera VCA oriented in a direction perpendicular to the front direction of the host vehicle VC is obtained. In the image measurement unit 103, for example, as shown in part (c) of FIG. 5, overhead image data photographed by the virtual camera VCA facing in the direction opposite to the front direction of the host vehicle VC is obtained, and image measurement is performed. In the unit 104, for example, as shown in FIG. 5D, overhead image data captured by the virtual camera VCA oriented in a direction perpendicular to the front direction of the host vehicle VC is obtained, and these are processed by image processing. By integrating in the unit 50, an overhead image viewed from a virtual camera similar to the peripheral display device 100 can be obtained.

<装置構成2>
以上説明した周辺表示装置200に代えて、図10に示す周辺表示装置200Aの構成を採ることも可能である。なお、図10に示す周辺表示装置200Aにおいて、図2に示した周辺表示装置100と同一の構成については同一の符号を付し、重複する説明は省略する。
<Apparatus configuration 2>
Instead of the peripheral display device 200 described above, the configuration of the peripheral display device 200A shown in FIG. 10 can be adopted. Note that in the peripheral display device 200A shown in FIG. 10, the same components as those of the peripheral display device 100 shown in FIG.

図9に示した周辺表示装置200においては、画像測定部101、201、301および401それぞれの画像生成部13、23、33および43において、ステレオカメラ座標系で表現された自車両の3次元モデルのデータをステレオカメラ座標系で表現した自車両データと、3次元化計算部11から出力されるステレオカメラ座標系で表現された3次元画像データとを合成して、ステレオカメラ座標系で表現される仮想カメラから撮影した俯瞰画像データを生成するものとして説明したが、図10に示す周辺表示装置200Aにおいては、自車両の3次元モデルのデータとの合成は、画像処理部50Aに設けた画像統合部5において行う構成となっている。   In the peripheral display device 200 shown in FIG. 9, the three-dimensional model of the host vehicle expressed in the stereo camera coordinate system in the image generation units 13, 23, 33, and 43 of the image measurement units 101, 201, 301, and 401, respectively. The own vehicle data expressed in the stereo camera coordinate system and the three-dimensional image data expressed in the stereo camera coordinate system output from the three-dimensional calculation unit 11 are synthesized and expressed in the stereo camera coordinate system. In the peripheral display device 200A shown in FIG. 10, combining with the data of the three-dimensional model of the host vehicle is an image provided in the image processing unit 50A. The integration unit 5 performs the configuration.

すなわち、図10に示すように、記憶部7に格納された自車両の3次元モデルのデータは、画像処理部50Aに設けた画像生成部9に与えられて、ステレオカメラ座標系で表現された自車両データとされ、画像生成部13、23、33および43においては、ステレオカメラ座標系で表現された3次元画像データを俯瞰画像データとして生成し、それぞれから画像処理部50Aに設けた画像生成部9に与えられ、それぞれの俯瞰画像データと、自車両データとは画像統合部5において統合される構成となっている。また、仮想カメラ情報は、画像生成部9にも与えられる構成となっている。   That is, as shown in FIG. 10, the data of the three-dimensional model of the host vehicle stored in the storage unit 7 is given to the image generation unit 9 provided in the image processing unit 50A and expressed in the stereo camera coordinate system. In the image generation units 13, 23, 33, and 43, the three-dimensional image data expressed in the stereo camera coordinate system is generated as overhead image data, and the image generation unit 50A is provided with the image processing unit 50A. Each of the bird's-eye view image data and the own vehicle data is integrated in the image integration unit 5. The virtual camera information is also provided to the image generation unit 9.

このような構成を採ることで、画像測定部から画像処理部に転送するデータ量をさらに削減することが可能となる。   By adopting such a configuration, it is possible to further reduce the amount of data transferred from the image measurement unit to the image processing unit.

<仮想カメラによる俯瞰画像>
以上説明した実施の形態1および2の周辺表示装置で得られる俯瞰画像のバリエーションについて、以下に説明する。
<Overhead image by virtual camera>
Variations of the overhead image obtained by the peripheral display devices of the first and second embodiments described above will be described below.

<俯瞰画像の例1>
図11は、自車両VCの上方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左側に壁WLが接近して存在する状況を示している。このような状況において、ステレオカメラSC1〜SC4のそれぞれの撮影範囲を図12に示す。
<Example 1 of an overhead image>
FIG. 11 shows a situation where the virtual camera VCA is arranged above the host vehicle VC and the wall WL is close to the left side with respect to the front of the host vehicle VC. In such a situation, each imaging range of the stereo cameras SC1 to SC4 is shown in FIG.

図12において、ステレオカメラSC1の撮影範囲を領域R1として示し、ステレオカメラSC2の撮影範囲を領域R2として示し、ステレオカメラSC3の撮影範囲を領域R3として示し、ステレオカメラSC4の撮影範囲を領域R4として示している。   In FIG. 12, the shooting range of stereo camera SC1 is shown as region R1, the shooting range of stereo camera SC2 is shown as region R2, the shooting range of stereo camera SC3 is shown as region R3, and the shooting range of stereo camera SC4 is shown as region R4. Show.

そして、ステレオカメラSC1〜SC4で撮影された2次元画像は図13に示される画像として表すことができる。   And the two-dimensional image image | photographed with stereo camera SC1-SC4 can be represented as an image shown by FIG.

すなわち、図13の(a)部に示すように、ステレオカメラSC1で撮影された画像には、壁WLの前方側端部が写っており、図13の(b)部に示すように、ステレオカメラSC2で撮影された画像には、壁WLは写っていない。また、図13の(c)部に示すように、ステレオカメラSC3で撮影された画像には、壁WLの後方側端部が写っており、図13の(d)部に示すように、ステレオカメラSC4で撮影された画像には、連続する壁WLが写っている。   That is, as shown in part (a) of FIG. 13, the front end of the wall WL is reflected in the image taken by the stereo camera SC1, and as shown in part (b) of FIG. The wall WL is not shown in the image taken by the camera SC2. Further, as shown in part (c) of FIG. 13, the rear end of the wall WL is reflected in the image photographed by the stereo camera SC3. As shown in part (d) of FIG. A continuous wall WL is shown in the image taken by the camera SC4.

図2に示した周辺表示装置100を例に採れば、このような画像の2次元画像データに基づいて、3次元画像データを算出し、3次元画像データに、自動車座標系内でのステレオカメラの位置、姿勢を表現する3次元変換行列を適用することで、ステレオカメラ座標系で表現された3次元画像データを自動車座標系で表現された3次元画像データに変換し、画像生成部において、自車両の3次元モデルのデータと合成して、自車両を自動車座標系の原点とし、その周辺に自動車座標系で表現された3次元画像データを配置した俯瞰画像データが生成される。   If the peripheral display device 100 shown in FIG. 2 is taken as an example, three-dimensional image data is calculated based on the two-dimensional image data of such an image, and the three-dimensional image data is converted into a stereo camera in the automobile coordinate system. By applying a three-dimensional transformation matrix that expresses the position and orientation, the three-dimensional image data expressed in the stereo camera coordinate system is converted into the three-dimensional image data expressed in the car coordinate system. By combining with the data of the three-dimensional model of the host vehicle, overhead image data is generated in which the host vehicle is the origin of the automobile coordinate system and the three-dimensional image data expressed in the automobile coordinate system is arranged around the origin.

図14には、周辺表示装置100の画像生成部13、23、33および43において生成された俯瞰画像を示す。   FIG. 14 shows overhead images generated by the image generation units 13, 23, 33, and 43 of the peripheral display device 100.

先に説明したように、画像生成部13、23、33および43では、それぞれ対応するステレオカメラSC1〜SC4で撮影した画像についてのみ俯瞰画像データを生成するので、俯瞰画像において各ステレオカメラの撮影範囲外の画素については、無効値を設定する。従って、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図14の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。   As described above, the image generation units 13, 23, 33, and 43 generate overhead image data only for images captured by the corresponding stereo cameras SC <b> 1 to SC <b> 4. An invalid value is set for the other pixels. Accordingly, in the overhead image data for the image captured by the stereo camera SC1, the pixels other than the region R1 indicating the imaging range of the stereo camera SC1 are invalid pixels, as shown in part (a) of FIG. Shown in black.

同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図14の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。   Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the imaging range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black.

また、ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図14の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。   In addition, in the overhead image data for the image captured by the stereo camera SC3, pixels other than the region R3 indicating the imaging range of the stereo camera SC3 are invalid pixels, as shown in part (c) of FIG. Shown in black.

また、ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図14の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。   In addition, in the overhead image data for the image captured by the stereo camera SC4, pixels other than the region R4 indicating the imaging range of the stereo camera SC4 are invalid pixels, as shown in the part (d) of FIG. Shown in black.

このような、俯瞰画像データを画像処理部50に転送することで、転送すべきデータ量を削減することが可能となる。   By transferring such overhead image data to the image processing unit 50, the amount of data to be transferred can be reduced.

<俯瞰画像の例2>
図15は、自車両VCの前方に対して右側面の外方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左側に壁WLが接近して存在する状況を示している。このような状況において、ステレオカメラSC1〜SC4(図1)で撮影された画像は図13に示されたものと同じとなるが、例えば、周辺表示装置100の画像生成部13、23、33および43において生成された俯瞰画像は、図16に示される画像として表すことができる。
<Example 2 of an overhead image>
FIG. 15 shows a situation in which the virtual camera VCA is disposed outside the right side with respect to the front of the host vehicle VC, and the wall WL is close to the left side with respect to the front of the host vehicle VC. ing. In such a situation, the images taken by the stereo cameras SC1 to SC4 (FIG. 1) are the same as those shown in FIG. 13, but for example, the image generation units 13, 23, 33 of the peripheral display device 100 and The overhead view image generated in 43 can be represented as an image shown in FIG.

すなわち、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図16の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R1には壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   That is, in the overhead image data for the image captured by the stereo camera SC1, the pixels other than the region R1 indicating the imaging range of the stereo camera SC1 are invalid pixels as shown in part (a) of FIG. Shown in black. Since the region R1 includes the wall surface of the wall WL, the wall surface is shown as an effective pixel.

同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図16の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R2には壁WLは含まれていない。   Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the shooting range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black. Note that the wall R is not included in the region R2.

ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図16の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R3には壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   In the bird's-eye view image data for the image captured by the stereo camera SC3, as shown in part (c) of FIG. 16, pixels other than the region R3 indicating the imaging range of the stereo camera SC3 are invalid pixels and are filled in black. Is shown. Note that since the region R3 includes the wall surface of the wall WL, the wall surface is shown as an effective pixel.

ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図16の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R4には壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   In the bird's-eye view image data for the image photographed by the stereo camera SC4, as shown in the part (d) of FIG. 16, the pixels other than the region R4 indicating the photographing range of the stereo camera SC4 are invalid pixels and are blacked out. Is shown. Since the region R4 includes the wall surface of the wall WL, the wall surface is shown as an effective pixel.

<俯瞰画像の例3>
図17は、自車両VCの後方上方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左右に壁WLが接近して存在する状況を示している。このような状況において、ステレオカメラSC1〜SC4(図1)で撮影された画像を図18に示す。
<Example 3 of an overhead image>
FIG. 17 shows a situation where the virtual camera VCA is arranged at the upper rear side of the host vehicle VC and the wall WL is close to the left and right of the front of the host vehicle VC. In such a situation, images taken by stereo cameras SC1 to SC4 (FIG. 1) are shown in FIG.

すなわち、図18の(a)部に示すように、ステレオカメラSC1で撮影された画像には、左右の壁WLのそれぞれの前方側端部が写っており、図18の(b)部に示すように、ステレオカメラSC2で撮影された画像には、連続する右側の壁WLが写っている。また、図18の(c)部に示すように、ステレオカメラSC3で撮影された画像には、左右の壁WLの後方側端部が写っており、図18の(d)部に示すように、ステレオカメラSC4で撮影された画像には、連続する左側の壁WLが写っている。   That is, as shown in part (a) of FIG. 18, the front end portions of the left and right walls WL are reflected in the image taken by the stereo camera SC <b> 1, and are shown in part (b) of FIG. 18. As described above, the continuous right wall WL is shown in the image taken by the stereo camera SC2. Further, as shown in FIG. 18 (c), the image captured by the stereo camera SC3 includes the rear end portions of the left and right walls WL, as shown in FIG. 18 (d). In the image taken by the stereo camera SC4, the continuous left wall WL is shown.

ここで、先に説明したように、画像生成部13、23、33および43では、ステレオカメラで測定(撮影)された測定データが、例えば壁面を測定したデータである場合、この測定データの測定時のステレオカメラの視線方向と、測定データの分布とに基づいて計算される当該測定データの存在する面の向きが、仮想カメラから見て裏向きとなる場合、すなわち仮想カメラVCAが図16に示すような位置にある場合は、当該測定データに該当する領域を画像に変換する際に、仮想カメラから見た側に壁面を表示する処理を行うことが可能であるので、図18に示した画像データは、図2に示した周辺表示装置100を例に採れば、図19に示される俯瞰画像として表すことができる。   Here, as described above, in the image generation units 13, 23, 33, and 43, when the measurement data measured (captured) by the stereo camera is, for example, data obtained by measuring a wall surface, the measurement data is measured. When the direction of the surface on which the measurement data exists calculated based on the viewing direction of the stereo camera at the time and the distribution of the measurement data is facing away from the virtual camera, that is, the virtual camera VCA is shown in FIG. In the case of the position shown in FIG. 18, when converting the area corresponding to the measurement data into an image, it is possible to perform processing for displaying the wall surface on the side viewed from the virtual camera. Taking the peripheral display device 100 shown in FIG. 2 as an example, the image data can be represented as an overhead image shown in FIG.

すなわち、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図19の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R1には左側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   That is, in the bird's-eye view image data for the image captured by the stereo camera SC1, the pixels other than the region R1 indicating the imaging range of the stereo camera SC1 are invalid pixels as shown in part (a) of FIG. Shown in black. Note that since the region R1 includes the wall surface of the left wall WL, the wall surface is shown as an effective pixel.

同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図19の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R2には連続する右側の壁WLの壁面が含まれるので、当該壁面は有効画素とし、仮想カメラから見た側に壁面を表示している。   Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the shooting range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black. Since the region R2 includes the wall surface of the continuous right wall WL, the wall surface is an effective pixel, and the wall surface is displayed on the side viewed from the virtual camera.

ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図19の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R3には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   As shown in FIG. 19 (c), the overhead image data for the image captured by the stereo camera SC3 is a pixel that is not a pixel other than the region R3 indicating the imaging range of the stereo camera SC3, and is blacked out. Is shown. In addition, since the wall surface of the right wall WL is included in the region R3, the wall surface is shown as an effective pixel.

ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図19の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R4には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   In the bird's-eye view image data for the image captured by the stereo camera SC4, pixels other than the region R4 indicating the shooting range of the stereo camera SC4 are invalid pixels as shown in FIG. Is shown. In addition, since the wall surface of the right wall WL is included in the region R4, the wall surface is shown as an effective pixel.

<俯瞰画像の例4>
また、先に説明したように、画像生成部13、23、33および43では、ステレオカメラで測定(撮影)された測定データが、例えば壁面を測定したデータである場合、この測定データの測定時のステレオカメラの視線方向と、測定データの分布とに基づいて計算される当該測定データの存在する面の向きが、仮想カメラから見て裏向きとなる場合、すなわち仮想カメラVCAが図16に示すような位置にある場合は、当該測定データに該当する領域を画像に変換する際に、仮想カメラから見た側の壁面を、画素値に反映させるデータを間引くなどして壁面として表示される画像を半透明にする処理を行うことも可能であるので、図18に示した画像データは、図2に示した周辺表示装置100を例に採れば、図20に示される俯瞰画像として表すことができる。
<Example 4 of an overhead image>
Further, as described above, in the image generation units 13, 23, 33, and 43, when the measurement data measured (captured) by the stereo camera is, for example, data obtained by measuring a wall surface, FIG. 16 shows a case where the orientation of the surface on which the measurement data exists calculated based on the viewing direction of the stereo camera and the distribution of the measurement data is facing away from the virtual camera, that is, the virtual camera VCA is shown in FIG. When the area corresponding to the measurement data is converted into an image, the wall surface viewed from the virtual camera is displayed as a wall surface by thinning out the data to be reflected in the pixel value. 18 can be translucent, the image data shown in FIG. 18 can be obtained as an overhead image shown in FIG. 20 if the peripheral display device 100 shown in FIG. 2 is taken as an example. It can be expressed Te.

すなわち、ステレオカメラSC1で撮影した画像についての俯瞰画像データは、図20の(a)部に示されるように、ステレオカメラSC1の撮影範囲を示す領域R1以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R1には左側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   That is, in the overhead image data for the image captured by the stereo camera SC1, the pixels other than the region R1 indicating the imaging range of the stereo camera SC1 are invalid pixels as shown in part (a) of FIG. Shown in black. Note that since the region R1 includes the wall surface of the left wall WL, the wall surface is shown as an effective pixel.

同様に、ステレオカメラSC2で撮影した画像についての俯瞰画像データは、図20の(b)部に示されるように、ステレオカメラSC2の撮影範囲を示す領域R2以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R2には連続する右側の壁WLの壁面が含まれるので、当該壁面は有効画素とし、仮想カメラから見た側に壁面を表示しているが、ここでは、データを間引くなどして壁面として表示される画像を半透明にして表示している。   Similarly, in the bird's-eye view image data for the image captured by the stereo camera SC2, pixels other than the region R2 indicating the shooting range of the stereo camera SC2 are invalid pixels as shown in part (b) of FIG. Shown in black. In addition, since the wall surface of the right side wall WL is included in the region R2, the wall surface is regarded as an effective pixel, and the wall surface is displayed on the side viewed from the virtual camera. The image displayed as the wall surface is displayed as being translucent.

ステレオカメラSC3で撮影した画像についての俯瞰画像データは、図20の(c)部に示されるように、ステレオカメラSC3の撮影範囲を示す領域R3以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R3には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   In the bird's-eye view image data for the image captured by the stereo camera SC3, pixels other than the region R3 indicating the imaging range of the stereo camera SC3 are invalid pixels as shown in FIG. Is shown. In addition, since the wall surface of the right wall WL is included in the region R3, the wall surface is shown as an effective pixel.

ステレオカメラSC4で撮影した画像についての俯瞰画像データは、図20の(d)部に示されるように、ステレオカメラSC4の撮影範囲を示す領域R4以外の画素は無効画素となっており、黒く塗り潰して示されている。なお、領域R4には右側の壁WLの壁面が含まれるので、当該壁面は有効画素として示されている。   In the bird's-eye view image data for the image captured by the stereo camera SC4, pixels other than the region R4 indicating the imaging range of the stereo camera SC4 are invalid pixels as shown in FIG. Is shown. In addition, since the wall surface of the right wall WL is included in the region R4, the wall surface is shown as an effective pixel.

以上説明した、例1〜例4の俯瞰画像を統合した俯瞰画像を図21〜図24に示す。すなわち、図21は、図14の(a)部〜(d)部に示した俯瞰画像を統合した図であり、図22は、図16の(a)部〜(d)部に示した俯瞰画像を統合した図であり、図23は、図19の(a)部〜(d)部に示した俯瞰画像を統合した図であり、図24は、図20の(a)部〜(d)部に示した俯瞰画像を統合した図である。   The overhead images obtained by integrating the overhead images of Examples 1 to 4 described above are shown in FIGS. That is, FIG. 21 is a view obtained by integrating the bird's-eye view images shown in the parts (a) to (d) of FIG. 14, and FIG. 22 is a bird's-eye view shown in the parts (a) to (d) of FIG. FIG. 23 is a diagram in which the overhead images shown in (a) to (d) of FIG. 19 are integrated, and FIG. 24 is a diagram in which (a) to (d) of FIG. It is the figure which integrated the bird's-eye view image shown to the part.

<俯瞰画像の例5>
図11に示したように、自車両VCの上方に仮想カメラVCAを配置した場合であって、自車両VCの前方に対して左側に壁WLが接近して存在する状況において、ステレオカメラSC1〜SC4(図1)で撮影された画像は図13に示されたものと同じとなるが、例えば、図8に示す周辺表示装置100Bの画像生成部131および231において生成された俯瞰画像は、図25に示される画像として表すことができる。
<Example 5 of an overhead image>
As shown in FIG. 11, in the situation where the virtual camera VCA is arranged above the host vehicle VC and the wall WL is close to the left side with respect to the front of the host vehicle VC, the stereo cameras SC1 to SC1. The image taken in SC4 (FIG. 1) is the same as that shown in FIG. 13. For example, the overhead image generated in the image generation units 131 and 231 of the peripheral display device 100B shown in FIG. 25 can be represented as an image.

すなわち、ステレオカメラSC1およびSC2で撮影した画像についての俯瞰画像データは、図25の(a)部に示されるように、ステレオカメラSC1およびSC2の撮影範囲を示す領域R1およびR2以外の画素は無効画素となっており、黒く塗り潰して示されている。   In other words, the overhead image data for the images taken by the stereo cameras SC1 and SC2 is invalid for the pixels other than the regions R1 and R2 indicating the shooting ranges of the stereo cameras SC1 and SC2, as shown in part (a) of FIG. It is a pixel and is shown in black.

同様に、ステレオカメラSC3およびSC4で撮影した画像についての俯瞰画像データは、図25の(b)部に示されるように、ステレオカメラSC3およびSC4の撮影範囲を示す領域R3およびR4以外の画素は無効画素となっており、黒く塗り潰して示されている。   Similarly, as shown in FIG. 25 (b), the overhead image data for the images captured by the stereo cameras SC3 and SC4 is the pixels other than the regions R3 and R4 indicating the imaging ranges of the stereo cameras SC3 and SC4. It is an invalid pixel and is shown in black.

<変形例>
図1においては、車両VCの4方向に1台ずつステレオカメラを配置した例を示したが、図26に示されるように、車両VCの4方向に2台ずつステレオカメラを配置する構成としても良い。
<Modification>
FIG. 1 shows an example in which one stereo camera is arranged in four directions of the vehicle VC. However, as shown in FIG. 26, two stereo cameras may be arranged in four directions of the vehicle VC. good.

すなわち、図26に示すように、車両VCの、前方の左右の画像を取得するステレオカメラSC1およびSC2が配置され、前方に対して右側の前方寄りおよび後方寄りの画像を取得するステレオカメラSC3およびSC4が配置され、後方の左右の画像を取得するステレオカメラSC5およびSC6が配置され、前方に対して左側の後方寄りおよび前方寄りの画像を取得するステレオカメラSC7およびSC8が配置されている。   That is, as shown in FIG. 26, stereo cameras SC1 and SC2 that acquire the left and right images of the vehicle VC are arranged, and the stereo camera SC3 that acquires images on the right front side and rear side with respect to the front side. SC4 is arranged, stereo cameras SC5 and SC6 for obtaining the left and right images at the rear are arranged, and stereo cameras SC7 and SC8 for obtaining the images at the rear left side and the front side of the left side with respect to the front are arranged.

このようなシステムを用いることで、より、死角の少ない周辺の画像データを取得することが可能となる。   By using such a system, it is possible to acquire peripheral image data with fewer blind spots.

5 画像統合部
11,21,31,41 3次元化計算部
12,22,32,42 座標変換部
13,23,33,43 画像生成部
15,25,35,45 変換部
10〜40 画像測定部
50,50A 画像処理部
SC1〜SC4 ステレオカメラ
5 Image integration unit 11, 21, 31, 41 Three-dimensional calculation unit 12, 22, 32, 42 Coordinate conversion unit 13, 23, 33, 43 Image generation unit 15, 25, 35, 45 Conversion unit 10-40 Image measurement Part 50, 50A Image processing part SC1 to SC4 Stereo camera

Claims (11)

自走可能な移動体における周辺の画像データを取得するステレオカメラと、
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記第1の3次元画像データの座標系を、前記移動体の外側に仮想的に配置された仮想カメラから俯瞰する移動体座標系に変換して第2の3次元画像データとする座標変換部と、
前記座標変換部から出力された前記第2の3次元画像データに基づいて俯瞰画像データを生成する画像生成部と、を有した複数の画像測定部と、
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部と、を備える周辺表示装置。
A stereo camera that acquires image data of the surroundings of a self-propelled moving object;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A coordinate conversion unit that converts the coordinate system of the first three-dimensional image data into a moving body coordinate system that is viewed from a virtual camera that is virtually arranged outside the moving body to obtain second 3D image data. When,
A plurality of image measurement units each including an image generation unit that generates overhead image data based on the second three-dimensional image data output from the coordinate conversion unit;
A peripheral display device comprising: an image processing unit that integrates the bird's-eye image data output from the plurality of image measurement units into one image to form a display image.
前記画像生成部は、
前記第2の3次元画像データと前記移動体の3次元モデルのデータとを合成し、前記移動体を原点とし、その周辺に前記第2の3次元画像データを配置して前記俯瞰画像データとする、請求項1記載の周辺表示装置。
The image generation unit
The second three-dimensional image data and the data of the three-dimensional model of the moving object are combined, the moving object is set as the origin, and the second three-dimensional image data is arranged around the origin, and the overhead image data and The peripheral display device according to claim 1.
前記画像処理部は、
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータを移動体座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備える、請求項1記載の周辺表示装置。
The image processing unit
The bird's-eye view image data output from each of the plurality of image measuring units and the moving object data representing the data of the three-dimensional model of the moving object in a moving object coordinate system, the moving object as an origin, The peripheral display device according to claim 1, further comprising an image integration unit that generates integrated data in which the overhead image data is arranged in the periphery.
前記複数の画像測定部のそれぞれは、
前記ステレオカメラを複数有し、
前記3次元化計算部および前記座標変換部は、前記複数のステレオカメラの個々に対して固有に対応付けられて一連の処理システムを構成し、
前記画像生成部は、前記処理システムのそれぞれから出力される前記第2の3次元画像データを共通に受けて俯瞰画像データを生成する、請求項1記載の周辺表示装置。
Each of the plurality of image measuring units is
A plurality of stereo cameras;
The three-dimensional calculation unit and the coordinate conversion unit are uniquely associated with each of the plurality of stereo cameras to form a series of processing systems,
The peripheral display device according to claim 1, wherein the image generation unit generates the overhead image data by commonly receiving the second three-dimensional image data output from each of the processing systems.
自走可能な移動体における周辺の画像データを取得するステレオカメラと、
前記画像データに基づいて第1の3次元画像データを算出する3次元化計算部と、
前記移動体の外側に仮想的に配置される仮想カメラを、ステレオカメラ座標系で表した仮想カメラデータを含む第2の3次元画像データを生成する変換部と、
前記第2の3次元画像データと前記第1の3次元画像データとに基づいて俯瞰画像データを生成する画像生成部と、を有した複数の画像測定部と、
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データを1つの画像に統合して表示画像とする画像処理部と、を備える周辺表示装置。
A stereo camera that acquires image data of the surroundings of a self-propelled moving object;
A three-dimensional calculation unit that calculates first three-dimensional image data based on the image data;
A conversion unit that generates second three-dimensional image data including virtual camera data in which a virtual camera virtually disposed outside the moving body is represented in a stereo camera coordinate system;
A plurality of image measurement units each including an image generation unit that generates overhead image data based on the second three-dimensional image data and the first three-dimensional image data;
A peripheral display device comprising: an image processing unit that integrates the bird's-eye image data output from the plurality of image measurement units into one image to form a display image.
前記第2の3次元画像データは、
前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データを含み、
前記画像生成部は、
前記第1の3次元画像データと、仮想カメラデータおよび前記移動体データとを合成し、前記移動体を原点とし、その周辺に前記第1の3次元画像データを配置して前記俯瞰画像データとする、請求項5記載の周辺表示装置。
The second three-dimensional image data is
Including mobile object data representing the data of the three-dimensional model of the mobile object in a stereo camera coordinate system;
The image generation unit
The first three-dimensional image data, the virtual camera data, and the moving body data are synthesized, the moving body is set as an origin, and the first three-dimensional image data is arranged around the moving body data, and the overhead image data The peripheral display device according to claim 5.
前記画像処理部は、
前記複数の画像測定部からそれぞれ出力される前記俯瞰画像データと、前記移動体の3次元モデルのデータをステレオカメラ座標系で表した移動体データとを統合し、前記移動体を原点とし、その周辺に前記俯瞰画像データを配置した統合データを生成する画像統合部を備える、請求項5記載の周辺表示装置。
The image processing unit
The overhead image data output from each of the plurality of image measuring units and the moving body data representing the data of the three-dimensional model of the moving body in a stereo camera coordinate system are integrated, and the moving body is used as an origin, The peripheral display device according to claim 5, further comprising an image integration unit that generates integrated data in which the overhead image data is arranged around the periphery.
前記俯瞰画像データは、その構成画素ごとに前記仮想カメラからの距離情報を含む、請求項1または請求項5記載の周辺表示装置。   The peripheral display device according to claim 1, wherein the overhead image data includes distance information from the virtual camera for each constituent pixel. 前記画像処理部は、
前記俯瞰画像データを1つの画像に統合する際に、重複して存在する画素データについて、前記距離情報を比較し、前記仮想カメラからの距離がより近い値を有する画素データを採用する処理を行う、請求項8記載の周辺表示装置。
The image processing unit
When integrating the bird's-eye view image data into a single image, the distance information is compared with respect to overlapping pixel data, and pixel data having a closer distance from the virtual camera is used. The peripheral display device according to claim 8.
前記画像生成部は、
前記ステレオカメラで取得した前記画像データが、壁面の画像データである場合、前記画像データの撮影時の前記ステレオカメラの視線方向と、前記画像データの分布とに基づいて計算される前記壁面の向きが、前記仮想カメラから見て裏向きとなる場合は、前記壁面の画像データに該当する領域を半透明として表現する処理を行う、請求項1または請求項5記載の周辺表示装置。
The image generation unit
When the image data acquired by the stereo camera is image data of a wall surface, the direction of the wall surface calculated based on the line-of-sight direction of the stereo camera at the time of capturing the image data and the distribution of the image data 6. The peripheral display device according to claim 1 or 5, wherein, when facing away from the virtual camera, processing for expressing a region corresponding to the image data on the wall surface as translucent is performed.
前記画像生成部は、
前記ステレオカメラで取得した前記画像データが、前記仮想カメラの視野内に存在しない場合は、該ステレオカメラについては、前記俯瞰画像データを生成しない処理を行う、請求項1または請求項5記載の周辺表示装置。
The image generation unit
6. The peripheral according to claim 1 or 5, wherein when the image data acquired by the stereo camera does not exist within the field of view of the virtual camera, the stereo camera performs processing that does not generate the overhead image data. Display device.
JP2009119892A 2009-05-18 2009-05-18 Peripheral display device Pending JP2010268369A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009119892A JP2010268369A (en) 2009-05-18 2009-05-18 Peripheral display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009119892A JP2010268369A (en) 2009-05-18 2009-05-18 Peripheral display device

Publications (1)

Publication Number Publication Date
JP2010268369A true JP2010268369A (en) 2010-11-25

Family

ID=43364955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009119892A Pending JP2010268369A (en) 2009-05-18 2009-05-18 Peripheral display device

Country Status (1)

Country Link
JP (1) JP2010268369A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737406A (en) * 2011-04-06 2012-10-17 卡西欧计算机株式会社 Three-dimensional modeling apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737406A (en) * 2011-04-06 2012-10-17 卡西欧计算机株式会社 Three-dimensional modeling apparatus and method
JP2012221128A (en) * 2011-04-06 2012-11-12 Casio Comput Co Ltd Three-dimensional modeling device, three-dimensional modeling method and program

Similar Documents

Publication Publication Date Title
JP6079131B2 (en) Image processing apparatus, method, and program
JP7038345B2 (en) Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
US8817079B2 (en) Image processing apparatus and computer-readable recording medium
JP6311020B2 (en) Image composition system, image composition apparatus and image composition method therefor
JP6310652B2 (en) Video display system, video composition device, and video composition method
KR102126241B1 (en) Image processing device, image processing method, program for image processing device, storage medium, and image display device
JP5057936B2 (en) Bird&#39;s-eye image generation apparatus and method
JP4642723B2 (en) Image generating apparatus and image generating method
JP5676092B2 (en) Panorama image generation method and panorama image generation program
JP5412979B2 (en) Peripheral display device
JP2004062758A (en) Information processor and information processing method
JP6969121B2 (en) Imaging system, image processing device and image processing program
JP5299296B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP5481337B2 (en) Image processing device
JP2009118416A (en) Vehicle-periphery image generating apparatus and method of correcting distortion of vehicle-periphery image
JP2015074436A (en) Image processing device, image processing method, and program
KR20130025005A (en) Apparatus and method for compensating around image of vehicle
KR102049456B1 (en) Method and apparatus for formating light field image
JP2010287029A (en) Periphery display device
JP5299101B2 (en) Peripheral display device
JP2011024079A (en) Peripheral display device
JP2020129823A (en) Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
JP7074546B2 (en) Image processing equipment and methods
JP2001256482A (en) Device and method for generating parallax image
JP2010268369A (en) Peripheral display device