JP2005269010A - Image creating device, program and method - Google Patents

Image creating device, program and method Download PDF

Info

Publication number
JP2005269010A
JP2005269010A JP2004075951A JP2004075951A JP2005269010A JP 2005269010 A JP2005269010 A JP 2005269010A JP 2004075951 A JP2004075951 A JP 2004075951A JP 2004075951 A JP2004075951 A JP 2004075951A JP 2005269010 A JP2005269010 A JP 2005269010A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
blind spot
spatial
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004075951A
Other languages
Japanese (ja)
Inventor
Hidekazu Iwaki
秀和 岩城
Takashi Miyoshi
貴史 三由
Akio Kosaka
明生 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004075951A priority Critical patent/JP2005269010A/en
Priority to PCT/JP2005/002976 priority patent/WO2005088970A1/en
Publication of JP2005269010A publication Critical patent/JP2005269010A/en
Priority to US11/519,080 priority patent/US20070003162A1/en
Priority to US12/617,267 priority patent/US20100054580A1/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image creating device in which a created virtual visual point image is displayed while taking account of convenience of a user. <P>SOLUTION: The image creating device comprises a space reconfiguration means for mapping input images from one or a plurality of cameras fixed to a vehicle into a spatial model, a means for detecting the operating conditions of the vehicle, a means for acquiring dead angle information indicative of the dead angle of a person in the vehicle based on the detection results and setting a virtual visual point in a three-dimensional space based on the dead angle information, a visual point conversion means for forming a virtual visual point image viewed from the virtual visual point in the three-dimensional space with reference to spatial data mapped by the space reconfiguration means, and a means for controlling the display mode of the virtual visual point image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、1台乃至数台のカメラで撮影された複数枚の画像について、画像を互いに独立して表示するのではなく、前記1台乃至数台のカメラで撮影しているエリアの全体の様子が直感的に分かるように、一枚に合成した画像を表示する装置および方法に関し、たとえば、店舗におけるモニタ装置、あるいは車両運転の際の安全確認の補助としての車両周囲モニタ装置等に応用して好適な技術に関する。   The present invention does not display images independently of each other for a plurality of images taken by one to several cameras, but the entire area photographed by the one or several cameras. The present invention relates to a device and a method for displaying a composite image so that the situation can be intuitively understood. For example, the present invention is applied to a monitor device in a store or a vehicle surroundings monitor device as an auxiliary for safety confirmation when driving a vehicle. And a suitable technique.

近年、複数のカメラで撮影した画像を見やすく表示する画像生成装置が開示されている(例えば、特許文献1。)。この特許文献1では、複数のカメラで撮影した領域(例えば、車両近辺)の画像を連続的な1枚の画像として合成し、その合成した画像を表示させる画像生成装置を開示している。   In recent years, there has been disclosed an image generation apparatus that displays images captured by a plurality of cameras in an easy-to-view manner (for example, Patent Document 1). This Patent Document 1 discloses an image generation apparatus that combines images of an area (for example, the vicinity of a vehicle) captured by a plurality of cameras as a continuous image and displays the combined image.

また、特許文献1では、予め適当に設定した空間モデル、もしくは、障害物検知手段によって検知された車両周囲の障害物までの距離に応じて設定される空間モデルが、空間モデル作成手段によって作成される。画像入力手段により車両に設置されたカメラから入力された車両周囲の画像は、マッピング手段によって前記空間モデルにマッピングされる。つづいて、視点変換手段にて決められた視点から見た一枚の画像をマッピングされた画像から合成し、表示手段にて表示する。   Further, in Patent Document 1, a space model that is appropriately set in advance or a space model that is set according to the distance to an obstacle around the vehicle detected by the obstacle detection means is created by the space model creation means. The An image around the vehicle input from a camera installed on the vehicle by the image input means is mapped to the spatial model by the mapping means. Subsequently, one image viewed from the viewpoint determined by the viewpoint conversion means is synthesized from the mapped image and displayed on the display means.

このようにすることで、車両に設置された装置では、車両の全周囲にわたって車両近辺にどのような物体が存在するかを出来るだけ現実に近いように分かり易く一枚の画像として合成し、運転者にその画像を提供することができる。また、この際、視点変換手段により、運転者の所望の視点からの画像を表示させることが可能である。
特許第3286306号公報 特開平05−265547号公報 特開平06−266828号公報 富田文明,「高機能3次元視覚システム」,情報処理,情報処理学会発行,第42巻,第4号
In this way, in the device installed in the vehicle, what kind of object exists in the vicinity of the vehicle over the entire periphery of the vehicle is synthesized as a single image so that it is as easy to understand as possible, and driving The image can be provided to the person. Further, at this time, it is possible to display an image from the viewpoint desired by the driver by the viewpoint conversion means.
Japanese Patent No. 3286306 JP 05-265547 A Japanese Patent Laid-Open No. 06-266828 Fumiaki Tomita, “High-function 3D visual system”, Information processing, IPSJ, Volume 42, No.4

ところが、特許文献1では、複数のカメラで撮影した領域(例えば、車両近辺)の画像を連続的な1枚の画像として合成し、その合成した画像を仮想の3次元空間モデルにマッピングして、そのマッピングしたデータを仮想的に3次元上で視点を変えた画像(仮想視点画像)をどのようにして生成するかに主題をおいた技術であり、その表示の方法や表示形態等についてユーザインターフェースにおける利便性を向上させるということについては十分に具体的な提案をするものではない。   However, in Patent Document 1, an image of an area (for example, the vicinity of a vehicle) captured by a plurality of cameras is synthesized as a single continuous image, and the synthesized image is mapped to a virtual three-dimensional space model. It is a technology that focuses on how to create an image (virtual viewpoint image) in which the viewpoint of the mapped data is virtually changed in three dimensions. The user interface for the display method and display form We do not make a concrete proposal about improving the convenience of the company.

上記の課題に鑑み、本発明では、仮想視点画像をユーザの利便性を考慮して表示させる画像生成装置を提供する。   In view of the above problems, the present invention provides an image generation apparatus that displays a virtual viewpoint image in consideration of user convenience.

上記課題は、特許請求の範囲の請求項1に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、前記車両の動作状況を検知する車両動作検知手段と、前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定手段と、前記空間再構成手段によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、前記仮想視点画像の表示形態を制御する表示制御手段と、を備えることを特徴とする画像生成装置を提供することによって達成できる。   According to the first aspect of the present invention, there is provided a spatial reconstruction means for mapping an input image from one or a plurality of cameras attached to a vehicle to a spatial model, and an operation of the vehicle. Vehicle motion detection means for detecting a situation, and based on the detection result, obtain blind spot information indicating a blind spot of a passenger riding on the vehicle, and based on the blind spot information, a virtual viewpoint in a three-dimensional space Virtual viewpoint setting means for setting, and viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the space reconstruction means, This can be achieved by providing an image generation apparatus comprising display control means for controlling a display form of the virtual viewpoint image.

このように構成することによって、車両の動作状況に応じて運転者の死角となる部分の仮想視点画像を表示することができる。
上記課題は、特許請求の範囲の請求項2に記載の発明によれば、前記表示制御手段は、前記死角となる箇所と該箇所周囲の画像とを含む仮想視点画像中で、当該死角となる箇所が他の箇所とは区別され得るように表示を制御するように構成されたものであることを特徴とする請求項1に記載の画像生成装置を提供することによって達成できる。
By comprising in this way, the virtual viewpoint image of the part used as a blind spot of a driver | operator can be displayed according to the operation | movement condition of a vehicle.
According to the second aspect of the present invention, the display control means has the blind spot in a virtual viewpoint image including the spot that is the blind spot and an image around the spot. It can achieve by providing the image generation device according to claim 1, wherein the display is controlled so that the location can be distinguished from other locations.

このように構成することによって、死角領域とその死角領域周辺の領域とを区別できるように仮想視点画像を表示させることができる。
上記課題は、特許請求の範囲の請求項3に記載の発明によれば、前記表示制御手段は、当該死角となる箇所を他の箇所とは異なる発色によって区分するように前記仮想視点画像の表示を制御するように構成されたものであることを特徴とする請求項1に記載の画像生成装置を提供することによって達成できる。
With this configuration, the virtual viewpoint image can be displayed so that the blind spot area and the area around the blind spot area can be distinguished.
According to the third aspect of the present invention, the display control means displays the virtual viewpoint image so that the portion that becomes the blind spot is divided by color development different from other portions. It can achieve by providing the image generation apparatus of Claim 1 characterized by the above-mentioned.

このように構成することによって、死角領域とその死角領域周辺の領域とを区別できるように仮想視点画像を表示させることができる。
上記課題は、特許請求の範囲の請求項4に記載の発明によれば、前記仮想視点設定手段は、当該死角情報として、前記車両に対する操作に応じて変化する死角の発生傾向に関する情報を得て、当該死角の発生傾向に適合するように前記3次元空間における仮想視点を適応的に設定するように構成されたものであることを特徴とする請求項1に記載の画像生成装置を提供することによって達成できる。
With this configuration, the virtual viewpoint image can be displayed so that the blind spot area and the area around the blind spot area can be distinguished.
According to the fourth aspect of the present invention, the virtual viewpoint setting means obtains, as the blind spot information, information related to the generation tendency of the blind spot that changes according to the operation on the vehicle. The image generating apparatus according to claim 1, wherein the image generating apparatus is configured to adaptively set a virtual viewpoint in the three-dimensional space so as to conform to the generation tendency of the blind spot. Can be achieved.

このように構成することによって、操作に応じて変化する死角の発生傾向に応じて、仮想視点画像を表示させることができる。
上記課題は、特許請求の範囲の請求項5に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を生じさせる部位に設置されている前記表示手段に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御手段と、を備えることを特徴とする画像生成装置を提供することによって達成できる。
By configuring in this way, it is possible to display a virtual viewpoint image according to the generation tendency of the blind spot that changes according to the operation.
According to the invention described in claim 5, the above object is achieved by a space reconstruction unit that maps an input image from one or more cameras attached to a vehicle to a space model, and the space reconstruction. A viewpoint conversion unit that creates a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the unit, a display unit that displays the virtual viewpoint image, and the virtual The virtual viewpoint image corresponding to a landscape that cannot be seen as a blind spot on the display means that is installed in a part of the vehicle that causes a blind spot of a passenger by controlling the display form of the viewpoint image This can be achieved by providing an image generation device comprising display control means for displaying the image.

このように構成することによって、運転者の死角となる障害物に、その障害物がなかった場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示することができる。
上記課題は、特許請求の範囲の請求項6に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点画像の表形態を制御して、乗車者が前記表示手段を見た場合に、該表示手段によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示手段と、を備えることを特徴とする画像生成装置を提供することによって達成できる。
By comprising in this way, the virtual viewpoint image equivalent to the scenery when there is no obstacle in the obstacle which becomes the driver's blind spot can be displayed on the display device provided on the obstacle surface. .
According to the invention described in claim 6, the above object is achieved by a space reconstruction unit that maps an input image from one or more cameras attached to a vehicle to a space model, and the space reconstruction. A viewpoint conversion unit that creates a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the unit, a display unit that displays the virtual viewpoint image, and the virtual The virtual view image of the virtual viewpoint in a direction virtually reflected by the display means when the rider views the display means by controlling the table form of the viewpoint image, and the rider And a display means for displaying the virtual viewpoint image that is satisfied so as not to cause an unsightly portion as a blind spot of the image. It can be.

このように構成することによって、表示手段をルームミラーのように使用でき、さらに、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に表示させることができる。
上記課題は、特許請求の範囲の請求項7に記載の発明によれば、前記表示制御手段により表示される前記仮想視点画像は、前記死角となって見通し不能な部分が生じないように充足された部分に対応する領域を強調して表示させることを特徴とする請求項4に記載の画像生成装置を提供することによって達成できる。
By comprising in this way, a display means can be used like a room mirror, and also the scenery of the other side originally interrupted by the part can be displayed on the part used as a blind spot on the part.
According to the seventh aspect of the present invention, the above-mentioned problem is satisfied so that the virtual viewpoint image displayed by the display control means does not have a blind spot and cannot be seen. The image generation apparatus according to claim 4, wherein the image generation apparatus according to claim 4 is displayed by highlighting a region corresponding to the portion.

このように構成することによって、本来死角となって見通し不能な景観の仮想視点画像とそうでない景観の仮想視点画像とを区別することができる。
上記課題は、特許請求の範囲の請求項8に記載の発明によれば、前記表示制御手段は、前記仮想視野画像を歪曲して広視野で前記表示手段に表示させることを特徴とする請求項4に記載の画像生成装置を提供することによって達成できる。
By configuring in this way, it is possible to distinguish a virtual viewpoint image of a landscape that is originally a blind spot and cannot be viewed from a virtual viewpoint image of a landscape that is not.
According to the invention described in claim 8, the display control means distorts the virtual visual field image and displays the virtual visual field image on the display means with a wide visual field. This can be achieved by providing the image generating device described in item 4.

このように構成することによって、凸面ミラー効果を持たせることができる。
上記課題は、特許請求の範囲の請求項9に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、前記車両の動作状況を検知する車両動作検知処理と、前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定処理と、前記空間再構成処理によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、前記仮想視点画像を表示する表示処理と、をコンピュータに実行させるための画像生成プログラムを提供することによって達成できる。
With this configuration, a convex mirror effect can be provided.
According to the ninth aspect of the present invention, there is provided a spatial reconstruction process for mapping an input image from one or a plurality of cameras attached to a vehicle to a spatial model, and an operation of the vehicle. Based on the vehicle motion detection process for detecting the situation and the detection result, the blind spot information indicating the blind spot of the rider who gets on the vehicle is acquired, and the virtual viewpoint in the three-dimensional space is acquired based on the blind spot information. A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process; This can be achieved by providing an image generation program for causing a computer to execute display processing for displaying the virtual viewpoint image.

このように構成することによって、車両の動作状況に応じて運転者の死角となる部分の仮想視点画像を表示することができる。
上記課題は、特許請求の範囲の請求項10に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御処理と、をコンピュータに実行させるための画像生成プログラムを提供することによって達成できる。
By comprising in this way, the virtual viewpoint image of the part used as a blind spot of a driver | operator can be displayed according to the operation | movement condition of a vehicle.
According to the invention described in claim 10, the above-described problem is a spatial reconstruction process for mapping an input image from one or more cameras attached to a vehicle to a spatial model, and the spatial reconstruction A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the process, and a display form of the virtual viewpoint image, Display control processing for causing the computer to display the virtual viewpoint image corresponding to a landscape that cannot be seen as a blind spot on a display device that is installed in a portion of the vehicle that causes a blind spot of a passenger is executed on a computer This can be achieved by providing an image generation program.

このように構成することによって、運転者の死角となる障害物に、その障害物がなかった場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示することができる。
上記課題は、特許請求の範囲の請求項11に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、前記空間再構成処理によってマッピングされた空間データを参照して3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御処理と、をコンピュータに実行させるための画像生成プログラムを提供することによって達成できる。
By comprising in this way, the virtual viewpoint image equivalent to the scenery when there is no obstacle in the obstacle which becomes the driver's blind spot can be displayed on the display device provided on the obstacle surface. .
According to the eleventh aspect of the present invention, there is provided a spatial reconstruction process for mapping an input image from one or a plurality of cameras attached to a vehicle to a spatial model, and the spatial reconstruction. A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the process, and a table form of the virtual viewpoint image to control a passenger When viewing the display device, the virtual visual field image of the virtual viewpoint in the direction virtually reflected by the display device and the blind spot of the occupant does not cause a portion that cannot be seen. And a display control process for displaying the virtual viewpoint image satisfied by the image generation program.

このように構成することによって、表示手段をルームミラーのように使用でき、さらに、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に表示させることができる。
上記課題は、特許請求の範囲の請求項12に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、前記車両の動作状況を検知する車両動作検知工程と、前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定工程と、前記空間再構成工程によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、前記仮想視点画像を表示する表示工程と、を行うことを特徴とする画像生成方法を提供することによって達成できる。
By comprising in this way, a display means can be used like a room mirror, and also the scenery of the other side originally interrupted by the part can be displayed on the part used as a blind spot on the part.
According to the invention described in claim 12, the above-described problem is a spatial reconstruction step of mapping an input image from one or a plurality of cameras attached to a vehicle to a spatial model, and the operation of the vehicle A vehicle motion detection step for detecting a situation, and based on the result of the detection, obtain blind spot information indicating a blind spot of a rider riding in the vehicle, and based on the blind spot information, a virtual viewpoint in a three-dimensional space A viewpoint conversion step for creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the space reconstruction step; This can be achieved by providing an image generation method characterized by performing a display step of displaying the virtual viewpoint image.

このように構成することによって、車両の動作状況に応じて運転者の死角となる部分の仮想視点画像を表示することができる。
上記課題は、特許請求の範囲の請求項13に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御工程と、を行うことを特徴とする画像生成方法を提供することによって達成できる。
By comprising in this way, the virtual viewpoint image of the part used as a blind spot of a driver | operator can be displayed according to the operation | movement condition of a vehicle.
According to the invention described in claim 13, the above-described problem is a space reconstruction step of mapping an input image from one or more cameras attached to a vehicle to a space model, and the space reconstruction A viewpoint conversion step of creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the process, and a display form of the virtual viewpoint image, A display control step of displaying the virtual viewpoint image corresponding to a landscape that cannot be seen as a blind spot on a display device that is installed in a part of the vehicle that causes a blind spot of a passenger. This can be achieved by providing a featured image generation method.

このように構成することによって、運転者の死角となる障害物に、その障害物がなかった場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示することができる。
上記課題は、特許請求の範囲の請求項14に記載の発明によれば、車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、前記空間再構成工程によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御工程と、を行うことを特徴とする画像生成方法を提供することによって達成できる。
By comprising in this way, the virtual viewpoint image equivalent to the scenery when there is no obstacle in the obstacle which becomes the driver's blind spot can be displayed on the display device provided on the obstacle surface. .
According to the invention described in claim 14, the above object is a space reconstruction step of mapping an input image from one or more cameras attached to a vehicle to a space model, and the space reconstruction. A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped in the process, and a table form of the virtual viewpoint image is controlled to get on When the person looks at the display device, the virtual visual field image of the virtual viewpoint in the direction virtually reflected by the display device and the blind spot of the occupant does not cause an unobservable part. And a display control step for displaying the virtual viewpoint image that has been satisfied in this manner.

このように構成することによって、表示手段をルームミラーのように使用でき、さらに、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に表示させることができる。
上記課題は、特許請求の範囲の請求項15に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知手段と、前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定手段と、前記空間再構成手段によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、前記仮想視点画像の表示形態を制御する表示制御手段と、を備えることを特徴とする画像生成装置を提供することによって達成できる。
By comprising in this way, a display means can be used like a room mirror, and also the scenery of the other side originally interrupted by the part can be displayed on the part used as a blind spot on the part.
According to the invention described in claim 15 of the claim, the object of the present invention is that the space reconstruction means for mapping the input image from one or more cameras attached to the imaging means arranged object to the space model, Based on the result of the detection, the imaging means placement object motion detection means for detecting the motion state of the imaging means placement object, and obtaining blind spot information indicating a spot that is a blind spot of the observer operating the imaging means placement object, A virtual viewpoint setting unit that sets a virtual viewpoint in a three-dimensional space based on the blind spot information, and an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the space reconstruction unit An image generation apparatus comprising: viewpoint conversion means for creating a virtual viewpoint image; and display control means for controlling a display form of the virtual viewpoint image. It can be achieved by subjecting.

このように構成することによって、撮像手段配置物体の動作状況に応じてユーザの死角となる部分の仮想視点画像を表示することができる。
上記課題は、特許請求の範囲の請求項16に記載の発明によれば、前記表示制御手段は、前記死角となる箇所と該箇所周囲の画像とを含む仮想視点画像中で、当該死角となる箇所が他の箇所とは区別され得るように表示を制御するように構成されたものであることを特徴とする請求項15に記載の画像生成装置を提供することによって達成できる。
By configuring in this way, it is possible to display a virtual viewpoint image of a portion that becomes a blind spot of the user according to the operation state of the imaging means arranged object.
According to the invention described in claim 16, the display control means has the blind spot in a virtual viewpoint image including the spot that is the blind spot and an image around the spot. It can achieve by providing the image generation device according to claim 15, wherein the display is controlled so that the location can be distinguished from other locations.

このように構成することによって、死角領域とその死角領域周辺の領域とを区別できるように仮想視点画像を表示させることができる。
上記課題は、特許請求の範囲の請求項17に記載の発明によれば、前記表示制御手段は、当該死角となる箇所を他の箇所とは異なる発色によって区分するように前記仮想視点画像の表示を制御するように構成されたものであることを特徴とする請求項15に記載の画像生成装置を提供することによって達成できる。
With this configuration, the virtual viewpoint image can be displayed so that the blind spot area and the area around the blind spot area can be distinguished.
According to the invention described in claim 17, the display control means displays the virtual viewpoint image so as to classify the spot that becomes the blind spot by color development different from other parts. It can achieve by providing the image generation apparatus of Claim 15 characterized by the above-mentioned.

このように構成することによって、死角領域とその死角領域周辺の領域とを区別できるように仮想視点画像を表示させることができる。
上記課題は、特許請求の範囲の請求項18に記載の発明によれば、前記仮想視点設定手段は、当該死角情報として、前記撮像手段配置物体に対する操作に応じて変化する死角の発生傾向に関する情報を得て、当該死角の発生傾向に適合するように前記3次元空間における仮想視点を適応的に設定するように構成されたものであることを特徴とする請求項1に記載の画像生成装置を提供することによって達成できる。
With this configuration, the virtual viewpoint image can be displayed so that the blind spot area and the area around the blind spot area can be distinguished.
According to the invention described in claim 18, the virtual viewpoint setting means, as the blind spot information, is information relating to the generation tendency of the blind spot that changes in accordance with an operation on the imaging means arranged object. The image generation apparatus according to claim 1, wherein the image generation apparatus is configured to adaptively set a virtual viewpoint in the three-dimensional space so as to match the generation tendency of the blind spot. Can be achieved by providing.

このように構成することによって、操作に応じて変化する死角の発生傾向に応じて、仮想視点画像を表示させることができる。
上記課題は、特許請求の範囲の請求項19に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観察者の死角を生じさせる部位に設置されている前記表示手段に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御手段と、を備えることを特徴とする画像生成装置を提供することによって達成できる。
With this configuration, it is possible to display a virtual viewpoint image according to the generation tendency of the blind spot that changes according to the operation.
According to the invention described in claim 19, the above object is a spatial reconstruction unit that maps an input image from one or more cameras attached to an imaging unit arranged object to a spatial model, and Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the space reconstruction means, and display means for displaying the virtual viewpoint image , By controlling the display form of the virtual viewpoint image, the display means installed in a part that is in the imaging means arranged object and causes the blind spot of the observer, to the landscape that cannot be seen as the blind spot This can be achieved by providing an image generation apparatus comprising display control means for displaying the corresponding virtual viewpoint image.

このように構成することによって、ユーザの死角となる障害物に、その障害物がなかった場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示することができる。
上記課題は、特許請求の範囲の請求項20に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点画像の表形態を制御して、観察者が前記表示手段を見た場合に、該表示手段によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示手段と、を備えることを特徴とする画像生成装置を提供することによって達成できる。
By comprising in this way, the virtual viewpoint image equivalent to the scenery when the obstruction which becomes a blind spot of a user does not have the obstruction can be displayed on the display device provided on the obstruction surface.
According to the invention described in claim 20, the above object is a space reconstruction unit that maps input images from one or more cameras attached to an imaging unit arranged object to a space model, and Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the space reconstruction means, and display means for displaying the virtual viewpoint image The virtual view image of the virtual viewpoint in a direction virtually reflected by the display means when an observer views the display means by controlling a table form of the virtual viewpoint image, and Provided is an image generation apparatus comprising: display means for displaying the virtual viewpoint image that is satisfied so as not to cause a blind spot of the observer and an unobservable part. It can be achieved by the.

このように構成することによって、表示手段をルームミラーのように使用でき、さらに、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に表示させることができる。
上記課題は、特許請求の範囲の請求項21に記載の発明によれば、前記表示制御手段により表示される前記仮想視点画像は、前記死角となって見通し不能な部分が生じないように充足された部分に対応する領域を強調して表示させることを特徴とする請求項20に記載の画像生成装置を提供することによって達成できる。
By comprising in this way, a display means can be used like a room mirror, and also the scenery of the other side originally interrupted by the part can be displayed on the part used as a blind spot on the part.
According to the invention described in claim 21, the above-mentioned problem is satisfied so that the virtual viewpoint image displayed by the display control means does not have an unsightly part as the blind spot. 21. The image generation apparatus according to claim 20, wherein the image generation apparatus according to claim 20 is displayed by highlighting a region corresponding to the portion.

このように構成することによって、本来死角となって見通し不能な景観の仮想視点画像とそうでない景観の仮想視点画像とを区別することができる。
上記課題は、特許請求の範囲の請求項22に記載の発明によれば、前記表示制御手段は、前記仮想視野画像を歪曲して広視野で前記表示手段に表示させることを特徴とする請求項20に記載の画像生成装置を提供することによって達成できる。
By configuring in this way, it is possible to distinguish a virtual viewpoint image of a landscape that is originally a blind spot and cannot be viewed from a virtual viewpoint image of a landscape that is not.
According to the invention described in claim 22, the display control means distorts the virtual visual field image and displays the virtual visual field image on the display means with a wide visual field. This can be achieved by providing the image generating device according to 20.

このように構成することによって、凸面ミラー効果を持たせることができる。
上記課題は、特許請求の範囲の請求項23に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知処理と、前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて前記3次元空間における仮想視点を設定する仮想視点設定処理と、前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、前記仮想視点画像を表示する表示処理と、をコンピュータに実行させるための画像生成プログラムを提供することによって達成できる。
With this configuration, a convex mirror effect can be provided.
According to the invention described in claim 23 of the scope of the invention, according to the invention described in claim 23, the spatial reconstruction processing for mapping the input images from one or a plurality of cameras attached to the imaging means arranged object to the spatial model, Based on the result of the detection, an imaging means placement object motion detection process that detects the motion status of the imaging means placement object, and obtains blind spot information indicating a blind spot of an observer who operates the imaging means placement object, A virtual viewpoint setting process for setting a virtual viewpoint in the three-dimensional space based on the blind spot information and an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process An image generation program for causing a computer to execute viewpoint conversion processing for creating a certain virtual viewpoint image and display processing for displaying the virtual viewpoint image. It can be achieved by subjecting.

このように構成することによって、撮像手段配置物体の動作状況に応じてユーザの死角となる部分の仮想視点画像を表示することができる。
上記課題は、特許請求の範囲の請求項24に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観察者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御処理と、をコンピュータに実行させるための画像生成プログラムを提供することによって達成できる。
By configuring in this way, it is possible to display a virtual viewpoint image of a portion that becomes a blind spot of the user according to the operation state of the imaging means arranged object.
According to the invention described in claim 24 of the scope of the invention, according to the invention described in claim 24, the spatial reconstruction processing for mapping the input images from one or a plurality of cameras attached to the imaging means arranged object to the spatial model, Controls the viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process, and the display form of the virtual viewpoint image Display control processing for displaying the virtual viewpoint image corresponding to a landscape that cannot be seen as the blind spot on a display device that is installed in the imaging device-arranged object and that generates a blind spot of the observer Can be achieved by providing an image generation program for causing a computer to execute.

このように構成することによって、ユーザの死角となる障害物に、その障害物がなかった場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示することができる。
上記課題は、特許請求の範囲の請求項25に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、前記仮想視点画像の表形態を制御して、観察者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御処理と、コンピュータに実行させるための画像生成プログラムを提供することによって達成できる。
By comprising in this way, the virtual viewpoint image equivalent to the scenery when the obstruction which becomes a blind spot of a user does not have the obstruction can be displayed on the display device provided on the obstruction surface.
According to the invention described in claim 25 of the scope of the invention, according to the invention described in claim 25, the spatial reconstruction processing for mapping the input images from one or a plurality of cameras attached to the imaging means arranged object to the spatial model, By referring to the spatial data mapped by the spatial reconstruction process, a viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space, and a table form of the virtual viewpoint image are controlled. When the observer views the display device, the virtual visual field image of the virtual viewpoint in the direction virtually reflected by the display device, and a portion that cannot be seen as a blind spot of the observer This can be achieved by providing a display control process for displaying the virtual viewpoint image that is satisfied so as not to occur, and an image generation program for causing the computer to execute the display control process.

このように構成することによって、表示手段をルームミラーのように使用でき、さらに、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に表示させることができる。
上記課題は、特許請求の範囲の請求項26に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知工程と、前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定工程と、前記空間再構成工程によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、前記仮想視点画像を表示する表示工程と、を行うことを特徴とする画像生成方法を提供することによって達成できる。
By comprising in this way, a display means can be used like a room mirror, and also the scenery of the other side originally interrupted by the part can be displayed on the part used as a blind spot on the part.
According to the invention described in claim 26 of the scope of claims, the spatial reconstruction step of mapping an input image from one or a plurality of cameras attached to an imaging means arranged object to a spatial model, An imaging means placement object motion detection step for detecting the motion status of the imaging means placement object, and based on the result of the detection, obtains blind spot information indicating a spot that is a blind spot of an observer who operates the imaging means placement object, An image viewed from the virtual viewpoint in the three-dimensional space with reference to the virtual viewpoint setting step of setting a virtual viewpoint in the three-dimensional space based on the blind spot information and the spatial data mapped by the space reconstruction step By providing an image generation method characterized by performing a viewpoint conversion step of creating a virtual viewpoint image and a display step of displaying the virtual viewpoint image. It can be achieved Te.

このように構成することによって、撮像手段配置物体の動作状況に応じてユーザの死角となる部分の仮想視点画像を表示することができる。
上記課題は、特許請求の範囲の請求項27に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観察者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御工程と、を行うことを特徴とする画像生成方法を提供することによって達成できる。
By configuring in this way, it is possible to display a virtual viewpoint image of a portion that becomes a blind spot of the user according to the operation state of the imaging means arranged object.
According to the invention described in claim 27 of the scope of claims, the spatial reconstruction step of mapping input images from one or a plurality of cameras attached to an imaging means arranged object onto a spatial model, A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process, and a display form of the virtual viewpoint image is controlled. And a display control step of displaying the virtual viewpoint image corresponding to a landscape that cannot be seen as the blind spot on a display device that is installed in the imaging means placement object and that causes the blind spot of the observer. By providing an image generation method characterized in that

このように構成することによって、ユーザの死角となる障害物に、その障害物がなかった場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示することができる。
上記課題は、特許請求の範囲の請求項28に記載の発明によれば、撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、前記空間再構成工程によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、前記仮想視点画像の表形態を制御して、観察者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御工程と、を行うことを特徴とする画像生成方法を提供することによって達成できる。
By comprising in this way, the virtual viewpoint image equivalent to the scenery when the obstruction which becomes a blind spot of a user does not have the obstruction can be displayed on the display device provided on the obstruction surface.
According to the invention described in claim 28 of the claim, the object is a spatial reconstruction step of mapping an input image from one or more cameras attached to an imaging means arranged object to a spatial model, A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process, and a table form of the virtual viewpoint image is controlled. When the observer views the display device, the virtual visual field image of the virtual viewpoint in the direction virtually reflected by the display device, and a portion that cannot be seen as a blind spot of the observer And a display control step for displaying the virtual viewpoint image that is satisfied so as not to occur. This can be achieved by providing an image generation method.

このように構成することによって、表示手段をルームミラーのように使用でき、さらに、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に表示させることができる。   By comprising in this way, a display means can be used like a room mirror, and also the scenery of the other side originally interrupted by the part can be displayed on the part used as a blind spot on the part.

本発明によれば、仮想視点画像の表示に係るユーザインターフェースについて、さらに利便性を高めるための技術を具現させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique for improving the convenience further about the user interface which concerns on the display of a virtual viewpoint image can be embodied.

<第1の実施形態>
本実施形態では、運転者にとって死角になる死角領域を検出し、その死角領域を観察する視点を設定し、このような視点からの仮想視点画を運転者から視認可能に表示する。或いは、このような死角領域から運転動作情報や運転者の操作によって表示対象とすべき死角領域を選択し、選択された死角領域を観察する視点を設定し、このような視点からの仮想視点画を運転者に視認可能に表示する。以下に、図面を用いてこのような実施形態について逐次具体的に説明する。
<First Embodiment>
In the present embodiment, a blind spot area that is a blind spot for the driver is detected, a viewpoint for observing the blind spot area is set, and a virtual viewpoint image from such a viewpoint is displayed so as to be visible from the driver. Alternatively, from such a blind spot area, a blind spot area to be displayed is selected by driving operation information or a driver's operation, a viewpoint for observing the selected blind spot area is set, and a virtual viewpoint image from such a viewpoint is set. Is displayed to the driver in a visible manner. Hereinafter, such embodiments will be specifically described sequentially with reference to the drawings.

図1は、本実施形態における画像生成装置10000を示す。同図において、画像生成装置10000は、1台乃至複数台のカメラ101、カメラパラメータテーブル103、空間再構成手段104、空間データバッファ105、視点変換手段106、表示手段107、表示制御手段10001、仮想視点設定手段10002、及び車両動作検知手段10003から構成される。   FIG. 1 shows an image generation apparatus 10000 in the present embodiment. In the figure, an image generation apparatus 10000 includes one or more cameras 101, a camera parameter table 103, a spatial reconstruction unit 104, a spatial data buffer 105, a viewpoint conversion unit 106, a display unit 107, a display control unit 10001, a virtual It comprises a viewpoint setting means 10002 and vehicle motion detection means 10003.

複数台のカメラ101は、監視対象領域の状況を把握するのに適合した状態で設けられている。カメラ101は、例えば、車両の周囲の状況など監視すべき空間の画像を取り込む複数のテレビカメラである。このカメラ101は、大きな視野を得ることができるよう、通常、画角が大きいものを使うのが良い。このカメラ101の設置台数、設置状態等については例えば特許文献1に開示のような公知の態様でもよい。尚、図示の例では複数台のカメラを用いているが1台のカメラの設置位置を順次移動して複数台のカメラが備えられた場合と同様の撮像データを得るようにして用いてもよい。この点は以下に述べる各例について同様である。   The plurality of cameras 101 are provided in a state suitable for grasping the status of the monitoring target area. The camera 101 is, for example, a plurality of television cameras that capture images of a space to be monitored such as a situation around the vehicle. In general, it is preferable to use a camera 101 having a large angle of view so that a large field of view can be obtained. The number of cameras 101 installed, the installation state, and the like may be a known mode as disclosed in Patent Document 1, for example. In the illustrated example, a plurality of cameras are used. However, it may be used so as to obtain the same imaging data as when a plurality of cameras are provided by sequentially moving the installation position of one camera. . This is the same for each example described below.

カメラパラメータテーブル103には、カメラ101の特性を示すカメラパラメータを格納してある。ここで、カメラパラメータについて説明する。画像生成装置10000にはキャリブレーション手段(不図示)が設けられており、カメラキャリブレーションを行う。カメラキャリブレーションとは、3次元空間に配置されたカメラについての、その3次元空間における、カメラの取り付け位置、カメラの取り付け角度、カメラのレンズ歪み補正値、カメラのレンズの焦点距離などといった、カメラ101の特性を表すカメラパラメータを決定、補正することである。このキャリブレーション手段及びカメラパラメータテーブル103については、例えば特許文献1にも詳述されている。   The camera parameter table 103 stores camera parameters indicating the characteristics of the camera 101. Here, the camera parameters will be described. The image generation apparatus 10000 is provided with calibration means (not shown), and performs camera calibration. Camera calibration refers to a camera placed in a three-dimensional space, such as the camera mounting position, camera mounting angle, camera lens distortion correction value, camera lens focal length, etc., in the three-dimensional space. 101 is to determine and correct the camera parameters representing the characteristics of 101. The calibration means and the camera parameter table 103 are also described in detail in, for example, Patent Document 1.

空間再構成手段104では、カメラパラメータに基づいて、カメラ101からの入力画像を3次元空間の空間モデルにマッピングした空間データを作成する。すなわち、空間再構成手段104は、キャリブレーション手段(不図示)によって計算されたカメラパラメータに基づいて、カメラ101からの入力画像を構成する各々の画素を3次元空間の点に対応づけた空間データを作成する。   The space reconstruction unit 104 creates spatial data in which an input image from the camera 101 is mapped to a three-dimensional space model based on the camera parameters. That is, the space reconstruction unit 104 associates each pixel constituting the input image from the camera 101 with a point in the three-dimensional space based on the camera parameter calculated by the calibration unit (not shown). Create

すなわち、空間再構成手段104では、カメラ101から撮影された画像に含まれる各々の物体が、3次元空間のどこに存在するかを計算し、その計算結果としての空間データを空間データバッファ105に格納する。なお、空間モデルは、予め決められた(所定の)ものでもよく、或いは、その場で複数の入力画像から生成されたもの、乃至は、別途のセンサーの出力に基づいて生成されたものであってもよい。   That is, the space reconstruction unit 104 calculates where each object included in the image photographed from the camera 101 exists in the three-dimensional space, and stores the spatial data as the calculation result in the spatial data buffer 105. To do. The spatial model may be a predetermined (predetermined) one, or one generated from a plurality of input images on the spot, or one generated based on the output of a separate sensor. May be.

例えば、特許文献1に記載があるように、空間モデルは、5つの平面からなる空間モデル、お椀型をした空間モデル、平面と曲面を組み合わせて構成した空間モデル、もしくはついたて面を導入した空間モデル、またはこれらを組み合わせたものであってもよい。なお、これらの空間モデルに限定されず、空間モデルは、平面の組み合わせ、曲面、または平面と曲面を組み合わせたものならば、特に限定されない。また、三角測定により距離画像を算出する距離画像を取得するステレオセンサー等(例えば、特許文献2、特許文献3)から得られたステレオ視画像に基づいて空間モデルを作成してもよい。   For example, as described in Patent Document 1, a space model is a space model composed of five planes, a bowl-shaped space model, a space model composed of a combination of a plane and a curved surface, or a space model introduced with a surface. Or a combination thereof. In addition, it is not limited to these space models, A space model will not be specifically limited if it is a combination of a plane, a curved surface, or a combination of a plane and a curved surface. Moreover, you may create a spatial model based on the stereo vision image obtained from the stereo sensor etc. (for example, patent document 2, patent document 3) which acquire the distance image which calculates a distance image by a triangulation measurement.

なお、カメラ101からの入力画像を構成するそれぞれの画素のすべてを利用して空間データを構成する必要はない。たとえば入力画像に水平線により上に位置する領域が写っている場合は、その水平線より上の領域に含まれる画素を路面にマッピングする必要はない。あるいは車体を写している画素をマッピングする必要もない。また、入力画像が高解像度な場合などは、数画素毎に飛ばして空間データにマッピングすることにより処理を高速化することも考えられる。この空間再構成手段104については、例えば特許文献1に詳述されている。   Note that it is not necessary to configure the spatial data using all of the respective pixels constituting the input image from the camera 101. For example, if the input image includes a region located above the horizontal line, it is not necessary to map the pixels included in the region above the horizontal line to the road surface. Alternatively, it is not necessary to map the pixels representing the vehicle body. In addition, when the input image has a high resolution, it may be possible to increase the processing speed by skipping every few pixels and mapping it to spatial data. The space reconstruction unit 104 is described in detail in, for example, Patent Document 1.

空間データバッファ105では、空間再構成手段104にて作成された空間データを一時的に格納する。この空間データバッファ105についても、例えば特許文献1に詳述されている。
視点変換手段106では、空間データを参照して、任意の視点から見た画像を作成する。すなわち、空間再構成手段104によって作成された空間データを参照して、任意の視点にカメラを設置して撮影した画像を作成する。この視点変換手段106についても、例えば特許文献1に詳述された構成をとり得る。
The spatial data buffer 105 temporarily stores the spatial data created by the spatial reconstruction unit 104. The spatial data buffer 105 is also described in detail in Patent Document 1, for example.
The viewpoint conversion means 106 creates an image viewed from an arbitrary viewpoint with reference to the spatial data. That is, referring to the spatial data created by the spatial reconstruction means 104, an image is created by setting the camera at an arbitrary viewpoint. The viewpoint conversion means 106 can also have the configuration detailed in, for example, Patent Document 1.

車両動作検知手段10003では、車両の動作状況を検知する。たとえば、車両が右折しているか、左折しているかをハンドルの蛇角で検知したり、ブレーキが掛けられているか否を検知したりする。このように、車両の状況を検知するために、車両各部にセンサーや計器が取り付けられている。   The vehicle operation detection means 10003 detects the operation status of the vehicle. For example, whether the vehicle is turning right or left is detected by the steering angle of the steering wheel or whether the brake is applied. Thus, in order to detect the state of the vehicle, sensors and instruments are attached to each part of the vehicle.

仮想視点設定手段10002では、視点変換手段106へ送信する仮想視点に関してのパラメータを設定する。ここでは、車両動作検知手段10003によって検知された車両の状況に応じて、そのパラメータを設定することができる。
表示制御手段10001では、視点変換手段106で生成した仮想視点画像を表示手段107(例えば、ディスプレイ等)に表示させるために、その表示形態を制御する。
The virtual viewpoint setting unit 10002 sets parameters regarding the virtual viewpoint to be transmitted to the viewpoint conversion unit 106. Here, the parameter can be set in accordance with the vehicle state detected by the vehicle motion detection means 10003.
The display control unit 10001 controls the display form in order to display the virtual viewpoint image generated by the viewpoint conversion unit 106 on the display unit 107 (for example, a display).

図2は、本実施形態における仮想視点画像の表示フローを示す。まず、空間再構成手段104において、カメラ101から得られた画像を構成する各々の画素と、3次元座標系の点との対応関係を計算し、空間データを作成する(S1)。この計算は各々のカメラ101から得られた画像のすべての画素に対して実施する。この処理自体については、例えば特許文献1にも開示された公知の態様のものを適用できる。   FIG. 2 shows a display flow of the virtual viewpoint image in the present embodiment. First, the space reconstruction unit 104 calculates the correspondence between each pixel constituting the image obtained from the camera 101 and a point in the three-dimensional coordinate system, and creates space data (S1). This calculation is performed for all pixels of the image obtained from each camera 101. For this processing itself, for example, a known mode disclosed in Patent Document 1 can be applied.

次に、上記したように、各種センサー等の車両動作検知手段10003により車両の動作状況を検知した(S2)後、仮想視点設定手段10002では、車両動作検知手段10003によって検知された車両の状況に応じて、仮想視点を設定する(S3)。
次に、視点変換手段106において、S3で指定した視点からの画像を、上記の空間データから再現する(S4)。この処理自体については、例えば特許文献1にも開示された公知の態様のものを適用できる。その後、表示制御手段10001によって、その再現した画像の表示形態を制御する(S5)。S5の処理に関しては、後述する。その後、その制御された画像を表示手段107へ出力し、表示手段107にて表示される(S6)。
Next, as described above, after the vehicle operation state is detected by the vehicle operation detection unit 10003 such as various sensors (S2), the virtual viewpoint setting unit 10002 displays the vehicle state detected by the vehicle operation detection unit 10003. Accordingly, a virtual viewpoint is set (S3).
Next, the viewpoint conversion means 106 reproduces the image from the viewpoint specified in S3 from the spatial data (S4). For this processing itself, for example, a known mode disclosed in Patent Document 1 can be applied. Thereafter, the display form of the reproduced image is controlled by the display control unit 10001 (S5). The process of S5 will be described later. Thereafter, the controlled image is output to the display means 107 and displayed on the display means 107 (S6).

図3は、本実施形態における運転者の運転動作に基づいて、運転者の死角を検出する一例を示す。同図は、車両10010が右折するときに検出される死角10011を表している。車両10010が右折するとき、内輪差による巻き込み事故防止のため右前のタイヤを確認する必要がある。   FIG. 3 shows an example of detecting the driver's blind spot based on the driving operation of the driver in the present embodiment. The figure shows a blind spot 10011 detected when the vehicle 10010 turns right. When the vehicle 10010 makes a right turn, it is necessary to check the right front tire in order to prevent an accident involving the inner ring.

ところが、この場合、右前ドアやボンネット、インストルメントパネルにより視野が遮断され、内輪差部分が死角となってしまう。また、このような部分はサイドミラーを介しても死角となる部分である。そこで、本実施形態では、運転者の運転動作に基づいて、このような死角となる部分を検出する。   However, in this case, the field of view is blocked by the right front door, the bonnet, and the instrument panel, and the inner ring difference portion becomes a blind spot. Moreover, such a part is a part which becomes a blind spot even if it passes through a side mirror. Therefore, in the present embodiment, such a blind spot is detected based on the driving operation of the driver.

同図の場合、運転者は車両のハンドルを回転させて右折(または左折)をする。この右折(または左折)動作を車両動作検知手段10003によって検知する(図2のS2)。このとき、ハンドルの回転の程度まで検知し、すなわち、時計回りか反時計回りかやどれくらいの角度、どれくらいの速度、それくらいの加速度で右折(または左折)しているかを検知している。この検知された情報は、仮想視点設定手段10002に送信される。仮想視点設定手段10002では、検知された情報に基づいて、運転者の運転動作を認識し、運転者の死角となる部分10011が特定される。   In the case of the figure, the driver makes a right turn (or a left turn) by rotating the steering wheel of the vehicle. This right turn (or left turn) motion is detected by the vehicle motion detection means 10003 (S2 in FIG. 2). At this time, the degree of rotation of the steering wheel is detected, that is, whether it is clockwise or counterclockwise, how much angle, how fast, and how much acceleration is turned right (or left). This detected information is transmitted to the virtual viewpoint setting unit 10002. The virtual viewpoint setting unit 10002 recognizes the driving operation of the driver based on the detected information, and specifies the portion 10011 that becomes the blind spot of the driver.

また、運転者の視点の位置は予め取得している。例えば、車内を監視するカメラにより運転者の顔画像を取得し、一般的な画像処理技術によりその顔画像から眼球位置位置を抽出することで視点を計測することにより視点の位置を取得しても良い。また、運転者の姿勢等とを推測してそこからユーザの視点を算出するようにしてもよい。   The position of the driver's viewpoint is acquired in advance. For example, a driver's face image is acquired by a camera that monitors the interior of the vehicle, and the position of the viewpoint is acquired by measuring the viewpoint by extracting the eyeball position from the face image using a general image processing technique. good. Alternatively, the user's viewpoint may be calculated based on the driver's posture and the like.

例えば、予め登録してある運転者の身長(又は座高)と、現在のシートの傾斜角度から運転者の頭の位置が計測できるので、そこからおおよその運転者の視点の位置が分かる。また、運転する場合の人間の視点の位置に上限がある(シートからルーフまでの車高の制限)ことから、各人で視点の位置に大差ないと仮定した場合には所定値(平均値、統計値等)をデフォルト設定しておいてもよい。このようにして、仮想視点が得られる。   For example, since the position of the driver's head can be measured from the height (or sitting height) of the driver registered in advance and the current inclination angle of the seat, the approximate position of the viewpoint of the driver can be known therefrom. In addition, since there is an upper limit on the position of the human viewpoint when driving (restriction of the vehicle height from the seat to the roof), if it is assumed that there is not much difference in the position of the viewpoint for each person, a predetermined value (average value, Statistical values etc. may be set as default. In this way, a virtual viewpoint is obtained.

そして、CAD(Computer Aided Design)のデータを利用することにより、この取得した運転者の視点位置と車両のCADデータから、運転者の視点からの死角領域が得られ、この死角領域の情報と上記で取得した仮想視点情報(どの方向を向いているかという情報も含む)が視点変換手段106に送信される。   Then, by using CAD (Computer Aided Design) data, a blind spot area from the driver's viewpoint is obtained from the acquired driver's viewpoint position and the CAD data of the vehicle. The virtual viewpoint information (including information indicating which direction it is facing) acquired in step (1) is transmitted to the viewpoint conversion means 106.

視点変換手段106では、受信したそれらの情報に基づいて、その仮想視点から見た仮想視点画像が生成される(図2のS4)。なお、このとき、死角領域とこの死角領域周囲の領域とからなる仮想視点画像を生成する(なお、用途によっては、死角領域のみの仮想視点画像を生成しても良い。)。   Based on the received information, the viewpoint conversion means 106 generates a virtual viewpoint image viewed from the virtual viewpoint (S4 in FIG. 2). At this time, a virtual viewpoint image including a blind spot area and an area around the blind spot area is generated (a virtual viewpoint image of only the blind spot area may be generated depending on the application).

ここで生成した仮想視点画像は、上記のように、死角領域とこの死角領域周囲の領域とからなっているが、死角領域がこの死角領域周囲の領域と区別されるような態様で、表示させるようにする。たとえば、死角領域とこの死角領域周囲の領域とを異なる色で区別するようにしてもよいし、死角領域を強調表示させるようにしてもよい。   The virtual viewpoint image generated here is composed of the blind spot area and the area around the blind spot area as described above, and is displayed in such a manner that the blind spot area is distinguished from the area around the blind spot area. Like that. For example, the blind spot area and the area around the blind spot area may be distinguished by different colors, or the blind spot area may be highlighted.

また、車両動作検知手段による検知された死角情報に基づいて表示する死角画像の表示形態を切り換えるようにしてもよい。すなわち、検知された情報に応じて変化する死角の発生傾向に関する情報を得て、当該死角の発生傾向に適合するように3次元空間における仮想視点を適応的に設定する。例えば、図4で示すように、プリセットされた右折モード、左折モード等を、この検知された死角情報に応じて、切り換えて適用してもよい。   Moreover, you may make it switch the display form of the blind spot image displayed based on the blind spot information detected by the vehicle operation | movement detection means. That is, information on the generation tendency of the blind spot that changes according to the detected information is obtained, and the virtual viewpoint in the three-dimensional space is adaptively set so as to match the generation tendency of the blind spot. For example, as shown in FIG. 4, preset right turn mode, left turn mode, and the like may be switched and applied according to the detected blind spot information.

図4は、本実施形態における車両の動作状況のモードの一例を示す。本実施形態の動作状況のモードとしては、「右折モード」、「左折モード」、「発進時周囲監視モード」、「車内監視モード」、「高速走行時モード」、「後方監視モード」、「雨天走行モード」、「縦列駐車モード」、「車庫入れモード」がある。それでは、各モードについて説明する。   FIG. 4 shows an example of the mode of operation status of the vehicle in the present embodiment. The operation status modes of this embodiment include “right turn mode”, “left turn mode”, “starting ambient monitoring mode”, “in-vehicle monitoring mode”, “high speed running mode”, “rear monitoring mode”, “rainy weather” There are “travel mode”, “parallel parking mode”, and “garage entry mode”. Now, each mode will be described.

「右折モード」は、前方と曲がる方向の映像を表示する。具体的にいえば、車両が右折の場合、前方の映像と右折方向の映像を表示する。「左折モード」は、前方と曲がる方向の映像を表示する。具体的にいえば、車両が左折の場合、前方の映像と左折方向の映像を表示する。   “Right turn mode” displays an image of the direction of turning forward. Specifically, when the vehicle turns right, a forward image and a right turn image are displayed. The “left turn mode” displays an image in a direction of turning forward. Specifically, when the vehicle makes a left turn, a front image and a left turn image are displayed.

「発進時周囲監視モード」は、車両の発進時において、車両の周囲の監視映像を表示する。「車内監視モード」は、車内の監視映像を表示する。「高速走行時モード」は、高速走行時において、遠くの前方の映像を表示する。「後方監視モード」は、急ブレーキをかけられるかどうか、すなわち、急ブレーキをかけて停止できるほど後続車との距離があるかを確認するための後方の映像が表示される。   In the “starting-up ambient monitoring mode”, a monitoring video around the vehicle is displayed when the vehicle starts up. “In-vehicle monitoring mode” displays an in-vehicle monitoring image. The “high speed running mode” displays an image of a far front in high speed running. In the “rear monitoring mode”, a rear image for confirming whether or not sudden braking can be applied, that is, whether there is a distance from the succeeding vehicle that can be stopped by applying sudden braking is displayed.

「雨天走行モード」は、降雨時には視界が悪くなるため、見落としやすい方向が生じることがあるので、そのような見落としやすい方向の映像、及び/または画像処理により水滴除去した映像を表示させるようにする。この見落としやすい方向については、統計的や経験的で求めた方向でもよいし、ユーザにより任意に設定できるようにしてもよい。   In the “rainy driving mode”, the visibility is deteriorated when it rains, and a direction that is easily overlooked may occur. Therefore, an image in such a direction that is easily overlooked and / or an image from which water droplets are removed by image processing should be displayed. . The direction that is easily overlooked may be a direction obtained statistically or empirically, or may be arbitrarily set by the user.

「縦列駐車モード」は、縦列駐車時において、前方車両と後方車両とに接触しないように、幅寄せする側の前方と後方の映像が表示される。「車庫入れモード」は、車庫入れする場合に車庫の壁面に接触しやすい方向の映像が表示される。
このように、検知された車両の動作状況からモードが判定され、このモードに対応する表示形態で仮想視点画像を表示する。
In the “Parallel parking mode”, the front and rear images on the side to be widened are displayed so as not to contact the front vehicle and the rear vehicle during the parallel parking. In the “garage entry mode”, an image is displayed in a direction in which it is easy to contact the wall of the garage when entering the garage.
As described above, the mode is determined from the detected operation state of the vehicle, and the virtual viewpoint image is displayed in a display form corresponding to this mode.

上記のようにして、運転者の死角となる部分の仮想視点画像を運転者に提供することができる。なお、図3では、右折時の内輪差の生じる部分を死角として求めたが、これに限られず、例えば、死角は外輪差部分であってよいし、後進時の車両の後方部分であってもよいし、その他運転動作時に発生するあらゆる死角であってもよい。   As described above, a virtual viewpoint image of a portion that becomes a blind spot of the driver can be provided to the driver. In FIG. 3, the portion where the inner wheel difference at the time of the right turn is determined as the blind angle, but is not limited thereto. For example, the blind angle may be the outer wheel difference portion or the rear portion of the vehicle during reverse travel. It may be any other blind spot that occurs during driving operation.

また、このような死角を検出するために、車両の各部分には様々なセンサー(赤外線、温度、湿度、圧力、照度、機械的な動作を検知するセンサー等)やカメラ(車内用、車体撮影用)、計測器が取り付けてある(又はタコメータ、スピードメータ、冷却液温度計、油圧計、燃料残量計、等の既存の計測器を用いても良い)。   In addition, in order to detect such blind spots, various parts of the vehicle have various sensors (infrared, temperature, humidity, pressure, illuminance, sensors that detect mechanical movements) and cameras (for in-vehicle use, car body photography). A measuring instrument is attached (or an existing measuring instrument such as a tachometer, a speedometer, a coolant temperature gauge, a hydraulic pressure gauge, a fuel fuel gauge, etc. may be used).

また、死角を表す情報を取得する方法として、上記の方法の他に、例えば、特許文献1に記載の発明を利用しても良い。すなわち、車両上空からの仮想視点による仮想視点画像から運転席に着座している運転者の視点からの仮想視点による仮想視点画像を差し引いたものが、当該運転者の死角となる。このようにして、運転者の死角を表す情報を取得することも可能である。   In addition to the above method, for example, the invention described in Patent Document 1 may be used as a method for acquiring information representing blind spots. That is, the blind spot of the driver is obtained by subtracting the virtual viewpoint image based on the virtual viewpoint from the viewpoint of the driver sitting on the driver's seat from the virtual viewpoint image based on the virtual viewpoint from above the vehicle. In this way, it is also possible to acquire information representing the driver's blind spot.

なお、本実施形態では、図3の死角10011を例に説明したが、右折時には例外にも死角は存在する。そこで、車両の所定の動作状況において複数の死角が存在する場合には、そのうちどの死角部分の仮想視点画像を表示させるかを選択することができる。さらに、この選択した情報は履歴情報として画像生成装置内の記憶装置に記憶しておくことができる。そして、この履歴情報からユーザの選択頻度が得られるので、その選択頻度を基に、自動的にその死角部分についての仮想視点画像を表示させることができる。また、表示させる仮想視点画像は車両の所定の動作状況に関係させて予め設定しておくこともできる。   In the present embodiment, the blind spot 10011 in FIG. 3 has been described as an example, but there is a blind spot in an exception when turning right. Therefore, when there are a plurality of blind spots in a predetermined operation situation of the vehicle, it is possible to select which blind spot portion of the virtual viewpoint image is to be displayed. Further, the selected information can be stored as history information in a storage device in the image generation apparatus. Since the user's selection frequency can be obtained from the history information, a virtual viewpoint image for the blind spot portion can be automatically displayed based on the selection frequency. Further, the virtual viewpoint image to be displayed can be set in advance in relation to a predetermined operation state of the vehicle.

以上より、車両の動作状況に対応させて死角となる部分の仮想視点画像を表示させることができるので、当該動作中においてその死角を確認しながら安全に車両を運転することができる。なお、上述したところから理解されるように、本明細書において「死角」は、一つには、運転席から、どうやっても(首を回しても或いはミラーを用いる等しても)見えない領域を指す意を持ち、また他意として、限定的に、状況に応じて「死角なるもの」として求められ(設定され)乃至は運転状況によって複数の上記「死角」から抽出(選択)されるものである意を持つ。   As described above, since the virtual viewpoint image of the part that becomes a blind spot can be displayed corresponding to the operation state of the vehicle, the vehicle can be safely driven while checking the blind spot during the operation. In addition, as understood from the above description, in the present specification, the “blind spot” is an area that cannot be seen from the driver's seat in any way (even if the neck is turned or a mirror is used). In addition, as another intention, it is required (set) as a “blind spot” depending on the situation or extracted (selected) from a plurality of “blind spots” depending on the driving situation. Have a will.

<第2の実施形態>
本実施形態では、運転者の死角となる障害物に、その障害物がなかった場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示する。これにより、本実施形態では、画像表示装置の設置位置を最適にすることで、より直感的な表示を実現する。
<Second Embodiment>
In the present embodiment, a virtual viewpoint image corresponding to a landscape when the obstacle that is a blind spot of the driver is not present is displayed on a display device provided on the obstacle surface. Thereby, in this embodiment, a more intuitive display is realized by optimizing the installation position of the image display device.

図5は、本実施形態における画像生成装置を用いた場合の一例を説明するための図であり、車内(運転席)からフロントピラー10021(ドアと屋根の間にあって車の強度を支える柱のことであり、フロントガラス10020とサイドウィンドウ10022の間にある柱10021をいう)越しに車外にある他の車両10023を見た場合の様子を示している。   FIG. 5 is a diagram for explaining an example of the case where the image generation apparatus according to the present embodiment is used. From the inside of the vehicle (driver's seat) to the front pillar 10021 (the pillar between the door and the roof that supports the strength of the vehicle. And shows another vehicle 10027 outside the vehicle (referring to a pillar 10021 between the windshield 10020 and the side window 10022).

図5(a)は、本実施形態にかかる画像生成装置を利用しない場合であり、車両10023の車体がフロントピラー10021により遮られ(すなわち死角となっている)、運転者からはその遮られた部分を見ることができない。
図5(b)は、本実施形態にかかる画像生成装置を利用した場合であり、フロントピラー10021aの表面には画像を表示することができるようになっている(例えば、液晶ディスプレイ、プラズマディスプレイ、もしくは有機ELディスプレイ等のフラットパネルディスプレイ、または電子ペーパーディスプレイ等がフロントピラー10021に取り付けてある。)。
FIG. 5A shows a case where the image generation apparatus according to the present embodiment is not used, and the vehicle body of the vehicle 10025 is blocked by the front pillar 10021 (that is, a blind spot) and is blocked by the driver. I can't see the part.
FIG. 5B shows a case where the image generation apparatus according to the present embodiment is used, and an image can be displayed on the surface of the front pillar 10021a (for example, a liquid crystal display, a plasma display, Alternatively, a flat panel display such as an organic EL display or an electronic paper display is attached to the front pillar 10021.)

このようにすることで、フロントピラー10021aに画像を表示することができる。本実施形態では、フロントピラー10021aに、本来フロントピラー10021aにより遮られ(すなわち死角となっている)、運転者からはその遮られた部分を見ることができない外部の景観の仮想視点画像を表示する。図5(b)では、車両10023の遮られた部分について、当該部分に相当する仮想視点画像をフロントピラー10021に表示している。   In this way, an image can be displayed on the front pillar 10021a. In the present embodiment, a virtual viewpoint image of an external landscape that is originally blocked by the front pillar 10021a (ie, a blind spot) and cannot be seen by the driver is displayed on the front pillar 10021a. . In FIG. 5B, a virtual viewpoint image corresponding to the blocked portion of the vehicle 10025 is displayed on the front pillar 10021.

図6は、本実施形態における仮想視点画像の表示フローを示す。まず、空間再構成手段104において、カメラ101から得られた画像を構成する各々の画素と、3次元座標系の点との対応関係を計算し、空間データを作成する(S11)。この処理は、図2のS1と同様の処理である。   FIG. 6 shows a display flow of the virtual viewpoint image in the present embodiment. First, the space reconstruction unit 104 calculates the correspondence between each pixel constituting the image obtained from the camera 101 and a point in the three-dimensional coordinate system, and creates space data (S11). This process is the same as S1 in FIG.

次に、仮想視点画像を生成するための仮想視点の指定をする(S12)。仮想視点は、運転者の視点を中心として車内の死角となる各部分へ向けての視点方向とする。これらは、予め固定でセットされていてもよいし、乗車者が乗車する度にセットするようにしてもよい。   Next, a virtual viewpoint for generating a virtual viewpoint image is designated (S12). The virtual viewpoint is a viewpoint direction toward each part that becomes a blind spot in the vehicle with the driver's viewpoint as the center. These may be fixed and set in advance, or may be set every time the passenger gets on.

次に、視点変換手段106において、S12で指定された仮想視点から見た仮想視点画像を生成する(S13)。この処理は、図2のS4と同様の処理である。このとき、当該車両に関する情報を除いて、景観についての仮想視点画像を作成する。
次に、表示制御手段10001により、S13で生成した仮想視点画像のうち、死角となる部分によって遮られている景観に対応する画像部分の抽出する(S14)。図5でいえば、生成した仮想視点画像からフロントピラー10021aに表示させる部分のみの画像を抽出する。このとき、表示手段として用いる障害物の大きさ、位置、形状等は予め画像生成装置10000内の記憶装置に登録させているので、それらの情報を基に仮想視点画像から抽出対象となる部分の画像を抽出する。
Next, the viewpoint conversion means 106 generates a virtual viewpoint image viewed from the virtual viewpoint specified in S12 (S13). This process is the same as S4 in FIG. At this time, a virtual viewpoint image about the landscape is created except for information on the vehicle.
Next, the display control means 10001 extracts an image part corresponding to the landscape blocked by the part that becomes a blind spot from the virtual viewpoint image generated in S13 (S14). In FIG. 5, an image of only a portion to be displayed on the front pillar 10021a is extracted from the generated virtual viewpoint image. At this time, since the size, position, shape, and the like of the obstacle used as the display means are registered in advance in the storage device in the image generation device 10000, based on such information, the portion to be extracted from the virtual viewpoint image Extract images.

なお、S14において、上記の抽出処理以外にも次の処理が考えられる。例えば、自車両に関する情報を考慮しないで生成した仮想視点画像(すなわち、自車両に関するパラメータも考慮して生成した仮想視点画像)と、自車両に関する情報を考慮して生成した仮想視点画像とを算出し、この2つの仮想視点画像の差分を求めることで死角領域が得られる。したがって、この差分の領域の画像が表示手段に表示させる画像となる。   In S14, the following processing can be considered in addition to the above extraction processing. For example, a virtual viewpoint image generated without considering information related to the host vehicle (that is, a virtual viewpoint image generated considering parameters related to the host vehicle) and a virtual viewpoint image generated considering information related to the host vehicle are calculated. Then, a blind spot area is obtained by obtaining a difference between the two virtual viewpoint images. Therefore, the image of the difference area is an image displayed on the display means.

次に、その抽出した画像を表示装置107に表示させる。図5でいえば、フロントピラー10021aに抽出した画像を表示させる(S15)。
以上より、死角となる部分に、本来その部分によって遮られたその向こう側の景観をその部分に表示させることができるので、あたかもその部分かシースルーのようにして見える。また、表示させる死角部分としては、上記では、一例としてフロントピラーを用いたが、これに限られず、たとえば、ヘッドレストやインストルメントパネル、シート等の車内にあるあらゆるもの(運転者の死角となるもの)に表示装置(例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、電子ペーパーディスプレイ等)を取り付けることができる。
Next, the extracted image is displayed on the display device 107. In FIG. 5, the extracted image is displayed on the front pillar 10021a (S15).
From the above, it is possible to display the scenery on the other side that was originally blocked by the part in the blind spot, so that it looks as if the part is see-through. In addition, as the blind spot portion to be displayed, the front pillar is used as an example in the above, but is not limited thereto. For example, the headrest, instrument panel, seat, etc. ) Can be attached to a display device (for example, a liquid crystal display, a plasma display, an organic EL display, an electronic paper display, etc.).

<第3の実施形態>
本実施形態では、表示手段をルームミラーと見立てて、仮にこのルームミラーに反射されたとしたら表示される像に対応する仮想視点画像を表示する。このとき、第2の実施形態と同様に、この表示手段には、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に表示させる。これにより、画像表示装置の設置位置を最適にすることで、より直感的な表示を実現する。
<Third Embodiment>
In the present embodiment, assuming that the display means is a room mirror, a virtual viewpoint image corresponding to an image displayed if it is reflected by the room mirror is displayed. At this time, similarly to the second embodiment, the display means displays the scenery on the other side, which is originally blocked by the part, in the part that becomes a blind spot. Thereby, a more intuitive display is realized by optimizing the installation position of the image display device.

図7は、本実施形態における画像生成装置10000を示す。同図において、画像生成装置10000は、複数台のカメラ101、カメラパラメータテーブル103、空間再構成手段104、空間データバッファ105、視点変換手段106、表示手段107、表示制御手段10001、視点検知手段10030から構成される。視点検知手段10030以外は、図1と同様である。   FIG. 7 shows an image generation device 10000 in the present embodiment. In the figure, an image generation apparatus 10000 includes a plurality of cameras 101, a camera parameter table 103, a spatial reconstruction unit 104, a spatial data buffer 105, a viewpoint conversion unit 106, a display unit 107, a display control unit 10001, and a viewpoint detection unit 10030. Consists of Except for the viewpoint detection means 10030, it is the same as FIG.

上述したように、本実施形態では、表示手段107をミラーのようにして用いることができる。すなわち、このミラーと見立てた表示手段には、この表示手段を見たとき、運転者の目に入る表示画像はあたかもミラーにより反射された像であるかのような画像を表示させる必要がある。   As described above, in this embodiment, the display means 107 can be used like a mirror. In other words, it is necessary for the display means that is regarded as a mirror to display an image as if it is an image reflected by the mirror when the display means is viewed by the driver.

そこで、表示手段107の設置位置に対する運転者の視点の相対的な位置を決定する必要がある。そこで、本実施形態では、表示手段107の設置位置に対する運転者の視点の相対的な位置を検出するために、視点検知手段10030を用いる。視点検知手段10030は、第1の実施形態と同様に、例えば、車内を監視するカメラにより運転者の顔画像を取得し、一般的な画像処理技術によりその顔画像から眼球位置位置を抽出することで視点を計測することにより視点の位置を取得してもよいし、また、運転者の姿勢等とを推測してそこからユーザの視点を算出するようにしてもよいし、予め仮想視点の位置を設定しておいてもよい。   Therefore, it is necessary to determine the relative position of the driver's viewpoint with respect to the installation position of the display means 107. Therefore, in the present embodiment, the viewpoint detection unit 10030 is used to detect the relative position of the driver's viewpoint with respect to the installation position of the display unit 107. As in the first embodiment, the viewpoint detection unit 10030 obtains the driver's face image with a camera that monitors the interior of the vehicle, for example, and extracts the eyeball position from the face image using a general image processing technique. The position of the viewpoint may be acquired by measuring the viewpoint with the above, or the user's viewpoint may be calculated from the driver's attitude by estimating the position of the virtual viewpoint. May be set.

これにより、運転者の視点の位置及び視線の方向を検知することができる。また、表示手段107の車両に対する設置角度等も予め設定されている。したがって、これらの情報より、運転者が表示手段107を見た場合に、表示表示107の表示面に対する運転者の視線の入射角が算出され、その結果、反射角が得られる。   Thereby, the position of the driver's viewpoint and the direction of the line of sight can be detected. In addition, an installation angle of the display unit 107 with respect to the vehicle is set in advance. Therefore, when the driver views the display means 107 from these pieces of information, the incident angle of the driver's line of sight with respect to the display surface of the display display 107 is calculated, and as a result, the reflection angle is obtained.

それで、表示手段107に表示する画像は、その反射角で反射された方向の景観の仮想視点画像を表示するようにする。ここで、生成される仮想視点画像は、自車両に関する情報(車載の物品、シート、フロントピラー、リアピラー等)を考慮しないで生成される画像であり、表示手段に表示されるときには左右反転される。   Therefore, the image displayed on the display means 107 displays a virtual viewpoint image of the landscape in the direction reflected at the reflection angle. Here, the generated virtual viewpoint image is an image generated without taking into consideration information related to the own vehicle (vehicle-mounted article, seat, front pillar, rear pillar, etc.), and is horizontally reversed when displayed on the display means. .

このとき、本来死角となって見通し不能な景観に対応する仮想視点画像と、元々死角でない景観とを区別できるように、例えば、死角となって見通し不能な景観をワイヤーフレームで表示させてもよいし、他の部分と異なる色で区別するようにしてもよいし、強調表示させるようにしてもよい。   At this time, for example, a landscape that is a blind spot and cannot be viewed may be displayed in a wire frame so that a virtual viewpoint image corresponding to the landscape that is originally a blind spot and a landscape that is not visible can be distinguished from a landscape that is not originally a blind spot. However, it may be distinguished by a color different from other parts, or may be highlighted.

このように本来死角となって見通し不能な景観の仮想視点画像とそうでない景観の仮想視点画像とを区別するにあたって、第1の実施形態と同様にCADデータを用いる。すなわち、運転者の視点からの死角領域に関する情報が得られ、この死角領域に相当する部分が例えばワイヤーフレームで表示される。   As described above, CAD data is used in the same manner as in the first embodiment to distinguish between a virtual viewpoint image of a landscape that is originally a blind spot and cannot be viewed, and a virtual viewpoint image of a landscape that is not. That is, information on the blind spot area from the driver's viewpoint is obtained, and a portion corresponding to the blind spot area is displayed, for example, in a wire frame.

また、CADデータを用いない方法として、自車両に関する情報を考慮しないで生成した仮想視点画像と、自車両に関する情報を考慮して生成した仮想視点画像とを算出し、この2つの仮想視点画像の差分を求めることで死角領域が得られる。そして、この死角領域の情報に基づいてその死角となって本来見ることができない景観に対応する部分を、例えばワイヤーフレーム等で表示させる。   Further, as a method not using CAD data, a virtual viewpoint image generated without considering information about the host vehicle and a virtual viewpoint image generated considering information about the host vehicle are calculated, and the two virtual viewpoint images are calculated. A blind spot area can be obtained by calculating the difference. Then, based on the information on the blind spot area, the part corresponding to the scenery that cannot be seen as the blind spot is displayed with, for example, a wire frame.

また、表示手段に表示される画像は、死角となる部分がシースルー(透けて見える)となるように、死角部分を取り除いた仮想視点画像を表示する。すなわち、車両内にあって運転者の死角を生じさせる部位に設置されている表示手段に、死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる。この例を図8に示す。   Further, the image displayed on the display means displays a virtual viewpoint image from which the blind spot portion is removed so that the blind spot portion is see-through (visible through). That is, the virtual viewpoint image corresponding to a landscape that is a blind spot and cannot be seen is displayed on a display unit that is installed in a part of the vehicle that causes the blind spot of the driver. An example of this is shown in FIG.

図8は、本実施形態における表示手段に表示される画像の表示形態を示す。図8(a)は、通常のルームミラー10040に表示されるリアウインド10041方向の景観(後続車両10042)を示す。通常のルームミラー10040に表示される反射像は、図8(a)に示すように、助手席10044やリアシート10045、リアウインド枠10043があるため、これらがルームミラー越しに後方を見ている運転者にとって死角となっているため、この死角の向こう側の景観(図8(a)でいえば、後続車両10042の下部及び右フロント部分)は見通し不能となっている。   FIG. 8 shows a display form of an image displayed on the display means in the present embodiment. FIG. 8A shows a landscape (following vehicle 10042) in the direction of the rear window 10040 displayed on a normal room mirror 10040. FIG. As shown in FIG. 8 (a), the reflection image displayed on the normal room mirror 10040 includes a passenger seat 10044, a rear seat 10045, and a rear window frame 10043. Since this is a blind spot for a person, the landscape beyond this blind spot (the lower part and the right front part of the following vehicle 10041 in FIG. 8A) cannot be seen.

図8(b)は、本発明を用いて、通常のルームミラーに表示されるようにリアウインド方向の景観を表示手段10046に表示させ、かつ、運転者の死角となって見通し不能な景観に対応する前記仮想視点画像を表示させた様子を示す。図8(b)では、図8(a)で示した助手席10044やリアシート10045、リアウインド枠10043のために生じる死角のため、見ることができなかった後続車両10042の下部及び右フロント部分の視野が充足されるように表示されている。   FIG. 8 (b) uses the present invention to display a landscape in the rear window direction on the display means 10046 so as to be displayed on a normal room mirror, and to become a driver's blind spot and cannot be seen. A state in which the corresponding virtual viewpoint image is displayed is shown. In FIG. 8 (b), the lower and right front portions of the following vehicle 10042 that could not be seen due to blind spots caused by the passenger seat 10044, the rear seat 10045, and the rear window frame 10043 shown in FIG. 8 (a). It is displayed so that the field of view is satisfied.

また、どこか死角に相当するかを示すために、死角となって見通し不能な景観に対応する部分と、そうでない部分とを区別することができるような表示形態となっている。この表示形態は、例えば、図8(b)に示すように、死角となって見通し不能な景観をワイヤーフレームで表示させてもよいし、他の部分と異なる色で区別するようにしてもよいし、強調表示させるようにしてもよい。   Moreover, in order to show where it corresponds to a blind spot, it is a display form which can distinguish the part corresponding to the landscape which becomes a blind spot and cannot be seen, and the part which is not so. For example, as shown in FIG. 8B, this display form may display a blind spot with a wire frame or distinguish it with a color different from other parts. However, it may be highlighted.

なお、本実施形態で用いる表示手段は、通常のルームミラーとしても機能できるように、ディスプレイの表面にハーフミラーを取り付けたような構造をしていてもよい。また、この表示手段に表示される画像を歪めて、広視野の画像を表示させるようにしても良い。すなわち、凸面ミラー効果を持たせるようにしてもよい。   The display means used in this embodiment may have a structure in which a half mirror is attached to the surface of the display so that it can function as a normal room mirror. Further, the image displayed on the display means may be distorted to display a wide-field image. That is, you may make it give a convex mirror effect.

さらに、表示手段について詳述すると、ルームミラーをハーフミラーで構成し、その背面にフラットパネルディスプレイを配置し、さらに視点位置検出手段により、運転者の視点位置を検出し、視点とハーフミラーの関係からハーフミラー裏から表示するナビゲーション用の重畳画像を表示するようにしてもよい。   Furthermore, the display means will be described in detail. The rearview mirror is composed of a half mirror, a flat panel display is arranged on the back of the mirror, and the viewpoint position of the driver is detected by the viewpoint position detection means, and the relationship between the viewpoint and the half mirror. From the back of the half mirror, a superimposed image for navigation may be displayed.

また、サイドウインドウの一部に上記の表示手段(例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイ、電子ペーパーディスプレイ等)を設けても良い。これにより、ドアミラーで確認していた後方の様子を当該表示手段に後方の仮想視点画像を表示させることで、後方の様子を確認することができる。   Moreover, you may provide said display means (for example, a liquid crystal display, a plasma display, an organic electroluminescent display, an electronic paper display etc.) in a part of side window. Thereby, the state of the back can be confirmed by displaying the state of the back which has been confirmed by the door mirror on the display means.

また、サイドミラーに表示される像よりも大きい画像で表示させることができるので、後方の様子をより詳細に確認することができる。このため、サイドミラーが不要となり、例えば駐車スペースの省スペース化が図れる。また、細い通路での対向車との離合時にも、対向車のサイドミラーと自車両のサイドミラーとが接触する心配がない。   Moreover, since it can be displayed with an image larger than the image displayed on the side mirror, the state of the back can be confirmed in more detail. For this reason, a side mirror becomes unnecessary and space saving of a parking space can be achieved, for example. Moreover, there is no fear that the side mirror of the oncoming vehicle and the side mirror of the host vehicle come into contact with each other even when separated from the oncoming vehicle in a narrow passage.

また、図4で示したように、車両の動作状況モードに応じて、表示手段に表示する表示形態を切り換えるようにしてもよい。また、例えば、パン、チルト、ズーム等の機能を用いて、視点変動に追従できるようにしてもよい。また、左右方向が視野に入りやすいように、横のアスペクトを縮めて表示させるようにしてもよい。   Further, as shown in FIG. 4, the display form displayed on the display means may be switched in accordance with the operation state mode of the vehicle. Further, for example, it may be possible to follow the viewpoint variation by using functions such as pan, tilt, and zoom. Further, the horizontal aspect may be reduced and displayed so that the horizontal direction can easily enter the visual field.

以上より、ディスプレイをルームミラーと同様の効果をもたせ、さらに本来死角となって見通し不能な景観に対応する仮想視点画像を表示させることができる。また、視点検知手段によりミラーに表示する視点を演算して、自然なミラー画像(ミラーに表示される反射像)を死角部分の補間表示を含めて、このディスプレイに表示させることができる。   As described above, the display can have the same effect as the room mirror, and further, a virtual viewpoint image corresponding to a landscape that is originally a blind spot and cannot be seen can be displayed. Further, the viewpoint to be displayed on the mirror can be calculated by the viewpoint detection means, and a natural mirror image (reflected image displayed on the mirror) can be displayed on this display including the interpolation display of the blind spot portion.

また、本来死角部分に相当する部分の表示には、当該死角部分の輪郭をワイヤフレーム等で表示することにより、実際には運転者には直接見えていない部分の画像であることを認識させることができる。また、このディスプレイは運転者に適した視野角を持たせることで、パッセンジャーなどが非直感的な画像を見ないようにする。さらに、仮想視点は運転席からの視点を設定し、運転者の視点に連動した仮想視点を設定する。   In addition, when displaying the portion corresponding to the blind spot, the outline of the blind spot is displayed with a wire frame or the like, so that the driver can recognize that the image is actually not directly visible to the driver. Can do. In addition, this display has a viewing angle suitable for the driver, so that passengers do not see non-intuitive images. Further, the viewpoint from the driver's seat is set as the virtual viewpoint, and the virtual viewpoint linked to the driver's viewpoint is set.

<第4の実施形態>
第1〜第3の実施形態では、車両を中心に説明したが、車両に限らず、さらに、幅広い分野に適用することができる。そこで、本実施形態では、本発明を車両以外に応用した一例を以下に示す。
<Fourth Embodiment>
In 1st-3rd embodiment, although demonstrated centering on a vehicle, it is applicable not only to a vehicle but to a broad field | area. Therefore, in the present embodiment, an example in which the present invention is applied to a device other than a vehicle is shown below.

本実施形態における一例としては、例えば、観察者が屋内、街路などを歩行している人であり、撮像装置配置物体が屋内、屋外、部屋のインテリア、他の移動体(車両、ロボット)であるような監視システムでもよい。また、ドアの開閉状態によって生じている死角のチェック、家電品や家具の扉の状態などで生じている死角のチェック、もしくは人物の後方の死角のチェックにも応用することができる。   As an example in this embodiment, for example, the observer is a person walking indoors, on a street, etc., and the imaging device placement object is indoors, outdoors, room interiors, and other mobile objects (vehicles, robots). Such a monitoring system may be used. The present invention can also be applied to a blind spot check caused by the open / closed state of a door, a blind spot check caused by the state of a door of a household appliance or furniture, or a blind spot check behind a person.

図9は、本実施形態における画像生成装置をHMD(ヘッドマウントディスプレイ)に適用した場合の一例を示す。同図の斜線部分10054,10055,10056は、死角である。図9(a)は、部屋10050にあるドア10052及び冷蔵庫10053の戸が閉じた状態を示す。図9(b)は、部屋10050にあるドア10052及び冷蔵庫10053の戸が開いた状態を示す。   FIG. 9 shows an example in which the image generation apparatus according to the present embodiment is applied to an HMD (head mounted display). The hatched portions 10054, 10055, 10056 in the figure are blind spots. FIG. 9A shows a state in which the door 10052 and the refrigerator 10053 in the room 10050 are closed. FIG. 9B shows a state in which the doors 10052 and refrigerators 10053 in the room 10050 are opened.

この場合、観察者である人物10051は例えばHMDなどを装着しており仮想視点画像を観察できると共に、撮像装置配置物体(ここでは部屋10050とすると)のカメラによって捉えられた観察者自らの位置、姿勢、方向が計測されている(この部分は観察者である人物に装着するGPSやジャイロセンサー、カメラ装置、人物の視線検出装置などでも計測することができる。)。   In this case, the person 10051 who is an observer wears an HMD or the like, for example, and can observe a virtual viewpoint image, and the observer's own position captured by the camera of the imaging device arrangement object (here, assumed to be a room 10050), The posture and direction are measured (this part can also be measured by a GPS, a gyro sensor, a camera device, a person's line-of-sight detection device, etc. that are attached to a person who is an observer).

これらの情報から、どの部分を人物が直接観察できるようになっていて、どの部分が見えないかを算出することができるようになっている。これにより人物は自らの死角範囲、例えば、死角10054,10055,10056をHMDなどに表示された仮想視点画像上で把握することができ、自らに対する脅威、例えば物陰に潜む不審者、犬、車両、蓋の開いたマンホールや溝などを認知することができる。   From these pieces of information, it is possible to calculate which part can be directly observed by a person and which part cannot be seen. As a result, the person can grasp his / her blind spot range, for example, blind spots 10054, 10055, 10056 on a virtual viewpoint image displayed on the HMD, etc. You can recognize manholes and grooves with open lids.

さて、第1〜第4の実施形態において、仮想視点画像を作成するのにカメラ101を使用しているが、これらのカメラにはAF(オートフォーカス)機能を持たせてもよい。これにより、ステレオ視により近接している場合は、近距離側にレンズのフォーカスを調整するようにする。まり、一般にマクロモードと呼ばれる撮影対象に近接した位置で大きく撮影する場合のモードに調整する。このようにすることで、3次元再構成用にフォーカスのあった画像が近距離において得られる。   In the first to fourth embodiments, the camera 101 is used to create a virtual viewpoint image. However, these cameras may have an AF (autofocus) function. As a result, the lens focus is adjusted to the short distance side when close to each other in stereo view. In other words, the mode is adjusted to a mode in which large shooting is generally performed at a position close to a shooting target called a macro mode. In this way, an image focused for three-dimensional reconstruction can be obtained at a short distance.

また、遠距離にある被写体を撮影する場合には、AF機能により当該被写体にフォーカスを合わせることで遠距離画像についても同様に、高精度の画像が得られ、遠距離の精度向上につながる。
図10は、第1〜第4の実施形態における画像生成装置10000のハードウェア環境の構成ブロック図である。同図において画像生成装置10000は、少なくとも、例えば、中央処理装置(CPU)等の制御装置10080と、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、または大容量記憶装置等の記憶装置10081と、出力I/F(インターフェース、以下同じ)10082、入力I/F10083、通信I/F10084及びこれらを接続するバス10085から構成され、それに、ディスプレイ等の出力手段107や、入力I/Fまたは通信I/Fに接続される各種の装置がある。
Further, when shooting a subject at a long distance, focusing on the subject by the AF function can similarly obtain a high-accuracy image for a long-distance image, leading to an improvement in the accuracy of the long distance.
FIG. 10 is a configuration block diagram of a hardware environment of the image generation device 10000 in the first to fourth embodiments. In the figure, an image generation device 10000 includes at least a control device 10080 such as a central processing unit (CPU) and a storage device 10081 such as a read only memory (ROM), a random access memory (RAM), or a mass storage device. And an output I / F (interface, the same applies hereinafter) 10082, an input I / F 10083, a communication I / F 10084, and a bus 10085 for connecting them, to which output means 107 such as a display, input I / F or communication There are various devices connected to the I / F.

入力I/Fに接続される装置としては、例えば、カメラ101、車内用カメラ、ステレオセンサー及び各種センサー、キーボードやマウス等の入力装置、CD−ROMやDVD等の可搬型記憶媒体の読み取り装置、その他周辺機器等が挙げられる。
通信I/F10084に接続される装置としては、例えば、カーナビゲーションシステムや、インターネット又はGPSと接続する通信機器である。なお、通信メディアとしては、インターネット、LAN、WAN、専用線、有線、無線等の通信網であってよい。
As an apparatus connected to the input I / F, for example, a camera 101, an in-vehicle camera, a stereo sensor and various sensors, an input device such as a keyboard and a mouse, a reading device for a portable storage medium such as a CD-ROM and a DVD, Other peripheral devices are listed.
Examples of the device connected to the communication I / F 10084 include a car navigation system and a communication device connected to the Internet or GPS. Note that the communication medium may be a communication network such as the Internet, a LAN, a WAN, a dedicated line, a wired line, and a wireless line.

記憶装置10081の一例としてはハードディスク、磁気ディスクなど様々な形式の記憶装置を使用することができ、上記の実施形態で述べたフローのプログラム、各種テーブル(例えば、各種設定値が格納されるテーブル等)、CADデータ等が格納されている。このプログラムは、制御装置10080によって読み込まれ、フローの各処理が実行される。   As an example of the storage device 10081, various types of storage devices such as a hard disk and a magnetic disk can be used. The flow program described in the above embodiment, various tables (for example, a table storing various setting values, etc.) ), CAD data and the like are stored. This program is read by the control device 10080, and each process of the flow is executed.

このプログラムは、プログラム提供者側から通信I/F10084を介して、インターネット経由で提供され、記憶装置10081に格納されてもよいし、また市販され、流通している可搬型記憶媒体に格納され、読み取り装置にセットされて、制御装置によって実行されることも可能である。可搬型記憶媒体としてはCD−ROM、DVD、フレキシブルディスク、光ディスク、光磁気ディスク、ICカードなど様々な形式の記憶媒体を使用することができ、このような記憶媒体に格納されたプログラムが読み取り装置によって読み取られる。   This program may be provided from the program provider via the communication I / F 10084 via the Internet and stored in the storage device 10081, or may be stored in a commercially available portable storage medium, It can also be set in the reader and executed by the controller. Various types of storage media such as CD-ROM, DVD, flexible disk, optical disk, magneto-optical disk, and IC card can be used as the portable storage medium, and the program stored in such a storage medium can be read by a reading device. Read by.

また、入力装置には、キーボード、マウス、または電子カメラ、マイク、スキャナ、センサー、タブレットなどを用いることが可能である。さらに、その他の周辺機器も接続することができる。
なお、上述した各実施形態において、複数の撮像装置は、それらによって、いわゆる3眼ステレオカメラを構成するように用いても、あるいは4眼ステレオカメラを構成するように用いてもよい。このように3眼あるいは4眼ステレオカメラを用いると、3次元再構成処理などにおいて、より信頼度が高く、安定した処理結果が得られることが知られている(例えば、非特許文献1)。特に複数カメラを2方向の基線長を持つように配置すると、より複雑なシーンで3次元再構成が可能になることが知られている。また1つの基線長方向にカメラを複数台配置するといわゆるマルチベースライン方式のステレオカメラを実現することが可能となり、より高精度のステレオ計測が可能となる。
As the input device, a keyboard, a mouse, an electronic camera, a microphone, a scanner, a sensor, a tablet, or the like can be used. In addition, other peripheral devices can be connected.
In each of the above-described embodiments, the plurality of imaging devices may be used so as to configure a so-called trinocular stereo camera or may be used so as to configure a four-eye stereo camera. Thus, it is known that when a three-eye or four-eye stereo camera is used, a more reliable and stable processing result can be obtained in a three-dimensional reconstruction process or the like (for example, Non-Patent Document 1). In particular, it is known that when a plurality of cameras are arranged so as to have a baseline length in two directions, three-dimensional reconstruction can be performed in a more complicated scene. If a plurality of cameras are arranged in one baseline length direction, a so-called multi-baseline stereo camera can be realized, and more accurate stereo measurement can be performed.

第1の実施形態における画像生成装置10000を示す図である。It is a figure which shows the image generation apparatus 10000 in 1st Embodiment. 第1の実施形態における仮想視点画像の表示フローを示す図である。It is a figure which shows the display flow of the virtual viewpoint image in 1st Embodiment. 第1の実施形態における運転者の運転動作に基づいて、運転者の死角を検出する一例を示す図である。It is a figure which shows an example which detects a driver | operator's blind spot based on the driving | operation operation | movement of the driver | operator in 1st Embodiment. 第1の実施形態における車両の動作状況のモードの一例を示す図である。It is a figure which shows an example of the mode of the operating condition of the vehicle in 1st Embodiment. 第2の実施形態における画像生成装置を用いた場合の一例を説明するための図である図である。It is a figure for demonstrating an example at the time of using the image generation apparatus in 2nd Embodiment. 第2の実施形態における仮想視点画像の表示フローを示す図である。It is a figure which shows the display flow of the virtual viewpoint image in 2nd Embodiment. 第3の実施形態における画像生成装置10000を示す図である。It is a figure which shows the image generation apparatus 10000 in 3rd Embodiment. 第3の実施形態における表示手段に表示される画像の表示形態を示す図である。It is a figure which shows the display form of the image displayed on the display means in 3rd Embodiment. 第4の実施形態における画像生成装置をHMD(ヘッドマウントディスプレイ)に適用した場合の一例を示す図である。It is a figure which shows an example at the time of applying the image generation apparatus in 4th Embodiment to HMD (head mounted display). 第1〜第4の実施形態における画像生成装置のハードウェア環境の構成ブロック図である図である。It is a block diagram of the hardware environment of the image generation apparatus in the first to fourth embodiments.

符号の説明Explanation of symbols

101 カメラ
103 カメラパラメータテーブル
104 空間再構成手段
105 空間データバッファ
106 視点変換手段
107 表示手段
10000 画像生成装置
10001 表示制御手段
10002 仮想視点設定手段
10003 車両動作検知手段
10030 視点検知手段
10080 制御装置
10081 記憶装置
10082 出力I/F
10083 入力I/F
10084 通信I/F
10085 バス

DESCRIPTION OF SYMBOLS 101 Camera 103 Camera parameter table 104 Spatial reconstruction means 105 Spatial data buffer 106 View point conversion means 107 Display means 10000 Image generation apparatus 10001 Display control means 10002 Virtual viewpoint setting means 10003 Vehicle motion detection means 10030 View point detection means 10080 Control apparatus 10081 Storage device 10082 Output I / F
10083 Input I / F
10084 Communication I / F
10085 Bus

Claims (28)

車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、
前記車両の動作状況を検知する車両動作検知手段と、
前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、
前記仮想視点画像の表示形態を制御する表示制御手段と、
を備えることを特徴とする画像生成装置。
Spatial reconstruction means for mapping input images from one or more cameras attached to the vehicle to a spatial model;
Vehicle operation detection means for detecting the operation status of the vehicle;
Virtual viewpoint setting means for acquiring blind spot information indicating a blind spot of a rider riding in the vehicle based on the detection result, and setting a virtual viewpoint in a three-dimensional space based on the blind spot information;
Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the space reconstruction means;
Display control means for controlling the display form of the virtual viewpoint image;
An image generation apparatus comprising:
前記表示制御手段は、前記死角となる箇所と該箇所周囲の画像とを含む仮想視点画像中で、当該死角となる箇所が他の箇所とは区別され得るように表示を制御するように構成されたものであることを特徴とする請求項1に記載の画像生成装置。   The display control means is configured to control display in a virtual viewpoint image including a location that becomes the blind spot and an image around the location so that the location that becomes the blind spot can be distinguished from other locations. The image generation apparatus according to claim 1, wherein the image generation apparatus is an image generation apparatus. 前記表示制御手段は、当該死角となる箇所を他の箇所とは異なる発色によって区分するように前記仮想視点画像の表示を制御するように構成されたものであることを特徴とする請求項1に記載の画像生成装置。   2. The display control unit according to claim 1, wherein the display control unit is configured to control the display of the virtual viewpoint image so as to classify the portion that becomes the blind spot by color development different from other portions. The image generating apparatus described. 前記仮想視点設定手段は、当該死角情報として、前記車両に対する操作に応じて変化する死角の発生傾向に関する情報を得て、当該死角の発生傾向に適合するように前記3次元空間における仮想視点を適応的に設定するように構成されたものであることを特徴とする請求項1に記載の画像生成装置。   The virtual viewpoint setting means obtains information regarding the blind spot occurrence tendency that changes according to the operation on the vehicle as the blind spot information, and adapts the virtual viewpoint in the three-dimensional space so as to match the blind spot occurrence tendency. The image generation apparatus according to claim 1, wherein the image generation apparatus is configured to be set automatically. 車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を生じさせる部位に設置されている前記表示手段に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御手段と、
を備えることを特徴とする画像生成装置。
Spatial reconstruction means for mapping input images from one or more cameras attached to the vehicle to a spatial model;
Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction means;
Display means for displaying the virtual viewpoint image;
Controlling the display form of the virtual viewpoint image, the display means installed in a part of the vehicle that causes a blind spot of a rider, the virtual corresponding to a landscape that cannot be seen as the blind spot Display control means for displaying a viewpoint image;
An image generation apparatus comprising:
車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表形態を制御して、乗車者が前記表示手段を見た場合に、該表示手段によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示手段と、
を備えることを特徴とする画像生成装置。
Spatial reconstruction means for mapping input images from one or more cameras attached to the vehicle to a spatial model;
Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction means;
Display means for displaying the virtual viewpoint image;
The virtual view image of the virtual viewpoint in a direction virtually reflected by the display means when a rider views the display means by controlling a table form of the virtual viewpoint image, and Display means for displaying the virtual viewpoint image that is satisfied so that a blind spot of the passenger does not occur and an unsightly part does not occur;
An image generation apparatus comprising:
前記表示制御手段により表示される前記仮想視点画像は、前記死角となって見通し不能な部分が生じないように充足された部分に対応する領域を強調して表示させることを特徴とする請求項4に記載の画像生成装置。   5. The virtual viewpoint image displayed by the display control means highlights and displays a region corresponding to a portion that has been satisfied so that the blind spot does not cause an unviewable portion. The image generating apparatus described in 1. 前記表示制御手段は、前記仮想視野画像を歪曲して広視野で前記表示手段に表示させることを特徴とする請求項4に記載の画像生成装置。   The image generation apparatus according to claim 4, wherein the display control unit distorts the virtual visual field image and displays the virtual visual field image on the display unit with a wide field of view. 車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、
前記車両の動作状況を検知する車両動作検知処理と、
前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、
前記仮想視点画像を表示する表示処理と、
をコンピュータに実行させるための画像生成プログラム。
A spatial reconstruction process for mapping input images from one or more cameras attached to the vehicle to a spatial model;
Vehicle operation detection processing for detecting the operation status of the vehicle;
A virtual viewpoint setting process for acquiring blind spot information indicating a blind spot of a rider who rides the vehicle based on the detection result, and setting a virtual viewpoint in a three-dimensional space based on the blind spot information;
A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process;
Display processing for displaying the virtual viewpoint image;
Generation program for causing a computer to execute the program.
車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、
前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
A spatial reconstruction process for mapping input images from one or more cameras attached to the vehicle to a spatial model;
A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process;
The virtual viewpoint corresponding to a landscape that cannot be seen as a blind spot on a display device that is installed in a part of the vehicle that causes a blind spot of a passenger by controlling a display form of the virtual viewpoint image Display control processing for displaying images;
Generation program for causing a computer to execute the program.
車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、
前記空間再構成処理によってマッピングされた空間データを参照して3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、
前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
A spatial reconstruction process for mapping input images from one or more cameras attached to the vehicle to a spatial model;
Viewpoint conversion processing for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction processing;
The virtual view image of the virtual viewpoint in a direction virtually reflected by the display device when the rider views the display device by controlling a table form of the virtual viewpoint image, and the ride Display control processing for displaying the virtual viewpoint image that is satisfied so as not to cause a blind spot of the person to be unsightly,
Generation program for causing a computer to execute the program.
車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、
前記車両の動作状況を検知する車両動作検知工程と、
前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定工程と、
前記空間再構成工程によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、
前記仮想視点画像を表示する表示工程と、
を行うことを特徴とする画像生成方法。
A spatial reconstruction step of mapping an input image from one or more cameras attached to the vehicle to a spatial model;
A vehicle operation detection step for detecting the operation status of the vehicle;
A virtual viewpoint setting step of acquiring blind spot information indicating a blind spot of a rider who rides the vehicle based on the detection result, and setting a virtual viewpoint in a three-dimensional space based on the blind spot information;
A viewpoint conversion step of creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the spatial reconstruction step;
A display step of displaying the virtual viewpoint image;
An image generation method characterized in that
車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、
前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、
前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御工程と、
を行うことを特徴とする画像生成方法。
A spatial reconstruction step of mapping an input image from one or more cameras attached to the vehicle to a spatial model;
A viewpoint conversion step of creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction processing;
The virtual viewpoint corresponding to a landscape that cannot be seen as a blind spot on a display device that is installed in a part of the vehicle that causes a blind spot of a passenger by controlling a display form of the virtual viewpoint image A display control process for displaying an image;
An image generation method characterized in that
車両に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、
前記空間再構成工程によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、
前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御工程と、
を行うことを特徴とする画像生成方法。
A spatial reconstruction step of mapping an input image from one or more cameras attached to the vehicle to a spatial model;
A viewpoint conversion step of creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction step;
The virtual view image of the virtual viewpoint in a direction virtually reflected by the display device when the rider views the display device by controlling the table form of the virtual viewpoint image, and the ride A display control step of displaying the virtual viewpoint image that is satisfied so that a blind spot of the person does not become an unsightly part,
An image generation method characterized in that
撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、
前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知手段と、
前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、
前記仮想視点画像の表示形態を制御する表示制御手段と、
を備えることを特徴とする画像生成装置。
Spatial reconstruction means for mapping an input image from one or more cameras attached to the imaging means arranged object to a spatial model;
An imaging means arranged object motion detecting means for detecting an operation state of the imaging means arranged object;
Based on the result of the detection, virtual viewpoint setting means for acquiring blind spot information indicating a blind spot of an observer who operates the imaging means arranged object and setting a virtual viewpoint in a three-dimensional space based on the blind spot information. When,
Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the space reconstruction means;
Display control means for controlling the display form of the virtual viewpoint image;
An image generation apparatus comprising:
前記表示制御手段は、前記死角となる箇所と該箇所周囲の画像とを含む仮想視点画像中で、当該死角となる箇所が他の箇所とは区別され得るように表示を制御するように構成されたものであることを特徴とする請求項15に記載の画像生成装置。   The display control means is configured to control display in a virtual viewpoint image including a location that becomes the blind spot and an image around the location so that the location that becomes the blind spot can be distinguished from other locations. The image generation apparatus according to claim 15, wherein the image generation apparatus is an image generation apparatus. 前記表示制御手段は、当該死角となる箇所を他の箇所とは異なる発色によって区分するように前記仮想視点画像の表示を制御するように構成されたものであることを特徴とする請求項15に記載の画像生成装置。   The said display control means is comprised so that the display of the said virtual viewpoint image may be controlled so that the location used as the said blind spot may be divided by the color development different from another location. The image generating apparatus described. 前記仮想視点設定手段は、当該死角情報として、前記撮像手段配置物体に対する操作に応じて変化する死角の発生傾向に関する情報を得て、当該死角の発生傾向に適合するように前記3次元空間における仮想視点を適応的に設定するように構成されたものであることを特徴とする請求項1に記載の画像生成装置。   The virtual viewpoint setting unit obtains, as the blind spot information, information related to the generation tendency of the blind spot that changes in accordance with the operation on the object disposed on the imaging unit, and the virtual viewpoint setting unit fits the virtual blind spot generation tendency in the virtual space in the three-dimensional space. The image generation apparatus according to claim 1, wherein the image generation apparatus is configured to adaptively set a viewpoint. 撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観察者の死角を生じさせる部位に設置されている前記表示手段に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御手段と、
を備えることを特徴とする画像生成装置。
Spatial reconstruction means for mapping an input image from one or more cameras attached to the imaging means arranged object to a spatial model;
Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction means;
Display means for displaying the virtual viewpoint image;
Controls the display form of the virtual viewpoint image, and corresponds to the landscape that cannot be seen as the blind spot in the display unit installed in the imaging unit-arranged object and causing the blind spot of the observer Display control means for displaying the virtual viewpoint image;
An image generation apparatus comprising:
撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表形態を制御して、観察者が前記表示手段を見た場合に、該表示手段によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示手段と、
を備えることを特徴とする画像生成装置。
Spatial reconstruction means for mapping an input image from one or more cameras attached to the imaging means arranged object to a spatial model;
Viewpoint conversion means for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction means;
Display means for displaying the virtual viewpoint image;
The virtual view image of the virtual viewpoint in a direction virtually reflected by the display means when the observer views the display means by controlling the table form of the virtual viewpoint image, and Display means for displaying the virtual viewpoint image that is satisfied so as not to cause an unobservable part as a blind spot of the observer;
An image generation apparatus comprising:
前記表示制御手段により表示される前記仮想視点画像は、前記死角となって見通し不能な部分が生じないように充足された部分に対応する領域を強調して表示させることを特徴とする請求項20に記載の画像生成装置。   21. The virtual viewpoint image displayed by the display control means highlights and displays a region corresponding to a portion that is satisfied so that the blind spot does not cause an unsightly portion. The image generating apparatus described in 1. 前記表示制御手段は、前記仮想視野画像を歪曲して広視野で前記表示手段に表示させることを特徴とする請求項20に記載の画像生成装置。   21. The image generation apparatus according to claim 20, wherein the display control unit distorts the virtual visual field image and displays the virtual visual field image on the display unit with a wide field of view. 撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、
前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知処理と、
前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて前記3次元空間における仮想視点を設定する仮想視点設定処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、
前記仮想視点画像を表示する表示処理と、
をコンピュータに実行させるための画像生成プログラム。
A spatial reconstruction process for mapping an input image from one or more cameras attached to the imaging means arranged object to a spatial model;
An imaging means placement object motion detection process for detecting an operation status of the imaging means placement object;
Virtual viewpoint setting for acquiring blind spot information indicating a blind spot of an observer who operates the imaging unit placement object based on the detection result and setting a virtual viewpoint in the three-dimensional space based on the blind spot information Processing,
A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process;
Display processing for displaying the virtual viewpoint image;
Generation program for causing a computer to execute the program.
撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、
前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観察者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
A spatial reconstruction process for mapping an input image from one or more cameras attached to the imaging means arranged object to a spatial model;
A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process;
The display form of the virtual viewpoint image is controlled to correspond to a landscape that cannot be seen as the blind spot on the display device that is installed in the imaging means placement object and that causes the blind spot of the observer. Display control processing for displaying the virtual viewpoint image;
Generation program for causing a computer to execute the program.
撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、
前記仮想視点画像の表形態を制御して、観察者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
A spatial reconstruction process for mapping an input image from one or more cameras attached to the imaging means arranged object to a spatial model;
A viewpoint conversion process for creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction process;
The virtual view image of the virtual viewpoint in a direction virtually reflected by the display device when the observer views the display device by controlling a table form of the virtual viewpoint image, and the observation Display control processing for displaying the virtual viewpoint image that is satisfied so that a blind spot of the person does not become an unsightly part,
Generation program for causing a computer to execute the program.
撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、
前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知工程と、
前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて3次元空間における仮想視点を設定する仮想視点設定工程と、
前記空間再構成工程によってマッピングされた空間データを参照して、前記3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、
前記仮想視点画像を表示する表示工程と、
を行うことを特徴とする画像生成方法。
A spatial reconstruction step of mapping input images from one or more cameras attached to the imaging means arranged object onto a spatial model;
An imaging means placement object motion detection step for detecting an operation status of the imaging means placement object;
A virtual viewpoint setting step of acquiring blind spot information indicating a blind spot of an observer who operates the imaging means placement object based on the detection result, and setting a virtual viewpoint in a three-dimensional space based on the blind spot information When,
A viewpoint conversion step of creating a virtual viewpoint image that is an image viewed from the virtual viewpoint in the three-dimensional space with reference to the spatial data mapped by the spatial reconstruction step;
A display step of displaying the virtual viewpoint image;
An image generation method characterized in that
撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、
前記空間再構成処理によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、
前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観察者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示制御工程と、
を行うことを特徴とする画像生成方法。
A spatial reconstruction step of mapping input images from one or more cameras attached to the imaging means arranged object onto a spatial model;
A viewpoint conversion step of creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction processing;
The display form of the virtual viewpoint image is controlled to correspond to a landscape that cannot be seen as the blind spot on the display device that is installed in the imaging means placement object and that causes the blind spot of the observer. A display control step for displaying the virtual viewpoint image;
An image generation method characterized in that
撮像手段配置物体に取り付けられた1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成工程と、
前記空間再構成工程によってマッピングされた空間データを参照して、3次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換工程と、
前記仮想視点画像の表形態を制御して、観察者が表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示する表示制御工程と、
を行うことを特徴とする画像生成方法。

A spatial reconstruction step of mapping input images from one or more cameras attached to the imaging means arranged object onto a spatial model;
A viewpoint conversion step of creating a virtual viewpoint image that is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space with reference to the spatial data mapped by the spatial reconstruction step;
The virtual view image of the virtual viewpoint in a direction virtually reflected by the display device when the observer views the display device by controlling a table form of the virtual viewpoint image, and the observation A display control step of displaying the virtual viewpoint image that is satisfied so that a blind spot of the person does not become an unsightly part,
An image generation method characterized in that

JP2004075951A 2004-03-11 2004-03-17 Image creating device, program and method Pending JP2005269010A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004075951A JP2005269010A (en) 2004-03-17 2004-03-17 Image creating device, program and method
PCT/JP2005/002976 WO2005088970A1 (en) 2004-03-11 2005-02-24 Image generation device, image generation method, and image generation program
US11/519,080 US20070003162A1 (en) 2004-03-11 2006-09-11 Image generation device, image generation method, and image generation program
US12/617,267 US20100054580A1 (en) 2004-03-11 2009-11-12 Image generation device, image generation method, and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004075951A JP2005269010A (en) 2004-03-17 2004-03-17 Image creating device, program and method

Publications (1)

Publication Number Publication Date
JP2005269010A true JP2005269010A (en) 2005-09-29

Family

ID=35093116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004075951A Pending JP2005269010A (en) 2004-03-11 2004-03-17 Image creating device, program and method

Country Status (1)

Country Link
JP (1) JP2005269010A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1924084A2 (en) 2006-11-14 2008-05-21 Sony Corporation Imaging system and method
JP2008168714A (en) * 2007-01-10 2008-07-24 Alpine Electronics Inc Vehicle condition monitoring device and image processing device
JP2008219559A (en) * 2007-03-06 2008-09-18 Xanavi Informatics Corp In-vehicle camera system
JP2008262458A (en) * 2007-04-13 2008-10-30 Denso Corp Vehicle visual field determination device and program therefor
JP2009044730A (en) * 2007-07-16 2009-02-26 Trw Automotive Us Llc Method and apparatus for distortion correction and image enhancing of vehicle rear viewing system
JP2011070579A (en) * 2009-09-28 2011-04-07 Dainippon Printing Co Ltd Captured image display device
US8681256B2 (en) 2006-10-16 2014-03-25 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
JP2017111739A (en) * 2015-12-18 2017-06-22 株式会社デンソー Driving support apparatus and driving support method
WO2017158829A1 (en) * 2016-03-18 2017-09-21 三菱電機株式会社 Display control device and display control method
JP2017191472A (en) * 2016-04-13 2017-10-19 日産自動車株式会社 Image display method and image display device
JP2019061558A (en) * 2017-09-27 2019-04-18 キヤノン株式会社 Image processing device, image processing method and program
WO2019193928A1 (en) * 2018-04-02 2019-10-10 株式会社デンソー Vehicle system, spatial spot estimation method, and spatial spot estimation device
CN113570693A (en) * 2021-07-26 2021-10-29 北京达佳互联信息技术有限公司 Method, device and equipment for changing visual angle of three-dimensional model and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2000272416A (en) * 1999-03-19 2000-10-03 Aisin Aw Co Ltd Drive support device
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2002359839A (en) * 2001-03-29 2002-12-13 Matsushita Electric Ind Co Ltd Method and device for displaying image of rearview camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2000272416A (en) * 1999-03-19 2000-10-03 Aisin Aw Co Ltd Drive support device
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2002359839A (en) * 2001-03-29 2002-12-13 Matsushita Electric Ind Co Ltd Method and device for displaying image of rearview camera

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9846304B2 (en) 2006-10-16 2017-12-19 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
US9182598B2 (en) 2006-10-16 2015-11-10 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
US8681256B2 (en) 2006-10-16 2014-03-25 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
EP1924084A2 (en) 2006-11-14 2008-05-21 Sony Corporation Imaging system and method
JP2008168714A (en) * 2007-01-10 2008-07-24 Alpine Electronics Inc Vehicle condition monitoring device and image processing device
JP2008219559A (en) * 2007-03-06 2008-09-18 Xanavi Informatics Corp In-vehicle camera system
JP2008262458A (en) * 2007-04-13 2008-10-30 Denso Corp Vehicle visual field determination device and program therefor
JP2009044730A (en) * 2007-07-16 2009-02-26 Trw Automotive Us Llc Method and apparatus for distortion correction and image enhancing of vehicle rear viewing system
JP4695167B2 (en) * 2007-07-16 2011-06-08 ティーアールダブリュー・オートモーティブ・ユーエス・エルエルシー Method and apparatus for correcting distortion and enhancing an image in a vehicle rear view system
JP2011070579A (en) * 2009-09-28 2011-04-07 Dainippon Printing Co Ltd Captured image display device
JP2017111739A (en) * 2015-12-18 2017-06-22 株式会社デンソー Driving support apparatus and driving support method
WO2017158829A1 (en) * 2016-03-18 2017-09-21 三菱電機株式会社 Display control device and display control method
JP2017191472A (en) * 2016-04-13 2017-10-19 日産自動車株式会社 Image display method and image display device
JP7080613B2 (en) 2017-09-27 2022-06-06 キヤノン株式会社 Image processing equipment, image processing methods and programs
JP2019061558A (en) * 2017-09-27 2019-04-18 キヤノン株式会社 Image processing device, image processing method and program
WO2019193928A1 (en) * 2018-04-02 2019-10-10 株式会社デンソー Vehicle system, spatial spot estimation method, and spatial spot estimation device
JP2019185105A (en) * 2018-04-02 2019-10-24 株式会社デンソー Vehicle system, space area estimation method and space area estimation apparatus
JP7077726B2 (en) 2018-04-02 2022-05-31 株式会社デンソー Vehicle system, space area estimation method and space area estimation device
CN113570693A (en) * 2021-07-26 2021-10-29 北京达佳互联信息技术有限公司 Method, device and equipment for changing visual angle of three-dimensional model and storage medium

Similar Documents

Publication Publication Date Title
JP4323377B2 (en) Image display device
US20070003162A1 (en) Image generation device, image generation method, and image generation program
US8754760B2 (en) Methods and apparatuses for informing an occupant of a vehicle of surroundings of the vehicle
US8446268B2 (en) System for displaying views of vehicle and its surroundings
US7554461B2 (en) Recording medium, parking support apparatus and parking support screen
JP2005242606A (en) Image generation system, image generation program and image generation method
JP5099451B2 (en) Vehicle periphery confirmation device
JP5439890B2 (en) Image processing method, image processing apparatus, and program
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP5093611B2 (en) Vehicle periphery confirmation device
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
JP2011004201A (en) Circumference display
KR20190047027A (en) How to provide a rearview mirror view of the vehicle&#39;s surroundings in the vehicle
JP2005269010A (en) Image creating device, program and method
US11794667B2 (en) Image processing apparatus, image processing method, and image processing system
JP6890288B2 (en) Image processing equipment, image display system and image processing method
US10248132B2 (en) Method and apparatus for visualization of an environment of a motor vehicle
KR101278654B1 (en) Apparatus and method for displaying arround image of vehicle
US11987182B2 (en) Image processing apparatus, image processing method, and image processing system
CN109764888A (en) Display system and display methods
US20210327113A1 (en) Method and arrangement for producing a surroundings map of a vehicle, textured with image information, and vehicle comprising such an arrangement
JP7484722B2 (en) Image processing device, image processing method, and image processing system
KR20130071842A (en) Apparatus and method for providing environment information of vehicle
JP2012116400A (en) Corner pole projection device
KR20180094717A (en) Driving assistance apparatus using avm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100629