WO2005088970A1 - 画像生成装置、画像生成方法、および画像生成プログラム - Google Patents

画像生成装置、画像生成方法、および画像生成プログラム Download PDF

Info

Publication number
WO2005088970A1
WO2005088970A1 PCT/JP2005/002976 JP2005002976W WO2005088970A1 WO 2005088970 A1 WO2005088970 A1 WO 2005088970A1 JP 2005002976 W JP2005002976 W JP 2005002976W WO 2005088970 A1 WO2005088970 A1 WO 2005088970A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
virtual viewpoint
viewpoint
display
spatial
Prior art date
Application number
PCT/JP2005/002976
Other languages
English (en)
French (fr)
Inventor
Takashi Miyoshi
Hidekazu Iwaki
Akio Kosaka
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004069237A external-priority patent/JP2005258792A/ja
Priority claimed from JP2004075951A external-priority patent/JP2005269010A/ja
Application filed by Olympus Corporation filed Critical Olympus Corporation
Publication of WO2005088970A1 publication Critical patent/WO2005088970A1/ja
Priority to US11/519,080 priority Critical patent/US20070003162A1/en
Priority to US12/617,267 priority patent/US20100054580A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention is based on a plurality of images photographed by one or more cameras attached to an object such as a vehicle, and is synthesized based on image data corresponding to each photographed area.
  • the present invention relates to an image generation device, an image generation method, and an image generation program for generating image data for displaying an image so that the relationship between the object and the captured image can be understood intuitively when displaying the image.
  • a monitoring sight device that monitors a monitoring target around a vehicle, a store, or a house, or in a town, etc., uses one or more cameras to photograph the monitoring target, and displays the image on the monitor device.
  • a surveillance camera device when there are a plurality of cameras and the number of monitor devices is smaller than the number of cameras, for example, when there is only one monitor device in spite of two cameras, a plurality of captured These camera images were integrated and displayed on a single monitor device, or switched and displayed sequentially.
  • the administrator needs to consider the continuity of independently displayed images in order to monitor images from the respective cameras.
  • Patent Document 1 Japanese Patent No. 3286306
  • the display means when the display means includes a part in which the distance calculated by the distance calculation means is equal to or more than a predetermined value, the part of the image is displayed. It is desirable to display with blur.
  • the image generation device of the present invention when the display means has a collision probability calculated by the collision possibility calculation means that is equal to or less than a predetermined value, the image is displayed as an integrated background model. I hope that.
  • an image generation program provides a computer, comprising: To a spatial model, a step of generating viewpoint-converted image data viewed from an arbitrary virtual viewpoint in a three-dimensional space based on the mapped spatial data, and a step of converting the generated viewpoint-converted image data to Displaying an image viewed from an arbitrary virtual viewpoint in the three-dimensional space based on the generated viewpoint-converted image data and the captured image representing the captured image.
  • An image taking device that is a model of the object arranged with the image taking means based on any of the data, the spatial model, and the mapped spatial data.
  • the method further comprises a step of calculating a distance between the device arrangement object model and the space model, wherein the displaying step displays the image in a different display mode according to the calculated distance. I do.
  • the image generation method of the present invention includes a spatial reconstruction step of mapping an input image from one or a plurality of cameras attached to a vehicle to a spatial model.
  • a viewpoint change that creates a virtual viewpoint image which is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space, with reference to the spatial data mapped by the spatial reconstruction process.
  • the virtual viewpoint image displayed by the display control means may correspond to a region corresponding to a portion that is satisfied so that a blind spot does not occur and an invisible portion does not occur. It is desirable to highlight and display.
  • an image generation program includes: a space reconstruction process for mapping an input image from one or a plurality of cameras attached to an imaging means arranged object into a spatial model; A viewpoint conversion process for creating a virtual viewpoint image, which is an image viewed from an arbitrary virtual viewpoint in a three-dimensional space, with reference to the spatial data mapped by the space reconstruction process, and a display form of the virtual viewpoint image. Controlling the display provided in the imaging means arrangement object at a site where a blind spot of the observer is generated.
  • An image generation program for causing a computer to execute a display control process of causing the device to display the virtual viewpoint image corresponding to the blind spot that is not visible.
  • Garden 16 is a flowchart showing the flow of an image generation process for displaying the viewpoint-converted image so that the relative speed between the objects can be understood.
  • the imaging device 107 is, for example, a camera, captures an image attached to the imaging device-located object, and stores the captured image data 108 in the database. If the imaging device-arranged object is a vehicle, the imaging device 107 captures an image around the vehicle.
  • the viewpoint conversion device 112 generates viewpoint conversion image data 113 viewed from an arbitrary virtual viewpoint in a three-dimensional space based on the spatial data 111 mapped by the space reconstruction device 109, Store it in the database.
  • the display form of an object to be displayed can be changed according to the relative distance between the two objects.
  • the image generation device will be described. This image generation device can be applied to the image generation device described with reference to FIG. 1 or FIG.
  • the image generation device 600 includes a distance measurement device 201, a space model generation device 103, a calibration device 105, one or more imaging devices 107, a space reconstruction device 109, a viewpoint conversion device 112, a display device 314, And a distance calculation device 315.
  • the display form of the displayed object can be made different depending on the possibility of collision between two objects.
  • the image generation device will be described. This image generation device can be applied to the image generation device described with reference to FIG. 1 or FIG.
  • the image generating apparatus 1000 is different from the image generating apparatus 100 described with reference to FIG. 1 in that the image generating apparatus 1000 includes a collision possibility calculating apparatus 1015, and that the image generating apparatus 1000 includes a display device 1014 instead of the display device 114. That is the point.
  • the description will focus on the possibility of collision calculation device 1015 and the display device 1014, and other components will not be described because they are the same as those described with reference to FIG.
  • the display device 1014 displays an image viewed from an arbitrary virtual viewpoint in a three-dimensional space.
  • the image is displayed in a different display form according to the possibility of collision calculated by the possibility of collision calculation device 1015.
  • a guardrail portion close to the own vehicle in distance is displayed in red, and a guardrail far from the own vehicle (for example, the opposite lane side) is displayed in blue. Since the road surface is an area where the vehicle including the own vehicle travels, the road surface is displayed in blue or green even if the distance to the own vehicle is short.
  • the collision possibility calculation device 1015 includes the viewpoint conversion image data 113 generated by the viewpoint conversion device 112, the captured image data 108 representing the captured image, the space model 104, Any of the above mapped spatial data 111 Based on the force, the possibility of collision between the imaging device-arranged object model 110, which is the model of the imaging device-arranged object, and the space model 104 is calculated. For example, the possibility of a collision between the vehicle and another vehicle ahead is calculated.
  • an image generation device 1200 includes a distance measurement device 201, a space model generation device 103, a calibration device 105, one or a plurality of imaging devices 107, a space reconstruction device 109, a viewpoint conversion device 112, and a display device 1014. , And a relative speed calculating device 1015.
  • step S1305 when displaying an image viewed from an arbitrary virtual viewpoint in the three-dimensional space, the display form of the captured image is changed according to the distance calculated in step S1304. indicate.
  • Steps S1301 to S1303 are the same as steps S1301 to S1303 described with reference to FIG.
  • the imaging devices 107A, 107B, 107C, and 107D may be installed at the four corners of the ceiling of the room, or a super wide-angle camera may be installed near the center of the ceiling.
  • these imaging devices 107A, 107B, 107C, and 107D are distance measuring devices (laser radars, laser radars, and the like) instead of stereo cameras that can be configured with stereo cameras having two, three, or more eyes.
  • Slit scan distance measuring device, ultrasonic sensor, indoor model using CAD model, etc.) 101, 201 may be used together. Images were taken with the above imaging devices 107A, 107B, 107C, and 107D on the space model composed of these The image is mapped, an arbitrary desired virtual viewpoint is set, and a viewpoint converted image is generated.
  • the program code itself read from the portable recording medium or the like realizes a new function of the present invention
  • the portable recording medium or the like on which the program code is recorded constitutes the present invention. Will do.
  • a blind spot area that becomes a blind spot for the driver is detected, a viewpoint for observing the blind spot area is set, and a virtual viewpoint image from such a viewpoint is viewed by the driver. Display as possible.
  • a blind spot area to be displayed is selected from the blind spot area by driving operation information or a driver's operation, a viewpoint for observing the selected blind spot area is set, and a virtual viewpoint image from such a viewpoint is set. Is displayed so as to be visible to the driver.
  • the height (or sitting height) of the driver registered in advance and the current inclination angle of the seat can be measured, and the position of the driver's head can be measured.
  • the specified values average value, (Statistics, etc.) may be set as default. In this way, a virtual viewpoint is obtained.
  • the blind spot area from the driver's viewpoint can be obtained from the acquired driver's viewpoint position and the CAD data of the vehicle. Is transmitted to the viewpoint conversion unit 2106 together with the virtual viewpoint information acquired as described above (including information as to which direction it is facing).
  • CAD Computer Aided Design
  • the virtual viewpoint image generated here is composed of the blind spot area and the area around the blind spot area, but the aspect in which the blind spot area is distinguished from the area around the blind spot area is as described above.
  • the blind spot area and the area around the blind spot area may be distinguished by different colors, and the blind spot area may be highlighted.
  • the viewpoint detection unit 10030 is used to detect the relative position of the driver's viewpoint with respect to the installation position of the display unit 2107. Similar to the third embodiment, the viewpoint detection unit 10030 acquires a driver's face image using a camera that monitors the inside of the vehicle, and extracts an eyeball position from the face image using a general image processing technique, for example. The position of the viewpoint may be acquired by measuring the viewpoint, or the user's viewpoint may be calculated based on the guess of the driver's posture, etc. By setting the position of the viewpoint, you can do it.
  • the position of the driver's viewpoint and the direction of the line of sight can be detected.
  • the installation angle of the display unit 2107 with respect to the vehicle is also set in advance. Therefore, when the driver looks at the display unit 2107, the angle of incidence of the driver's line of sight on the display surface of the display 2107 is calculated from these information, and as a result, the reflection angle is obtained.
  • an observer is a person walking indoors, on a street, or the like, and the imaging device arrangement object is indoors, outdoors, a room interior, or another moving object.
  • the monitoring system may be a body (vehicle, robot). It can also be applied to the check of blind spots caused by the open / closed state of doors, the check of blind spots caused by the state of doors of home appliances and furniture, the check of blind spots caused by doors, or the check of blind spots behind people. it can.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 視点変換手段によって生成された視点変換画像データ、撮像画像を表わす撮像画像データ、空間モデル、およびマッピングされた空間データの何れかに基づいて、カメラを搭載した車両等のモデルである撮像装置配置物体モデルと空間モデルとの距離を算出する距離算出手段を備え、3次元空間における任意の仮想視点から見た画像を表示する際、距離算出手段によって算出した距離に応じて、画像の表示形態を異ならせて表示することにより、車両、店舗、あるいは住宅の周辺、若しくは街中等の監視対象を、3次元空間における任意の仮想視点から見た画像として表示する際、車両等と撮影した監視対象の画像との関係が直感的に分かるように表示することが可能な画像生成装置、画像生成方法、および画像生成プログラムを提供する。

Description

明 細 書
画像生成装置、画像生成方法、および画像生成プログラム
技術分野
[0001] 本発明は、車両等の物体に取り付けられた 1台または複数台のカメラで撮影した複 数枚の画像に基づいて、上記撮影した各エリアに対応する画像データに基づいて合 成した画像を表示するに際し、上記物体と撮影した画像との関係が直感的に分かる ように表示するための画像データを生成する画像生成装置、画像生成方法、および 画像生成プログラムに関する。
[0002] また、本発明は、 1台乃至数台のカメラで撮影された複数枚の画像について、画像 を互いに独立して表示するのではなぐ前記 1台乃至数台のカメラで撮影しているェ リアの全体の様子が直感的に分かるように、一枚に合成した画像を表示する装置お よび方法に関し、たとえば、店舗におけるモニタ装置、あるいは車両運転の際の安全 確認の補助としての車両周囲モニタ装置等に応用して好適な技術に関する。
背景技術
[0003] 従来、車両、店舗、あるいは住宅の周辺、若しくは街中等の監視対象を監視する監 視力メラ装置は、 1台または複数台のカメラで監視対象を撮影し、その画像をモニタ 装置に表示していた。このような監視カメラ装置において、カメラが複数台あるにも関 わらずモニタ装置がカメラ台数よりも少ない場合、例えば、カメラが 2台あるにも関わら ずモニタ装置が 1台の場合、撮影した複数のカメラ画像を統合して 1台のモニタ装置 に表示したり、順次切り替えて表示したりしていた。しかし、このような監視カメラ装置 では、それぞれのカメラからの画像を監視するには、独立に表示されている画像の連 続性を管理者が考慮する必要があるなどの問題があった。
[0004] この問題を解決する方法として、近年、複数のカメラで撮影した画像を見やすく表 示する画像生成装置が開示されている (例えば、特許文献 1参照。)。この特許文献 1 では、複数のカメラで撮影した領域 (例えば、車両近辺)の画像を連続的な 1枚の画 像として合成し、その合成した画像を表示させる画像生成装置を開示している。すな わち、特許文献 1には、車両等に取り付けられた 1台もしくは複数台のカメラからの入 力画像を、 3次元空間の予め定められた空間モデルにマッピングし、そのマッピング された空間データを参照して、上記 3次元空間における任意の仮想視点から見た画 像を作成して表示することにより、あた力も仮想視点から実際に見ているような感覚を 持つ合成画像を表示する監視カメラ装置に関する技術が開示されている。
[0005] このようにすることで、車両に設置された装置では、車両の全周囲にわたって車両 近辺にどのような物体が存在するかを出来るだけ現実に近いように分力 易く一枚の 画像として合成し、運転者にその画像を提供することができる。また、この際、視点変 換手段により、運転者の所望の視点からの画像を表示させることが可能である。 特許文献 1:特許第 3286306号公報
発明の開示
[0006] し力 ながら、上記のような従来の監視カメラ装置においては、カメラを取り付けた 車両等の撮像手段配置物体とそのカメラが撮影した監視対象との関係が分力り難い という問題点があった。
[0007] 本発明は、上記従来技術の欠点に鑑みてなされたもので、車両、店舗、あるいは住 宅の周辺、若しくは街中等の監視対象を、 3次元空間における任意の仮想視点から 見た画像として表示する際、上記車両等の撮像手段配置物体と撮影した監視対象 の画像との関係が直感的に分かるように表示することが可能な画像生成装置、画像 生成方法、および画像生成プログラムを提供することを目的とする。
[0008] また、特許文献 1では、複数のカメラで撮影した領域 (例えば、車両近辺)の画像を 連続的な:!枚の画像として合成し、その合成した画像を仮想の 3次元空間モデルに マッピングして、そのマッピングしたデータを仮想的に 3次元上で視点を変えた画像( 仮想視点画像)をどのようにして生成するかに主題をおいた技術であり、その表示の 方法や表示形態等についてユーザインターフェースにおける利便性を向上させると レ、うことについては十分に具体的な提案をするものではない。
[0009] よって、本発明では、仮想視点画像をユーザの利便性を考慮して表示させる画像 生成装置を提供する。
本発明は、上記課題を解決するため、下記のような構成を採用した。
[0010] すなわち、本発明の一態様によれば、本発明の画像生成装置は、撮像手段配置 物体に取り付けられ画像を撮像する 1または複数の撮像手段と、上記撮像手段によ つて撮像された撮像画像を空間モデルにマッピングする空間再構成手段と、上記空 間再構成手段によってマッピングされた空間データに基づいて、 3次元空間における 任意の仮想視点から見た視点変換画像データを生成する視点変換手段と、上記視 点変換手段によって生成された視点変換画像データに基づいて、上記 3次元空間に おける任意の仮想視点から見た画像を表示する表示手段とを備えた画像生成装置 であって、上記視点変換手段によって生成された視点変換画像データ、上記撮像画 像を表わす撮像画像データ、上記空間モデル、および上記マッピングされた空間デ ータの何れかに基づレ、て、当該撮像手段配置物体のモデルである撮像装置配置物 体モデルと上記空間モデルとの距離を算出する距離算出手段をさらに備え、上記表 示手段が、上記距離算出手段によって算出した距離に応じて、上記画像の表示形 態を異ならせて表示することを特徴とする。
[0011] また、本発明の画像生成装置は、上記表示手段が、上記距離算出手段によって算 出した距離が所定値以上の場合、上記画像を一体化した背景モデルとして表示する ことが望ましい。
[0012] また、本発明の画像生成装置は、上記表示手段が、表示する画像中に上記距離 算出手段によって算出した距離が所定値以上の部分が含まれている場合、上記画 像の当該部分をぼかして表示することが望ましレ、。
[0013] また、本発明の一態様によれば、本発明の画像生成装置は、撮像手段配置物体に 取り付けられ画像を撮像する 1または複数の撮像手段と、上記撮像手段によって撮 像された撮像画像を空間モデルにマッピングする空間再構成手段と、上記空間再構 成手段によってマッピングされた空間データに基づいて、 3次元空間における任意の 仮想視点から見た視点変換画像データを生成する視点変換手段と、上記視点変換 手段によって生成された視点変換画像データに基づいて、上記 3次元空間における 任意の仮想視点から見た画像を表示する表示手段とを備えた画像生成装置であつ て、異なる時刻に対応した、上記視点変換手段によって生成された 2時刻における 視点変換画像データ、上記撮像画像を表わす撮像画像データ、上記空間モデル、 および上記マッピングされた空間データの何れかに基づいて、当該撮像手段配置物 体のモデルである撮像装置配置物体モデルと上記空間モデルとの相対速度を算出 する相対速度算出手段をさらに備え、上記表示手段が、上記相対速度算出手段に よって算出した相対速度に応じて、上記画像の表示形態を異ならせて表示すること を特徴とする。
[0014] また、本発明の一態様によれば、本発明の画像生成装置は、撮像手段配置物体に 取り付けられ画像を撮像する 1または複数の撮像手段と、上記撮像手段によって撮 像された撮像画像を空間モデルにマッピングする空間再構成手段と、上記空間再構 成手段によってマッピングされた空間データに基づいて、 3次元空間における任意の 仮想視点から見た視点変換画像データを生成する視点変換手段と、上記視点変換 手段によって生成された視点変換画像データに基づいて、上記 3次元空間における 任意の仮想視点から見た画像を表示する表示手段とを備えた画像生成装置であつ て、異なる時刻に対応した、上記視点変換手段によって生成された視点変換画像デ ータ、上記撮像画像を表わす撮像画像データ、上記空間モデル、および上記マツピ ングされた空間データの何れかに基づいて当該撮像手段配置物体のモデルである 撮像装置配置物体モデルと上記空間モデルとが衝突する可能性を算出する衝突可 能性算出手段をさらに備え、上記表示手段が、上記衝突可能性算出手段によって 算出した衝突可能性に応じて、上記画像の表示形態を異ならせて表示することを特 徴とする。
[0015] また、本発明の画像生成装置は、上記表示手段が、上記衝突可能性算出手段に よって算出した衝突可能性が所定値以下の場合、上記画像を一体化した背景モデ ルとして表示することが望ましレ、。
[0016] また、本発明の画像生成装置は、上記表示手段が、上記衝突可能性算出手段に よって算出した衝突可能性が所定値以下の場合、上記画像をぼかして表示すること が望ましい。
また、本発明の画像生成装置は、上記表示手段が、当該表示形態として色によつ て表示情報の意味が認識されるような形態をとりうるように構成されたものであることが 望ましい。
[0017] また、本発明の画像生成装置は、上記表示手段が、上記距離算出手段によって算 出された距離に応じて表示に係る色の色相又は彩度若しくは明度のうちの少なくとも 一のものを異ならせて表示するような形態を取り得るように構成されたものであること が望ましい。
[0018] また、本発明の画像生成装置は、上記表示手段が、上記距離算出手段によって算 出された距離がその値に応じて区分された複数の階層のうちの何れの階層に該当 するかに応じて表示に係る色の色相又は彩度若しくは明度のうちの少なくとも一のも のを異ならせて表示するような形態を取り得るように構成されたものであることが望ま しい。
[0019] また、本発明の画像生成装置は、上記撮像手段が、車両に取り付けられたことが望 ましい。
また、本発明の一態様によれば、本発明の画像生成方法は、撮像手段配置物体に 取り付けられ画像を撮像する 1または複数の撮像装置によって撮像された撮像画像 を空間モデルにマッピングし、上記マッピングされた空間データに基づいて、 3次元 空間における任意の仮想視点から見た視点変換画像データを生成し、上記生成さ れた視点変換画像データに基づいて、上記 3次元空間における任意の仮想視点か ら見た画像を表示する、コンピュータが実行する画像生成方法であって、上記生成さ れた視点変換画像データ、上記撮像画像を表わす撮像画像データ、上記空間モデ ノレ、および上記マッピングされた空間データの何れかに基づレ、て当該撮像手段配置 物体のモデルである撮像装置配置物体モデルと上記空間モデルとの距離をさらに 算出し、上記表示が、上記算出した距離に応じて、上記画像の表示形態を異ならせ て表示することを特徴とする。
[0020] また、本発明の一態様によれば、本発明の画像生成方法は、撮像手段配置物体に 取り付けられ画像を撮像する 1または複数の撮像装置によって撮像された撮像画像 を空間モデルにマッピングし、上記マッピングされた空間データに基づいて、 3次元 空間における任意の仮想視点から見た視点変換画像データを生成し、上記生成さ れた視点変換画像データに基づいて、上記 3次元空間における任意の仮想視点か ら見た画像を表示する、コンピュータが実行する画像生成方法であって、上記生成さ れた異なる時刻に対応した、視点変換画像データ、上記撮像画像を表わす撮像画 像データ、上記空間モデル、および上記マッピングされた空間データの何れかに基 づいて当該撮像手段配置物体のモデルである撮像装置配置物体モデルと上記空 間モデルとの相対速度をさらに算出し、上記表示が、上記算出した相対速度に応じ て、上記画像の表示形態を異ならせて表示することを特徴とする。
[0021] また、本発明の一態様によれば、本発明の画像生成方法は、撮像手段配置物体に 取り付けられ画像を撮像する 1または複数の撮像装置によって撮像された撮像画像 を空間モデルにマッピングし、上記マッピングされた空間データに基づいて、 3次元 空間における任意の仮想視点から見た視点変換画像データを生成し、上記生成さ れた視点変換画像データに基づいて、上記 3次元空間における任意の仮想視点か ら見た画像を表示する、コンピュータが実行する画像生成方法であって、上記生成さ れた異なる時刻に対応した、視点変換画像データ、上記撮像画像を表わす撮像画 像データ、上記空間モデル、および上記マッピングされた空間データの何れかに基 づいて当該撮像手段配置物体のモデルである撮像装置配置物体モデルと上記空 間モデルとが衝突する可能性をさらに算出し、上記表示が、上記算出した衝突する 可能性に応じて、上記画像の表示形態を異ならせて表示することを特徴とする。
[0022] また、本発明の一態様によれば、本発明の画像生成プログラムは、コンピュータに 対して、撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置 によって撮像された撮像画像を空間モデルにマッピングする手順と、上記マッピング された空間データに基づいて、 3次元空間における任意の仮想視点から見た視点変 換画像データを生成する手順と、上記生成された視点変換画像データに基づいて、 上記 3次元空間における任意の仮想視点から見た画像を表示する手順とを実行させ るための画像生成プログラムであって、上記生成された視点変換画像データ、上記 撮像画像を表わす撮像画像データ、上記空間モデル、および上記マッピングされた 空間データの何れかに基づいて当該撮像手段配置物体のモデルである撮像装置配 置物体モデルと上記空間モデルとの距離を算出する手順をさらに備え、上記表示す る手順が、上記算出した距離に応じて、上記画像の表示形態を異ならせて表示する ことを特徴とする。
[0023] また、本発明の一態様によれば、本発明の画像生成プログラムは、コンピュータに 対して、撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置 によって撮像された撮像画像を空間モデルにマッピングする手順と、上記マッピング された空間データに基づいて、 3次元空間における任意の仮想視点から見た視点変 換画像データを生成する手順と、上記生成された視点変換画像データに基づレ、て、 上記 3次元空間における任意の仮想視点から見た画像を表示する手順とを実行させ るための画像生成プログラムであって、上記生成された異なる時刻に対応した、視点 変換画像データ、上記撮像画像を表わす撮像画像データ、上記空間モデル、およ び上記マッピングされた空間データの何れかに基づいて当該撮像手段配置物体の モデルである撮像装置配置物体モデルと上記空間モデルとの相対速度を算出する 手順をさらに備え、上記表示が、上記算出した相対速度に応じて、上記画像の表示 形態を異ならせて表示することを特徴とする。
[0024] また、本発明の一態様によれば、本発明の画像生成プログラムは、コンピュータに 対して、撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置 によって撮像された撮像画像を空間モデルにマッピングする手順と、上記マッピング された空間データに基づいて、 3次元空間における任意の仮想視点から見た視点変 換画像データを生成する手順と、上記生成された視点変換画像データに基づいて、 上記 3次元空間における任意の仮想視点から見た画像を表示する手順とを実行させ るための画像生成プログラムであって、上記生成された異なる時刻に対応した、視点 変換画像データ、上記撮像画像を表わす撮像画像データ、上記空間モデル、およ び上記マッピングされた空間データの何れかに基づいて当該撮像手段配置物体の モデルである撮像装置配置物体モデルと上記空間との衝突する可能性をさらに算出 する手順をさらに備え、上記表示が、上記算出した衝突可能性応じて、上記画像の 表示形態を異ならせて表示することを特徴とする。
[0025] また、本発明の一態様によれば、本発明の画像生成装置は、車両に取り付けられ た 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手 段と、前記車両の動作状況を検知する車両動作検知手段と、前記検知の結果に基 づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該 死角情報に基づいて 3次元空間における仮想視点を設定する仮想視点設定手段と 、前記空間再構成手段によってマッピングされた空間データを参照して、前記 3次元 空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換 手段と、前記仮想視点画像の表示形態を制御する表示制御手段とを備えることを特 徴とする。
[0026] このように構成することによって、車両の動作状況に応じて運転者の死角となる部 分の仮想視点画像を表示することができる。
また、本発明の画像生成装置は、前記表示制御手段が、前記死角となる箇所と該 箇所周囲の画像とを含む仮想視点画像中で、当該死角となる箇所が他の箇所とは 区別され得るように表示を制御するように構成されたものであることが望ましレ、。
[0027] このように構成することによって、死角領域とその死角領域周辺の領域とを区別でき るように仮想視点画像を表示させることができる。
また、本発明の画像生成装置は、前記表示制御手段が、当該死角となる箇所を他 の箇所とは異なる発色によって区分するように前記仮想視点画像の表示を制御する ように構成されたものであることが望ましレ、。
[0028] このように構成することによって、死角領域とその死角領域周辺の領域とを区別でき るように仮想視点画像を表示させることができる。
また、本発明の画像生成装置は、前記仮想視点設定手段が、当該死角情報として 、前記車両に対する操作に応じて変化する死角の発生傾向に関する情報を得て、当 該死角の発生傾向に適合するように前記 3次元空間における仮想視点を適応的に 設定するように構成されたものであることが望ましい。
[0029] このように構成することによって、操作に応じて変化する死角の発生傾向に応じて、 仮想視点画像を表示させることができる。
また、本発明の一態様によれば、本発明の画像生成装置は、車両に取り付けられ た 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手 段と、前記空間再構成手段によってマッピングされた空間データを参照して、 3次元 空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変 換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点画像の表示形 態を制御して、前記車両内にあって乗車者の死角を生じさせる部位に設置されてい る前記表示手段に、該死角となって見通し不能な景観に対応する前記仮想視点画 像を表示させる表示制御手段とを備えることを特徴とする。
[0030] このように構成することによって、運転者の死角となる障害物に、その障害物がなか つた場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に 表示することができる。
[0031] また、本発明の一態様によれば、本発明の画像生成装置は、車両に取り付けられ た 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成手 段と、前記空間再構成手段によってマッピングされた空間データを参照して、 3次元 空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変 換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点画像の表形態 を制御して、乗車者が前記表示手段を見た場合に、該表示手段によって仮想的に 反射された方向の前記仮想視点の前記仮想視野画像であって、かつ前記乗車者の 死角となって見通し不能な部分が生じないように充足された該仮想視点画像を表示 する表示手段とを備えることを特徴とする。
[0032] このように構成することによって、表示手段をルームミラーのように使用でき、さらに 、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に 表示させることができる。
[0033] また、本発明の画像生成装置は、前記表示制御手段により表示される前記仮想視 点画像が、前記死角となって見通し不能な部分が生じないように充足された部分に 対応する領域を強調して表示させることが望ましレ、。
[0034] このように構成することによって、本来死角となって見通し不能な景観の仮想視点 画像とそうでない景観の仮想視点画像とを区別することができる。
また、本発明の画像生成装置は、前記表示制御手段が、前記仮想視野画像を歪 曲して広視野で前記表示手段に表示させることが望ましい。
[0035] このように構成することによって、凸面ミラー効果を持たせることができる。
また、本発明の一態様によれば、本発明の画像生成プログラムは、車両に取り付け られた 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構 成処理と、前記車両の動作状況を検知する車両動作検知処理と、前記検知の結果 に基づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得 し、該死角情報に基づいて 3次元空間における仮想視点を設定する仮想視点設定 処理と、前記空間再構成処理によってマッピングされた空間データを参照して、前記 3次元空間における前記仮想視点から見た画像である仮想視点画像を作成する視 点変換処理と、前記仮想視点画像を表示する表示処理とをコンピュータに実行させ るための画像生成プログラムである。
[0036] このように構成することによって、車両の動作状況に応じて運転者の死角となる部 分の仮想視点画像を表示することができる。
また、本発明の一態様によれば、本発明の画像生成プログラムは、車両に取り付け られた 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構 成処理と、前記空間再構成処理によってマッピングされた空間データを参照して、 3 次元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視 点変換処理と、前記仮想視点画像の表示形態を制御して、前記車両内にあって乗 車者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し 不能な景観に対応する前記仮想視点画像を表示させる表示制御処理とをコンビユー タに実行させるための画像生成プログラムである。
[0037] このように構成することによって、運転者の死角となる障害物に、その障害物がなか つた場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に 表示することができる。
[0038] また、本発明の一態様によれば、本発明の画像生成プログラムは、車両に取り付け られた 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構 成処理と、前記空間再構成処理によってマッピングされた空間データを参照して 3次 元空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点 変換処理と、前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場 合に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視 野画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないよう に充足された該仮想視点画像を表示する表示制御処理とをコンピュータに実行させ るための画像生成プログラムである。 [0039] このように構成することによって、表示手段をルームミラーのように使用でき、さらに 、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に 表示させることができる。
[0040] また、本発明の一態様によれば、本発明の画像生成方法は、車両に取り付けられ た 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成ェ 程と、前記車両の動作状況を検知する車両動作検知工程と、前記検知の結果に基 づいて、前記車両に乗車する乗車者の死角となる箇所を示す死角情報を取得し、該 死角情報に基づいて 3次元空間における仮想視点を設定する仮想視点設定工程と 、前記空間再構成工程によってマッピングされた空間データを参照して、前記 3次元 空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換 工程と、前記仮想視点画像を表示する表示工程とを行うことを特徴とする。
[0041] このように構成することによって、車両の動作状況に応じて運転者の死角となる部 分の仮想視点画像を表示することができる。
また、本発明の一態様によれば、本発明の画像生成方法は、車両に取り付けられ た 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成ェ 程と、前記空間再構成処理によってマッピングされた空間データを参照して、 3次元 空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変 換工程と、前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者 の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し不能 な景観に対応する前記仮想視点画像を表示させる表示制御工程とを行うことを特徴 とする。
[0042] このように構成することによって、運転者の死角となる障害物に、その障害物がなか つた場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に 表示することができる。
[0043] また、本発明の一態様によれば、本発明の画像生成方法は、車両に取り付けられ た 1または複数のカメラからの入力画像を空間モデルにマッピングする空間再構成ェ 程と、前記空間再構成工程によってマッピングされた空間データを参照して、 3次元 空間における任意の仮想視点から見た画像である仮想視点画像を作成する視点変 換工程と、前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場合 に、該表示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野 画像であって、かつ前記乗車者の死角となって見通し不能な部分が生じなレ、ように 充足された該仮想視点画像を表示する表示制御工程とを行うことを特徴とする。
[0044] このように構成することによって、表示手段をルームミラーのように使用でき、さらに 、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に 表示させることができる。
[0045] また、本発明の一態様によれば、本発明の画像生成装置は、撮像手段配置物体に 取り付けられた 1または複数のカメラからの入力画像を空間モデルにマッピングする 空間再構成手段と、前記撮像手段配置物体の動作状況を検知する撮像手段配置 物体動作検知手段と、前記検知の結果に基づいて、前記撮像手段配置物体を操作 する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて 3次 元空間における仮想視点を設定する仮想視点設定手段と、前記空間再構成手段に よってマッピングされた空間データを参照して、前記 3次元空間における前記仮想視 点から見た画像である仮想視点画像を作成する視点変換手段と、前記仮想視点画 像の表示形態を制御する表示制御手段とを備えることを特徴とする。
[0046] このように構成することによって、撮像手段配置物体の動作状況に応じてユーザの 死角となる部分の仮想視点画像を表示することができる。
また、本発明の画像生成装置は、前記表示制御手段が、前記死角となる箇所と該 箇所周囲の画像とを含む仮想視点画像中で、当該死角となる箇所が他の箇所とは 区別され得るように表示を制御するように構成されたものであることが望ましレ、。
[0047] このように構成することによって、死角領域とその死角領域周辺の領域とを区別でき るように仮想視点画像を表示させることができる。
また、本発明の画像生成装置は、前記表示制御手段が、当該死角となる箇所を他 の箇所とは異なる発色によって区分するように前記仮想視点画像の表示を制御する ように構成されたものであることが望ましレ、。
[0048] このように構成することによって、死角領域とその死角領域周辺の領域とを区別でき るように仮想視点画像を表示させることができる。 また、本発明の画像生成装置は、前記仮想視点設定手段は、当該死角情報として 、前記撮像手段配置物体に対する操作に応じて変化する死角の発生傾向に関する 情報を得て、当該死角の発生傾向に適合するように前記 3次元空間における仮想視 点を適応的に設定するように構成されたものであることが望ましい。
[0049] このように構成することによって、操作に応じて変化する死角の発生傾向に応じて、 仮想視点画像を表示させることができる。
また、本発明の一態様によれば、本発明の画像生成装置は、撮像手段配置物体に 取り付けられた 1または複数のカメラからの入力画像を空間モデルにマッピングする 空間再構成手段と、前記空間再構成手段によってマッピングされた空間データを参 照して、 3次元空間における任意の仮想視点から見た画像である仮想視点画像を作 成する視点変換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点 画像の表示形態を制御して、前記撮像手段配置物体内にあって観察者の死角を生 じさせる部位に設置されている前記表示手段に、該死角となって見通し不能な景観 に対応する前記仮想視点画像を表示させる表示制御手段とを備えることを特徴とす る。
[0050] このように構成することによって、ユーザの死角となる障害物に、その障害物がなか つた場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に 表示することができる。
[0051] また、本発明の一態様によれば、本発明の画像生成装置は、撮像手段配置物体に 取り付けられた 1または複数のカメラからの入力画像を空間モデルにマッピングする 空間再構成手段と、前記空間再構成手段によってマッピングされた空間データを参 照して、 3次元空間における任意の仮想視点から見た画像である仮想視点画像を作 成する視点変換手段と、前記仮想視点画像を表示する表示手段と、前記仮想視点 画像の表形態を制御して、観察者が前記表示手段を見た場合に、該表示手段によ つて仮想的に反射された方向の前記仮想視点の前記仮想視野画像であって、かつ 前記観察者の死角となって見通し不能な部分が生じなレ、ように充足された該仮想視 点画像を表示する表示手段と、を備えることを特徴とする。
[0052] このように構成することによって、表示手段をルームミラーのように使用でき、さらに 、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に 表示させることができる。
[0053] また、本発明の画像生成装置は、前記表示制御手段により表示される前記仮想視 点画像が、前記死角となって見通し不能な部分が生じないように充足された部分に 対応する領域を強調して表示させることが望ましレ、。
[0054] このように構成することによって、本来死角となって見通し不能な景観の仮想視点 画像とそうでない景観の仮想視点画像とを区別することができる。
また、本発明の画像生成装置は、前記表示制御手段が、前記仮想視野画像を歪 曲して広視野で前記表示手段に表示させることが望ましい。
[0055] このように構成することによって、凸面ミラー効果を持たせることができる。
また、本発明の一態様によれば、本発明の画像生成プログラムは、撮像手段配置 物体に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピン グする空間再構成処理と、前記撮像手段配置物体の動作状況を検知する撮像手段 配置物体動作検知処理と、前記検知の結果に基づいて、前記撮像手段配置物体を 操作する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づい て前記 3次元空間における仮想視点を設定する仮想視点設定処理と、前記空間再 構成処理によってマッピングされた空間データを参照して、 3次元空間における前記 仮想視点から見た画像である仮想視点画像を作成する視点変換処理と、前記仮想 視点画像を表示する表示処理とをコンピュータに実行させるための画像生成プロダラ ムである。
[0056] このように構成することによって、撮像手段配置物体の動作状況に応じてユーザの 死角となる部分の仮想視点画像を表示することができる。
また、本発明の一態様によれば、本発明の画像生成プログラムは、撮像手段配置 物体に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピン グする空間再構成処理と、前記空間再構成処理によってマッピングされた空間デー タを参照して、 3次元空間における任意の仮想視点から見た画像である仮想視点画 像を作成する視点変換処理と、前記仮想視点画像の表示形態を制御して、前記撮 像手段配置物体内にあって観察者の死角を生じさせる部位に設置されている表示 装置に、該死角となって見通し不能な景観に対応する前記仮想視点画像を表示さ せる表示制御処理とをコンピュータに実行させるための画像生成プログラムである。
[0057] このように構成することによって、ユーザの死角となる障害物に、その障害物がなか つた場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に 表示することができる。
[0058] また、本発明の一態様によれば、本発明の画像生成プログラムは、撮像手段配置 物体に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピン グする空間再構成処理と、前記空間再構成処理によってマッピングされた空間デー タを参照して、 3次元空間における任意の仮想視点から見た画像である仮想視点画 像を作成する視点変換処理と、前記仮想視点画像の表形態を制御して、観察者が 表示装置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想 視点の前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な 部分が生じなレ、ように充足された該仮想視点画像を表示する表示制御処理とコンビ ユータに実行させるための画像生成プログラムである。
[0059] このように構成することによって、表示手段をルームミラーのように使用でき、さらに 、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に 表示させることができる。
[0060] また、本発明の一態様によれば、本発明の画像生成方法は、撮像手段配置物体に 取り付けられた 1または複数のカメラからの入力画像を空間モデルにマッピングする 空間再構成工程と、前記撮像手段配置物体の動作状況を検知する撮像手段配置 物体動作検知工程と、前記検知の結果に基づいて、前記撮像手段配置物体を操作 する観察者の死角となる箇所を示す死角情報を取得し、該死角情報に基づいて 3次 元空間における仮想視点を設定する仮想視点設定工程と、前記空間再構成工程に よってマッピングされた空間データを参照して、前記 3次元空間における前記仮想視 点から見た画像である仮想視点画像を作成する視点変換工程と、前記仮想視点画 像を表示する表示工程とを行うことを特徴とする。
[0061] このように構成することによって、撮像手段配置物体の動作状況に応じてユーザの 死角となる部分の仮想視点画像を表示することができる。 また、本発明の一態様によれば、本発明の画像生成方法は、撮像手段配置物体に 取り付けられた 1または複数のカメラからの入力画像を空間モデルにマッピングする 空間再構成工程と、前記空間再構成処理によってマッピングされた空間データを参 照して、 3次元空間における任意の仮想視点から見た画像である仮想視点画像を作 成する視点変換工程と、前記仮想視点画像の表示形態を制御して、前記撮像手段 配置物体内にあって観察者の死角を生じさせる部位に設置されている表示装置に、 該死角となって見通し不能な景観に対応する前記仮想視点画像を表示させる表示 制御工程とを行うことを特徴とする。
[0062] このように構成することによって、ユーザの死角となる障害物に、その障害物がなか つた場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に 表示することができる。
[0063] また、本発明の一態様によれば、本発明の画像生成方法は、撮像手段配置物体に 取り付けられた 1または複数のカメラからの入力画像を空間モデルにマッピングする 空間再構成工程と、前記空間再構成工程によってマッピングされた空間データを参 照して、 3次元空間における任意の仮想視点から見た画像である仮想視点画像を作 成する視点変換工程と、前記仮想視点画像の表形態を制御して、観察者が表示装 置を見た場合に、該表示装置によって仮想的に反射された方向の前記仮想視点の 前記仮想視野画像であって、かつ前記観察者の死角となって見通し不能な部分が 生じないように充足された該仮想視点画像を表示する表示制御工程とを行うことを特 徴とする。
[0064] このように構成することによって、表示手段をルームミラーのように使用でき、さらに 、死角となる部分に本来その部分によって遮られたその向こう側の景観をその部分に 表示させることができる。
図面の簡単な説明
[0065] [図 1]測距装置により空間モデルを生成し、視点変換画像を生成する画像生成装置 のブロック図である。
[図 2]撮像装置により空間モデルを生成し、視点変換画像を生成する画像生成装置 のブロック図である。 園 3]測距装置により空間モデルを生成し、視点変換画像において物体間の距離が 分かるように表示するための画像生成装置のブロック図である。
園 4]車両を運転するドライバーから観察され得る視野の様子を示す図である。
[図 5]2物体間の相対距離に応じて画像の表示形態を異ならせて表示した表示例を 示す図である。
園 6]撮像装置により空間モデルを生成し、視点変換画像において物体間の距離が 分かるように表示するための画像生成装置のブロック図である。
園 7]測距装置により空間モデルを生成し、視点変換画像において物体間の相対速 度が分かるように表示するための画像生成装置のブロック図である。
[図 8]2物体間の相対速度に応じて画像の表示形態を異ならせて表示した表示例を 示す図である。
園 9]撮像装置により空間モデルを生成し、視点変換画像において物体間の相対速 度が分かるように表示するための画像生成装置のブロック図である。
園 10]測距装置により空間モデルを生成し、視点変換画像において物体間の衝突 可能性が分かるように表示するための画像生成装置のブロック図である。
園 11]衝突可能性の算出例を説明するための自車両と他の車両との関係を示す図 である。
園 12]衝突可能性の算出例を説明するための相対ベクトルを示す図である。
[図 13]2物体が衝突する可能性に応じて画像の表示形態を異ならせて表示した表示 例を示す図である。
園 14]撮像装置により空間モデルを生成し、視点変換画像において物体間の衝突 可能性が分かるように表示するための画像生成装置のブロック図である。
園 15]視点変換画像において物体間の距離が分かるように表示するための画像生 成処理の流れを示すフローチャートである。
園 16]視点変換画像において物体間の相対速度が分かるように表示するための画 像生成処理の流れを示すフローチャートである。
園 17]視点変換画像において物体間の衝突可能性が分かるように表示するための 画像生成処理の流れを示すフローチャートである。 [図 18]屋内の監視カメラに適用した場合の実施の形態を説明するための図である。 園 19]第 3の実施の形態における画像生成装置 10000を示す図である。
園 20]第 3の実施の形態における仮想視点画像の表示フローを示す図である。
園 21]第 3の実施の形態における運転者の運転動作に基づいて、運転者の死角を 検出する一例を示す図である。
園 22]第 3の実施の形態における車両の動作状況のモードの一例を示す図である。 園 23]第 4の実施の形態における画像生成装置を用いた場合の一例を説明するた めの図(その 1)である。
園 24]第 4の実施の形態における画像生成装置を用いた場合の一例を説明するた めの図(その 2)である。
園 25]第 4の実施の形態における仮想視点画像の表示フローを示す図である。
園 26]第 5の実施の形態における画像生成装置 10000を示す図である。
[図 27]第 5の実施の形態における表示手段に表示される画像の表示形態を示す図( その 1)である。
[図 28]第 5の実施の形態における表示手段に表示される画像の表示形態を示す図( その 2)である。
[図 29]第 6の実施の形態における画像生成装置を HMD (ヘッドマウントディスプレイ )に適用した場合の一例を示す図(その 1)である。
[図 30]第 6の実施の形態における画像生成装置を HMD (ヘッドマウントディスプレイ )に適用した場合の一例を示す図(その 2)である。
園 31]第 3乃至第 6の実施の形態における画像生成装置のハードウェア環境の構成 ブロック図である図である。
発明を実施するための最良の形態
以下、図面を参照しながら本発明の実施の形態について述べる。
なお、本発明は、特許文献 1に開示されている技術的内容を取り込んでいる。
<第 1の実施の形態 >
まず、図 1および図 2を用いて、複数台のカメラで撮影した画像データに基づいて 仮想的な視点から見る画像を生成し、その仮想視点からの画像を表示する画像生成 装置について説明する。なお、図示の例では複数台のカメラを用いている力 S、 1台の カメラの設置位置を順次移動して複数台のカメラが備えられた場合と同様の撮像デ ータを得るようにしてもよレ、。また、このカメラ乃至これらのカメラは、撮像手段配置物 体としての車両、部屋 (その特定の部位等)、建物等に設置される。この点は、以下に 述べる各例について同様である。
[0067] 図 1は、測距装置により空間モデルを生成し、視点変換画像を生成する画像生成 装置のブロック図である。
図 1において、画像生成装置 100は、測距装置 101、空間モデル生成装置 103、 キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 109 、視点変換装置 112、および表示装置 114を備える。
[0068] 測距装置 101は、距離を計測する距離センサを用いて目標物体(障害物)までの 距離を計測する。例えば、車両に取り付けられた場合は、車両周囲の状況として、少 なくとも車両周囲に存在する障害物までの距離を、上記距離センサを用いて計測す る。
[0069] 空間モデル生成装置 103は、上記測距装置 101が計測した距離画像データ 102 に基づいて、 3次元空間の空間モデル 104を生成し、それをデータベース (概念を実 体の如く図示。以下同様。)に格納する。なお、空間モデル 104は、上述のように別 途のセンサによる計測データに基づいて生成されたもの、あるいは、予め決められた 所定のもの、乃至は、その場で複数の入力画像から生成されたものであり、それらの データがデータベースに格納される。
[0070] 撮像装置 107は、例えば、カメラであり、撮像装置配置物体に取り付けられ画像を 撮像し、撮影画像データ 108としてデータベースに格納する。撮像装置配置物体が 車両であれば、撮像装置 107は、車両周囲の画像を撮影する。
[0071] 空間再構成装置 109は、上記撮像装置 107によって撮像された撮像画像データ 1 08を、上記空間モデル生成装置 103で生成した空間モデル 104にマッピングする。 そして、空間モデル 104に撮影画像データ 108をマッピングしたデータは、空間デー タ 111としてデータベースに格納する。
[0072] キャリブレーション装置 105は、例えば、温度によるレンズ歪みの補正を行うために 、撮像装置 107の取り付け位置、取り付け角度、レンズ歪み補正値、レンズの焦点距 離などといったパラメータを、入力することによって、あるいは計算することによって得 る。すなわち、撮像装置 107がカメラであれば、カメラキャリブレーションを行う。カメラ キャリブレーションとは、 3次元実世界に配置されたカメラについての、その 3次元実 世界における、カメラの取り付け位置、カメラの取り付け角度、カメラのレンズ歪み補 正値、カメラのレンズの焦点距離などといった、上記カメラ特性を表すカメラパラメ一 タを決定、補正することである。
[0073] 視点変換装置 112は、上記空間再構成装置 109によってマッピングされた空間デ ータ 111に基づいて、 3次元空間における任意の仮想視点から見た視点変換画像デ ータ 113を生成し、それをデータベースに格納する。
[0074] 表示装置 114は、上記視点変換装置 112によって生成された視点変換画像データ 113に基づいて、上記 3次元空間における任意の仮想視点から見た画像を表示する 図 2は、撮像装置により空間モデルを生成し、視点変換画像を生成する画像生成 装置のブロック図である。
[0075] 図 2において、画像生成装置 200は、測距装置 201、空間モデル生成装置 103、 キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 109 、視点変換装置 112、および表示装置 114を備える。
[0076] 画像生成装置 200が、図 1を用いて説明した画像生成装置 100と異なるのは、測 距装置 101の代わりに測距装置 201を備えている点である。以下、測距装置 201を 中心とした説明をし、その他の構成要素については図 1を用いた説明と同様であるの で省略する。
[0077] 測距装置 201は、撮影装置 107で撮影した撮影画像データ 108に基づいて、障害 物までの距離を計測する。また、測距装置 101と同様、距離を計測する距離センサを 用いて障害物までの距離を計測したデータと合わせて距離画像データ 202としても 良い。
[0078] そして、空間モデル生成装置 103は、上記測距装置 201が計測した距離画像デー タ 202に基づいて、 3次元空間の空間モデル 104を生成し、それをデータベースに 格納する。
[0079] 次に、図 3乃至図 6を用いて、仮想視点からの画像を表示する際に、表示する物体 の表示形態を、 2物体間の相対的な距離に応じて異ならせることができる画像生成装 置について説明する。この画像生成装置は、図 1または図 2を用いて説明した画像生 成装置に適用することができる。
[0080] 図 3は、測距装置により空間モデルを生成し、視点変換画像において物体間の距 離が分かるように表示するための画像生成装置のブロック図である。
図 3において、画像生成装置 300は、測距装置 101、空間モデル生成装置 103、 キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 109 、視点変換装置 112、表示装置 314、および距離算出装置 315を備える。
[0081] 画像生成装置 300が、図 1を用いて説明した画像生成装置 100と異なるのは、距 離算出装置 315を備えている点、および表示装置 114の代わりに表示装置 314を備 えている点である。以下、距離算出装置 315および表示装置 314を中心とした説明 をし、その他の構成要素については図 1を用いた説明と同様であるので省略する。
[0082] 距離算出装置 315は、上記視点変換装置 112によって生成された視点変換画像 データ 113、上記撮像画像を表わす撮像画像データ 108、上記空間モデル 104、お よび上記マッピングされた空間データ 111の何れかに基づレ、て、当該撮像装置配置 物体のモデルである撮像装置配置物体モデル 110と上記空間モデル 104との距離 を算出する。例えば、撮像画像データ 108と撮像装置配置物体モデル 110とを用い て、撮像装置配置物体モデル 110と上記空間モデル 104との距離を算出する場合 は、複数の撮像装置 107を用いてステレオ視することにより求めることができる。
[0083] そして、上記表示装置 314は、上記視点変換装置 112によって生成された視点変 換画像データ 113に基づいて、 3次元空間における任意の仮想視点から見た画像を 表示する際に、上記距離算出装置 315によって算出した距離に応じて、上記画像の 表示形態を異ならせて表示する。
[0084] なお、表示装置 114は、上記距離算出装置 315によって算出した距離が所定値以 上の場合、その画像を一体化した背景モデルとして表示してもよいし、表示する画像 中に上記距離算出装置 315によって算出した距離が所定値以上の部分が含まれて レ、る場合、その画像の当該部分をぼかして表示してもよレ、。
[0085] また、上記表示装置 114は、上記距離算出装置 315によって算出された距離に応 じて、表示に係る色の色相又は彩度若しくは明度のうちの少なくとも一のものを異な らせて表示するようにしてもよいし、さらに、上記距離算出装置 315によって算出され た距離がその値に応じて区分された複数の階層のうちの何れの階層に該当するかに 応じて、表示に係る色の色相又は彩度若しくは明度のうちの少なくとも一のものを異 ならせて表示するようにしてもょレ、。
[0086] また、上記表示装置 114は、当該表示形態として色によって表示情報の意味が認 識されるような形態をとりうるようにしてもよい。
ここで、図 4および図 5を用いて、画像生成装置 300を車両の周辺を監視するシス テムとして適用した場合について説明する。
[0087] 図 4は、車両を運転するドライバーから観察され得る視野の様子を示す図である。
ドライバーからは、道路上に車両 A、車両 B、および車両 Cの 3台の車両が見えてい る。
[0088] 車両には、車両周囲に存在する障害物までの距離を計測する距離センサ (測距装 置 101)と、車両周囲の画像を撮影する複数台のカメラ (撮像装置 107)とが取り付け られている。
[0089] 空間モデル生成装置 103は、距離センサが計測した距離画像データ 102に基づ いて、 3次元空間の空間モデル 104を生成し、それをデータベースに格納する。そし て、カメラは、車両周辺の画像を撮像し、撮影画像データ 108としてデータベースに 格納する。
[0090] 空間再構成装置 109は、カメラによって撮像された撮像画像データ 108を、上記空 間モデル生成装置 103で生成した空間モデル 104にマッピングし、空間データ 111 としてデータベースに格納する。
[0091] 視点変換装置 112は、上記空間再構成装置 109によってマッピングされた空間デ ータ 111に基づいて、例えば、車両後方上空を仮想視点とし、その仮想視点から見 た視点変換画像データ 113を生成し、それをデータベースに格納する。
[0092] 距離算出装置 315は、上記視点変換装置 112によって生成された視点変換画像 データ 113、上記撮像画像を表わす撮像画像データ 108、上記空間モデル 104、お よび上記マッピングされた空間データ 111の何れかに基づレ、て、当該車両をモデル 化したデータである撮像装置配置物体モデル 110と上記空間モデル 104との距離を 算出する。例えば、当該車両と前方の他の車両との距離を算出する。
[0093] そして、上記表示装置 314は、通常車両内に設置され、例えば、カーナビグーショ ンシステムのモニタと共用して、上記視点変換装置 112によって生成された視点変 換画像データ 113に基づいて、上記 3次元空間における任意の仮想視点から見た画 像を表示する際に、上記距離算出装置 315によって算出した距離に応じて、上記画 像の表示形態を異ならせて表示する。例えば、前方に他の車両が複数台ある場合に は、当該車両(自車両)と他の車両との距離に応じて、異なる色で他の車両を表示し たり、異なる点滅間隔で点滅表示したりする。
[0094] 図 5は、 2物体間の相対距離に応じて画像の表示形態を異ならせて表示した表示 例を示す図である。
図 5において、物体 Aは、図 4の車両 Aの視点変換画像であり、同様に物体 Bは車 両8、物体 Cは車両 Cの視点変換画像である。そして、 自車両と、車両 A、車両 Bおよ び車両 Cとの距離に応じて、物体 A、物体 B、物体 Cの表示形態が異なっている。例 えば、自車両との距離が 3台の他の車両の中で最も近い車両 Aの視点変換画像であ る物体 Aは赤色で表示され、次に近い車両 Bの視点変換画像である物体 Bは、黄色 で表示され、最も遠い車両 Cの視点変換画像である物体 Cは緑色で表示される。
[0095] 図 6は、撮像装置により空間モデルを生成し、視点変換画像において物体間の距 離が分かるように表示するための画像生成装置のブロック図である。
図 6において、画像生成装置 600は、測距装置 201、空間モデル生成装置 103、 キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 109 、視点変換装置 112、表示装置 314、および距離算出装置 315を備える。
[0096] 画像生成装置 600が、図 3を用いて説明した画像生成装置 300と異なるのは、測 距装置 101の代わりに測距装置 201を備えている点である。なお、測距装置 201に っレ、ては、図 2を用いてレ、るので説明は省略する。
[0097] 次に、図 7乃至図 9を用いて、仮想視点からの画像を表示する際に、表示する物体 の表示形態を、 2物体間の相対的な速度に応じて異ならせることができる画像生成装 置について説明する。この画像生成装置は、図 1または図 2を用いて説明した画像生 成装置に適用することができる。
[0098] 図 7は、測距装置により空間モデルを生成し、視点変換画像において物体間の相 対速度が分かるように表示するための画像生成装置のブロック図である。
図 7において、画像生成装置 700は、測距装置 101、空間モデル生成装置 103、 キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 109 、視点変換装置 112、表示装置 714、および相対速度算出装置 715を備える。
[0099] 画像生成装置 700が、図 1を用いて説明した画像生成装置 100と異なるのは、相 対速度算出装置 715を備えている点、および表示装置 114の代わりに表示装置 714 を備えている点である。以下、距離算出装置 715および表示装置 714を中心とした 説明をし、その他の構成要素については図 1を用いた説明と同様であるので省略す る。
[0100] 相対速度算出装置 715は、異なる時刻に対応した、上記視点変換装置 112によつ て生成された 2時刻における視点変換画像データ 113、上記撮像画像を表わす撮像 画像データ 108、上記空間モデル 104、および上記マッピングされた空間データ 11 1の何れかに基づレ、て、当該撮像装置配置物体のモデルである撮像装置配置物体 モデル 110と上記空間モデル 104との相対速度を算出する。
[0101] そして、上記表示装置 714は、上記視点変換装置 112によって生成された視点変 換画像データ 113に基づいて、 3次元空間における任意の仮想視点から見た画像を 表示する際に、上記相対速度算出装置 715によって算出した相対速度に応じて、上 記画像の表示形態を異ならせて表示する。
[0102] なお、表示装置 714は、当該表示形態として色によって表示情報の意味が認識さ れるような形態をとりうるようにしてもよレ、。
ここで、図 4および図 8を用いて、画像生成装置 700を車両の周辺を監視するシス テムとして適用した場合について説明する。
[0103] 上述したように、図 4は、車両を運転するドライバーから観察され得る視野の様子を 示す図であり、ドライバーからは、道路上に車両 A、車両 B、および車両 Cの 3台の車 両が見えている。
[0104] 車両には、車両周囲に存在する障害物までの距離を計測する距離センサ (測距装 置 101)と、車両周囲の画像を撮影する複数台のカメラ (撮像装置 107)とが取り付け られており、空間モデル生成装置 103、空間再構成装置 109、および視点変換装置 112によって、例えば、車両後方上空を仮想視点とし、その仮想視点から見た視点 変換画像データ 113を生成し、それをデータベースに格納する。
[0105] 相対速度算出装置 715は、異なる時刻に対応した、上記視点変換装置 112によつ て生成された 2時刻における視点変換画像データ 108、上記撮像画像を表わす撮像 画像データ 108、上記空間モデル 104、および上記マッピングされた空間データ 11 1の何れかに基づレ、て、当該撮像装置配置物体のモデルである撮像装置配置物体 モデル 110と上記空間モデル 104との相対速度を算出する。例えば、当該車両と前 方の他の車両との相対速度を算出する。
[0106] そして、上記表示装置 714は、通常車両内に設置され、例えば、カーナビゲーショ ンシステムのモニタと共用して、上記視点変換装置 112によって生成された視点変 換画像データ 113に基づいて、上記 3次元空間における任意の仮想視点から見た画 像を表示する際に、上記相対速度算出装置 715によって算出した相対速度に応じて 、上記画像の表示形態を異ならせて表示する。例えば、前方に他の車両が複数台あ る場合には、当該車両(自車両)と他の車両との相対速度に応じて、異なる色で他の 車両を表示したり、異なる点滅間隔で点滅表示したりする。
[0107] 図 8は、 2物体間の相対速度に応じて画像の表示形態を異ならせて表示した表示 例を示す図である。
図 8において、物体 Aは、図 4の車両 Aの視点変換画像であり、同様に物体 Bは車 両 物体 Cは車両 Cの視点変換画像である。そして、 自車両と、車両 A、車両 Bおよ び車両 Cとの相対速度に応じて、物体 A、物体 B、物体 Cの表示形態が異なっている 。例えば、自車両との相対速度が 3台の他の車両の中で最も速レ、(大きレ、)車両 Bの 視点変換画像である物体 Bは赤色で表示され、次に早い車両 Aの視点変換画像で ある物体 Aは、黄色で表示され、最も遅レ、(小さい)車両 Cの視点変換画像である物 体 Cは緑色で表示される。 [0108] 図 9は、撮像装置により空間モデルを生成し、視点変換画像において物体間の相 対速度が分かるように表示するための画像生成装置のブロック図である。
図 9において、画像生成装置 900は、測距装置 201、空間モデル生成装置 103、 キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 109 、視点変換装置 112、表示装置 714、および相対速度算出装置 715を備える。
[0109] 画像生成装置 900が、図 7を用いて説明した画像生成装置 700と異なるのは、測 距装置 101の代わりに測距装置 201を備えている点である。なお、測距装置 201に っレ、ては、図 2を用いてレ、るので説明は省略する。
[0110] 次に、図 10乃至図 14を用いて、仮想視点からの画像を表示する際に、表示する物 体の表示形態を、 2物体が衝突する可能性に応じて異ならせることができる画像生成 装置について説明する。この画像生成装置は、図 1または図 2を用いて説明した画像 生成装置に適用することができる。
[0111] 図 10は、測距装置により空間モデルを生成し、視点変換画像において物体間の衝 突可能性が分かるように表示するための画像生成装置のブロック図である。
図 10において、画像生成装置 1000は、測距装置 101、空間モデル生成装置 103 、キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 10 9、視点変換装置 112、表示装置 1014、および衝突可能性算出装置 1015を備える
[0112] 画像生成装置 1000が、図 1を用いて説明した画像生成装置 100と異なるのは、衝 突可能性算出装置 1015を備えている点、および表示装置 114の代わりに表示装置 1014を備えている点である。以下、衝突可能性算出装置 1015および表示装置 101 4を中心とした説明をし、その他の構成要素については図 1を用いた説明と同様であ るので省略する。
[0113] 衝突可能性算出装置 1015は、異なる時刻に対応した、上記視点変換装置 112に よって生成された視点変換画像データ 113、上記撮像画像を表わす撮像画像デー タ 108、上記空間モデル 104、および上記マッピングされた空間データ 111の何れ 力、に基づいて、当該撮像装置配置物体のモデルである撮像装置配置物体モデル 1 10と上記空間モデル 104とが衝突する可能性を算出する。衝突する可能性は、例え ば、 2つの物体のそれぞれの移動方向および移動速度力 容易に求めることができ る。
[0114] そして、上記表示装置 1014は、上記視点変換装置 112によって生成された視点 変換画像データ 113に基づレ、て、 3次元空間における任意の仮想視点から見た画像 を表示する際に、上記衝突可能性算出装置 1015によって算出した衝突可能性に応 じて、上記画像の表示形態を異ならせて表示する。
[0115] 上述した図 4に示した例では、算出した衝突可能性に応じて、衝突する危険性の高 い順に、赤色、黄色、緑色、青色で表示しているが、単純に、距離または相対速度に 基づレ、てこれらの色を異ならせて表示しても良レ、。
[0116] 例えば、自車両と距離的に近いガードレール部分を赤色で表示し、 自車両から遠 いガードレール (例えば、反対車線側)を青色で表示する。また、道路面は自車両を 含む車両自体が走行する領域であるので、 自車両との距離が近くとも青色乃至緑色 で表示する。
[0117] 視点変換画像した対象物のうち、他の車両については、相対速度や距離等に基づ いて衝突可能性を算出し、算出した際の衝突可能性に高い車両を赤色で表示し、衝 突可能性の低レ、車両を緑色で表示するなど、衝突可能性の変化に応じて他の車両 の色を変化させて表示する。
[0118] 次に、図 11および図 12を用いて衝突可能性の算出例を説明する。
図 11は、衝突可能性の算出例を説明するための自車両と他の車両との関係を示 す図であり、図 12は、衝突可能性の算出例を説明するための相対ベクトルを示す図 である。
[0119] 図 11に示すように、右側の車線を図面上方へ走行している自車両 Mと、自車両 M の左側の車線を同じく図面上方へ走行しながら車線変更をしてくる車両〇nとの関係 を例として考えると、下記のようになる。
[0120] すなわち、車両 On (V )と自車両 M (V )との間の相対ベクトル V を求め、その
On On- M
大きさ I V Iを車両 Onと自車両 Mとの間の距離 D で除算した値( | V
On- M On- M On- M I )
/D を衝突可能性として用いる。また、より近距離で衝突可能性が高いと考える
On- M
場合、 D で除算する変わりに D の平方 (D ) 2で除算することによって感度を
On— M On— M On— M 高めるなどして、衝突可能性を求めても良い。
[0121] 本実施の形態では、色相の違いにより衝突の危険性の高い領域を、 自車両と他の 物体との距離、相対速度、またこれらから算出される衝突可能性に基づいて、視点変 換した画像の表示を変化させる。
[0122] また、視点変換画像をボケ表示させることにより、衝突可能性の程度を示しても良い
。例えば、距離、相対速度、あるいは衝突可能性に基づいて、衝突する危険性の低 レ、ものはある程度ぼ力、して表示し、より危険性の高いものはぼかさずにくっきりと表示 することにより、衝突する危険性の高いものを認識し易くする。
[0123] これにより、より直感的に運転者や歩行者に衝突の危険性を認知させ、安全な走行 あるいは歩行の実現を補助することが出来る。
なお、上記表示装置 1014は、上記衝突可能性算出装置 1015によって算出した 衝突可能性が所定値以下の場合、その画像を一体化した背景モデルとして表示して もよレ、し、その画像をぼ力して表示してもよい。
[0124] また、上記表示装置 1014は、当該表示形態として色によって表示情報の意味が認 識されるような形態をとりうるようにしてもよい。
ここで、図 4および図 13を用いて、画像生成装置 1000を車両の周辺を監視するシ ステムとして適用した場合について説明する。
[0125] 上述したように、図 4は、車両を運転するドライバーから見える範囲の様子を示す図 であり、ドライバーからは、道路上に車両 A、車両 B、および車両 Cの 3台の車両が見 えている。
[0126] 車両には、車両周囲に存在する障害物までの距離を計測する距離センサ (測距装 置 101)と、車両周囲の画像を撮影する複数台のカメラ (撮像装置 107)とが取り付け られており、空間モデル生成装置 103、空間再構成装置 109、および視点変換装置 112によって、例えば、車両後方上空を仮想視点とし、その仮想視点から見た視点 変換画像データ 113を生成し、それをデータベースに格納する。
[0127] 衝突可能性算出装置 1015は、異なる時刻に対応した、上記視点変換装置 112に よって生成された視点変換画像データ 113、上記撮像画像を表わす撮像画像デー タ 108、上記空間モデル 104、および上記マッピングされた空間データ 111の何れ 力に基づレ、て、当該撮像装置配置物体のモデルである撮像装置配置物体モデル 1 10と上記空間モデル 104とが衝突する可能性を算出する。例えば、当該車両と前方 の他の車両との衝突の可能性を算出する。
[0128] そして、上記表示装置 1014は、通常車両内に設置され、例えば、カーナビゲーシ ヨンシステムのモニタと共用して、上記視点変換装置 112によって生成された視点変 換画像データ 113に基づいて、 3次元空間における任意の仮想視点から見た画像を 表示する際に、上記衝突可能性算出装置 1015によって算出した衝突可能性に応じ て、上記画像の表示形態を異ならせて表示する。例えば、前方に他の車両が複数台 ある場合には、当該車両(自車両)と他の車両とが衝突する可能性に応じて、異なる 色で他の車両を表示したり、異なる点滅間隔で点滅表示したりする。
[0129] 図 13は、 2物体が衝突する可能性に応じて画像の表示形態を異ならせて表示した 表示例を示す図である。
図 13において、物体 Aは、図 4の車両 Aの視点変換画像であり、同様に物体 Bは車 両8、物体 Cは車両 Cの視点変換画像である。そして、 自車両と、車両 A、車両 Bおよ び車両 Cのそれぞれとが衝突する可能性に応じて、物体 A、物体 B、物体 Cの表示形 態が異なっている。例えば、 自車両と衝突する可能性が 3台の他の車両の中で最も 高い車両 Cの視点変換画像である物体 Cは赤色で表示され、車両 Cに比べて衝突の 可能性がそれほど高くなレ、車両 Aの視点変換画像である物体 A、および車両 Bの視 点変換画像である物体 Bは黄色で表示される。上述した、図 5、図 8、図 13の各例に おいて、表示色を異ならせて表示する場合、当該表示に係る色の色相又は彩度若し くは明度のうちの少なくとも一のものを異ならせて表示するような形態を採り得る。
[0130] 図 14は、撮像装置により空間モデルを生成し、視点変換画像において物体間の衝 突可能性が分かるように表示するための画像生成装置のブロック図である。
図 14において、画像生成装置 1200は、測距装置 201、空間モデル生成装置 103 、キャリブレーション装置 105、 1つまたは複数の撮像装置 107、空間再構成装置 10 9、視点変換装置 112、表示装置 1014、および相対速度算出装置 1015を備える。
[0131] 画像生成装置 1200が、図 10を用いて説明した画像生成装置 1000と異なるのは、 測距装置 101の代わりに測距装置 201を備えている点である。なお、測距装置 201 については、図 2を用いているので説明は省略する。
[0132] 次に、図 15乃至図 17を用いて、視点変換された画像を表示する際に、カメラを搭 載している物体とカメラで撮影した画像との関係が、直感的に分かるように表示する ための画像生成処理の流れを説明する。
[0133] 図 15は、視点変換画像において物体間の距離が分かるように表示するための画像 生成処理の流れを示すフローチャートである。
まず、ステップ S1301において、車両等に物体に取り付けられているカメラを用い て、当該車両の周囲の画像を撮像する。
[0134] ステップ S1302において、ステップ S1301で撮像した画像のデータである撮像画 像データ 108を、空間モデル 104にマッピングして、空間データ 111を生成する。
[0135] ステップ S1303におレヽて、ステップ S1302でマッピングされた空間データ 111に基 づいて、 3次元空間における任意の仮想視点から見た視点変換画像データ 113を生 成する。
[0136] 次に、ステップ S1304において、上記生成された視点変換画像データ 113、上記 撮像画像データ 108、上記空間モデル 104、および上記マッピングされた空間デー タ 111の何れかに基づレ、て、当該車両のモデルである撮像装置配置物体モデル 11 0と上記空間モデル 104との距離を算出する。
[0137] そして、ステップ S1305において、 3次元空間における任意の仮想視点から見た画 像を表示する際に、ステップ S 1304で算出した距離に応じて、上記撮影した画像の 表示形態を異ならせて表示する。
[0138] 図 16は、視点変換画像において物体間の相対速度が分かるように表示するための 画像生成処理の流れを示すフローチャートである。
ステップ S 1301乃至ステップ S 1303は、図 15を用レ、て説明したステップ S 1301乃 至ステップ S1303と同様である。
[0139] ステップ S1303で視点変換画像データ 113を生成した後に、ステップ S1404にお いて、上記生成された視点変換画像データ 113、上記撮像画像データ 108、上記空 間モデル 104、および上記マッピングされた空間データ 111の何れかに基づいて、 当該車両のモデルである撮像装置配置物体モデル 110と上記空間モデル 104との 相対速度を算出する。
[0140] そして、ステップ S1405において、 3次元空間における任意の仮想視点から見た画 像を表示する際に、ステップ S1404で算出した相対速度に応じて、上記撮影した画 像の表示形態を異ならせて表示する。
[0141] 図 17は、視点変換画像において物体間の衝突可能性が分かるように表示するた めの画像生成処理の流れを示すフローチャートである。
ステップ S 1301乃至ステップ S 1303は、図 15を用レ、て説明したステップ S 1301乃 至ステップ S1303と同様である。
[0142] ステップ S1303で視点変換画像データ 113を生成した後に、ステップ S1504にお いて、上記生成された視点変換画像データ 113、上記撮像画像データ 108、上記空 間モデル 104、および上記マッピングされた空間データ 111の何れかに基づいて、 当該車両のモデルである撮像装置配置物体モデル 110と上記空間モデル 104とが 衝突する可能性を算出する。
[0143] そして、ステップ S1505において、 3次元空間における任意の仮想視点から見た画 像を表示する際に、ステップ S 1504で算出した衝突の可能性に応じて、上記撮影し た画像の表示形態を異ならせて表示する。
[0144] また、上述の第 1の実施の形態は、次に述べるように拡張することが可能である。
これまで述べてきた第 1の実施の形態においては、車両を撮像装置配置物体とし、 これに搭載された撮像装置 107による画像を用いていた力 これは、カメラパラメータ が既知、もしくは算出、計測可能である場合において、道路に面した構造物や、店舗 内等に設置された監視カメラの画像を含めても同様に扱うことができる。測距装置 10 1、 102についてもカメラと同様に配置し、その位置、姿勢が既知もしくは算出、計測 可能である場合において、道路に面した構造物や、店舗内等に設置された測距装 置 101、 102からの距離情報(距離画像データ 202)を用いることができる。
[0145] すなわち、視点変換画像を表示する表示装置 114、 314、 714、 1014と、撮像装 置 107が必ずしも同一の撮像装置配置物体上に設置されている必要はなぐ相対的 に移動してレ、る障害物が存在すればょレ、。
[0146] また、装置構成上、複数の画像生成装置 100、 200、 300、 600、 700、 900、 100 0、 1200 (同種の画像生成装置が複数で構成されていてもよいし、異種の画像生成 装置が複数で構成されていてもよい。例えば画像生成装置 100が複数であってもよ いし、画像生成装置 100と画像生成装置 200とにより構成されていてもよい。以下、 同様。)が相互にデータのやり取りを実施するようにしてもよい。
[0147] これらの場合は、上述の第 1の実施の形態の各データ、モデルを、各々の視点を利 用する形態に応じて座標変換を実施する座標変換装置を備えた通信装置によりそ れぞれの画像生成装置 100、 200、 300、 600、 700、 900、 1000、 1200との間を 通信すると共に、その基準座標を算出する座標姿勢算出装置を有する。
[0148] 座標姿勢算出装置は、視点変換画像を生成する位置姿勢を算出する装置であり、 これは、例えば GPS (Global Positioning System)などによる緯度経度高度方 位のデータを用いて仮想視点の座標を設定しても良ぐ他の画像生成装置 100、 20 0、 300、 600、 700、 900、 1000、 1200との木目対位置座標を算出することにより、本 画像生成装置 100、 200、 300、■、 700、 900、 1000、 1200群内での相対位置 座標を求めることにより、座標変換を実施し、所定の視点変換画像を生成するように しても良い。それらの座標系内で、所望の仮想視点を設定することに相当する。 <第 2の実施の形態 >
図 18は、屋内の監視カメラに適用した場合の第 2の実施の形態を説明するための 図である。
[0149] 図 18は、監視対象である部屋を上方 (天井)から見た様子を示したものであり、監 視力メラである 4台の撮像装置 107A、 107B、 107C、および 107Dは、屋内の任意 の場所に設けられ、室内を撮像している。
[0150] 例えば、撮像装置 107A、 107B、 107C、および 107Dは、部屋の天井四隅に設 置してもよぐまた、天井中央付近に超広角のカメラを設置するようにしても良い。また 、これらの撮像装置 107A、 107B、 107C、および 107Dは、 2眼、 3眼、もしくはそれ 以上の組み合わせを持つステレオカメラで構成しても良ぐステレオカメラの変わりに 測距装置(レーザーレーダー、スリットスキャン測距装置、超音波センサ、 CADモデ ルによる屋内モデルなど) 101、 201を併用してももちろん良い。これらにより構成さ れた空間モデルに、上記撮像装置 107A、 107B、 107C、および 107Dで撮像した 画像をマッピングし、任意の所望の仮想視点を設定し、視点変換画像を生成する。
[0151] また、上述してきた距離、相対速度、衝突可能性に関して、撮像装置配置物体を基 準とするのではなぐ視点変換された画像のうちの 2物体間の距離、相対速度、衝突 可能性を算出して、これらが認識できるように各物体を表示するようにしても良い。例 えば、撮像装置 107を屋内、街路などに設置し、屋内、街路などを歩行している人、 屋内、屋外、部屋などのインテリア、他の移動体(車両、ロボット)間の距離、相対速 度、衝突可能性を算出して、これらが認識できるように各物体を表示するようにしても 良い。
[0152] また、観察者である人物は、例えば HMD (Head Mounted Display)などを装 着しており視点変換画像を観察できると共に、撮像装置配置物体のカメラによって捉 えられた観察者自らの位置、姿勢、方向が計測され得るようにしても良い。観察者で ある人物に装着する GPSやジャイロセンサー、カメラ装置、人物の視線検出装置など で計測した座標姿勢情報を併用しても良い。
[0153] この観察者の視点を仮想視点として設定することにより、観察者にとっての距離、速 度、衝突可能性を算出できる。これにより人物は、 自らにとっての障害物を HMDなど に表示された仮想視点画像上で把握することが出来、 自らに対する脅威、例えば観 察者の後方に潜む不審者、犬、車両などを認知することができ、さらには、遠方の物 体であってもそれに近接した撮像装置配置物体や画像生成装置の画像と空間モデ ルを用いることによりより正確に、精度良く生成された多視点変換画像を用いることが できる。
[0154] 当然ながら、人物ではなくこれが車両などの移動物体の場合でも適応可能である。
また、上述した各実施の形態において、複数の撮像装置は、それらによって、いわ ゆる 3眼ステレオカメラを構成するように用いても、あるいは 4眼ステレオカメラを構成 するように用いてもよレ、。このように 3眼あるいは 4眼ステレオカメラを用いると、 3次元 再構成処理などにおいて、より信頼度が高ぐ安定した処理結果が得られることが知 られている(例えば、富田文明, 「高機能 3次元視覚システム」,情報処理,情報処理 学会発行,第 42卷,第 4号)。特に複数カメラを 2方向の基線長を持つように配置す ると、より複雑なシーンで 3次元再構成が可能になることが知られている。また 1つの 基線長方向にカメラを複数台配置するとレ、わゆるマルチベースライン方式のステレオ カメラを実現することが可能となり、より高精度のステレオ計測が可能となる。
[0155] 上述のように、本発明の各実施の形態を、図面を参照しながら説明してきたが、本 発明が適用される画像生成装置は、その機能が実行されるのであれば、上述の各実 施の形態に限定されることなぐ単体の装置であっても、複数の装置からなるシステム あるいは統合装置であっても、 LAN、 WAN等のネットワークを介して処理が行なわ れるシステムであってもよいことは言うまでもない。
[0156] また、バスに接続された CPU、 ROMや RAMのメモリ、入力装置、出力装置、外部 記録装置、媒体駆動装置、可搬記録媒体、ネットワーク接続装置で構成されるシステ ムでも実現できる。すなわち、前述してきた各実施の形態のシステムを実現するソフト エアのプログラムコードを記録した ROMや RAMのメモリ、外部記録装置、可搬記録 媒体を、画像生成装置に供給し、その画像生成装置のコンピュータがプログラムコー ドを読み出し実行することによつても、達成されることは言うまでもない。
[0157] この場合、可搬記録媒体等から読み出されたプログラムコード自体が本発明の新 規な機能を実現することになり、そのプログラムコードを記録した可搬記録媒体等は 本発明を構成することになる。
[0158] プログラムコードを供給するための可搬記録媒体としては、例えば、フレキシブルデ イスク、ハードディスク、光ディスク、光磁気ディスク、 CD-ROM, CD-R, DVD-R OM、 DVD-RAM,磁気テープ、不揮発性のメモリーカード、 ROMカード、電子メ ールゃパソコン通信等のネットワーク接続装置(言い換えれば、通信回線)を介して 記録した種々の記録媒体などを用いることができる。
[0159] また、コンピュータがメモリ上に読み出したプログラムコードを実行することによって、 前述した各実施の形態の機能が実現される他、そのプログラムコードの指示に基づ き、コンピュータ上で稼動している〇Sなどが実際の処理の一部または全部を行ない 、その処理によっても前述した各実施の形態の機能が実現される。
[0160] さらに、可搬型記録媒体から読み出されたプログラムコードやプログラム(データ)提 供者から提供されたプログラム(データ)が、コンピュータに揷入された機能拡張ボー ドゃコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そ のプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わ る CPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した 各実施の形態の機能が実現され得る。
[0161] すなわち、本発明は、以上に述べた各実施の形態に限定されるものではなぐ本発 明の要旨を逸脱しない範囲内で種々の構成または形状を取ることができる。
本発明によれば、車両等の撮像手段配置物体に取り付けられた 1台または複数台 のカメラで撮影した複数枚の画像に基づレ、て、あた力 仮想視点から実際見てレ、るよ うな感覚を持つことができる合成画像を生成し、この合成画像を表示するに際し、上 記物体と撮影した画像との関係が直感的に分かるように表示することができる。
[0162] <第 3の実施の形態 >
本第 3の実施の形態では、運転者にとって死角になる死角領域を検出し、その死 角領域を観察する視点を設定し、このような視点からの仮想視点画を運転者力、ら視 認可能に表示する。或いは、このような死角領域から運転動作情報や運転者の操作 によって表示対象とすべき死角領域を選択し、選択された死角領域を観察する視点 を設定し、このような視点からの仮想視点画を運転者に視認可能に表示する。以下 に、図面を用いてこのような第 3の実施の形態について逐次具体的に説明する。
[0163] 図 19は、本第 3の実施の形態における画像生成装置 10000を示す。
図 19において、画像生成装置 10000は、 1台乃至複数台のカメラ 2101、カメラパ ラメータテーブル 2103、空間再構成ユニット 2104、空間データバッファ 2105、視点 変換ユニット 2106、表示ユニット 2107、表示制御ユニット 10001、仮想視点設定ュ ニット 10002、及び車両動作検知ユニット 10003から構成される。
[0164] 複数台のカメラ 2101は、監視対象領域の状況を把握するのに適合した状態で設 けられている。カメラ 2101は、例えば、車両の周囲の状況など監視すべき空間の画 像を取り込む複数のテレビカメラである。このカメラ 2101は、大きな視野を得ることが できるよう、通常、画角が大きいものを使うのが良い。このカメラ 2101の設置台数、設 置状態等については例えば特許文献 1に開示のような公知の態様でもよい。尚、図 示の例では複数台のカメラを用いているが 1台のカメラの設置位置を順次移動して複 数台のカメラが備えられた場合と同様の撮像データを得るようにして用いてもょレ、。こ の点は以下に述べる各例について同様である。
[0165] カメラパラメータテーブル 2103には、カメラ 2101の特性を示すカメラパラメータを 格納してある。ここで、カメラパラメータについて説明する。画像生成装置 10000には キャリブレーションユニット(不図示)が設けられており、カメラキャリブレーションを行う 。カメラキャリブレーションとは、 3次元空間に配置されたカメラについての、その 3次 元空間における、カメラの取り付け位置、カメラの取り付け角度、カメラのレンズ歪み 補正値、カメラのレンズの焦点距離などといった、カメラ 2101の特性を表すカメラパ ラメータを決定、補正することである。このキャリブレーションユニット及びカメラパラメ ータテーブル 2103については、例えば特許文献 1にも詳述されている。
[0166] 空間再構成ユニット 2104では、カメラパラメータに基づいて、カメラ 2101からの入 力画像を 3次元空間の空間モデルにマッピングした空間データを作成する。すなわ ち、空間再構成ユニット 2104は、キャリブレーションユニット(不図示)によって計算さ れたカメラパラメータに基づいて、カメラ 2101からの入力画像を構成する各々の画素 を 3次元空間の点に対応づけた空間データを作成する。
[0167] すなわち、空間再構成ユニット 2104では、カメラ 2101から撮影された画像に含ま れる各々の物体が、 3次元空間のどこに存在するかを計算し、その計算結果としての 空間データを空間データバッファ 2105に格納する。なお、空間モデルは、予め決め られた (所定の)ものでもよぐ或いは、その場で複数の入力画像から生成されたもの 、乃至は、別途のセンサーの出力に基づいて生成されたものであってもよい。
[0168] 例えば、特許文献 1に記載があるように、空間モデルは、 5つの平面からなる空間モ デル、お椀型をした空間モデル、平面と曲面を組み合わせて構成した空間モデル、 もしくはついたて面を導入した空間モデル、またはこれらを組み合わせたものであつ てもよい。なお、これらの空間モデルに限定されず、空間モデルは、平面の組み合わ せ、曲面、または平面と曲面を組み合わせたものならば、特に限定されない。また、 三角測定により距離画像を算出する距離画像を取得するステレオセンサー等 (例え ば、特開平 05—265547号公報、特開平 06—266828号公報)から得られたステレオ 視画像に基づいて空間モデルを作成してもよい。
[0169] なお、カメラ 2101からの入力画像を構成するそれぞれの画素のすべてを利用して 空間データを構成する必要はなレ、。たとえば入力画像に水平線により上に位置する 領域が写っている場合は、その水平線より上の領域に含まれる画素を路面にマツピ ングする必要はなレ、。あるいは車体を写している画素をマッピングする必要もない。ま た、入力画像が高解像度な場合などは、数画素毎に飛ばして空間データにマツピン グすることにより処理を高速化することも考えられる。この空間再構成ユニット 2104に っレ、ては、例えば特許文献 1に詳述されてレ、る。
[0170] 空間データバッファ 2105では、空間再構成ユニット 2104にて作成された空間デ ータを一時的に格納する。この空間データバッファ 2105についても、例えば特許文 献 1に詳述されている。
[0171] 視点変換ユニット 2106では、空間データを参照して、任意の視点から見た画像を 作成する。すなわち、空間再構成ユニット 2104によって作成された空間データを参 照して、任意の視点にカメラを設置して撮影した画像を作成する。この視点変換ュニ ット 2106についても、例えば特許文献 1に詳述された構成をとり得る。
[0172] 車両動作検知ユニット 10003では、車両の動作状況を検知する。たとえば、車両が 右折しているカ 左折しているかをハンドルの蛇角で検知したり、ブレーキが掛けられ ているか否を検知したりする。このように、車両の状況を検知するために、車両各部に センサーや計器が取り付けられている。
[0173] 仮想視点設定ユニット 10002では、視点変換ユニット 2106へ送信する仮想視点に 関してのパラメータを設定する。ここでは、車両動作検知ユニット 10003によって検 知された車両の状況に応じて、そのパラメータを設定することができる。
[0174] 表示制御ユニット 10001では、視点変換ユニット 2106で生成した仮想視点画像を 表示ユニット 2107 (例えば、ディスプレイ等)に表示させるために、その表示形態を制 御する。
[0175] 図 20は、本第 3の実施の形態における仮想視点画像の表示フローを示す。
まず、空間再構成ユニット 2104において、カメラ 2101から得られた画像を構成す る各々の画素と、 3次元座標系の点との対応関係を計算し、空間データを作成する( S1801)。この計算は各々のカメラ 2101から得られた画像のすべての画素に対して 実施する。この処理自体については、例えば特許文献 1にも開示された公知の態様 のものを適用できる。
[0176] 次に、上記したように、各種センサー等の車両動作検知ユニット 10003により車両 の動作状況を検知した(S1802)後、仮想視点設定ユニット 10002では、車両動作 検知ユニット 10003によって検知された車両の状況に応じて、仮想視点を設定する( S1803)。
[0177] 次に、視点変換ユニット 2106において、 S1803で指定した視点からの画像を、上 記の空間データから再現する(S 1804)。この処理自体については、例えば特許文 献 1にも開示された公知の態様のものを適用できる。その後、表示制御ユニット 1000 1によって、その再現した画像の表示形態を制御する(S1805)。 S1805の処理に関 しては、後述する。その後、その制御された画像を表示ユニット 2107へ出力し、表示 ユニット 2107にて表示される(S1806)。
[0178] 図 21は、本第 3の実施の形態における運転者の運転動作に基づいて、運転者の 死角を検出する一例を示す。
図 21は、車両 10010が右折するときに検出される死角 10011を表している。車両 10010が右折するとき、内輪差による巻き込み事故防止のため右前のタイヤを確認 する必要がある。
[0179] ところが、この場合、右前ドアやボンネット、インストルメントパネルにより視野が遮断 され、内輪差部分が死角となってしまう。また、このような部分はサイドミラーを介して も死角となる部分である。そこで、本第 3の実施の形態では、運転者の運転動作に基 づいて、このような死角となる部分を検出する。
[0180] 図 21の場合、運転者は車両のハンドルを回転させて右折(または左折)をする。こ の右折 (または左折)動作を車両動作検知ユニット 10003によって検知する(図 20の S1802)。このとき、ハンドルの回転の程度まで検知し、すなわち、時計回りか反時計 回りかやどれくらいの角度、どれくらいの速度、それくらいの加速度で右折ほたは左 折)しているかを検知している。この検知された情報は、仮想視点設定ユニット 1000 2に送信される。仮想視点設定ユニット 10002では、検知された情報に基づいて、運 転者の運転動作を認識し、運転者の死角となる部分 10011が特定される。
[0181] また、運転者の視点の位置は予め取得している。例えば、車内を監視するカメラに より運転者の顔画像を取得し、一般的な画像処理技術によりその顔画像から眼球位 置位置を抽出することで視点を計測することにより視点の位置を取得しても良い。ま た、運転者の姿勢等とを推測してそこからユーザの視点を算出するようにしてもよい。
[0182] 例えば、予め登録してある運転者の身長(又は座高)と、現在のシートの傾斜角度 力 運転者の頭の位置が計測できるので、そこからおおよその運転者の視点の位置 が分かる。また、運転する場合の人間の視点の位置に上限がある(シートからルーフ までの車高の制限)ことから、各人で視点の位置に大差ないと仮定した場合には所 定値 (平均値、統計値等)をデフォルト設定しておいてもよい。このようにして、仮想視 点が得られる。
[0183] そして、 CAD (Computer Aided Design)のデータを利用することにより、この 取得した運転者の視点位置と車両の CADデータから、運転者の視点からの死角領 域が得られ、この死角領域の情報と上記で取得した仮想視点情報(どの方向を向い ているかという情報も含む)が視点変換ユニット 2106に送信される。
[0184] 視点変換ユニット 2106では、受信したそれらの情報に基づいて、その仮想視点か ら見た仮想視点画像が生成される(図 20の S1804)。なお、このとき、死角領域とこ の死角領域周囲の領域とからなる仮想視点画像を生成する(なお、用途によっては、 死角領域のみの仮想視点画像を生成しても良レ、。 )。
[0185] ここで生成した仮想視点画像は、上記のように、死角領域とこの死角領域周囲の領 域とからなつているが、死角領域がこの死角領域周囲の領域と区別されるような態様 で、表示させるようにする。たとえば、死角領域とこの死角領域周囲の領域とを異なる 色で区別するようにしてもょレ、し、死角領域を強調表示させるようにしてもょレ、。
[0186] また、車両動作検知ユニットによる検知された死角情報に基づいて表示する死角 画像の表示形態を切り換えるようにしてもよい。すなわち、検知された情報に応じて 変化する死角の発生傾向に関する情報を得て、当該死角の発生傾向に適合するよ うに 3次元空間における仮想視点を適応的に設定する。例えば、図 22で示すように、 プリセットされた右折モード、左折モード等を、この検知された死角情報に応じて、切 り換えて適用してもよい。
[0187] 図 22は、本第 3の実施の形態における車両の動作状況のモードの一例を示す。 本第 3の実施の形態の動作状況のモードとしては、「右折モード」、「左折モード」、「 発進時周囲監視モード」、「車内監視モード」、「高速走行時モード」、「後方監視モー ド」、「雨天走行モード」、「縦列駐車モード」、「車庫入れモード」がある。それでは、各 モードについて説明する。
[0188] 「右折モード」は、前方と曲がる方向の映像を表示する。具体的にいえば、車両が 右折の場合、前方の映像と右折方向の映像を表示する。 「左折モード」は、前方と曲 がる方向の映像を表示する。具体的にいえば、車両が左折の場合、前方の映像と左 折方向の映像を表示する。
[0189] 「発進時周囲監視モード」は、車両の発進時において、車両の周囲の監視映像を 表示する。「車内監視モード」は、車内の監視映像を表示する。「高速走行時モード」 は、高速走行時において、遠くの前方の映像を表示する。「後方監視モード」は、急 ブレーキをかけられるかどうか、すなわち、急ブレーキをかけて停止できるほど後続車 との距離があるかを確認するための後方の映像が表示される。
[0190] 「雨天走行モード」は、降雨時には視界が悪くなるため、見落としやすい方向が生じ ることがあるので、そのような見落としやすい方向の映像、及び/または画像処理に より水滴除去した映像を表示させるようにする。この見落としやすい方向については、 統計的や経験的で求めた方向でもよいし、ユーザにより任意に設定できるようにして あよい。
[0191] 「縦列駐車モード」は、縦列駐車時において、前方車両と後方車両とに接触しない ように、幅寄せする側の前方と後方の映像が表示される。 「車庫入れモード」は、車庫 入れする場合に車庫の壁面に接触しやすい方向の映像が表示される。
[0192] このように、検知された車両の動作状況からモードが判定され、このモードに対応 する表示形態で仮想視点画像を表示する。
上記のようにして、運転者の死角となる部分の仮想視点画像を運転者に提供するこ とができる。なお、図 21では、右折時の内輪差の生じる部分を死角として求めたが、 これに限られず、例えば、死角は外輪差部分であってよいし、後進時の車両の後方 部分であってもよいし、その他運転動作時に発生するあらゆる死角であってもよい。
[0193] また、このような死角を検出するために、車両の各部分には様々なセンサー(赤外 線、温度、湿度、圧力、照度、機械的な動作を検知するセンサー等)やカメラ(車内用 、車体撮影用)、計測器が取り付けてある(又はタコメータ、スピードメータ、冷却液温 度計、油圧計、燃料残量計、等の既存の計測器を用いても良い)。
[0194] また、死角を表す情報を取得する方法として、上記の方法の他に、例えば、特許文 献 1に記載の発明を利用しても良レ、。すなわち、車両上空からの仮想視点による仮 想視点画像から運転席に着座してレ、る運転者の視点からの仮想視点による仮想視 点画像を差し引いたもの力 当該運転者の死角となる。このようにして、運転者の死 角を表す情報を取得することも可能である。
[0195] なお、本第 3の実施の形態では、図 21の死角 1001 1を例に説明した力 右折時に は例外にも死角は存在する。そこで、車両の所定の動作状況において複数の死角 が存在する場合には、そのうちどの死角部分の仮想視点画像を表示させるかを選択 すること力 Sできる。さらに、この選択した情報は履歴情報として画像生成装置内の記 憶装置に記憶しておくことができる。そして、この履歴情報からユーザの選択頻度が 得られるので、その選択頻度を基に、 自動的にその死角部分についての仮想視点 画像を表示させることができる。また、表示させる仮想視点画像は車両の所定の動作 状況に関係させて予め設定しておくこともできる。
[0196] 以上より、車両の動作状況に対応させて死角となる部分の仮想視点画像を表示さ せること力 Sできるので、当該動作中においてその死角を確認しながら安全に車両を 運転すること力 Sできる。なお、上述したところから理解されるように、本明細書におい て「死角」は、一つには、運転席から、どうやっても(首を回しても或いはミラーを用い る等しても)見えない領域を指す意を持ち、また他意として、限定的に、状況に応じて 「死角なるもの」として求められ (設定され)乃至は運転状況によって複数の上記「死 角」から抽出(選択)されるものである意を持つ。
[0197] <第 4の実施の形態 >
本第 4の実施の形態では、運転者の死角となる障害物に、その障害物がなかった 場合の景観に相当する仮想視点画像を、その障害物表面に設けた表示装置に表示 する。これにより、本第 4の実施の形態では、画像表示装置の設置位置を最適にする ことで、より直感的な表示を実現する。 [0198] 図 23及び図 24は、本第 4の実施の形態における画像生成装置を用いた場合の一 例を説明するための図であり、車内(運転席)からフロントピラー 10021 (ドアと屋根の 間にあって車の強度を支える柱のことであり、フロントガラス 10020とサイドウィンドウ 1 0022の間にある柱 10021をいう)越しに車外にある他の車両 10023を見た場合の 様子を示している。
[0199] 図 23は、本第 4の実施の形態に力、かる画像生成装置を利用しない場合であり、車 両 10023の車体がフロントピラー 10021により遮られ(すなわち死角となっている)、 運転者からはその遮られた部分を見ることができない。
[0200] 図 24は、本第 4の実施の形態に力、かる画像生成装置を利用した場合であり、フロン トビラー 10021aの表面には画像を表示することができるようになつている(例えば、 液晶ディスプレイ、プラズマディスプレイ、もしくは有機 ELディスプレイ等のフラットパ ネルディスプレイ、または電子ペーパーディスプレイ等がフロントピラー 10021に取り 付けてある。)。
[0201] このようにすることで、フロントピラー 10021aに画像を表示することができる。本第 4 の実施の形態では、フロントピラー 10021aに、本来フロントピラー 10021aにより遮ら れ (すなわち死角となっている)、運転者からはその遮られた部分を見ることができな い外部の景観の仮想視点画像を表示する。図 24では、車両 10023の遮られた部分 について、当該部分に相当する仮想視点画像をフロントピラー 10021に表示してい る。
[0202] 図 25は、本第 4の実施の形態における仮想視点画像の表示フローを示す。
まず、空間再構成ユニット 2104において、カメラ 2101から得られた画像を構成す る各々の画素と、 3次元座標系の点との対応関係を計算し、空間データを作成する(
S2301) oこの処理は、図 20の S1801と同様の処理である。
[0203] 次に、仮想視点画像を生成するための仮想視点の指定をする(S2302)。仮想視 点は、運転者の視点を中心として車内の死角となる各部分へ向けての視点方向とす る。これらは、予め固定でセットされていてもよいし、乗車者が乗車する度にセットする ようにしてもよい。
[0204] 次に、視点変換ユニット 2106において、 S2302で指定された仮想視点から見た仮 想視点画像を生成する(S2303)。この処理は、図 20の S1804と同様の処理である 。このとき、当該車両に関する情報を除いて、景観についての仮想視点画像を作成 する。
[0205] 次に、表示制御ユニット 10001により、 S2303で生成した仮想視点画像のうち、死 角となる部分によって遮られている景観に対応する画像部分の抽出する(S2304)。 図 24でいえば、生成した仮想視点画像からフロントピラー 10021aに表示させる部分 のみの画像を抽出する。このとき、表示ユニットとして用いる障害物の大きさ、位置、 形状等は予め画像生成装置 10000内の記憶装置に登録させているので、それらの 情報を基に仮想視点画像から抽出対象となる部分の画像を抽出する。
[0206] なお、 S2304において、上記の抽出処理以外にも次の処理が考えられる。例えば 、自車両に関する情報を考慮しないで生成した仮想視点画像 (すなわち、 自車両に 関するパラメータも考慮して生成した仮想視点画像)と、 自車両に関する情報を考慮 して生成した仮想視点画像とを算出し、この 2つの仮想視点画像の差分を求めること で死角領域が得られる。したがって、この差分の領域の画像が表示ユニットに表示さ せる画像となる。
[0207] 次に、その抽出した画像を表示装置 2107に表示させる。図 24でいえば、フロントピ ラー 10021aに抽出した画像を表示させる(S2305)。
以上より、死角となる部分に、本来その部分によって遮られたその向こう側の景観を その部分に表示させることができるので、あた力もその部分かシースルーのようにして 見える。また、表示させる死角部分としては、上記では、一例としてフロントピラーを用 いたが、これに限られず、たとえば、ヘッドレストやインストルメントパネル、シート等の 車内にあるあらゆるもの(運転者の死角となるもの)に表示装置 (例えば、液晶ディス プレイ、プラズマディスプレイ、有機 ELディスプレイ、電子ペーパーディスプレイ等)を 取り付けることができる。
[0208] <第 5の実施の形態 >
本第 5の実施の形態では、表示ユニットをノレームミラーと見立てて、仮にこのルーム ミラーに反射されたとしたら表示される像に対応する仮想視点画像を表示する。この とき、第 4の実施の形態と同様に、この表示ユニットには、死角となる部分に本来その 部分によって遮られたその向こう側の景観をその部分に表示させる。これにより、画 像表示装置の設置位置を最適にすることで、より直感的な表示を実現する。
[0209] 図 26は、本第 5の実施の形態における画像生成装置 10000を示す。
図 26において、画像生成装置 10000は、複数台のカメラ 2101、カメラパラメータテ ーブノレ 2103、空間再構成ユニット 2104、空間データバッファ 2105、視点変換ュニ ッ卜 2106、表示ユニット 2107、表示制 ί卸ユニット 10001、視点検知ュニッ卜 10030力 ら構成される。視点検知ユニット 10030以外は、図 19と同様である。
[0210] 上述したように、本第 5の実施の形態では、表示ユニット 2107をミラーのようにして 用いることができる。すなわち、このミラーと見立てた表示ユニットには、この表示ュニ ットを見たとき、運転者の目に入る表示画像はあた力もミラーにより反射された像であ るかのような画像を表示させる必要がある。
[0211] そこで、表示ユニット 2107の設置位置に対する運転者の視点の相対的な位置を決 定する必要がある。そこで、本第 5の実施の形態では、表示ユニット 2107の設置位 置に対する運転者の視点の相対的な位置を検出するために、視点検知ユニット 100 30を用いる。視点検知ユニット 10030は、第 3の実施の形態と同様に、例えば、車内 を監視するカメラにより運転者の顔画像を取得し、一般的な画像処理技術によりその 顔画像から眼球位置位置を抽出することで視点を計測することにより視点の位置を 取得してもよいし、また、運転者の姿勢等とを推測してそこからユーザの視点を算出 するようにしてもょレ、し、予め仮想視点の位置を設定してぉレ、てもよレ、。
[0212] これにより、運転者の視点の位置及び視線の方向を検知することができる。また、表 示ユニット 2107の車両に対する設置角度等も予め設定されている。したがって、これ らの情報より、運転者が表示ユニット 2107を見た場合に、表示表示 2107の表示面 に対する運転者の視線の入射角が算出され、その結果、反射角が得られる。
[0213] それで、表示ユニット 2107に表示する画像は、その反射角で反射された方向の景 観の仮想視点画像を表示するようにする。ここで、生成される仮想視点画像は、 自車 両に関する情報(車載の物品、シート、フロントピラー、リアピラ一等)を考慮しないで 生成される画像であり、表示ユニットに表示されるときには左右反転される。
[0214] このとき、本来死角となって見通し不能な景観に対応する仮想視点画像と、元々死 角でない景観とを区別できるように、例えば、死角となって見通し不能な景観をワイヤ 一フレームで表示させてもよいし、他の部分と異なる色で区別するようにしてもよいし 、強調表示させるようにしてもよい。
[0215] このように本来死角となって見通し不能な景観の仮想視点画像とそうでない景観の 仮想視点画像とを区別するにあたって、第 3の実施の形態と同様に CADデータを用 いる。すなわち、運転者の視点からの死角領域に関する情報が得られ、この死角領 域に相当する部分が例えばワイヤーフレームで表示される。
[0216] また、 CADデータを用いない方法として、 自車両に関する情報を考慮しないで生 成した仮想視点画像と、 自車両に関する情報を考慮して生成した仮想視点画像とを 算出し、この 2つの仮想視点画像の差分を求めることで死角領域が得られる。そして 、この死角領域の情報に基づいてその死角となって本来見ることができない景観に 対応する部分を、例えばワイヤーフレーム等で表示させる。
[0217] また、表示ユニットに表示される画像は、死角となる部分がシースルー(透けて見え る)となるように、死角部分を取り除いた仮想視点画像を表示する。すなわち、車両内 にあって運転者の死角を生じさせる部位に設置されている表示ユニットに、死角とな つて見通し不能な景観に対応する前記仮想視点画像を表示させる。この例を図 27 及び図 28に示す。
[0218] 図 27及び図 28は、本第 5の実施の形態における表示ユニットに表示される画像の 表示形態を示す。
図 27は、通常のルームミラー 10040に表示されるリアウィンド 10041方向の景観( 後続車両 10042)を示す。通常のルームミラー 10040に表示される反射像は、図 27 に示すように、助手席 10044やリアシート 10045、リアウィンド枠 10043力 Sあるため、 これらがルームミラー越しに後方を見ている運転者にとって死角となっているため、こ の死角の向こう側の景観(図 27でいえば、後続車両 10042の下部及び右フロント部 分)は見通し不能となっている。
[0219] 図 28は、本発明を用いて、通常のルームミラーに表示されるようにリアウィンド方向 の景観を表示ユニット 10046に表示させ、かつ、運転者の死角となって見通し不能 な景観に対応する前記仮想視点画像を表示させた様子を示す。図 28では、図 27で 示した助手席 10044やリアシート 10045、リアウィンド枠 10043のために生じる死角 のため、見ることができな力 た後続車両 10042の下部及び右フロント部分の視野 が充足されるように表示されている。
[0220] また、どこか死角に相当するかを示すために、死角となって見通し不能な景観に対 応する部分と、そうでない部分とを区別することができるような表示形態となっている。 この表示形態は、例えば、図 28に示すように、死角となって見通し不能な景観をワイ ヤーフレームで表示させてもょレ、し、他の部分と異なる色で区別するようにしてもょレヽ し、強調表示させるようにしてもよい。
[0221] なお、本第 5の実施の形態で用いる表示ユニットは、通常のルームミラーとしても機 能できるように、ディスプレイの表面にハーフミラーを取り付けたような構造をしていて もよレ、。また、この表示ユニットに表示される画像を歪めて、広視野の画像を表示させ るようにしても良レ、。すなわち、凸面ミラー効果を持たせるようにしてもよい。
[0222] さらに、表示ユニットについて詳述すると、ルームミラーをハーフミラーで構成し、そ の背面にフラットパネルディスプレイを配置し、さらに視点位置検出ユニットにより、運 転者の視点位置を検出し、視点とハーフミラーの関係からハーフミラー裏から表示す るナビゲーシヨン用の重畳画像を表示するようにしてもよい。
[0223] また、サイドウィンドウの一部に上記の表示ユニット(例えば、液晶ディスプレイ、ブラ ズマディスプレイ、有機 ELディスプレイ、電子ペーパーディスプレイ等)を設けても良 レ、。これにより、ドアミラーで確認していた後方の様子を当該表示ユニットに後方の仮 想視点画像を表示させることで、後方の様子を確認することができる。
[0224] また、サイドミラーに表示される像よりも大きい画像で表示させることができるので、 後方の様子をより詳細に確認することができる。このため、サイドミラーが不要となり、 例えば駐車スペースの省スペース化が図れる。また、細い通路での対向車との離合 時にも、対向車のサイドミラーと自車両のサイドミラーとが接触する心配がない。
[0225] また、図 22で示したように、車両の動作状況モードに応じて、表示ユニットに表示す る表示形態を切り換えるようにしてもよい。また、例えば、パン、チルト、ズーム等の機 能を用いて、視点変動に追従できるようにしてもよい。また、左右方向が視野に入り やすレ、ように、横のアスペクトを縮めて表示させるようにしてもょレ、。 [0226] 以上より、ディスプレイをルームミラーと同様の効果をもたせ、さらに本来死角となつ て見通し不能な景観に対応する仮想視点画像を表示させることができる。また、視点 検知ユニットによりミラーに表示する視点を演算して、 自然なミラー画像 (ミラーに表示 される反射像)を死角部分の補間表示を含めて、このディスプレイに表示させることが できる。
[0227] また、本来死角部分に相当する部分の表示には、当該死角部分の輪郭をワイヤフ レーム等で表示することにより、実際には運転者には直接見えていない部分の画像 であることを認識させること力できる。また、このディスプレイは運転者に適した視野角 を持たせることで、パッセンジャーなどが非直感的な画像を見ないようにする。さらに 、仮想視点は運転席からの視点を設定し、運転者の視点に連動した仮想視点を設 定する。
[0228] <第 6の実施の形態 >
第 3乃至第 5の実施の形態では、車両を中心に説明したが、車両に限らず、さらに 、幅広い分野に適用することができる。そこで、本第 6の実施の形態では、本発明を 車両以外に応用した一例を以下に示す。
[0229] 本第 6の実施の形態における一例としては、例えば、観察者が屋内、街路などを歩 行している人であり、撮像装置配置物体が屋内、屋外、部屋のインテリア、他の移動 体 (車両、ロボット)であるような監視システムでもよい。また、ドアの開閉状態によって 生じてレ、る死角のチェック、家電品や家具の扉の状態などで生じてレ、る死角のチエツ ク、もしくは人物の後方の死角のチェックにも応用することができる。
[0230] 図 29及び図 30は、本第 6の実施の形態における画像生成装置を HMD (ヘッドマ ゥントディスプレイ)に適用した場合の一例を示す。
図 29及び図 30の斜線咅分 10054, 10055, 10056fま、死角である。図 29fま、き ^ 屋 10050にあるドア 10052及び冷蔵庫 10053の戸が閉じた状態を示す。図 30は、 部屋 10050にあるドア 10052及び冷蔵庫 10053の戸が開いた状態を示す。
[0231] この場合、観察者である人物 10051は例えば HMDなどを装着しており仮想視点 画像を観察できると共に、撮像装置配置物体 (ここでは部屋 10050とすると)のカメラ によって捉えられた観察者自らの位置、姿勢、方向が計測されている(この部分は観 察者である人物に装着する GPSやジャイロセンサー、カメラ装置、人物の視線検出 装置などでも計測することができる。)。
[0232] これらの情報から、どの部分を人物が直接観察できるようになつていて、どの部分が 見えないかを算出することができるようになつている。これにより人物は自らの死角範 囲、例えば、死角 10054, 10055, 10056を HMDなどに表示された仮想視点画像 上で把握することができ、 自らに対する脅威、例えば物陰に潜む不審者、犬、車両、 蓋の開いたマンホールや溝などを認知することができる。
[0233] さて、第 3乃至第 6の実施の形態において、仮想視点画像を作成するのにカメラ 21 01を使用している力 これらのカメラには AF (オートフォーカス)機能を持たせてもよ レ、。これにより、ステレオ視により近接している場合は、近距離側にレンズのフォー力 スを調整するようにする。まり、一般にマクロモードと呼ばれる撮影対象に近接した位 置で大きく撮影する場合のモードに調整する。このようにすることで、 3次元再構成用 にフォーカスのあった画像が近距離において得られる。
[0234] また、遠距離にある被写体を撮影する場合には、 AF機能により当該被写体にフォ 一カスを合わせることで遠距離画像についても同様に、高精度の画像が得られ、遠 距離の精度向上につながる。
[0235] 図 31は、第 3乃至第 6の実施の形態における画像生成装置 10000のハードウェア 環境の構成ブロック図である。図 31において画像生成装置 10000は、少なくとも、例 えば、中央処理装置(CPU)等の制御装置 10080と、リードオンリメモリ(ROM)、ラ ンダムアクセスメモリ(RAM)、または大容量記憶装置等の記憶装置 10081と、出力 I /F (インターフェース、以下同じ) 10082、入力 I/F10083、通信 I/F10084及び これらを接続するバス 10085から構成され、それに、ディスプレイ等の出力ユニット 2 107や、入力 I/Fまたは通信 IZFに接続される各種の装置がある。
[0236] 入力 I/Fに接続される装置としては、例えば、カメラ 2101、車内用カメラ、ステレオ センサー及び各種センサー、キーボードやマウス等の入力装置、 CD—ROMや DV D等の可搬型記憶媒体の読み取り装置、その他周辺機器等が挙げられる。
[0237] 通信 I/F10084に接続される装置としては、例えば、カーナビゲーシヨンシステム や、インターネット又は GPSと接続する通信機器である。なお、通信メディアとしては 、インターネット、 LAN, WAN,専用線、有線、無線等の通信網であってよい。
[0238] 記憶装置 10081の一例としてはハードディスク、磁気ディスクなど様々な形式の記 憶装置を使用することができ、上記の第 3乃至第 6の実施の形態で述べたフローのプ ログラム、各種テーブル (例えば、各種設定値が格納されるテーブル等)、 CADデー タ等が格納されている。このプログラムは、制御装置 10080によって読み込まれ、フ ローの各処理が実行される。
[0239] このプログラムは、プログラム提供者側から通信 I/F10084を介して、インターネッ ト経由で提供され、記憶装置 10081に格納されてもよいし、また市販され、流通して いる可搬型記憶媒体に格納され、読み取り装置にセットされて、制御装置によって実 行されることも可能である。可搬型記憶媒体としては CD— R〇M、 DVD,フレキシブ ルディスク、光ディスク、光磁気ディスク、 ICカードなど様々な形式の記憶媒体を使用 することができ、このような記憶媒体に格納されたプログラムが読み取り装置によって 読み取られる。
[0240] また、入力装置には、キーボード、マウス、または電子カメラ、マイク、スキャナ、セン サー、タブレットなどを用いることが可能である。さらに、その他の周辺機器も接続す ること力 Sできる。
[0241] なお、上述した第 3乃至第 6の実施の形態において、複数の撮像装置は、それらに よって、いわゆる 3眼ステレオカメラを構成するように用いても、あるいは 4眼ステレオ カメラを構成するように用いてもょレ、。このように 3眼あるいは 4眼ステレオカメラを用い ると、 3次元再構成処理などにおいて、より信頼度が高ぐ安定した処理結果が得ら れることが知られている(例えば、富田文明, 「高機能 3次元視覚システム」,情報処 理,情報処理学会発行,第 42卷,第 4号)。特に複数カメラを 2方向の基線長を持つ ように配置すると、より複雑なシーンで 3次元再構成が可能になることが知られている 。また 1つの基線長方向にカメラを複数台配置するといわゆるマルチベースライン方 式のステレオカメラを実現することが可能となり、より高精度のステレオ計測が可能と なる。
[0242] 本発明によれば、仮想視点画像の表示に係るユーザインターフェースについて、さ らに利便性を高めるための技術を具現させることができる。

Claims

請求の範囲
[1] 撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像手段と、 前記撮像手段によって撮像された撮像画像を空間モデルにマッピングする空間再 構成手段と、
前記空間再構成手段によってマッピングされた空間データに基づいて、 3次元空間 における任意の仮想視点から見た視点変換画像データを生成する視点変換手段と 前記視点変換手段によって生成された視点変換画像データに基づいて、前記 3次 元空間における任意の仮想視点から見た画像を表示する表示手段と、
を備えた画像生成装置にぉレ、て、
前記視点変換手段によって生成された視点変換画像データ、前記撮像画像を表 わす撮像画像データ、前記空間モデル、および前記マッピングされた空間データの 何れかに基づいて、当該撮像手段配置物体のモデルである撮像装置配置物体モデ ノレと前記空間モデルとの距離を算出する距離算出手段をさらに備え、
前記表示手段は、前記距離算出手段によって算出した距離に応じて、前記画像の 表示形態を異ならせて表示することを特徴とする画像生成装置。
[2] 前記表示手段は、前記距離算出手段によって算出した距離が所定値以上の場合 、前記画像を一体化した背景モデルとして表示することを特徴とする請求項 1に記載 の画像生成装置。
[3] 前記表示手段は、表示する画像中に前記距離算出手段によって算出した距離が 所定値以上の部分が含まれている場合、前記画像の当該部分をぼかして表示する ことを特徴とする請求項 1に記載の画像生成装置。
[4] 撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像手段と、 前記撮像手段によって撮像された撮像画像を空間モデルにマッピングする空間再 構成手段と、
前記空間再構成手段によってマッピングされた空間データに基づいて、 3次元空間 における任意の仮想視点から見た視点変換画像データを生成する視点変換手段と 前記視点変換手段によって生成された視点変換画像データに基づいて、前記 3次 元空間における任意の仮想視点から見た画像を表示する表示手段と、
を備えた画像生成装置にぉレ、て、
異なる時刻に対応した、前記視点変換手段によって生成された 2時刻における視 点変換画像データ、前記撮像画像を表わす撮像画像データ、前記空間モデル、お よび前記マッピングされた空間データの何れかに基づいて、当該撮像手段配置物体 のモデルである撮像装置配置物体モデルと前記空間モデルとの相対速度を算出す る相対速度算出手段をさらに備え、
前記表示手段は、前記相対速度算出手段によって算出した相対速度に応じて、前 記画像の表示形態を異ならせて表示することを特徴とする画像生成装置。
[5] 撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像手段と、 前記撮像手段によって撮像された撮像画像を空間モデルにマッピングする空間再 構成手段と、
前記空間再構成手段によってマッピングされた空間データに基づいて、 3次元空間 における任意の仮想視点から見た視点変換画像データを生成する視点変換手段と 前記視点変換手段によって生成された視点変換画像データに基づいて、前記 3次 元空間における任意の仮想視点から見た画像を表示する表示手段と、
を備えた画像生成装置にぉレ、て、
異なる時刻に対応した、前記視点変換手段によって生成された視点変換画像デー タ、前記撮像画像を表わす撮像画像データ、前記空間モデル、および前記マツピン グされた空間データの何れかに基づいて当該撮像手段配置物体のモデルである撮 像装置配置物体モデルと前記空間モデルとが衝突する可能性を算出する衝突可能 性算出手段をさらに備え、
前記表示手段は、前記衝突可能性算出手段によって算出した衝突可能性に応じ て、前記画像の表示形態を異ならせて表示することを特徴とする画像生成装置。
[6] 前記表示手段は、前記衝突可能性算出手段によって算出した衝突可能性が所定 値以下の場合、前記画像を一体化した背景モデルとして表示することを特徴とする 請求項 5に記載の画像生成装置。
[7] 前記表示手段は、前記衝突可能性算出手段によって算出した衝突可能性が所定 値以下の場合、前記画像をぼかして表示することを特徴とする請求項 5に記載の画 像生成装置。
[8] 前記表示手段は、当該表示形態として色によって表示情報の意味が認識されるよ うな形態をとりうるように構成されたものであることを特徴とする請求項 1に記載の画像 生成装置。
[9] 前記表示手段は、前記距離算出手段によって算出された距離に応じて表示に係る 色の色相又は彩度若しくは明度のうちの少なくとも一のものを異ならせて表示するよ うな形態を取り得るように構成されたものであることを特徴とする請求項 1に記載の画 像生成装置。
[10] 前記表示手段は、前記距離算出手段によって算出された距離がその値に応じて区 分された複数の階層のうちの何れの階層に該当するかに応じて表示に係る色の色相 又は彩度若しくは明度のうちの少なくとも一のものを異ならせて表示するような形態を 取り得るように構成されたものであることを特徴とする請求項 11項に記載の画像生成 装置。
[11] 前記撮像手段は、車両に取り付けられたことを特徴とする請求項 1に記載の画像生 成装置。
[12] 撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置によつ て撮像された撮像画像を空間モデルにマッピングし、
前記マッピングされた空間データに基づレ、て、 3次元空間における任意の仮想視 点から見た視点変換画像データを生成し、
前記生成された視点変換画像データに基づいて、前記 3次元空間における任意の 仮想視点から見た画像を表示する、コンピュータが実行する画像生成方法であって 前記生成された視点変換画像データ、前記撮像画像を表わす撮像画像データ、 前記空間モデル、および前記マッピングされた空間データの何れかに基づレ、て当該 撮像手段配置物体のモデルである撮像装置配置物体モデルと前記空間モデルとの 距離をさらに算出し、
前記表示は、前記算出した距離に応じて、前記画像の表示形態を異ならせて表示 することを特徴とする画像生成方法。
[13] 撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置によつ て撮像された撮像画像を空間モデルにマッピングし、
前記マッピングされた空間データに基づいて、 3次元空間における任意の仮想視 点から見た視点変換画像データを生成し、
前記生成された視点変換画像データに基づいて、前記 3次元空間における任意の 仮想視点から見た画像を表示する、コンピュータが実行する画像生成方法であって 前記生成された異なる時刻に対応した、視点変換画像データ、前記撮像画像を表 わす撮像画像データ、前記空間モデル、および前記マッピングされた空間データの 何れかに基づいて当該撮像手段配置物体のモデルである撮像装置配置物体モデ ルと前記空間モデルとの相対速度をさらに算出し、
前記表示は、前記算出した相対速度に応じて、前記画像の表示形態を異ならせて 表示することを特徴とする画像生成方法。
[14] 撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置によつ て撮像された撮像画像を空間モデルにマッピングし、
前記マッピングされた空間データに基づレ、て、 3次元空間における任意の仮想視 点から見た視点変換画像データを生成し、
前記生成された視点変換画像データに基づいて、前記 3次元空間における任意の 仮想視点から見た画像を表示する、コンピュータが実行する画像生成方法であって 前記生成された異なる時刻に対応した、視点変換画像データ、前記撮像画像を表わ す撮像画像データ、前記空間モデル、および前記マッピングされた空間データの何 れかに基づいて当該撮像手段配置物体のモデルである撮像装置配置物体モデルと 前記空間モデルとが衝突する可能性をさらに算出し、
前記表示は、前記算出した衝突する可能性に応じて、前記画像の表示形態を異な らせて表示することを特徴とする画像生成方法。
[15] コンピュータに対して、
撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置によつ て撮像された撮像画像を空間モデルにマッピングする手順と、
前記マッピングされた空間データに基づいて、 3次元空間における任意の仮想視 点から見た視点変換画像データを生成する手順と、
前記生成された視点変換画像データに基づいて、前記 3次元空間における任意の 仮想視点から見た画像を表示する手順と、
を実行させるための画像生成プログラムであって、
前記生成された視点変換画像データ、前記撮像画像を表わす撮像画像データ、 前記空間モデル、および前記マッピングされた空間データの何れかに基づレ、て当該 撮像手段配置物体のモデルである撮像装置配置物体モデルと前記空間モデルとの 距離を算出する手順をさらに備え、
前記表示する手順は、前記算出した距離に応じて、前記画像の表示形態を異なら せて表示することを特徴とする画像生成プログラム。
[16] コンピュータに対して、
撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置によつ て撮像された撮像画像を空間モデルにマッピングする手順と、
前記マッピングされた空間データに基づレ、て、 3次元空間における任意の仮想視 点から見た視点変換画像データを生成する手順と、
前記生成された視点変換画像データに基づいて、前記 3次元空間における任意の 仮想視点から見た画像を表示する手順と、
を実行させるための画像生成プログラムであって、
前記生成された異なる時刻に対応した、視点変換画像データ、前記撮像画像を表 わす撮像画像データ、前記空間モデル、および前記マッピングされた空間データの 何れかに基づいて当該撮像手段配置物体のモデルである撮像装置配置物体モデ ノレと前記空間モデルとの相対速度を算出する手順をさらに備え、
前記表示は、前記算出した相対速度に応じて、前記画像の表示形態を異ならせて 表示することを特徴とする画像生成プログラム。
[17] コンピュータに対して、
撮像手段配置物体に取り付けられ画像を撮像する 1または複数の撮像装置によつ て撮像された撮像画像を空間モデルにマッピングする手順と、
前記マッピングされた空間データに基づいて、 3次元空間における任意の仮想視 点から見た視点変換画像データを生成する手順と、
前記生成された視点変換画像データに基づいて、前記 3次元空間における任意の 仮想視点から見た画像を表示する手順と、
を実行させるための画像生成プログラムであって、
前記生成された異なる時刻に対応した、視点変換画像データ、前記撮像画像を表 わす撮像画像データ、前記空間モデル、および前記マッピングされた空間データの 何れかに基づいて当該撮像手段配置物体のモデルである撮像装置配置物体モデ ノレと前記空間との衝突する可能性をさらに算出する手順をさらに備え、
前記表示は、前記算出した衝突可能性応じて、前記画像の表示形態を異ならせて 表示することを特徴とする画像生成プログラム。
[18] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成手段と、
前記車両の動作状況を検知する車両動作検知手段と、
前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示 す死角情報を取得し、該死角情報に基づレ、て 3次元空間における仮想視点を設定 する仮想視点設定手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、前記 3次元 空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換 手段と、
前記仮想視点画像の表示形態を制御する表示制御手段と、
を備えることを特徴とする画像生成装置。
[19] 前記表示制御手段は、前記死角となる箇所と該箇所周囲の画像とを含む仮想視点 画像中で、当該死角となる箇所が他の箇所とは区別され得るように表示を制御するよ うに構成されたものであることを特徴とする請求項 18に記載の画像生成装置。
[20] 前記表示制御手段は、当該死角となる箇所を他の箇所とは異なる発色によって区 分するように前記仮想視点画像の表示を制御するように構成されたものであることを 特徴とする請求項 18に記載の画像生成装置。
[21] 前記仮想視点設定手段は、当該死角情報として、前記車両に対する操作に応じて 変化する死角の発生傾向に関する情報を得て、当該死角の発生傾向に適合するよ うに前記 3次元空間における仮想視点を適応的に設定するように構成されたもので あることを特徴とする請求項 18に記載の画像生成装置。
[22] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手 段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を 生じさせる部位に設置されている前記表示手段に、該死角となって見通し不能な景 観に対応する前記仮想視点画像を表示させる表示制御手段と、
を備えることを特徴とする画像生成装置。
[23] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手 段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表形態を制御して、乗車者が前記表示手段を見た場合に、 該表示手段によって仮想的に反射された方向の前記仮想視点の前記仮想視野画 像であって、かつ前記乗車者の死角となって見通し不能な部分が生じないように充 足された該仮想視点画像を表示する表示手段と、 を備えることを特徴とする画像生成装置。
[24] 前記表示制御手段により表示される前記仮想視点画像は、前記死角となって見通 し不能な部分が生じないように充足された部分に対応する領域を強調して表示させ ることを特徴とする請求項 21に記載の画像生成装置。
[25] 前記表示制御手段は、前記仮想視野画像を歪曲して広視野で前記表示手段に表 示させることを特徴とする請求項 21に記載の画像生成装置。
[26] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成処理と、
前記車両の動作状況を検知する車両動作検知処理と、
前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示 す死角情報を取得し、該死角情報に基づいて 3次元空間における仮想視点を設定 する仮想視点設定処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、前記 3次元 空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換 処理と、
前記仮想視点画像を表示する表示処理と、
をコンピュータに実行させるための画像生成プログラム。
[27] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処 理と、
前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を 生じさせる部位に設置されてレ、る表示装置に、該死角となって見通し不能な景観に 対応する前記仮想視点画像を表示させる表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
[28] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成処理と、 前記空間再構成処理によってマッピングされた空間データを参照して 3次元空間に おける任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処理 と、
前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場合に、該表 示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であ つて、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された 該仮想視点画像を表示する表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
[29] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成工程と、
前記車両の動作状況を検知する車両動作検知工程と、
前記検知の結果に基づいて、前記車両に乗車する乗車者の死角となる箇所を示 す死角情報を取得し、該死角情報に基づレ、て 3次元空間における仮想視点を設定 する仮想視点設定工程と、
前記空間再構成工程によってマッピングされた空間データを参照して、前記 3次元 空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換 工程と、
前記仮想視点画像を表示する表示工程と、
を行うことを特徴とする画像生成方法。
[30] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成工程と、
前記空間再構成処理によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換ェ 程と、
前記仮想視点画像の表示形態を制御して、前記車両内にあって乗車者の死角を 生じさせる部位に設置されてレ、る表示装置に、該死角となって見通し不能な景観に 対応する前記仮想視点画像を表示させる表示制御工程と、
を行うことを特徴とする画像生成方法。
[31] 車両に取り付けられた 1または複数のカメラからの入力画像を空間モデルにマツピ ングする空間再構成工程と、
前記空間再構成工程によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換ェ 程と、
前記仮想視点画像の表形態を制御して、乗車者が表示装置を見た場合に、該表 示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であ つて、かつ前記乗車者の死角となって見通し不能な部分が生じないように充足された 該仮想視点画像を表示する表示制御工程と、
を行うことを特徴とする画像生成方法。
[32] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成手段と、
前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知手段 と、
前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角と なる箇所を示す死角情報を取得し、該死角情報に基づいて 3次元空間における仮想 視点を設定する仮想視点設定手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、前記 3次元 空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換 手段と、
前記仮想視点画像の表示形態を制御する表示制御手段と、
を備えることを特徴とする画像生成装置。
[33] 前記表示制御手段は、前記死角となる箇所と該箇所周囲の画像とを含む仮想視点 画像中で、当該死角となる箇所が他の箇所とは区別され得るように表示を制御するよ うに構成されたものであることを特徴とする請求項 32に記載の画像生成装置。
[34] 前記表示制御手段は、当該死角となる箇所を他の箇所とは異なる発色によって区 分するように前記仮想視点画像の表示を制御するように構成されたものであることを 特徴とする請求項 32に記載の画像生成装置。
[35] 前記仮想視点設定手段は、当該死角情報として、前記撮像手段配置物体に対す る操作に応じて変化する死角の発生傾向に関する情報を得て、当該死角の発生傾 向に適合するように前記 3次元空間における仮想視点を適応的に設定するように構 成されたものであることを特徴とする請求項 18に記載の画像生成装置。
[36] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手 段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観 察者の死角を生じさせる部位に設置されてレ、る前記表示手段に、該死角となって見 通し不能な景観に対応する前記仮想視点画像を表示させる表示制御手段と、 を備えることを特徴とする画像生成装置。
[37] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成手段と、
前記空間再構成手段によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換手 段と、
前記仮想視点画像を表示する表示手段と、
前記仮想視点画像の表形態を制御して、観察者が前記表示手段を見た場合に、 該表示手段によって仮想的に反射された方向の前記仮想視点の前記仮想視野画 像であって、かつ前記観察者の死角となって見通し不能な部分が生じないように充 足された該仮想視点画像を表示する表示手段と、
を備えることを特徴とする画像生成装置。
[38] 前記表示制御手段により表示される前記仮想視点画像は、前記死角となって見通 し不能な部分が生じないように充足された部分に対応する領域を強調して表示させ ることを特徴とする請求項 37に記載の画像生成装置。
[39] 前記表示制御手段は、前記仮想視野画像を歪曲して広視野で前記表示手段に表 示させることを特徴とする請求項 37に記載の画像生成装置。
[40] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成処理と、
前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知処理 と、
前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角と なる箇所を示す死角情報を取得し、該死角情報に基づいて前記 3次元空間における 仮想視点を設定する仮想視点設定処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、 3次元空間 における前記仮想視点から見た画像である仮想視点画像を作成する視点変換処理 と、
前記仮想視点画像を表示する表示処理と、
をコンピュータに実行させるための画像生成プログラム。
[41] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処 理と、
前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観 察者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し 不能な景観に対応する前記仮想視点画像を表示させる表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
[42] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成処理と、
前記空間再構成処理によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換処 理と、 前記仮想視点画像の表形態を制御して、観察者が表示装置を見た場合に、該表 示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であ つて、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された 該仮想視点画像を表示する表示制御処理と、
をコンピュータに実行させるための画像生成プログラム。
[43] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成工程と、
前記撮像手段配置物体の動作状況を検知する撮像手段配置物体動作検知工程 と、
前記検知の結果に基づいて、前記撮像手段配置物体を操作する観察者の死角と なる箇所を示す死角情報を取得し、該死角情報に基づいて 3次元空間における仮想 視点を設定する仮想視点設定工程と、
前記空間再構成工程によってマッピングされた空間データを参照して、前記 3次元 空間における前記仮想視点から見た画像である仮想視点画像を作成する視点変換 工程と、
前記仮想視点画像を表示する表示工程と、
を行うことを特徴とする画像生成方法。
[44] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成工程と、
前記空間再構成処理によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換ェ 程と、
前記仮想視点画像の表示形態を制御して、前記撮像手段配置物体内にあって観 察者の死角を生じさせる部位に設置されている表示装置に、該死角となって見通し 不能な景観に対応する前記仮想視点画像を表示させる表示制御工程と、
を行うことを特徴とする画像生成方法。
[45] 撮像手段配置物体に取り付けられた 1または複数のカメラからの入力画像を空間モ デルにマッピングする空間再構成工程と、 前記空間再構成工程によってマッピングされた空間データを参照して、 3次元空間 における任意の仮想視点から見た画像である仮想視点画像を作成する視点変換ェ 程と、
前記仮想視点画像の表形態を制御して、観察者が表示装置を見た場合に、該表 示装置によって仮想的に反射された方向の前記仮想視点の前記仮想視野画像であ つて、かつ前記観察者の死角となって見通し不能な部分が生じないように充足された 該仮想視点画像を表示する表示制御工程と、
を行うことを特徴とする画像生成方法。
PCT/JP2005/002976 2004-03-11 2005-02-24 画像生成装置、画像生成方法、および画像生成プログラム WO2005088970A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/519,080 US20070003162A1 (en) 2004-03-11 2006-09-11 Image generation device, image generation method, and image generation program
US12/617,267 US20100054580A1 (en) 2004-03-11 2009-11-12 Image generation device, image generation method, and image generation program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-069237 2004-03-11
JP2004069237A JP2005258792A (ja) 2004-03-11 2004-03-11 画像生成装置、画像生成方法、および画像生成プログラム
JP2004-075951 2004-03-17
JP2004075951A JP2005269010A (ja) 2004-03-17 2004-03-17 画像生成装置、画像生成プログラム、及び画像生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/519,080 Continuation US20070003162A1 (en) 2004-03-11 2006-09-11 Image generation device, image generation method, and image generation program

Publications (1)

Publication Number Publication Date
WO2005088970A1 true WO2005088970A1 (ja) 2005-09-22

Family

ID=34975975

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/002976 WO2005088970A1 (ja) 2004-03-11 2005-02-24 画像生成装置、画像生成方法、および画像生成プログラム

Country Status (2)

Country Link
US (2) US20070003162A1 (ja)
WO (1) WO2005088970A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
WO2009119110A1 (ja) * 2008-03-27 2009-10-01 パナソニック株式会社 死角表示装置
CN102187367A (zh) * 2008-10-20 2011-09-14 本田技研工业株式会社 车辆周围监测装置
JP2015018438A (ja) * 2013-07-11 2015-01-29 株式会社デンソー 走行支援装置
WO2017085857A1 (ja) * 2015-11-20 2017-05-26 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
JP2019208212A (ja) * 2019-06-14 2019-12-05 株式会社エイチアイ 移動体用画像生成記録表示装置及びプログラム
CN111710189A (zh) * 2014-12-01 2020-09-25 星克跃尔株式会社 电子装置的控制方法、电子装置以及记录介质
US10896542B2 (en) 2017-10-02 2021-01-19 Candera Japan Inc. Moving body image generation recording display device and program product
CN113302661A (zh) * 2019-01-10 2021-08-24 三菱电机株式会社 信息显示控制装置及方法、以及程序及记录介质

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101512617B (zh) * 2006-09-04 2012-02-01 松下电器产业株式会社 行驶信息提供装置
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
US8760391B2 (en) * 2009-05-22 2014-06-24 Robert W. Hawkins Input cueing emersion system and method
US8310523B2 (en) * 2009-08-27 2012-11-13 Sony Corporation Plug-in to enable CAD software not having greater than 180 degree capability to present image from camera of more than 180 degrees
US8606316B2 (en) * 2009-10-21 2013-12-10 Xerox Corporation Portable blind aid device
US8520020B2 (en) * 2009-12-14 2013-08-27 Canon Kabushiki Kaisha Stereoscopic color management
DE102011082475A1 (de) * 2011-09-12 2013-03-14 Robert Bosch Gmbh Fahrerassistenzsystem zur Unterstützung eines Fahrers in kollisionsrelevanten Situationen
DE102011082483A1 (de) * 2011-09-12 2013-03-14 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
US20130096820A1 (en) * 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
DE102012203523A1 (de) * 2012-03-06 2013-09-12 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
JP6014664B2 (ja) * 2012-06-08 2016-10-25 日立建機株式会社 自走式産業機械の表示装置
KR101724788B1 (ko) * 2012-06-26 2017-04-10 한온시스템 주식회사 입체 열화상을 이용한 차량 내 온도계측 장치
US11209286B2 (en) 2013-02-26 2021-12-28 Polaris Industies Inc. Recreational vehicle interactive telemetry, mapping and trip planning system
JP6007848B2 (ja) * 2013-03-28 2016-10-12 富士通株式会社 目視確認評価装置、方法及びプログラム
TW201516389A (zh) * 2013-10-30 2015-05-01 Metal Ind Res & Dev Ct 車輛之a柱結構的檢驗系統及其檢驗方法
US20160275359A1 (en) * 2013-12-26 2016-09-22 Mitsubishi Electric Corporation Information processing apparatus, information processing method, and computer readable medium storing a program
US10475239B1 (en) * 2015-04-14 2019-11-12 ETAK Systems, LLC Systems and methods for obtaining accurate 3D modeling data with a multiple camera apparatus
US10486599B2 (en) * 2015-07-17 2019-11-26 Magna Mirrors Of America, Inc. Rearview vision system for vehicle
CN115474170A (zh) 2016-02-10 2022-12-13 北极星工业有限公司 利于休闲车辆的使用的方法和系统、休闲车辆及用户接口
KR102462502B1 (ko) * 2016-08-16 2022-11-02 삼성전자주식회사 스테레오 카메라 기반의 자율 주행 방법 및 그 장치
US10154377B2 (en) * 2016-09-12 2018-12-11 Polaris Industries Inc. Vehicle to vehicle communications device and methods for recreational vehicles
JP6615725B2 (ja) * 2016-09-16 2019-12-04 株式会社東芝 走行速度算出装置および走行速度算出方法
JP6501805B2 (ja) * 2017-01-04 2019-04-17 株式会社デンソーテン 画像処理装置および画像処理方法
KR101818390B1 (ko) * 2017-01-11 2018-01-12 엘지전자 주식회사 정수기
JP6743732B2 (ja) * 2017-03-14 2020-08-19 トヨタ自動車株式会社 画像記録システム、画像記録方法、画像記録プログラム
JP2019012915A (ja) * 2017-06-30 2019-01-24 クラリオン株式会社 画像処理装置、画像変換方法
RU2736008C1 (ru) * 2017-07-13 2020-11-11 Девар Энтертеймент Лимитед Способ формирования среды дополненной реальности
WO2019049709A1 (ja) * 2017-09-07 2019-03-14 ソニー株式会社 画像処理装置、画像処理方法、および画像表示システム
JP7080613B2 (ja) * 2017-09-27 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN107672525B (zh) * 2017-11-03 2024-04-05 辽宁工业大学 一种逆光行车时预见前方路况的日间辅助驾驶装置及其方法
US10861220B2 (en) * 2017-12-14 2020-12-08 The Boeing Company Data acquisition and encoding process for manufacturing, inspection, maintenance and repair of a structural product
DE102018214874B3 (de) * 2018-08-31 2019-12-19 Audi Ag Verfahren und Anordnung zum Erzeugen einer mit Bildinformationen texturierten Umfeldkarte eines Fahrzeugs und Fahrzeug umfassend eine solche Anordnung
US11107268B2 (en) * 2018-09-07 2021-08-31 Cognex Corporation Methods and apparatus for efficient data processing of initial correspondence assignments for three-dimensional reconstruction of an object
DE102019118366A1 (de) * 2019-07-08 2021-01-14 Zf Friedrichshafen Ag Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
US11741625B2 (en) * 2020-06-12 2023-08-29 Elphel, Inc. Systems and methods for thermal imaging
JP2022129747A (ja) * 2021-02-25 2022-09-06 キヤノン株式会社 電子装置およびその制御方法
US11297247B1 (en) 2021-05-03 2022-04-05 X Development Llc Automated camera positioning for feeding behavior monitoring
CN115371347B (zh) * 2021-05-18 2024-03-12 青岛海尔电冰箱有限公司 冰箱储物间室使用状态的检测方法、检测系统和冰箱

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848199A (ja) * 1994-08-09 1996-02-20 Hitachi Ltd 障害物警報システム
JPH11243538A (ja) * 1998-02-25 1999-09-07 Nissan Motor Co Ltd 車両用視認装置
JP2000146546A (ja) * 1998-11-09 2000-05-26 Hitachi Ltd 3次元モデル生成方法及び装置
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313201A (en) * 1990-08-31 1994-05-17 Logistics Development Corporation Vehicular display system
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5594414A (en) * 1994-08-02 1997-01-14 Namngani; Abdulatif Collision probability detection system
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
JPH0995194A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の物体検出装置
US6009359A (en) * 1996-09-18 1999-12-28 National Research Council Of Canada Mobile system for indoor 3-D mapping and creating virtual environments
JP3787939B2 (ja) * 1997-02-27 2006-06-21 コニカミノルタホールディングス株式会社 立体映像表示装置
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
JP2002506977A (ja) * 1998-03-10 2002-03-05 リーグル・レーザー・メジャーメント・システムズ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 被写体又は被写体空間を監視する方法
JP3286306B2 (ja) * 1998-07-31 2002-05-27 松下電器産業株式会社 画像生成装置、画像生成方法
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
US6369701B1 (en) * 2000-06-30 2002-04-09 Matsushita Electric Industrial Co., Ltd. Rendering device for generating a drive assistant image for drive assistance
JP2002359839A (ja) * 2001-03-29 2002-12-13 Matsushita Electric Ind Co Ltd リアビューカメラの画像表示方法及びその装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
EP1291668B1 (en) * 2001-09-07 2005-11-30 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings display device and image providing system
JP3871614B2 (ja) * 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
JP2004082835A (ja) * 2002-08-26 2004-03-18 Mitsubishi Electric Corp 車載表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848199A (ja) * 1994-08-09 1996-02-20 Hitachi Ltd 障害物警報システム
JPH11243538A (ja) * 1998-02-25 1999-09-07 Nissan Motor Co Ltd 車両用視認装置
JP2000146546A (ja) * 1998-11-09 2000-05-26 Hitachi Ltd 3次元モデル生成方法及び装置
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8174576B2 (en) 2005-09-28 2012-05-08 Nissan Motor Co., Ltd. Vehicle periphery video providing apparatus and method
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
WO2009119110A1 (ja) * 2008-03-27 2009-10-01 パナソニック株式会社 死角表示装置
US8395490B2 (en) 2008-03-27 2013-03-12 Panasonic Corporation Blind spot display apparatus
JP5208203B2 (ja) * 2008-03-27 2013-06-12 パナソニック株式会社 死角表示装置
CN102187367A (zh) * 2008-10-20 2011-09-14 本田技研工业株式会社 车辆周围监测装置
CN102187367B (zh) * 2008-10-20 2017-03-08 本田技研工业株式会社 车辆周围监测装置
JP2015018438A (ja) * 2013-07-11 2015-01-29 株式会社デンソー 走行支援装置
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
CN111710189B (zh) * 2014-12-01 2023-09-08 现代自动车株式会社 电子装置的控制方法、电子装置以及记录介质
CN111710189A (zh) * 2014-12-01 2020-09-25 星克跃尔株式会社 电子装置的控制方法、电子装置以及记录介质
WO2017085857A1 (ja) * 2015-11-20 2017-05-26 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium
CN108140309A (zh) * 2015-11-20 2018-06-08 三菱电机株式会社 驾驶辅助装置、驾驶辅助系统、驾驶辅助方法以及驾驶辅助程序
CN108140309B (zh) * 2015-11-20 2020-12-08 三菱电机株式会社 驾驶辅助装置、驾驶辅助系统以及驾驶辅助方法
JP6150950B1 (ja) * 2015-11-20 2017-06-21 三菱電機株式会社 運転支援装置、運転支援システム、運転支援方法及び運転支援プログラム
US10896542B2 (en) 2017-10-02 2021-01-19 Candera Japan Inc. Moving body image generation recording display device and program product
CN113302661A (zh) * 2019-01-10 2021-08-24 三菱电机株式会社 信息显示控制装置及方法、以及程序及记录介质
JP2019208212A (ja) * 2019-06-14 2019-12-05 株式会社エイチアイ 移動体用画像生成記録表示装置及びプログラム

Also Published As

Publication number Publication date
US20070003162A1 (en) 2007-01-04
US20100054580A1 (en) 2010-03-04

Similar Documents

Publication Publication Date Title
WO2005088970A1 (ja) 画像生成装置、画像生成方法、および画像生成プログラム
JP4323377B2 (ja) 画像表示装置
CN106464847B (zh) 影像合成系统和用于其的影像合成装置与影像合成方法
CN104883554B (zh) 通过虚拟透视仪器群集显示直播视频的方法和系统
US8754760B2 (en) Methods and apparatuses for informing an occupant of a vehicle of surroundings of the vehicle
JP2022530012A (ja) パススルー画像処理によるヘッドマウントディスプレイ
US8044781B2 (en) System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor
JP5267660B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法
CN1878299B (zh) 图像显示装置和方法
US7554461B2 (en) Recording medium, parking support apparatus and parking support screen
JP5715778B2 (ja) 車両用画像表示装置
EP1462762A1 (en) Circumstance monitoring device of a vehicle
KR20100113959A (ko) 차량 주위 화상 표시 시스템
JP2018528509A (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
WO2005084027A1 (ja) 画像生成装置、画像生成プログラム、及び画像生成方法
CN103770706A (zh) 动态后视镜显示特征
WO2005088971A1 (ja) 画像生成装置、画像生成方法、および画像生成プログラム
JP2012227913A (ja) 車両のサラウンドビューシステム
JP2009101718A (ja) 映像表示装置及び映像表示方法
EP3456574B1 (en) Method and system for displaying virtual reality information in a vehicle
US11794667B2 (en) Image processing apparatus, image processing method, and image processing system
JP2005269010A (ja) 画像生成装置、画像生成プログラム、及び画像生成方法
US11987182B2 (en) Image processing apparatus, image processing method, and image processing system
KR101278654B1 (ko) 차량의 주변 영상 디스플레이 장치 및 방법
JP5271186B2 (ja) 車両用画像表示装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11519080

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 11519080

Country of ref document: US

122 Ep: pct application non-entry in european phase