JP2001067473A - 画像生成方法及びその装置 - Google Patents

画像生成方法及びその装置

Info

Publication number
JP2001067473A
JP2001067473A JP23776699A JP23776699A JP2001067473A JP 2001067473 A JP2001067473 A JP 2001067473A JP 23776699 A JP23776699 A JP 23776699A JP 23776699 A JP23776699 A JP 23776699A JP 2001067473 A JP2001067473 A JP 2001067473A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
image
depth map
viewpoint position
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP23776699A
Other languages
English (en)
Other versions
JP3561446B2 (ja
Inventor
Kaori Hiruma
香織 昼間
Takayuki Okimura
隆幸 沖村
Kenji Nakazawa
憲二 中沢
Kazutake Kamihira
員丈 上平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP23776699A priority Critical patent/JP3561446B2/ja
Publication of JP2001067473A publication Critical patent/JP2001067473A/ja
Application granted granted Critical
Publication of JP3561446B2 publication Critical patent/JP3561446B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】本発明は、複数のカメラの撮像する実写画像と
その奥行きマップとから、仮想視点位置から見た画像を
生成する構成を採るときにあって、写実性が高く、仮想
視点位置の移動が広く、ウォークスルー等のアプリケー
ションにも適用可能となる画像を生成できるようにする
ことを目的とする。 【解決手段】奥行きマップを生成する。そして、仮想視
点位置よりも被写体に近い中で仮想視点位置に最も近い
奥行きマップを選択して、仮想視点奥向きマップを生成
し、その欠落部分を生成可能とする仮想視点位置よりも
被写体に近い奥行きマップを選択して、その欠落部分を
生成し、残りの欠落部分を生成可能とする仮想視点位置
よりも被写体から遠い奥行きマップを選択して、その残
りの欠落部分を生成することで仮想視点奥向きマップを
生成する。そして、生成した仮想視点奥行きマップを基
に、対応する実写画像の画素の色情報を描画する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、異なる視点位置で
撮像した複数の画像と、その視点位置から見た被写体の
奥行情報とから、実際にはカメラの置かれていない視点
位置から見た画像を生成する画像生成方法及びその装置
に関する。
【0002】
【従来の技術】従来、実写イメージを基に、撮像した位
置とは異なる視点の画像を生成する方法として、例えば
「多視点映像から任意視点映像の生成」(信学技報,IE
96-121;91-98,1997.)に記載されている方法がある。こ
の方法では、多視点画像から物体の奥行きマップを推定
し、このマップを仮想的な視点の奥行きマップに変換し
た後、与えられた多視点画像を利用して仮想視点画像を
生成する。
【0003】図14に、この従来方法で用いる多眼カメ
ラシステムのカメラ配置と仮想視点画像生成の概念を示
す。図14において、91〜95はカメラ、96は生成
する仮想視点画像の視点位置と視線方向を示したもので
ある。
【0004】この方法では、基準となるカメラ92で撮
影した基準画像中のある点に対し、参照カメラ91,9
3,94,95で撮影した各参照画像のエピポーラライ
ンに沿ってマッチングウィンドウを1画素ずつ移動させ
ながら、マッチングの尺度であるSSD(sum of square
d-difference)を計算する。マッチングウィンドウをd
だけ移動させた時、4つの方向からSSDの値が計算さ
れる。このうち、小さい方の2つの値を加算する。この
ような処理を探索範囲内にわたって行い、その最小値の
ところのdを視差として求める。視差dと奥行きzは、
カメラの焦点距離fとカメラ間距離bと次式の関係があ
る。
【0005】z=bf/d この関係を用いて、基準カメラ92のカメラ位置から見
た奥行きマップを生成する。次に、この奥行きマップを
96に示す仮想視点位置から見た奥行きマップに変換す
る。基準カメラ92から観測できる領域は、同時に仮想
視点画像に、基準カメラ92によって撮像された画像の
色情報を描画して仮想視点画像を生成する。視点の移動
に伴い新たに生じた領域は、奥行き値を線形補間し、参
照画像の色情報を描画して、仮想視点画像を生成する。
【0006】しかしこの従来方法では、使用する多眼画
像の各画素について対応点を推定しなければならないた
め、基準カメラ92と参照カメラ91,93,94,9
5の間隔、すなわち基線長が制限される。仮想視点画像
は、多視点画像の色情報を描画して生成されるので、自
然な仮想視点画像が得られる仮想視点位置は図14の点
線で示した範囲内に限られる。ゆえに仮想視点の置ける
範囲が制限される問題がある。
【0007】更に、この方法によって、仮想空間の中を
自由に歩き回っているかのような連続した画像、すなわ
ちウォークスルー画像を、実写画像をもとに生成する場
合には、基準カメラ92の位置よりも被写体に近い視点
位置での仮想視点画像の解像度が、画像のすべての領域
で低下するという問題がある。
【0008】このほかの従来技術として、例えば「View
Generation for Three-Dimentional Scenes from Vide
o Sequence」(IEEE Trans.Image Processing,vol.6 p
p.584-598, Apr 1997)に記載されているような方法が
ある。これは、ビデオカメラで撮影した一連の映像シー
クエンスを基に、3次元空間における物体の位置および
輝度の情報を取得し、これを生成しようとする画像の視
点に合わせて3次元空間に幾何変換し、さらに2次元平
面に射影する方法である。
【0009】図15は、この従来方法の撮影方法を幾何
学的に示したものである。図15において、101は被
写体、102はビデオカメラ、103はビデオカメラ1
02で撮影するときの水平な軌道である。この方法で
は、ビデオカメラ102を手に持ち、軌道103に沿っ
てビデオカメラ102を移動しながら撮像した映像シー
クエンスを用いて、3次元空間における物体の位置およ
び輝度の情報を取得する。
【0010】図16は、図15の方法により撮影した映
像シークエンスに含まれる個々の映像フレームの位置関
係を示した図である。図16において、111〜115
はビデオカメラ102で撮影した映像フレームである。
この図に示すように、個々のフレームが視差像となるの
で、これらの画像間で対応点を抽出することにより、被
写体の3次元空間における位置及び輝度の情報が求めら
れる。
【0011】この方法はビデオカメラ102を水平に移
動しながら撮像した映像シークエンスを用いて仮想視点
画像を生成するため、この方法によってビデオカメラ1
02の移動方向に対して垂直方向に移動するウォークス
ルー画像を生成する場合には、基準カメラ位置よりも被
写体に近い仮想視点位置での仮想視点画像の解像度が、
画像のすべての領域で低下するという問題がある。
【0012】
【発明が解決しようとする課題】このような従来技術の
問題点の解決を図るために、本発明者は、特願平11-125
62号で、新たな仮想視点画像生成方法(装置)の発明を
開示した。
【0013】この本発明者が開示した発明では、複数の
視点位置で撮像した画像と各視点位置から見た奥行きマ
ップとを利用して、仮想視点画像を生成する方法を採っ
ている。
【0014】確かに、この本発明者が開示した発明によ
れば、従来技術の持つ問題点を解決できるようになるも
のの、仮想視点位置に最も近い視点位置で撮像した画像
を優先的に用いて仮想視点画像を生成していくという方
法を採っていることから、ウォークスルー画像を生成す
る場合には、その視点位置よりも被写体に近い仮想視点
位置での仮想視点画像の解像度が、画像のすべての領域
で低下するという問題が残されている。
【0015】本発明は、上記問題点を解決するためのも
のである。本発明の目的は、実カメラ位置よりも被写体
の近づいた位置における仮想視点画像の解像度の低下を
画像の中心付近で回避し、ぼけや歪みが少なく、写実性
が高く、仮想視点位置の移動範囲が広い、ウォークスル
ー等のアプリケーションにも適用可能な仮想視点画像を
生成できるようにする新たな画像生成方法及びその装置
を提供することにある。
【0016】
【課題を解決するための手段】本発明の前記目的を達成
するための代表的な手段の概要を以下に簡単に説明す
る。
【0017】(1)被写体に対向して配置される複数の
カメラによって撮像された画像を基に、実際にはカメラ
の置かれていない仮想視点位置で撮像したような画像を
生成する画像生成方法において、実写画像の各画素につ
いて被写体までの奥行き値を保持する奥行きマップを生
成する第1の処理過程と、仮想視点位置よりも被写体に
近いカメラにより撮像される1つ又は複数の実写画像
と、それに対応付けられる奥向きマップとを選択すると
ともに、仮想視点位置よりも被写体から遠いカメラによ
り撮像される1つ又は複数の実写画像と、それに対応付
けられる奥向きマップとを選択して、それらの奥行きマ
ップを基に、仮想視点位置から見た奥向きマップを生成
する第2の処理過程と、生成した仮想視点奥向きマップ
を基に、その仮想視点奥行きマップの生成元となった奥
行きマップに対応付けられる実写画像の画素の色情報を
描画することで、仮想視点位置から見た画像を生成する
第3の処理過程とを備えることを特徴とする。
【0018】(2)(1)記載の画像生成方法におい
て、第1の処理過程で、多眼カメラにより撮像される実
写画像の対応点を抽出し、ステレオ法により三角測量の
原理を用いて奥行き値を推定することで奥行きマップを
生成することを特徴とする。
【0019】(3)(1)記載の画像生成方法におい
て、第1の処理過程で、レーザ光による画像パターンを
被写体に照射することにより奥行き値を推定することで
奥行きマップを生成することを特徴とする。
【0020】(4)(1)〜(3)のいずれかに記載さ
れる画像生成方法において、第2の処理過程で、仮想視
点位置よりも被写体に近い中で仮想視点位置に最も近い
奥行きマップを選択して、それを基に、仮想視点位置か
ら見た奥向きマップを生成し、その仮想視点奥向きマッ
プの欠落部分の一部分を生成可能とする仮想視点位置よ
りも被写体に近い1つ又は複数の奥行きマップを選択し
て、それを基に、その欠落部分の一部分を生成し、残さ
れている欠落部分を生成可能とする仮想視点位置よりも
被写体から遠い1つ又は複数の奥行きマップを選択し
て、それを基に、その残されている欠落部分を生成する
ことで、仮想視点位置から見た奥向きマップを生成する
ことを特徴とする。
【0021】(5)被写体に対向して配置される複数の
カメラによって撮像された画像を基に、実際にはカメラ
の置かれていない仮想視点位置で撮像したような画像を
生成する画像生成装置において、実写画像の各画素につ
いて被写体までの奥行き値を保持する奥行きマップを生
成する手段と、仮想視点位置よりも被写体に近いカメラ
により撮像される1つ又は複数の実写画像と、それに対
応付けられる奥向きマップとを選択するとともに、仮想
視点位置よりも被写体から遠いカメラにより撮像される
1つ又は複数の実写画像と、それに対応付けられる奥向
きマップとを選択して、それらの奥行きマップを基に、
仮想視点位置から見た奥向きマップを生成する手段と、
生成した仮想視点奥向きマップを基に、その仮想視点奥
行きマップの生成元となった奥向きマップに対応付けら
れる実写画像の画素の色情報を描画することで、仮想視
点位置から見た画像を生成する手段とを備えることを特
徴とする。
【0022】すなわち、本発明では、仮想視点位置より
も被写体に近いカメラの中で、仮想視点位置に最も近い
視点位置(視点位置A)のカメラから見た奥行きマップ
を基に被写体の3次元空間中での形状及び位置を求め、
この被写体の形状及び位置情報を基に仮想視点位置から
見た奥行きマップを生成し、上記視点位置Aからでは物
体の影等によって隠されている仮想視点奥行きマップの
領域を、その領域が隠されず、かつ仮想視点位置よりも
被写体に近い他の視点位置(視点位置B:複数のことも
ある)のカメラから見た奥行きマップを基に補間し、上
記視点位置A,Bからでは撮像範囲外となる仮想視点奥
行きマップの領域を、その領域が撮像範囲となる視点位
置(仮想視点位置よりも被写体から遠い視点位置C:複
数のこともある)のカメラから見た奥行きマップを基に
補間することで、仮想視点奥行きマップを生成する。
【0023】そして、生成した仮想視点奥行きマップの
3次元情報に従って、上記視点位置Aで撮像された実写
画像の色情報を描画することで、対応する仮想視点画像
部分を生成し、生成した仮想視点奥行きマップの3次元
情報に従って、上記視点位置Bで撮像された実写画像の
色情報を描画することで、上記視点位置Aからでは物体
の影等によって隠されている仮想視点画像の領域を生成
し、生成した仮想視点奥行きマップの3次元情報に従っ
て、上記視点位置Cで撮像された実写画像の色情報を描
画することで、上記視点位置A,Bからでは撮像範囲外
となる仮想視点画像の領域を生成することで、仮想視点
画像を生成する。
【0024】このように、本発明においては、生成しよ
うとする仮想視点画像の撮像範囲を含むように配置した
異なる複数の視点位置のカメラから見た奥行きマップを
同時に取得し、これらを統合して仮想視点位置から見た
奥行きマップを生成して、仮想視点画像を生成していく
ことを特徴とする。
【0025】従来技術のように、多視点画像間の対応点
を抽出して多視点画像間を補間する方法とは、本発明で
は、対応点抽出する多視点画像のカメラ位置の外側に仮
想視点位置を置いても写実性の高い仮想視点画像を生成
できるという点で異なる。また、本発明では、仮想視点
位置をカメラの光軸方向に被写体に近づけても、仮想視
点画像の中心部分付近では解像度の低下を抑えることが
できるという点で異なる。
【0026】また、従来技術のように、ビデオカメラを
移動しながら視差像を撮像する方法とは、本発明では、
仮想視点位置をビデオカメラの移動方向に対して垂直方
向に仮想視点位置を移動させても、仮想視点画像の中心
部分付近では解像度の低下を抑えることができるという
点で異なる。
【0027】また、本発明者が先に開示した発明のよう
に、複数の視点位置で撮像した画像と各視点位置から見
た奥行きマップとを利用して仮想視点画像を生成する方
法とは、本発明では、仮想視点位置をカメラの光軸方向
に近づけても、仮想視点画像の中心部分付近では解像度
の低下を抑えることができるという点で異なる。
【0028】すなわち、本発明は、仮想視点位置よりも
被写体に近い視点位置で撮像した奥行きデータおよび画
像を優先的に選択して仮想視点画像を生成する手法であ
るため、仮想視点画像の解像度の低下を最小限に抑える
ことができる。
【0029】また、本発明では、複数の奥行きマップを
統合して1枚の仮想視点の奥行きマップを生成するた
め、奥行きマップの生成に関与しない画像間については
対応点を推定する必要がない。従って、すべての多視点
画像間の対応点が抽出されなくても、仮想視点画像を生
成することができる。このため、多視点画像のカメラ間
隔が離れている場合においても、滑らかな仮想視点画像
を生成することができる。
【0030】また、本発明では、仮想視点位置から見え
る範囲が、複数の視点位置のカメラの撮像範囲に含まれ
ていれば、仮想視点画像を生成することができるため、
カメラの配置にかかる制限を軽減することができる。
【0031】また、本発明では、光軸に対して前後方向
にもカメラを配置し、仮想視点画像の中心部分付近では
仮想視点位置よりも被写体に近いカメラの画像を使って
仮想視点画像を生成するため、仮想空間の中を自由に歩
き回っているかのような連続した画像、すなわちウォー
クスルー動画像においてもフレーム間の切り替えが滑ら
かな動画像を生成することができる。
【0032】
【発明の実施の形態】図1は、本発明で用いられるカメ
ラ配置と仮想視点位置の一例を示す図である。
【0033】図中、11〜16はカメラ位置、17は仮
想視点位置の動く範囲である。11〜16のカメラ位置
にはそれぞれ多眼カメラが配置されていて、画像を撮像
するのと同時に、それぞれの場所から見た奥行きマップ
を取得することができる。すべてのカメラの光軸は、互
いに平行になるように配置されている。また、すべての
カメラの3次元空間中の位置は既知とする。
【0034】この図1のカメラ配置では、仮想視点位置
17がカメラ位置11,12,15,16に囲まれた平
面上にあり、視野範囲の領域がカメラの撮像範囲に含ま
れているような視線方向である場合に、欠損領域の少な
い仮想視点画像が得られる。図1では6カ所の位置で、
撮像画像と奥行きマップを取得する場合を示したが、撮
像画像と奥行きマップを取得する視点位置の数に制約は
ない。
【0035】図2は、本発明を実現するための機能構成
の一実施例である。
【0036】図中、21は上下左右のマトリックス状に
配置された多眼カメラからなる多眼画像入力手段、22
は多眼画像入力手段21で入力された多眼画像から奥行
きデータを検出し、画像の各画素に奥行きデータを格納
した奥行きマップを生成する奥行きマップ生成手段、2
5は仮想視点奥行きマップおよび仮想視点画像を生成す
るために用いるカメラの視点位置の順序を決定する視点
位置選択手段、23は奥行きマップ生成手段22で生成
された奥行きマップを基にして、視点位置選択手段25
で決定された順序に従って仮想視点奥行きマップを生成
する仮想視点奥行きマップ生成手段、24は多眼画像入
力手段21で入力された多眼画像から、奥行きマップ生
成手段22で生成された仮想視点奥行きマップの奥行き
データに基づいて仮想視点画像を生成する仮想視点画像
生成手段である。
【0037】ここで、奥行きマップ生成手段22では、
例えば多眼カメラ画像の対応点を抽出してステレオ法に
より奥行きを推定する方法で奥行きマップを生成した
り、レーザ光による画像パターンを照射することなどに
より能動的に被写体の奥行きを得る方法(例えばレーザ
レンジファインダを用いる方法)で奥行きマップを生成
する。
【0038】次に、視点位置選択手段25において、仮
想視点画像を生成する基となるカメラを選ぶ順序につい
て説明する。
【0039】視点位置選択手段25は、まず、光軸の向
きに対して仮想視点位置よりも被写体に近いカメラの中
で、最も仮想視点位置に近いカメラを第1順位で用いる
カメラ、その次に近いものを第2順位で用いるカメラと
して選択する。前記光軸の向きに対して仮想視点位置よ
りも被写体に近い位置で撮像したカメラの画像は、被写
体の詳細なデータを持つという特徴がある。
【0040】視点位置選択手段25は、次に、その選択
したカメラの視点位置からでは仮想視点画像で撮像範囲
外となるような領域を撮像範囲に含むカメラの中で、最
も仮想視点位置に近いカメラから順に第3順位で用いる
カメラ、第4順位で用いるカメラを選択する。すなわ
ち、光軸の向きに対して仮想視点位置よりも被写体から
遠いカメラの中で、最も仮想視点位置に近いカメラを第
3順位で用いるカメラ、その次に近いものを第4順位で
用いるカメラとして選択する。前記光軸の向きに対して
仮想視点位置よりも被写体から遠い位置で撮像したカメ
ラの画像は、撮像範囲が広いという特徴がある。
【0041】このカメラの選択順序について、図3を用
いて具体的に説明する。図3において、51は被写体、
52〜55はカメラ、56は仮想視点位置である。カメ
ラ52〜55の光軸はZ軸に平行であり、仮想視点位置
からZ軸に平行な視線方向で撮像したような仮想視点画
像を生成するものとする。
【0042】図3のような配置の場合、視点位置選択手
段25は、仮想視点位置よりも被写体に近い位置にある
カメラの中で被写体に最も近いカメラ52を第1順位で
用いるカメラとし、その次に近いカメラ53を第2順位
で用いるカメラとして選択する。そして、仮想視点位置
よりも被写体から遠い位置にあるカメラの中で被写体に
最も近いカメラ54を第3順位で用いるカメラ、その次
に近いカメラ55を第4順位で用いるカメラとして選択
する。
【0043】次に、奥行きマップ生成手段22の処理に
ついて説明する。
【0044】上述したように、奥行きマップ生成手段2
2は、多眼カメラ画像の対応点を抽出してステレオ法に
より奥行きを推定する方法で奥行きマップを生成した
り、レーザレンジファインダなどを用いる方法で奥行き
マップを生成することになるが、ここでは、前者の方法
で奥行きマップを生成することで説明する。
【0045】この奥行きマップは、ある視点位置から撮
影された画像中の各画素について、カメラから被写体ま
での距離の値を保持するものである。いわば、通常の画
像は画像面上の各画素に輝度と色度とが対応しているも
のであるのに対し、奥行きマップは画像面上の各画素に
奥行き値が対応しているのである。
【0046】多眼カメラとして、図4に示すように、原
点に基準カメラ61を置き、その周りの一定の距離Lに
4つの参照カメラ62〜65を置くものを想定する。す
べてのカメラの光軸は平行にする。また、すべてのカメ
ラは同じ仕様のものを用い、仕様の違いはカメラの構成
に応じて補正し、図4に示すような幾何学構成に補正す
る。
【0047】図4の配置では、3次元空間の点P=
(X,Y,Z)は、X−Y平面から焦点距離fの距離に
ある基準画像上の点p0 =(u0,0 )に投影される。
ここで、「u0 =fX/Z,v0 =fY/Z」である。
また、点Pは、参照カメラCi (i=1〜4)の画像上
の点pi =(ui,i )にも投影される。ここで、 ui =f(X−Di,x )/Z vi =f(Y−
i,y )/Z 但し、D1 =(D1,x ,D1,y )=(L,0) D2 =(D2,x ,D2,y )=(−L,0) D3 =(D3,x ,D3,y )=(0,L) D4 =(D4,x ,D4,y )=(0,−L) である。
【0048】すべての参照カメラ62〜65と基準カメ
ラ61の基線長が等しい構成の下では、点Pの真の視差
i は、すべてのiに対して、 di =fL/Z=|pi −p0 | であることから、視差di を推定することによって奥行
きZが取得できる。なお、視差から奥行きを求めるため
には最低2台のカメラがあれば可能である。
【0049】次に、仮想視点奥行きマップ生成手段23
の処理について説明する。
【0050】仮想視点奥行きマップ生成手段23は、奥
行きマップ生成手段22で生成された奥行きマップとカ
メラの位置情報とから、仮想視点位置から見た奥行きマ
ップを生成する。
【0051】図5に、実写画像を撮影した視点と仮想視
点のカメラ座標系と投影画像面の座標系とを示す。選択
された奥行きマップのカメラ座標系を(X1,1,1
T 、仮想視点位置のカメラ座標系を(X2,2,2 T
とする。
【0052】この選択された奥行きマップ上の任意の点
1 =(u1,1 )に投影された3次元空間の点P=
(X1,1,1 T のZ1 が求められているとき、実視
点の座標系から見た点PのX,Y座標はそれぞれ X1 =Z1 1 /f (式1) Y1 =Z1 1 /f (式2) で与えられる。ここで、fはカメラの焦点距離である。
【0053】今、二つの座標系(X1,1,1 T
(X2,2,2 T とが、回転行列R 21=〔rij〕∈R
3*3 と並進行列T21=(Δx,Δy,Δz)T とを用い
て (X2,2,2 T =R21(X1,1,1 T +T21 (式3) の関係で表せるとする。
【0054】(式3)より得られた奥行き値Z2 は、仮
想視点座標系(X2,2,2 T で見た点Pの奥行き値
である。点P=(X2,2,2 T は、仮想視点奥行き
マップ上の点p2 =(u2,2 )に投影される。この
(u2,2 )は、(式3)により得られたX2,2 を用
いて、次式により求められる。
【0055】u2 =fX2 /Z2 (式4) v2 =fY2 /Z2 (式5) 従って、仮想視点奥行きマップ上の点p2 =(u
2,2 )の奥行き値をZ2 と決定できる。
【0056】以上の処理を、奥行きマップ中のすべての
点(u1,1 )について繰り返し行い、選択された奥行
きマップの保持する奥行きの値を、仮想視点から見た奥
行きマップ中の画素の奥行き値に変換する。
【0057】このとき、同時に(u1,1 )の画素の輝
度値と色度値とを、仮想視点画像上の画素(u2,2
に描画すると、仮想視点画像を生成することができる。
【0058】しかし、ここで生成される仮想視点奥行き
マップには、奥行き値の欠損した画素や奥行き値にノイ
ズが含まれる場合がある。このような場合は、奥行き値
の欠損した画素を、周囲の画素の奥行き値を用いて線形
に補間したり、奥行きマップを平滑化処理することによ
り、奥行き値の欠損部分やノイズの少ない仮想視点奥行
きマップを生成することができる。
【0059】次に、この補間処理及び平滑化処理につい
て、図6を用いて説明する。ここで、図6(B)〜
(E)は、図6(A)に示す球を撮像した画像を走査線
A−Bで切断し、その走査線上の奥行きの値を縦軸に表
したものである。
【0060】この補間処理では、仮想視点奥行きマップ
生成手段23で生成された(B)に示す仮想視点奥行き
マップ中の、オクルージョンにより視差が推定できなか
ったために奥行き値を持たない画素71の奥行き値を、
局所的な領域内では奥行きは急激に変化しないという仮
定の下、奥行き値が既知である周囲の画素72の奥行き
値等を用いて線形補間することで求める。その結果とし
て、すべての画素の奥行き値を持つ(C)に示す仮想視
点奥行きマップが生成される。
【0061】一方、この平滑化処理では、補間処理によ
り求められた(C)に示す仮想視点奥行きマップの奥行
き値の平滑化処理を行う。まず、仮想視点奥行きマップ
の走査線上で奥行き値が急激に変換している画素73の
奥行き値を除去し、局所的な領域内では奥行きは急激に
変化しないという仮定の下、周囲の画素74の奥行き値
を用いて線形補間処理を行い、(D)に示す仮想視点奥
行きマップを生成する。更に、被写体の表面を滑らかな
局面で近似するために、仮想視点奥行きマップ全体に対
して平滑化処理を行い、(E)に示す仮想視点奥行きマ
ップを得る。
【0062】次に、仮想視点画像生成手段24の処理に
ついて、図7を用いて説明する。
【0063】仮想視点画像生成手段24は、仮想視点奥
行きマップ生成手段23で用いた座標変換の逆変換を行
うことで、仮想視点奥行きマップ中の点p2 =(u2,
2 )に対応する実写画像上の点p3 =(u3,3 )を求
めて、この点(u3,3 )の画素の輝度値と色度値を、
仮想視点画像中の点(u2,2 )に描画することで仮想
視点画像を生成する。
【0064】仮想視点画像生成手段24で用いる座標変
換は、仮想視点奥行きマップ生成手段23で用いたもの
の逆変換にあたる。仮想視点奥行きマップ生成手段23
の生成した仮想視点奥行きマップに線形補間処理や平滑
化処理を加えたことにより、仮想視点奥行きマップの保
持する奥行き値が変化しているため、もう一度新しい奥
行き値を用いて座標変換を行う必要があることから、こ
の逆変換を行うのである。
【0065】ここで、仮想視点奥行きマップの座標系を
(X2,2,2 T 、多眼画像(図4に示したような多
眼カメラにより撮像される画像)の中の任意の1枚の座
標系を(X3,3,3 T とする。
【0066】仮想視点奥行きマップ中の任意の点p2
(u2,2 )の画素の奥行き値がZ 2 であるとき、この
画素p2 =(u2,2 )に投影される被写体の3次元空
間中の点P=(X2,2,2 T の座標は、 X2 =Z2 2 /f (式6) Y2 =Z2 2 /f (式7) で与えられる。ここで、fはカメラの焦点距離である。
【0067】今、二つの座標系(X2,2,2 T
(X3,3,3 T とが、回転行列R 32=〔rij〕∈R
3*3 と並進行列T32=(Δx,Δy,Δz)T を用いて (X3,3,3 T =R32(X2,2,2 T +T32 (式8) の関係で表せるとする。
【0068】Z2 と(式6)により求まるX2 と(式
7)により求まるY2 とを(式8)に代入すると、(X
3,3,3 T 系で見た、仮想視点画像中の点(u2,
2 )に投影される被写体の3次元空間中の点P=(X3,
3,3 T が計算される。この点Pは実写画像上の点
3 =(u3,3 )に投影される。
【0069】この(u3,3 )は、(式8)式により得
られたX3,3 を用いて、次式により計算することがで
きる。
【0070】u3 =fX3 /Z3 (式9) v3 =fY3 /Z3 (式10) この(式9)(式10)により計算された撮像画像中の点
(u3,3 )の画素の輝度値と色度値を、仮想視点画像
中の点(u2,2 )に描画する。この処理を撮像画像中
のすべての点について繰り返し行うことで、仮想視点画
像が生成されることになる。
【0071】上述したように、視点位置選択手段25
は、図3のようにカメラが配置される場合には、仮想視
点位置よりも被写体に近い位置にあるカメラの中で仮想
視点位置に最も近いカメラ52を第1順位で用いるカメ
ラとし、その次に仮想視点位置に近いカメラ53を第2
順位で用いるカメラとして選択する。そして、仮想視点
位置よりも被写体から遠い位置にあるカメラの中で仮想
視点位置に最も近いカメラ54を第3順位で用いるカメ
ラとし、その次に仮想視点位置に近いカメラ55を第4
順位で用いるカメラとして選択する。
【0072】このようにして選択される4つのカメラか
らの奥行きマップと画像とを用いて仮想視点画像を生成
する効果を、図8を用いて説明する。
【0073】第1順位から第4順位のカメラからの奥行
きマップと画像とから生成された仮想視点画像は、図8
に示したようなa,b,c,dの4つの領域におおまか
に分けることができる。a,b,c,dの4つの領域
は、それぞれ52,53,54,55のカメラの奥行き
マップと画像とを基に生成されたものである。
【0074】カメラ54とカメラ55とで撮像される範
囲を合わせると、仮想視点位置で撮像される範囲を十分
に含んでいるため、カメラ54とカメラ55の奥行きマ
ップと画像とから仮想視点画像を生成することができる
が、生成される仮想視点画像の解像度は、もとの画像の
解像度よりも粗くなる。そこで、仮想視点画像の中心部
分についてはカメラ52とカメラ53の奥行きマップと
画像とを用いることで、仮想視点画像の解像度の低下を
抑えることができる。
【0075】次に、図9〜図11に従って、本実施例の
手順について詳細に説明する。
【0076】図9(a)は第1順位のカメラ52の撮像
した画像、図9(b)は第2順位のカメラ53の撮像し
た画像、図9(c)はカメラ52の撮像した画像(多眼
画像)から生成された奥行きマップ、図9(d)はカメ
ラ53の撮像した画像(多眼画像)から生成された奥行
きマップである。
【0077】図10(a)は第3順位のカメラ54の撮
像した画像、図10(b)は第4順位のカメラ55の撮
像した画像、図10(c)はカメラ54の撮像した画像
(多眼画像)から生成された奥行きマップ、図10
(d)はカメラ55の撮像した画像(多眼画像)から生
成された奥行きマップである。
【0078】ここで、これら奥行きマップでは、奥行き
値が濃淡値で表されており、視点位置と被写体との間の
距離が近づくほど、薄い色で示されている。
【0079】図11(a)は、図9(c)(d)に示す奥
行きマップをもとに生成された、図3に示す仮想視点位
置56での仮想視点奥行きマップである。図11(a)
の上下に現れている空白の領域は、カメラ52およびカ
メラ53での撮像範囲外の領域であるために、仮想視点
奥行きマップ上では奥行き値が欠損している領域であ
る。
【0080】図11(b)は、図11(a)の仮想視点
奥行きマップに図9(a)(b)の画像をマッピングして
生成された仮想視点画像である。図11(b)の上下に
現れている空白の領域は、図11(a)の仮想視点奥行
きマップで奥行き値が欠損しているために、画像をマッ
ピングすることができない領域である。
【0081】このように、図11(b)は、仮想視点位
置より被写体に近い視点位置で撮像された実写画像およ
びその視点位置から見た奥行きマップをもとに生成され
ているため、解像度の低下はないが、生成できる画像サ
イズがもとの画像サイズよりも小さい。
【0082】図11(c)は、図11(a)の奥行きマ
ップの欠損部分を、図10(c)(d)に示す奥行きマッ
プの持つ奥行き情報をもとに補間した仮想視点奥行きマ
ップである。
【0083】図11(d)は、図11(b)の仮想視点
画像の欠損部分に、図11(c)の奥行き情報をもとに
図10(a)(b)の画像をマッピングして生成された仮
想視点画像である。図11(d)で新たに生成された領
域は、もとの画像より解像度が低下しているものの、画
像の中心部分ではもとの画像の解像度が保たれている。
【0084】このようにして、本発明では、仮想視点位
置よりも被写体に近い視点位置で撮像した奥行きデータ
および画像を優先的に選択して仮想視点画像を生成する
手法であるため、仮想視点画像の解像度の低下を最小限
に抑えることができるのである。
【0085】本発明で用いられるカメラ配置と仮想視点
位置は、図1に示したものに限られるものではない。
【0086】例えば、図12に示すようなカメラ配置と
仮想視点位置に対しても、そのまま適用できる。
【0087】図中、31〜36はカメラ位置、37は仮
想視点位置の動く範囲である。31〜36のカメラ位置
にはそれぞれ多眼カメラが配置されていて、画像を撮像
するのと同時に、それぞれの場所から見た奥行きマップ
を取得することができる。すべてのカメラの光軸は、被
写体に対向してy軸からθi (i=31〜36、添字i
はカメラ位置を示す)回転した方向とする。
【0088】この図12のカメラ配置では、仮想視点位
置37がカメラ位置31,32,35,36に囲まれた
平面上にあり、視野範囲の領域がカメラの撮像範囲に含
まれているような視線方向である場合に、欠損領域の少
ない仮想視点画像が得られる。
【0089】図12に示した配置は、カメラの配置でき
る場所に制限がある場合に、仮想空間の中を自由に歩き
回っているかのような連続した画像、すなわちウォーク
スルー画像を提供する場合に有効である。すべてのカメ
ラの3次元空間中の位置は既知とする。図12では6カ
所の位置で撮像した画像と奥行きマップを取得する場合
を示したが、画像と奥行きマップを取得する視点位置の
数に制約はない。
【0090】また、図13に示すようなカメラ配置と仮
想視点位置に対しても、そのまま適用できる。
【0091】図中、41〜46はカメラ位置、47は仮
想視点位置の動く範囲である。41〜46のカメラ位置
にはそれぞれ多眼カメラが360度見回せるように配置
されていて、画像を撮像するのと同時に、それぞれの場
所から見た全周方向の奥行きマップを取得することがで
きる。すべてのカメラの光軸は、被写体に対向してx軸
からΦi (i=41〜46、添字iはカメラ位置を示
す)y軸からθi (i=41〜46、添字iはカメラ位
置を示す)回転した方向とする。
【0092】この図13のカメラ配置では、仮想視点位
置47がカメラ位置41,42,45,46に囲まれた
平面よりも下部の領域(点線で囲まれた領域)にあり、
視野範囲の領域がカメラの撮像範囲に含まれているよう
な視線方向である場合に、欠損領域の少ない仮想視点画
像が得られる。
【0093】このような配置は、部屋の天井にカメラを
配置した場合に、360度任意の視線方向も可能なウォ
ークスルー画像を提供する場合に有効である。すべての
カメラの3次元空間中の位置は既知とする。図13では
6カ所の位置で撮像した画像と奥行きマップを取得する
場合を示したが、画像と奥行きマップを取得する視点位
置の数に制約はない。
【0094】図示実施例に従って本発明を説明したが、
本発明はこれに限定されるものではない。例えば、実施
例では、被写体に対向して前後左右に配置される6台の
カメラを想定したが、カメラの台数や配置形態はこれに
限られるものではない。
【0095】また、実施例では、先ず最初に、仮想視点
位置よりも被写体に近いカメラの中で、最も仮想視点位
置に近いカメラを選択することで仮想視点奥行きマップ
の基本部分を生成し、それに続いて、仮想視点位置より
も被写体から遠いカメラの中で、被写体に近いカメラを
優先的に選択していくことで、その仮想視点奥行きマッ
プの欠落個所を生成して仮想視点奥行きマップを完成さ
せていくという方法を用いたが、高速処理が要求される
場合には、画質よりも処理速度を優先させて、そのよう
な順番に従わずにカメラを選択していくことで、仮想視
点奥行きマップを高速に完成させていくという方法を用
いてもよい。
【0096】
【発明の効果】以上説明したように、本発明では、仮想
視点位置よりも被写体に近い視点位置で撮像した奥行き
データおよび画像を優先的に選択して仮想視点画像を生
成する手法であるため、仮想視点画像の解像度の低下を
最小限に抑えることができるようになる。
【0097】また、本発明では、複数の奥行きマップを
統合して1枚の仮想視点の奥行きマップを生成するた
め、奥行きマップの生成に関与しない画像間については
対応点を推定する必要がない。従って、すべての多視点
画像間の対応点が抽出されなくても、仮想視点画像を生
成することができる。このため、多視点画像のカメラ間
隔が離れている場合においても、滑らかな仮想視点画像
を生成することができるようになる。
【0098】また、本発明では、仮想視点位置から見え
る範囲が、複数の視点位置のカメラの撮像範囲に含まれ
ていれば、仮想視点画像を生成することができるため、
カメラの配置にかかる制限を軽減することができるよう
になる。
【0099】また、本発明では、光軸に対して前後方向
にもカメラを配置し、仮想視点画像の中心部分付近では
仮想視点位置よりも被写体に近いカメラの画像を使って
仮想視点画像を生成するため、ウォークスルー動画像に
おいてもフレーム間の切り替えが滑らかな動画像を生成
することができるようになる。
【図面の簡単な説明】
【図1】本発明で用いられるカメラ配置/仮想視点位置
の一例である。
【図2】本発明を実現するための機能構成の一実施例で
ある。
【図3】カメラの選択手順の説明図である。
【図4】多眼カメラシステムの一例である。
【図5】仮想視点奥行きマップ生成手段で用いる座標変
換の説明図である。
【図6】補間処理/平滑化処理の説明図である。
【図7】仮想視点画像生成手段で用いる座標変換の説明
図である。
【図8】本発明により生成される仮想視点画像の説明図
である。
【図9】実施例の動作説明図である。
【図10】実施例の動作説明図である。
【図11】実施例の動作説明図である。
【図12】本発明で用いられるカメラ配置/仮想視点位
置の他の例である。
【図13】本発明で用いられるカメラ配置/仮想視点位
置の他の例である。
【図14】従来技術の説明図である。
【図15】従来技術の説明図である。
【図16】従来技術の説明図である。
【符号の説明】
21 多眼画像入力手段 22 奥行きマップ生成手段 23 仮想視点奥行きマップ生成手段 24 仮想視点画像生成手段 25 視点位置選択手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 中沢 憲二 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 上平 員丈 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 2F065 AA04 AA53 BB05 FF05 FF09 GG04 JJ03 JJ05 QQ31 5B050 BA04 BA09 BA13 DA04 DA07 EA07 EA28 FA05 5B057 BA02 BA11 CA01 CA08 CA13 CB01 CB08 CB13 DC03

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 被写体に対向して配置される複数のカメ
    ラによって撮像された画像を基に、実際にはカメラの置
    かれていない仮想視点位置で撮像したような画像を生成
    する画像生成方法において、 実写画像の各画素について被写体までの奥行き値を保持
    する奥行きマップを生成する第1の処理過程と、 仮想視点位置よりも被写体に近いカメラにより撮像され
    る1つ又は複数の実写画像と、それに対応付けられる奥
    向きマップとを選択するとともに、仮想視点位置よりも
    被写体から遠いカメラにより撮像される1つ又は複数の
    実写画像と、それに対応付けられる奥向きマップとを選
    択して、それらの奥行きマップを基に、仮想視点位置か
    ら見た奥向きマップを生成する第2の処理過程と、 生成した仮想視点奥向きマップを基に、その仮想視点奥
    行きマップの生成元となった奥向きマップに対応付けら
    れる実写画像の画素の色情報を描画することで、仮想視
    点位置から見た画像を生成する第3の処理過程とを備え
    ることを特徴とする画像生成方法。
  2. 【請求項2】 請求項1記載の画像生成方法において、 第1の処理過程で、多眼カメラにより撮像される実写画
    像の対応点を抽出し、ステレオ法により三角測量の原理
    を用いて奥行き値を推定することで奥行きマップを生成
    することを特徴とする画像生成方法。
  3. 【請求項3】 請求項1記載の画像生成方法において、 第1の処理過程で、レーザ光による画像パターンを被写
    体に照射することにより奥行き値を推定することで奥行
    きマップを生成することを特徴とする画像生成方法。
  4. 【請求項4】 請求項1〜3のいずれかに記載される画
    像生成方法において、 第2の処理過程で、仮想視点位置よりも被写体に近い中
    で仮想視点位置に最も近い奥行きマップを選択して、そ
    れを基に、仮想視点位置から見た奥向きマップを生成
    し、その仮想視点奥向きマップの欠落部分の一部分を生
    成可能とする仮想視点位置よりも被写体に近い1つ又は
    複数の奥行きマップを選択して、それを基に、その欠落
    部分の一部分を生成し、残されている欠落部分を生成可
    能とする仮想視点位置よりも被写体から遠い1つ又は複
    数の奥行きマップを選択して、それを基に、その残され
    ている欠落部分を生成することで、仮想視点位置から見
    た奥向きマップを生成することを特徴とする画像生成方
    法。
  5. 【請求項5】 被写体に対向して配置される複数のカメ
    ラによって撮像された画像を基に、実際にはカメラの置
    かれていない仮想視点位置で撮像したような画像を生成
    する画像生成装置において、 実写画像の各画素について被写体までの奥行き値を保持
    する奥行きマップを生成する手段と、 仮想視点位置よりも被写体に近いカメラにより撮像され
    る1つ又は複数の実写画像と、それに対応付けられる奥
    向きマップとを選択するとともに、仮想視点位置よりも
    被写体から遠いカメラにより撮像される1つ又は複数の
    実写画像と、それに対応付けられる奥向きマップとを選
    択して、それらの奥行きマップを基に、仮想視点位置か
    ら見た奥向きマップを生成する手段と、 生成した仮想視点奥向きマップを基に、その仮想視点奥
    行きマップの生成元となった奥向きマップに対応付けら
    れる実写画像の画素の色情報を描画することで、仮想視
    点位置から見た画像を生成する手段とを備えることを特
    徴とする画像生成装置。
JP23776699A 1999-08-25 1999-08-25 画像生成方法及びその装置 Expired - Fee Related JP3561446B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23776699A JP3561446B2 (ja) 1999-08-25 1999-08-25 画像生成方法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23776699A JP3561446B2 (ja) 1999-08-25 1999-08-25 画像生成方法及びその装置

Publications (2)

Publication Number Publication Date
JP2001067473A true JP2001067473A (ja) 2001-03-16
JP3561446B2 JP3561446B2 (ja) 2004-09-02

Family

ID=17020137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23776699A Expired - Fee Related JP3561446B2 (ja) 1999-08-25 1999-08-25 画像生成方法及びその装置

Country Status (1)

Country Link
JP (1) JP3561446B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100433625B1 (ko) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치
JP2005149127A (ja) * 2003-11-14 2005-06-09 Sony Corp 撮像表示装置及び方法、画像送受信システム
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2009212664A (ja) * 2008-03-03 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP2010244221A (ja) * 2009-04-03 2010-10-28 Kddi Corp 画像生成装置、方法及びプログラム
JP2010244220A (ja) * 2009-04-03 2010-10-28 Kddi Corp 画像処理装置、方法及びプログラム
JP4658223B2 (ja) * 2007-10-15 2011-03-23 日本電信電話株式会社 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
JP2011120283A (ja) * 2011-02-23 2011-06-16 Nagoya Univ 画像情報処理方法及び画像情報受信システム
WO2012063540A1 (ja) * 2010-11-12 2012-05-18 シャープ株式会社 仮想視点画像生成装置
JP2012222743A (ja) * 2011-04-13 2012-11-12 Canon Inc 撮像装置
US8355596B2 (en) 2007-10-15 2013-01-15 Nippon Telegraph And Telephone Corporation Image generation method and apparatus, program therefor, and storage medium which stores the program
JP2020515977A (ja) * 2017-03-29 2020-05-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビデオからの画像生成
WO2021215236A1 (ja) * 2020-04-21 2021-10-28 ソニーグループ株式会社 情報処理装置、情報処理方法および記録媒体
WO2021220891A1 (ja) * 2020-04-27 2021-11-04 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011052064A1 (ja) 2009-10-30 2011-05-05 キヤノン株式会社 情報処理装置および方法

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100433625B1 (ko) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2005149127A (ja) * 2003-11-14 2005-06-09 Sony Corp 撮像表示装置及び方法、画像送受信システム
JP4595313B2 (ja) * 2003-11-14 2010-12-08 ソニー株式会社 撮像表示装置及び方法、画像送受信システム
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム
JP4706068B2 (ja) * 2007-04-13 2011-06-22 国立大学法人名古屋大学 画像情報処理方法及び画像情報処理システム
KR101134668B1 (ko) 2007-10-15 2012-04-09 니폰덴신뎅와 가부시키가이샤 화상 생성 방법, 장치 및 그 프로그램과 프로그램을 기록한 기록매체
US8363985B2 (en) 2007-10-15 2013-01-29 Nippon Telegraph And Telephone Corporation Image generation method and apparatus, program therefor, and storage medium which stores the program
JP4658223B2 (ja) * 2007-10-15 2011-03-23 日本電信電話株式会社 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
JP2011118908A (ja) * 2007-10-15 2011-06-16 Nippon Telegr & Teleph Corp <Ntt> 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体
US8355596B2 (en) 2007-10-15 2013-01-15 Nippon Telegraph And Telephone Corporation Image generation method and apparatus, program therefor, and storage medium which stores the program
JP2009212664A (ja) * 2008-03-03 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP2010244220A (ja) * 2009-04-03 2010-10-28 Kddi Corp 画像処理装置、方法及びプログラム
JP2010244221A (ja) * 2009-04-03 2010-10-28 Kddi Corp 画像生成装置、方法及びプログラム
US8548227B2 (en) 2009-04-03 2013-10-01 Kddi Corporation Image processing apparatus and computer program
US8687000B2 (en) 2009-04-03 2014-04-01 Kddi Corporation Image generating apparatus and computer program
WO2012063540A1 (ja) * 2010-11-12 2012-05-18 シャープ株式会社 仮想視点画像生成装置
JP2011120283A (ja) * 2011-02-23 2011-06-16 Nagoya Univ 画像情報処理方法及び画像情報受信システム
JP2012222743A (ja) * 2011-04-13 2012-11-12 Canon Inc 撮像装置
JP2020515977A (ja) * 2017-03-29 2020-05-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビデオからの画像生成
JP7138653B2 (ja) 2017-03-29 2022-09-16 コーニンクレッカ フィリップス エヌ ヴェ ビデオからの画像生成
WO2021215236A1 (ja) * 2020-04-21 2021-10-28 ソニーグループ株式会社 情報処理装置、情報処理方法および記録媒体
WO2021220891A1 (ja) * 2020-04-27 2021-11-04 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム
JP7467612B2 (ja) 2020-04-27 2024-04-15 富士フイルム株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP3561446B2 (ja) 2004-09-02

Similar Documents

Publication Publication Date Title
JP3593466B2 (ja) 仮想視点画像生成方法およびその装置
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
JP3420504B2 (ja) 情報処理方法
JP3561446B2 (ja) 画像生成方法及びその装置
US20020106120A1 (en) Method of analyzing in real time the correspondence of image characteristics in corresponding video images
EP1877982A1 (en) 3d image generation and display system
JP3524147B2 (ja) 3次元画像表示装置
Maimone et al. A first look at a telepresence system with room-sized real-time 3d capture and life-sized tracked display wall
JPH08331607A (ja) 三次元表示画像生成方法
KR20170102521A (ko) 이미지 처리 방법 및 장치
JPWO2004114224A1 (ja) 仮想視点画像生成方法及び3次元画像表示方法並びに装置
JP2000251090A (ja) 描画装置及び該描画装置で被写界深度を表現する方法
Zhang et al. Stereoscopic video synthesis from a monocular video
US8577202B2 (en) Method for processing a video data set
WO2019050038A1 (ja) 画像生成方法および画像生成装置
TWI820246B (zh) 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品
JP2003067784A (ja) 情報処理装置
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
CN117196955A (zh) 一种全景图像拼接方法及终端
JP4236705B2 (ja) 直前の原フレームのみに基づく1つ以上の中間フレームを合成することにより原フレームの系列からディスプレイフレームを発生させる方法及びデバイス
JPH0981746A (ja) 二次元表示画像生成方法
Knorr et al. From 2D-to stereo-to multi-view video
Xu et al. Computer vision for a 3-D visualisation and telepresence collaborative working environment
JPH07296195A (ja) 画像処理装置及び方法
Bajcsy et al. 3D reconstruction of environments for virtual collaboration

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20031211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040528

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090604

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090604

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100604

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees