JP2004229093A - Method, device, and program for generating stereoscopic image, and recording medium - Google Patents

Method, device, and program for generating stereoscopic image, and recording medium Download PDF

Info

Publication number
JP2004229093A
JP2004229093A JP2003016302A JP2003016302A JP2004229093A JP 2004229093 A JP2004229093 A JP 2004229093A JP 2003016302 A JP2003016302 A JP 2003016302A JP 2003016302 A JP2003016302 A JP 2003016302A JP 2004229093 A JP2004229093 A JP 2004229093A
Authority
JP
Japan
Prior art keywords
image data
distance image
distance
moving
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003016302A
Other languages
Japanese (ja)
Other versions
JP3988879B2 (en
Inventor
Akihiko Hashimoto
秋彦 橋本
Hajime Noto
肇 能登
Kenji Nakazawa
憲二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003016302A priority Critical patent/JP3988879B2/en
Publication of JP2004229093A publication Critical patent/JP2004229093A/en
Application granted granted Critical
Publication of JP3988879B2 publication Critical patent/JP3988879B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of easily generating a stereoscopic image of a moving picture. <P>SOLUTION: This stereoscopic image generating method comprises a step for inputting a moving image data in each one frame time, a step for inputting data (hereafter called range image data) for generating a stereoscopic image from the moving image data in an intermittent frame interval, and a step for interpolating and generating the range image data at a frame time when the range image data are not present on the basis of the moving image data and the inputted range image data. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、立体動画像データ生成方法及び立体動画像データ生成装置、ならびに立体動画像データ生成プログラム及び記録媒体に関し、特に、携帯機器等で表示する立体動画像データの生成に適用して有効な技術に関するものである。
【0002】
【従来の技術】
従来、画像通信の分野では、より高い臨場感が得られる立体画像による動画通信が注目されており、学会発表や企業のデモ試作等も盛んになりつつある。ここで、前記立体画像とは、色や輝度を記録した二次元画像と、計測地点から撮影対象までの距離を記録した距離画像または奥行き画像と呼ばれる画像の組み合わせであるとする。また、前記距離画像とは、各画素に撮影対象までの距離を記録した画像である。また、前記動画とは、例えば、毎秒30フレーム程度以上の画像からなるものとする。
【0003】
前記立体画像による動画を生成するときには、例えば、TVカメラ等で前記色や輝度を記録した二次元画像からなる動画像データを入力し、距離計測器等で前記距離画像データを入力する。
【0004】
また、前記立体画像による動画を生成する方法には、例えば、視差を有する2枚の二次元画像を用いて距離画像データを生成する方法もある。
【0005】
また、二次元画像の視差画像による立体画像を生成する方法として、距離画像から輪郭部を求めて視差領域を決定し、前後の画像と動きベクトル等を用いて視差量を生成する技術が開示されている(たとえば、特許文献1を参照。)。
【0006】
【特許文献1】
特開2000‐253422号公報
【0007】
【発明が解決しようとする課題】
しかしながら、前記従来の技術では、前記立体画像による動画通信を行うことが難しいという問題があった。
【0008】
前記立体画像による動画通信を行うためには、例えば、毎秒30フレーム以上の距離画像データを入力しなければならないが、従来、そのような高速で距離画像データを取得できる距離計測器は非常に高価であり、携帯機器に組み込んで用いることが難しい。
【0009】
また、従来の技術では、前記距離画像データは、前記二次元画像と同様に1フレーム時間毎に取得し、入力しているので、消費電力量が高くなる。そのため、充電池等で使用する携帯機器等への組み込みが難しいという問題があった。
【0010】
また、携帯機器に組み込み可能な技術として、例えば、遠近の区別ができる程度の分解能の低い距離画像データを入力し、これを用いて書き割り形式の立体画像表示を行う方法がある。また、前記分解能の低い距離画像から、擬似的な距離画像データを生成して立体表示する方法もある。ここで、前記擬似的な距離画像データとは、距離を計測によってではなく、人為的に生成したデータであるとする。すなわち、前記擬似的な距離画像データは、必ずしも現実の距離と一致しているわけではなく、近似の度合いは生成のアルゴリズムに依存する。
【0011】
しかしながら、前記各方法でも、前記各距離画像データは1フレーム時間毎に取得するので、消費電力量が高い。そのため、携帯機器で立体画像を動画入力することが難しいという問題があった。
【0012】
また、前記特許文献1に記載されたような技術でも、前記距離画像データは1フレーム時間毎に取得するので、消費電力量が高く、携帯機器に組み込んで用いることが難しいという問題があった。
【0013】
本発明の目的は、動画の立体画像を容易に生成することが可能な技術を提供することにある。
【0014】
本発明の他の目的は、動画の立体画像を生成する装置の消費電力量を低減することが可能な技術を提供することにある。
【0015】
本発明の他の目的は、立体画像による動画入力を容易にし、かつ、立体画像生成時の消費電力量を低減することが可能なプログラム及び記録媒体を提供することにある。
【0016】
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかになるであろう。
【0017】
【課題を解決するための手段】
本願において開示される発明の概要を説明すれば、以下の通りである。
(1)1フレーム時間毎の動画像データを入力するステップと、前記動画像データから立体画像を生成するためのデータ(以下、距離画像データと称する)を、間欠的なフレーム間隔で入力するステップと、前記動画像データ及び前記入力された距離画像データに基づいて、前記距離画像データが存在しないフレーム時刻の距離画像データを補間生成するステップとを有する立体画像生成方法である。
【0018】
(2)前記(1)の手段において、前記距離画像データを補間生成するステップは、前記入力された距離画像データから、遠近の境目領域を求めるステップと、前記入力された距離画像データと同じフレーム時刻の動画像データから、前記境目領域と同じ位置、または前記境目領域の近傍の輪郭部領域を求めるステップと、前記距離画像データが存在しないフレーム時刻の動画像データから、前記輪郭部領域に相当する領域を求めるステップと、前記輪郭部領域と、前記輪郭部領域に相当する領域の移動量に基づいて、前記境目領域及びその内部領域を移動させて、前記距離画像データを生成するステップとを有する。
【0019】
(3)前記(1)の手段において、前記距離画像データを補間生成するステップは、前記入力された距離画像データと同じフレーム時刻の動画像データを選択するステップと、前記選択された動画像データから、前記距離画像データが存在しないフレーム時刻の動画像データまでの間の画像の動きベクトルを求めるステップと、前記入力された距離画像データを複数の領域に分割し、前記動きベクトルに基づいて前記各領域を移動させて、距離画像データを生成するステップとを有する。
【0020】
(4)前記(1)から(3)の各手段において、前記距離画像データを入力するステップは、前記距離画像データを生成可能な補助画像データを、間欠的なフレーム間隔で入力するステップと、前記補助画像データ、または前記補助画像データ及び前記補助画像データと同じフレーム時刻の動画像データに基づいて距離画像データを生成するステップとを有する。
【0021】
前記(1)の手段によれば、距離計測器などの前記距離画像データを取得する手段を高速で動作させることができない場合でも、立体画像による動画を容易に得ることができる。
【0022】
このとき、前記距離画像データを補間生成するステップは、例えば、前記(2)の手段あるいは前記(3)の手段の各ステップによる処理を行う。
【0023】
また、前記距離画像データを入力するステップは、距離計測器等を用いて、直接距離画像データを入力してもよいし、前記(4)の手段のように、前記補助画像データから間接的に生成した距離画像データを入力してもよい。
【0024】
(5)1フレーム時間毎の動画像データを入力する動画像データ入力手段と、前記動画像データから立体画像を生成するためのデータ(以下、距離画像データと称する)を、間欠的なフレーム間隔で入力する距離画像データ入力手段と、前記動画像データ入力手段から入力された動画像データ及び前記距離画像データ入力手段から入力された距離画像データに基づいて、前記距離画像データが存在しないフレーム時刻の距離画像データを補間生成する距離画像データ補間手段とを備える立体画像生成装置である。
【0025】
(6)前記(5)の手段において、前記距離画像データ補間手段は、前記距離画像データ入力手段から入力された距離画像データから、遠近の境目領域を求める手段と、前記距離画像データと同じフレーム時刻の動画像データから、前記境目領域と同じ位置、または前記境目領域の近傍の輪郭部領域を求める手段と、前記距離画像データが存在しないフレーム時刻の動画像データから、前記輪郭部領域に相当する領域を求める手段と、前記輪郭部領域と、前記輪郭部領域に相当する領域の移動量に基づいて、前記境目領域及びその内部領域を移動させて、前記距離画像データを生成する手段とを有する。
【0026】
(7)前記(5)の手段において、前記距離画像データ補間手段は、前記入力された距離画像データと同じフレーム時刻の動画像データを選択する手段と、前記選択された動画像データから、前記距離画像データが存在しないフレーム時刻の動画像データまでの間の画像の動きベクトルを求める手段と、前記入力された距離画像データを複数の領域に分割し、前記動きベクトルに基づいて前記各領域を移動させて、距離画像データを生成する手段とを備える。
【0027】
(8)前記(5)から(7)の手段において、前記距離画像データ入力手段は、前記距離画像データを生成可能な補助画像データを、間欠的なフレーム間隔で入力する補助画像データ入力手段と、前記補助画像データ、または前記補助画像データ及び前記補助画像データと同じフレーム時刻の動画像データに基づいて距離画像データを生成する手段とを備える。
【0028】
前記(5)の手段によれば、距離計測器などの距離画像データを取得する手段を高速で動作させることができない場合でも、立体画像による動画を容易に得ることができる。
【0029】
また、前記距離画像データを取得する手段が、1フレーム時間毎に距離画像データを取得できる手段であっても、動作を間欠的にすることで、消費電力量を低くすることができる。
【0030】
また、前記距離画像データ補間手段は、例えば、前記(6)の手段または前記(7)の手段の各手段を備える。
【0031】
また、前記距離画像データ入力手段は、距離計測器等から前記距離画像データを直接入力する手段であってもよいし、前記(8)の手段のように、前記補助画像データを入力する手段と、前記補助画像データから距離画像データを生成する手段を設けて、間接的に距離画像データを入力してもよい。
【0032】
以上のようなことから、前記(5)から(8)の手段を用いることで、前記立体画像生成装置の携帯機器への組み込みを容易にすることができる。
【0033】
(9)前記(1)から(4)の各手段のいずれかの立体画像生成方法の、各ステップをコンピュータに実行させるための立体画像生成プログラムである。
【0034】
前記(9)の手段によれば、コンピュータなどの汎用機器(装置)を用いて容易に立体画像を生成させることができる。
【0035】
(10)前記(9)の手段の立体画像生成プログラムがコンピュータで読み取り可能に記録された記録媒体。
【0036】
前記(10)の手段によれば、前記記録媒体をコピー、あるいはネットワークを通して提供することができる。そのため、前記立体画像生成プログラムを実行可能な装置であれば、どのような装置でも立体画像を生成させることができる。
【0037】
以下、本発明について、図面を参照して実施の形態(実施例)とともに詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは、同一符号を付け、その繰り返しの説明は省略する。
【0038】
【発明の実施の形態】
(実施例1)
図1は、本発明による実施例1の立体画像生成装置の概略構成を示す模式図である。
【0039】
本実施例1の立体画像生成装置は、図1に示すように、動画像データ取得手段1Aから動画像データを入力する動画像データ入力手段1Bと、距離画像データ取得手段2Aから距離画像データを入力する距離画像データ入力手段2Bと、前記動画像データ入力手段1B及び前記距離画像データ入力手段2Bに入力する各データの制御をする制御手段3と、前記動画像データ入力手段1から入力された動画像データを記録する動画像データ記録手段4と、前記距離画像データ入力手段2から入力された距離画像データを記録する距離画像データ記録手段5と、距離画像データを補間生成する距離画像データ補間手段6とを備える。
【0040】
また、前記立体画像生成装置は、例えば、毎秒30フレーム以上の動画像データと距離画像データの組からなる立体画像を生成する装置であり、生成した前記立体画像は、図1に示したように、演算手段7で演算し、表示手段8で表示することにより立体化された動画像を得ることができる。このとき、前記動画像データ入力手段1B、前記距離画像データ入力手段2B、前記制御手段3、前記動画像データ記録手段4、前記距離画像データ記録手段5、前記距離画像データ補間手段6、前記演算手段7の各手段は、コンピュータのCPUやメモリを用いることができる。
【0041】
図2及び図3は、本実施例1の立体画像生成装置を用いた立体画像生成方法を説明するための模式図であり、立体画像生成方法の全体的な処理手順を示す図である。
【0042】
本実施例1の立体画像生成装置を用いて前記立体画像を生成するには、まず、図2に示すように、動画像データCM(T)及び距離画像データRM(T)を入力し、前記動画像データ記録手段4及び前記距離画像データ記録手段5に記録する。このとき、前記動画像データCM(T)は、1フレーム時間毎に入力するが、前記距離画像データRM(T)はNフレーム間隔、たとえば、図2に示したように、3フレーム毎の間欠的なフレーム間隔で入力する。またこのとき、前記距離画像データRM(T)は、たとえば、1bitの分解能の距離画像データであって、黒い領域11は近景領域、たとえば、撮影対象10に相当する領域であり、白い領域は遠景領域であるとする。
【0043】
しかしながら、この状態では、前記距離画像データRMが存在しないフレーム時刻の動画像データRM(T+1),RM(T+2)があるので、そのままでは前記立体画像を生成したことにならない。そこで、前記動画像データ及び距離画像データを用いて、存在しないフレーム時間の距離画像データを補間生成する。
【0044】
本実施例1の立体画像生成方法では、図2及び図3に示すように、初期化(ステップ1401)した後、前記距離画像データRM(T)から、近景と遠景の境目領域12を求め、この画像をQ(T)とする(ステップ1402)。
【0045】
次に、前記距離画像データRM(T)と同じフレーム時刻Tの動画像データCM(T)から、前記画像Q(T)の境目領域12と同じ領域、または近傍の位置にある輪郭部領域13を求め、この画像をR(T)とする(ステップ1403)。
【0046】
次に、距離画像データが存在しないフレーム時刻T+1の動画像データCM(T+1)から、前記画像R(T)の輪郭部領域13と同じ領域を求め、この画像をR(T+1)とする(ステップ1404)。前記映像領域を求めるためには、たとえば、既存のパターンマッチング法(田村秀行著、「コンピュータ画像処理入門」、総研出版、p.148‐153)を用いる。パターンマッチング法には様々なバリエーションがあり、適宜選択することができる。
【0047】
次に、前記ステップ1404で求めた画像R(T+1)における輪郭部領域13の、前記画像R(T)の輪郭部領域13に対する移動量に合わせて、前記フレーム時刻Tの距離画像データRM(T)における近景領域11を移動させることで、フレーム時刻T+1の距離画像データRM(T+1)を生成する(ステップ1405)。
【0048】
その後、次のフレーム時刻T+2の距離画像データRM(T+2)が存在するか調べる(ステップ1406,1407,1408,1409)。本実施例1では、フレーム時刻T+2の距離画像データRM(T+2)は存在しないので、前記フレーム時刻T+1の距離画像データRM(T+1)と同様の手順で生成する。このとき、フレーム時刻がT+2の前記動画像データの映像領域の位置は、たとえば、図2に示すように、前記フレーム時刻がTの動画像データの輪郭部領域と直接パターンマッチングして求めても良いし、フレーム時刻がT+1の動画像データの輪郭部領域とパターンマッチングして求めても良い。
【0049】
以上の手順を繰り返すことにより、前記距離画像データが存在しないフレーム時刻の距離画像データを順次補間生成することができる。そのため、本実施例1の立体画像生成装置では、1フレーム時間毎に距離画像データを取得する必要がない。そのため、間欠的なフレーム間隔でしか動作できない距離画像データ取得手段2Aを用いることが可能である。また、前記距離画像データ入力手段2Aが、1フレーム時間毎の距離画像データを取得できる場合でも、間欠的に動作させることにより、消費電力量を低減することができる。また、本実施例1では、前記距離画像データを3フレーム時間毎に入力しているが、これに限らず、たとえば、5フレーム時間毎あるいは10フレーム時間毎に入力することも可能であり、フレーム時間間隔を大きくすることで、消費電力量を大幅に低減することができる。
【0050】
図4乃至図18は、本実施例1の立体画像生成方法の具体例を説明するための図である。
【0051】
本実施例1の立体画像生成方法では、まず、図4に示したように、1フレーム毎の動画像データCMと、Nフレーム毎の距離画像データRMを入力し、前記動画像データ記録手段4及び前記距離画像データ記録手段5に記録する。このとき、画像と分解能の低い距離画像がともに存在するフレーム時刻をTとすると、CM(T),CM(T+1),・・・,CM(T+N−1)の動画像に対してRM(T)が1枚存在する。これらの画像から、RM(T+1),・・・,RM(T+N−1)の距離画像データを生成することによって動画の立体画像データを生成する。ここで、CMもRMも縦横X,Y画素の画像サイズであるとする。また、CM(T)の座標(x,y)のデータ値をCM(T)x,yと記述し、RM(T)の座標(x,y)のデータ値をRM(T)x,yと記述する。CM(T)x,yはRGBデータであり、RM(T)x,yは0か1の2値データである。ここで、1は近景、0は遠景を表すものとする。
【0052】
また、前記動画像データCM及び前記距離画像データRMを入力するときには、図5に示すように、動画像撮影用のTVカメラ(動画像データ取得手段)1Aと、距離画像撮影用のTVカメラ(距離画像データ取得手段)2Bと、フラッシュなどのパルス光を照射する光源15とを前記制御手段3で制御する。
【0053】
このとき、前記距離画像データ取得手段2Aの撮影光軸は、全反射ミラー16及びハーフミラー17によって前記動画像データ取得手段1Aの撮影光軸と合わせ、同じ撮影画角及び同じ撮影視点で撮影できるように設定する。
【0054】
前記動画像データ取得手段1Aを用いて前記動画像データCMを入力するときには、前記制御手段3から前記動画像データ取得手段1Aに対して、図6(a)に示すように、あらかじめ設定されたフレーム時間毎に制御信号を出力し、前記動画像データを撮影し、前記動画像データ入力手段1Bに入力する。このとき、フレームの時間間隔ΔTは、例えば、1/30秒に設定する。
【0055】
一方、前記距離画像データRMを入力するときには、前記制御手段3から前記距離画像データ取得手段2Aに対して、図6(b)に示すように、あらかじめ設定したフレーム間隔のN倍の時間間隔、例えば、前記動画像データのフレーム間隔の3倍の時間間隔で制御信号を出力し、間欠的な距離画像データを撮影し、前記距離画像データ入力手段2Bに入力する。このとき、前記制御手段3は、前記光源15にも同じタイミングで制御信号を出力し、撮影対象10を照明しておく。
【0056】
なお、前記動画像データ取得手段1Aと前記距離画像データ取得手段2Aの撮影開始時刻は、少なくとも前記動画像データ取得手段1Aの露光時間以上ずらしておくか、もしくは、光源15から照射する照明光に赤外光を用い、前記距離画像データ取得手段2Aに赤外カメラを使う等することによって、照明光が前記動画像データ取得手段1のA撮影に影響しないようにする。
【0057】
また、高速度カメラを用いることにより前記動画像データ取得手段1Aと前記距離画像取得手段2Aを一台のカメラで兼用することも可能である。この場合、前記全反射ミラー16及び前記ハーフミラー17は不要である。
【0058】
また、前記距離画像データ取得手段2Aで撮影した距離画像データRMP(T)は、例えば、遠近の区別のみを記録した分解能の低い距離画像データRM(T)に変換する。そこでまず、図7に示すように、時刻Tに前記動画像データ取得手段1Aで撮影した動画像データCM(T)にもっとも撮影時刻の近い距離画像データRMP(T)を選ぶ(ステップ1801)。この2枚の画像データは同じ撮影時刻に同じ撮影対象を照明の有無のみが異なって撮影した画像データとみなすことができる。
【0059】
次に、前記動画像データCM(T)と距離画像データRMP(T)において、同座標(x,y)でCM(T)x,y/RMP(T)x,yの比を求め(ステップ1802)、ある設定値k以上の比であった場合にはRM(T)x,y=1(ステップ1803)、そうでない場合にはRM(T)x,y=0(ステップ1804)とすることによってRM(T)x,yを生成する。以降、座標(x,y)を更新(ステップ1805)して、すべての座標においてRM(T)x,yを生成し(ステップ1806)、距離画像データRM(T)とする。
【0060】
照明した撮影画像は照明しない撮像画像と比較すると、近景の撮影対象は明るくなるのに対して、遠景の画像の明るさはあまり変わらないため、この判定処理によって、近景領域は1、遠景領域は0で表現される分解能の低い距離画像データRM(T)が生成されることになる。なお、前記分解能の低い距離画像データRM(T)は、比の代わりに差を用いて生成しても構わない。
【0061】
また、本実施例1では分解能の低い距離画像データRM(T)の入力手段としてフラッシュなどの光源15を用いる撮影方法を示したが、分解能の低い距離画像データRM(T)を取得、あるいは入力できるのであれば、前記実施例1に示した方法に限定されるものではなく、近景に焦点のあった画像と遠景に焦点のあった画像(またはパンフォーカス画像)間で空間周波数の大小に応じて距離を算出してもよく、あるいはステレオ撮影して単純に差分を取り、ある設定値を下回る差分値を示した領域を遠景領域として分解能の低い距離画像データRM(T)を生成すること等が可能である。
【0062】
次に、図2及び図3に示した手順にしたがって、動画の立体画像データを生成してゆく。
【0063】
前記距離画像データRM(T)から境目領域12の画像Q(T)を求めるステップ1402では、まず、図8に示すように、距離画像データRM(T)の座標(x,y)の画素RM(T)x,yと隣接する画素の値を比較する(ステップ1402a,1402b)。このとき、前記RM(T)x,yと隣接する画素は、図9(a)に示すように、8連結で隣接するRM(T)x−1,y−1、RM(T)x−1,y、RM(T)x−1,y+1、RM(T)x,y−1、RM(T)x,y+1、RM(T)x+1,y−1、RM(T)x+1,y、RM(T)x+1,y+1とし、全てが同じデータ値であったときにはQ(T)x,y=0(ステップ1402c)、そうでない場合はQ(T)x,y=1(ステップ1402d)とする。その後、座標(x,y)を更新(ステップ1402e)し、すべての画素RM(T)x,yについてQ(T)x,yを求め、図9(b)に示したような、境目領域12の画像Q(T)を生成する。
【0064】
また、前記ステップ1402aでは、画素RM(T)x,yと8連結で隣接する場合を示したが、4連結で隣接するRM(T)x−1,y、RM(T)x,y−1、RM(T)x,y+1、RM(T)x+1,yと比較してQ(T)を生成しても良い。
【0065】
次に、前記動画像データCM(T)から前記境目領域12と同じ位置または近傍にある輪郭部領域13を求めるステップ1403は、まず、図10に示すように、輪郭部領域13の画像R(T)のブロックR(T)i,jに相当するQ(T)i,jを抽出する(ステップ1403a)。このとき、前記R(T)i,jは、図11(a)に示すように、横方向がX/W画素,縦方向がY/W画素のブロック画像とし、i,jはブロック座標を表している。またこのとき、前記X,Y,Wは、X/WとY/Wが整数となるように、あらかじめ設定されているものとする。Rの各画素は2値データ格納エリアRki,jと移動ベクトル格納エリアRVi,jで構成されているものとする。
【0066】
また、前記Q(T)i,jは、図11(b)に示すように、縦W画素,横W画素毎に分割して抽出する。このとき、前記Q(T)i,jの各画素の値を調べ(ステップ1403b)、すべて0の場合にはRk(T)i,j=0とし(ステップ1403c)、1である画素が含まれる場合にはRk(T)i,j=1とする(ステップ1403d)。その後、iまたはjを更新し(ステップ1403e)、すべてのR(T)i,jに対するRk(T)i,jを求めるまで繰り返す(ステップ1403f)。
【0067】
前記Rk(T)i,jは、CM(T)に対して遠近の境目領域と同じ位置または近傍にある輪郭部領域のみを示すデータである。すなわち、Rki,j=1ならば、座標(i×W,j×W)から座標((i+1)×W−1,(j+1)×W−1)を対角の頂点とするブロック領域が境目領域と同じ位置または近傍にある輪郭部領域となる。また、Rki,j=0ならば、座標(i×W,j×W)から座標((i+1)×W−1,(j+1)×W−1)を対角の頂点とするブロック領域は境目領域と同じ位置または近傍にある輪郭部領域ではない。そのため、Rk(T)i,jを求めることにより、図12に示したような、輪郭部領域13の画像R(T)が得られる。
【0068】
なお、本実施例1では輪郭部領域13の画像R(T)のブロックR(T)i,jを矩形状のブロックに分割したが、これに限らず、種々の形状で分割し、抽出してよい。
【0069】
次に、フレーム時刻T+nの動画像データCM(T+n)から、前記ステップ1403で求めた輪郭部領域13に相当する輪郭部領域を求めるステップ1404では、まず、図13に示すように、前記CM(T)において、Rk(T)i,j=1のブロックを抽出する(ステップ1404a)。
【0070】
次に、Rk(T)i,j=1のブロックから、図14(a)に示すように、CM(T)の座標(i×W,j×W)から座標((i+1)×W−1,(j+1)×W−1)のブロックを、縦横W画素の参照画像B(T)i,jとして切り出す(ステップ1404a,1404b)。
【0071】
次に、図14(b)に示すように、CM(T+n)内でもっともB(T)i,jに画像内容の近いブロックを決定し、このブロックの左上の座標値(i×W+dx,j×W+dy)を得る(ステップ1404c)。このときdxとdyはフレーム数n進んだ画像におけるB(T+n)i,jに含まれる輪郭部領域のx方向とy方向に移動した距離を表す。dxとdyをRV(T+n)i,jに格納する(ステップ1404d)。
【0072】
なお、画像内容の近いブロックは、2つのブロック毎に相関量を求め画像内で最も高い相関量を示したブロックを画像内容の近いブロックと決定する。相関量の式は統計論で用いられる厳密な式から画素毎の差分の二乗和等の簡略な式まで様々な既存の式があり、ブロックの探索法(例えば、K.R.Rao 他著、「デジタル放送・インターネットのための情報圧縮技術」、共立出版、p.69‐71)も様々な既存手法が存在するが、本発明ではこれらを特定の式または手法に限定するものではない。また、本実施例ではブロック相関法を用いた例を示したが、輪郭部領域のx方向とy方向に移動した距離が求められるのであればブロック相関法に限定するものではない。
【0073】
次に、iまたはjを更新して(ステップ1404e)、上記の処理を全てのRk(T)i,j=1であるブロックに対して行い(ステップ1404f)、各々のブロックに対して移動量dx,dyを求めてRV(T+n)i,jに格納する。そしてさらに、画像R(T)内の各B(T)i,jをRV(T+n)i,jのdx及びdyに基づいて移動させることにより、図15に示すように、フレーム時刻T+nの動画像データCM(T+n)に対応する輪郭部領域13の画像R(T+n)が得られる。
【0074】
次に、フレーム時刻T+nの距離画像データRM(T+n)を生成するステップ1405では、まず、図16に示すように、フレーム時刻Tの距離画像データRM(T)から、前記ブロックB(T)i,jに相当するブロックを、RV(T+n)i,jのdx及びdyに基づいて移動させる(ステップ1405a)。このとき、前記移動させるブロックは、図17(a)及び図17(b)に示すように、Rk(T)i,j=1のブロックのみ、すなわち境目領域12のみをまず移動させる。
【0075】
ところで、移動前にブロック内に存在する境目領域はブロック間で連続しているが、移動方向や移動量によっては移動後のブロック間で途切れてしまうことがある。不連続になってしまった境目領域については、各々のブロック境界で途切れた点同士を直線で接続することによって連続性を回復する(ステップ1405b)。なお、本実施例では直線補間による接続例を示したが、本発明は接続を直線補間に限定するものではない。
【0076】
次に、境目領域12で囲まれた内部領域を全て境目領域内側の近傍領域のデータに置き換えることによって塗りつぶすことで、図18に示すように、フレーム時刻T+nの距離画像データRM(T+n)が得られる。
【0077】
その後、図3に示したように、フレーム時刻を更新して、前記各ステップの処理を繰り返し行うことによって、距離画像データを取得していないフレーム時刻における分解能の低い距離画像データRM(T+n)が全て生成され、動画の立体画像データが生成されることになる。
【0078】
図19は、本実施例1の立体画像生成方法で生成した立体画像の特徴を説明するための模式図である。
【0079】
本実施例1の方法によって生成される距離画像データは、動画像データから抽出したx方向とy方向の動きに合わせて距離画像を移動させて生成するものである。そのため、撮影対象のz方向の動きを正確に表現することができない。例えば、図19(a)に示すように、撮影対象が撮影地点に近づくと、実際には、図19(b)に示したように、撮影地点に近づくにつれて、奥行き(z方向)の距離zが大きくなる。しかしながら、本実施例1によって生成される距離画像は図19(c)のように、奥行きの距離zがほとんど変わらない。したがって工業計測に使用するような動画の立体画像データの生成には不向きである。しかしながら、映像産業や通信産業で用いられる立体画像通信のような人間が見ることが目的である場合、画像と組み合わせて提示されるので、人間の視覚認識機構が合理的な解釈を行うことによって不自然さが目立たない。また、分解能の低い距離画像や擬似的な距離画像である場合、この点は元々問題にならない。
【0080】
以上説明したように、本実施例1の立体画像生成装置を用いた立体画像生成方法によれば、1フレーム毎に距離画像データを取得することができない距離画像データ取得手段2Aを用いても、容易に動画の立体画像を生成することができる。
【0081】
また、1フレーム毎に距離画像データを取得することができる距離画像データ取得手段2Aであっても、間欠的に取得することで、前記距離画像データ取得手段2Aの消費電力量を低減することができる。そのため、前記立体画像生成装置の携帯機器への組み込みが容易になる。
【0082】
また、前記立体画像生成方法をプログラム化すれば、前記各ステップをコンピュータに実行させることが可能である。そのため、専用の装置を用いることなく、動画の立体画像を容易に生成することができる。このとき、前記立体画像を生成するプログラムは、半導体メモリやハードディスク、CD−ROM等の記録媒体によって提供することも出来るし、ネットワークを通して提供することも可能である。
【0083】
なお、本実施例1では、分解能の低い距離画像の取得手段としてフラッシュを用いる撮影方法を示したが、分解能の低い距離画像を取得できるのであれば、実施例に示した方法に限定するものではなく、近景に焦点のあった画像と遠景に焦点のあった画像(またはパンフォーカス画像)間で空間周波数の大小に応じて距離を算出してもよく、あるいはステレオ撮影して単純に差分を取り、ある設定値を下回る差分値を示した領域を遠景領域として分解能の低い距離画像を生成すること等が可能である。
【0084】
(実施例2)
図20乃至図21は、本発明による実施例2の立体画像生成方法の全体的な処理手順を説明するための模式図である。
【0085】
本実施例2の立体画像生成方法は、例えば、前記実施例1で説明したような立体画像生成装置を用いて行うので、装置に関する詳細な説明は省略する。
【0086】
本実施例2の立体画像生成方法は、まず、図20に示すように、動画像データCM(T)及び距離画像データRM(T)を入力し、前記動画像データ記録手段4及び前記距離画像データ記録手段5に記録する。このとき、前記動画像データCM(T)は、1フレーム時間毎に入力するが、前記距離画像データRM(T)はNフレーム間隔、例えば、図20に示したように、3フレーム毎の間欠的なフレーム間隔で入力する。
【0087】
しかしながら、この状態では、前記距離画像データRMが存在しないフレーム時刻の動画像データCM(T+1),CM(T+2)があるので、そのままでは前記立体画像を生成したことにならない。そこで、前記動画像データ及び距離画像データを用いて、存在しないフレーム時間の距離画像データを補間生成する。
【0088】
本実施例2の立体画像生成方法では、まず、図20及び図21に示したように、あるフレーム時刻の距離画像データRMと、同フレーム時刻の動画像データを選択する(ステップ1902)。ここでは、図20に示したように、フレーム時刻Tの動画像データCM(T)と距離画像データRM(T)が選択された場合を説明する。なお、図20に示した距離画像データRM(T),RM(T+3)は、黒い領域が撮影地点からの距離が近い領域(近景領域)11を表しており、距離が遠くなるにしたがって白くなる。
【0089】
次に、前記ステップ1902で選択した動画像データCM(T)と、距離画像データのないフレーム時刻T+1の動画像データCM(T+1)との間での画像の動きベクトルを求める(ステップ1903)。この求めた動きベクトルをM(T+1)に示す。動きベクトルの画像M(T+1)中で矢印の記号MVが検出した動きベクトルである。なお、分かり易いように動きベクトルを矢印で図示したが、実際の画像データM(T+1)は各画素に動きベクトル情報MVが記録された画像であってこのような矢印で描かれた画像ではない。
【0090】
次に、フレーム時刻Tの距離画像データRM(T)を複数の領域に分割し、各領域を前記動きベクトルMVに従って別々に移動させることによって、フレーム時刻T+1における距離画像データRM(T+1)を生成する(ステップ1904)。ここで前記距離画像データRM(T)の領域は、動きベクトルMVの領域に合わせる。例えば、動きベクトルMVが画素毎に与えられているならば、前記距離画像データRM(T)は画素単位で移動させる。また、動きベクトルMVがあるブロック領域の動きベクトルであるならば、各々の領域とはそのブロック領域単位である。この領域は動きベクトルを求める方法に依存するが、本発明は特定の動きベクトル生成法に限定するものではない。
【0091】
次に、フレーム時刻を更新し(ステップ1905)、動画像データCM(T+2)及び距離画像データRM(T+2)が存在するか判定し(ステップ1906,1907)、動画像データCM(T+2)はあるが距離画像データRM(T+2)がない場合には、前記ステップ1903に戻って、距離画像データRM(T+2)を補間生成する。このとき、前記距離画像データRM(T+2)は、例えば、図20に示したように、フレーム時刻Tの動画像データCM(T)とフレーム時刻T+2の動画像データCM(T+2)から動きベクトルMVを求め、その動きベクトルにしたがって前記フレーム時刻Tの距離画像データRM(T)の各領域を移動させ、フレーム時刻T+2の距離画像データRM(T+2)を生成する。
【0092】
以上の手順を繰り返すことにより、前記距離画像データが存在しないフレーム時刻の距離画像データを順次補間生成することができる。そのため、本実施例2の立体画像生成方法でも、1フレーム時間毎に距離画像データを入力する必要がない。そのため、間欠的なフレーム間隔でしか動作できない距離画像データ取得手段1Aを用いることが可能である。また、前記距離画像データ取得手段1Aが、1フレーム時間毎の距離画像データを取得できる場合でも、間欠的に動作させることにより、消費電力量を低減することができる。また、本実施例2でも、前記距離画像データを3フレーム時間毎に入力しているが、これに限らず、たとえば、5フレーム時間毎あるいは10フレーム時間毎に入力することも可能であり、フレーム時間間隔を大きくすることで、消費電力量を大幅に低減することができる。
【0093】
図22乃至図26は、本実施例2の立体画像生成方法の具体例を説明するための模式図である。
【0094】
本実施例2の立体画像生成方法では、1フレーム時間毎の動画像データCMと、Nフレーム時間毎の距離画像データRMが、半導体メモリ等の動画像データ記録手段4及び距離画像データ記録手段5にあらかじめ記録されているとする。このとき、前記動画像データと前記距離画像データがともに存在するフレーム時刻をTとすると、CM(T),CM(T+1),・・・,CM(T+N−1)の動画像データに対して距離画像データRM(T)が1枚存在する。これらの画像から、RM(T+1),・・・,RM(T+N−1)の距離画像データを補間生成することによって動画の立体画像データを生成する。ここで、CMもRMも、横方向がX画素、縦方向がY画素の画像サイズであるとする。また、CM(T)の座標(x,y)のデータ値をCM(T)x,yと記述し、RM(T)の座標(x,y)のデータ値をRM(T)x,yと記述する。CM(T)x,yはRGBデータであり、RM(T)x,yは距離を記録したスカラ値である。
【0095】
また、前記動画像データCM(T)を取得する動画像データ取得手段1Aには、前記実施例1で説明した動画像撮影用のTVカメラを用いる。また、前記距離画像データRM(T)を取得する距離画像データ取得手段2Aには、たとえば、光切断法(例えば、吉澤徹著、「光三次元計測」、新技術コミュニケーションズ、p.28‐37)、TOF(光飛行時間計測法)(例えば、井口征士、「3次元計測の最新の動向」、計測と制御、第34巻、第6号、p.430や、河北真宏、「ハイビジョン3次元カメラ:Axi−vision カメラ」、平14年度技研公開 公演・研究発表会予稿集、p.58‐63)、種々のパターン投影法(例えば、吉澤徹著、「光三次元計測(第2版)」、新技術コミュニケーションズ、p.77‐99)、種々のステレオ法(例えば、画像電子学会著、「3次元画像用語辞典」、新技術コミュニケーションズ、p.51)等に基づく距離計測装置を使用する。
【0096】
前記動画像データCM(T)と間欠的な距離画像データRM(T)を用いて距離画像データを補間生成するときには、まず、あるフレーム時刻Tにおける距離画像データRM(T)と、同フレーム時刻の画像データCM(T)を選択する(ステップ1902)。
【0097】
次に、前記フレーム時刻Tの動画像データCM(T)と、距離画像データのないフレーム時刻T+nの動画像データCM(T+n)との間での画像の動きベクトルを求めるステップ1903を行う。
【0098】
前記ステップ1903では、図22に示すように、動画像データCM(T)を縦W画素、横W画素のブロックに格子状に分割する(ステップ1903a)。このとき、図23(a)及び図23(b)に示すように、各々のブロックサイズはW×Wであり、横方向のブロック数はX/W、縦方向のブロック数はY/Wである。なお、XとYは、Wで割り切れるような値があらかじめ設定されているものとする。このとき、ブロック座標(i,j)のブロックをB(T)i,jと記述する。
【0099】
次に、動きベクトル画像M(T+n)を生成する。このとき、前記動きベクトル画像M(T+n)は、前記ブロックB(T)i,jと同じサイズ、すなわち、横X/W、縦Y/Wのブロック状の二次元データMV(T+n)i,jからなり、各要素には二次元のベクトルデータが格納されるとする。
【0100】
このとき、まず、各々のブロック座標(i,j)に対応するB(T)i,jを選択し、図24(a)に示すように、B(T)i,jにもっとも画像内容の近いブロックをCM(T+n)内から決定する(ステップ1903b)。
【0101】
次に、図24(b)に示すように、前記CM(T+n)から決定したこのブロックの左上の座標値(i×W+dx,j×W+dy)を得る。このときdx及びdyはnフレーム進んだ画像におけるB(T)i,jの動きベクトルMV(T+n)i,jである。dx及びdyをMV(T+n)i,jに格納する(ステップ1903c)。
【0102】
なお、前記動きベクトルMV(T+n)i,jを求める処理は、ブロックマッチング法と呼ばれ、例えば、MPEG2画像生成時の動き予測に用いられる公知の手法である。一般に、2つのブロック毎に相関量を求め画像内で最も高い相関量を示したブロックを画像内容の近いブロックと決定するが、相関量の式は統計論で用いられる厳密な式から画素毎の差分の二乗和等の簡略な式まで様々な既存の式があり、ブロックの探索法、移動後のブロック間歪み除去法なども様々な既存手法が存在する。本発明ではこれらを特定の式または手法に限定するものではない。また、本実施例2ではブロックマッチング法を用いた例を示したが、画像内の動きベクトルを求められるのであれば、ブロックマッチング法に限定するものではない。この結果、生成されたMV(T+n)i,jはフレーム時刻TからT+nに変わった際の画像内の動きを表す。
【0103】
その後、iまたはjを更新し(ステップ1903d)、CM(T)の全てのブロックB(T)i,jで同様の処理を繰り返す(ステップ1903e)。
【0104】
次に、前記距離画像データRM(T)の各領域を前記動きベクトル画像M(T+n)に基づいて移動させるステップ1904では、まず、図25に示すように、前記距離画像データRM(T)を、前記ブロックB(T)i,jと同じサイズのブロックRM(T)i,jに分割する(ステップ1904a)。その後、図26(a)に示すように、前記ブロックRM(T)i,jを前記動きベクトルMV(T+n)i,jで移動させる(ステップ1904b)。その後、iまたはjを更新し(ステップ1904c)、全てのブロックRM(T)i,jを移動させると、図26(b)に示したように、フレーム時刻T+nの距離画像データRM(T+n)が得られる。
【0105】
その後は、n=n+1としてフレーム時刻を更新し、距離画像データRM(T+n)が存在しない場合には、前記手順を繰り返し、距離画像データRM(T+n)を生成する。
【0106】
このとき、前記フレーム時刻T+nの距離画像データRM(T+n)は、例えば、図20に示したように、フレーム時刻Tの動画像データCM(T)及び距離画像データRM(T)と、フレーム時刻T+nの動画像データCM(T+n)を用いて生成する。
【0107】
以下、距離画像データRMが存在する動画像ベクトルCMのフレーム時刻になるまで、前記処理を繰り返し行うことで、フレーム時刻Tとフレーム時刻T+Nの間の距離画像データRMを補間生成することができる。
【0108】
以上説明したように、本実施例2の立体画像生成方法によれば、1フレーム毎に距離画像データを取得することができない取得手段を用いても、容易に動画の立体画像を生成することができる。
【0109】
また、1フレーム毎に距離画像データを取得することができる取得手段であっても、間欠的に取得することで、前記距離画像データ取得手段2Aの消費電力量を低減することができる。そのため、前記立体画像を生成する装置の携帯機器への組み込みが容易になる。
【0110】
また、本実施例2の立体画像生成方法では、前記手順で説明したように、距離計測器から入力した距離画像データの代わりに、前記実施例1で説明したような、遠近の区別ができる程度の分解能の低い距離画像データを用いることも出来る。その場合は、輪郭部領域のみの動きを求めればよいので、計算量が少なくなり、消費電力量をさらに低減することができる。
【0111】
図27は、前記実施例2の変形例を説明するための模式図である。
【0112】
前記実施例2では、フレーム時刻Tとフレーム時刻T+Nの間のフレーム時刻T+nの距離画像データを補間生成するときに、図20に示したように、前記フレーム時刻Tの動画像データCM(T)及び距離画像データRM(T)、ならびにフレーム時刻T+nの動画像データCM(T+n)を用いて距離画像データRM(T+n)を補間生成する例を示したが、その代わりに、例えば、1フレーム前の動画像データCM(T+n−1)及び補間生成した距離画像データRM(T+n−1)、ならびに動画像データCM(T+n)を用いて距離画像データRM(T+n)を生成してもよい。
【0113】
前記動画像データは通常、画像フレームの更新に伴い、撮影対象の輪郭形状が徐々に変形していくため、前記実施例2のように、常に初めのフレーム時刻Tで得られた輪郭部領域との間でパターンマッチングを行う方法では、変形量がある一定量以上となる、時間的に離れたフレームにおいて正しいパターンマッチングが行えなくなる。一方、図27に示した方法の場合、直前のフレームで得られた輪郭部領域との間でパターンマッチングを行うことにより前記動きベクトルを求めるので、前記距離画像データが存在しないフレームの数の多少に関わらず、撮影対象の輪郭形状の変形量は、常に1フレーム以内でありその量は微小である。したがって、図27に示した方法の場合、距離画像データが存在しないフレームの数が多くても、前記動画の立体画像を精度よく生成することができる。
【0114】
(実施例3)
図28は、本発明による実施例3の立体画像生成装置の概略構成を示す模式図である。
【0115】
本実施例3の立体画像生成装置は、図28に示すように、動画像データ取得手段1Aから動画像データを入力する動画像データ入力手段1Bと、補助画像データ取得手段20Aから補助画像データを入力する補助画像データ入力手段20Bと、前記動画像データ入力手段1B及び前記補助画像データ入力手段20Bに入力する各データを制御する制御手段3と、前記動画像データ入力手段1から入力された動画像データを記録する動画像データ記録手段4と、前記補助画像データ入力手段20から入力された補助画像データ及び距離画像データを記録する距離画像データ記録手段5と、距離画像データを補間生成する距離画像データ補間生成手段21とを備える。
【0116】
また、前記立体画像生成装置は、たとえば、毎秒30フレーム以上の動画像データと距離画像データの組からなる立体画像を生成する装置であり、生成した前記立体画像は、図28に示したように、演算手段7で演算し、表示手段8で表示することにより立体化された動画像を得ることができる。
【0117】
図29乃至図36は、本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【0118】
本実施例3の立体画像生成装置では、前記実施例1及び前記実施例2と異なり、図29に示すように、前記距離画像データを生成可能な補助画像データを入力し、前記補助画像データ、または前記補助画像データと前記動画像データを用いて、距離画像データを生成する。
【0119】
ここで、前記距離画像データを生成可能な補助画像データとは、データそのものは直接距離情報を表現しているわけではないが、補助画像データ単独、または補助画像データと画像データの組み合わせを用いて演算することによって距離画像データまたは分解能の低い距離画像データまたは擬似的な距離画像データを生成可能な画像データと定義する。
【0120】
一例をあげると、補助画像データが普通の画像である場合、これ単独では距離情報を含まないが、もう一方の画像データと組み合わせてステレオ画像とみなすことによってステレオ法を用いて距離画像が生成できる。したがって普通の画像は補助画像データとなる。
【0121】
また、本実施例3では、このようなステレオ画像を補助画像データとして用いた例のみを詳細に説明するが、補助画像データ単独、または補助画像データと画像データの組み合わせを用いて演算することによって距離画像データまたは分解能の低い距離画像データまたは擬似的な距離画像データを生成可能な画像データであるならば、本発明は補助画像データの種類を限定するものではない。
【0122】
本実施例3の立体画像生成装置を用いて動画の立体画像を生成するときには、半導体メモリなどの記録手段に、1フレーム毎の動画像データCMと、Nフレーム毎に距離画像を生成可能な補助画像データHMがあらかじめ記録されているとする。動画像データと補助画像データがともに存在するフレーム時刻をTとすると、CM(T),CM(T+1),・・・,CM(T+N−1)の動画像に対してHM(T)が1枚存在する。これらの画像から、RM(T),RM(T+1),・・・,RM(T+N−1)の距離画像データを補間生成することによって動画の立体画像データを生成できる。
【0123】
なお、本実施例3で用いる補助画像データHM(T)は、動画像データCM(T)の撮影位置とは水平方向に異なる位置で撮影された画像データであるとする。
【0124】
本実施例3の立体画像生成方法を用いて前記距離画像データRM(T)を生成するときには、図30に示すように、まず、動画像データCM(T)と同じフレーム時刻の補助画像データHM(T)を選択し(ステップ2201)、前記フレーム時刻Tの距離画像データRM(T)を生成する(ステップ2202)。
【0125】
前記フレーム時刻Tの距離画像データRM(T)を生成するステップ2202では、図31に示すように、まず、図32(a)に示した動画像データCM(T)と図32(b)に示した補助画像データHM(T)の差分の絶対値をとり、その画像DM(T)を生成する(ステップ2202a)。このとき、前記動画像データCM(T)と補助画像データHM(T)はステレオ画像なので近景領域は動画像データCM(T)と補助画像データHM(T)で画像内の位置が異なり、差分値は0にならない。特に、輝度値の変化が大きい領域においては著しい差分値が発生する。一方、遠景領域は動画像データCM(T)と補助画像データHM(T)で画像内の位置がほとんど変わらないので差分値は非常に小さい。
【0126】
次に、差分値の画像DM(T)の各点DM(T)x,yが、あらかじめ設定したある差分値k以上なら1、k未満なら0とする(ステップ2202b,2202c,2202d)。その後、xまたはyを更新し(ステップ2202e),全てのDM(T)x,yを2値化(2202f)して、図33に示したように、2値化した画像DM(T)を生成する。この結果、物体が写っていない領域(遠景領域)は0となる。一方、物体が写っている領域(近景領域)は1になる確率が高いが、輝度の変化に乏しい領域では0になることもあり、0と1の混在したノイジーな画像となる。
【0127】
そこで、次に、前記2値化した画像DM(T)からノイズを除去する(ステップ2202g)。前記ノイズの除去は、例えば、図34、図35(a)、図35(b)に示したように、2値化した画像DM(T)の全ての画素DM(T)x,yを中心とした、あらかじめ設定したp画素×p画素の各画素の値を調べ(ステップ2202h,2202i)、1の値を持つ画素があるならRM(T)x,y=1とし(ステップ2202k)、そうでなければ0とする(ステップ2202j)。これによってノイズが除去され、図36に示すように、近景が1、遠景が0で表現される分解能の低い距離画像RM(T)が生成される。
【0128】
なお、ノイズの除去方法は、これ以外にメディアンフィルタを用いたり、平滑化フィルタをかけた後、再度2値化する方法もある。本発明はノイズ除去の方法を限定するものではない。
【0129】
また、補助画像にもこれ以外の様々な画像が考えられる。例えば、近距離でピントの合う焦点深度の浅い入力画像を補助画像として用いる方法もある。補助画像では遠景領域はボケて撮影されるので高周波成分が著しく小さい。そこで、補助画像と画像について同じ位置の近傍の空間周波数を求めて高周波成分の比を求めることによって、その位置における距離の概略を比から算出することが可能である。本発明は補助画像または補助画像と画像の組み合わせから距離画像を生成できるのであれば補助画像に何を用いるのかを限定するものではない。
【0130】
その後、前記手順を繰り返し、動画像データCM(T)と間欠的に入力した補助画像データHM(T)から距離画像データRM(T)を生成した後は、例えば、前記実施例1で説明した手順に沿って、動画の立体画像を生成する。
【0131】
なお、本実施例3では分解能の低い距離画像が生成されるので、前記実施例1で説明した生成方法と組み合わせたが、生成される距離画像の分解能が高い場合には前記実施例2で説明した生成方法と組み合わせてもよい。
【0132】
以上説明したように、本実施例3の立体画像生成方法によれば、前記距離画像データを生成可能な補助画像データを間欠的に取得し、その補助画像データから距離画像データを生成することにより、前記実施例1または前記実施例2で説明した生成方法と同様に、動画の立体画像を容易に生成することができる。
【0133】
また、補助画像データを間欠的に取得することにより、補助画像データを取得する補助画像データ取得手段20Aの消費電力量を低減することができる。そのため、前記立体画像生成装置の携帯機器への組み込みが容易になる。
【0134】
以上、本発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において、種々変更可能であることはもちろんである。
【0135】
【発明の効果】
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば、以下の通りである。
(1)動画の立体画像を容易に生成することができる。
(2)動画の立体画像を生成する装置の消費電力量を低減することができる。
【図面の簡単な説明】
【図1】本発明による実施例1の立体画像生成装置の概略構成を示す模式図である。
【図2】本実施例1の立体画像生成装置を用いた立体画像生成方法を説明するための模式図であり、立体画像生成方法の全体的な処理手順を示す図である。
【図3】本実施例1の立体画像生成装置を用いた立体画像生成方法を説明するための模式図であり、立体画像生成方法の全体的な処理手順を示す図である。
【図4】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図5】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図6】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図7】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図8】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図9】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図10】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図11】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図12】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図13】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図14】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図15】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図16】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図17】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図18】本実施例1の立体画像生成方法の具体例を説明するための模式図である。
【図19】本実施例1の立体画像生成方法で生成した立体画像の特徴を説明するための模式図である。
【図20】本発明による実施例2の立体画像生成方法の全体的な処理手順を説明するための模式図である。
【図21】本発明による実施例2の立体画像生成方法の全体的な処理手順を説明するための模式図である。
【図22】本実施例2の立体画像生成方法の具体例を説明するための模式図である。
【図23】本実施例2の立体画像生成方法の具体例を説明するための模式図である。
【図24】本実施例2の立体画像生成方法の具体例を説明するための模式図である。
【図25】本実施例2の立体画像生成方法の具体例を説明するための模式図である。
【図26】本実施例2の立体画像生成方法の具体例を説明するための模式図である。
【図27】前記実施例2の変形例を説明するための模式図である。
【図28】本発明による実施例3の立体画像生成装置の概略構成を示す模式図である。
【図29】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【図30】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【図31】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【図32】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【図33】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【図34】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【図35】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【図36】本実施例3の立体画像生成装置を用いた立体画像生成方法を説明するための模式図である。
【符号の説明】
1A…動画像データ取得手段、1B…動画像データ入力手段、2A…距離画像データ取得手段、2B…距離画像データ入力手段、3…制御手段、4…動画像データ記録手段、5…距離画像データ記録手段、6…距離画像データ補間手段、7…演算手段、8…表示手段、10…撮影対象、11…近景領域、12…境目領域、13…輪郭部領域、15…光源、16…全反射ミラー、17…ハーフミラー、20A…補助画像データ取得手段、20B…補助画像データ入力手段、21…距離画像データ補間生成手段。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional moving image data generating method, a three-dimensional moving image data generating device, a three-dimensional moving image data generating program, and a recording medium, and is particularly effective when applied to the generation of three-dimensional moving image data to be displayed on a portable device or the like. It is about technology.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in the field of image communication, attention has been paid to moving image communication using stereoscopic images that can provide a higher sense of realism, and presentations at academic conferences and demonstration productions of companies are also becoming active. Here, it is assumed that the three-dimensional image is a combination of a two-dimensional image in which colors and luminances are recorded, and an image called a distance image or a depth image in which a distance from a measurement point to an imaging target is recorded. Further, the distance image is an image in which the distance to an object to be photographed is recorded in each pixel. In addition, the moving image includes, for example, an image of about 30 frames or more per second.
[0003]
When generating a moving image based on the stereoscopic image, for example, moving image data including a two-dimensional image in which the color and luminance are recorded is input by a TV camera or the like, and the distance image data is input by a distance measuring device or the like.
[0004]
In addition, as a method of generating a moving image using the stereoscopic image, for example, there is a method of generating distance image data using two two-dimensional images having parallax.
[0005]
Further, as a method of generating a stereoscopic image based on a parallax image of a two-dimensional image, a technique is disclosed in which a parallax region is determined from a distance image to determine a parallax region, and a parallax amount is generated using the preceding and following images and motion vectors. (See, for example, Patent Document 1).
[0006]
[Patent Document 1]
JP 2000-253422 A
[0007]
[Problems to be solved by the invention]
However, the conventional technique has a problem that it is difficult to perform moving image communication using the stereoscopic image.
[0008]
In order to perform the moving image communication using the three-dimensional image, for example, distance image data of 30 frames or more per second must be input. However, conventionally, a distance measuring device capable of acquiring distance image data at such a high speed is very expensive. Therefore, it is difficult to use it by incorporating it into a portable device.
[0009]
Further, in the related art, the distance image data is acquired and input every one frame time similarly to the two-dimensional image, so that the power consumption increases. For this reason, there has been a problem that it is difficult to incorporate the battery pack into a portable device used with a rechargeable battery or the like.
[0010]
Further, as a technique that can be incorporated into a portable device, for example, there is a method of inputting distance image data having a low resolution enough to distinguish between near and far and displaying a three-dimensional image in a split type using the input. There is also a method of generating pseudo range image data from the range image having a low resolution and stereoscopically displaying the same. Here, it is assumed that the pseudo distance image data is data generated artificially, not by measuring the distance. That is, the pseudo distance image data does not always match the actual distance, and the degree of approximation depends on the generation algorithm.
[0011]
However, in each of the above methods, the distance image data is acquired every frame time, so that the power consumption is high. Therefore, there is a problem that it is difficult to input a three-dimensional image into a moving image using a portable device.
[0012]
Further, even in the technique described in Patent Document 1, since the distance image data is acquired every frame time, there is a problem that the power consumption is high and it is difficult to use the distance image data incorporated in a portable device.
[0013]
An object of the present invention is to provide a technique capable of easily generating a three-dimensional image of a moving image.
[0014]
Another object of the present invention is to provide a technique capable of reducing the power consumption of a device that generates a stereoscopic image of a moving image.
[0015]
Another object of the present invention is to provide a program and a recording medium capable of facilitating input of a moving image using a three-dimensional image and reducing the amount of power consumption when generating a three-dimensional image.
[0016]
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.
[0017]
[Means for Solving the Problems]
The outline of the invention disclosed in the present application is as follows.
(1) A step of inputting moving image data for each frame time, and a step of inputting data for generating a stereoscopic image from the moving image data (hereinafter referred to as distance image data) at intermittent frame intervals. And a step of interpolating and generating distance image data at a frame time when the distance image data does not exist based on the moving image data and the input distance image data.
[0018]
(2) In the means of the above (1), the step of generating the distance image data by interpolation includes a step of obtaining a distance boundary area from the input distance image data, and a step of obtaining the same frame as the input distance image data. A step of obtaining a contour region at the same position as the boundary region or a boundary region near the boundary region from moving image data at a time; and corresponding to the contour region from the moving image data at a frame time when the distance image data does not exist. Determining the region to be processed, and the step of generating the distance image data by moving the boundary region and its internal region based on the amount of movement of the outline region and the region corresponding to the outline region. Have.
[0019]
(3) In the means of (1), the step of interpolation generating the distance image data includes the step of selecting moving image data at the same frame time as the input distance image data; From, a step of obtaining a motion vector of an image up to the moving image data at the frame time when the distance image data does not exist, and dividing the input distance image data into a plurality of regions, based on the motion vector Moving each area to generate distance image data.
[0020]
(4) In each of the means (1) to (3), the step of inputting the distance image data includes the step of inputting auxiliary image data capable of generating the distance image data at intermittent frame intervals; Generating distance image data based on the auxiliary image data or moving image data at the same frame time as the auxiliary image data and the auxiliary image data.
[0021]
According to the means (1), even when a means for acquiring the distance image data such as a distance measuring device cannot be operated at a high speed, a moving image of a three-dimensional image can be easily obtained.
[0022]
At this time, in the step of generating the distance image data by interpolation, for example, the processing in each step of the means of (2) or the means of (3) is performed.
[0023]
In the step of inputting the distance image data, the distance image data may be directly input using a distance measuring device or the like, or indirectly from the auxiliary image data as in the means of (4). The generated distance image data may be input.
[0024]
(5) Moving image data input means for inputting moving image data for each frame time, and data for generating a three-dimensional image from the moving image data (hereinafter referred to as distance image data) are transmitted at intermittent frame intervals. Based on the moving image data input from the moving image data inputting means and the distance image data input from the distance image data inputting means, based on the distance image data inputting means input at And a distance image data interpolating unit for interpolating and generating the distance image data.
[0025]
(6) In the means of (5), the distance image data interpolating means includes means for obtaining a distance boundary area from the distance image data input from the distance image data input means, and the same frame as the distance image data. Means for obtaining a contour area in the same position as the boundary area from the moving image data at the time, or a contour area near the boundary area, and corresponding to the contour area from the moving image data at the frame time in which the distance image data does not exist. Means for determining an area to be performed, and means for generating the distance image data by moving the boundary area and an internal area thereof based on the amount of movement of the area corresponding to the outline area and the area corresponding to the outline area. Have.
[0026]
(7) In the means of the above (5), the distance image data interpolating means selects a moving image data at the same frame time as the input distance image data, and the distance image data interpolating means selects the moving image data from the selected moving image data. Means for obtaining a motion vector of an image up to moving image data at a frame time when no distance image data exists, and dividing the input distance image data into a plurality of regions, and dividing each of the regions based on the motion vector. Means for moving to generate distance image data.
[0027]
(8) In the means of (5) to (7), the distance image data input means includes auxiliary image data input means for inputting auxiliary image data capable of generating the distance image data at intermittent frame intervals. Means for generating distance image data based on the auxiliary image data or moving image data at the same frame time as the auxiliary image data and the auxiliary image data.
[0028]
According to the means (5), even when a means for acquiring distance image data such as a distance measuring device cannot be operated at a high speed, a moving image of a three-dimensional image can be easily obtained.
[0029]
Further, even if the means for acquiring the distance image data is a means capable of acquiring the distance image data every frame time, the intermittent operation can reduce the power consumption.
[0030]
Further, the distance image data interpolation means includes, for example, each means of the means (6) or the means (7).
[0031]
The distance image data input means may be a means for directly inputting the distance image data from a distance measuring device or the like, or a means for inputting the auxiliary image data as in the means of (8). Means for generating distance image data from the auxiliary image data may be provided to indirectly input distance image data.
[0032]
As described above, by using the means (5) to (8), it is possible to easily incorporate the stereoscopic image generation device into a portable device.
[0033]
(9) A three-dimensional image generation program for causing a computer to execute each step of the three-dimensional image generation method according to any one of (1) to (4).
[0034]
According to the means (9), a stereoscopic image can be easily generated using a general-purpose device (apparatus) such as a computer.
[0035]
(10) A recording medium on which the stereoscopic image generation program of the means (9) is recorded so as to be readable by a computer.
[0036]
According to the means (10), the recording medium can be provided by copying or through a network. Therefore, any device that can execute the stereoscopic image generation program can generate a stereoscopic image.
[0037]
Hereinafter, the present invention will be described in detail with embodiments (examples) with reference to the drawings.
In all the drawings for describing the embodiments, components having the same function are denoted by the same reference numerals, and the repeated description thereof will be omitted.
[0038]
BEST MODE FOR CARRYING OUT THE INVENTION
(Example 1)
FIG. 1 is a schematic diagram illustrating a schematic configuration of a stereoscopic image generation device according to a first embodiment of the present invention.
[0039]
As shown in FIG. 1, the three-dimensional image generation device according to the first embodiment includes a moving image data input unit 1B for inputting moving image data from a moving image data obtaining unit 1A, and distance image data from a distance image data obtaining unit 2A. Distance image data input means 2B to be input, control means 3 for controlling each data input to the moving image data input means 1B and the distance image data input means 2B, and input from the moving image data input means 1. Moving image data recording means 4 for recording moving image data, distance image data recording means 5 for recording distance image data input from the distance image data input means 2, distance image data interpolation for generating distance image data Means 6.
[0040]
Further, the three-dimensional image generation device is, for example, a device that generates a three-dimensional image including a set of moving image data and distance image data of 30 frames or more per second, and the generated three-dimensional image is, as illustrated in FIG. The three-dimensional moving image can be obtained by the calculation by the calculation means 7 and the display by the display means 8. At this time, the moving image data input means 1B, the distance image data input means 2B, the control means 3, the moving image data recording means 4, the distance image data recording means 5, the distance image data interpolating means 6, the calculation As each means of the means 7, a CPU or a memory of a computer can be used.
[0041]
FIGS. 2 and 3 are schematic diagrams illustrating a stereoscopic image generation method using the stereoscopic image generation device according to the first embodiment, and are diagrams illustrating an overall processing procedure of the stereoscopic image generation method.
[0042]
In order to generate the three-dimensional image using the three-dimensional image generation device of the first embodiment, first, as shown in FIG. 2, moving image data CM (T) and distance image data RM (T) are input, and The moving image data is recorded in the moving image data recording means 4 and the distance image data recording means 5. At this time, the moving image data CM (T) is input every one frame time, but the distance image data RM (T) is intermittent at N frame intervals, for example, every three frames as shown in FIG. At a typical frame interval. At this time, the distance image data RM (T) is, for example, 1-bit resolution distance image data. The black region 11 is a near-view region, for example, a region corresponding to the shooting target 10, and the white region is a distant view. Let it be an area.
[0043]
However, in this state, since the moving image data RM (T + 1) and RM (T + 2) at the frame time when the distance image data RM does not exist, the stereoscopic image is not generated as it is. Therefore, distance image data of a nonexistent frame time is generated by interpolation using the moving image data and the distance image data.
[0044]
In the three-dimensional image generation method according to the first embodiment, as shown in FIGS. 2 and 3, after initialization (step 1401), a boundary area 12 between a near view and a distant view is obtained from the distance image data RM (T). This image is defined as Q (T) (step 1402).
[0045]
Next, from the moving image data CM (T) at the same frame time T as the distance image data RM (T), the contour region 13 in the same region as the boundary region 12 of the image Q (T) or in the vicinity thereof Is obtained, and this image is set to R (T) (step 1403).
[0046]
Next, the same region as the contour region 13 of the image R (T) is obtained from the moving image data CM (T + 1) at the frame time T + 1 where no distance image data exists, and this image is set as R (T + 1) (step). 1404). In order to obtain the image area, for example, an existing pattern matching method (Hideyuki Tamura, "Introduction to Computer Image Processing", Soken Shuppan, pp. 148-153) is used. There are various variations of the pattern matching method, which can be appropriately selected.
[0047]
Next, the distance image data RM (T (T) at the frame time T is set in accordance with the movement amount of the contour region 13 in the image R (T + 1) obtained in the step 1404 with respect to the contour region 13 of the image R (T). The distance image data RM (T + 1) at the frame time T + 1 is generated by moving the foreground area 11 in (1) (step 1405).
[0048]
Thereafter, it is checked whether or not the distance image data RM (T + 2) at the next frame time T + 2 exists (steps 1406, 1407, 1408, 1409). In the first embodiment, since the distance image data RM (T + 2) at the frame time T + 2 does not exist, the distance image data RM (T + 1) is generated in the same procedure as the distance image data RM (T + 1) at the frame time T + 1. At this time, the position of the video area of the moving image data whose frame time is T + 2 may be obtained by, for example, pattern matching directly with the contour area of the moving image data whose frame time is T as shown in FIG. Alternatively, the frame time may be obtained by pattern matching with the contour area of the moving image data at T + 1.
[0049]
By repeating the above procedure, the distance image data at the frame time when the distance image data does not exist can be sequentially generated by interpolation. Therefore, in the three-dimensional image generation device according to the first embodiment, it is not necessary to acquire distance image data every frame time. Therefore, it is possible to use the distance image data acquisition unit 2A that can operate only at intermittent frame intervals. Further, even when the distance image data input means 2A can acquire distance image data for each one frame time, the power consumption can be reduced by operating the distance image data intermittently. In the first embodiment, the distance image data is input every three frame times. However, the present invention is not limited to this. For example, it is possible to input the distance image data every five or ten frame times. By increasing the time interval, power consumption can be significantly reduced.
[0050]
FIGS. 4 to 18 are diagrams illustrating a specific example of the stereoscopic image generation method according to the first embodiment.
[0051]
In the stereoscopic image generation method of the first embodiment, first, as shown in FIG. 4, moving image data CM for each frame and distance image data RM for every N frames are input, and the moving image data And the distance image data recording means 5. At this time, assuming that a frame time at which both the image and the distance image having the low resolution exist is T, RM (T (T), CM (T + 1),..., CM (T + N−1) ) Exists. From these images, moving image stereoscopic image data is generated by generating distance image data of RM (T + 1),..., RM (T + N−1). Here, it is assumed that both the CM and the RM have the image size of X and Y pixels in the vertical and horizontal directions. Further, the data value of the coordinates (x, y) of CM (T) is x, y And the data value of the coordinates (x, y) of RM (T) is expressed as RM (T) x, y Is described. CM (T) x, y Is RGB data, RM (T) x, y Is binary data of 0 or 1. Here, 1 represents a near view, and 0 represents a distant view.
[0052]
When the moving image data CM and the distance image data RM are input, as shown in FIG. 5, a TV camera (moving image data acquisition unit) 1A for moving image shooting and a TV camera ( The control unit 3 controls the distance image data acquisition unit 2B and the light source 15 that emits pulse light such as a flash.
[0053]
At this time, the photographing optical axis of the distance image data acquiring means 2A is aligned with the photographing optical axis of the moving image data acquiring means 1A by the total reflection mirror 16 and the half mirror 17, so that photographing can be performed at the same photographing angle of view and the same photographing viewpoint. Set as follows.
[0054]
When the moving image data CM is input using the moving image data obtaining unit 1A, the control unit 3 previously sets the moving image data CM as shown in FIG. 6A. A control signal is output every frame time, the moving image data is photographed, and input to the moving image data input means 1B. At this time, the frame time interval ΔT is set to, for example, 1/30 seconds.
[0055]
On the other hand, when the distance image data RM is input, as shown in FIG. 6B, the control unit 3 sends the distance image data acquisition unit 2A a time interval N times the preset frame interval. For example, a control signal is output at a time interval three times as long as the frame interval of the moving image data, intermittent distance image data is photographed, and is input to the distance image data input means 2B. At this time, the control unit 3 outputs a control signal to the light source 15 at the same timing to illuminate the imaging target 10.
[0056]
Note that the photographing start times of the moving image data acquiring unit 1A and the distance image data acquiring unit 2A are shifted at least by the exposure time of the moving image data acquiring unit 1A, or to the illumination light emitted from the light source 15. By using an infrared light and using an infrared camera for the distance image data acquisition unit 2A, the illumination light is prevented from affecting the A image capturing of the moving image data acquisition unit 1.
[0057]
Further, by using a high-speed camera, it is also possible to use the moving image data acquiring means 1A and the distance image acquiring means 2A as a single camera. In this case, the total reflection mirror 16 and the half mirror 17 are unnecessary.
[0058]
Further, the distance image data RMP (T) photographed by the distance image data acquisition means 2A is converted into, for example, low-resolution distance image data RM (T) in which only distinction of distance is recorded. Therefore, as shown in FIG. 7, first, distance image data RMP (T) whose shooting time is closest to the moving image data CM (T) shot by the moving image data obtaining means 1A at time T is selected (step 1801). These two pieces of image data can be regarded as image data of the same object to be photographed at the same photographing time with only the presence or absence of illumination different.
[0059]
Next, in the moving image data CM (T) and the distance image data RMP (T), CM (T) at the same coordinates (x, y). x, y / RMP (T) x, y (Step 1802), and if the ratio is equal to or greater than a certain set value k, RM (T) x, y = 1 (step 1803), otherwise RM (T) x, y RM (T) by setting = 0 (step 1804) x, y Generate Thereafter, the coordinates (x, y) are updated (step 1805), and RM (T) x, y Is generated (step 1806), and is set as the distance image data RM (T).
[0060]
When the illuminated captured image is compared with a non-illuminated captured image, the brightness of the distant view image does not change much while the photographic object of the close view is brighter. The low-resolution range image data RM (T) represented by 0 is generated. Note that the distance image data RM (T) having a low resolution may be generated using a difference instead of a ratio.
[0061]
In the first embodiment, the imaging method using the light source 15 such as a flash as the input means of the low-resolution range image data RM (T) is described. However, the low-resolution range image data RM (T) is acquired or input. If possible, the method is not limited to the method shown in the first embodiment, and the method according to the magnitude of the spatial frequency between the image focused on the near view and the image focused on the distant view (or pan-focus image) For example, the distance may be calculated by stereo imaging, or the difference may be simply obtained by taking a stereo image, and a low-resolution range image data RM (T) may be generated using a region having a difference value lower than a certain set value as a distant view region. Is possible.
[0062]
Next, stereoscopic image data of a moving image is generated according to the procedure shown in FIGS.
[0063]
In step 1402 of obtaining the image Q (T) of the boundary region 12 from the distance image data RM (T), first, as shown in FIG. 8, the pixel RM of the coordinates (x, y) of the distance image data RM (T) (T) x, y And the values of adjacent pixels are compared (steps 1402a and 1402b). At this time, the RM (T) x, y As shown in FIG. 9 (a), pixels adjacent to RM (T) x-1, y-1 , RM (T) x-1, y , RM (T) x-1, y + 1 , RM (T) x, y-1 , RM (T) x, y + 1 , RM (T) x + 1, y-1 , RM (T) x + 1, y , RM (T) x + 1, y + 1 And if all have the same data value, Q (T) x, y = 0 (step 1402c), otherwise Q (T) x, y = 1 (step 1402d). Thereafter, the coordinates (x, y) are updated (step 1402e), and all the pixels RM (T) are updated. x, y About Q (T) x, y Is obtained, and an image Q (T) of the boundary area 12 as shown in FIG. 9B is generated.
[0064]
In step 1402a, the pixel RM (T) x, y And RM (T) adjacent in four connections x-1, y , RM (T) x, y-1 , RM (T) x, y + 1 , RM (T) x + 1, y Q (T) may be generated in comparison with.
[0065]
Next, as shown in FIG. 10, the step 1403 of obtaining the contour region 13 located at the same position or in the vicinity of the boundary region 12 from the moving image data CM (T) first includes the image R ( Block R (T) of T) i, j Q (T) corresponding to i, j Is extracted (step 1403a). At this time, the R (T) i, j Is a block image having X / W pixels in the horizontal direction and Y / W pixels in the vertical direction, as shown in FIG. 11A, and i and j represent block coordinates. At this time, it is assumed that X, Y, and W are set in advance so that X / W and Y / W are integers. Each pixel of R is a binary data storage area Rk i, j And movement vector storage area RV i, j It is assumed to be composed of
[0066]
In addition, the Q (T) i, j Is divided and extracted for each vertical W pixel and horizontal W pixel as shown in FIG. At this time, the Q (T) i, j Is checked (step 1403b), and if all are 0, Rk (T) i, j = 0 (step 1403c), and if a pixel of 1 is included, Rk (T) i, j = 1 (step 1403d). Thereafter, i or j is updated (step 1403e), and all R (T) are updated. i, j Rk (T) for i, j (Step 1403f).
[0067]
Rk (T) i, j Is data indicating only a contour area located at the same position as or near the boundary area near and far from the CM (T). That is, Rk i, j If = 1, the block area having the coordinates ((i + 1) × W−1, (j + 1) × W−1) from the coordinates (i × W, j × W) to the diagonal apex is the same as the boundary area or The contour area is located nearby. Also, Rk i, j If = 0, the block area having the coordinates ((i + 1) × W−1, (j + 1) × W−1) as the diagonal vertices from the coordinates (i × W, j × W) is the same as the boundary area or It is not a contour area in the vicinity. Therefore, Rk (T) i, j Is obtained, an image R (T) of the contour area 13 as shown in FIG. 12 is obtained.
[0068]
In the first embodiment, the block R (T) of the image R (T) of the contour area 13 is used. i, j Is divided into rectangular blocks, but the present invention is not limited to this, and may be divided into various shapes and extracted.
[0069]
Next, in step 1404 for obtaining a contour area corresponding to the contour area 13 obtained in step 1403 from the moving image data CM (T + n) at frame time T + n, first, as shown in FIG. In T), Rk (T) i, j = 1 is extracted (step 1404a).
[0070]
Next, Rk (T) i, j = 1, the coordinates ((i + 1) × W−1, (j + 1) × W−1) from the coordinates (i × W, j × W) of the CM (T) as shown in FIG. Of the reference image B (T) i, j (Steps 1404a and 1404b).
[0071]
Next, as shown in FIG. 14B, the most B (T) in CM (T + n) i, j Is determined, and the upper left coordinate value (i × W + dx, j × W + dy) of the block is determined (step 1404c). At this time, dx and dy are B (T + n) in the image advanced by the number of frames n. i, j Represents the distance moved in the x-direction and the y-direction of the contour area included in. dx and dy are RV (T + n) i, j (Step 1404d).
[0072]
As for blocks having similar image contents, a correlation amount is obtained for each two blocks, and a block having the highest correlation amount in the image is determined as a block having similar image contents. There are various existing expressions for the amount of correlation, from exact expressions used in statistical theory to simple expressions such as the sum of squares of differences for each pixel, and block search methods (for example, KR Rao et al., “Information compression technology for digital broadcasting and the Internet”, Kyoritsu Shuppan, pp. 69-71) also has various existing methods, but the present invention does not limit these to specific formulas or methods. In the present embodiment, an example using the block correlation method has been described. However, the present invention is not limited to the block correlation method as long as the distance of the contour area moved in the x direction and the y direction can be obtained.
[0073]
Next, i or j is updated (step 1404e), and the above processing is performed for all Rk (T). i, j = 1 (step 1404f), and the amount of movement dx, dy is calculated for each block to obtain RV (T + n). i, j To be stored. And further, each B (T) in the image R (T) i, j Is RV (T + n) i, j 15, the image R (T + n) of the contour area 13 corresponding to the moving image data CM (T + n) at the frame time T + n is obtained, as shown in FIG.
[0074]
Next, in step 1405 for generating the distance image data RM (T + n) at the frame time T + n, first, as shown in FIG. 16, the block B (T) is obtained from the distance image data RM (T) at the frame time T. i, j The block corresponding to RV (T + n) i, j Are moved based on dx and dy (step 1405a). At this time, as shown in FIGS. 17A and 17B, the block to be moved is Rk (T) i, j First, only the block of = 1, that is, only the boundary area 12 is moved first.
[0075]
By the way, the boundary area existing in the block before the movement is continuous between the blocks, but may be interrupted between the blocks after the movement depending on the movement direction and the movement amount. Regarding the boundary area that has become discontinuous, the continuity is restored by connecting the broken points at each block boundary with a straight line (step 1405b). In the present embodiment, an example of connection using linear interpolation is shown, but the present invention is not limited to connection using linear interpolation.
[0076]
Next, by replacing the entire inner area surrounded by the boundary area 12 with data of a neighboring area inside the boundary area, the area image data RM (T + n) at the frame time T + n is obtained as shown in FIG. Can be
[0077]
Thereafter, as shown in FIG. 3, by updating the frame time and repeating the processing of the above steps, the distance image data RM (T + n) having a low resolution at the frame time at which the distance image data has not been acquired is obtained. All are generated, and stereoscopic image data of a moving image is generated.
[0078]
FIG. 19 is a schematic diagram for explaining features of a stereoscopic image generated by the stereoscopic image generation method according to the first embodiment.
[0079]
The distance image data generated by the method of the first embodiment is generated by moving the distance image in accordance with the movement in the x and y directions extracted from the moving image data. Therefore, the movement of the imaging target in the z direction cannot be accurately represented. For example, as shown in FIG. 19A, when the photographing target approaches the photographing point, as shown in FIG. 19B, the distance z in the depth (z direction) actually increases as the photographing point approaches. Becomes larger. However, in the distance image generated according to the first embodiment, the depth distance z hardly changes as shown in FIG. Therefore, it is not suitable for generating moving image stereoscopic image data used for industrial measurement. However, when the purpose is human viewing, such as stereoscopic image communication used in the video and telecommunications industries, it is presented in combination with images, and the human visual recognition mechanism makes a reasonable interpretation due to a reasonable interpretation. Nature is not noticeable. In the case of a range image having a low resolution or a pseudo range image, this point does not originally cause a problem.
[0080]
As described above, according to the three-dimensional image generation method using the three-dimensional image generation device of the first embodiment, even if the distance image data acquisition unit 2A that cannot acquire the distance image data for each frame is used, A three-dimensional image of a moving image can be easily generated.
[0081]
In addition, even if the distance image data acquisition unit 2A can acquire the distance image data for each frame, the distance image data acquisition unit 2A can reduce the power consumption by intermittently acquiring the distance image data. it can. Therefore, it is easy to incorporate the stereoscopic image generation device into a portable device.
[0082]
Further, if the stereoscopic image generation method is programmed, it is possible to cause a computer to execute each of the steps. Therefore, a stereoscopic image of a moving image can be easily generated without using a dedicated device. At this time, the program for generating the stereoscopic image can be provided by a recording medium such as a semiconductor memory, a hard disk, or a CD-ROM, or can be provided through a network.
[0083]
In the first embodiment, an imaging method using a flash as a means for acquiring a low-resolution range image is described. However, as long as a low-resolution range image can be acquired, the method is not limited to the method described in the embodiment. Instead, the distance between the image focused on the near view and the image focused on the distant view (or pan-focus image) may be calculated according to the magnitude of the spatial frequency, or the difference may be calculated simply by performing stereo shooting. For example, it is possible to generate a low-resolution range image with a region having a difference value smaller than a certain set value as a distant view region.
[0084]
(Example 2)
20 and 21 are schematic diagrams for explaining the overall processing procedure of the stereoscopic image generation method according to the second embodiment of the present invention.
[0085]
Since the stereoscopic image generation method according to the second embodiment is performed using, for example, the stereoscopic image generation apparatus described in the first embodiment, detailed description of the apparatus will be omitted.
[0086]
In the stereoscopic image generating method according to the second embodiment, first, as shown in FIG. 20, moving image data CM (T) and distance image data RM (T) are input, and the moving image data recording unit 4 and the distance image The data is recorded in the data recording means 5. At this time, the moving image data CM (T) is input every one frame time, but the distance image data RM (T) is intermittent at N frame intervals, for example, as shown in FIG. At a typical frame interval.
[0087]
However, in this state, there is the moving image data CM (T + 1) and CM (T + 2) at the frame time when the distance image data RM does not exist. Therefore, the stereoscopic image is not generated as it is. Therefore, distance image data of a nonexistent frame time is generated by interpolation using the moving image data and the distance image data.
[0088]
In the stereoscopic image generation method according to the second embodiment, first, as shown in FIGS. 20 and 21, distance image data RM at a certain frame time and moving image data at the same frame time are selected (step 1902). Here, a case where the moving image data CM (T) and the distance image data RM (T) at the frame time T are selected as shown in FIG. 20 will be described. In the distance image data RM (T), RM (T + 3) shown in FIG. 20, a black area represents an area 11 (close view area) that is close to the shooting point, and becomes white as the distance increases. .
[0089]
Next, a motion vector of an image between the moving image data CM (T) selected in step 1902 and the moving image data CM (T + 1) at the frame time T + 1 having no distance image data is obtained (step 1903). The obtained motion vector is shown as M (T + 1). The arrow symbol MV is the detected motion vector in the motion vector image M (T + 1). Although the motion vectors are shown by arrows for easy understanding, the actual image data M (T + 1) is an image in which the motion vector information MV is recorded in each pixel, and is not an image drawn by such arrows. .
[0090]
Next, the distance image data RM (T + 1) at the frame time T + 1 is generated by dividing the distance image data RM (T) at the frame time T into a plurality of regions and moving each region separately according to the motion vector MV. (Step 1904). Here, the area of the distance image data RM (T) matches the area of the motion vector MV. For example, if a motion vector MV is given for each pixel, the distance image data RM (T) is moved in pixel units. If the motion vector MV is a motion vector of a certain block area, each area is a block area unit. Although this region depends on the method for obtaining the motion vector, the present invention is not limited to a specific method for generating a motion vector.
[0091]
Next, the frame time is updated (step 1905), and it is determined whether the moving image data CM (T + 2) and the distance image data RM (T + 2) exist (steps 1906 and 1907), and the moving image data CM (T + 2) exists. If there is no distance image data RM (T + 2), the process returns to step 1903 to generate the distance image data RM (T + 2) by interpolation. At this time, for example, as shown in FIG. 20, the distance image data RM (T + 2) is obtained from the moving image data CM (T) at the frame time T and the moving image data CM (T + 2) at the frame time T + 2. Is calculated, and each area of the distance image data RM (T) at the frame time T is moved according to the motion vector to generate the distance image data RM (T + 2) at the frame time T + 2.
[0092]
By repeating the above procedure, the distance image data at the frame time when the distance image data does not exist can be sequentially generated by interpolation. Therefore, even in the stereoscopic image generation method according to the second embodiment, there is no need to input distance image data every frame time. Therefore, it is possible to use the distance image data acquisition unit 1A that can operate only at intermittent frame intervals. In addition, even when the distance image data acquiring unit 1A can acquire the distance image data for each one frame time, the power consumption can be reduced by operating the distance image data intermittently. In the second embodiment, the distance image data is input every three frame times. However, the present invention is not limited to this. For example, the distance image data can be input every five frame times or every ten frame times. By increasing the time interval, power consumption can be significantly reduced.
[0093]
FIG. 22 to FIG. 26 are schematic diagrams for explaining a specific example of the stereoscopic image generation method according to the second embodiment.
[0094]
In the three-dimensional image generation method according to the second embodiment, the moving image data CM for every one frame time and the distance image data RM for every N frame times are stored in the moving image data recording unit 4 and the distance image data recording unit 5 such as semiconductor memories. Is recorded in advance in At this time, assuming that a frame time at which both the moving image data and the distance image data exist is T, the moving image data of CM (T), CM (T + 1),..., CM (T + N−1) There is one distance image data RM (T). From these images, moving image stereoscopic image data is generated by interpolating and generating RM (T + 1),..., RM (T + N−1) distance image data. Here, it is assumed that both the CM and the RM have an image size of X pixels in the horizontal direction and Y pixels in the vertical direction. Further, the data value of the coordinates (x, y) of CM (T) is x, y And the data value of the coordinates (x, y) of RM (T) is expressed as RM (T) x, y Is described. CM (T) x, y Is RGB data, RM (T) x, y Is a scalar value that records the distance.
[0095]
As the moving image data acquiring means 1A for acquiring the moving image data CM (T), the TV camera for photographing moving images described in the first embodiment is used. The distance image data acquiring means 2A for acquiring the distance image data RM (T) includes, for example, a light section method (for example, Toru Yoshizawa, “Three-dimensional optical measurement”, New Technology Communications, pp. 28-37). ), TOF (Optical Time-of-Flight Measurement Method) (for example, Seiji Iguchi, "Latest Trends in 3D Measurement", Measurement and Control, Vol. 34, No. 6, p. 430, Masahiro Kawakita, "Hi-Vision 3D" Camera: Axi-vision Camera ", published by Giken in 2002, Proceedings of the Research and Presentation Conference, p.58-63, various pattern projection methods (for example, Toru Yoshizawa," Three-dimensional optical measurement (second edition) ") , New Technology Communications, pp. 77-99), a distance measuring device based on various stereo methods (eg, the Institute of Image Electronics Engineers of Japan, "3D Image Glossary", New Technology Communications, pp. 51) To use.
[0096]
When the distance image data is generated by interpolation using the moving image data CM (T) and the intermittent distance image data RM (T), first, the distance image data RM (T) at a certain frame time T and the same frame time Is selected (step 1902).
[0097]
Next, step 1903 for obtaining a motion vector of an image between the moving image data CM (T) at the frame time T and the moving image data CM (T + n) at the frame time T + n having no distance image data is performed.
[0098]
In the step 1903, as shown in FIG. 22, the moving image data CM (T) is divided into blocks of vertical W pixels and horizontal W pixels in a grid pattern (step 1903a). At this time, as shown in FIGS. 23A and 23B, each block size is W × W, the number of blocks in the horizontal direction is X / W, and the number of blocks in the vertical direction is Y / W. is there. It is assumed that X and Y are set in advance so that they are divisible by W. At this time, the block at the block coordinates (i, j) is represented by B (T) i, j Is described.
[0099]
Next, a motion vector image M (T + n) is generated. At this time, the motion vector image M (T + n) corresponds to the block B (T) i, j , Ie, block-shaped two-dimensional data MV (T + n) of horizontal X / W and vertical Y / W i, j , And each element stores two-dimensional vector data.
[0100]
At this time, first, B (T) corresponding to each block coordinate (i, j) i, j And B (T) is selected as shown in FIG. i, j Is determined from the CM (T + n) (step 1903b).
[0101]
Next, as shown in FIG. 24B, the upper left coordinate value (i × W + dx, j × W + dy) of this block determined from the CM (T + n) is obtained. At this time, dx and dy are B (T) in the image advanced by n frames. i, j Motion vector MV (T + n) i, j It is. dx and dy are MV (T + n) i, j (Step 1903c).
[0102]
The motion vector MV (T + n) i, j Is called a block matching method, and is a known method used for motion prediction when generating an MPEG2 image, for example. Generally, a correlation amount is obtained for every two blocks, and the block showing the highest correlation amount in the image is determined as a block having a similar image content. There are various existing equations up to a simple equation such as a sum of squares of differences, and various existing methods also exist, such as a block search method and a post-movement inter-block distortion removal method. The present invention does not limit these to any particular formula or approach. In the second embodiment, an example using the block matching method is described. However, the present invention is not limited to the block matching method as long as a motion vector in an image can be obtained. As a result, the generated MV (T + n) i, j Represents the motion in the image when the frame time changes from T to T + n.
[0103]
Thereafter, i or j is updated (step 1903d), and all blocks B (T) of CM (T) are updated. i, j And the same process is repeated (step 1903e).
[0104]
Next, in step 1904 for moving each area of the distance image data RM (T) based on the motion vector image M (T + n), first, as shown in FIG. , The block B (T) i, j Block RM (T) of the same size as i, j (Step 1904a). Thereafter, as shown in FIG. 26A, the block RM (T) i, j Is the motion vector MV (T + n) i, j (Step 1904b). Thereafter, i or j is updated (step 1904c), and all blocks RM (T) are updated. i, j Is moved, distance image data RM (T + n) at frame time T + n is obtained as shown in FIG.
[0105]
After that, the frame time is updated with n = n + 1. If the distance image data RM (T + n) does not exist, the above procedure is repeated to generate the distance image data RM (T + n).
[0106]
At this time, the distance image data RM (T + n) at the frame time T + n is, for example, as shown in FIG. It is generated using T + n moving image data CM (T + n).
[0107]
Hereinafter, by repeating the above-described processing until the frame time of the moving image vector CM in which the distance image data RM exists, the distance image data RM between the frame time T and the frame time T + N can be interpolated.
[0108]
As described above, according to the three-dimensional image generation method of the second embodiment, it is possible to easily generate a three-dimensional image of a moving image even using an acquisition unit that cannot acquire distance image data for each frame. it can.
[0109]
Further, even if the acquisition unit is capable of acquiring the distance image data for each frame, by intermittently acquiring the distance image data, the power consumption of the distance image data acquisition unit 2A can be reduced. Therefore, the device for generating the stereoscopic image can be easily incorporated into a portable device.
[0110]
Further, in the three-dimensional image generation method according to the second embodiment, as described in the above procedure, instead of the distance image data input from the distance measuring device, the distance can be distinguished as described in the first embodiment. It is also possible to use distance image data having a low resolution. In such a case, since only the movement of the contour region needs to be obtained, the amount of calculation is reduced, and the power consumption can be further reduced.
[0111]
FIG. 27 is a schematic diagram for explaining a modification of the second embodiment.
[0112]
In the second embodiment, when interpolation generation of the distance image data at the frame time T + n between the frame time T and the frame time T + N is performed, the moving image data CM (T) at the frame time T is generated as shown in FIG. Although the example in which the distance image data RM (T + n) and the distance image data RM (T + n) are interpolated and generated using the moving image data CM (T + n) at the frame time T + n is shown instead, for example, one frame before The distance image data RM (T + n) may be generated using the moving image data CM (T + n-1), the distance image data RM (T + n-1) generated by interpolation, and the moving image data CM (T + n).
[0113]
The moving image data usually includes a contour portion region always obtained at the first frame time T, as in the second embodiment, since the contour shape of the shooting target gradually changes with the update of the image frame. In the method of performing pattern matching between frames, correct pattern matching cannot be performed in temporally separated frames in which the deformation amount is a certain amount or more. On the other hand, in the case of the method shown in FIG. 27, the motion vector is obtained by performing pattern matching with the contour region obtained in the immediately preceding frame. Irrespective of this, the deformation amount of the contour shape of the photographing target is always within one frame, and the amount is minute. Therefore, in the case of the method shown in FIG. 27, a stereoscopic image of the moving image can be accurately generated even if the number of frames in which no distance image data exists is large.
[0114]
(Example 3)
FIG. 28 is a schematic diagram illustrating a schematic configuration of the stereoscopic image generation device according to the third embodiment of the present invention.
[0115]
As shown in FIG. 28, the three-dimensional image generating apparatus according to the third embodiment includes a moving image data input unit 1B for inputting moving image data from the moving image data obtaining unit 1A, and auxiliary image data from an auxiliary image data obtaining unit 20A. Auxiliary image data input means 20B to be input, control means 3 for controlling each data to be input to the moving image data input means 1B and the auxiliary image data input means 20B, and moving image input from the moving image data input means 1 Moving image data recording means 4 for recording image data; distance image data recording means 5 for recording auxiliary image data and distance image data input from the auxiliary image data input means 20; Image data interpolation generating means 21.
[0116]
The three-dimensional image generation device is a device that generates a three-dimensional image composed of a set of moving image data and distance image data of 30 frames or more per second, for example, and the generated three-dimensional image is, as shown in FIG. The three-dimensional moving image can be obtained by the calculation by the calculation means 7 and the display by the display means 8.
[0117]
FIGS. 29 to 36 are schematic diagrams illustrating a stereoscopic image generation method using the stereoscopic image generation device of the third embodiment.
[0118]
In the three-dimensional image generation device of the third embodiment, unlike the first and second embodiments, as shown in FIG. 29, auxiliary image data capable of generating the distance image data is input, and the auxiliary image data Alternatively, distance image data is generated using the auxiliary image data and the moving image data.
[0119]
Here, the auxiliary image data capable of generating the distance image data means that the data itself does not directly represent the distance information, but the auxiliary image data alone or a combination of the auxiliary image data and the image data is used. The image data is defined as image data capable of generating distance image data, low-resolution distance image data, or pseudo-range image data by calculation.
[0120]
As an example, when the auxiliary image data is a normal image, the auxiliary image data alone does not include the distance information, but the distance image can be generated by using the stereo method by considering it as a stereo image in combination with the other image data. . Therefore, a normal image becomes auxiliary image data.
[0121]
In the third embodiment, only an example in which such a stereo image is used as the auxiliary image data will be described in detail. However, by performing the calculation using the auxiliary image data alone or the combination of the auxiliary image data and the image data, The present invention does not limit the type of auxiliary image data as long as the image data can generate range image data, range image data with low resolution, or pseudo range image data.
[0122]
When a three-dimensional image of a moving image is generated using the three-dimensional image generation apparatus of the third embodiment, an auxiliary device capable of generating moving image data CM for each frame and a distance image for each N frames is stored in a recording unit such as a semiconductor memory. It is assumed that the image data HM has been recorded in advance. Assuming that the frame time at which both the moving image data and the auxiliary image data exist is T, HM (T) is 1 for the moving image of CM (T), CM (T + 1),..., CM (T + N−1). Exists. From these images, moving image stereoscopic image data can be generated by interpolating and generating distance image data of RM (T), RM (T + 1),..., RM (T + N−1).
[0123]
It is assumed that the auxiliary image data HM (T) used in the third embodiment is image data photographed at a position different in the horizontal direction from the photographing position of the moving image data CM (T).
[0124]
When generating the distance image data RM (T) by using the stereoscopic image generation method of the third embodiment, first, as shown in FIG. 30, the auxiliary image data HM at the same frame time as the moving image data CM (T). (T) is selected (step 2201), and the distance image data RM (T) at the frame time T is generated (step 2202).
[0125]
In step 2202 for generating the distance image data RM (T) at the frame time T, as shown in FIG. 31, first, the moving image data CM (T) shown in FIG. The absolute value of the difference between the indicated auxiliary image data HM (T) is taken to generate the image DM (T) (step 2202a). At this time, since the moving image data CM (T) and the auxiliary image data HM (T) are stereo images, the near-view area has a different position in the image between the moving image data CM (T) and the auxiliary image data HM (T). The value will not be 0. In particular, a remarkable difference value occurs in a region where the change in the luminance value is large. On the other hand, in the distant view area, the difference value is very small because the position in the image is hardly changed between the moving image data CM (T) and the auxiliary image data HM (T).
[0126]
Next, each point DM (T) of the difference value image DM (T) x, y Is set to 1 if the difference value is equal to or greater than a predetermined difference value k, and set to 0 if less than k (steps 2202b, 2202c, 2202d). Thereafter, x or y is updated (step 2202e), and all DM (T) are updated. x, y Is binarized (2202f) to generate a binarized image DM (T) as shown in FIG. As a result, the area where the object is not shown (distant view area) is 0. On the other hand, the region where the object is captured (foreground region) has a high probability of being 1, but it may be 0 in a region where the change in luminance is poor, resulting in a noisy image in which 0 and 1 are mixed.
[0127]
Therefore, next, noise is removed from the binarized image DM (T) (step 2202g). The noise removal is performed, for example, as shown in FIGS. 34, 35 (a), and 35 (b) with respect to all the pixels DM (T) of the binarized image DM (T). x, y The value of each of the previously set p pixels × p pixels centered on is checked (steps 2202h and 2202i). If there is a pixel having a value of 1, RM (T) x, y = 1 (step 2202k), otherwise 0 (step 2202j). As a result, noise is removed, and as shown in FIG. 36, a low-resolution range image RM (T) in which the near view is represented by 1 and the distant view is represented by 0 is generated.
[0128]
In addition, as a method of removing noise, there is also a method of using a median filter or applying a smoothing filter and then binarizing again. The present invention does not limit the method of removing noise.
[0129]
Various other images are also conceivable as auxiliary images. For example, there is a method of using an input image with a short depth of focus that is in focus at a short distance as an auxiliary image. In the auxiliary image, the distant view area is photographed out of focus, so that the high-frequency component is extremely small. Therefore, it is possible to calculate the approximate distance at that position from the ratio by obtaining the spatial frequency near the same position between the auxiliary image and the image and obtaining the ratio of the high frequency components. The present invention does not limit what is used for an auxiliary image as long as a distance image can be generated from an auxiliary image or a combination of an auxiliary image and an image.
[0130]
After that, the above procedure is repeated to generate the distance image data RM (T) from the moving image data CM (T) and the auxiliary image data HM (T) intermittently input. Generate a three-dimensional image of a moving image according to the procedure.
[0131]
In the third embodiment, a range image having a low resolution is generated. Therefore, the range image is combined with the generation method described in the first embodiment. However, when the range image generated has a high resolution, the range image is described in the second embodiment. It may be combined with the generated generation method.
[0132]
As described above, according to the three-dimensional image generating method of the third embodiment, the auxiliary image data capable of generating the distance image data is intermittently obtained, and the distance image data is generated from the auxiliary image data. In the same manner as the generation method described in the first embodiment or the second embodiment, a moving image stereoscopic image can be easily generated.
[0133]
Further, by intermittently obtaining the auxiliary image data, the power consumption of the auxiliary image data obtaining unit 20A that obtains the auxiliary image data can be reduced. Therefore, it is easy to incorporate the stereoscopic image generation device into a portable device.
[0134]
As described above, the present invention has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and can be variously modified without departing from the gist of course. is there.
[0135]
【The invention's effect】
The effects obtained by typical aspects of the invention disclosed in the present application will be briefly described as follows.
(1) A three-dimensional image of a moving image can be easily generated.
(2) The power consumption of a device that generates a stereoscopic image of a moving image can be reduced.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a schematic configuration of a stereoscopic image generation device according to a first embodiment of the present invention.
FIG. 2 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device according to the first embodiment, and is a diagram illustrating an overall processing procedure of the three-dimensional image generation method.
FIG. 3 is a schematic diagram for explaining a stereoscopic image generation method using the stereoscopic image generation device according to the first embodiment, and is a diagram illustrating an overall processing procedure of the stereoscopic image generation method.
FIG. 4 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 5 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 6 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 7 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 8 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 9 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 10 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 11 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 12 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 13 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 14 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 15 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 16 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 17 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 18 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the first embodiment.
FIG. 19 is a schematic diagram for explaining characteristics of a three-dimensional image generated by the three-dimensional image generation method according to the first embodiment.
FIG. 20 is a schematic diagram for explaining the overall processing procedure of the stereoscopic image generation method according to the second embodiment of the present invention.
FIG. 21 is a schematic diagram for explaining the overall processing procedure of the stereoscopic image generation method according to the second embodiment of the present invention.
FIG. 22 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the second embodiment.
FIG. 23 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the second embodiment.
FIG. 24 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the second embodiment.
FIG. 25 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the second embodiment.
FIG. 26 is a schematic diagram for explaining a specific example of the stereoscopic image generation method according to the second embodiment.
FIG. 27 is a schematic diagram for explaining a modification of the second embodiment.
FIG. 28 is a schematic diagram illustrating a schematic configuration of a stereoscopic image generation device according to a third embodiment of the present invention.
FIG. 29 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device of the third embodiment.
FIG. 30 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device of the third embodiment.
FIG. 31 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device of the third embodiment.
FIG. 32 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device of the third embodiment.
FIG. 33 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device of the third embodiment.
FIG. 34 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device of the third embodiment.
FIG. 35 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device of the third embodiment.
FIG. 36 is a schematic diagram for explaining a three-dimensional image generation method using the three-dimensional image generation device according to the third embodiment.
[Explanation of symbols]
1A: Moving image data acquisition means, 1B: Moving image data input means, 2A: Distance image data acquisition means, 2B: Distance image data input means, 3 ... Control means, 4 ... Moving image data recording means, 5: Distance image data Recording means, 6 ... Distance image data interpolation means, 7 ... Calculation means, 8 ... Display means, 10 ... Photographing object, 11 ... Near view area, 12 ... Boundary area, 13 ... Outline area, 15 ... Light source, 16 ... Total reflection Mirror, 17 half mirror, 20A auxiliary image data acquisition means, 20B auxiliary image data input means, 21 distance image data interpolation generation means.

Claims (10)

1フレーム時間毎の動画像データを入力するステップと、
前記動画像データから立体画像を生成するためのデータ(以下、距離画像データと称する)を、間欠的なフレーム間隔で入力するステップと、
前記動画像データ及び前記入力された距離画像データに基づいて、前記距離画像データが存在しないフレーム時刻の距離画像データを補間生成するステップとを有することを特徴とする立体画像生成方法。
Inputting moving image data for each frame time;
Inputting data (hereinafter, referred to as distance image data) for generating a stereoscopic image from the moving image data at intermittent frame intervals;
Interpolating and generating distance image data at a frame time when the distance image data does not exist based on the moving image data and the input distance image data.
前記距離画像データを補間生成するステップは、
前記入力された距離画像データから、遠近の境目領域を求めるステップと、
前記入力された距離画像データと同じフレーム時刻の動画像データから、前記境目領域と同じ位置、または前記境目領域の近傍の輪郭部領域を求めるステップと、
前記距離画像データが存在しないフレーム時刻の動画像データから、前記輪郭部領域に相当する領域を求めるステップと、
前記輪郭部領域と、前記輪郭部領域に相当する領域の移動量に基づいて、前記境目領域及びその内部領域を移動させて、前記距離画像データを生成するステップとを有することを特徴とする請求項1に記載の立体画像生成方法。
Interpolating and generating the distance image data,
From the input distance image data, obtaining a near and far boundary area,
From the moving image data at the same frame time as the input distance image data, obtaining the same position as the boundary area, or a contour area near the boundary area,
A step of obtaining a region corresponding to the outline portion region from moving image data at a frame time when the distance image data does not exist;
A step of generating the distance image data by moving the boundary region and an inner region thereof based on a movement amount of the outline region and a region corresponding to the outline region. Item 3. The stereoscopic image generation method according to Item 1.
前記距離画像データを補間生成するステップは、
前記入力された距離画像データと同じフレーム時刻の動画像データを選択するステップと、
前記選択された動画像データから、前記距離画像データが存在しないフレーム時刻の動画像データまでの間の画像の動きベクトルを求めるステップと、
前記入力された距離画像データを複数の領域に分割し、前記動きベクトルに基づいて前記各領域を移動させて、距離画像データを生成するステップとを有することを特徴とする請求項1に記載の立体画像生成方法。
Interpolating and generating the distance image data,
Selecting moving image data at the same frame time as the input distance image data,
Obtaining a motion vector of an image from the selected moving image data to moving image data at a frame time when the distance image data does not exist;
Dividing the input distance image data into a plurality of regions and moving each of the regions based on the motion vector to generate distance image data. 3D image generation method.
前記距離画像データを入力するステップは、
前記距離画像データを生成可能な補助画像データを、間欠的なフレーム間隔で入力するステップと、
前記補助画像データ、または前記補助画像データ及び前記補助画像データと同じフレーム時刻の動画像データに基づいて距離画像データを生成するステップとを有することを特徴とする請求項1乃至請求項3のいずれか1項に記載の立体画像生成方法。
The step of inputting the distance image data,
Inputting auxiliary image data capable of generating the distance image data at intermittent frame intervals,
4. The method according to claim 1, further comprising: generating distance image data based on the auxiliary image data or moving image data at the same frame time as the auxiliary image data and the auxiliary image data. 3. The method for generating a three-dimensional image according to claim 1.
1フレーム時間毎の動画像データを入力する動画像データ入力手段と、
前記動画像データから立体画像を生成するためのデータ(以下、距離画像データと称する)を、間欠的なフレーム間隔で入力する距離画像データ入力手段と、
前記動画像データ入力手段から入力された動画像データ及び前記距離画像データ入力手段から入力された距離画像データに基づいて、前記距離画像データが存在しないフレーム時刻の距離画像データを補間生成する距離画像データ補間手段とを備えることを特徴とする立体画像生成装置。
Moving image data input means for inputting moving image data for each frame time;
Distance image data input means for inputting data for generating a stereoscopic image from the moving image data (hereinafter referred to as distance image data) at intermittent frame intervals;
A distance image that interpolates and generates distance image data at a frame time when the distance image data does not exist based on the moving image data input from the moving image data input means and the distance image data input from the distance image data input means. A three-dimensional image generation device comprising: a data interpolation unit.
前記距離画像データ補間手段は、
前記距離画像データ入力手段から入力された距離画像データから、遠近の境目領域を求める手段と、
前記距離画像データと同じフレーム時刻の動画像データから、前記境目領域と同じ位置、または前記境目領域の近傍の輪郭部領域を求める手段と、
前記距離画像データが存在しないフレーム時刻の動画像データから、前記輪郭部領域に相当する領域を求める手段と、
前記輪郭部領域と、前記輪郭部領域に相当する領域の移動量に基づいて、前記境目領域及びその内部領域を移動させて、前記距離画像データを生成する手段とを有することを特徴とする請求項5に記載の立体画像生成装置。
The distance image data interpolation means,
Means for obtaining a far and near boundary area from the distance image data input from the distance image data input means,
From the moving image data at the same frame time as the distance image data, means for determining the same position as the boundary region, or a contour region near the boundary region
Means for obtaining an area corresponding to the outline area from moving image data at a frame time when the distance image data does not exist;
The apparatus according to claim 1, further comprising: a unit configured to generate the distance image data by moving the boundary region and an inner region based on a movement amount of the outline region and a region corresponding to the outline region. Item 3. The stereoscopic image generation device according to Item 5.
前記距離画像データ補間手段は、
前記入力された距離画像データと同じフレーム時刻の動画像データを選択する手段と、
前記選択された動画像データから、前記距離画像データが存在しないフレーム時刻の動画像データまでの間の画像の動きベクトルを求める手段と、
前記入力された距離画像データを複数の領域に分割し、前記動きベクトルに基づいて前記各領域を移動させて、距離画像データを生成する手段とを備えることを特徴とする請求項5に記載の立体画像生成装置。
The distance image data interpolation means,
Means for selecting moving image data at the same frame time as the input distance image data,
Means for obtaining a motion vector of an image from the selected moving image data to moving image data at a frame time when the distance image data does not exist;
The apparatus according to claim 5, further comprising: a unit configured to divide the input distance image data into a plurality of regions, move each of the regions based on the motion vector, and generate distance image data. Stereoscopic image generation device.
前記距離画像データ入力手段は、
前記距離画像データを生成可能な補助画像データを、間欠的なフレーム間隔で入力する補助画像データ入力手段と、
前記補助画像データ、または前記補助画像データ及び前記補助画像データと同じフレーム時刻の動画像データに基づいて距離画像データを生成する手段とを備えることを特徴とする請求項5乃至請求項7のいずれか1項に記載の立体画像生成装置。
The distance image data input means,
Auxiliary image data input means for inputting auxiliary image data capable of generating the distance image data at intermittent frame intervals,
8. A device according to claim 5, further comprising: means for generating distance image data based on the auxiliary image data or the moving image data at the same frame time as the auxiliary image data and the auxiliary image data. The stereoscopic image generation device according to claim 1.
請求項1乃至請求項4のいずれか1項に記載の立体画像生成方法の各ステップをコンピュータに実行させるための立体画像生成プログラム。A stereoscopic image generation program for causing a computer to execute each step of the stereoscopic image generation method according to any one of claims 1 to 4. 前記請求項9に記載の立体画像生成プログラムがコンピュータで読み出し可能に記録された記録媒体。A recording medium in which the stereoscopic image generation program according to claim 9 is recorded so as to be readable by a computer.
JP2003016302A 2003-01-24 2003-01-24 Stereo image generation method, stereo image generation apparatus, stereo image generation program, and recording medium Expired - Fee Related JP3988879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003016302A JP3988879B2 (en) 2003-01-24 2003-01-24 Stereo image generation method, stereo image generation apparatus, stereo image generation program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003016302A JP3988879B2 (en) 2003-01-24 2003-01-24 Stereo image generation method, stereo image generation apparatus, stereo image generation program, and recording medium

Publications (2)

Publication Number Publication Date
JP2004229093A true JP2004229093A (en) 2004-08-12
JP3988879B2 JP3988879B2 (en) 2007-10-10

Family

ID=32903802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003016302A Expired - Fee Related JP3988879B2 (en) 2003-01-24 2003-01-24 Stereo image generation method, stereo image generation apparatus, stereo image generation program, and recording medium

Country Status (1)

Country Link
JP (1) JP3988879B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera
JP2010130495A (en) * 2008-11-28 2010-06-10 Toshiba Corp Device and method for output of three-dimensional information
JP2010224886A (en) * 2009-03-24 2010-10-07 Toshiba Corp Stereoscopic image drawing apparatus and drawing method
JP2010534878A (en) * 2007-07-26 2010-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for communicating depth related information
JP2011228846A (en) * 2010-04-16 2011-11-10 Canon Inc Image processing device and method
KR20110122817A (en) * 2009-01-30 2011-11-11 톰슨 라이센싱 Coding of depth maps
JP2012506994A (en) * 2008-07-15 2012-03-22 サムスン エレクトロニクス カンパニー リミテッド Video processing method
WO2012056686A1 (en) * 2010-10-27 2012-05-03 パナソニック株式会社 3d image interpolation device, 3d imaging device, and 3d image interpolation method
JP2012134655A (en) * 2010-12-20 2012-07-12 Toshiba Corp Image processing device, image processing method, and image display device
WO2013054463A1 (en) * 2011-10-11 2013-04-18 パナソニック株式会社 Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
EP2693753A1 (en) * 2012-07-31 2014-02-05 Samsung Electronics Co., Ltd Method of converting 2-dimension images into 3-dimension images and display apparatus thereof
JP2015023552A (en) * 2013-07-23 2015-02-02 キヤノン株式会社 Image reproduction device, image reproduction method, program and storage medium
JP2020086824A (en) * 2018-11-22 2020-06-04 キヤノン株式会社 Image processing system, image processing method, imaging device, and program
JP2021025909A (en) * 2019-08-06 2021-02-22 直之 村上 Eye of computer (pceye)
WO2024057902A1 (en) * 2022-09-12 2024-03-21 ソニーグループ株式会社 Information processing device, method, and program

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010534878A (en) * 2007-07-26 2010-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for communicating depth related information
US8854425B2 (en) 2007-07-26 2014-10-07 Koninklijke Philips N.V. Method and apparatus for depth-related information propagation
JP2012506994A (en) * 2008-07-15 2012-03-22 サムスン エレクトロニクス カンパニー リミテッド Video processing method
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera
JP2010130495A (en) * 2008-11-28 2010-06-10 Toshiba Corp Device and method for output of three-dimensional information
KR101675555B1 (en) 2009-01-30 2016-11-11 톰슨 라이센싱 Coding of depth maps
CN102356637A (en) * 2009-01-30 2012-02-15 汤姆森特许公司 Coding of depth maps
KR20110122817A (en) * 2009-01-30 2011-11-11 톰슨 라이센싱 Coding of depth maps
US9569819B2 (en) 2009-01-30 2017-02-14 Thomson Licensing Coding of depth maps
JP2010224886A (en) * 2009-03-24 2010-10-07 Toshiba Corp Stereoscopic image drawing apparatus and drawing method
JP2011228846A (en) * 2010-04-16 2011-11-10 Canon Inc Image processing device and method
EP2635034A1 (en) * 2010-10-27 2013-09-04 Panasonic Corporation 3d image interpolation device, 3d imaging device, and 3d image interpolation method
US9270970B2 (en) 2010-10-27 2016-02-23 Dolby International Ab Device apparatus and method for 3D image interpolation based on a degree of similarity between a motion vector and a range motion vector
CN102687515A (en) * 2010-10-27 2012-09-19 松下电器产业株式会社 3D image interpolation device,3d imaging device,and 3d image interpolation method
EP2635034A4 (en) * 2010-10-27 2014-04-23 Panasonic Corp 3d image interpolation device, 3d imaging device, and 3d image interpolation method
WO2012056686A1 (en) * 2010-10-27 2012-05-03 パナソニック株式会社 3d image interpolation device, 3d imaging device, and 3d image interpolation method
JP5887267B2 (en) * 2010-10-27 2016-03-16 ドルビー・インターナショナル・アーベー 3D image interpolation apparatus, 3D imaging apparatus, and 3D image interpolation method
CN102687515B (en) * 2010-10-27 2015-07-15 杜比国际公司 3D image interpolation device,3d imaging device,and 3d image interpolation method
JP2012134655A (en) * 2010-12-20 2012-07-12 Toshiba Corp Image processing device, image processing method, and image display device
WO2013054463A1 (en) * 2011-10-11 2013-04-18 パナソニック株式会社 Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
JPWO2013054463A1 (en) * 2011-10-11 2015-03-30 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America IMAGING DEVICE AND ITS INTEGRATED CIRCUIT, IMAGING METHOD, IMAGING PROGRAM, AND IMAGING SYSTEM
EP2693753A1 (en) * 2012-07-31 2014-02-05 Samsung Electronics Co., Ltd Method of converting 2-dimension images into 3-dimension images and display apparatus thereof
JP2015023552A (en) * 2013-07-23 2015-02-02 キヤノン株式会社 Image reproduction device, image reproduction method, program and storage medium
JP2020086824A (en) * 2018-11-22 2020-06-04 キヤノン株式会社 Image processing system, image processing method, imaging device, and program
JP7346021B2 (en) 2018-11-22 2023-09-19 キヤノン株式会社 Image processing device, image processing method, imaging device, program and recording medium
JP2021025909A (en) * 2019-08-06 2021-02-22 直之 村上 Eye of computer (pceye)
JP7133520B2 (en) 2019-08-06 2022-09-08 直之 村上 Computer eyes (PCEYE)
WO2024057902A1 (en) * 2022-09-12 2024-03-21 ソニーグループ株式会社 Information processing device, method, and program

Also Published As

Publication number Publication date
JP3988879B2 (en) 2007-10-10

Similar Documents

Publication Publication Date Title
CN107274338B (en) Systems, methods, and apparatus for low-latency warping of depth maps
CN106796718B (en) Method and apparatus for efficient depth image transformation
CN112104854A (en) Method and system for robust virtual view generation between camera views
JP6094863B2 (en) Image processing apparatus, image processing method, program, integrated circuit
KR100720722B1 (en) Intermediate vector interpolation method and 3D display apparatus
US9390511B2 (en) Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data
JP2004229093A (en) Method, device, and program for generating stereoscopic image, and recording medium
KR101903619B1 (en) Structured stereo
US8478024B2 (en) Depth map generation module for foreground object and method thereof
US11017587B2 (en) Image generation method and image generation device
EP2259599A1 (en) Method and arrangement for processing a stereo image for three-dimensional viewing
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
Li et al. A real-time high-quality complete system for depth image-based rendering on FPGA
US20160180514A1 (en) Image processing method and electronic device thereof
US8619094B2 (en) Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image
JPWO2012117706A1 (en) Video processing apparatus, video processing method, and program
JP2004200973A (en) Apparatus and method of inputting simple stereoscopic image, program, and recording medium
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
US20150256819A1 (en) Method, program and apparatus for reducing data size of a plurality of images containing mutually similar information
CN114513646A (en) Method and device for generating panoramic video in three-dimensional virtual scene
KR20100019926A (en) Method for generating vitual view image and apparatus thereof
EP2950269A1 (en) Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing
US11257235B2 (en) Efficient sub-pixel disparity estimation for all sub-aperture images from densely sampled light field cameras
JP4155401B2 (en) 3D image generation method, 3D image generation apparatus, 3D image generation program, and recording medium
JPH07175930A (en) Image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees