JP5960710B2 - 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム - Google Patents

撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム Download PDF

Info

Publication number
JP5960710B2
JP5960710B2 JP2013538420A JP2013538420A JP5960710B2 JP 5960710 B2 JP5960710 B2 JP 5960710B2 JP 2013538420 A JP2013538420 A JP 2013538420A JP 2013538420 A JP2013538420 A JP 2013538420A JP 5960710 B2 JP5960710 B2 JP 5960710B2
Authority
JP
Japan
Prior art keywords
image
distance
region
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013538420A
Other languages
English (en)
Other versions
JPWO2013054463A1 (ja
Inventor
健二 清水
健二 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2013054463A1 publication Critical patent/JPWO2013054463A1/ja
Application granted granted Critical
Publication of JP5960710B2 publication Critical patent/JP5960710B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、立体画像の撮像を行う技術に関し、特に、立体画像の生成および加工を行うための距離情報の取得技術に関する。
立体画像を撮像する方法として、2つの視点から画像を撮影する方法が一般的である。このとき、撮影中または撮影後に、一方の視点の位置を変更させた画像を必要とする場合がある。例えば、ステレオカメラを有する携帯情報端末を90°傾けて撮像した場合、上下方向に並んだ2視点からの画像が生成されるため、画像を回転させることなく立体視するためには、左右方向に並んだ2視点からの画像に変換する必要が生じる。このような場合、視点の異なる2つの画像から各被写体と視点との距離を算出し、算出した距離と一方の視点の画像とを用いて、立体画像を所望の条件で生成する手法が用いられる。
ここで、各被写体と視点との距離を取得するためには、視差検出処理が必要となる。視差検出処理とは、同一時刻に撮影された視点の異なる2つの画像間で、同一の被写体が映っている画素を探し出して対応付けを行う画像のマッチング処理である。具体的には、基準となる視点の画像上にある画素に対して、他方の視点の画像全体から対応する画素を探索し、最も相似性の高い画素を対応点とする処理である。
しかしながら、このような処理は処理量が大きく、特に、動画に対して処理を行う場合は、毎秒30以上のフレームそれぞれに対して行う必要があるため高い演算能力を必要とする。そのため、デジタルビデオカメラなど立体画像の撮影と表示を同時に行う機器では消費電力が高くなり、充電池による動作が難しい、あるいは充電池の持ちが悪いという問題がある。
動画における距離情報の生成処理の処理量を軽減する方法として、一部のフレームに対して距離情報の生成を行い、それ以外のフレームに対応する距離情報を補間する方法がある(例えば、特許文献1)。特許文献1に記載の技術では、立体画像の生成元となる動画像データ(各フレームを「フレーム画像」と呼ぶ)を取得するとともに、動画像データから立体画像を生成するための距離画像データを間欠的に取得する。そして、以下の方法で、欠落している距離画像データを補間生成する。すなわち、距離画像から遠近の境目領域を抽出し、フレーム画像から、境界領域とその近傍を輪郭部領域として抽出する。そして、次の時刻のフレーム画像と輪郭部領域とでパターンマッチングを行い、当該次の時刻のフレーム画像において輪郭部領域に対応する位置を算出する。最後に、輪郭部領域の移動量を算出し、距離画像を算出された移動量だけ移動させることで、当該次の時刻のフレーム画像における距離画像を補間生成する。
特許第3988879号公報
しかしながら、特許文献1の技術では、補間生成された距離画像における遠近の境目領域と、当該時刻のフレーム画像における被写体オブジェクトの輪郭線は必ずしも一致するとは限らない。これは、以下の理由による。
距離画像に対応するフレーム画像と、次の時刻のフレーム画像との間で被写体オブジェクトの輪郭線の形状とは、必ずしも一致するとは限らない。しかしながら、特許文献1の技術では、距離画像を算出された移動量だけ移動させることで次の時刻のフレーム画像における距離画像を補間生成している。そのため、距離画像に対応するフレーム画像と、次の時刻のフレーム画像との間で被写体オブジェクトの輪郭線の形状が変形していても、補間生成される距離画像に含まれる遠近の境界領域は変形前の形状であるので、次の時刻においてフレーム画像における被写体オブジェクトの輪郭線と、距離画像における境目領域との間で、形状不一致が引き起こされる可能性がある。
本発明は、上記従来の課題を解決するもので、画像と距離情報との間でオブジェクトの輪郭線の不一致が生じないように距離情報を推測する撮像技術を提供することを目的とする。
本発明の撮像装置は、同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力部と、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割部と、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出部と、前記距離検出部が前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択部と、前記距離選択部が前記第2の画像の距離情報を前記距離検出部が生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定部と、前記領域対応判定部の判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測部とを備えることを特徴とする。
本発明の撮像装置によれば、画像と距離情報との間でオブジェクトの輪郭線の不一致が生じないように距離情報を推測することができる。
実施の形態1に係る撮像装置のブロックを示す図 実施の形態1に係る撮像装置の1つの主画像に対する動作を示すフローチャート 実施の形態1に係る撮像装置の画像処理を示す模式図 実施の形態2に係る撮像装置のブロックを示す図 実施の形態2に係る撮像装置の1つの主画像に対する動作を示すフローチャート 実施の形態2に係る撮像装置の画像処理を示す模式図 実施の形態3に係る撮像装置のブロックを示す図 実施の形態3に係る撮像装置の1つの主画像に対する動作を示すフローチャート 実施の形態3に係る撮像装置の画像処理を示す模式図 実施の形態4に係る撮像装置のブロックを示す図 実施の形態4の変形例に係る撮像装置のブロックを示す図 実施の形態1に係る集積回路のブロックを示す図 実施の形態5に係る撮像システムのブロックを示す図 従来の立体画像生成装置のブロックを示す図 従来の立体画像生成の制御方法を示す図 従来の立体画像生成の制御方法を示すフローチャートを示す図
(発明に至った経緯)
従来、立体視のための2つの画像を撮像する場合には、水平方向に人の両眼の平均的な間隔(約6.5cm)の距離を隔てて2つの光学系(レンズおよびCCDなどのセンサ)を設置する手法が用いられていたが、近年、2眼式の手持ち型デジタルビデオカメラが登場し、スマートフォンなどの携帯情報端末においても、2視点のステレオカメラが搭載されるようになっている。
手持ち型デジタルビデオカメラや携帯情報端末では、約6.5cmの距離を隔てて2つの光学系を水平に並べて設置することは装置の小型化に対する制約となる。また、撮影者の手で保持されることが多い手持ち型デジタルビデオカメラや携帯情報端末では、必ずしも2視点が水平方向に配置された状態で撮影されるとは限らず、例えば、携帯情報端末を90°回転させた状態で撮影されることがある。このような事情を鑑みると、撮像した画像上の被写体と視点との距離を算出してから立体画像を生成するものとすれば、2視点が水平に並ぶ必要もない上に2視点の間隔が約6.5cmの距離でなくてもよく、携帯情報端末等の小型化を妨げる制約がなくなるとともに、2視点の並びの向きを気にすることなく撮像が行えるようになる。
しかしながら、上述したように、特に動画においては視差検出の演算量が大きい。そこで、発明者らは、被写体の距離検出動作の負荷を軽減する方法について検討した。
被写体の距離検出動作の負荷を軽減する方法としては、距離検出を間欠的に行い、距離検出を行わないフレームについては補間することが考えられる。しかしながら、特許文献1の技術には、上述したように、フレーム画像と補間生成された距離画像との間で被写体オブジェクトの輪郭線が必ずしも一致するとは限らないという問題点がある。
この問題点について、図面を用いて説明する。引用文献1に記載の立体画像生成装置のブロック図を図14に示す。
次に、引用文献1に記載の立体画像生成装置の動作を、図15の模式図と図16のフローチャートを用いて説明する。立体画像生成装置は、図15に示す動画像データCM(T)及び距離画像データRM(T)を入力し、動画像データ記録手段904及び距離画像データ記録手段905に記録する。このとき、動画像データCM(T)は、1フレーム時間毎に入力するが、画像データRM(T)は、例えば、図15に示すように、3フレーム毎の間欠的なフレーム間隔で入力する。距離画像データRM(T)は、1bitの分解能の距離画像データであり、黒い領域952は近景領域であり、白い領域は遠景領域である。
次に、立体画像生成装置は、動画像データCM(T)、CM(T+1)、CM(T+2)及び距離画像データRM(T)を用いて、距離画像データ補間手段906により距離画像データRM(T+1)、RM(T+2)の補間生成を行う。図15及び図16に示すように、初期化した後(S101)、距離画像データRM(T)から、近景と遠景の境目領域953の画像Q(T)を求める(S102)。次に、距離画像データRM(T)と同じ時刻の動画像データCM(T)から、画像Q(T)の境目領域953と同じ領域、または近傍の位置にある輪郭部領域954の画像R(T)を求める(S103)。次に、時刻T+1の動画像データCM(T+1)から、画像R(T)の輪郭部領域954と同じ領域の画像R(T+1)をパターンマッチング法により求める(S104)。次に、S104で求めた画像R(T+1)における輪郭部領域954の、画像R(T)の輪郭部領域954に対する移動量に合わせて、時刻Tの距離画像データRM(T)における近景領域952を移動させることで、時刻T+1の距離画像データRM(T+1)を生成する(S105)。なお、距離画像データ補間手段906は、動画像データから、距離画像データが存在しないフレーム時刻の動画像データまでの間の画像の動きベクトルを求め、距離画像データを動きベクトルの単位領域に分割し、当該動きベクトルに基づいて各単位領域を移動させて、距離画像データを補間生成してもよい。
しかしながら、動画像データCM(T+1)における撮影対象951の輪郭と、生成された距離画像データRM(T+1)における近景と遠景の境目領域953の形状とは必ずしも一致するとは限らない。動画像データCM(T+1)における撮影対象951の輪郭と、動画像データCM(T)における撮影対象951の輪郭とで形状が一致するとは限らないからである。例えば、撮影対象951が動画像データ取得手段901に近づいていて動画像データCM(T)における撮影対象951より動画像データCM(T+1)における撮像画像951の方が大きい場合であっても、補間生成される距離画像データR(T+1)における近景と遠景の境目領域953の大きさは距離画像データR(T)における近景と遠景の境目領域953の大きさと同じ、すなわち動画像データCM(T)における撮影対象951の大きさと同じである。したがって、動画像データCM(T+1)における撮影対象951の輪郭と、距離画像データR(T+1)における近景と遠景の境目領域953の形状との間で、大きさの齟齬が発生することになる。
また、特許文献1の立体画像生成装置では、動画像データCM(T+1)の全域から画像R(T)の輪郭部領域954に相当する領域を探し出すパターンマッチングや、動画像データCM(T+1)と動画像データCM(T)との間で対応点を探索する動きベクトル算出が行われる。これらの処理は処理量としては大きく、高い処理能力を必要とする。例えば、動きベクトル算出は、基準となる時刻の画像上にある画素に対して、他の時刻の画像から対応する画素を探索し、最も相似性の高い画素を対応点とする処理である。これは、基準となる視点の画像上にある画素に対して、他の視点の画像から対応する画素を探索する「視差検出」と同様の処理であり、視差検出処理の代わりに動きベクトル算出処理を用いても演算量の大きな削減とはならない。
そこで、発明者らは、全てのフレーム画像についてグラフカット法などを用いて被写体オブジェクト単位(またはより小さい単位)に領域分割しておき、距離情報のある画像と処理対象画像との間で、距離情報のある画像の領域から、処理対象画像の領域に該当する領域を探し出すマッチング処理を行って領域と領域との対応関係を求め、処理対象画像の各領域に、距離情報のある画像の対応領域の距離情報を割り当てるという着想を得た。このようにすることで、距離情報は処理対象画像において生成された領域に結びつくため、処理対象画像におけるオブジェクトの輪郭と、対応する距離情報における当該オブジェクトの輪郭は必ず一致する。また、領域ごとのマッチング処理においても、距離情報のある画像も領域分割されているため当該距離情報のある画像全域を対象にする必要がなく、演算量を削減することが可能となる。
(実施の形態)
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における撮像装置のブロック図である。
図1において、ステレオ撮像装置100は、被写体を立体視可能なように撮影し、撮影によって生成された距離データを生成し、その距離データと撮影された画像データから視差の調整や、視点が変更された立体映像を表示する。ステレオ撮影装置100は、主画像取得手段10、副画像取得手段11、および、表示手段20に接続されている。
<構成>
図1において、ステレオ撮像装置100は、画像入力部101、領域分割部111、領域記憶部112、領域比較部113、領域対応判定部114、視差推測部115、視差検出部121、視差記憶部122、視差選択部131、距離情報生成部132、立体画像生成部133を備えている。
主画像取得手段10および副画像取得手段11は、それぞれ互いに、例えば6.5cmの距離(人の両眼の平均的な間隔)を離して配置される。主画像取得手段10および副画像取得手段11は、それぞれ、被写体を撮影し、撮影によって得られた映像信号をステレオ撮像装置100に出力する。主画像取得手段10および副画像取得手段11から出力される映像信号を合わせてステレオ映像信号という。また、主画像取得手段10から出力される映像信号によって示される画像を主画像、副画像取得手段11から出力される映像信号によって示される画像を副画像と呼ぶ。主画像取得手段10と副画像取得手段11はそれぞれ、同一の時刻(タイミング)に画像を生成して出力する。同一の時刻に生成された主画像と副画像とを組み合わせることにより、立体視が可能となり、かつ、各被写体までの距離を算出することが可能となる。なお、本実施の形態では、主画像取得手段10および副画像取得手段11は、それぞれ、秒間30枚の画像を出力するものとする。
画像入力部101は、主画像取得手段10から主画像の入力を受け付ける。
領域分割部111は、画像入力部101から主画像を取得し、主画像中の各被写体領域や背景領域に対して領域分割の処理を行う。より具体的には、グラフカットアルゴリズムを用いて、主画像中の各被写体オブジェクトを一つの領域(セグメント)として領域の抽出を行う。
領域記憶部112は、領域分割部111から出力される領域データを格納するための記憶媒体であり、例えば、ハードディスクドライブ、SSD(Solid State Disk)、または、半導体メモリなどで実現される。ここで、領域データとは、領域分割部111が生成した各領域を特定するための情報であり、具体的には、分割前の主画像を指し示す情報と、当該主画像における領域領域内の全画素の座標値からなる。なお、各領域を特定するための情報は領域の輪郭線を構成する各画素の座標値に限られず、例えば、輪郭線を示すベクトルまたは輪郭線上の全ての画素の座標値であってもよい。
視差検出部121は、画像入力部101から主画像を、副画像取得手段11から副画像をそれぞれ取得し、同一の時刻(タイミング)に生成された主画像と副画像との視差を検出する。視差検出部121は、主画像と副画像との間で対応位置を求め、対応位置間の距離を画素数単位で求めて視差として検出し、検出した視差情報(d)を出力する。より具体的には、ブロックマッチング法を用いた視差検出を行う。画像間の類似性を評価するために、主画像と副画像とから16×16画素の領域を切り出し、切り出した領域間の輝度差の総和(SAD;Sum of Absolute Difference)を求め、SADが最小となる切り出し位置を検索することで対応位置を画素単位で求める。
視差記憶部122は、視差検出部121から出力される画素ごとの視差値を格納するための記憶媒体であり、例えば、ハードディスクドライブ、SSD、または、半導体メモリなどで実現される。
領域比較部113は、領域分割部111から出力される主画像の各領域と、領域記憶部112に格納されている他の時刻の主画像の各領域との間で領域属性の比較を行う。ここで、領域属性とは、各領域の形状、または、領域の重心の位置、領域の占める面積、領域の占める位置等の位置情報などをいう。具体的には、領域分割部111から出力される主画像の領域データと、領域記憶部112に格納されている他の時刻の主画像の領域データの減算処理を行い、領域ごとの差分データとなる領域照合データを作成する。
領域対応判定部114は、領域比較部113から出力される領域照合データから、領域分割部111から出力される主画像の領域と、領域記憶部112に格納されている他の時刻の主画像の領域との対応関係を判定し、判定結果を領域判定データとして生成する。具体的には、領域分割部111から出力される主画像の領域と、領域記憶部112に格納されている他の時刻の主画像の領域との重なり領域の面積を基に、領域の対応を推測および判断して、領域判定データを生成する。十分なフレームレート(30fps以上)の場合、重なり領域の面積が最も大きくなる領域の組み合わせが、同一の被写体に対応する領域の組み合わせであると推測できるからである。なお、領域判定データは、具体的には、領域分割部111から出力される主画像の領域と、対応する領域記憶部112に格納されている他の時刻の主画像の領域とを組み合わせたリストである。
視差推測部115は、領域対応判定部114より領域判定データを取得し、領域分割部111から出力される各領域に対して、対応すると判定された領域記憶部112に格納されている他の時刻の主画像の当該領域に対応する、当該他の時刻の主画像の視差データを視差記憶部122より取得し、視差推測データとして出力する。
視差選択部131は、距離情報生成部132が用いる視差データを視差検出部121が生成するか否かを選択し、視差検出部121が生成する場合は視差検出部121が検出する視差データを、視差検出部121が生成しない場合は視差推測部115が出力する視差推測データを、距離情報生成部132へ出力する。具体的には、間欠的なタイミング、例えば、2フレームに1度に視差検出部121が生成すると選択し、それ以外のタイミングでは、視差推測部115が推測すると選択する。なお、視差検出部121が視差データを生成しないタイミングでは視差検出部121は動作を停止し、視差検出部121が視差データを生成するタイミングでは領域対応判定部114と視差推測部115とは動作を停止する。
なお、本実施の形態においては、間欠的なタイミングは2フレームに1度であるものとし、視差検出部121による視差検出と視差推測部115による視差推測を1フレームごとに交互に行うものとする。
距離情報生成部132は、領域分割部111が出力した各領域に対して、視差選択部131が出力する視差情報を対応付け、主画像と組み合わせて2視点立体画像を生成するための情報である距離情報を生成する。具体的には、各領域の内部を、各領域に対応する視差情報の中間値(メディアン)で埋め尽くすように領域内の各画素と視差情報を対応付けた後、画素ごとに、視差情報を、視点と被写体との距離である距離情報に変換する。これは、1つの領域の内部で視差の値が極端に変動することを避けるためである。
立体画像生成部133は、距離情報生成部132が生成した距離情報と、画像入力部101から出力される主画像から、2D/3D変換処理(DIBR;Depth−Image−Based−Rendering)を行い、副画像取得手段11とは異なる視点への変換、あるいは視差の調整が行われた副画像を作成する。これにより、主画像取得手段10と副画像取得手段11との配置が水平に並んでいない状態、例えば、傾いていたり垂直に並んでいたりする場合においても、両眼視差による立体画像を生成することができる。
表示手段20は、画像入力部101から主画像を、立体画像生成部133から副画像をそれぞれ取得し、立体視が可能な状態で表示するディスプレイである。表示手段20は、例えば、液晶ディスプレイと、パララックスバリアとで実現される。
<動作>
以下、図面を用いて、本実施の形態におけるステレオ撮像装置100の動作について説明する。
図2は、本実施の形態におけるステレオ撮像装置100において、1つの主画像に対する動作を示すフローチャートである。また、図3は、本実施の形態における主画像と副画像、および距離情報を示す模式図である。
ステレオ撮像装置100は、まず、視点変換や視差調整を行うためのパラメータを設定する。このパラメータとは、例えば、焦点距離や変換後の視点間距離などである。
以下、動画の各フレームに対するステレオ撮像装置100の動作について説明する。上述したように、ステレオ撮像装置100は、視差検出部121による視差検出と視差推測部115による視差推測を1フレームごとに交互に行う。より具体的には、時刻Tには主画像L(T)と副画像R(T)とから視差検出部121が視差データD(T)の検出を行い、時刻T+1には主画像L(T+1)と、時刻Tにおける主画像L(T)と視差データD(T)とを基に視差推測部115が視差データD(T+1)の推測を行う。すなわち、時刻Tにおける主画像L(T)は、視差検出の対象であるとともに視差データD(T+1)を推測するために用いる「第1の画像」であり、時刻T+1における主画像L(T+1)は、第1の画像たる主画像L(T)とそれに対応する視差データ(距離情報の元となるデータ)D(T)を用いて視差データD(T+1)を推測する「第2の画像」である。
以下、時刻Tおよび時刻T+1におけるステレオ撮像装置100の動作について説明する。なお、時刻T+2、時刻T+3においては、ステレオ撮像装置100は、主画像L(T+2)を第1の画像、主画像L(T+3)を第2の画像として同様の動作を繰り返すので、説明を省略する。
まず、時刻Tにおけるステレオ撮像装置100の動作、すなわち、第1の画像に対する動作について示す。
ステレオ撮像装置100は、主画像取得手段10から画像入力部101が主画像L(T)を、副画像取得手段11から視差検出部121が副画像R(T)を取得する(S11)。
次に、領域分割部111は、グラフカットアルゴリズムを用いて、主画像L(T)から被写体オブジェクト501Cと502Cとを抽出し、領域データG(T)を生成して領域記憶部112に格納する(S12)。
次に、視差選択部131は、視差データ推測を行うかどうかを選択する(S13)。ここで、視差選択部131は視差検出部121が視差情報を検出することを選択する(S13でNo)。
次に、視差検出部121は、ブロックマッチング法を用いて、主画像L(T)と副画像R(T)との対応点を探索し、501Aと501Bとを、および502Aと502Bとをそれぞれ対応付けて視差データD(T)を生成する(S14)。
視差検出部121は、生成したD(T)を視差記憶部122に格納する(S15)。
視差選択部131は、視差データD(T)を距離情報生成部132に出力し、距離情報生成部132は、領域データG(T)の各領域データ(501C、502C)に対応する視差をD(T)から抽出し(501D、502D)、距離情報を生成する(S19)。
次に、立体画像生成部133は、距離情報生成部132が生成した距離情報と、主画像L(T)から、設定された視点変換や視差調整のパラメータに従い新規の副画像R2(T)を生成する(S20)。
そして、表示手段20は、主画像L(T)と副画像R2(T)とを立体表示する(S21)。
次に、時刻T+1におけるステレオ撮像装置100の動作、すなわち、主画像L(T)を第1の画像とした場合の第2の画像L(T+1)に対する動作について説明する。
ステレオ撮像装置100は、主画像取得手段10から画像入力部101が主画像L(T+1)を、副画像取得手段11から視差検出部121が副画像R(T+1)を取得する(S11)。
次に、領域分割部111は、グラフカットアルゴリズムを用いて、主画像L(T+1)から被写体オブジェクト511Cと512Cとを抽出し、領域データG(T+1)を生成して領域記憶部112に格納する(S12)。
次に、視差選択部131は、視差データ推測を行うかどうかを選択する(S13)。ここで、視差選択部131は視差推測部115が視差情報を推測することを選択する(S13でYes)。
領域比較部113は、比較対象である領域データG(T)を領域記憶部112より読み出し、領域データG(T+1)と、領域データG(T)との差分S(T+1)を領域照合データとして算出する(S16)。
次に、領域対応判定部114は、領域照合データS(T+1)を基に、領域判定データを作成する(S17)。具体的には、領域511Cに対して、重なり領域511Eを基に領域501Cと、重なり領域512Eを基に領域502Cとを、それぞれ対応領域の候補として判定する。そして、重なり領域511Eの面積と重なり領域512Eの面積との比較を行い、重なり面積が大きい、すなわち差分が小さい領域501Cを対応付ける。同様に、領域512Cに対して、重なり領域513Eを基に領域502Cを対応領域として判定する。領域512Cに対する対応領域の候補として判定できる領域は領域502Cだけなので、領域512Cに対して領域502Cを対応付ける。
次に、視差推測部115は、領域データG(T+1)の各領域と、対応するG(T)の領域に対応する視差データD(T)の視差とを対応付け、視差データD(T+1)を生成する(S18)。具体的には、領域511Cに対して、対応する領域501Cに対応する501Dの視差を対応付ける。同様に、領域511Cに対して、502Dの視差を対応付ける。
視差選択部131は、視差データD(T+1)を距離情報生成部132に出力し、距離情報生成部132は、領域データG(T+1)の各領域データ(511C、512C)に対応する視差をD(T+1)から抽出し、抽出された視差の中間値(メディアン)で領域内部を埋め尽くし(511D、512D)、距離情報を生成する(S19)。
次に、立体画像生成部133は、距離情報生成部132が生成した距離情報と、主画像L(T+1)から、設定された視点変換や視差調整のパラメータに従い新規の副画像R2(T+1)を生成する(S20)。
そして、表示手段20は、主画像L(T+1)と副画像R2(T+1)とを立体表示する(S21)。
<補足>
(1)本実施の形態では、1の領域に対して、他の主画像の2以上の領域が対応関係の候補となった場合、重なり領域の面積を基に判定を行ったが、例えば、領域の形状を比較して最も類似する領域の組み合わせを対応関係と判定してもよいし、あるいは、領域の重心の位置を比較して、最も重心間の距離が短い領域の組み合わせを対応関係と判定してもよい。
または、これらの対応関係の判定方法を組み合わせてもよい。例えば、重なり領域が発生しない場合には最も重心間の距離が短い領域の組み合わせを対応関係と判定してもよいし、1の領域に対して複数の重なり領域が発生する場合には、領域の形状を比較して最も類似する領域の組み合わせを対応関係と判定してもよい。このようにすることで、1の領域に対して、対応関係の候補となる領域が存在しない場合もしくは複数存在する場合にも、対応関係を判定することが可能となる。
(2)本実施の形態では、間欠的なタイミングは2フレームに1度であるものとし、視差検出部121による視差検出と視差推測部115による視差推測を1フレームごとに交互に行うものとしているが、例えば、主画像取得手段10および副画像取得手段11がそれぞれ秒間24枚の画像を出力する場合に、間欠的なタイミングは3フレームに2度であるものとし、2フレーム続けて視差検出部121による視差検出した後1フレーム視差推測部115による視差推測を行う動作を繰り返すとしてもよい。
(3)本実施の形態では、時刻T+1における視差データを推測するために直前の時刻Tの領域データと視差データとを用いたが、これに限らず、任意の時刻の領域データと視差データとを用いてよい。例えば、時刻T+1における視差データを推測するために時刻T−2の領域データと視差データとを用いてもよい。あるいは、時刻T+1における視差データを推測する前に時刻T+2における視差データの検出を行い、時刻T+2の領域データと視差データとを用いて時刻T+1における視差データを推測してもよい。
または、時刻T+1における視差データを推測するために、時刻Tと時刻T+2とにおける領域データと視差データとを用いてもよい。例えば、時刻T+1におけるある領域の視差データを時刻Tの領域データと視差データとを用いて推測し、時刻T+1における別の領域の視差データを時刻T+2の領域データと視差データとを用いて推測してもよい。このようにすることで、視差データを推測する各領域に対して、最適な領域データと視差データとを用いて視差を推測することが可能となる。
(4)本実施の形態では、距離情報生成部132が、視差推測部115が視差を推測する場合に、領域データGの各領域データに対応する視差をDから抽出し、視差の中間値で領域内部を埋め尽くし、距離情報を生成するものとしたが、これに限られず、距離情報作成部132は、視差の中間値ではなく視差の平均値で領域内部を埋め尽くすとしてもよい。あるいは、距離情報作成部132は、領域データGの各領域データに対応する視差をDから抽出し、抽出した視差値をそのまま用いて領域内部を埋め尽くし、距離情報を生成するとしてもよい。このようにすることで、視差検出部121の精度が高い場合に、視差データDの精度を高く保つことができる。
または、距離情報生成部132は、視差検出部121が視差を検出する場合にも、領域データGの各領域において、対応する視差の中間値で領域内部を埋め尽くすとしてもよい。このようにすることで、視差を推測する場合と視差を検出する場合との間で、視差の値の精度が一致しない事態を防ぐことができる。
<まとめ>
このように本実施の形態では、立体視するための2つの画像(主画像と副画像)を撮影し、立体表示の為の視差の調整を行うために距離情報を撮影しながら求める場合、主画像から、被写体領域や背景領域などの領域情報を抽出する。そして、間欠的に主画像と副画像から視差を算出し、間欠的に生成される視差情報を埋める様に、視差情報が存在しない時間の領域情報に対しては、例えば記憶されている過去の視差情報を元に推測を行い、割り当てる事で距離情報を補間生成する。距離情報は、抽出した領域情報に対して、その領域に対応する視差情報を割り当てる事で距離情報を生成する。
このように、視差情報を間欠的に生成し、残りを推測補間する事で、処理量の削減と省電力化を行う事ができる。
さらに、距離情報を推測補間しながらも、距離情報の領域情報は常に算出する事で、画像と距離情報において境界の不一致が発生する事無く、自然な立体映像を生成する事ができる。
本実施の形態では、視差情報を間欠的に生成し、残りを推測補間するとき、常に算出される領域情報を記録する。これにより、時間方向での領域情報の比較が行え、領域情報の比較結果から各領域の対応関係を得る事ができる。
本実施の形態では、領域情報の比較結果から各領域の対応関係を得る場合、1の領域に対して、他の主画像の2以上の領域が対応関係の候補となった場合、それらの領域のうち、重なり領域の面積が最も大きい組み合わせを対応関係にある領域と判定する。これにより、重なり領域の面積を算出するだけでよく、画素や領域レベルで探索を行うことに比べ、演算量を抑える事ができる。
(実施の形態2)
本実施の形態における撮像装置は、視差データの推測を行う際に、視差を推測しようとする領域と、一定範囲内にある他の主画像の領域との間で色情報を比較し、色情報の類似度を基に対応関係を推測することに特徴がある。
図4に示すステレオ撮影装置200は、被写体を立体視可能なように撮影し、撮影によって生成された距離データを生成し、その距離データと撮影された画像データから視差の調整や、視点が変更された立体映像を表示する。
<構成>
図4は、本発明の実施の形態2における撮像装置のブロック図である。図4において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
ステレオ撮像装置200は、さらに画像記憶部201と画像比較部202とを備え、領域対応判定部114に代えて領域対応判定部203を備えている以外はステレオ撮像装置100と同じ構成である。
画像記憶部201は、画像入力部101から出力される主画像データを格納するための記憶媒体である。画像記憶部201は、例えば、ハードディスク、SSD、または、半導体メモリなどで実現される。
画像比較部202は、画像入力部101から出力される主画像と、画像記憶部201に格納されている他の主画像との色彩情報の比較を行う。ここで、色彩情報とは、各画素の輝度値、あるいは、色情報、または、これらを組み合わせたものをいう。具体的には、主画像入力部101から出力される主画像データと、画像記憶部201に格納されている他の主画像データとの間で減算処理を行い、差分データとなる画像照合データを作成する。
領域対応判定部203は、領域比較部113から出力される領域照合データと画像比較部202から出力される画像照合データとを用いて、領域分割部111から出力される主画像の領域と、領域記憶部112に格納されている他の時刻の主画像の領域との対応関係を判定し、判定結果を領域判定データとして生成する。具体的には、領域分割部111から出力される主画像の領域と、当該領域から一定範囲内に存在する、領域記憶部112に格納されている他の時刻の主画像の領域との間で輝度値や色情報の画素値の差分を取り、領域内同士の輝度や色情報の差分が最も小さい領域を対応領域と判定する。
<動作>
以下、図面を用いて、本実施の形態におけるステレオ撮像装置200の動作について説明する。
図5は、本実施の形態におけるステレオ撮像装置200において、1つの主画像に対する動作を示すフローチャートである。図5において、図2と同じステップについては同じ符号を用い、説明を省略する。また、図6は、本実施の形態における主画像と副画像、および距離情報を示す模式図である。
ステレオ撮像装置200は、まず、視点変換や視差調整を行うためのパラメータを設定する。このパラメータとは、例えば、焦点距離や変換後の視点間距離などである。
時刻Tにおける動作は、実施の形態1におけるステレオ撮像装置100の動作と同一であるので説明を省略する。
時刻T+1における動作は、S17に代えてS31を実施する以外、実施の形態1におけるステレオ撮像装置100の動作と同一である。したがって、差分であるS31についてのみ説明する。
領域対応判定部203は、領域照合データS(T+1)を基に、G(T+1)の各領域に対応するL(T+1)の色情報と、G(T)の各領域に対応するL(T)の色情報とを比較し、領域判定データを作成する(S31)。具体的には、領域611Cに対して、一定範囲にある領域601Cと領域602Cとを、対応領域の候補として判定する。そして、領域601Cの色611Eと領域602Cの色612Eとを、それぞれ領域611Cの色611Aと比較する。ここでは、色611Eが色612Eよりも色611Aとの差分が小さいので、領域611Cと領域601Cとを対応付ける。同様に、領域612Cに対して、定範囲にある領域602Cを対応領域として判定する。
<補足>
(1)本実施の形態では、領域対応判定部203は、輝度値や色情報の画素値の差分を用いて領域の対応関係を判定したが、これに限られず、領域内における輝度値や色情報の画素値の平均値や中央値(メディアン)の差分を用いて領域の対応関係を判定してもよい。
または、1の領域から領域の中心や重心、あるいはその他の特徴点を1つ抽出し、当該抽出した点における輝度値や色情報の画素値を当該領域の特徴量として、領域の対応関係を判定してもよい。このようにすることで、領域の面積が大きい場合に、演算量を削減することができる。
(2)本実施の形態では、領域対応判定部203は、輝度値や色情報の画素値の差分を用いて領域の対応関係を判定したが、これに限られず、実施の形態1および実施の形態1における補足(1)で述べたような重なり領域、領域の形状等をさらに用いて領域の対応関係を判定してもよい。この場合、1の領域に対して、重なり領域等を用いて判定できる対応領域の候補が複数ある場合に、輝度値や色情報の画素値の差分を用いて領域の対応関係を判定することができる。
さらに、輝度値の差分と画素値の差分とに優先度を設け、例えば、輝度値の差分が最も近い領域の組み合わせと画素値の差分が最も近い組み合わせとが対応関係として判定される場合に、優先度に従って後者を対応関係と判定してもよい。また、例えば、着目する被写体の色情報を予め記録し、当該記録した色情報との差分値が小さいか否かに高い優先度を割り当てるとしてもよい。
(3)本実施の形態に対して、実施の形態1における補足(2)〜(4)を適用してもよい。
<まとめ>
このように本実施の形態では、視差情報を間欠的に生成し、残りを推測補間するとき、常に入力される画像と、常に算出される領域情報を記録することで、時間方向で画像とその領域情報との比較が行える。これにより、視差推測の対象となる主画像と視差推測に用いる他の主画像との間で領域の重なりがなくても、色情報を用いて領域の判定を行うことが可能となり、領域の対応関係を得る事ができる。
(実施の形態3)
本実施の形態における撮像装置は、視差データの推測を行う際、領域の拡大処理(もしくは縮小処理)を行いながら各領域大小関係を比較する点に特徴がある。
図7に示すステレオ撮影装置300は、被写体を立体視可能なように撮影し、撮影によって生成された距離データを生成し、その距離データと撮影された画像データから視差の調整や、視点が変更された立体映像を表示する。
<構成>
図7は、本発明の実施の形態3におけるステレオ撮像装置300のブロック図である。図7において、図1および図4と同じ構成要素については同じ符号を用い、説明を省略する。
ステレオ撮像装置300は、さらに拡大部301を備え、領域比較部113に代えて領域比較部302を、領域対応判定部203に代えて領域対応判定部303を、視差推測部115に代えて視差推測部304を備えている以外は、ステレオ撮像装置200と同じ構成である。
拡大部301は、領域分割部111からの出力を任意の倍率で拡大または縮小し、拡大または縮小された領域を領域比較部302へ出力する。また、拡大または縮小の倍率を、視差推測部304に出力する。
領域比較部302は、拡大部301から出力される拡大または縮小された主画像の各領域と、領域記憶部112に格納されている他の時刻の主画像の各領域との比較を行う。具体的には、拡大部301から出力される拡大または縮小された主画像の領域データと、領域記憶部112に格納されている他の時刻の主画像の領域データの減算処理を行い、領域ごとの差分データとなる領域照合データを作成する。
領域対応判定部303は、領域比較部302から出力される領域照合データと、画像比較部202から出力される画像照合データとを用いて、拡大部301から出力される拡大または縮小された主画像の領域と、領域記憶部112に格納されている他の時刻の主画像の領域との対応関係を判定する領域判定データを生成する。具体的には、拡大部301から出力される拡大または縮小された主画像の領域と、領域記憶部112に格納されている他の時刻の主画像の領域との間で、重なり領域の面積および輝度値や色情報の画素値の差分を算出し、総合的に差分の最も小さい領域の組み合わせを対応領域と判定する。
視差推測部304は、領域対応判定部303より出力される領域判定データから、領域分割部111から出力される領域がそれぞれ領域記憶部112に格納されている他の時刻の主画像の領域のいずれに対応するかを判断し、対応すると判断された領域記憶部112に格納されている他の時刻の主画像の当該領域に対応する、当該他の時刻の主画像の視差データを視差記憶部122より取得し、視差推測データとして出力する。このとき、視差推測部304は、拡大部301より当該領域の拡大率を取得し、拡大率を用いて当該領域に対応付ける視差データの補正を行う。
<動作>
以下、図面を用いて、本実施の形態におけるステレオ撮像装置300の動作について説明する。
図8は、本実施の形態におけるステレオ撮像装置300において、1つの主画像に対する動作を示すフローチャートである。図8において、図2および図5と同じステップについては同じ符号を用い、説明を省略する。また、図9は、本実施の形態における主画像と副画像、および距離情報を示す模式図である。
ステレオ撮像装置300は、まず、視点変換や視差調整を行うためのパラメータを設定する。このパラメータとは、例えば、焦点距離や変換後の視点間距離などである。
時刻Tにおける動作は、実施の形態1および実施の形態2におけるステレオ撮像装置100および200の動作と同一であるので説明を省略する。
時刻T+1における動作は、S18に代えてS41およびS42を実施すること以外、実施の形態2におけるステレオ撮像装置200の動作と同一である。ここでは、S31、S41、および、S42について説明する。
領域対応判定部303は、領域照合データS(T+1)を基に、G(T+1)の各領域に対応するL(T+1)の色情報と、G(T)の各領域に対応するL(T)の色情報とを比較する(S31)。具体的には、領域711Cに対して、一定範囲にある領域710Cを、対応領域として判定する。
さらに、領域対応判定部303は、G(T+1)の各領域を拡大または縮小して、G(T)の各領域との重なり領域を用いて、G(T+1)の各領域とG(T)の各領域との対応関係を判定する(S41)。具体的には、重なり領域差分711Eを基に領域701Cと領域711Cとが対応すると判定し、かつ、重なり領域差分712Eを基に領域701Cと2倍に拡大された領域711Cとが対応すると判定する。そして、重なり領域差分711Eの面積と712Eの面積との比較を行い、重なり領域差分が小さい、すなわち差分が小さい、領域701Cと2倍に拡大された領域711Cとを対応付ける。
次に、視差推測部304は、領域データG(T+1)の各領域と、対応するG(T)の領域に対応する視差データD(T)の視差とを対応付け、視差データD(T+1)を生成する(S42)。具体的には、領域711Cに対応する領域701Cの視差データD(T)から領域701Dを読み出し、読み出した視差の値を拡大率の値である2倍を用いて補正し、領域711Cに対応付ける。なお、図9に示している領域711Dは2倍に拡大された領域711Cと同じ大きさであるが、2倍に拡大された領域711Cが領域701Dに相当すると判定して領域711Cに701Dの視差を補正して対応付けることを示しているものであり、D(T+1)の領域711Dは主画像L(T+1)の被写体711AおよびD(T+1)の領域711Cとの関係において、位置及び大きさは同一である。
<補足>
(1)本実施の形態では、拡大部301は領域分割部111が出力する領域を拡大または縮小して領域比較部302に出力するとしたが、これに限られず、拡大部301は領域記憶部112が格納している領域を拡大または縮小して領域比較部302に出力し、領域比較部302は領域分割部111が出力する領域と、拡大または縮小された領域記憶部112が格納している領域とを比較するとしてもよい。
(2)本実施の形態では、拡大部301は領域分割部111が出力する領域を等倍および2倍に拡大して領域比較部302に出力するとしたが、拡大率はこれに限られない。例えば、拡大部301は、等倍、1.22倍、および0.82倍に拡大(または縮小)して領域比較部302に出力してもよい。または、拡大部301は、例えば、1.22倍に拡大した領域をさらに1.22倍に拡大処理してもよく、1.22倍の拡大処理を6回、0.82倍の縮小処理を6回行うとしてもよい。このようにすることで、領域対応判定部303は、対応する領域間の差分が最も小さくなる領域の組み合わせ、およびその拡大率を見つけ出すことが可能となる。
(3)本実施の形態では、領域711Cに対応する領域の候補が1つしかない場合を示したが、領域の候補が複数ある場合には、重なり領域の面積に基づく差分(または領域の形状の類似度等、実施の形態1の補足(1)で示した差分)と、色情報の差分(または輝度値の差分等、実施の形態2の補足(1)で示した差分)との間で優先度を設け、優先度に従って対応する領域を判定することが可能である。例えば、色情報による差分の優先度を高く設定することで、領域の重なり面積が1番目に大きいが色情報の差分が大きい領域と、領域の重なり面積が2番目に大きいが色情報の差分が小さい領域とが対応領域の候補となった場合に、領域の重なり面積が2番目に大きいが色情報の差分が小さい領域を対応する領域として判定することができる。
(4)本実施の形態では、視差推測部304が領域に視差情報を対応付ける際に拡大率を用いて視差情報を補正するものとしたが、これに限られず、視差推測部304が視差情報を補正せず、距離情報生成部132が距離情報を生成する際に距離情報を補正するものとしてもよい。
(5)本実施の形態に対して、実施の形態1における補足(1)〜(4)、および実施の形態2における補足(1)〜(2)を適用してよい。
<まとめ>
このように本実施の形態では、視差情報を間欠的に生成し、残りを推測補完するとき、領域情報と色情報とを総合的に判断して、視差推測データを生成する。
また本実施の形態では、視差情報を間欠的に生成し、残りを推測補間するとき、常に算出される領域を時間方向で比較する場合に、領域の拡大処理(もしくは縮小処理)を行いながら各領域を比較する事ができる。これにより、例えば、主画像の任意の領域を拡大することにより、他の主画像の領域との対応関係が判定できる場合、当該他の主画像が撮影された時点よりもその領域の被写体は撮像装置に対して遠い距離に存在すると判断し、その拡大率を用いて、推測した視差情報の補正を行う事ができ、これにより、撮像装置に対して遠近方向に移動している被写体に対しても、視差情報の推測を行うことができる。
(実施の形態4)
本実施の形態における撮像装置は、単一視点の画像を取得するとともに当該画像に対応する距離情報を間欠的に取得し、距離情報を補間して立体画像を生成する点に特徴がある。
図10に示す撮像装置400は、被写体を単一視点から撮影し、撮影された画像に対応する距離情報を間欠的に取得し、撮影された画像を主画像、距離情報と撮影された画像から生成される副画像からなる立体画像を表示する。
<構成>
図10は、本発明の実施の形態4における撮像装置400のブロック図である。図10において、図1と同じ構成要素については同じ符号を用い、説明を省略する。なお、以下の説明においては主画像を単に画像と表記するが、実施の形態1〜3における主画像と本実施の形態における画像との間に差異はなく、画像取得手段10が出力する画像は第1の画像または第2の画像となる。
撮像装置400は、距離情報生成部132を備えず、副画像取得手段11に接続される視差検出部121に代えて距離検出手段30に接続される距離検出部401を、視差記憶部122に代えて距離記憶部402を、視差推測部155に代えて距離推測部403を、視差選択部131に代えて距離選択部404を備えている以外は、ステレオ撮像装置100と同じ構成である。
距離検出手段30は、画像取得手段10が撮影する被写体と画像取得手段10との間の距離を取得するための情報を取得する手段である。距離の検出は、超音波やミリ波などを送出し、被写体からの反射波が到達するまでの時間や位相差などを測定することにより行う。距離検出手段30は、画像取得手段10が画像を生成して出力するタイミングのうち、距離検出部401が距離情報を生成すると距離選択部404が選択する間欠的なタイミングに距離情報を取得する。本実施の形態において、画像取得手段10は秒間30枚の画像を出力し、間欠的なタイミングは2フレームに1度、距離検出手段30は秒間30回のうち2度に1度、すなわち秒間15回距離情報を取得するものとする。
距離検出部401は、距離検出手段30から距離情報の入力を受け付ける。
距離記憶部402は、距離検出部401から出力される距離情報を格納するための記憶媒体であり、例えば、ハードディスクドライブ、SSD、または、半導体メモリなどで実現される。
距離推測部403は、領域対応判定部114より領域判定データを取得し、領域分割部111から出力される各領域に対して、対応すると判断された領域記憶部112に格納されている他の時刻の画像の当該領域に対応する、当該他の時刻の画像の距離情報を距離記憶部402より取得し、距離推測データとして出力する。
距離選択部404は、立体画像生成部133に出力する距離情報を距離検出部401が生成するか否かを選択し、距離検出部401が生成する場合は距離検出部401が検出する距離情報を、距離検出部401が生成しない場合は距離推測部403が出力する距離推測データを、立体画像生成部133へ出力する。具体的には、間欠的なタイミングで距離検出部401が生成すると選択し、それ以外のタイミングでは、距離推測部403が推測すると選択する。なお、距離検出部401が距離情報を生成しないタイミングでは距離検出部401は動作を停止し、距離選択部404が距離情報を距離検出部401が生成するタイミングでは領域対応判定部114と距離推測部403は動作を停止する。
<動作>
以下、本実施の形態における撮像装置400の動作について説明する。
撮像装置400は、まず、立体画像生成を行うためのパラメータを設定する。このパラメータとは、例えば、焦点距離や視点間距離などである。
時刻Tにおける動作は、以下の点を除いて実施の形態1におけるステレオ撮像装置100の動作と同一であるので、差分についてのみ説明する。
撮像装置400は、S11に代えて、画像取得手段10から画像入力部101が画像L(T)を取得する。
S12の動作は実施の形態1と同一であるので説明を省略する。
次に、S13に代えて、距離選択部404は、距離データ推測を行うかどうかを選択する。ここで、距離選択部404は距離検出部401が距離情報を検出することを選択する。
次に、S14に代えて、距離検出部401は、距離検出手段30から被写体の距離を取得する。
次に、S15に代えて、距離検出部401は、距離情報を距離記憶部402に格納する。
以下の動作は、S19が存在しないこと、およびS20において立体画像生成部133が距離選択部404から距離情報を取得することを除き、実施の形態1と同一であるので説明を省略する。
次に、時刻T+1における撮像装置400の動作について説明する。
撮像装置400は、S11に代えて、画像取得手段10から画像入力部101が画像L(T+1)を取得する。
S12の動作は実施の形態1と同一であるので説明を省略する。
次に、S13に代えて、距離選択部404は、距離データ推測を行うかどうかを選択する。ここでは、距離選択部404は距離推測部403が視差情報を推測することを選択する。
以下、S18において、距離推測部403は領域データG(T+1)の各領域と対応するG(T)の領域に対応する距離情報とを対応付けて画像L(T+1)に対応する距離情報を生成すること、およびS19が存在せず、S20において立体画像生成部133が距離選択部404から距離情報を取得することを除き、実施の形態1と同一であるので説明を省略する。
なお、2フレームに1度距離データを推測するとしているので、撮像装置400は、時刻T+2には時刻Tと同じ動作、時刻T+3には時刻T+1と同じ動作を繰り返す。
<まとめ>
このように本実施の形態では、単一視点の画像に対応する距離情報を間欠的に生成し、残りを推測補完して、立体画像を生成することができる。これにより、距離検出手段は画像取得手段と同一の速度で動作する必要がなく、距離検出手段の省電力化に奏功する。
(変形例)
本変形例における撮像装置は、単一視点の画像を取得する画像取得手段が2種類の焦点距離を使い分け、焦点距離の異なる2種類の画像を用いて距離情報を生成する点に特徴がある。
図11に示す撮像装置450は、被写体を単一視点から2種類の焦点距離を用いて撮影し、焦点距離の異なる画像を用いて距離情報を取得し、撮影された画像を主画像、距離情報と撮影された画像から生成される副画像からなる立体画像を表示する。
<構成>
図11は、本変形例における撮像装置450のブロック図である。図11において、図1および図10と同じ構成要素については同じ符号を用い、説明を省略する。
撮像装置450は、画像取得手段10に接続される画像入力部101に代えて画像取得手段40に接続される画像入力部451を、距離検出手段30に接続される距離検出部401に代えて画像入力部451に接続される距離検出部452を備えている以外は、撮像装置400と同じ構成である。
画像取得手段40は、2種類の焦点距離を交互に切り替えて被写体を撮影し、撮影によって得られた映像信号を撮像装置450に出力する。
画像入力部451は、画像取得手段40から画像の入力を受け付け、一方の焦点距離を用いて撮影された画像を主画像、他方の焦点距離を用いて撮影された画像を副画像とする。
距離検出部452は、撮影時刻が連続する主画像と副画像を用いて、被写体と画像取得手段40との間の距離を検出する。具体的には、ブロックマッチング法により主画像と副画像との対応点を探索し、主画像および副画像の撮影条件であるそれぞれの焦点距離を用いて三角計測の計測原理を用いることにより(例えば、特開2004−239791号公報を参照)、被写体と画像取得手段40との間の距離を検出する。なお、距離検出部452は距離の検出に代えて疑似距離の算出を行い、疑似距離を距離情報として出力してもよい。
<動作>
動作については、実施の形態4の撮像装置400と同一であるため、説明を省略する。
<まとめ>
このように本変形例では、焦点距離の可変機能を持つ画像取得手段と撮像装置のみを用いて、立体画像を生成することができる。これにより、主画像とする画像全てに対して距離検出を行う必要がなく、撮像装置450の演算量の削減に奏功する。
<補足>
(1)実施の形態4および変形例において、撮像装置400または450は、実施の形態1と同じく領域の重なりを用いて領域の対応を判定するものとしたが、これに限られず、実施の形態1の補足(1)と同じく領域の形状の類似度等を用いてもよい。
また、撮像装置400または450は、画像記憶部201、画像比較部202、領域対応判定部203を備え、実施の形態2と同じ方法で、領域の対応を判定するものとしてもよい。同様に、撮像装置400または450は、さらに拡大部301と領域対応判定部303を備え、実施の形態3と同じ方法で、領域の対応を判定するものとしてもよい。この場合、実施の形態2または実施の形態3の各補足を適用してもよいのは勿論である。
(2)実施の形態4および変形例において、距離推測部403は領域データG(T+1)の各領域と対応するG(T)の領域に対応する距離情報とを対応付けて距離情報を生成し、生成した距離情報を出力するとしたが、これに限られず、距離推測部403は、領域データG(T+1)の各領域と対応するG(T)の領域に対応する距離情報とを対応付ける際に、実施の形態1の補足(4)と同じく、距離情報の中間値、または平均値で各領域の内部を埋め尽くして距離情報を出力するものとしてもよい。
(3)変形例において、画像取得手段40は2種類の焦点距離を交互に切り替えて被写体を撮影するものとしたが、これに限られず、画像取得手段40は間欠的に2種類の焦点距離を切り替えて被写体を撮影するとしてもよい。例えば、画像取得手段40は、3フレームに1度のタイミングで副画像とする焦点距離で被写体を撮影し、残りのタイミングで主画像とする焦点距離で被写体を撮影するものとしてもよい。このようにすることで、画像取得手段40の焦点距離の切り替え動作の頻度を減らすことができると同時に距離検出部452の動作頻度も減らすことができ、さらなる省電力化に奏功する。
(実施の形態5)
本実施の形態では、本発明に係る撮像装置を備えたシステムについて説明する。
<構成>
図13は、本実施の形態に係る撮像システム800のブロック図である。撮像システム800は、カメラ810aおよび810b、撮像部820、記憶部830、表示部840、および外部記憶装置850とを備える。
カメラ810aは、実施の形態1における主画像取得手段10と同一である。カメラ810aは、レンズ811a、撮像素子812a、主制御部813aおよびレンズ制御部814aを備える。撮像素子812aは、例えばCCD(Charge Coupled Device)から構成され、レンズ811aを介して光信号を取得し、その光信号を電気信号に変換して主制御部813aに出力する。レンズ制御部814aは、主制御部813aからの制御に応じて、レンズ811aの焦点などを調整する。主制御部813aは、例えばIC(Integrated Circuit)から構成され、撮像素子812aから出力された電気信号を取得し、その電気信号を映像信号として撮像部820に出力する。さらに、主制御部813aは、撮像素子812aおよびレンズ制御部813aを制御することにより、シャッタースピード、ゲイン調整、および焦点調整などを行う。
カメラ810bは、実施の形態1における副画像取得手段11と同一である。カメラ810bは、レンズ811b、撮像素子812b、主制御部813bおよびレンズ制御部814bを備え、これらの構成要素は、それぞれレンズ811a、撮像素子812a、主制御部813aおよびレンズ制御部814aと同一である。
なお、主制御部813aおよび813bはそれぞれ、カメラ810aおよび810bの焦点およびシャッタースピードなどが同一となるように協調動作を行う。
撮像部820は、実施の形態1における撮像装置100から、領域記憶部112と視差記憶部122とを除いたものと同一である。
記憶部830は、実施の形態1における撮像装置100に含まれる、領域記憶部112と視差記憶部122とを併せたものと同一である。
表示部840は、実施の形態1における表示手段20と同一である。表示部840は、撮像部820からステレオ映像信号を取得し、そのステレオ映像信号により示される主画像および副画像を表示する。なお、表示部804は、カメラ810aとカメラ810bとから主画像および副画像を取得し、当該主画像および副画像を表示してもよい。
外部記録装置850は、例えばCD(Compact Disc)、MO(Magneto Optical Disk)、DVD(Digital Versatile Disc)、BD(Blue−ray Disc)、または半導体メモリなどの記録媒体が装着されるように構成されている。そして、外部記録装置850は、撮像装置100から主画像と副画像を取得し、装着された記録媒体に書き込む。
<動作>
撮像システム800の動作は、撮像部820が生成した主画像と副画像とからなる立体画像を表示部840に出力すると同時に、外部記憶装置850に当該立体画像を記録することを除いて実施の形態1と同一であるので、説明を省略する。
<補足>
(1)本実施の形態では、撮像部820は、撮像装置100から領域記憶部112と視差記憶部122とを除いたもの、記憶部830は、領域記憶部112と視差記憶部122とを併せたものと、それぞれ同一であるとしたが、これに限られず、例えば、撮像部820は、実施の形態2における撮像装置200から領域記憶部112、視差記憶部122、および画像記憶部201とを除いたもの、記憶部830は、領域記憶部112、視差記憶部122、および画像記憶部201とを併せたものとそれぞれ同一であるとしてもよい。あるいは、同様に、撮像部820は、実施の形態3における撮像装置300から領域記憶部112、視差記憶部122、および画像記憶部201とを除いたもの、記憶部830は、領域記憶部112、視差記憶部122、および画像記憶部201とを併せたものとそれぞれ同一であるとしてもよい。
または、撮像部820は、撮像装置400から領域記憶部112と視差記憶部122とを除いたもの、記憶部830は、領域記憶部112と視差記憶部122とを併せたものと、それぞれ同一であり、カメラ810bに代えて距離センサを用いるものとしてもよい。あるいは、同様に、撮像部820は、撮像装置450から領域記憶部112と視差記憶部122とを除いたもの、記憶部830は、領域記憶部112と視差記憶部122とを併せたものと、それぞれ同一であり、カメラ810bがなく、カメラ810aに代えて焦点距離が可変なカメラを用いるものとしてもよい。
<本実施の形態に係るその他の変形例>
(1)実施の形態1〜5および変形例では、距離情報は、画像と組み合わせて2視点立体画像を生成するための、視点から各被写体までの距離を画素単位で示す情報を指すとしたが、本発明は必ずしもこの場合に限られない。例えば、被写体を同じくした視点の異なる画像との間の視差情報や、撮影条件と異なる焦点距離や視点間距離を想定した仮想距離を距離情報の代わりに用いてもよい。あるいは、視点から各被写体までの距離に限られず、各被写体と焦点位置の距離または仮想距離など、距離情報を間接的に指し示すものを距離情報として用いてもよい。
または、各被写体の領域内部の距離情報が略単一の値である場合、距離情報は被写体単位で扱ってもよい。
(2)実施の形態1〜3では、主画像取得手段10および副画像取得手段11は、それぞれ互いに6.5cmの距離を離して配置される場合について説明したが、本発明は必ずしもこの場合に限定されない。例えば、主画像取得手段10および副画像取得手段11の間隔は、例えば3cmなど、任意の距離であってもよい。この場合、取得された主画像と副画像の組み合わせを用いても自然な立体視を行うことができないが、立体画像生成部133によって生成される立体画像は立体視することができるので、主画像取得手段10および副画像取得手段11の自由な配置が可能となる。また、主画像取得手段10および副画像取得手段11と撮像装置100、200または300とが一体の装置である場合に、装置の小型化に奏功する。
(3)実施の形態1〜5では、領域分割部111は、グラフカットアルゴリズムを用いて主画像中の各被写体を1つの領域(セグメント)として領域分割を行う場合について説明したが、本発明は必ずしもこの場合に限定されない。例えば、領域分割部111は、輪郭を抽出するエッジ強調などのフィルタ処理を用いて領域分割を行ってもよい。
(4)実施の形態1〜3および実施の形態4の変形例では、視差検出部121または距離検出部452は、SADを用いたブロックマッチング法で視差または距離を検出する場合について説明したが、本発明は必ずしもこの場合に限定されない。例えば、ブロックマッチング法において、輝度差の2乗和(SSD;Sum of Squared Differnce)、または、正規化相互相関(ZNCC;Zero−mean Normalized Cross−Correction)を用いてもよい。また、輝度差ではなく、例えば、画素値がRGB空間で表されていれば、Gの値のみを用いてもよいし、R・G・B各値の加重平均値を用いてもよい。
あるいは、視差検出部121または距離検出部452は、ブロックマッチング法ではなく、例えばグラフカット法を用いてもよい。
(5)実施の形態1〜4および変形例では、立体画像生成部133は、生成した立体画像を表示手段20に出力する場合について説明したが、本発明は必ずしもこの場合に限定されない。例えば、立体画像生成部133は、生成した立体画像を記録媒体に記録してもよいし、ネットワーク等を介して他の画像処理装置に出力してもよい。
あるいは、撮像装置100、200、300、400または450は、立体画像生成部133を有さず、主画像と当該主画像に対応する距離情報との組み合わせを、記録媒体に記録してもよいし、ネットワーク等を介して他の画像処理装置に出力するとしてもよい。このようにすることで、本撮像装置で生成した距離情報を伴う画像を用いて、他の画像処理装置で符号化処理やぼかし処理等の画像処理を行うことができる。なお、この場合の距離情報は、被写体と画像取得手段との距離に限られず、視差情報や仮想距離情報等であってもよい。
(6)実施の形態1〜5および変形例では、主画像および副画像、または画像が動画である場合について説明したが、本発明は必ずしもこの場合に限定されない。例えば、(主)画像取得手段10またはカメラ810aは、2以上の静止画を出力するものとしてもよい。この場合、例えば撮像装置100は、1枚目の静止画を第1の画像として実施の形態1における時刻Tと同じ動作をし、2枚目の画像を第2の画像として実施の形態1における時刻T+1と同じ動作をすることにより、入力された主画像の数だけ立体静止画像を生成することができる。
(7)実施の形態1〜4および変形例の撮像装置、または実施の形態5の撮像部は、典型的には集積回路であるLSI(Large Scale Integration)として実現されてよい。各回路を個別に1チップとしてもよいし、全ての回路又は一部の回路を含むように1チップ化されてもよい。例えば、図12のように領域記憶部112および視差記憶部122は他の回路部と同一の集積回路に集積されることもあれば、別の集積回路になる場合もある。
ここでは、LSIとして記載したが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラム化することが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
また、実施の形態1〜4および変形例の撮像装置、または実施の形態5の撮像部は、記憶媒体に書き込まれたプログラムと、プログラムを読み込んで実行するコンピュータとで実現されてもよい。記憶媒体は、メモリカード、CD−ROMなどいかなる記録媒体であってもよい。また、実施の形態1〜4および変形例の撮像装置、または実施の形態5の撮像部は、ネットワークを経由してダウンロードされるプログラムと、プログラムをネットワークからダウンロードして実行するコンピュータとで実現されてもよい。このプログラムは、同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力ステップと、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割ステップと、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出ステップと、前記距離検出ステップが前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択ステップと、前記距離選択ステップが前記第2の画像の距離情報を前記距離検出ステップが生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定ステップと、前記領域対応判定ステップの判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測ステップとを含む撮像処理を実行させるプログラムである。
(8)上記の各実施の形態および変形例の説明は本発明の例示に過ぎず、本発明の範囲を逸脱することなく種々の改良や変形を行うことができる。
以下に、実施の形態に係る撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システムの構成および効果について説明する。
(a)実施の形態に係る撮像装置は、同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力部と、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割部と、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出部と、前記距離検出部が前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択部と、前記距離選択部が前記第2の画像の距離情報を前記距離検出部が生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定部と、前記領域対応判定部の判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測部とを備えることを特徴とする。
また、実施の形態に係る集積回路は、同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力部と、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割部と、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出部と、前記距離検出部が前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択部と、前記距離選択部が前記第2の画像の距離情報を前記距離検出部が生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定部と、前記領域対応判定部の判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測部とを備えることを特徴とする。
また、実施の形態に係る撮像方法は、同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力ステップと、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割ステップと、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出ステップと、前記距離検出ステップが前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択ステップと、前記距離選択ステップが前記第2の画像の距離情報を前記距離検出ステップが生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定ステップと、前記領域対応判定ステップの判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測ステップとを備えることを特徴とする。
また、実施の形態に係る撮像プログラムは、画像の距離情報を生成する撮像処理を行うプログラムであって、前記撮像処理は、同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力ステップと、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割ステップと、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出ステップと、前記距離検出ステップが前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択ステップと、前記距離選択ステップが前記第2の画像の距離情報を前記距離検出ステップが生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定ステップと、前記領域対応判定ステップの判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測ステップとを含むことを特徴とする。
また、実施の形態に係る記憶媒体は、画像の距離情報を生成する撮像処理を行うプログラムが記録されているコンピュータ読み取り可能な記録媒体であって、同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力ステップと、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割ステップと、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出ステップと、前記距離検出ステップが前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択ステップと、前記距離選択ステップが前記第2の画像の距離情報を前記距離検出ステップが生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定ステップと、前記領域対応判定ステップの判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測ステップとを含む撮像処理を実行させるためのプログラムが記録されていることを特徴とする。
また、実施の形態に係る撮像システムは、第1の画像と第2の画像とを撮影するカメラと、前記カメラから前記第1の画像と前記第2の画像とを受け付ける撮像装置と、前記撮像装置によって生成される、距離情報を含む画像を記録するための記録媒体とを備える撮像システムであって、前記撮像装置は、前記第1の画像と前記第2の画像との入力を受け付ける画像入力部と、前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割部と、前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出部と、前記距離検出部が前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択部と、前記距離選択部が前記第2の画像の距離情報を前記距離検出部が生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定部と、前記領域対応判定部の判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測部とを備えることを特徴とする。
これら上記の構成によれば、第2の画像の距離情報を推測する場合には、第2の画像の距離情報を距離検出部が生成しないので、距離検出部が第2の画像の距離情報を生成するための処理をする必要がない。また、第2の画像の距離情報を推測する場合に、第2の画像の各領域に第1の画像の領域の距離情報を割り当てるので、第2の画像と距離情報との間で領域の輪郭線が生じないように距離情報を生成することができる。
(b)また、実施の形態に係る上記(a)の撮像装置は、前記第2の画像の領域それぞれに対して前記第1の画像の各領域と領域情報の比較を行い、領域比較情報を生成する領域比較部をさらに備え、前記領域対応判定部は、前記領域比較情報を元に、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する、としてもよい。
これにより、第1の画像の領域と第2の画像の領域との間で領域情報の比較を行うことにより、第1の画像の領域と、第2の画像の領域との対応関係を判定することが可能となる。
(c)また、実施の形態に係る上記(a)の撮像装置は、前記第2の画像と前記第1の画像との間で色彩情報の比較を行い、画像比較情報を生成する画像比較部をさらに備え、前記領域対応判定部は、前記画像比較情報を元に、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する、としてもよい。
これにより、第1の画像と第2の画像との間で画像全体の色彩情報を比較することにより、第1の画像の領域と、第2の画像の領域との対応関係を判定することが可能となる。
(d)また、実施の形態に係る上記(a)の撮像装置は、前記第2の画像と前記第1の画像との間で色彩情報の比較を行い、画像比較情報を生成する画像比較部と、前記第2の画像の領域のそれぞれに対して前記第1の画像の各領域と領域情報の比較を行い、領域比較情報を生成する領域比較部とをさらに備え、前記領域対応判定部は、前記画像比較情報と前記領域比較情報とを元に、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する、としてもよい。
これにより、第1の画像と第2の画像との間で、第1の画像の領域と第2の画像の領域との間の領域情報の比較と、画像全体の色彩情報の比較とを併用し、第1の画像の領域と、第2の画像の領域との対応関係をより高い精度で判定することが可能となる。
(e)また、実施の形態に係る上記(b)または上記(d)の撮像装置は、前記領域比較部は、前記第1の画像の領域もしくは前記第2の画像の領域のいずれかに拡大処理を行ってから領域の比較を行い、前記距離推測部は、前記領域比較部が行った拡大処理における拡大率を用いて、当該拡大処理の対象となった領域に対応する距離情報を補正する、としてもよい。
これにより、第1の画像の領域と第2の画像の領域との間で領域情報を比較する際に、領域の大きさが違っていても、領域の大きさをそろえれば対応関係にあると判定できる組み合わせがある場合に対応関係を判定することができ、かつ、領域をする場合の拡大率を用いて距離の補正が可能となるため、被写体が近づきまたは遠ざかることによって第1の画像と第2の画像との間で大きさが変動する場合においても適切に距離を推測することが可能となる。
(f)また、実施の形態に係る上記(b)、上記(d)、または上記(e)の撮像装置は、前記領域比較情報は、前記第1の画像の各領域と前記第2の画像の各領域との間の、重複する面積、形状の類似度、あるいは、重心間の距離の少なくとも1つを含む、としてもよい。
これにより、第1の画像の領域と第2の画像の領域との間で領域情報を比較する際に、領域の形状や位置に基づく特性を用いて対応関係を判定することが可能となる。
(g)また、実施の形態に係る上記(c)、上記(d)、または上記(e)の撮像装置は、前記画像比較情報は、前記第1の画像と、前記第2の画像との間の、輝度の類似度、または色情報の類似度の少なくとも1つを含む、としてもよい。
これにより、第1の画像と第2の画像との間で画像全体の色彩情報を比較する際に、輝度や色に基づく特性を用いて領域の対応関係を判定することが可能となる。
(h)また、実施の形態に係る上記(a)の撮像装置は、前記画像入力部は、さらに前記第1の画像と視差のある副画像の入力を受け付け、前記距離検出部は、前記第1の画像と、前記副画像とを用いて、前記第1の画像の距離情報を生成する、としてもよい。
これにより、撮像装置は、第1の画像の距離情報を、副画像を用いて生成することが可能となる。
(j)また、実施の形態に係る上記(h)の撮像装置は、前記画像入力部は、レンズまたはカメラセンサが前後することにより生成された、前記第1の画像と焦点距離の異なる前記副画像の入力を受け付ける、としてもよい。
これにより、撮像装置は、2以上の焦点距離を用いることができるカメラを用いて副画像を生成し、三角測量により第1の画像の距離情報を生成することが可能となる。
(k)また、実施の形態に係る上記(h)の撮像装置は、前記画像入力部は、2つ以上のカメラから画像を受け付け、1のカメラからの入力を前記第1の画像および第2の画像とし、前記1のカメラとは異なる他のカメラからの入力を前記副画像とし、前記距離検出部は、前記第1の画像と、前記副画像との視差を検出し、検出した視差から前記第1の画像の距離情報を生成する、としてもよい。
これにより、撮像装置は、2以上の視点から撮像される立体画像に対し、1つの視点の画像を第1の画像および第2の画像とし、それ以外の視点の画像を副画像として、本発明を実施することが可能となる。
本発明は、立体視のための画像信号を生成する撮像装置に関するものであって、特に距離情報を生成するための演算量の削減や省力化に奏功する。
したがって、デジタルビデオカメラやデジタルスチルカメラなどの画像記録機器に有効である。その他、画像伝送機器や画像編集機器などにも有効である。
撮像装置 100、200、300、400、450
画像入力部 101、451
領域分割部 111
領域記憶部 112
領域比較部 113、302
領域対応判定部 114、203、303
視差推測部 115、304
視差検出部 121
視差記憶部 122
視差選択部 131
距離情報生成部 132
立体画像生成部 133
画像記憶部 201
画像比較部 202
拡大部 301
距離検出部 401、452
距離記憶部 402
距離推測部 403
距離選択部 404

Claims (17)

  1. 同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力部と、
    前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割部と、
    前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出部と、
    前記距離検出部が前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択部と、
    前記距離選択部が前記第2の画像の距離情報を前記距離検出部が生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定部と、
    前記領域対応判定部の判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測部と
    を備えることを特徴とする撮像装置。
  2. 前記第2の画像の領域それぞれに対して前記第1の画像の各領域と領域情報の比較を行い、領域比較情報を生成する領域比較部をさらに備え、
    前記領域対応判定部は、前記領域比較情報を元に、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記第2の画像と前記第1の画像との間で色彩情報の比較を行い、画像比較情報を生成する画像比較部をさらに備え、
    前記領域対応判定部は、前記画像比較情報を元に、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する
    ことを特徴とする請求項1に記載の撮像装置。
  4. 前記第2の画像と前記第1の画像との間で色彩情報の比較を行い、画像比較情報を生成する画像比較部と、
    前記第2の画像の領域のそれぞれに対して前記第1の画像の各領域と領域情報の比較を行い、領域比較情報を生成する領域比較部とをさらに備え、
    前記領域対応判定部は、前記画像比較情報と前記領域比較情報とを元に、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する
    ことを特徴とする請求項1に記載の撮像装置。
  5. 前記領域比較部は、前記第1の画像の領域もしくは前記第2の画像の領域のいずれかに拡大処理を行ってから領域の比較を行い、
    前記距離推測部は、前記領域比較部が行った拡大処理における拡大率を用いて、当該拡大処理の対象となった領域に対応する距離情報を補正する
    ことを特徴とする請求項2または請求項4に記載の撮像装置。
  6. 前記領域比較情報は、前記第1の画像の各領域と前記第2の画像の各領域との間の、重複する面積、形状の類似度、あるいは、重心間の距離の少なくとも1つを含む
    ことを特徴とする請求項2、請求項4、または請求項5に記載の撮像装置。
  7. 前記画像比較情報は、前記第1の画像と、前記第2の画像との間の、輝度の類似度、または色情報の類似度の少なくとも1つを含む
    ことを特徴とする請求項3乃至請求項5のいずれか1項に記載の撮像装置。
  8. 前記画像入力部は、さらに前記第1の画像と視差のある副画像の入力を受け付け、
    前記距離検出部は、前記第1の画像と、前記副画像とを用いて、前記第1の画像の距離情報を生成する
    ことを特徴とする請求項1に記載の撮像装置。
  9. 前記画像入力部は、レンズまたはカメラセンサが前後することにより生成された、前記第1の画像と焦点距離の異なる前記副画像の入力を受け付ける
    ことを特徴とする請求項8記載の撮像装置。
  10. 前記画像入力部は、2つ以上のカメラから画像を受け付け、1のカメラからの入力を前記第1の画像および第2の画像とし、前記1のカメラとは異なる他のカメラからの入力を前記副画像とし、
    前記距離検出部は、前記第1の画像と、前記副画像との視差を検出し、検出した視差から前記第1の画像の距離情報を生成する
    ことを特徴とする請求項8記載の撮像装置。
  11. 同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力部と、
    前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割部と、
    前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出部と、
    前記距離検出部が前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択部と、
    前記距離選択部が前記第2の画像の距離情報を前記距離検出部が生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定部と、
    前記領域対応判定部の判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測部と
    を備えることを特徴とする集積回路。
  12. 同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力ステップと、
    前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割ステップと、
    前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出ステップと、
    前記距離検出ステップが前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択ステップと、
    前記距離選択ステップが前記第2の画像の距離情報を前記距離検出ステップが生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定ステップと、
    前記領域対応判定ステップの判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測ステップと
    を備えることを特徴とする撮像方法。
  13. 画像の距離情報を生成する撮像処理を行うプログラムであって、
    前記撮像処理は、
    同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力ステップと、
    前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割ステップと、
    前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出ステップと、
    前記距離検出ステップが前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択ステップと、
    前記距離選択ステップが前記第2の画像の距離情報を前記距離検出ステップが生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定ステップと、
    前記領域対応判定ステップの判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測ステップと
    を含むことを特徴とするプログラム。
  14. 画像の距離情報を生成する撮像処理を行うプログラムが記録されているコンピュータ読み取り可能な記録媒体であって、
    同一の視点から異なる時刻に撮影された第1の画像と第2の画像との入力を受け付ける画像入力ステップと、
    前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割ステップと、
    前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出ステップと、
    前記距離検出ステップが前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択ステップと、
    前記距離選択ステップが前記第2の画像の距離情報を前記距離検出ステップが生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定ステップと、
    前記領域対応判定ステップの判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測ステップと
    を含む撮像処理を実行させるためのプログラムが記録されているコンピュータ読み取り可能な記憶媒体。
  15. 第1の画像と第2の画像とを撮影するカメラと、
    前記カメラから前記第1の画像と前記第2の画像とを受け付ける撮像装置と、
    前記撮像装置によって生成される、距離情報を含む画像を記録するための記録媒体と
    を備える撮像システムであって、
    前記撮像装置は、
    前記第1の画像と前記第2の画像との入力を受け付ける画像入力部と、
    前記第1の画像と前記第2の画像とをそれぞれオブジェクト毎に領域分割する領域分割部と、
    前記第1の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成する距離検出部と、
    前記距離検出部が前記第2の画像の各領域について、オブジェクトまでの距離を検出して距離情報を生成するか否かを選択する距離選択部と、
    前記距離選択部が前記第2の画像の距離情報を前記距離検出部が生成しないと選択した場合、前記第2の画像の各領域が、それぞれ前記第1の画像の領域のいずれに相当するかを判定する領域対応判定部と、
    前記領域対応判定部の判定結果に基づいて、前記第2の画像の領域それぞれに対して、オブジェクトまでの距離と推測される前記第1の画像の距離情報を対応付け、前記第2の画像の距離情報を作成する距離推測部と
    を備えることを特徴とする撮像システム。
  16. 前記距離推測部は、
    前記第2の画像の領域それぞれを、当該第2の画像の領域に対応付けた前記第1の画像の距離情報で埋め尽くすことで、前記第2の画像の距離情報を作成する
    ことを特徴とする請求項1に記載の撮像装置。
  17. 前記距離推測部は、
    前記第2の画像の領域それぞれにおいて、前記第2の画像の領域に対応付けた前記第1の画像の距離情報の代表値を、当該第2の画像の領域に属する全画素に対応する距離とすることで、前記埋め尽くしを行う
    ことを特徴とする請求項16に記載の撮像装置。
JP2013538420A 2011-10-11 2012-08-21 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム Expired - Fee Related JP5960710B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011223737 2011-10-11
JP2011223737 2011-10-11
PCT/JP2012/005229 WO2013054463A1 (ja) 2011-10-11 2012-08-21 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム

Publications (2)

Publication Number Publication Date
JPWO2013054463A1 JPWO2013054463A1 (ja) 2015-03-30
JP5960710B2 true JP5960710B2 (ja) 2016-08-02

Family

ID=48081535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013538420A Expired - Fee Related JP5960710B2 (ja) 2011-10-11 2012-08-21 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム

Country Status (3)

Country Link
US (1) US20140192163A1 (ja)
JP (1) JP5960710B2 (ja)
WO (1) WO2013054463A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6158779B2 (ja) * 2014-12-08 2017-07-05 株式会社Soken 画像処理装置
JP2016197795A (ja) * 2015-04-03 2016-11-24 日立オートモティブシステムズ株式会社 撮像装置
KR101653622B1 (ko) * 2015-05-07 2016-09-05 고려대학교 산학협력단 엣지 정보 추출을 위한 이미지 센서
US20180041747A1 (en) * 2016-08-03 2018-02-08 Samsung Electronics Co., Ltd. Apparatus and method for processing image pair obtained from stereo camera
CN109272509B (zh) * 2018-09-06 2021-10-29 郑州云海信息技术有限公司 一种连续图像的目标检测方法、装置、设备及存储介质
US20220319026A1 (en) * 2021-03-31 2022-10-06 Ernst Leitz Labs LLC Imaging system and method
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3637226B2 (ja) * 1999-02-01 2005-04-13 株式会社東芝 動き検出方法、動き検出装置及び記録媒体
JP2001028056A (ja) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd フェールセーフ機能を有するステレオ式車外監視装置
JP3988879B2 (ja) * 2003-01-24 2007-10-10 日本電信電話株式会社 立体画像生成方法及び立体画像生成装置、ならびに立体画像生成プログラム及び記録媒体
JP4562457B2 (ja) * 2003-10-02 2010-10-13 株式会社リコー 画像処理装置及び画像処理方法
KR100727033B1 (ko) * 2005-12-07 2007-06-12 한국전자통신연구원 네트워크 기반 지능형 서비스 로봇의 비전 처리 장치 및방법과 이를 이용한 시스템
US20070248260A1 (en) * 2006-04-20 2007-10-25 Nokia Corporation Supporting a 3D presentation
FR2932911A1 (fr) * 2008-06-24 2009-12-25 France Telecom Procede et dispositif de remplissage des zones d'occultation d'une carte de profondeur ou de disparites estimee a partir d'au moins deux images.
GB2471137B (en) * 2009-06-19 2011-11-30 Sony Comp Entertainment Europe 3D image processing method and apparatus
JP5477128B2 (ja) * 2010-04-07 2014-04-23 ソニー株式会社 信号処理装置、信号処理方法、表示装置及びプログラム
KR100971730B1 (ko) * 2010-04-15 2010-07-21 (주)에이직뱅크 평행축 입체카메라
JP5255028B2 (ja) * 2010-08-30 2013-08-07 シャープ株式会社 画像処理装置、表示装置、再生装置、記録装置、画像処理装置の制御方法、情報記録媒体、画像処理装置の制御プログラム及びコンピュータ読取可能な記録媒体

Also Published As

Publication number Publication date
US20140192163A1 (en) 2014-07-10
WO2013054463A1 (ja) 2013-04-18
JPWO2013054463A1 (ja) 2015-03-30

Similar Documents

Publication Publication Date Title
JP5960710B2 (ja) 撮像装置とその集積回路、撮像方法、撮像プログラム、および撮像システム
KR102013978B1 (ko) 이미지들의 융합을 위한 방법 및 장치
US9210408B2 (en) Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
TWI538512B (zh) 調整對焦位置的方法及電子裝置
JP5267396B2 (ja) 画像処理装置および方法、並びにプログラム
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
JP2011135246A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US9807372B2 (en) Focused image generation single depth information from multiple images from multiple sensors
KR20140051112A (ko) 영상 처리를 위한 주 및 보조 영상 캡처 장치들 및 관련 방법들
KR20160090373A (ko) 듀얼 렌즈 장치를 위한 촬영 방법 및 듀얼 렌즈 장치
US9729857B2 (en) High resolution depth map computation using multiresolution camera clusters for 3D image generation
WO2012039306A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US8922627B2 (en) Image processing device, image processing method and imaging device
JP2015073185A (ja) 画像処理装置、画像処理方法およびプログラム
JP2011160299A (ja) 三次元画像撮影システムおよび三次元画像撮影システム用カメラ
JP3990271B2 (ja) 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
JP2016063248A (ja) 画像処理装置および画像処理方法
US20130027520A1 (en) 3d image recording device and 3d image signal processing device
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
WO2013080544A1 (ja) 立体画像処理装置、立体画像処理方法、および立体画像処理プログラム
JP2013165488A (ja) 画像処理装置、撮像装置、およびプログラム
US10397540B2 (en) Method for obtaining and merging multi-resolution data
JP6089742B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160623

R150 Certificate of patent or registration of utility model

Ref document number: 5960710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees