JP2012514886A - 映像データ獲得方法及び装置 - Google Patents

映像データ獲得方法及び装置 Download PDF

Info

Publication number
JP2012514886A
JP2012514886A JP2011544357A JP2011544357A JP2012514886A JP 2012514886 A JP2012514886 A JP 2012514886A JP 2011544357 A JP2011544357 A JP 2011544357A JP 2011544357 A JP2011544357 A JP 2011544357A JP 2012514886 A JP2012514886 A JP 2012514886A
Authority
JP
Japan
Prior art keywords
video data
video
focal length
focused
data acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011544357A
Other languages
English (en)
Inventor
パク,ヒョン−ス
ユン,ドゥ−ソップ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2012514886A publication Critical patent/JP2012514886A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

場面の映像を撮影することで獲得される複数の2次元(2D)映像データを利用して3次元(3D)映像データを獲得する映像データ獲得方法において、前記場面の複数の成分のうち、基準成分がフォーカシングされるように映像撮影デバイスの焦点距離を設定し、前記撮影デバイスの絞り値を異ならせて前記映像を撮影することで、複数の2次元映像データを前記設定された焦点距離を持つ前記映像撮影デバイスによって獲得し、そして前記複数の2次元映像データ間の関係を利用して前記3次元映像データを獲得する映像データ獲得方法及び装置が開示される。

Description

本発明は、映像データを獲得する方法及び装置に係り、特に3次元映像データを獲得する方法及び装置に関する。
最近、情報通信技術の発達につれて3次元映像技術が広く普及しつつある。3次元映像技術は、2次元映像に深さについての情報を付与してさらに写実的な映像を表現する技術である。
人間の目は横方向に所定距離ほど離れているため、左眼と右眼とが見る2次元映像が互いに異なるが、これを両眼視差という。脳は相異なる2つの2次元映像を融合して、遠近感と実在感のある3次元映像を生成する。
3次元映像を提供するために深さについての情報が反映された3次元映像データを製作するか、または2次元映像データを変換して3次元映像データを生成する。
本発明の目的は、3次元映像データを効果的に獲得する方法及び装置を提供することである。
前記の目的を達成するための本発明の一特徴は、場面の映像を撮影することで獲得される複数の2次元(2D)映像データを利用して3次元(3D)映像データを獲得する映像データ獲得方法において、前記場面の複数の成分のうち基準成分がフォーカシングされるように、映像撮影デバイスの焦点距離を設定する段階と、前記撮影デバイスの絞り値を異ならせて前記映像を撮影することで、複数の2次元映像データを、前記設定された焦点距離を持つ前記映像撮影デバイスによって獲得する段階と、前記複数の2次元映像データ間の関係を利用して前記3次元映像データを獲得する段階と、を含むことである。
前記基準成分は、前記複数の成分のうち、前記映像撮影デバイスとの距離が最小の第1成分、または前記複数の成分のうち、前記映像撮影デバイスとの距離が最大の第2成分である。
前記焦点距離を設定する段階は、複数の焦点測定領域を前記場面内で設定する段階と、前記複数の焦点測定領域がそれぞれフォーカシングされる焦点距離を測定する段階と、前記測定された焦点距離によって、前記複数の焦点測定領域のうち一つを前記基準成分と決定する段階と、を含む。
前記基準成分は、前記測定された焦点距離のうち最小の焦点距離でフォーカシングされる、前記複数の焦点測定領域のうち第1焦点距離測定領域である。
前記基準成分は、前記測定された焦点距離のうち最大の焦点距離でフォーカシングされる、前記複数の焦点測定領域のうち第2焦点距離測定領域である。
前記焦点距離を測定する段階は、前記映像撮影デバイスの絞り値を最小として、前記複数の焦点測定領域がそれぞれフォーカシングされる焦点距離を測定する。
前記焦点距離を測定する段階は、前記映像撮影デバイスの絞り値を最大として、前記複数の焦点測定領域がフォーカシングされる前記焦点距離を測定する。
前記複数の2次元映像データを獲得する段階は、前記映像撮影デバイスの絞り値を最小値と設定して前記場面の映像を撮影することで第1映像データを獲得し、そして、前記映像撮影デバイスの絞り値を最大値と設定して前記場面の映像を撮影することで第2映像データを獲得する。
前記3次元映像データを獲得する段階は、前記第1映像データ及び前記第2映像データを比較して、前記第2映像データ内のそれぞれのピクセルに対して、焦点が外れた程度を表す情報を生成する段階と、前記生成された情報によって、前記複数の2次元映像データに対応する深さマップを生成する段階と、を含む。
本発明の他の実施形態による一特徴は、場面の映像を撮影することで獲得される複数の2次元(2D)映像データを利用して3次元(3D)映像データを獲得する装置において、前記場面の複数の成分のうち基準成分がフォーカシングされるように、映像撮影デバイスの焦点距離を設定する焦点距離設定部と、前記設定された焦点距離を持つ前記映像撮影デバイスで、前記撮影デバイスの絞り値を異ならせて前記映像を撮影することで複数の2次元映像データを獲得する第1獲得部と、前記複数の2次元映像データ間の関係を利用して前記3次元映像データを獲得する第2獲得部と、を備えることである。
本発明の他の実施形態による一特徴は、場面の映像を撮影することで複数の2次元映像データを獲得する映像データ獲得装置において、前記複数の2次元映像データは、3次元(3D)映像データを獲得するように使われ、前記映像データ獲得装置は、前記場面の複数の成分のうち基準成分がフォーカシングされるように、映像撮影デバイスの焦点距離を設定する焦点距離設定部と、前記設定された焦点距離を持つ前記映像撮影デバイスで、前記撮影デバイスの絞り値を異ならせて前記映像を撮影することで複数の2次元映像データを獲得する第1獲得部と、を備え、ここで、前記複数の2次元映像データ間の関係が前記3次元映像データを獲得するために使われる。
本発明の他の実施形態による一つの特徴は、コンピュータによって具現される、コンピュータで読み取り可能な記録媒体において、前記コンピュータで読み取り可能な記録媒体は、第1絞り値及び設定された焦点距離を使用して場面の映像を撮影する映像撮影デバイスによって獲得される第1二次元(2D)映像データと、前記第1絞り値と異なる第2絞り値及び前記設定された焦点距離を使用して前記場面の映像を撮影する映像撮影デバイスによって獲得される第2二次元(2D)映像データと、を含み、前記場面の複数の成分のうち基準性方は、前記設定された焦点距離によって前記第1二次元映像データ及び第2二次元映像データにフォーカシングされ、そして前記第1二次元映像データ及び第2二次元映像データは、3次元(3D)映像データを獲得するために前記コンピュータによって使われる。
本発明は、複数の2D映像から対象の相対的な位置を正確に獲得することで、3D映像を生成する。
本発明の一実施形態による映像撮影デバイスの絞りを閉じた状態で、そして絞りを開放した状態で撮影対象を撮影した例を示す図である。 本発明の一実施形態による映像データ獲得装置を利用して獲得した第2映像データの一例を示す図である。 本発明の一実施形態による映像データ獲得装置に関するブロック図である。 図3の焦点距離設定部の一例に関するブロック図である。 図3に図示された実施形態による映像データ獲得装置を利用して獲得した第2映像データの一例を示す図である。 本発明の一実施形態による映像データ獲得方法に関するフローチャートである。 本発明の他の実施形態による映像データ獲得方法に関するフローチャートである。
本出願は、ここで全体的に参照として統合される、大韓民国特許庁に2009年1月2日付きで提出された特許出願第10−2009−0000115号を優先権とする。
本発明の実施形態を明らかにするために参照が提供され、実施形態は添付した図面に図示され、明細書全般にかけて同一な参照番号は同一な構成を示す。以下、添付した図面を参考にして本発明の望ましい実施形態を詳細に説明する。
2次元(2D)映像データを利用して3次元(3D)映像データを生成するためには、撮影対象とカメラ間の距離を表す情報が使われる。これらの情報の一例が深さ情報である。深さ情報は、2次元映像データを構成するピクセル別に、ピクセルが表す対象とカメラとがいかほど離れているかを表す。
深さ情報を獲得するためには、3つの方法を使用できる。
第1に、撮影された事物の形態を分析して深さ情報を獲得できる。この方法は、1枚の2次元映像データを利用するという点では経済的である。しかし、事物の形態を分析する装置または方法を具現し難くて実用化が困難であるという問題点がある。
第2に、同じ対象を異なる角度で撮影した2つ以上の2次元映像データを分析して深さ情報を獲得することである。この方法は、具現が容易であるという点で多く使われる方法である。しかし、同じ対象を異なる角度で撮影するためには、映像撮影デバイス(例えば、カメラ)が相異なる光路を持つ複数の光学系を備えねばならない。光学系は高価の物品であるため、映像撮影デバイスが光学系を2つ以上備えることは非経済的である。
第3に、同じ対象を撮影した2つ以上の2次元映像データを分析して3次元映像データを獲得できる。一例として、ここで参照として統合される、“Simple range cameras based on focal error”(A.Pentland,S.Scherock,T.Darrell,and B.Girod)論文には、焦点の合う映像と焦点の合わない映像とを分析して深さ情報を獲得する構成が開示されている。下記の式(1)は、前述した論文で抜粋した2つ以上の2次元映像データを利用して深さ情報を獲得するのに使われる数式である。式(1)は、2つ以上の映像データを利用して3次元映像データを獲得する一例に過ぎず、本発明がこれに限定されるものではない。式(1)は次の通りである。
Figure 2012514886
式(1)で、fは、カメラレンズの焦点値であり、Dは、カメラとレンズとの間に位置した映像面間の距離であり、rは、焦点が合わずに撮影対象がぼやけて表示される部分の半径である。また、kは、変換定数であり、fnumberは、カメラのf数値であって、カメラレンズの焦点距離をレンズ絞りで割った値である。このうち、rを除外した残りの値はカメラの物理的な条件と関連しているため、撮影と同時に獲得できる。したがって、撮影された映像からr値を獲得すれば、深さ情報を獲得できる。 式(1)で使われるカメラレンズの焦点値fは、レンズの物理的な特徴を表すものであって、同じカメラで撮影対象を撮影する間には焦点値fを変更できない。しかし、後述する焦点距離は、レンズ間の距離を調節して撮影対象をフォーカシングさせるものであって、それにより、同じカメラで撮影対象を撮影する間にも焦点距離を変更できる。
式(1)のように、2つ以上の2次元映像データを利用して深さ情報を獲得しようとする場合、一つの2次元映像データは、撮影される場面を構成するあらゆる成分が明らかに表され、他の一つの2次元映像データは、撮影される場面を構成する成分のうち一部の成分は明らかに表され、残りの成分はぼやけて表されることが望ましい。以下では、説明の便宜上、場面内のあらゆる成分が明らかに表される映像データを第1映像データと命名し、一部成分のみ明らかに表される映像データを第2映像データと命名する。
本明細書で成分とは、撮影される場面を所定サイズに分けた片を意味する。あらゆる成分のサイズは同一でも、異なってもよい。一例として、人間が立っている場面を撮影しようとする場合、“人間”が前記撮影される場面の一つの成分になることもあり、“人間”の“腕”及び“脚”が前記撮影される場面の成分になることもある。
場面を構成するあらゆる構成成分が明らかに表される第1映像データと一部構成成分だけ明らかに表される第2映像データを獲得するための一つの方法は、映像撮影デバイスの絞り値を異ならせて同じ場面を撮影することである。絞り値を異ならせて同じ場面を撮影した本発明の一実施形態に関する詳細な説明は、図1の(a)及び図1の(b)で後述する。
図1の(a)は、本発明の一実施形態による映像撮影デバイスの絞りを閉じた状態で撮影対象を撮影した例である。図1の(a)の左側には、絞りを閉じた映像撮影デバイスの一例が図示される。絞りを閉じた状態で撮影対象を撮影すれば、図1の(a)の右側のように撮影される場面内のあらゆる構成成分が明らかに表される。したがって、映像撮影デバイスの絞りを閉じた状態で撮影対象を撮影して第1映像データを獲得できる。
図1の(b)は、本発明の一実施形態による映像撮影デバイスの絞りを開放した状態で撮影対象を撮影した例である。図1の(b)の左側には、絞りが開放された映像撮影デバイスの一例が図示される。絞りを開放した状態で撮影対象を撮影すれば、図1の(b)の右側のように撮影される場面内の一部構成成分のみ明らかに表される。すなわち、フォーカシングされた特定領域は明らかに表され、残りの領域はぼやけて表される。したがって、映像撮影デバイスの絞りを開放した状態で撮影対象を撮影して第2映像データを獲得できる。
図1の(a)及び図1の(b)では、映像撮影デバイスの絞り値を異ならせて第1映像データと第2映像データとを獲得したが、第1映像データと第2映像データとを獲得する方法がこれに限定されるものではない。
第1映像データと第2映像データとが獲得されれば、式(1)によって深さ情報を獲得できる。式(1)によって深さ情報を計算する場合、該当ピクセルが表す事物が基準位置(例えば、カメラ)からいかほど離れているかが分かる。しかし、該当ピクセルが表す事物が基準位置の前方に位置しているか、または後方に位置しているかは分からない。以下では、図2を参考までにかかる問題点を説明する。
図2は、本発明の一実施形態による映像獲得装置を利用して獲得した第2映像データの一例である。図2を参考にすれば、第2映像データ内の“5”番領域と“7”番領域とが最も明らかであることが分かる。これは、“5”番領域と“7”番領域とがフォーカシングされたことを意味する。式(1)によって“r”値を計算すれば、“5”番領域及び“7”番領域に該当する“r”値が最小となる。この時、“5”番領域または“7”番領域が表す事物の位置が基準位置となる。
一方、残りの領域は“5”番領域及び“7”番領域に比べてぼやけて表されるようになる。式(1)によって“r”値を計算すれば、“5”番領域及び“7”番領域に該当する“r”値に比べて残りの領域に該当する“r”値が大きいということが分かる。式(1)では焦点が外れた程度に比例して、“r”値が大きくなる。したがって、領域が表す“r”値が大きければ大きいほど、該当領域が表す事物は基準位置から遠く離れる。
もし、“4”、“1”、“8”番領域がぼやけている程度(すなわち、焦点が外れた程度)が同一ならば、式(1)によって“4”、“1”、“8”番領域に対して計算した“r”値も同一である。これは、“4”、“1”、“8”番領域に該当する事物それぞれは、基準位置から同じ距離ほど離れていることを意味する。
しかし、“4”、“1”、“8”番領域に該当する事物がいずれも基準位置の前方に位置しているか、またはいずれも基準位置の後方に位置しているかが分からない。すなわち、サイズに関する情報は提供されるが、符号に関する情報は提供されない。
したがって、“4”番領域が表す事物が“5”番領域が表す事物より“10cm”前方に位置し、“6”番領域が表す事物が“5”番領域が表す事物より“10cm”後方に位置するにもかかわらず、“4”番領域が表す事物と“6”番領域が表す事物とがいずれも基準位置の前方(または後方)に位置すると判断される恐れがある。
これらの問題点を解決するための一つの方法としては、撮影される場面内の成分のうち最も遠いところに位置した成分がフォーカシングされるように、映像会得装置の焦点距離を調節して第2映像データを獲得できる。この場合、場面内のあらゆる成分はフォーカシングされた成分より近いところに位置する。
同様に、場面内の成分のうち最も近いところに位置した成分がフォーカシングされるように、焦点距離を調節して第2映像データを獲得できる。この場合、場面内のあらゆる成分はフォーカシングされた成分より遠いところに位置するようになる。
図3は、本発明の一実施形態による映像データ獲得装置に関するブロック図を示す。図3を参照すれば、本発明の一実施形態による映像データ獲得装置300は、焦点距離設定部310、第1獲得部320及び第2獲得部330を備える。求められていなくても、前記焦点距離設定部310、第1獲得部320及び第2獲得部330は、一つ以上のチップまたは集積回路上で一つ以上のプロセッサーまたはプロセシングエレメントでありうる。
焦点距離設定部310は、撮影される場面を構成する複数の成分のうち、所定の条件を満たす成分の基準成分がフォーカシングされるように映像撮影デバイスの焦点距離を設定する。基準成分は実施形態によって様々でありうる。一例として、場面を構成する複数の成分のうち、映像撮影デバイスから最も遠いところに位置した第1成分を基準成分と設定してもよく、映像撮影デバイスから最も近いところに位置した第2成分を基準成分と設定してもよい。
第1成分または第2成分を基準成分と設定するためには、場面を構成するあらゆる成分と映像撮影デバイスとの距離を測定することが望ましい。しかし、場面内のあらゆる成分と映像撮影デバイスとの距離を測定するということは実質的に不可能である。したがって、場面内で一つ以上の領域を指定し、指定された領域と映像撮影デバイスとの距離を測定した後、これら領域のうち一つを基準位置と設定することが望ましい。第1成分または第2成分を基準成分と設定する一例に関する詳細な説明は、図4で後述する。
第1獲得部320は、映像撮影デバイスの絞り値を異ならせて複数の2次元映像データを獲得する。この時、映像撮影デバイスの焦点距離は、焦点距離設定部310で設定された焦点距離を維持することが望ましい。
さらに詳細には、第1獲得部320は、映像撮影デバイスの絞り値を最小値(例えば、前記絞りが開放される時)に設定して撮影対象を撮影することで、第1映像データを獲得する。次いで、第1獲得部320は、映像撮影デバイスの絞り値を最大値と設定して同じ撮影対象を撮影することで、第2映像データを獲得する。前述したように、第2映像データでは基準成分が明らかに表され、残りの成分はぼやけて表される。
第2獲得部330は、複数の2次元映像データ間の関係を利用して3次元映像データを獲得する。第2獲得部330は、情報生成部(図示せず)及び深さマップ生成部(図示せず)を備えることができる。情報生成部(図示せず)は第1映像データと第2映像データとを比較して、第2映像データ内のピクセルそれぞれに対して焦点が外れた程度を表す情報を生成する。焦点が外れた程度を表す情報は、式(1)のrである。
深さマップ生成部(図示せず)は生成された情報に基づいて、2次元映像データに対応する深さマップを生成する。
図4は、図3の焦点距離設定部310の一例に関するブロック図を示す。図4を参照すれば、本発明の一実施形態による焦点距離設定部310は、設定部312、測定部314及び決定部316を備える。求められていなくても、前記設定部312、測定部314及び決定部316は、一つ以上のチップまたは集積回路上で一つ以上のプロセッサーまたはプロセシングエレメントでありうる。
設定部312は、焦点距離を測定するのに使われる少なくとも一つの焦点距離測定領域を場面内で設定する。焦点距離測定領域はユーザが直接指定してもよいが、設定部312が自動で指定してもよい。
測定部314は、測定領域それぞれがフォーカシングされる焦点距離を測定する。しかし、これに制限されず、前記測定部314は、ユーザの操作なしでも特定領域がフォーカシングされるようにする自動焦点(AF)動作を使用できる。このような自動焦点動作を利用すれば、測定領域がフォーカシングされる焦点距離を容易に測定できる。
測定領域がフォーカシングされる焦点距離を測定するに当って、映像撮影デバイスの絞りは閉じた状態でもあるが、開放した状態でもありうる。しかし、映像撮影デバイスの絞りを開放した状態で測定領域がフォーカシングされたかどうかをさらに正確に分かるために、映像撮影デバイスの絞りを開放した状態で測定領域がフォーカシングされる焦点距離を測定することが望ましい。
決定部316は、測定領域がフォーカシングされる焦点距離に基づいて複数の測定領域のうち一つを基準成分と決定する。一例として、最も短い焦点距離でフォーカシングされる測定領域を基準成分と決定してもよく、または最も長い焦点距離でフォーカシングされる測定領域を基準成分と決定してもよい。
図5は、本発明の一実施形態による映像データ獲得装置300を利用して獲得した第2映像データの一例である。図5を参考すれば、設定部312は9個の測定領域を設定した。したがって、測定部314は、9個の測定領域それぞれに対して、フォーカシングされる焦点距離を計算した。一例として、“1”番領域がフォーカシングされる焦点距離は“50”であり、“6”番領域がフォーカシングされる焦点距離は“10”であり、“2”番領域がフォーカシングされる焦点距離は“50”である。
決定部316は、測定部314が測定した焦点距離に基づいて9個の測定領域のうち一つの測定領域を基準成分と決定する。この時、決定部314は、最も小さな焦点距離でフォーカシングされる測定領域を基準成分と決定するか、または最も大きい焦点距離でフォーカシングされる測定領域を基準成分と設定できる。提示された実施形態で、最も小さな焦点距離でフォーカシングされる測定領域を基準成分と決定した。
したがって、“6”番領域が基準成分と決定される。
したがって、第1獲得部320は、“6”番領域がフォーカシングされるように焦点距離を維持した状態で、絞り値を変化させつつ複数の2次元映像データを獲得する。一例として、第1獲得部320は、絞りをいずれも閉じた状態で撮影対象を撮影して第1映像データを獲得し、絞りをいずれも開放した状態で撮影対象を撮影して第2映像データを獲得する。
次いで、第2獲得部330は、複数の2次元映像データ間の関係を利用して3次元映像データを獲得する。この時、前述した式(1)が利用できる。
図6は、本発明の一実施形態による映像データ獲得方法に関するフローチャートを示す。図6を参照すれば、段階S610で基準成分がフォーカシングされるように映像撮影デバイスの焦点距離を設定する。基準成分は、撮影される場面を構成する複数の成分のうち所定の条件を満たす成分である。例えば、前記基準成分は、複数の成分のうち映像撮影デバイスとの距離が最小である第1成分や、映像撮影デバイスとの距離が最大である第2成分のうち一つでありうる。
段階S620では、映像撮影デバイスの絞り値を異ならせて複数の2次元映像データを獲得する。この時、映像撮影デバイスの焦点距離は、段階S610で設定された状態に維持することが望ましい。
段階S630では、複数の2次元映像データ間の関係を利用して3次元映像データを獲得する。
図7は、本発明の他の実施形態による映像データ獲得方法に関するフローチャートを示す。図7を参照すれば、段階S710では、映像撮影デバイスの撮影モードを第1モードと設定する。撮影モードは、絞りの開閉状態によって分類されうる。一例として、第1モードは、映像撮影デバイスの許容範囲内で絞りが完全に開放した状態を表し、第2モードは、映像撮影デバイスの許容範囲内で絞りが完全に閉じた状態を表すことができる。
段階S720では、映像撮影デバイスの焦点距離を増加(または減少)させる。この時、焦点距離を変化させる量は実施形態によって多様である。
段階S730では、現在の焦点距離でフォーカシングされる測定領域の存否を判断する。測定領域は場面内で焦点距離を測定するのに使われる領域を意味する。現在の焦点距離でフォーカシングされる測定領域が存在すれば、段階S732で該当測定領域と焦点距離とをバインディングして保存する。
段階S740で、現在の焦点距離が映像撮影デバイスの許容する最大(または最小)焦点距離である場合には、段階S750を行う。しかし、段階S740で、現在の焦点距離が映像撮影デバイスの許容する最大(または最小)焦点距離ではない場合には、段階S720を再び行う。
段階S750で、保存された焦点距離に基づいて最小の焦点距離でフォーカシングされた測定領域を基準成分と決定する。また、映像撮影デバイスの焦点距離を、基準成分がフォーカシングされる焦点距離と設定する。
段階S760では、映像撮影デバイスを利用して撮影対象を撮影する。第1モードは絞りが開放された状態であるため、段階S760で獲得された映像データは基準成分のみ明らかであり、残りの成分はぼやけている第2映像データである。
段階S770で、撮影モードを第2モードに変更する。
段階S780で、映像撮影デバイスを利用して撮影対象を撮影する。第2モードは絞りを閉じた状態であるため、段階S780で獲得された映像データは、場面内のあらゆる領域が明らかな第1映像データである。
段階S790で、第1映像データ及び第2映像データ間の関係を利用して3次元映像データを獲得する。
これに制限されず、前述した本発明の実施形態はコンピュータで実行できるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して前記プログラムを動作させる汎用ディジタルコンピュータで具現できる。
前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVDなど)及びキャリアウェーブ(例えば、インターネットを通じる伝送)などの記録媒体を含む。本発明の実施形態はインターネットを通じて伝送でき、かつコンピュータで読み取り可能なプログラムを含む、搬送波で具現されるデータ信号として具現できる。
これまで本発明についてその望ましい実施形態を中心に説明した。当業者ならば、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現できるということを理解できるであろう。したがって、開示された実施形態は限定的な観点ではなく説明的な観点で考慮されねばならない。本発明の範囲は前述した説明ではなく特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は本発明に含まれていると解釈されねばならない。

Claims (23)

  1. 場面の映像を撮影することで獲得される複数の2次元(2D)映像データを利用して3次元(3D)映像データを獲得する映像データ獲得方法において、
    前記場面の複数の成分のうち基準成分がフォーカシングされるように、映像撮影デバイスの焦点距離を設定する段階と、
    前記撮影デバイスの絞り値を異ならせて前記映像を撮影することで、複数の2次元映像データを、前記設定された焦点距離を持つ前記映像撮影デバイスによって獲得する段階と、
    前記複数の2次元映像データ間の関係を利用して前記3次元映像データを獲得する段階と、を含むことを特徴とする映像データ獲得方法。
  2. 前記基準成分は、
    前記複数の成分のうち、前記映像撮影デバイスとの距離が最小の第1成分、または前記複数の成分のうち、前記映像撮影デバイスとの距離が最大の第2成分であることを特徴とする請求項1に記載の映像データ獲得方法。
  3. 前記焦点距離を設定する段階は、
    複数の焦点測定領域を前記場面内で設定する段階と、
    前記複数の焦点測定領域がそれぞれフォーカシングされる焦点距離を測定する段階と、
    前記測定された焦点距離によって、前記複数の焦点測定領域のうち一つを前記基準成分と決定する段階と、を含むことを特徴とする請求項1に記載の映像データ獲得方法。
  4. 前記基準成分は、
    前記測定された焦点距離のうち最小の焦点距離でフォーカシングされる、前記複数の焦点測定領域のうち第1焦点距離測定領域であることを特徴とする請求項3に記載の映像データ獲得方法。
  5. 前記基準成分は、
    前記測定された焦点距離のうち最大の焦点距離でフォーカシングされる、前記複数の焦点測定領域のうち第2焦点距離測定領域であることを特徴とする請求項3に記載の映像データ獲得方法。
  6. 前記焦点距離を測定する段階は、
    前記映像撮影デバイスの絞り値を最小として、前記複数の焦点測定領域がそれぞれフォーカシングされる焦点距離を測定することを特徴とする請求項3に記載の映像データ獲得方法。
  7. 前記焦点距離を測定する段階は、
    前記映像撮影デバイスの絞り値を最大として、前記複数の焦点測定領域がフォーカシングされる前記焦点距離を測定することを特徴とする請求項3に記載の映像データ獲得方法。
  8. 前記複数の2次元映像データを獲得する段階は、
    前記映像撮影デバイスの絞り値を最小値と設定して前記場面の映像を撮影することで第1映像データを獲得し、そして、前記映像撮影デバイスの絞り値を最大値と設定して前記場面の映像を撮影することで第2映像データを獲得することを特徴とする請求項1に記載の映像データ獲得方法。
  9. 前記3次元映像データを獲得する段階は、
    前記第1映像データ及び前記第2映像データを比較して、前記第2映像データ内のそれぞれのピクセルに対して、焦点が外れた程度を表す情報を生成する段階と、
    前記生成された情報によって、前記複数の2次元映像データに対応する深さマップを生成する段階と、を含むことを特徴とする請求項8に記載の映像データ獲得方法。
  10. 前記焦点距離を設定する段階は、
    前記焦点測定領域及び前記対応する測定された焦点距離それぞれをバインディングして保存する段階をさらに含むことを特徴とする請求項3に記載の映像データ獲得方法。
  11. 前記基準成分は、前記第2映像データ内にフォーカシングされ、前記基準成分を除外した残余領域は、前記第2映像データ内にフォーカシングされないことを特徴とする請求項8に記載の映像データ獲得方法。
  12. 場面の映像を撮影することで獲得される複数の2次元(2D)映像データを利用して3次元(3D)映像データを獲得する装置において、
    前記場面の複数の成分のうち基準成分がフォーカシングされるように、映像撮影デバイスの焦点距離を設定する焦点距離設定部と、
    前記設定された焦点距離を持つ前記映像撮影デバイスで、前記撮影デバイスの絞り値を異ならせて前記映像を撮影することで複数の2次元映像データを獲得する第1獲得部と、
    前記複数の2次元映像データ間の関係を利用して前記3次元映像データを獲得する第2獲得部と、を備えることを特徴とする映像データ獲得装置。
  13. 前記基準成分は、
    前記複数の成分のうち、前記映像撮影デバイスとの距離が最小の第1成分、または前記複数の成分のうち、前記映像撮影デバイスとの距離が最大の第2成分であることを特徴とする請求項12に記載の映像データ獲得装置。
  14. 前記焦点距離設定部は、
    複数の焦点測定領域を前記場面内で設定する設定部と、
    前記複数の焦点測定領域それぞれに対して、前記焦点測定領域がフォーカシングされる焦点距離を測定する測定部と、
    前記測定された焦点距離に基づいて、前記焦点測定領域のうち一つを前記基準成分と決定する決定部と、を備えることを特徴とする請求項12に記載の映像データ獲得装置。
  15. 前記基準成分は、
    前記測定された焦点距離のうち最小の焦点距離でフォーカシングされる、前記複数の焦点測定領域のうち焦点距離測定領域であることを特徴とする請求項14に記載の映像データ獲得装置。
  16. 前記基準成分は、
    前記測定された焦点距離のうち最大の焦点距離でフォーカシングされる、前記複数の焦点測定領域のうち焦点距離測定領域であることを特徴とする請求項14に記載の映像データ獲得装置。
  17. 前記測定部は、
    前記映像撮影デバイスの絞り値を最小として、前記複数の焦点測定領域がそれぞれフォーカシングされる焦点距離を測定することを特徴とする請求項14に記載の映像データ獲得装置。
  18. 前記測定部は、
    前記映像撮影デバイスの絞り値を最大として、前記複数の焦点測定領域がフォーカシングされる前記焦点距離を測定することを特徴とする請求項14に記載の映像データ獲得装置。
  19. 前記第1獲得部は、
    前記映像撮影デバイスの絞り値を最小値と設定して、前記場面の映像を撮影することで第1映像データを獲得し、そして、前記映像撮影デバイスの絞り値を最大値と設定し、前記場面の映像を撮影することで第2映像データを獲得することを特徴とする請求項12に記載の映像データ獲得装置。
  20. 前記第2獲得部は、
    前記第1映像データ及び前記第2映像データを比較して、前記第2映像データ内のそれぞれのピクセルに対して、焦点が外れた程度を表す情報を生成する情報生成部と、
    前記生成された情報によって、前記複数の2次元映像データに対応する深さマップを生成するマップ生成部と、を備えることを特徴とする請求項19に記載の映像データ獲得装置。
  21. 前記焦点距離設定部は、
    前記焦点測定領域及び前記対応する測定された焦点距離それぞれをバインディングして保存することを特徴とする請求項14に記載の映像データ獲得装置。
  22. 前記基準成分は、前記第2映像データ内にフォーカシングされ、前記基準成分を除外した残余領域は、前記第2映像データ内にフォーカシングされないことを特徴とする請求項19に記載の映像データ獲得装置。
  23. 少なくとも一つのコンピュータによって具現され、そして請求項1に記載の方法で行われる、コンピュータで読み取り可能な記録媒体。
JP2011544357A 2009-01-02 2009-12-18 映像データ獲得方法及び装置 Pending JP2012514886A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020090000115A KR20100080704A (ko) 2009-01-02 2009-01-02 영상 데이터 획득 방법 및 장치
KR10-2009-0000115 2009-01-02
PCT/KR2009/007473 WO2010076988A2 (en) 2009-01-02 2009-12-18 Image data obtaining method and apparatus therefor

Publications (1)

Publication Number Publication Date
JP2012514886A true JP2012514886A (ja) 2012-06-28

Family

ID=42310317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011544357A Pending JP2012514886A (ja) 2009-01-02 2009-12-18 映像データ獲得方法及び装置

Country Status (6)

Country Link
US (1) US20100171815A1 (ja)
EP (1) EP2374281A4 (ja)
JP (1) JP2012514886A (ja)
KR (1) KR20100080704A (ja)
CN (1) CN102265627A (ja)
WO (1) WO2010076988A2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012092246A2 (en) * 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
WO2013035427A1 (ja) * 2011-09-09 2013-03-14 富士フイルム株式会社 立体撮像装置および方法
JP5966535B2 (ja) * 2012-04-05 2016-08-10 ソニー株式会社 情報処理装置、プログラム及び情報処理方法
TWI503618B (zh) 2012-12-27 2015-10-11 Ind Tech Res Inst 深度影像擷取裝置、其校正方法與量測方法
US10257506B2 (en) 2012-12-28 2019-04-09 Samsung Electronics Co., Ltd. Method of obtaining depth information and display apparatus
KR102068048B1 (ko) * 2013-05-13 2020-01-20 삼성전자주식회사 3차원 영상 제공 시스템 및 방법
KR102066938B1 (ko) 2013-08-20 2020-01-16 한화테크윈 주식회사 영상 처리 장치 및 방법
TWI549478B (zh) * 2014-09-04 2016-09-11 宏碁股份有限公司 產生三維影像的方法及其電子裝置
KR102191747B1 (ko) * 2019-03-27 2020-12-16 서울대학교산학협력단 거리 측정 장치 및 방법
KR102191743B1 (ko) * 2019-03-27 2020-12-16 서울대학교산학협력단 거리 측정 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133301A (ja) * 2005-11-14 2007-05-31 Nikon Corp オートフォーカスカメラ

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5285231A (en) * 1990-11-29 1994-02-08 Minolta Camera Kabushiki Kaisha Camera having learning function
US5384615A (en) * 1993-06-08 1995-01-24 Industrial Technology Research Institute Ambient depth-of-field simulation exposuring method
TW262541B (ja) * 1994-05-09 1995-11-11 Image Technology Internat Inc
AU6862198A (en) * 1997-04-04 1998-10-30 Alfa Laval Agri Ab Method and apparatus for generating image information when carrying out animal related operations
US6195455B1 (en) * 1998-07-01 2001-02-27 Intel Corporation Imaging device orientation information through analysis of test images
GB2354389A (en) * 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
US20030112508A1 (en) * 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for controlling space magnification for stereoscopic images
JP2004264827A (ja) * 2003-02-10 2004-09-24 Chinon Ind Inc 焦点距離検出方法及び合焦装置
JP4734552B2 (ja) * 2005-03-15 2011-07-27 名古屋市 路面の3次元形状の計測方法及びその装置
FR2887347B1 (fr) * 2005-06-17 2007-09-21 Canon Res Ct France Soc Par Ac Procede et dispositif de construction d'une carte de profondeur d'une image numerique
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US8384763B2 (en) * 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
US8325220B2 (en) * 2005-12-02 2012-12-04 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input
KR100819728B1 (ko) * 2006-09-15 2008-04-07 장순욱 입체카메라용 셔터장치 및 촬상장치
KR20090000115A (ko) 2007-01-03 2009-01-07 손병락 모바일 알에프아이디를 이용한 시각장애인 길안내 시스템및 그 방법
KR100866491B1 (ko) * 2007-01-30 2008-11-03 삼성전자주식회사 영상 처리 방법 및 장치
EP2007135B1 (en) 2007-06-20 2012-05-23 Ricoh Company, Ltd. Imaging apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133301A (ja) * 2005-11-14 2007-05-31 Nikon Corp オートフォーカスカメラ

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6013054327; SCHNEIDER G ET AL: 'Monocular depth perception by evaluation of the blur in defocused images' PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING vol.2, 19941113, pages 116-119 *
JPN6013054331; A.Pentland et al: 'Simple range cameras based on focal error' J. Opt. Soc. Am. A Vol.11, No.11, 199411, pp.2925-2934 *
JPN6013054333; 岩根雅彦: '開口径変化からの距離抽出のための幾何光学モデル' 情報処理学会論文誌 Vol.32, No.6, 199106, p.795-798 *

Also Published As

Publication number Publication date
CN102265627A (zh) 2011-11-30
WO2010076988A2 (en) 2010-07-08
EP2374281A4 (en) 2012-11-21
US20100171815A1 (en) 2010-07-08
EP2374281A2 (en) 2011-10-12
KR20100080704A (ko) 2010-07-12
WO2010076988A3 (en) 2010-09-23

Similar Documents

Publication Publication Date Title
JP2012514886A (ja) 映像データ獲得方法及び装置
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
US8810634B2 (en) Method and apparatus for generating image with shallow depth of field
JP5260705B2 (ja) 3次元拡張現実提供装置
CN109255810B (zh) 图像处理装置及图像处理方法
TWI538512B (zh) 調整對焦位置的方法及電子裝置
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5814692B2 (ja) 撮像装置及びその制御方法、プログラム
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
CN104639927A (zh) 拍摄立体影像的方法以及电子装置
TWI543582B (zh) 影像編輯方法以及相關之模糊參數建立方法
JP5929922B2 (ja) 画像処理装置および画像処理方法
JP2014022806A (ja) 撮像装置および撮像装置制御方法
JP2019164011A (ja) 測距カメラ
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
KR20100087920A (ko) 영상 데이터 획득 방법 및 장치
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP6502640B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
TWI605418B (zh) 影像編輯方法以及影像處理裝置
JP7328589B2 (ja) 測距カメラ
JP2013074428A (ja) 自分撮り判断装置、撮像装置、プログラム及び自分撮り判断方法
JP6608238B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP2013021637A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140610