本出願は、ここで全体的に参照として統合される、大韓民国特許庁に2009年1月2日付きで提出された特許出願第10−2009−0000115号を優先権とする。
本発明の実施形態を明らかにするために参照が提供され、実施形態は添付した図面に図示され、明細書全般にかけて同一な参照番号は同一な構成を示す。以下、添付した図面を参考にして本発明の望ましい実施形態を詳細に説明する。
2次元(2D)映像データを利用して3次元(3D)映像データを生成するためには、撮影対象とカメラ間の距離を表す情報が使われる。これらの情報の一例が深さ情報である。深さ情報は、2次元映像データを構成するピクセル別に、ピクセルが表す対象とカメラとがいかほど離れているかを表す。
深さ情報を獲得するためには、3つの方法を使用できる。
第1に、撮影された事物の形態を分析して深さ情報を獲得できる。この方法は、1枚の2次元映像データを利用するという点では経済的である。しかし、事物の形態を分析する装置または方法を具現し難くて実用化が困難であるという問題点がある。
第2に、同じ対象を異なる角度で撮影した2つ以上の2次元映像データを分析して深さ情報を獲得することである。この方法は、具現が容易であるという点で多く使われる方法である。しかし、同じ対象を異なる角度で撮影するためには、映像撮影デバイス(例えば、カメラ)が相異なる光路を持つ複数の光学系を備えねばならない。光学系は高価の物品であるため、映像撮影デバイスが光学系を2つ以上備えることは非経済的である。
第3に、同じ対象を撮影した2つ以上の2次元映像データを分析して3次元映像データを獲得できる。一例として、ここで参照として統合される、“Simple range cameras based on focal error”(A.Pentland,S.Scherock,T.Darrell,and B.Girod)論文には、焦点の合う映像と焦点の合わない映像とを分析して深さ情報を獲得する構成が開示されている。下記の式(1)は、前述した論文で抜粋した2つ以上の2次元映像データを利用して深さ情報を獲得するのに使われる数式である。式(1)は、2つ以上の映像データを利用して3次元映像データを獲得する一例に過ぎず、本発明がこれに限定されるものではない。式(1)は次の通りである。
式(1)で、fは、カメラレンズの焦点値であり、Dは、カメラとレンズとの間に位置した映像面間の距離であり、rは、焦点が合わずに撮影対象がぼやけて表示される部分の半径である。また、kは、変換定数であり、f
numberは、カメラのf数値であって、カメラレンズの焦点距離をレンズ絞りで割った値である。このうち、rを除外した残りの値はカメラの物理的な条件と関連しているため、撮影と同時に獲得できる。したがって、撮影された映像からr値を獲得すれば、深さ情報を獲得できる。 式(1)で使われるカメラレンズの焦点値fは、レンズの物理的な特徴を表すものであって、同じカメラで撮影対象を撮影する間には焦点値fを変更できない。しかし、後述する焦点距離は、レンズ間の距離を調節して撮影対象をフォーカシングさせるものであって、それにより、同じカメラで撮影対象を撮影する間にも焦点距離を変更できる。
式(1)のように、2つ以上の2次元映像データを利用して深さ情報を獲得しようとする場合、一つの2次元映像データは、撮影される場面を構成するあらゆる成分が明らかに表され、他の一つの2次元映像データは、撮影される場面を構成する成分のうち一部の成分は明らかに表され、残りの成分はぼやけて表されることが望ましい。以下では、説明の便宜上、場面内のあらゆる成分が明らかに表される映像データを第1映像データと命名し、一部成分のみ明らかに表される映像データを第2映像データと命名する。
本明細書で成分とは、撮影される場面を所定サイズに分けた片を意味する。あらゆる成分のサイズは同一でも、異なってもよい。一例として、人間が立っている場面を撮影しようとする場合、“人間”が前記撮影される場面の一つの成分になることもあり、“人間”の“腕”及び“脚”が前記撮影される場面の成分になることもある。
場面を構成するあらゆる構成成分が明らかに表される第1映像データと一部構成成分だけ明らかに表される第2映像データを獲得するための一つの方法は、映像撮影デバイスの絞り値を異ならせて同じ場面を撮影することである。絞り値を異ならせて同じ場面を撮影した本発明の一実施形態に関する詳細な説明は、図1の(a)及び図1の(b)で後述する。
図1の(a)は、本発明の一実施形態による映像撮影デバイスの絞りを閉じた状態で撮影対象を撮影した例である。図1の(a)の左側には、絞りを閉じた映像撮影デバイスの一例が図示される。絞りを閉じた状態で撮影対象を撮影すれば、図1の(a)の右側のように撮影される場面内のあらゆる構成成分が明らかに表される。したがって、映像撮影デバイスの絞りを閉じた状態で撮影対象を撮影して第1映像データを獲得できる。
図1の(b)は、本発明の一実施形態による映像撮影デバイスの絞りを開放した状態で撮影対象を撮影した例である。図1の(b)の左側には、絞りが開放された映像撮影デバイスの一例が図示される。絞りを開放した状態で撮影対象を撮影すれば、図1の(b)の右側のように撮影される場面内の一部構成成分のみ明らかに表される。すなわち、フォーカシングされた特定領域は明らかに表され、残りの領域はぼやけて表される。したがって、映像撮影デバイスの絞りを開放した状態で撮影対象を撮影して第2映像データを獲得できる。
図1の(a)及び図1の(b)では、映像撮影デバイスの絞り値を異ならせて第1映像データと第2映像データとを獲得したが、第1映像データと第2映像データとを獲得する方法がこれに限定されるものではない。
第1映像データと第2映像データとが獲得されれば、式(1)によって深さ情報を獲得できる。式(1)によって深さ情報を計算する場合、該当ピクセルが表す事物が基準位置(例えば、カメラ)からいかほど離れているかが分かる。しかし、該当ピクセルが表す事物が基準位置の前方に位置しているか、または後方に位置しているかは分からない。以下では、図2を参考までにかかる問題点を説明する。
図2は、本発明の一実施形態による映像獲得装置を利用して獲得した第2映像データの一例である。図2を参考にすれば、第2映像データ内の“5”番領域と“7”番領域とが最も明らかであることが分かる。これは、“5”番領域と“7”番領域とがフォーカシングされたことを意味する。式(1)によって“r”値を計算すれば、“5”番領域及び“7”番領域に該当する“r”値が最小となる。この時、“5”番領域または“7”番領域が表す事物の位置が基準位置となる。
一方、残りの領域は“5”番領域及び“7”番領域に比べてぼやけて表されるようになる。式(1)によって“r”値を計算すれば、“5”番領域及び“7”番領域に該当する“r”値に比べて残りの領域に該当する“r”値が大きいということが分かる。式(1)では焦点が外れた程度に比例して、“r”値が大きくなる。したがって、領域が表す“r”値が大きければ大きいほど、該当領域が表す事物は基準位置から遠く離れる。
もし、“4”、“1”、“8”番領域がぼやけている程度(すなわち、焦点が外れた程度)が同一ならば、式(1)によって“4”、“1”、“8”番領域に対して計算した“r”値も同一である。これは、“4”、“1”、“8”番領域に該当する事物それぞれは、基準位置から同じ距離ほど離れていることを意味する。
しかし、“4”、“1”、“8”番領域に該当する事物がいずれも基準位置の前方に位置しているか、またはいずれも基準位置の後方に位置しているかが分からない。すなわち、サイズに関する情報は提供されるが、符号に関する情報は提供されない。
したがって、“4”番領域が表す事物が“5”番領域が表す事物より“10cm”前方に位置し、“6”番領域が表す事物が“5”番領域が表す事物より“10cm”後方に位置するにもかかわらず、“4”番領域が表す事物と“6”番領域が表す事物とがいずれも基準位置の前方(または後方)に位置すると判断される恐れがある。
これらの問題点を解決するための一つの方法としては、撮影される場面内の成分のうち最も遠いところに位置した成分がフォーカシングされるように、映像会得装置の焦点距離を調節して第2映像データを獲得できる。この場合、場面内のあらゆる成分はフォーカシングされた成分より近いところに位置する。
同様に、場面内の成分のうち最も近いところに位置した成分がフォーカシングされるように、焦点距離を調節して第2映像データを獲得できる。この場合、場面内のあらゆる成分はフォーカシングされた成分より遠いところに位置するようになる。
図3は、本発明の一実施形態による映像データ獲得装置に関するブロック図を示す。図3を参照すれば、本発明の一実施形態による映像データ獲得装置300は、焦点距離設定部310、第1獲得部320及び第2獲得部330を備える。求められていなくても、前記焦点距離設定部310、第1獲得部320及び第2獲得部330は、一つ以上のチップまたは集積回路上で一つ以上のプロセッサーまたはプロセシングエレメントでありうる。
焦点距離設定部310は、撮影される場面を構成する複数の成分のうち、所定の条件を満たす成分の基準成分がフォーカシングされるように映像撮影デバイスの焦点距離を設定する。基準成分は実施形態によって様々でありうる。一例として、場面を構成する複数の成分のうち、映像撮影デバイスから最も遠いところに位置した第1成分を基準成分と設定してもよく、映像撮影デバイスから最も近いところに位置した第2成分を基準成分と設定してもよい。
第1成分または第2成分を基準成分と設定するためには、場面を構成するあらゆる成分と映像撮影デバイスとの距離を測定することが望ましい。しかし、場面内のあらゆる成分と映像撮影デバイスとの距離を測定するということは実質的に不可能である。したがって、場面内で一つ以上の領域を指定し、指定された領域と映像撮影デバイスとの距離を測定した後、これら領域のうち一つを基準位置と設定することが望ましい。第1成分または第2成分を基準成分と設定する一例に関する詳細な説明は、図4で後述する。
第1獲得部320は、映像撮影デバイスの絞り値を異ならせて複数の2次元映像データを獲得する。この時、映像撮影デバイスの焦点距離は、焦点距離設定部310で設定された焦点距離を維持することが望ましい。
さらに詳細には、第1獲得部320は、映像撮影デバイスの絞り値を最小値(例えば、前記絞りが開放される時)に設定して撮影対象を撮影することで、第1映像データを獲得する。次いで、第1獲得部320は、映像撮影デバイスの絞り値を最大値と設定して同じ撮影対象を撮影することで、第2映像データを獲得する。前述したように、第2映像データでは基準成分が明らかに表され、残りの成分はぼやけて表される。
第2獲得部330は、複数の2次元映像データ間の関係を利用して3次元映像データを獲得する。第2獲得部330は、情報生成部(図示せず)及び深さマップ生成部(図示せず)を備えることができる。情報生成部(図示せず)は第1映像データと第2映像データとを比較して、第2映像データ内のピクセルそれぞれに対して焦点が外れた程度を表す情報を生成する。焦点が外れた程度を表す情報は、式(1)のrである。
深さマップ生成部(図示せず)は生成された情報に基づいて、2次元映像データに対応する深さマップを生成する。
図4は、図3の焦点距離設定部310の一例に関するブロック図を示す。図4を参照すれば、本発明の一実施形態による焦点距離設定部310は、設定部312、測定部314及び決定部316を備える。求められていなくても、前記設定部312、測定部314及び決定部316は、一つ以上のチップまたは集積回路上で一つ以上のプロセッサーまたはプロセシングエレメントでありうる。
設定部312は、焦点距離を測定するのに使われる少なくとも一つの焦点距離測定領域を場面内で設定する。焦点距離測定領域はユーザが直接指定してもよいが、設定部312が自動で指定してもよい。
測定部314は、測定領域それぞれがフォーカシングされる焦点距離を測定する。しかし、これに制限されず、前記測定部314は、ユーザの操作なしでも特定領域がフォーカシングされるようにする自動焦点(AF)動作を使用できる。このような自動焦点動作を利用すれば、測定領域がフォーカシングされる焦点距離を容易に測定できる。
測定領域がフォーカシングされる焦点距離を測定するに当って、映像撮影デバイスの絞りは閉じた状態でもあるが、開放した状態でもありうる。しかし、映像撮影デバイスの絞りを開放した状態で測定領域がフォーカシングされたかどうかをさらに正確に分かるために、映像撮影デバイスの絞りを開放した状態で測定領域がフォーカシングされる焦点距離を測定することが望ましい。
決定部316は、測定領域がフォーカシングされる焦点距離に基づいて複数の測定領域のうち一つを基準成分と決定する。一例として、最も短い焦点距離でフォーカシングされる測定領域を基準成分と決定してもよく、または最も長い焦点距離でフォーカシングされる測定領域を基準成分と決定してもよい。
図5は、本発明の一実施形態による映像データ獲得装置300を利用して獲得した第2映像データの一例である。図5を参考すれば、設定部312は9個の測定領域を設定した。したがって、測定部314は、9個の測定領域それぞれに対して、フォーカシングされる焦点距離を計算した。一例として、“1”番領域がフォーカシングされる焦点距離は“50”であり、“6”番領域がフォーカシングされる焦点距離は“10”であり、“2”番領域がフォーカシングされる焦点距離は“50”である。
決定部316は、測定部314が測定した焦点距離に基づいて9個の測定領域のうち一つの測定領域を基準成分と決定する。この時、決定部314は、最も小さな焦点距離でフォーカシングされる測定領域を基準成分と決定するか、または最も大きい焦点距離でフォーカシングされる測定領域を基準成分と設定できる。提示された実施形態で、最も小さな焦点距離でフォーカシングされる測定領域を基準成分と決定した。
したがって、“6”番領域が基準成分と決定される。
したがって、第1獲得部320は、“6”番領域がフォーカシングされるように焦点距離を維持した状態で、絞り値を変化させつつ複数の2次元映像データを獲得する。一例として、第1獲得部320は、絞りをいずれも閉じた状態で撮影対象を撮影して第1映像データを獲得し、絞りをいずれも開放した状態で撮影対象を撮影して第2映像データを獲得する。
次いで、第2獲得部330は、複数の2次元映像データ間の関係を利用して3次元映像データを獲得する。この時、前述した式(1)が利用できる。
図6は、本発明の一実施形態による映像データ獲得方法に関するフローチャートを示す。図6を参照すれば、段階S610で基準成分がフォーカシングされるように映像撮影デバイスの焦点距離を設定する。基準成分は、撮影される場面を構成する複数の成分のうち所定の条件を満たす成分である。例えば、前記基準成分は、複数の成分のうち映像撮影デバイスとの距離が最小である第1成分や、映像撮影デバイスとの距離が最大である第2成分のうち一つでありうる。
段階S620では、映像撮影デバイスの絞り値を異ならせて複数の2次元映像データを獲得する。この時、映像撮影デバイスの焦点距離は、段階S610で設定された状態に維持することが望ましい。
段階S630では、複数の2次元映像データ間の関係を利用して3次元映像データを獲得する。
図7は、本発明の他の実施形態による映像データ獲得方法に関するフローチャートを示す。図7を参照すれば、段階S710では、映像撮影デバイスの撮影モードを第1モードと設定する。撮影モードは、絞りの開閉状態によって分類されうる。一例として、第1モードは、映像撮影デバイスの許容範囲内で絞りが完全に開放した状態を表し、第2モードは、映像撮影デバイスの許容範囲内で絞りが完全に閉じた状態を表すことができる。
段階S720では、映像撮影デバイスの焦点距離を増加(または減少)させる。この時、焦点距離を変化させる量は実施形態によって多様である。
段階S730では、現在の焦点距離でフォーカシングされる測定領域の存否を判断する。測定領域は場面内で焦点距離を測定するのに使われる領域を意味する。現在の焦点距離でフォーカシングされる測定領域が存在すれば、段階S732で該当測定領域と焦点距離とをバインディングして保存する。
段階S740で、現在の焦点距離が映像撮影デバイスの許容する最大(または最小)焦点距離である場合には、段階S750を行う。しかし、段階S740で、現在の焦点距離が映像撮影デバイスの許容する最大(または最小)焦点距離ではない場合には、段階S720を再び行う。
段階S750で、保存された焦点距離に基づいて最小の焦点距離でフォーカシングされた測定領域を基準成分と決定する。また、映像撮影デバイスの焦点距離を、基準成分がフォーカシングされる焦点距離と設定する。
段階S760では、映像撮影デバイスを利用して撮影対象を撮影する。第1モードは絞りが開放された状態であるため、段階S760で獲得された映像データは基準成分のみ明らかであり、残りの成分はぼやけている第2映像データである。
段階S770で、撮影モードを第2モードに変更する。
段階S780で、映像撮影デバイスを利用して撮影対象を撮影する。第2モードは絞りを閉じた状態であるため、段階S780で獲得された映像データは、場面内のあらゆる領域が明らかな第1映像データである。
段階S790で、第1映像データ及び第2映像データ間の関係を利用して3次元映像データを獲得する。
これに制限されず、前述した本発明の実施形態はコンピュータで実行できるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して前記プログラムを動作させる汎用ディジタルコンピュータで具現できる。
前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVDなど)及びキャリアウェーブ(例えば、インターネットを通じる伝送)などの記録媒体を含む。本発明の実施形態はインターネットを通じて伝送でき、かつコンピュータで読み取り可能なプログラムを含む、搬送波で具現されるデータ信号として具現できる。
これまで本発明についてその望ましい実施形態を中心に説明した。当業者ならば、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現できるということを理解できるであろう。したがって、開示された実施形態は限定的な観点ではなく説明的な観点で考慮されねばならない。本発明の範囲は前述した説明ではなく特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異点は本発明に含まれていると解釈されねばならない。