JP2008204458A - 2次元実写映像から3次元モデルを生成する方法及び装置 - Google Patents

2次元実写映像から3次元モデルを生成する方法及び装置 Download PDF

Info

Publication number
JP2008204458A
JP2008204458A JP2008034898A JP2008034898A JP2008204458A JP 2008204458 A JP2008204458 A JP 2008204458A JP 2008034898 A JP2008034898 A JP 2008034898A JP 2008034898 A JP2008034898 A JP 2008034898A JP 2008204458 A JP2008204458 A JP 2008204458A
Authority
JP
Japan
Prior art keywords
dimensional
image
dimensional model
edge
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008034898A
Other languages
English (en)
Other versions
JP4964801B2 (ja
Inventor
Keunho Kim
根 豪 金
Teru Cho
輝 張
Do-Kyoon Kim
道 均 金
Seok-Yun Jeong
錫 潤 鄭
Anton Konouchine
コノウチン アントン
Vladimir Vezhnevets
ベゼネベツ ウラディミール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2008204458A publication Critical patent/JP2008204458A/ja
Application granted granted Critical
Publication of JP4964801B2 publication Critical patent/JP4964801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

【課題】 2次元実写映像から3次元モデルを生成する方法及び装置を提供する。
【解決手段】 2次元実写映像のいずれか一つの客体内の少なくとも一つ以上の消失点に収斂するエッジ延長線の直線方程式を利用して、この消失点に対応する面の平面方程式を算出し、それを利用して客体に対する3次元モデルを生成することによって、3次元モデル生成過程での3次元幾何情報の算出のための計算が簡単であり、かつ正確に3次元モデルを生成できる。
【選択図】 図1

Description

本発明は、コンピュータビジョン分野での映像処理に係り、特に2次元実写映像から3次元モデルを生成する方法及び装置に関する。
3次元モデリング技術は、コンピュータグラフィックス分野やコンピュータビジョン分野で多くの研究が進められている。コンピュータグラフィックス分野は、3次元空間での客体の幾何情報及び質感情報をモデリングする精巧なCAD(Computer Aided Design)システムを開発する方向に進められてきた。しかし、かかる方式は、実際の世界での客体の幾何情報が非常に複雑であり、照明効果を正確にモデリングしがたいため、写実的な映像を生成しがたいという問題点があった。
コンピュータビジョン分野は、2次元映像から3次元の幾何情報を算出し、実際の映像を利用して実際の世界の照明条件下で客体の質感情報を算出する方向に進められてきた。かかる2次元映像から3次元の幾何情報を算出する従来の方式としては、“Single view metrology”(Criminisi,1999)、“Image−based modeling and photo editing”(Byong Mok Oh,2001)、“Using Geometric Constraints Through Parallelepipeds for Calibration and 3D Modelling”(Wilczkowiak,2005)などがある。しかし、かかる方式は、3次元の幾何情報の算出のための計算が非常に複雑であるという問題点があった。
2002年に“Derek Hoeim”により発表された“AutomaticPhoto Pop−up”方式は、前記された方式よりその計算が非常に簡単なものであって、本を開けば、絵が飛び出す子供のポップアップブックに着眼したものである。すなわち、この方式は、2次元実写映像を地面、垂直及び空領域に区分し、映像内の地面と垂直との境界を推定する。次いで、この方式は、このように推定された境界を基準として2次元実写映像を構成する客体をカットして折ることによって、3次元モデルを生成する。しかし、この方式も、地面と垂直との境界が正しく設定されなければ、正確な3次元モデルが得られないという問題点があった。例えば、客体が建物であれば、建物と地面との間に自動車などが位置し、これにより、地面と垂直との境界が正しく設定されない。
本発明が解決しようとする課題は、3次元モデルの生成過程での3次元の幾何情報の算出のための計算が簡単であり、かつ建物と地面との間に自動車などが位置する場合にも正確に3次元モデルを生成可能にする装置及び方法を提供するところにある。
本発明が解決しようとする他の課題は、前記方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供するところにある。
本発明が解決しようとする課題は、前記したような課題に限定されず、さらに他の課題が存在しうる。これは、当業者ならば、下記の記載から明確に理解される。
前記課題を解決するための本発明による3次元モデルの生成方法は、2次元映像のいずれか一つの客体内で、映像情報の変化が臨界値以上である地点に該当するエッジを検出するステップと、前記検出されたエッジの延長線が交差する地点である少なくとも一つ以上の消失点に収斂するエッジ延長線の幾何情報を利用して、前記消失点に対応する前記客体の面の幾何情報を算出するステップと、前記2次元映像のデータ及び前記算出された面の幾何情報を利用して、前記客体に対する3次元モデルを生成するステップとを含む。
前記他の課題を解決するために、本発明は、前記した3次元モデルの生成方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供する。
前記課題を解決するための本発明による3次元モデル生成装置は、2次元映像のいずれか一つの客体内で、映像情報の変化が臨界値以上である地点に該当するエッジを検出するエッジ検出部と、前記検出されたエッジの延長線が交差する地点である少なくとも一つ以上の消失点に収斂するエッジ延長線の幾何情報を利用して、前記消失点に対応する前記客体の面の幾何情報を算出する面情報算出部と、前記2次元映像のデータ及び前記算出された面の幾何情報を利用して、前記客体に対する3次元モデルを生成する3次元モデル生成部とを備える。
前記さらに他の課題を解決するための本発明によるナビゲーションシステムでのナビゲーション方法は、2次元映像のいずれか一つの客体内で、映像情報の変化が臨界値以上である地点に該当するエッジの延長線が交差する地点に基づいて前記客体の面の幾何情報を算出することによって、前記客体に対する3次元モデルを生成するステップと、前記生成された3次元モデルを含む3次元モデルのうち、前記ナビゲーションシステムの現在位置情報に該当する3次元モデルを抽出し、前記抽出された3次元モデルを前記ナビゲーションシステムが装着された移動体の進行方向に該当する2次元平面上にレンダリングするステップとを含む。
前記さらに他の課題を解決するための本発明によるナビゲーションシステムは、2次元映像のいずれか一つの客体内で、映像情報の変化が臨界値以上である地点に該当するエッジの延長線が交差する地点に基づいて前記客体の面の幾何情報を算出することによって、前記客体に対する3次元モデルを生成する3次元モデル生成装置と、前記生成された3次元モデルを保存するメモリと、前記メモリに保存された3次元モデルのうち、前記ナビゲーションシステムの現在位置情報に該当する3次元モデルを抽出し、前記抽出された3次元モデルを前記ナビゲーションシステムが装着された移動体の進行方向に該当する2次元平面上にレンダリングするレンダリング装置とを備える。
本発明によれば、2次元実写映像のいずれか一つの客体内の少なくとも一つ以上の消失点に収斂するエッジ延長線の直線方程式を利用して、この消失点に対応する面の平面方程式を算出し、それを利用して客体に対する3次元モデルを生成することによって、3次元モデル生成過程での3次元幾何情報の算出のための計算が簡単である。特に、本発明によれば、消失点に収斂するエッジ延長線のうち、客体内で最も中間に位置したエッジ延長線の直線方程式を利用して、前記客体の面の平面方程式を算出することによって、建物と地面との間に自動車などが位置する場合にも正確に3次元モデルを生成できる。
また、本発明によれば、客体内のエッジの形態に基づいて客体の複雑度を決定し、これにより、本発明による面の幾何情報算出方式、従来の3次元モデリング方式または今後開発される3次元モデリング方式を選択的に適用可能にすることによって、最適の3次元モデリング過程をなした。また、前記したように、本発明による3次元モデリング方式は、その計算が簡単であり、かつ正確であるため、ナビゲーションシステムの内部に直接適用される場合に、3次元モデルを保存するメモリの容量を低減でき、ユーザーにさらに正確なナビゲーション画面を提供できる。
以下、図面を参照して、本発明の望ましい実施形態を詳細に説明する。
図1は、本発明の望ましい一実施形態による3次元モデル生成装置の構成図である。図1に示すように、本実施形態による3次元モデル生成装置は、客体特定部11、ユーザーインターフェース12、エッジ検出部13、客体分類部14、面情報算出部15、第1 3次元モデル生成部16及び第2 3次元モデル生成部17から構成される。
客体特定部11は、2次元実写映像内の映像特性の変化及びユーザーインターフェース12に入力されたユーザー入力情報のうち少なくとも一つ以上に基づいて、2次元実写映像を構成する少なくとも一つ以上の客体を特定する。すなわち、客体特定部11は、2次元実写映像内の映像特性の変化に基づいて自動的に客体を特定してもよく、ユーザーインターフェース12に入力されたユーザー入力情報に基づいて手動的に客体を特定してもよく、この両者に基づいて半自動的に客体を特定してもよい。
特に、本実施形態では、客体を特定するために色々な2次元実写映像特性のうちテクスチャーを使用する。本実施形態でのテクスチャーは、3次元モデルを表現するための情報のうち幾何情報を除いたあらゆる情報を意味する。以下でも同様である。すなわち、客体特定部11は、2次元実写映像を構成する画素間のテクスチャーが異なる領域の境界に該当する客体の境界を検出し、その検出結果に基づいて客体を特定する。
図2は、図1に示した客体特定部が自動的に客体を特定する場合を示す図である。図2の(a)は、デジタルカメラを使用して撮影された都心の2次元実写映像である。この2次元実写映像は、地面、建物及び空から構成される。図2の(a)を参照するに、地面、建物及び空のテクスチャーは異なるということが分かる。したがって、客体特定部11は、2次元実写映像の画素間のテクスチャーが異なる領域の境界に該当する地面の境界、建物の境界、空の境界を検出する。図2の(b)は、客体特定部11により検出された地面の境界21、建物の境界22、空の境界23を示したものである。また、客体特定部11は、このように検出された建物の境界を地面方向に延びることによって、建物の境界24を特定できる。
また、客体特定部11は、ユーザーインターフェース12に入力されたユーザー入力情報に基づいて手動的に客体を特定できるが、この場合には、ユーザーがユーザーインターフェース12、例えばタッチスクリーン入力装置などを利用して客体の境界いずれをも描く場合である。また、客体特定部11は、2次元実写映像内の映像特性の変化及びユーザーインターフェース12に入力されたユーザー入力情報に基づいて、2次元実写映像を構成する少なくとも一つ以上の客体を特定できる。自動的に客体を特定する方式は、ユーザーの立場では便利であるが、速度が遅いか、またはエラーが発生し、手動的に客体の境界を特定する方式は、ユーザーに多くの負担を与える。
図3は、図1に示した客体特定部が半自動的に客体を特定する場合を示す図である。図3の(a)に示したように、ユーザーがユーザーインターフェース12を利用して、2次元実写映像のうち客体を特定するための検索領域31を指定する。これにより、客体特定部11は、ユーザーインターフェース12に入力されたユーザー入力情報が指定する検索領域に対してのみ客体を特定することによって、完全自動方式よりさらに迅速に客体を特定できる。図3の(b)には、ユーザーにより指定された検索領域に基づいて特定された客体の左右境界32が示されている。
図3の(c)に示したように、ユーザーがユーザーインターフェース12を利用して、2次元実写映像のうち客体のトップライン33を描く。これにより、客体特定部11は、ユーザーインターフェース12に入力されたユーザー入力情報が表す客体のトップラインと、2次元実写映像内のテクスチャーの変化とに基づいて客体を特定することによって、完全自動方式よりさらに正確に客体を特定できる。図3の(d)には、ユーザーにより描かれた客体のトップラインに基づいて特定された客体の境界34が示されている。一方、図3の(e)には、ユーザーにより描かれた客体の概略的な境界35が示されている。このように、ユーザーとの相互作用を通じて客体の境界を半自動的に特定できる。
エッジ検出部13は、客体特定部11により特定された少なくとも一つ以上の客体のうち、現在3次元モデリングしようとする客体(以下、“現在の客体”という)内で、映像情報の変化が臨界値以上である地点を表すエッジを検出する。ここで、臨界値は、本実施形態を数回実行し、その結果に基づいて、本実施形態のユーザーまたは設計者などにより適切に特定される。特に、本実施形態では、現在の客体内でエッジを検出するために色々な映像情報のうち光度を使用する。すなわち、エッジ検出部13は、現在の客体内で光度の変化が臨界値以上である地点を表すエッジを検出する。建物を例として挙げれば、建物は、複数個の窓を備える。したがって、エッジ検出部13は、建物内で光度の変化が臨界値以上である地点に該当する建物のコンクリート表面と窓との境界をエッジとして検出する。
客体分類部14は、エッジ検出部13により検出されたエッジの延長線の形態に基づいて現在の客体の複雑度を決定し、このように決定された現在の客体の複雑度によって、現在の客体を簡単な客体及び複雑な客体のうちいずれか一つに分類する。一般的に、3次元空間でいずれか一面は、その面に存在する三地点と定義される。二地点は、一つの直線に対応するため、3次元空間でいずれか一面は、その面に存在する一地点及び一つの直線と定義されるといえる。したがって、エッジ検出部13により検出されたエッジの延長線の形態が直線であり、この直線を含む面に存在する一地点が決定されるならば、このエッジ延長線に対応する建物の面が定義される。すなわち、客体分類部14は、エッジ検出部13により検出されたエッジの延長線の形態が直線であり、かかる直線形態のエッジの延長線を含む面が2次元の実写映像の地面に垂直である場合に、現在の客体を簡単な客体に分類し、その他の場合に複雑な客体に分類する。
図4Aないし図4Cは、図1に示した客体分類部14での客体分類過程を示す図である。図4Aに示すように、図4Aの(a)に示した現在の客体は、2次元実写映像の地面に対して垂直な一面で構成されている。また、図4Aの(b)に示した現在の客体は、2次元実写映像の地面に対して垂直な二面で構成されている。また、図4Aの(c)に示した現在の客体は、2次元実写映像の地面に対して垂直な三面で構成されている。図4Aに示した客体は、エッジ検出部13により検出されたエッジの延長線の形態が直線であり、かかる直線形態のエッジの延長線を含む面が2次元実写映像の地面に垂直である場合であるため、客体分類部14により簡単な客体に分類される。
図4Bに示すように、図4Bの(a)に示した現在の客体は、2次元実写映像の地面に対して垂直な一面と垂直でない他の面とで構成されている。図4Bの(b)に示した現在の客体は、2次元実写映像の地面に対して垂直な面で構成されているが、エッジ検出部13により検出されたエッジの延長線の形態が直線でない。図4Cに示すように、図4Cに示した現在の客体の面のうちいずれかは2次元実写映像の地面に対して垂直であり、その他は垂直でない。また、図4Cに示した現在の客体に対して、エッジ検出部13により検出されたエッジの延長線のうち一部は、その形態が直線であり、その他は直線でない。
図4B及び図4Cに示した客体は、エッジ検出部13により検出されたエッジの延長線の形態が直線であり、かかる直線形態のエッジの延長線を含む面が2次元実写映像の地面に垂直である場合ではないため、客体分類部14により複雑な客体に分類される。ただし、前記したような客体分類基準は、下記される本実施形態によって建物の面方程式の算出が可能であるか否かを考慮したものである。したがって、前記した本実施形態ではない他の方式によって建物の面方程式が算出される場合には、前記した客体分類基準は変わるということを当業者ならば理解できる。
面情報算出部15は、客体分類部14により現在の客体が簡単な客体に分類された場合、エッジ検出部13により検出されたエッジの延長線が交差する地点である少なくとも一つ以上の消失点を検出する。
図5は、3次元空間での正六面体に対する2点透視図である。図5に示すように、3次元空間での正六面体が2次元空間の二つの消失点を基準とする透視図法を使用して示されている。透視図は、人間の目により客体が見られる原理が適用された方式で客体の立体感が表現される。特に、3次元空間での正六面体が2次元平面上に投影されれば、正六面体の各面の境界のうち互いに平行な境界は、いずれか一つの共通点で交差する線として投影されるということが分かる。この共通点を消失点という。消失点は、2次元空間で有限点であってもよく、無限点であってもよい。図5に示したように、正六面体の各面の境界のうち互いに平行な水平境界は、有限消失点を有する。一方、正六面体の各面の境界のうち互いに平行な垂直境界は、無限消失点を有する。本実施形態での消失点とは、有限消失点を意味する。
図5から、一つの消失点は、客体の一面に対応するということが分かる。すなわち、面情報算出部15は、このように検出された消失点に収斂するエッジ延長線の幾何情報を利用して、この消失点に対応する客体の面の幾何情報を算出する。本実施形態において、エッジ延長線の幾何情報は、エッジ延長線の直線方程式を意味し、客体の面の幾何情報を客体の面の平面方程式を意味する。ただし、当業者ならば、エッジ延長線の幾何情報または客体の面の幾何情報は、前記した方程式でない他の種類の幾何情報となるということを理解できる。
さらに詳細に説明すると、面情報算出部15は、このように検出された消失点に収斂するエッジ延長線のうち、現在の客体の境界内で最も中間に位置したエッジ延長線(以下、“中間線”という)の直線方程式と、現在の客体と地面との境界(以下、“現在の客体の下線”という)上の任意の一地点の座標値を利用して、この消失点に対応する客体の面の平面方程式とを算出する。特に、消失点の個数が複数個である場合、面情報算出部15は、複数個の消失点のうち第1消失点に収斂するエッジ延長線のうち中間線の直線方程式と、第1消失点に対応する第1面の下線上の任意の一地点の座標値を利用して、第1消失点に対応する第1面の平面方程式とを算出し、複数個の消失点のうち第2消失点に収斂するエッジ延長線のうち中間線の直線方程式と、第2消失点に対応する第2面の下線上の任意の一地点の座標値を利用して、第2消失点に対応する第2面の平面方程式とを算出する。複数個の消失点のうち残りに対しても同様である。
図6及び図7は、図1に示した面情報算出部15での面幾何情報の算出方式を説明するための建物を示す図である。
図6の(a)には、客体特定部11により検出された現在の客体61の境界が示されている。前記したように、3次元空間でいずれか一面は、その面に存在する一地点及び一つの直線と定義されるため、現在の客体の下線上のいずれか一点が決定されねばならない。これにより、面情報算出部15は、図6の(a)に示した現在の客体の下線上の一点62を決定する。特に、現在の客体と地面との境界上に自動車のような障害物が存在して、正しい現在の客体の下線を検出しがたい場合には、ユーザーがこの点を指定することもできる。この場合、面情報算出部15は、ユーザーインターフェース12に入力されたユーザー入力情報に基づいて、図6の(a)に示した現在の客体の下線上の一点62を決定する。また、図6の(b)には、エッジ検出部13により検出されたエッジの延長線が示されている。このエッジ延長線のうち、右側消失点(図示せず)に収斂するエッジ延長線63は、前記で決定された一点62を含む現在の客体61の面に存在する。
図7の(a)には、エッジ検出部13により検出されたエッジの延長線が示されている。このエッジ延長線のうち、左側消失点71に収斂するエッジ延長線72は、現在の客体の左側面に対応し、右側消失点(図示せず)に収斂するエッジ延長線63は、現在の客体の右側面に対応する。図7の(b)には、右側消失点に対応する現在の客体の右側面の平面方程式が算出される過程が示されている。すなわち、面情報算出部15は、右側消失点に収斂するエッジ延長線のうち、現在の客体の境界内で中間に位置した中間線を決定し、この中間線の直線方程式と現在の客体の右側面の下線のうち任意の一地点とを決定し、このように決定された中間線の直線方程式と下線の3次元座標値とを利用して、客体の右側面の平面方程式を算出する。
図8及び図9は、図1に示した面情報算出部15でのいずれか一面の平面方程式を算出する方式を示す図である。
図8に示すように、図8に示した建物は、三面で構成されている。この三面の境界とこの三面それぞれの中間線とが交差する地点がA,B,C及びDで表示されている。この三面のうち左側面を例として挙げれば、この左側面は、線分ABとこの左側面の下線のうちいずれか一点Gとで決定される。以下では、面情報算出部15が線分ABの直線方程式と点Gの3次元座標値とを利用して、左側面の平面方程式を算出する方式を説明する。
図9に示すように、3次元空間でのカメラの位置はOである。ここで、3次元空間とは、2次元実写映像が撮影された実際空間を意味し、カメラの位置は、2次元実写映像を撮影したカメラの位置を意味し、2次元実写映像の中央点となる。特に、カメラは、針穴カメラであって、完壁な投影が可能なものと仮定する。実際のカメラは、かかる針穴カメラではないため、若干の誤差がありうる。線分A’B’を含む建物の面は、3次元空間での実際の建物の面であるが、これは、カメラの焦点距離位置に線分ABを含む建物の面、すなわち2次元実写映像の建物の面として投影される。
線分OAと線分OBとの延長線は、3次元空間の建物の面のA’とB’を通過する。線分CA’と線分DB’とは、地面に対する高さが同一であるため、DB’:OO’=CA’:OO’及びOB’:OB”=OA’:OA”が成立する。これから、線分A’B’と線分A”B”とは、互いに平行であるということが分かる。建物の面C’A’B’D’は、地面に垂直であるため、建物の面の法線は地面に平行である。したがって、線分A”B”に垂直なベクトルが建物の面に垂直なベクトルとなるということが分かる。
面情報算出部15は、カメラの位置Oの3次元座標値及び建物の境界と中間線との交差点Aの3次元座標値から、直線OAの方程式を算出する。また、面情報算出部15は、カメラの位置Oの3次元座標値及び建物の境界と中間線との交差点Bの3次元座標値から、直線OBの方程式を算出する。ここで、カメラの位置O、交差点A及びBの3次元座標値は、この地点に対する2次元実写映像での2次元座標値とカメラの焦点距離とから推定される。
また、面情報算出部15は、このように算出された直線OAの方程式を利用して、直線OAと地面との交差点A”の3次元座標値及び直線OBと地面との交差点B”の3次元座標値を算出し、このように算出された交差点A”及びB”の3次元座標値から、直線A”B”の方程式を算出する。また、面情報算出部15は、このように算出された直線A”B”の方程式を利用して、地面に存在する直線A”B”に垂直なベクトルNを算出する。
また、面情報算出部15は、カメラの位置Oの3次元座標値及び建物の下線のうち任意の一点Gの3次元座標値から、直線OGの方程式を算出する。また、面情報算出部15は、このように算出された直線OGの方程式を利用して、直線OGと3次元空間地面との交差点Gの3次元座標値を算出する。いずれか一面の方程式は、その面に存在するいずれか一点の3次元座標値及びその面に垂直ないずれか一つのベクトル値を知れば算出される。すなわち、ある面に存在する一点が(x0,y0,z0)であり、この面に垂直なベクトルn=ai+bi+ckであれば、この面の方程式は、次の数式の通りである。
a(x−x0)+b(y−y0)+c(z−z0)=0
したがって、面情報算出部15は、このように算出されたベクトルNと交差点Gとの3次元座標値を利用して、中央線ABを含む建物の左側面の平面方程式を算出できる。
第1 3次元モデル生成部16は、2次元実写映像のデータ及び面情報算出部15により算出された面幾何情報を利用して、現在の客体に対する3次元モデルを生成する。ここで、2次元実写映像のデータは、2次元実写映像を構成する画素の2次元座標値及びテクスチャーを意味し、面情報算出部15により算出された面幾何情報は、その面の平面方程式を意味する。さらに詳細に説明すれば、第1 3次元モデル生成部16は、面情報算出部15により算出された各面の平面方程式に、2次元実写映像の現在の客体を構成する画素の2次元座標値、すなわちx座標値、y座標値を代入することによって、現在の客体の各面を構成する画素の3次元座標値、すなわちx座標値、y座標値、z座標値を算出する。また、第1 3次元モデル生成部16は、このように算出された現在の客体の各面を構成する画素の3次元座標値ごとに、この画素それぞれに対応する2次元実写映像のテクスチャーをマッピングすることによって、3次元客体に対する3次元モデルを生成する。
図10は、図1に示した第1 3次元モデル生成部16でのテクスチャーマッピング方式を示す図である。図10に示すように、第1 3次元モデル生成部16は、現在の客体の各面を構成する画素の3次元座標値ごとに、現在の客体の各面に対向するカメラにより撮影されたテクスチャーをマッピングする。さらに詳細に説明すれば、第1 3次元モデル生成部16は、カメラが現在の客体101の左側面102に対しては左側面102に対向するようにカメラの位置を設定し、このように設定された位置のカメラにより撮影された2次元実写映像のテクスチャーを左側面102にマッピングし、カメラが現在の客体101の右側面103に対しては右側面103に対向するようにカメラの位置を設定し、このように設定された位置のカメラにより撮影された2次元実写映像のテクスチャーを右側面103にマッピングする。
第2 3次元モデル生成部17は、客体分類部14により現在の客体が複雑な客体に分類された場合、前述した本実施形態による3次元モデリング方式でない従来の3次元モデリング方式を利用して、現在の客体に対する3次元モデルを生成する。例えば、第2 3次元モデル生成部17は、客体分類部14により複雑な客体に分類された客体に対しては、本明細書の従来技術部分で説明されたオートポップアップアルゴリズムを利用して、この客体に対する3次元モデルを生成できる。
図11は、本発明の望ましい一実施形態による3次元モデルの生成方法のフローチャートである。図11に示すように、本実施形態による3次元モデルの生成方法は、図1に示した3次元モデル生成装置で時系列的に処理されるステップで構成される。したがって、以下で省略した内容であっても、図1に示した3次元モデル生成装置に関して前述した内容は、本実施形態による3次元モデルの生成方法にも適用される。
ステップ111で、3次元モデル生成装置は、2次元実写映像内のテクスチャーの変化及びユーザーインターフェース12に入力されたユーザー入力情報のうち少なくとも一つ以上に基づいて、2次元実写映像を構成する少なくとも一つ以上の客体を特定する。
ステップ112で、3次元モデル生成装置は、ステップ111で特定された少なくとも一つ以上の客体のうち現在の客体内で、光度の変化が臨界値以上である地点を表すエッジを検出する。
ステップ113で、3次元モデル生成装置は、ステップ112で検出されたエッジの延長線の形態に基づいて、現在の客体の複雑度を決定し、このように決定された現在の客体の複雑度によって、現在の客体を簡単な客体及び複雑な客体のうちいずれか一つに分類する。
ステップ114で、3次元モデル生成装置は、ステップ113で現在の客体が簡単な客体に分類された場合には、ステップ115に進み、ステップ113で現在の客体が複雑な客体に分類された場合には、ステップ118に進む。
ステップ115で、3次元モデル生成装置は、ステップ112で検出されたエッジの延長線が交差する地点である少なくとも一つ以上の消失点を検出し、このように検出された消失点に収斂するエッジ延長線のうち中間線の直線方程式と、この消失点に対応する面の下線上の任意の一地点の座標値とを利用して、この消失点に対応する客体の面の平面方程式を算出する。
ステップ116で、3次元モデル生成装置は、ステップ115で算出された各面の平面方程式に、2次元実写映像の現在の客体を構成する画素の2次元座標値、すなわちx座標値、y座標値を代入することによって、現在の客体の各面を構成する画素の3次元座標値、すなわちx座標値、y座標値、z座標値を算出する。
ステップ117で、3次元モデル生成装置は、ステップ116で算出された現在の客体の各面を構成する画素の3次元座標値ごとに、この画素それぞれに対応する2次元実写映像のテクスチャーをマッピングすることによって、3次元客体に対する3次元モデルを生成する。
ステップ118で、3次元モデル生成装置は、前述した本実施形態による3次元モデリング方式でない従来の3次元モデリング方式を利用して、現在の客体に対する3次元モデルを生成する。
図12は、図1に示した3次元モデル生成装置を使用したナビゲーションシステムの構成図である。図12に示すように、図1に示した3次元モデル生成装置を使用したナビゲーションシステムは、カメラ121、3次元モデル生成装置122、メモリ123、GPS(Global Positioning System)124、レンダリング装置125及びディスプレイ装置126から構成される。3次元モデル生成装置122は、図1に示した3次元モデル生成装置と同じものであり、これに関する詳細な説明は、前述したので省略する。
カメラ121は、実際の世界のいずれか一つの場面を撮影することによって、2次元実写映像を生成する。カメラ121は、移動体(例えば、自動車)の進行方向に該当する場面が撮影されるように、移動体の前部分に設置されねばならない。
3次元モデル生成装置122は、カメラ121により生成された2次元実写映像を構成する客体のうちいずれか一つの客体内で、映像情報の変化が臨界値以上である地点に該当するエッジの延長線が交差する地点に基づいて、前記客体の面の幾何情報を算出することによって、前記客体に対する3次元モデルを生成する。
メモリ123は、3次元モデル生成装置122により生成された3次元モデルを保存する。したがって、メモリ123には、カメラ122により撮影された2次元実写映像それぞれに対する3次元モデルが保存されている。
ただし、本実施形態によるナビゲーションシステムは、カメラ121、3次元モデル生成装置122を備えず、本実施形態によるナビゲーションシステムでない他の装置であらかじめ生成された3次元モデルが保存されたメモリ123のみを備えることもできるということを当業者ならば理解できる。しかし、本実施形態による3次元モデル生成装置122は、3次元幾何情報の算出のための計算が簡単であるため、移動体が移動可能なあらゆる地域の3次元モデルが保存された大容量のメモリを備えず、移動体が現在に位置した場面の2次元実写映像を直ちに3次元モデリングし、メモリ123に保存された3次元モデルのうち移動体から遠くなった地域の3次元モデルを削除することによって、少容量のメモリのみでも十分でありうる。
GPS 124は、少なくとも一つ以上のGPS衛星から移動体に装着されたナビゲーションシステムの現在位置情報を受信する。
レンダリング装置125は、メモリ123に保存された3次元モデルのうち、GPS 124により受信されたナビゲーションシステムの現在位置情報に該当する3次元モデルを抽出し、このように抽出された3次元モデルをナビゲーションシステムが装着された移動体の進行方向に該当する2次元平面上にレンダリングする。
ディスプレイ装置126は、レンダリング装置125によりレンダリングされた結果をディスプレイする。
図13は、本発明の望ましい一実施形態によるナビゲーション方法のフローチャートである。図13に示すように、本実施形態によるナビゲーション方法は、図12に示したナビゲーションシステムで時系列的に処理されるステップで構成される。したがって、以下で省略した内容であっても、図12に示したナビゲーションシステムに関して前述した内容は、本実施形態によるナビゲーション方法にも適用される。
ステップ131で、ナビゲーションシステムは、実際の世界のいずれか一つの場面を撮影することによって、2次元実写映像を生成する。
ステップ132で、ナビゲーションシステムは、ステップ131で生成された2次元実写映像を構成する客体のうちいずれか一つの客体内で、映像情報の変化が臨界値以上である地点に該当するエッジの延長線が交差する地点に基づいて、前記客体の面の幾何情報を算出することによって、前記客体に対する3次元モデルを生成する。
ステップ133で、ナビゲーションシステムは、ステップ132で生成された3次元モデルを保存する。
ステップ134で、ナビゲーションシステムは、少なくとも一つ以上のGPS衛星から移動体に装着されたナビゲーションシステムの現在位置情報を受信する。
ステップ135で、ナビゲーションシステムは、ステップ133で保存された3次元モデルを含む3次元モデルのうち、ステップ134で受信されたナビゲーションシステムの現在位置情報に該当する3次元モデルを抽出し、このように抽出された3次元モデルをナビゲーションシステムが装着された移動体の進行方向に該当する2次元平面上にレンダリングする。
ステップ136で、ナビゲーションシステムは、ステップ135でレンダリングされた結果をディスプレイする。
一方、前述した本発明の実施形態は、コンピュータで実行できるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用して、前記プログラムを動作させる汎用デジタルコンピュータで具現されうる。また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に色々な手段を通じて記録される。前記コンピュータで読み取り可能な記録媒体は、磁気記録媒体(例えば、ROM(リードオンリメモリ)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的な読み取り媒体(例えば、CD−ROM、DVDなど)のような記録媒体を含む。
これまで、本発明について、その望ましい実施形態を中心に述べた。当業者は、本発明が、本発明の本質的な特性から逸脱しない範囲で変形された形態に具現可能であるということを理解できるであろう。したがって、開示された実施形態は、限定的な観点ではなく、説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく、特許請求の範囲に表れており、それと同等な範囲内にあるあらゆる相違点は、本発明に含まれていると解釈されねばならない。
本発明は、2次元実写映像から3次元モデルを生成する装置及び方法関連の技術、例えばナビゲーションシステムなどに適用可能である。
本発明の望ましい一実施形態による3次元モデル生成装置の構成図である。 図1に示した客体特定部が自動的に客体を特定する場合を示す図である。 図1に示した客体特定部が半自動的に客体を特定する場合を示す図である。 図1に示した客体分類部での客体分類過程を示す図である。 図1に示した客体分類部での客体分類過程を示す図である。 図1に示した客体分類部での客体分類過程を示す図である。 3次元空間での正六面体に対する2点透視図である。 図1に示した面情報算出部での面幾何情報算出方式を説明するための建物を示す図である。 図1に示した面情報算出部での面幾何情報算出方式を説明するための建物を示す図である。 図1に示した面情報算出部でのいずれか一面の平面方程式を算出する方式を示す図である。 図1に示した面情報算出部でのいずれか一面の平面方程式を算出する方式を示す図である。 図1に示した第1 3次元モデル生成部でのテクスチャーマッピング方式を示す図である。 本発明の望ましい一実施形態による3次元モデル生成方法のフローチャートである。 図1に示した3次元モデル生成装置を使用したナビゲーションシステムの構成図である。 本発明の望ましい一実施形態によるナビゲーション方法のフローチャートである。
符号の説明
11 客体特定部
12 ユーザーインターフェース
13 エッジ検出部
14 客体分類部
15 面情報算出部
16 第1 3次元モデル生成部
17 第2 3次元モデル生成部
121 カメラ
122 3次元モデル生成装置
123 メモリ
124 GPS
125 レンダリング装置
126 ディスプレイ装置

Claims (12)

  1. (a)2次元映像のいずれか一つの客体内で、映像情報の変化が臨界値以上の地点に該当するエッジを検出するステップと、
    (b)前記検出されたエッジの延長線が交差する地点である少なくとも一つ以上の消失点に収斂するエッジ延長線の幾何情報を利用して、前記消失点に対応する前記客体の面の幾何情報を算出するステップと、
    (c)前記2次元映像のデータ及び前記算出された面の幾何情報を利用して、前記客体に対する3次元モデルを生成するステップと、を含むことを特徴とする3次元モデルの生成方法。
  2. 前記エッジ延長線の幾何情報は、前記エッジ延長線の直線方程式であり、前記面の幾何情報は、前記面の平面方程式であることを特徴とする請求項1に記載の3次元モデルの生成方法。
  3. 前記(b)ステップは、前記エッジ延長線の直線方程式及び前記面のいずれか一地点の座標値を利用して、前記面の平面方程式を算出することを特徴とする請求項2に記載の3次元モデルの生成方法。
  4. 前記(b)ステップは、前記消失点に収斂するエッジ延長線のうち、前記客体内で最も中間に位置したエッジ延長線の幾何情報を利用して、前記客体の面の幾何情報を算出することを特徴とする請求項1に記載の3次元モデルの生成方法。
  5. 前記消失点が複数個である場合、
    前記(b)ステップは、前記複数個の消失点のうち第1消失点に収斂するエッジ延長線の幾何情報を利用して、前記第1消失点に対応する前記客体の第1面の幾何情報を算出し、前記複数個の消失点のうち第2消失点に収斂するエッジ延長線の幾何情報を利用して、前記第2消失点に対応する前記客体の第2面の幾何情報を算出することを特徴とする請求項1に記載の3次元モデルの生成方法。
  6. 前記検出されたエッジの形態に基づいて、前記客体の複雑度を決定するステップをさらに含み、
    前記決定された客体の複雑度によって選択的に前記面の幾何情報を算出することを特徴とする請求項1に記載の3次元モデルの生成方法。
  7. 前記2次元映像内の映像特性の変化及びユーザー入力情報のうち少なくとも一つ以上に基づいて、前記2次元映像を構成する少なくとも一つ以上の客体を特定するステップをさらに含み、
    前記(a)ステップは、前記特定された客体のうちいずれか一つの客体内で、前記映像情報の変化が臨界値以上である地点に該当するエッジを検出することを特徴とする請求項1に記載の3次元モデルの生成方法。
  8. 前記2次元映像のデータは、前記2次元映像を構成する画素の2次元座標値及びテクスチャーであり、前記面の幾何情報は、前記面の平面方程式であり、
    前記(c)ステップは、前記面の平面方程式に前記2次元座標値を代入することによって、前記面を構成する画素の3次元座標値を算出し、前記算出された画素の3次元座標値ごとに前記画素それぞれに対応するテクスチャーをマッピングすることを特徴とする請求項1に記載の3次元モデルの生成方法。
  9. 前記(c)ステップは、前記客体の各面を構成する画素の3次元座標値ごとに、前記現在の客体の各面に対向するカメラにより撮影されたテクスチャーをマッピングすることを特徴とする請求項8に記載の3次元モデルの生成方法。
  10. ナビゲーションシステムでのナビゲーション方法において、
    2次元映像のいずれか一つの客体内で、映像情報の変化が臨界値以上である地点に該当するエッジの延長線が交差する地点に基づいて前記客体の面の幾何情報を算出することによって、前記客体に対する3次元モデルを生成するステップと、
    前記生成された3次元モデルを含む3次元モデルのうち、前記ナビゲーションシステムの現在位置情報に該当する3次元モデルを抽出し、前記抽出された3次元モデルを前記ナビゲーションシステムが装着された移動体の進行方向に該当する2次元平面上にレンダリングするステップと、を含むことを特徴とするナビゲーション方法。
  11. 映像内のエッジを検出することによって、前記映像内の客体を識別するステップと、
    前記映像の所定の地面に関して前記識別された客体の検出された地点に基づいて、前記識別された客体の複雑度を決定するステップと、
    前記決定された複雑度に基づいて選択的に前記識別された客体の少なくとも一つの対応面に対する少なくとも一つの消失点を識別し、前記映像の前記少なくとも一つの対応面の決定された点それぞれに関して前記識別された少なくとも一つの消失点を分析することによって、3次元モデルに対する前記少なくとも一面を生成するステップと、
    3次元空間で前記少なくとも一面を組み合わせることによって、前記3次元モデルを生成するステップと、を含むことを特徴とするモデリング方法。
  12. 映像内のエッジを検出することによって、前記映像内の客体を識別するステップと、
    前記識別された客体の少なくとも一つの対応面に対する少なくとも一つの消失点を識別し、前記映像の前記少なくとも一つの対応面の決定された点それぞれと、前記映像の下面に実質的に平行なラインに実質的に垂直な二つのエッジ線の間の各面を横切る中間線である各面内の各対応線に関して、前記識別された少なくとも一つの消失点とを分析することによって、3次元モデルに対する前記少なくとも一面を生成するステップと、
    3次元空間で前記少なくとも一面を組み合わせることによって、前記3次元モデルを生成するステップと、を含むことを特徴とするモデリング方法。
JP2008034898A 2007-02-16 2008-02-15 2次元実写映像から3次元モデルを生成する方法及び装置 Active JP4964801B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070016781A KR101388133B1 (ko) 2007-02-16 2007-02-16 2차원 실사 영상으로부터 3차원 모델을 생성하는 방법 및장치
KR10-2007-0016781 2007-02-16

Publications (2)

Publication Number Publication Date
JP2008204458A true JP2008204458A (ja) 2008-09-04
JP4964801B2 JP4964801B2 (ja) 2012-07-04

Family

ID=39315568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008034898A Active JP4964801B2 (ja) 2007-02-16 2008-02-15 2次元実写映像から3次元モデルを生成する方法及び装置

Country Status (5)

Country Link
US (1) US8254667B2 (ja)
EP (1) EP1959392B1 (ja)
JP (1) JP4964801B2 (ja)
KR (1) KR101388133B1 (ja)
CN (1) CN101246603B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2299290A2 (en) 2009-09-16 2011-03-23 Hitachi, Ltd. Determining system for localization methods combination
KR101370785B1 (ko) 2012-11-06 2014-03-06 한국과학기술원 입체 영상의 깊이 맵 생성 방법 및 장치
KR20150145686A (ko) * 2014-06-20 2015-12-30 주식회사 세인전장 3차원 그래픽 모델을 이용한 영상처리 장치 및 그 방법
KR101631474B1 (ko) * 2015-01-13 2016-06-17 동국대학교 산학협력단 디지털 제조를 위한 3차원 모델 생성 방법
KR101652485B1 (ko) * 2015-02-27 2016-08-31 삼성중공업(주) 3차원 소나 영상 생성 장치 및 방법
KR20180025135A (ko) * 2016-08-30 2018-03-08 숭실대학교산학협력단 단일 이미지를 사용한 내벽 구조 검출 장치 및 방법
JP2019512781A (ja) * 2016-03-09 2019-05-16 ソニー株式会社 特徴追跡及びモデル登録により三次元多視点を再構成するための方法。
JP2020165729A (ja) * 2019-03-28 2020-10-08 東北電力株式会社 距離測定装置、距離測定方法及び距離測定プログラム

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
JP5413081B2 (ja) * 2009-02-18 2014-02-12 セイコーエプソン株式会社 画像表示方法および画像表示装置
EP2513868A4 (en) * 2009-12-16 2014-01-22 Hewlett Packard Development Co ESTIMATING A 3D STRUCTURE FROM A 2D IMAGE
CA2787004C (en) * 2010-01-26 2019-01-15 Saab Ab An automated three dimensional mapping method
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
WO2012126135A1 (en) * 2011-03-21 2012-09-27 Intel Corporation Method of augmented makeover with 3d face modeling and landmark alignment
JP2012215852A (ja) * 2011-03-25 2012-11-08 Semiconductor Energy Lab Co Ltd 画像処理方法、表示装置
TWI486052B (zh) 2011-07-05 2015-05-21 Realtek Semiconductor Corp 立體影像處理裝置以及立體影像處理方法
CN105651201B (zh) * 2011-09-26 2018-08-31 联想(北京)有限公司 三维扫描装置和三维扫描方法
CN103017676B (zh) * 2011-09-26 2016-03-02 联想(北京)有限公司 三维扫描装置和三维扫描方法
MX342021B (es) * 2011-11-29 2016-08-10 Pictometry Int Corp Sistema para la deteccion automatica de la huella de la estructura de imagenes oblicuas.
TW201342303A (zh) * 2012-04-13 2013-10-16 Hon Hai Prec Ind Co Ltd 三維空間圖像的獲取系統及方法
IN2014DN08055A (ja) * 2012-04-24 2015-05-01 Amadeus Sas
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10163261B2 (en) * 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
CN107833267B (zh) * 2012-11-02 2021-11-05 想象技术有限公司 用于图形渲染的几何图形处理方法和图形渲染系统
ITVI20120303A1 (it) * 2012-11-09 2014-05-10 St Microelectronics Srl Metodo per rilevare una linea retta in un'immagine digitale
AU2013222016A1 (en) * 2013-08-30 2015-03-19 Canon Kabushiki Kaisha Method, system and apparatus for determining a property of an image
EP3042358A2 (en) 2013-09-03 2016-07-13 3ditize SL Generating a 3d interactive immersive experience from a 2d static image
WO2016097940A1 (en) 2014-12-16 2016-06-23 3Ditize Sl 3d rotational presentation generated from 2d static images
CN104680532B (zh) * 2015-03-02 2017-12-08 北京格灵深瞳信息技术有限公司 一种对象标注方法及装置
CN104778755B (zh) * 2015-03-27 2017-08-25 浙江理工大学 一种基于区域划分的纹理图像三维重构方法
CN104809940B (zh) * 2015-05-14 2018-01-26 广东小天才科技有限公司 几何立体图形投影装置及投影方法
US20170091993A1 (en) * 2015-09-25 2017-03-30 Microsoft Technology Licensing, Llc 3D Model Generation From Map Data and User Interface
US10032034B2 (en) 2015-10-06 2018-07-24 Microsoft Technology Licensing, Llc MPEG transport frame synchronization
US10210668B2 (en) 2015-11-06 2019-02-19 Microsoft Technology Licensing, Llc Technique for extruding a 3D object into a plane
CN105894575B (zh) * 2016-03-31 2019-05-21 百度在线网络技术(北京)有限公司 道路的三维建模方法和装置
CN106023061A (zh) * 2016-05-18 2016-10-12 深圳市神州龙资讯服务有限公司 一种航拍建筑模型多终端并行计算生成方法
CN106097243A (zh) * 2016-05-31 2016-11-09 上海美迪索科电子科技有限公司 一种利用摄像头拍摄的3d地图快速成型方法
CN107330978B (zh) * 2017-06-26 2020-05-22 山东大学 基于位置映射的增强现实建模体验系统及方法
US10304254B2 (en) 2017-08-08 2019-05-28 Smart Picture Technologies, Inc. Method for measuring and modeling spaces using markerless augmented reality
US10679075B2 (en) * 2017-08-31 2020-06-09 Nec Corporation Dense correspondence estimation with multi-level metric learning and hierarchical matching
US10636137B1 (en) * 2017-10-23 2020-04-28 Amazon Technologies, Inc. System for determining object orientations in an image
EP3627452A1 (en) * 2018-09-21 2020-03-25 Siemens Ltd. China Method, apparatus, computer-readable storage media and a computer program for 3d reconstruction
EP3966789A4 (en) * 2019-05-10 2022-06-29 Smart Picture Technologies, Inc. Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process
KR20210009609A (ko) * 2019-07-17 2021-01-27 에스케이브로드밴드주식회사 조명제어장치 및 조명제어장치의 동작 방법
GB2586060B (en) 2019-08-01 2022-09-21 Sony Interactive Entertainment Inc Surface characterisation apparatus and system
WO2021040342A2 (ko) * 2019-08-23 2021-03-04 주식회사 예간아이티 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
KR102370326B1 (ko) * 2019-08-23 2022-03-04 주식회사 예간아이티 2d 이미지를 활용하여 3d 컨텐츠를 생성하는 영상 처리 방법 및 영상 처리 장치
WO2021058191A1 (en) 2019-09-25 2021-04-01 Osram Gmbh Methods of illuminating an artwork
FR3112412B1 (fr) * 2020-07-09 2023-11-10 Safran Electrical & Power Procédé de génération d’une maquette numérique
KR20220038996A (ko) 2020-09-21 2022-03-29 삼성전자주식회사 특징 임베딩 방법 및 장치
KR102311200B1 (ko) * 2020-11-27 2021-10-13 한국건설기술연구원 Bim 데이터를 기반으로 건설장비 라이브러리를 구축하기 위한 장치 및 그 방법
CN115082618A (zh) * 2022-05-31 2022-09-20 德邦物流股份有限公司 一种立体结构、立体结构的生产方法、系统及设备
KR102561301B1 (ko) * 2023-01-31 2023-07-28 주식회사 씨스텍 2d 이미지 주석 3d 모델 자동 전송 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120374A (ja) * 1997-10-09 1999-04-30 Csk Corp 3次元都市景観情報の作成方法および装置
JPH11232484A (ja) * 1997-12-05 1999-08-27 Wall:Kk 3次元都市データ生成方法、3次元都市データ生成装置及び3次元都市データ調査用測定装置
JP2003006680A (ja) * 2001-06-20 2003-01-10 Zenrin Co Ltd 3次元電子地図データの生成方法
JP2004102474A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 3次元建物モデルデータ生成装置及び3次元都市モデルデータ生成装置及び3次元建物モデルデータ生成方法及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2006268550A (ja) * 2005-03-24 2006-10-05 Xanavi Informatics Corp ナビゲーション装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0596518A3 (en) * 1992-11-06 1994-11-17 Nippon Steel Corp Method and device for determining data representing a three-dimensional object from a perspective view.
JPH07234949A (ja) 1994-02-23 1995-09-05 Hitachi Ltd 透視図作成支援方法および透視図作成支援システム
US5990900A (en) * 1997-12-24 1999-11-23 Be There Now, Inc. Two-dimensional to three-dimensional image converting system
JP2000057378A (ja) * 1998-06-02 2000-02-25 Sony Corp 画像処理装置および画像処理方法、媒体、並びに輪郭抽出装置および輪郭抽出方法
US6822658B1 (en) * 1999-10-25 2004-11-23 Intel Corporation Rendering a silhouette edge
KR100571814B1 (ko) 2002-09-30 2006-04-17 삼성전자주식회사 색상의 공간 예측 부호화를 이용한 영상 부호화 및 복호화방법 및 장치
JP4299010B2 (ja) 2003-01-17 2009-07-22 株式会社パスコ 3次元地理形状モデルのテクスチャ画像取得方法
KR100533328B1 (ko) * 2003-06-27 2005-12-05 한국과학기술연구원 2차원 이미지로부터 3차원 이미지를 생성하는 방법
ITRM20030345A1 (it) * 2003-07-15 2005-01-16 St Microelectronics Srl Metodo per ricavare una mappa di profondita'
KR100718122B1 (ko) 2003-07-16 2007-05-15 삼성전자주식회사 컬러 평면 간 예측을 이용한 무손실 영상 부호화/복호화방법 및 장치
CN101616329B (zh) 2003-07-16 2013-01-02 三星电子株式会社 用于色彩图像的视频编码/解码装置和方法
KR101138393B1 (ko) 2005-07-15 2012-04-26 삼성전자주식회사 부호화 모드에 따른 컬러 성분간 예측을 이용한 컬러 영상및 비디오 부호화/복호화 방법 및 장치
JP4640011B2 (ja) * 2005-07-19 2011-03-02 株式会社セガ 画像処理装置、遠景画像表示方法および遠景画像表示プログラム
JP2007026201A (ja) * 2005-07-19 2007-02-01 Sega Corp 画像処理装置、道路画像描画方法および道路画像描画プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120374A (ja) * 1997-10-09 1999-04-30 Csk Corp 3次元都市景観情報の作成方法および装置
JPH11232484A (ja) * 1997-12-05 1999-08-27 Wall:Kk 3次元都市データ生成方法、3次元都市データ生成装置及び3次元都市データ調査用測定装置
JP2003006680A (ja) * 2001-06-20 2003-01-10 Zenrin Co Ltd 3次元電子地図データの生成方法
JP2004102474A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 3次元建物モデルデータ生成装置及び3次元都市モデルデータ生成装置及び3次元建物モデルデータ生成方法及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2006268550A (ja) * 2005-03-24 2006-10-05 Xanavi Informatics Corp ナビゲーション装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2299290A2 (en) 2009-09-16 2011-03-23 Hitachi, Ltd. Determining system for localization methods combination
US8712687B2 (en) 2009-09-16 2014-04-29 Hitachi, Ltd. Determining system for localization methods combination
KR101370785B1 (ko) 2012-11-06 2014-03-06 한국과학기술원 입체 영상의 깊이 맵 생성 방법 및 장치
KR20150145686A (ko) * 2014-06-20 2015-12-30 주식회사 세인전장 3차원 그래픽 모델을 이용한 영상처리 장치 및 그 방법
KR101655204B1 (ko) * 2014-06-20 2016-09-22 주식회사 세인전장 3차원 그래픽 모델을 이용한 영상처리 장치 및 그 방법
KR101631474B1 (ko) * 2015-01-13 2016-06-17 동국대학교 산학협력단 디지털 제조를 위한 3차원 모델 생성 방법
KR101652485B1 (ko) * 2015-02-27 2016-08-31 삼성중공업(주) 3차원 소나 영상 생성 장치 및 방법
JP2019512781A (ja) * 2016-03-09 2019-05-16 ソニー株式会社 特徴追跡及びモデル登録により三次元多視点を再構成するための方法。
KR20180025135A (ko) * 2016-08-30 2018-03-08 숭실대학교산학협력단 단일 이미지를 사용한 내벽 구조 검출 장치 및 방법
JP2020165729A (ja) * 2019-03-28 2020-10-08 東北電力株式会社 距離測定装置、距離測定方法及び距離測定プログラム

Also Published As

Publication number Publication date
CN101246603A (zh) 2008-08-20
US20080208547A1 (en) 2008-08-28
KR20080076610A (ko) 2008-08-20
US8254667B2 (en) 2012-08-28
EP1959392B1 (en) 2012-10-17
CN101246603B (zh) 2012-11-07
EP1959392A1 (en) 2008-08-20
KR101388133B1 (ko) 2014-04-23
JP4964801B2 (ja) 2012-07-04

Similar Documents

Publication Publication Date Title
JP4964801B2 (ja) 2次元実写映像から3次元モデルを生成する方法及び装置
US11616919B2 (en) Three-dimensional stabilized 360-degree composite image capture
KR101396346B1 (ko) 다수의 2차원 실사 영상들을 이용하여 3차원 영상을생성하는 방법 및 장치
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
RU2642167C2 (ru) Устройство, способ и система для реконструкции 3d-модели объекта
US9519968B2 (en) Calibrating visual sensors using homography operators
US10891795B2 (en) Localization method and apparatus based on 3D color map
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
JP2012190299A (ja) 画像処理装置および方法、並びにプログラム
WO2021146449A1 (en) Visual object history
Saxena et al. 3-d reconstruction from sparse views using monocular vision
TW201516960A (zh) 用於產生三維景象之裝置及由電腦執行之產生三維景象之方法
KR20230005312A (ko) 평면도를 생성하기 위한 방법 및 장치
US20230419526A1 (en) Method, apparatus, and computer-readable medium for room layout extraction
Tian et al. Registration and occlusion handling based on the FAST ICP-ORB method for augmented reality systems
Kiran et al. Automatic hump detection and 3D view generation from a single road image
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
Zhu et al. Toward the ghosting phenomenon in a stereo-based map with a collaborative RGB-D repair
Vezhnevets et al. Interactive image-based urban modeling
Li A Geometry Reconstruction And Motion Tracking System Using Multiple Commodity RGB-D Cameras
JP2000057376A (ja) 新視点画像生成方法
US20230186557A1 (en) Mapping interior environments based on multiple images
JP5122508B2 (ja) 3次元空間データ作成方法及び3次元空間データ作成装置
Guan et al. GRAMO: geometric resampling augmentation for monocular 3D object detection
CN115797602A (zh) 一种基于物体定位添加ar讲解的方法及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120328

R150 Certificate of patent or registration of utility model

Ref document number: 4964801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250