JP7043601B2 - 環境モデルを生成するための方法および装置ならびに記憶媒体 - Google Patents

環境モデルを生成するための方法および装置ならびに記憶媒体 Download PDF

Info

Publication number
JP7043601B2
JP7043601B2 JP2020527790A JP2020527790A JP7043601B2 JP 7043601 B2 JP7043601 B2 JP 7043601B2 JP 2020527790 A JP2020527790 A JP 2020527790A JP 2020527790 A JP2020527790 A JP 2020527790A JP 7043601 B2 JP7043601 B2 JP 7043601B2
Authority
JP
Japan
Prior art keywords
data
images
electronic device
acquisition
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527790A
Other languages
English (en)
Other versions
JP2021503665A (ja
Inventor
ラン、ホー
タン、シャオ
ワン、チエン
ツォウ、コイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2021503665A publication Critical patent/JP2021503665A/ja
Application granted granted Critical
Publication of JP7043601B2 publication Critical patent/JP7043601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs

Description

本開示は、電子デバイス技術の分野に関し、より詳細には、環境モデルを生成するための方法および装置、記憶媒体、ならびに電子デバイスに関する。
拡張現実(AR)技術は、ユーザが目にする実環境を追加情報を含む仮想環境と合成し、合成画像を表示する。実環境を仮想環境で補足するAR技術は、コンピュータグラフィックスを使用して仮想環境を生成する。さらに、コンピュータグラフィックスは、実環境に必要な情報ももたらす。
AR技術において、コンピュータグラフィックスは、実環境に必要な情報をもたらす必要があるため、実環境を認識する必要がある。
本開示の実施形態は、環境モデルを生成するための方法を提供する。この方法は、電子デバイスに適用可能である。この方法は、以下を含む。電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像が取得される。電子デバイスの運動データが、複数の取得時点において取得される。複数の画像および複数の取得時点における運動データが分析され、環境の三次元空間データが生成される。複数の画像が三次元空間データとともにパッケージされ、環境モデルが生成される。
少なくとも1つの実施形態において、複数の取得時点における運動データを取得することは、予め設定された時間期間の間、電子デバイスの初期運動データを取得することと、複数の画像を時間において初期運動データに整列させて、複数の取得時点における電子デバイスの運動データを取得することとを含む。
少なくとも1つの実施形態において、複数の取得時点における運動データを取得することは、複数の画像の取得時に複数の取得時点における電子デバイスの運動データを取得することを含む。
少なくとも1つの実施形態において、複数の画像および複数の取得時点における運動データを分析して、環境の三次元空間データを生成することは、複数の画像および複数の取得時点における運動データを分析して、環境の複数の座標点の座標データを取得することと、複数の座標点の座標データに基づいて、環境の三次元空間データを生成することとを含む。
少なくとも1つの実施形態において、複数の画像および複数の取得時点における運動データを分析して、環境の複数の座標点の座標データを取得することは、複数の画像から選択された2つの画像に基づいて同じ座標点を決定することと、2つの画像の時間間隔を決定することと、複数の取得時点における運動データから選択される時間間隔における運動データに基づいて、移動方向および移動量を決定することと、移動方向および移動量に基づいて、同じ座標点と電子デバイスとの間の相対座標を決定することと、相対座標に基づいて同じ座標点の座標データを決定することとを含む。
少なくとも1つの実施形態において、複数の画像を三次元空間データとパッケージして、環境モデルを生成することは、複数の画像から複数の座標点の各々に対応するメタ画像を取得することと、メタ画像を対応する座標点の座標データに組み合わせて、環境モデルを生成することとを含む。
少なくとも1つの実施形態において、この方法は、複数のデータ種類に基づいて環境モデルの複数のデータインタフェースを提供することをさらに含む。
本開示の実施形態は、環境モデルを生成するための装置をさらに提供する。この装置は、電子デバイスに適用可能であり、電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像を取得するように構成された第1の取得モジュールと、複数の取得時点における電子デバイスの運動データを取得するように構成された第2の取得モジュールと、複数の画像および複数の取得時点における運動データを分析して、環境の三次元空間データを生成するように構成されたデータ分析モジュールと、複数の画像を三次元空間データとパッケージして、環境モデルを生成するように構成されたモデル生成モジュールとを含む。
少なくとも1つの実施形態において、第2の取得モジュールは、予め設定された時間期間の間、電子デバイスの初期運動データを取得するように構成された第2の取得サブモジュールと、複数の画像を時間において初期運動データに整列させて、複数の取得時点における電子デバイスの運動データを取得するように構成された整列サブモジュールとを含む。
少なくとも1つの実施形態において、第2の取得モジュールは、複数の画像の取得時に複数の取得時点における電子デバイスの運動データを取得するようにさらに構成される。
少なくとも1つの実施形態において、データ分析モジュールは、複数の画像および複数の取得時点における運動データを分析して、環境の複数の座標点の座標データを取得するように構成されたデータ分析サブモジュールと、複数の座標点の座標データに基づいて、環境の三次元空間データを生成するように構成された生成サブモジュールとを含む。
少なくとも1つの実施形態において、データ分析サブモジュールは、複数の画像から選択された2つの画像に基づいて同じ座標点を決定し、2つの画像の時間間隔を決定し、複数の取得時点における運動データから選択される時間間隔における運動データに基づいて、移動方向および移動量を決定し、移動方向および移動量に基づいて、同じ座標点と電子デバイスとの間の相対座標を決定し、相対座標に基づいて同じ座標点の座標データを決定するように構成される。
少なくとも1つの実施形態において、モデル生成モジュールは、複数の画像から複数の座標点の各々に対応するメタ画像を取得するように構成された第1の取得サブモジュールと、メタ画像を対応する座標点の座標データに組み合わせて、環境モデルを生成するように構成された結合サブモジュールとを含む。
少なくとも1つの実施形態において、この装置は、複数のデータ種類に基づいて環境モデルの複数のデータインタフェースを提供するように構成されたデータ分類モジュールをさらに含む。
さらに、本開示の実施形態は、電子デバイスを提供する。電子デバイスは、メモリおよびプロセッサを含む。メモリは、コンピュータプログラムを格納するように構成される。プロセッサは、メモリに格納されたコンピュータプログラムを呼び出すことによって上述の方法を実行するように構成される。
本開示の実施形態は、コンピュータプログラムを格納した記憶媒体をさらに提供する。コンピュータプログラムは、コンピュータにおいて実行されたときに、上述の方法をコンピュータに実行させる。
本開示の実施形態を分かりやすく示すために、実施形態において使用される図面の簡単な説明を以下に示す。当然ながら、以下の説明における図面は、本開示の一部の実施形態にすぎず、当業者であれば、創造的な労働を必要とせずに、これらの図面に基づいて他の図面を得ることができるであろう。
本開示の実施形態による環境モデルを生成するための装置のハードウェア構成を示すブロック図である。 本開示の実施形態による環境モデルを生成するための方法を示すフローチャートである。 本開示の別の実施形態による環境モデルを生成するための方法を示すフローチャートである。 本開示のさらに別の実施形態による環境モデルを生成するための方法を示すフローチャートである。 本開示の実施形態による環境モデルを生成するための装置を示す第1のブロック図である。 本開示の実施形態による環境モデルを生成するための装置を示す第2のブロック図である。 本開示の実施形態による環境モデルを生成するための装置を示す第3のブロック図である。 本開示の実施形態による環境モデルを生成するための装置を示す第4のブロック図である。 本開示の実施形態による環境モデルを生成するための装置を示す第5のブロック図である。 本開示の実施形態による電子デバイスを示すブロック図である。 本開示の別の実施形態による電子デバイスを示すブロック図である。
本開示の実施形態における技術的解決策が、本開示の実施形態における図面を参照して、以下で明確かつ完全に説明される。説明される実施形態が、本開示の実施形態の一部にすぎず、本開示の実施形態のすべてではないことは明らかである。本開示の実施形態に基づいて当業者であれば創造的な努力を必要とせずに得ることができるすべての他の実施形態は、本開示の技術的範囲に含まれる。
本開示の明細書および特許請求の範囲ならびに上記の図面における「第1の」、「第2の」、「第3の(存在する場合)」、などの用語は、同種の対象物を区別するために使用されており、必ずしも特定の順序を表すために使用されているのではない。このように表された対象物は、必要に応じて入れ換えることが可能である。さらに、「・・・を備える」および「・・・を含む」という用語、ならびにそれらの任意の変種は、非排他的な包含を含むように意図されている。例えば、或る一連の行為を含むプロセスおよび方法、あるいは或る一連のモジュールまたはユニットを備える装置、電子デバイス、およびシステムは、明確に列挙されたそれらの行為あるいはモジュールまたはユニットに必ずしも限定されず、明示的には列挙されていない行為あるいはモジュールまたはユニットをさらに含んでもよく、プロセス、方法、装置、電子デバイス、またはシステムにつきものの他の行為あるいはモジュールまたはユニットをさらに含んでもよい。
本開示は、環境モデルを生成するための方法に関する。この方法は、電子デバイスに適用可能である。この方法は、電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像を取得することと、複数の取得時点における電子デバイスの運動データを取得することと、複数の画像および複数の取得時点における運動データを分析して、環境の三次元空間データを生成することと、複数の画像を三次元空間データとパッケージして、環境モデルを生成することとを含む。
本開示は、環境モデルを生成するための装置に関する。この装置は、電子デバイスに適用可能である。この装置は、第1の取得モジュール、第2の取得モジュール、データ分析モジュール、およびモデル生成モジュールを含む。第1の取得モジュールは、電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像を取得するように構成される。第2の取得モジュールは、複数の取得時点における電子デバイスの運動データを取得するように構成される。データ分析モジュールは、複数の画像および複数の取得時点における運動データを分析して、環境の三次元空間データを生成するように構成される。モデル生成モジュールは、複数の画像を三次元空間データとともにパッケージして、環境モデルを生成するように構成される。
本開示は、コンピュータプログラムを格納した記憶媒体に関する。コンピュータプログラムは、コンピュータにおいて実行されたときに、上述の方法をコンピュータに実行させる。
本開示は、電子デバイスに関する。電子デバイスは、メモリおよびプロセッサを含む。メモリは、コンピュータプログラムを格納するように構成される。プロセッサは、メモリに格納されたコンピュータプログラムを呼び出すことによって上述の方法を実行するように構成される。
本開示の実施形態において提供される環境モデルを生成するための方法は、本開示の実施形態において提供される環境モデルを生成するための装置に適用可能であってよい。環境モデルを生成するための装置を、電子デバイスに配置することができる。
図1が、環境モデルを生成するための装置のハードウェア構成を示すブロック図である。環境モデルを生成するための装置は、カメラ、モーションセンサ、データ整列ユニット、データ分析ユニット、データパッケージングユニット、およびデータ分類ユニットを含むことができる。
1つ以上の実施形態においては、カメラを、環境をキャプチャするように構成することができ、電子デバイスが、環境の画像を取得するように配置される。1つ以上の実施形態においては、カメラを、環境を継続的にキャプチャするように構成でき、すなわち、環境のビデオをキャプチャするように構成することができる。
1つ以上の実施形態において、モーションセンサは、ジャイロスコープ(角速度センサとも呼ばれる)、加速度センサ(重力センサとも呼ばれる)、などを含むことができる。モーションセンサは、電子デバイスの運動を検出し、電子デバイスの運動データを取得することができる。1つ以上の実施形態において、運動データは、電子デバイスの加速度、角速度、および角度などを含むことができる。
カメラは、1つの時点において1つの画像をキャプチャできるため、カメラが環境をキャプチャするとき、各々の取得画像は、対応するキャプチャ時点を有する。同時に、電子デバイスの運動データは瞬間のものであるため、電子デバイスの運動データは、時点につれて変化する可能性がある。
データ整列ユニットは、カメラによってキャプチャされた画像とモーションセンサによって検出された運動データとを整列させて、カメラが各々の画像をキャプチャした瞬間の電子デバイスの運動データを決定することができる。
データ分析ユニットは、データ整列ユニットによって整列させられた画像および電子デバイスの運動データを分析して、環境の三次元空間データを取得することができる。その後に、データ分析ユニットは、取得した三次元空間データをデータパッケージングユニットに送信する。
さらに、データ整列ユニットは、整列操作後の画像データをデータパッケージングユニットに送信することができる。データパッケージングユニットは、画像データを三次元空間データとパッケージして、環境の環境モデルを生成することができる。環境モデルは、三次元モデルであってよい。
1つ以上の実施形態において、環境モデルは、複数の種類のデータを含む。例えば、環境モデルは、画像データおよび空間座標データを含む。データ分類ユニットは、異なる種類のデータを分類して、複数のデータインタフェースを生成することができる。異なる種類のデータについての異なるデータインタフェースを、異なるアプリケーションによって呼び出すことができる。
本開示の実施形態は、環境モデルを生成するための方法を提供する。環境モデルを生成するための方法は、電子デバイスに適用可能であってよい。電子デバイスは、スマートフォンまたはタブレットコンピュータなどのデバイスであってよい。図2に示されるように、環境モデルを生成する方法は、以下のブロックにおける行為を含む。
ブロック110において、電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像が取得される。
1つ以上の実施形態において、電子デバイスは、カメラを含むことができる。電子デバイスは、カメラによって電子デバイスが位置する環境をキャプチャすることにより、電子デバイスが位置する環境の複数の画像を取得することができる。
1つ以上の実施形態において、複数の画像のキャプチャ時点は、間欠的であってよく、例えば、2つの隣接する画像の間の間隔が、10分であってよい。1つ以上の実施形態において、複数の画像のキャプチャ時点は、連続的であってもよい。例えば、電子デバイスは、電子デバイスが位置する環境のビデオを記録することができ、このやり方で取得された複数の画像は、連続している。したがって、電子デバイスによって取得された複数の画像の各々が、1つの取得時点、すなわち1つのキャプチャ時点に対応する。
1つ以上の実施形態において、電子デバイスが位置する環境は、オフィス、スーパーマーケット、映画館、通り、アトラクション、などの任意の環境であってよい。ユーザが電子デバイスを使用しているとき、電子デバイスが位置する環境は、ユーザが位置する環境である。
ブロック120において、複数の取得時点における電子デバイスの運動データが取得される。
1つ以上の実施形態において、電子デバイスは、モーションセンサを含むことができる。モーションセンサは、これらに限られるわけではないが、ジャイロスコープ、加速度センサ、などを含むことができる。電子デバイスは、モーションセンサによって各々の画像の取得時点における電子デバイスの運動データを取得することができる。
1つ以上の実施形態において、運動データは、電子デバイスの加速度、角速度、および角加速度などの速度データを含むことができ、電子デバイスの配置方向および傾斜角などの姿勢データも含むことができ、電子デバイスが位置する高さなどのデータも含むことができる。
ブロック130において、複数の画像および複数の取得時点における運動データが分析され、環境の三次元空間データが生成される。
電子デバイスが複数の画像および複数の画像の各々の取得の時点における電子デバイスの運動データを取得した後に、複数の画像および複数の画像の各々の取得時点に対応する運動データが分析され、環境の三次元空間データが生成される。
三次元空間データは、データによって電子デバイスが位置する環境を表す。三次元空間データを通じて、電子デバイスが位置する環境内の各点の空間条件を知ることができる。例えば、電子デバイスの前方10m(メートル)に障害物が存在するか否か、障害物の形状、電子デバイスの下方0.5mにある物体の形状、などを、三次元空間データによって表現することができる。
ブロック140において、複数の画像が三次元空間データとともにパッケージされ、環境モデルが生成される。
電子デバイスが環境の三次元空間データを生成した後に、複数の画像を、三次元空間データとパッケージすることができる。すなわち、複数の画像が三次元空間データに組み合わせられ、環境の環境モデルが生成される。
環境モデルは、電子デバイスが位置する環境内の各点の画像を視覚的に表すことができる。例えば、電子デバイスの前方10mにある障害物の色、電子デバイスの下方の机の上に書かれたテキストである。上記の事例を、環境モデルによって視覚的に表現することができる。
いくつかの実施形態においては、図3に示されるように、ブロック120における行為、すなわち複数の取得時点における電子デバイスの運動データの取得が、以下のブロックにおける行為を含むことができる。
ブロック121において、電子デバイスの初期運動データが、モーションセンサを使用することによって取得される。
ブロック122において、複数の画像の各々が、時間に関して初期運動データに整列させられ、各々の取得時点における電子デバイスの運動データが取得される。
電子デバイスは、モーションセンサを含むことができる。電子デバイスは、モーションセンサによって電子デバイスの初期運動データを取得することができる。モーションセンサは、或る時間期間にわたって電子デバイスの運動データを継続的に取得することができる。例えば、モーションセンサは、1時間における電子デバイスの運動データを継続的に取得することができる。初期運動データは、モーションセンサによって継続的に取得される。
続いて、電子デバイスは、複数の画像の各々を時間に関して初期運動データにそれぞれ整列させることができる。複数の画像の各々は、1つの取得時点、すなわち1つのキャプチャ時点に対応する。複数の画像の各々が、時間に関して初期運動データに整列させられ、すなわち、複数の画像の各々のキャプチャの時点における電子デバイスの瞬間の運動データが決定される。これにより、複数の画像の各々のキャプチャの時点における電子デバイスの運動データを取得することができる。
いくつかの実施形態において、複数の取得時点における電子デバイスの運動データは、複数の画像の取得時に同時に取得される。すなわち、複数の画像および複数の取得時点における電子デバイスの運動データは、一連のセンサによって同時に取得される。
いくつかの実施形態においては、図3に示されるように、ブロック130における行為、すなわち複数の画像および複数の取得時点における運動データを分析して、環境の三次元空間データを生成することは、以下のブロックにおける行為を含むことができる。
ブロック131において、複数の画像および複数の取得時点における運動データが分析され、環境の複数の座標点の座標データが取得される。
ブロック132において、環境の三次元空間データが、複数の座標点の座標データに基づいて生成される。
電子デバイスは、複数の画像および複数の画像の各々の取得時点に対応する運動データを、別々に分析することができる。電子デバイスは、複数の画像から同じ物体または同じ座標点を決定し、各々の画像に対応する運動データに基づいて複数の画像をキャプチャする間の電子デバイスの運動状態を決定することにより、物体または座標点の座標データを取得することができる。
例えば、電子デバイスは、2つの画像から同じ座標点を決定することができる。2つの画像のキャプチャ時点の間に時間差(すなわち、時間間隔)が存在する。電子デバイスは、この時間差における変位を決定する。この時間差における電子デバイスの移動方向および移動量を、変位に基づいて知ることができる。したがって、電子デバイスは、座標点と電子デバイスとの間の相対座標を取得することができ、すなわち座標点の座標データを取得することができる。
電子デバイスは、複数の画像および複数の画像の各々の取得時点における電子デバイスの運動データを分析して、複数の座標点の座標データを取得することができる。例えば、電子デバイスは、10,000個の座標点の座標データを取得することができる。次いで、取得した複数の座標点の座標データに基づいて、環境の三次元空間データが生成される。
いくつかの実施形態においては、図3に示されるように、ブロック140における行為、すなわち複数の画像を三次元空間データとパッケージして環境モデルを生成することは、以下のブロックにおける行為を含むことができる。
ブロック141において、複数の座標点の各々に対応するメタ画像が、複数の画像から取得される。
ブロック142において、メタ画像が、対応する座標点の座標データに組み合わせられ、環境モデルが生成される。
電子デバイスは、複数の画像を分析して、複数の画像から各々の座標点に対応するメタ画像を取得することができる。メタ画像を、最小の画像単位として理解することができる。座標点に対応するメタ画像は、環境内の座標点における画像を表す。各々の画像のすべての座標点におけるメタ画像の組が、この画像を構成する。
続いて、電子デバイスは、各々のメタ画像をこのメタ画像に対応する座標点の座標データに組み合わせて、環境の環境モデルを生成することができる。例えば、電子デバイスが10,000個の座標点を取得する場合、電子デバイスは、複数の画像から10,000個の座標点の各々に対応するメタ画像を取得し、各々の座標点に対応するメタ画像を対応する座標点の座標データに組み合わせることができる。すべての座標点の座標データが対応するメタ画像と組み合わせられたとき、環境モデルを取得することができる。
いくつかの実施形態において、本方法は、図4に示されるように、ブロック140における行為、すなわち複数の画像を三次元空間データとパッケージして環境モデルを生成することの後に、以下のブロックにおける行為を含むことができる。
ブロック150において、環境モデル内のデータが、複数のデータインタフェースを生成するために複数のデータ種類に基づいて分類される。
環境モデルは、複数の種類のデータを含む。例えば、環境モデルは、画像データ、空間座標データ、および座標点統計データを含む。電子デバイスは、データ種類に基づいて環境モデル内のデータを分類して、複数のデータインタフェースを生成することができる。例えば、画像データインタフェース、空間座標データインタフェース、および座標点統計データインタフェースを、異なるアプリケーションによる呼び出しのために生成することができる。
具体的な実施において、本開示は、上述した種々の行為の実行の順序に限定されず、矛盾が生じない限りにおいて、いくつかの行為を他の順序で実行しても、あるいは同時に実行してもよい。
以上から、本開示のいくつかの実施形態において提供される環境モデルを生成するための方法が以下を含むことを理解できるであろう。電子デバイスが位置する環境について、複数の画像が取得される。複数の画像は、複数の取得時点に対応している。電子デバイスの運動データが、複数の取得時点において取得される。複数の画像および複数の取得時点における運動データが分析され、環境の三次元空間データが生成される。複数の画像が三次元空間データとともにパッケージされ、環境モデルが生成される。環境モデルを生成するための方法を用いて、環境モデルを、複数の取得画像および複数の取得時点における電子デバイスの運動データに基づいて生成することができる。したがって、環境モデルを、電子デバイスが位置する環境に基づいて定めることができ、周囲の実環境を、定められた環境モデルによって効率的に認識することができる。
本開示の実施形態は、環境モデルを生成するための装置をさらに提供する。この装置は、電子デバイスに適用可能である。電子デバイスは、スマートフォンまたはタブレットコンピュータなどのデバイスであってよい。
図5に示されるように、環境モデルを生成するための装置200は、第1の取得モジュール201、第2の取得モジュール202、データ分析モジュール203、およびモデル生成モジュール204を含むことができる。
第1の取得モジュール201は、電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像を取得するように構成される。
1つ以上の実施形態において、電子デバイスは、カメラを含むことができる。第1の取得モジュール201は、カメラが位置する環境をカメラによってキャプチャすることにより、電子デバイスが位置する環境の複数の画像を取得することができる。
1つ以上の実施形態において、複数の画像のキャプチャ時点は、間欠的であってよく、例えば、2つの隣接する画像の間の間隔が、10分であってよい。1つ以上の実施形態において、複数の画像のキャプチャ時点は、連続的であってもよい。例えば、電子デバイスは、カメラが位置する環境のビデオを記録することができ、このやり方で取得された複数の画像は、連続している。したがって、電子デバイスによって取得された複数の画像の各々が、1つの取得時点、すなわち1つのキャプチャ時点に対応する。
1つ以上の実施形態において、電子デバイスが位置する環境は、オフィス、スーパーマーケット、映画館、通り、アトラクション、などの任意の環境であってよい。ユーザが電子デバイスを使用しているとき、電子デバイスが位置する環境は、ユーザが位置する環境である。
第2の取得モジュール202は、複数の取得時点における電子デバイスの運動データを取得するように構成される。
1つ以上の実施形態において、電子デバイスは、モーションセンサを含むことができる。モーションセンサは、これらに限られるわけではないが、ジャイロスコープ、加速度センサ、などを含むことができる。第2の取得モジュール202は、モーションセンサによって各々の画像の取得時点における電子デバイスの運動データを取得することができる。
1つ以上の実施形態において、運動データは、電子デバイスの加速度、角速度、および角加速度などの速度データを含むことができ、電子デバイスの配置方向および傾斜角などの姿勢データも含むことができ、電子デバイスが位置する高さなどのデータも含むことができる。
データ分析モジュール203は、複数の画像および複数の取得時点における運動データを分析して、環境の三次元空間データを生成するように構成される。
電子デバイスが複数の画像および複数の画像の各々の取得の時点における電子デバイスの運動データを取得した後に、データ分析モジュール203は、複数の画像および複数の画像の各々の取得時点に対応する運動データを分析して、環境の三次元空間データを生成することができる。
三次元空間データは、データによって電子デバイスが位置する環境を表す。三次元空間データを通じて、電子デバイスが位置する環境内の各点の空間条件を知ることができる。例えば、電子デバイスの前方10m(メートル)に障害物が存在するか否か、障害物の形状、電子デバイスの下方0.5mにある物体の形状、などを、三次元空間データによって表現することができる。
モデル生成モジュール204は、複数の画像を三次元空間データとともにパッケージして、環境モデルを生成するように構成される。
データ分析モジュール203が環境の三次元空間データを生成した後に、複数の画像を、三次元空間データとパッケージすることができる。すなわち、複数の画像が三次元空間データに組み合わせられ、環境の環境モデルが生成される。
環境モデルは、電子デバイスが位置する環境内の各点の画像を視覚的に表すことができる。例えば、電子デバイスの前方10mにある障害物の色、電子デバイスの下方の机の上に書かれたテキストである。上記の事例を、環境モデルによって視覚的に表現することができる。
いくつかの実施形態においては、図6に示されるように、第2の取得モジュール202が、第2の取得サブモジュール2021および整列サブモジュール2022を含むことができる。
第2の取得サブモジュール2021は、予め設定された時間期間の間、電子デバイスの初期運動データを取得するように構成される。
整列サブモジュール2022は、複数の画像を時間において初期運動データにそれぞれ整列させて、複数の取得時点における電子デバイスの運動データを取得するように構成される。
電子デバイスは、モーションセンサを含むことができる。第2の取得サブモジュール2021は、モーションセンサによって電子デバイスの初期運動データを取得することができる。モーションセンサは、或る期間にわたって電子デバイスの運動データを継続的に取得することができる。例えば、モーションセンサは、1時間における電子デバイスの運動データを継続的に取得することができる。初期運動データは、モーションセンサによって継続的に取得される。
続いて、整列サブモジュール2022は、複数の画像の各々を時間に関して初期運動データにそれぞれ整列させることができる。複数の画像の各々は、1つの取得時点、すなわち1つのキャプチャ時点に対応する。複数の画像の各々が、時間に関して初期運動データに整列させられ、すなわち、複数の画像の各々のキャプチャの時点における電子デバイスの瞬間の運動データが決定される。これにより、複数の画像の各々のキャプチャの時点における電子デバイスの運動データを取得することができる。
いくつかの実施形態において、第2の取得モジュール202は、複数の取得時点における電子デバイスの運動データを、複数の画像の取得時に同時に取得するように構成される。
いくつかの実施形態においては、図7に示されるように、データ分析モジュール203が、データ分析サブモジュール2031および生成サブモジュール2032を含むことができる。
データ分析サブモジュール2031は、複数の画像および複数の取得時点における運動データを分析して、環境の複数の座標点の座標データを取得するように構成される。
生成サブモジュール2032は、複数の座標点の座標データに基づいて環境の三次元空間データを生成するように構成される。
データ分析サブモジュール2031は、複数の画像および複数の画像の各々の取得時点に対応する運動データを、別々に分析することができる。データ分析サブモジュール2031は、複数の画像から同じ物体または同じ座標点を決定し、各々の画像に対応する運動データに基づいて複数の画像をキャプチャする間の電子デバイスの運動状態を決定することにより、物体または座標点の座標データを取得することができる。
例えば、データ分析サブモジュール2031は、2つの画像から同じ座標点を決定することができる。2つの画像のキャプチャ時点の間に時間差が存在する。データ分析サブモジュール2031は、この時間差における変位を決定する。この時間差における電子デバイスの移動方向および移動量を、変位に基づいて知ることができる。したがって、データ分析サブモジュール2031は、座標点と電子デバイスとの間の相対座標を取得することができ、すなわち座標点の座標データを取得することができる。
データ分析サブモジュール2031は、複数の画像および複数の画像の各々の取得時点における電子デバイスの運動データを分析して、複数の座標点の座標データを取得することができる。例えば、データ分析サブモジュール2031は、10,000個の座標点の座標データを取得することができる。次いで、生成サブモジュール2032は、取得された複数の座標点の座標データに基づいて環境の三次元空間データを生成することができる。
いくつかの実施形態においては、図8に示されるように、モデル生成モジュール204が、第1の取得サブモジュール2041および結合サブモジュール2042を含むことができる。
第1の取得サブモジュール2041は、複数の画像から複数の座標点の各々に対応するメタ画像を取得するように構成される。
結合サブモジュール2042は、メタ画像を対応する座標点の座標データに組み合わせて、環境モデルを生成するように構成される。
第1の取得サブモジュール2041は、複数の画像を分析して、複数の画像から各々の座標点に対応するメタ画像を取得することができる。メタ画像を、最小の画像単位として理解することができる。座標点に対応するメタ画像は、環境内の座標点における画像を表す。各々の画像のすべての座標点におけるメタ画像の組が、この画像を構成する。
続いて、結合サブモジュール2042は、各々のメタ画像をこのメタ画像に対応する座標点の座標データに組み合わせて、外部環境の環境モデルを生成することができる。例えば、データ分析モジュール203が10,000個の座標点を取得する場合、第1の取得サブモジュール2041が、複数の画像から10,000個の座標点の各々に対応するメタ画像を取得し、結合サブモジュール2042が、各々の座標点に対応するメタ画像を対応する座標点の座標データに組み合わせることができる。すべての座標点の座標データが対応するメタ画像と組み合わせられたとき、外部環境の環境モデルを取得することができる。
いくつかの実施形態においては、図9に示されるように、装置200が、データ分類モジュール205をさらに含む。
データ分類モジュール205は、環境モデル内のデータを複数のデータ種類に基づいて分類して、複数のデータインタフェースを生成するように構成される。
環境モデルは、複数の種類のデータを含む。例えば、環境モデルは、画像データ、空間座標データ、および座標点統計データを含む。データ分類モジュール205は、データ種類に基づいて環境モデル内のデータを分類して、複数のデータインタフェースを生成することができる。例えば、画像データインタフェース、空間座標データインタフェース、および座標点統計データインタフェースを、異なるアプリケーションによる呼び出しのために生成することができる。
具体的な実施において、上述のモジュールの各々は、別個のエンティティとして実現されても、あるいは任意の組み合わせにて1つまたはいくつかのエンティティとして実現されてもよい。
以上から、本開示の実施形態において提供される環境モデルを生成するための装置200において、複数の画像が、電子デバイスが位置する環境について、第1の取得モジュール201によって取得されることを理解できるであろう。複数の画像は、複数の取得時点に対応している。電子デバイスの運動データが、複数の取得時点において、第2の取得モジュール202によって取得される。複数の画像および複数の取得時点における運動データは、環境の三次元空間データを生成するために、データ分析モジュール203によって分析される。複数の画像は、環境モデルを生成するために、モデル生成モジュール204によって三次元空間データとともにパッケージされる。環境モデルを生成するための装置により、環境モデルを、複数の取得画像および複数の取得時点における電子デバイスの運動データに基づいて生成することができる。したがって、環境モデルを、電子デバイスが位置する環境に基づいて定めることができ、周囲の実環境を、定められた環境モデルによって効率的に認識することができる。
さらに、本開示の実施形態は、電子デバイスを提供する。電子デバイスは、スマートフォンまたはタブレットコンピュータなどのデバイスであってよい。図10に示されるように、電子デバイス300は、プロセッサ301およびメモリ302を含むことができる。プロセッサ301は、メモリ302に電気的に接続される。
プロセッサ301は、電子デバイス300の全体のさまざまな部分をさまざまなインタフェースおよび配線を使用して接続する電子デバイス300の制御中心であり、メモリ302に格納されたコンピュータプログラムを実行し、あるいは呼び出し、メモリ302に格納されたデータを呼び出すことで、電子デバイス300の種々の機能の実行およびデータの処理を行うことにより、電子デバイス300の全体的な監視を実行する。
この実施形態において、電子デバイス300のプロセッサ301は、1つ以上のコンピュータプログラムのプロセスに対応する命令をメモリ302にロードし、メモリ302に格納された1つ以上のコンピュータプログラムを実行することで、以下のさまざまな機能を実現する。
電子デバイスが位置する環境について、複数の画像が取得される。複数の画像は、複数の取得時点に対応している。
電子デバイスの運動データが、複数の取得時点において取得される。
複数の画像および複数の取得時点における運動データが分析され、環境の三次元空間データが生成される。
複数の画像が三次元空間データとともにパッケージされ、環境モデルが生成される。
いくつかの実施形態において、複数の画像および複数の取得時点における運動データが分析されて環境の三次元空間データが生成されるとき、プロセッサ301は、以下の行為を実行するように構成される。
複数の画像および複数の取得時点における運動データが分析され、環境の複数の座標点の座標データが取得される。
環境の三次元空間データが、複数の座標点の座標データに基づいて生成される。
いくつかの実施形態において、複数の画像が三次元空間データとともにパッケージされて環境モデルが生成されるとき、プロセッサ301は、以下の行為を実行するように構成される。
複数の座標点の各々に対応するメタ画像が、複数の画像から取得される。
メタ画像が、対応する座標点の座標データに組み合わせられ、環境モデルが生成される。
いくつかの実施形態において、電子デバイスは、モーションセンサを含む。複数の取得時点における電子デバイスの運動データが取得されるとき、プロセッサ301は、以下の行為を実行するように構成される。
電子デバイスの初期運動データが、モーションセンサを使用することによって取得される。
複数の画像が、時間に関して初期運動データにそれぞれ整列させられ、複数の取得時点における電子デバイスの運動データが取得される。
いくつかの実施形態において、複数の画像が三次元空間データとともにパッケージされて環境モデルが生成された後に、プロセッサ301は、以下の行為を実行するようにさらに構成される。
環境モデル内のデータが、複数のデータ種類に基づいて分類され、複数のデータインタフェースが生成される。
メモリ302を、コンピュータプログラムおよびデータを格納するように構成することができる。メモリ302に格納されたコンピュータプログラムは、プロセッサ301において実行可能な命令を含むことができる。コンピュータプログラムを、さまざまな機能モジュールに組み合わせることができる。プロセッサ301は、メモリ302に格納されたコンピュータプログラムを呼び出すことによって、さまざまな機能アプリケーションおよびデータ処理を実行することができる。
いくつかの実施形態においては、図11に示されるように、電子デバイス300が、無線周波数(RF)回路303、ディスプレイ画面304、制御回路305、入力ユニット306、オーディオ回路307、センサ308、および電源309をさらに含む。プロセッサ301は、無線周波数(RF)回路303、ディスプレイ304、制御回路305、入力ユニット306、オーディオ回路307、センサ308、および電源309に電気的に接続される。
RF回路303は、無線通信を通じてネットワークデバイスまたは他の電子デバイスと通信するために、無線周波数信号を受信および送信するように構成される。
ディスプレイ画面304は、ユーザによって入力された情報またはユーザに提供される情報、ならびに電子デバイスのさまざまなグラフィカルユーザインタフェースを表示するように構成される。グラフィカルユーザインタフェースを、画像、テキスト、アイコン、ビデオ、およびこれらの任意の組み合わせで構成することができる。
制御回路305は、ディスプレイ画面304を制御して情報を表示するために、ディスプレイ画面304に電気的に接続される。
入力ユニット306は、入力される数字、文字情報、またはユーザ特性情報(例えば、指紋)を受け取り、ユーザ設定および機能制御に関連するキーボード、マウス、ジョイスティック、光学、またはトラックボール信号を生成するように構成される。入力ユニット306は、指紋認識モジュールを含むことができる。
オーディオ回路307は、スピーカおよびマイクロホンを介してユーザと電子デバイスとの間の音声インタフェースを提供することができる。
センサ308は、外部環境情報を収集するように構成される。センサ308は、周囲明るさセンサ、加速度センサ、ジャイロスコープ、などのうちの1つ以上を含むことができる。
電源309は、電子デバイス300のさまざまな構成要素に電力を供給するように構成される。いくつかの実施形態においては、電源309を、電力管理システムによって充放電の管理ならびに電力管理などの機能を実行できるように、電力管理システムを介してプロセッサ301に論理的に接続することができる。
図11には示されていないが、電子デバイス300は、カメラ、ブルートゥースモジュール、などをさらに含むことができ、詳細は本明細書では説明しない。
以上から、本開示の実施形態が電子デバイスをさらに提供することを、理解できるであろう。電子デバイスは、以下の行為を実行するように構成される。電子デバイスが位置する環境について、複数の画像が取得される。複数の画像は、複数の取得時点に対応している。電子デバイスの運動データが、複数の取得時点において取得される。複数の画像および複数の取得時点における運動データが分析され、環境の三次元空間データが生成される。複数の画像が三次元空間データとともにパッケージされ、環境モデルが生成される。電子デバイスによって、環境モデルを、複数の取得画像および複数の取得時点における電子デバイスの運動データに基づいて生成することができる。したがって、環境モデルを、電子デバイスが位置する環境に基づいて定めることができ、周囲の実環境を、定められた環境モデルによって効率的に認識することができる。
本開示の実施形態は、コンピュータプログラムを格納した記憶媒体をさらに提供する。コンピュータプログラムは、コンピュータにおいて実行されたときに、上述のいずれかの実施形態の方法をコンピュータに実行させる。
当業者であれば、実施形態における方法の上述のブロックにおける行為のすべてまたは一部が、コンピューティングプログラムによる関連のハードウェアへの命令によって実行されてよいことを、理解すべきである。コンピューティングプログラムを、コンピュータ可読メモリに格納することができる。コンピュータ可読メモリは、フラッシュドライブ、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク、光ディスク、などを含むことができる。
本開示の実施形態において提供される環境モデルを生成するための方法、環境モデルを生成するための装置、記憶媒体、および電子デバイスを、詳細に上述した。具体的な例は、本明細書において、本開示の原理および実施のやり方を説明するために使用されている。上述の実施形態の説明は、あくまでも本開示の方法および主要なアイデアの理解を助けるために使用されているにすぎない。他方で、当業者であれば、本開示のアイデアに従って、詳細な説明および適用の範囲に修正を加えることができる。以上の説明に鑑み、本明細書を本開示を限定するものとして解釈してはならない。

Claims (11)

  1. 環境モデルを生成するための方法であって、前記方法は、電子デバイスに適用可能であり、
    前記電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像を取得するステップ(110)と、
    前記複数の取得時点における前記電子デバイスの運動データを取得するステップ(120)と、
    前記複数の画像および前記複数の取得時点における前記運動データを分析して、前記環境の三次元空間データを生成するステップ(130)と、
    前記複数の画像を前記三次元空間データとパッケージして、環境モデルを生成するステップ(140)とを含み、
    前記複数の画像および前記複数の取得時点における前記運動データを分析して、前記環境の三次元空間データを生成するステップ(130)は、
    前記複数の画像および前記複数の取得時点における前記運動データを分析して、前記環境の複数の座標点の座標データを取得するステップ(131)と、
    前記複数の座標点の前記座標データに基づいて、前記環境の前記三次元空間データを生成するステップ(132)とを含み、
    前記複数の画像および前記複数の取得時点における前記運動データを分析して、前記環境の複数の座標点の座標データを取得するステップ(131)は、
    前記複数の画像から選択された2つの画像に基づいて同じ座標点を決定するステップと、
    前記2つの画像の時間間隔を決定するステップと、
    前記複数の取得時点における前記運動データから選択される前記時間間隔における運動データに基づいて、移動方向および移動量を決定するステップと、
    前記移動方向および前記移動量に基づいて、前記同じ座標点と前記電子デバイスとの間の相対座標を決定するステップと、
    前記相対座標に基づいて前記同じ座標点の座標データを決定するステップと
    を含む方法。
  2. 前記複数の取得時点における運動データを取得するステップ(120)は、
    予め設定された時間期間の間、前記電子デバイスの初期運動データを取得するステップ(121)と、
    前記複数の画像を時間において前記初期運動データに整列させて、前記複数の取得時点における前記電子デバイスの前記運動データを取得するステップ(122)と
    を含む、請求項1に記載の方法。
  3. 前記複数の取得時点における運動データを取得するステップ(120)は、
    前記複数の画像の取得時に前記複数の取得時点における前記電子デバイスの前記運動データを取得するステップ
    を含む、請求項1または2に記載の方法。
  4. 前記複数の画像を前記三次元空間データとパッケージして、環境モデルを生成するステップ(140)は、
    前記複数の画像から前記複数の座標点の各々に対応するメタ画像を取得するステップ(141)と、
    前記メタ画像を前記対応する座標点の前記座標データに組み合わせて、前記環境モデルを生成するステップ(142)と
    を含む、請求項に記載の方法。
  5. 複数のデータ種類に基づいて前記環境モデルの複数のデータインタフェースを提供するステップ(150)
    をさらに含む、請求項1からのいずれか一項に記載の方法。
  6. 環境モデルを生成するための装置(200)であって、
    電子デバイスに適用可能であり、
    前記電子デバイスが位置する環境について、複数の取得時点に対応する複数の画像を取得するように構成された第1の取得モジュール(201)と、
    前記複数の取得時点における前記電子デバイスの運動データを取得するように構成された第2の取得モジュール(202)と、
    前記複数の画像および前記複数の取得時点における前記運動データを分析して、前記環境の三次元空間データを生成するように構成されたデータ分析モジュール(203)と、
    前記複数の画像を前記三次元空間データとパッケージして、環境モデルを生成するように構成されたモデル生成モジュール(204)とを備え、
    前記データ分析モジュール(203)は、
    前記複数の画像および前記複数の取得時点における前記運動データを分析して、前記環境の複数の座標点の座標データを取得するように構成されたデータ分析サブモジュール(2031)と、
    前記複数の座標点の前記座標データに基づいて、前記環境の前記三次元空間データを生成するように構成された生成サブモジュール(2032)とを備え、 前記データ分析サブモジュール(2031)は、
    前記複数の画像から選択された2つの画像に基づいて同じ座標点を決定し、
    前記2つの画像の時間間隔を決定し、
    前記複数の取得時点における前記運動データから選択される前記時間間隔における運動データに基づいて、移動方向および移動量を決定し、
    前記移動方向および前記移動量に基づいて、前記同じ座標点と前記電子デバイスとの間の相対座標を決定し、
    前記相対座標に基づいて前記同じ座標点の座標データを決定する
    ように構成されている、装置(200)。
  7. 前記第2の取得モジュール(202)は、
    予め設定された時間期間の間、前記電子デバイスの初期運動データを取得するように構成された第2の取得サブモジュール(2021)と、
    前記複数の画像を時間において前記初期運動データに整列させて、前記複数の取得時点における前記電子デバイスの前記運動データを取得するように構成された整列サブモジュール(2022)と
    を含む、請求項に記載の装置(200)。
  8. 前記第2の取得モジュール(202)は、
    前記複数の画像の取得時に前記複数の取得時点における前記電子デバイスの前記運動データを取得する
    ようにさらに構成されている、請求項またはに記載の装置(200)。
  9. 前記モデル生成モジュール(204)は、
    前記複数の画像から前記複数の座標点の各々に対応するメタ画像を取得するように構成された第1の取得サブモジュール(2041)と、
    前記メタ画像を前記対応する座標点の前記座標データに組み合わせて、前記環境モデルを生成するように構成された結合サブモジュール(2042)と
    を備える、請求項に記載の装置(200)。
  10. 複数のデータ種類に基づいて前記環境モデルの複数のデータインタフェースを提供するように構成されたデータ分類モジュール(205)
    をさらに備える、請求項からのいずれか一項に記載の装置(200)。
  11. コンピュータプログラムを格納したコンピュータ可読記憶媒体であって、
    前記コンピュータプログラムは、電子デバイスにおける実行時に、請求項1からのいずれか一項に記載の方法を前記電子デバイスに実行させる、コンピュータ可読記憶媒体。
JP2020527790A 2018-03-26 2019-01-30 環境モデルを生成するための方法および装置ならびに記憶媒体 Active JP7043601B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810252890.3A CN108537878B (zh) 2018-03-26 2018-03-26 环境模型生成方法、装置、存储介质及电子设备
CN201810252890.3 2018-03-26
PCT/CN2019/074016 WO2019184593A1 (en) 2018-03-26 2019-01-30 Method and apparatus for generating environment model, and storage medium

Publications (2)

Publication Number Publication Date
JP2021503665A JP2021503665A (ja) 2021-02-12
JP7043601B2 true JP7043601B2 (ja) 2022-03-29

Family

ID=63484770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527790A Active JP7043601B2 (ja) 2018-03-26 2019-01-30 環境モデルを生成するための方法および装置ならびに記憶媒体

Country Status (5)

Country Link
US (1) US10861169B2 (ja)
EP (1) EP3547265A1 (ja)
JP (1) JP7043601B2 (ja)
CN (1) CN108537878B (ja)
WO (1) WO2019184593A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537878B (zh) * 2018-03-26 2020-04-21 Oppo广东移动通信有限公司 环境模型生成方法、装置、存储介质及电子设备
CN112215946A (zh) * 2020-10-12 2021-01-12 珠海朋奇科技有限责任公司 一种根据数据生成三维热力图的方法、系统、设备以及存储介质
CN112396693A (zh) * 2020-11-25 2021-02-23 上海商汤智能科技有限公司 一种面部信息的处理方法、装置、电子设备及存储介质
WO2024077449A1 (zh) * 2022-10-10 2024-04-18 华为技术有限公司 用于定位的模型的训练方法、定位方法、电子设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150070352A1 (en) 2013-09-08 2015-03-12 Realitycap, Inc. Enabling use of three-dimensional locations of features with two-dimensional images
JP2017146952A (ja) 2016-02-15 2017-08-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8855846B2 (en) 2005-10-20 2014-10-07 Jason W. Grzywna System and method for onboard vision processing
US8976172B2 (en) 2012-12-15 2015-03-10 Realitycap, Inc. Three-dimensional scanning using existing sensors on portable electronic devices
US9342929B2 (en) 2013-01-22 2016-05-17 Microsoft Technology Licensing, Llc Mixed reality experience sharing
KR20140110584A (ko) 2013-03-08 2014-09-17 삼성전자주식회사 증강 현실 제공 방법, 저장 매체 및 휴대 단말
CN104050712B (zh) * 2013-03-15 2018-06-05 索尼公司 三维模型的建立方法和装置
KR102184766B1 (ko) 2013-10-17 2020-11-30 삼성전자주식회사 3차원 모델 복원 시스템 및 방법
US9773313B1 (en) 2014-01-03 2017-09-26 Google Inc. Image registration with device data
US9779512B2 (en) * 2015-01-29 2017-10-03 Microsoft Technology Licensing, Llc Automatic generation of virtual materials from real-world materials
US10380316B2 (en) * 2015-02-09 2019-08-13 Haag Engineering Co. System and method for visualization of a mechanical integrity program
CN106373187B (zh) 2016-06-28 2019-01-11 上海交通大学 基于ar的二维图像转换至三维场景的实现方法
CN106856566B (zh) 2016-12-16 2018-09-25 中国商用飞机有限责任公司北京民用飞机技术研究中心 一种基于ar设备的信息同步方法及系统
CN106843790B (zh) 2017-01-25 2020-08-04 触景无限科技(北京)有限公司 一种信息展示系统和方法
US11665308B2 (en) * 2017-01-31 2023-05-30 Tetavi, Ltd. System and method for rendering free viewpoint video for sport applications
CN106846497B (zh) 2017-03-07 2020-07-10 百度在线网络技术(北京)有限公司 应用于终端的呈现三维地图的方法和装置
CN107146278B (zh) * 2017-04-18 2020-05-26 深圳市智能现实科技有限公司 场景建模方法及装置
CN107464283B (zh) * 2017-07-13 2020-11-10 广西我的科技有限公司 一种三维空间信息采集分析处理的方法及装置
CN107393017A (zh) * 2017-08-11 2017-11-24 北京铂石空间科技有限公司 图像处理方法、装置、电子设备及存储介质
CN107808123B (zh) 2017-09-30 2021-11-05 杭州迦智科技有限公司 图像可行域检测方法、电子设备、存储介质、检测系统
EP3483839A1 (en) * 2017-11-08 2019-05-15 Siemens Healthcare GmbH Dynamic generation of a medical scene model
CN108537878B (zh) 2018-03-26 2020-04-21 Oppo广东移动通信有限公司 环境模型生成方法、装置、存储介质及电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150070352A1 (en) 2013-09-08 2015-03-12 Realitycap, Inc. Enabling use of three-dimensional locations of features with two-dimensional images
JP2017146952A (ja) 2016-02-15 2017-08-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム

Also Published As

Publication number Publication date
WO2019184593A1 (en) 2019-10-03
CN108537878A (zh) 2018-09-14
CN108537878B (zh) 2020-04-21
US20190295265A1 (en) 2019-09-26
JP2021503665A (ja) 2021-02-12
EP3547265A1 (en) 2019-10-02
US10861169B2 (en) 2020-12-08

Similar Documents

Publication Publication Date Title
JP7043601B2 (ja) 環境モデルを生成するための方法および装置ならびに記憶媒体
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
US9940720B2 (en) Camera and sensor augmented reality techniques
CN108304075B (zh) 一种在增强现实设备进行人机交互的方法与设备
WO2019007258A1 (zh) 相机姿态信息的确定方法、装置、设备及存储介质
US9268410B2 (en) Image processing device, image processing method, and program
WO2021018214A1 (zh) 虚拟对象处理方法及装置、存储介质和电子设备
TW201322178A (zh) 擴增實境的方法及系統
US9646571B1 (en) Panoramic video augmented reality
CN103914876A (zh) 用于在3d地图上显示视频的方法和设备
JP7029902B2 (ja) 映像通話品質測定方法およびシステム
US10949069B2 (en) Shake event detection system
JPWO2014199505A1 (ja) 映像監視システム、監視装置
US11373329B2 (en) Method of generating 3-dimensional model data
CN109992111B (zh) 增强现实扩展方法和电子设备
CN109089087A (zh) 多通道影音联动装置
JP7419003B2 (ja) 情報表示装置、情報表示方法及び情報表示システム
EP3961571A1 (en) Virtual paintbrush implementing method and apparatus, and computer readable storage medium
US20210256245A1 (en) Real-time multi-view detection of objects in multi-camera environments
CN113178017A (zh) Ar数据展示方法、装置、电子设备及存储介质
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP7293362B2 (ja) 撮影方法、装置、電子機器及び記憶媒体
JP2015184986A (ja) 複合現実感共有装置
KR20140001152A (ko) 증강현실 기반의 실시간 관심 컨텍스트 등록 시스템 및 그 방법
CN112862976B (zh) 一种数据处理方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220316

R150 Certificate of patent or registration of utility model

Ref document number: 7043601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150