JP2017111209A - 3dマップの作成 - Google Patents

3dマップの作成 Download PDF

Info

Publication number
JP2017111209A
JP2017111209A JP2015243591A JP2015243591A JP2017111209A JP 2017111209 A JP2017111209 A JP 2017111209A JP 2015243591 A JP2015243591 A JP 2015243591A JP 2015243591 A JP2015243591 A JP 2015243591A JP 2017111209 A JP2017111209 A JP 2017111209A
Authority
JP
Japan
Prior art keywords
video
models
pair
related data
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015243591A
Other languages
English (en)
Other versions
JP6842618B2 (ja
Inventor
チャヤーコーン ヴォンクンピサーン
Vongkulbhisal Jayakorn
チャヤーコーン ヴォンクンピサーン
辰也 石原
Tatsuya Ishihara
辰也 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2015243591A priority Critical patent/JP6842618B2/ja
Priority to US15/379,377 priority patent/US10332273B2/en
Publication of JP2017111209A publication Critical patent/JP2017111209A/ja
Application granted granted Critical
Publication of JP6842618B2 publication Critical patent/JP6842618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Abstract

【課題】3Dマップを作成するためのコンピュータ実装の方法を提供する。【解決手段】複数のビデオと複数のビデオ関連データ単位とを取得することであって、複数のビデオ関連データ単位のそれぞれは、対応するビデオが撮られた場所で受信される電波信号の特徴を示す、ことと、複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築することと、複数の3Dモデルから一対の3Dモデルを、対応する一対のビデオ関連データ単位の類似度に基づいて選択することと、一対の3Dモデルをマージして3Dマップを取得することとを含む。【選択図】図6

Description

本発明は、3Dマップの作成に関する。
近年、3Dマップの作成に関しては、様々な技術が知られている。
本発明の実施の形態によれば、3Dマップを作成するためのコンピュータ実装の方法が提供される。方法は、複数のビデオと複数のビデオ関連データ単位とを取得することを含む。複数のビデオ関連データ単位のそれぞれは、対応するビデオが撮られた場所で受信される電波信号の特徴を示す。更に、方法は、複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築することを含む。更に、方法は、複数の3Dモデルから一対の3Dモデルを、対応する一対のビデオ関連データ単位の類似度に基づいて選択することを含む。更にまた、方法は、一対の3Dモデルをマージして3Dマップを取得することを含む。
本発明の別の実施の形態によれば、3Dマップを作成するための装置が提供される。装置は、プロセッサと、プロセッサに結合されたメモリとを含む。メモリは、プログラム命令を含む。プログラム命令は、複数のビデオと複数のビデオ関連データ単位とを取得するためにプロセッサにより実行可能である。複数のビデオ関連データ単位のそれぞれは、対応するビデオが撮られた場所で受信される電波信号の特徴を示す。更に、プログラム命令は、複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築するためにプロセッサにより実行可能である。更に、プログラム命令は、複数の3Dモデルから一対の3Dモデルを、対応する一対のビデオ関連データ単位の類似度に基づいて選択するためにプロセッサにより実行可能である。更にまた、プログラム命令は、一対の3Dモデルをマージして3Dマップを取得するためにプロセッサにより実行可能である。
本発明の更に別の実施の形態によれば、3Dマップを作成するためのコンピュータプログラム製品が提供される。コンピュータプログラム製品は、コンピュータ可読記憶媒体で実現されるプログラム命令を有するコンピュータ可読記憶媒体を含む。プログラム命令は、複数のビデオと複数のビデオ関連データ単位とを取得するためにコンピュータにより実行可能である。複数のビデオ関連データ単位のそれぞれは、対応するビデオが撮られた場所で受信される電波信号の特徴を示す。更に、プログラム命令は、複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築するためにコンピュータにより実行可能である。更に、プログラム命令は、複数の3Dモデルから一対の3Dモデルを、対応する一対のビデオ関連データ単位の類似度に基づいて選択するためにコンピュータにより実行可能である。更にまた、プログラム命令は、一対の3Dモデルをマージして3Dマップを取得するためにコンピュータにより実行可能である。
本発明の実施の形態におけるコンピュータシステムのブロック図である。 本発明の実施の形態を実装可能なコンピュータのハードウェア構成例を示した図である。 本発明の実施の形態におけるビーコン信号ファイルの内容の例を示した図である。 本発明の実施の形態における3Dマップを作成する処理の概要の例を示した図である。 本発明の実施の形態におけるユーザの位置を特定する処理の概要の例を示した図である。 3Dマップ作成モジュールが3Dマップを作成する際に行われる動作の例を表すフローチャートである。 ユーザ位置特定モジュールがユーザの位置を特定する際に行われる動作の例を表すフローチャートである。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
尚、本発明は、以下の実施の形態に限定されるものではなく、その要旨の範囲内で種々変形して実施することができる。また、使用する図面は、本実施の形態を説明するために使用するものであり、実際の大きさを表すものではない。
図1を参照すると、本実施の形態が適用されるコンピュータシステム1のブロック図が示される。コンピュータシステム1は、大規模環境の3D(三次元)マップを作り、3Dマップを用いてその大規模環境でユーザの位置を特定するために使用され得る。大規模環境は、類似する外観を有する室内環境であり得る。大規模環境は、例えば、オフィスビル、ショッピングモール、病院等であり得る。位置特定の結果は、視覚障害者ナビゲーションシステム、自立型車椅子、自立型ロボット等のために用いられ得る。
図示するように、コンピュータシステム1は、大規模環境に設置されたビーコン送信機10を含み得る。コンピュータシステム1は、更に、デジタルビデオカメラ20と、携帯端末30と、無線ネットワーク等のネットワーク50を介して携帯端末30に接続されたコンピュータ装置40とを含み得る。
ビーコン送信機10のそれぞれは、自機を識別可能なビーコン信号を送信し得る。ビーコン送信機10の個数は5個には限らず、5個より多い又は5個より少ないビーコン送信機10が大規模環境に設置されてもよい。ビーコン信号は電波信号の一例である。ビーコン信号の代わりに、Wi−Fi信号を電波信号として用いてもよい。
デジタルビデオカメラ20は、大規模環境の3Dマップの作成者による操作に応じて、大規模環境のビデオを撮り得る。そのとき、デジタルビデオカメラ20は、ビーコン送信機10から受信されたビーコン信号の特徴を各々が含むファイルを作り得る。以下、そのようなファイルを「ビーコン信号ファイル」という。更に、デジタルビデオカメラ20は、3Dマップの作成者により、図に白抜き矢印で示されるようにコンピュータ装置40の近くまで持ち運ばれ、3Dマップの作成者による操作に応じて、例えばUSB(Universal Serial Bus)を介してコンピュータ装置40にビデオ及びビーコン信号ファイルを提供し得る。
携帯端末30は、自分の位置を知りたいユーザによる操作に応じて、大規模環境の写真を撮り得る。そのとき、携帯端末30は、ビーコン送信機10から受信されたビーコン信号の特徴を示すビーコン信号情報を取得し得る。更に、携帯端末30は、ネットワーク50を介してコンピュータ装置40に写真及びビーコン信号情報を送信し得る。
コンピュータ装置40は、デジタルビデオカメラ20により提供されたビデオ及びビーコン信号ファイルに基づいて3Dマップを作り、携帯端末30から受信された写真及びビーコン信号情報と3Dマップとに基づいてユーザの位置を特定し得る。具体的には、コンピュータ装置40は、3Dマップを作成する処理を行う3Dマップ作成モジュール41と、ユーザの位置を特定する処理を行うユーザ位置特定モジュール42とを含み得る。
図2を参照すると、コンピュータ装置40として使用可能なコンピュータ90のハードウェア構成例が示される。図示するように、コンピュータ90は、プロセッサの一例として機能するCPU(Central Processing Unit)90aと、M/B(マザーボード)チップセット90cを介してCPU90aに接続され、メモリの一例として機能するメインメモリ90bと、同じくM/Bチップセット90cを介してCPU90aに接続された表示機構90dとを備える。M/Bチップセット90cには、ブリッジ回路90eを介して、ネットワークインターフェイス90f、磁気ディスク装置90g、音声機構90h、及び、キーボード/マウス90iも接続されている。
図2において、様々な構成要素は、バスを介して接続される。例えば、CPU90a及びM/Bチップセット90cや、M/Bチップセット90c及びメインメモリ90bは、それぞれ、CPUバスを介して接続される。また、M/Bチップセット90c及び表示機構90dは、AGP(Accelerated Graphics Port)を介して接続されてもよい。しかしながら、表示機構90dがPCI Express対応のビデオカードを含む場合、M/Bチップセット90c及びビデオカードは、PCI Express(PCIe)バスを介して接続される。また、ネットワークインターフェイス90fがブリッジ回路90eと接続する場合、接続のために、例えば、PCI Expressを用いてもよい。磁気ディスク装置90gがブリッジ回路90eと接続するために、シリアルATA(AT Attachment)、パラレル転送のATA、PCI(Peripheral Components Interconnect)を用いてもよい。キーボード/マウス90iがブリッジ回路90eと接続するために、USB(Universal Serial Bus)を用いてもよい。
3Dマップの作成者は、デジタルビデオカメラ20により、大規模環境における風景のビデオを、例えば歩きながら撮り得る。このようにビデオを撮るとき、デジタルビデオカメラ20は、ビーコン送信機10により発信されたビーコン信号を受信し得る。しかしながら、ビーコン信号の受信タイミングはこれには限らない。デジタルビデオカメラ20がビーコン信号をビデオが撮られた場所で受信する限り、受信タイミングは如何なるタイミングでもよい。ビーコン信号のRSSI(Received Signal Strength Indicator)(以下、「ビーコンRSSI」という)は、デジタルビデオカメラ20がビデオを撮る場所によって異なり得る。デジタルビデオカメラ20は、ある場所で撮られたビデオに関連付けて、その場所におけるビーコン信号のRSSIの特徴を含むビーコン信号ファイルを、ビデオ関連データ単位の一例として保持し得る。
図3を参照すると、ビーコン信号ファイルの内容の例が示される。図において、ビーコン信号ファイルは、ビデオのビデオフレーム(以下、単に「フレーム」という)ごとにビーコン信号のRSSIを保持するものとする。また、図のビーコン送信機TA,TB,TC,TD,TEはビーコン送信機10として設置されているものとする。図は、例えば、フレームF1が撮られる場所でビーコン送信機TA,TB,TC,TD,TEから受信されたビーコン信号がそれぞれRSSI S1A,S1B,S1C,S1D,S1Eを有することを示している。また、図は、フレームF2が撮られる場所でビーコン送信機TA,TB,TC,TD,TEから受信されたビーコン信号がそれぞれRSSI S2A,S2B,S2C,S2D,S2Eを有することを示している。
さて、好適な実施の形態においてコンピュータ装置40により行われる処理の概要を述べる。
図4を参照すると、3Dマップを作成する処理の概要の例が示される。
まず、複数のビデオと、複数のビデオに1つずつ対応する複数のビーコン信号ファイルとが、デジタルビデオカメラ20により取得され得る。具体的には、ある場所でデジタルビデオカメラ20によりビデオ61aが撮られると、ビーコン信号ファイル62aも取得され得る。更に、別の場所でデジタルビデオカメラ20によりビデオ61bが撮られると、ビーコン信号ファイル62bも取得され得る。更にまた、更に別の場所でデジタルビデオカメラ20によりビデオ61cが撮られると、ビーコン信号ファイル62cも取得され得る。ビデオの個数は3個には限らず、3個より多いビデオがデジタルビデオカメラ20により撮られてもよい。同様に、3個より多いビーコン信号ファイルが取得されてもよい。
次に、各々が複数のビデオの対応する1つに基づく複数の3Dモデルが、SfM(Structure from Motion)、ステレオカメラ等の既知の技術を用いて別々に再構築され得る。具体的には、3Dモデル63aが、矢印64aで示されるように、ビデオ61aに基づいて再構築され得る。更に、3Dモデル63bが、矢印64bで示されるように、ビデオ61bに基づいて再構築され得る。更にまた、3Dモデル63cが、矢印64cで示されるように、ビデオ61cに基づいて再構築され得る。他のビデオについても同じ処理が行われ得る。複数の3Dモデルのそれぞれは、3Dモデル座標のそれぞれに対して、3Dモデル座標と、画像群と、ビーコン信号情報群との対応を含み得る。3Dモデル座標は、3Dモデル空間内の撮影対象の位置の座標であり得る。画像群は、対応する3Dモデル座標を生成するのに用いられた画像の群であり、画像のそれぞれは、対応する3Dモデル座標を生成するのに用いられた画像特徴を含み得る。この説明において、「画像」は、当初はビデオに含まれるフレームであったが処理対象のデータとしてコンピュータ装置40に記憶された画像を示す。ビーコン信号情報群は、対応する画像群に含まれる画像が撮られた場所で受信されたビーコン信号の特徴を各々が示す情報群であり得る。
続いて、複数の3Dモデルから、マージすべき3Dモデルの候補ペアが選択され得る。具体的には、3Dモデル63a,63b,63c等から、3Dモデルの候補ペアが選択され得る。同じ場所で撮られたビデオのペアに基づく3Dモデルのペアを3Dモデルの候補ペアとして選択するためには、ビデオのペアごとのビーコン信号の特徴間の類似度が用いられ得る。ビデオのペアごとのビーコン信号の特徴間の類似度については後述する。図では、両矢印65aで示すように、ビーコン信号ファイル62aの特徴とビーコン信号ファイル62bの特徴とが、互いに類似すると判定されている。これにより、Y字型矢印66aで示すように、3Dモデル63aと3Dモデル63bのペアが、3Dモデルの候補ペアとして選択され得る。更に、両矢印65bで示すように、ビーコン信号ファイル62bの特徴とビーコン信号ファイル62cの特徴とが互いに類似すると判定されている。これにより、Y字型矢印66bで示すように、3Dモデル63bと3Dモデル63cのペアが、3Dモデルの候補ペアとして選択され得る。
その後、3Dモデルの選択された候補ペアが既知の技術を用いてマージされ得る。具体的には、3Dモデル63aと3Dモデル63bのペアがマージされ、3Dモデル63bと3Dモデル63cのペアがマージされ得る。その後、既知の技術を用いてこのようにマージされた3Dモデルに基づいて3Dマップ67が生成され得る。具体的には、3Dモデル63aと3Dモデル63bのペアをマージすることにより第1のマージされた3Dモデルが得られ、3Dモデル63bと3Dモデル63cのペアをマージすることにより第2のマージされた3Dモデルが得られたとすると、第1のマージされた3Dモデルと第2のマージされた3Dモデルのペアがマージされる。3Dマップ67は、大規模環境における実世界座標のそれぞれに対して、実世界座標と、画像群と、ビーコン信号情報群との対応を含み得る。実世界座標は、実世界空間内の撮影対象の位置の座標であり、3Dモデル空間内の撮影対象の位置から生成され得る。画像群は、対応する実世界座標を生成するのに用いられた画像の群であり、画像のそれぞれは、対応する実世界座標を生成するのに用いられた画像特徴を含み得る。画像関連データ単位の一例としてのビーコン信号情報群は、対応する画像群に含まれる画像が撮られた場所で受信されたビーコン信号の特徴を各々が示す情報群であり得る。
一方、図では、ビーコン信号ファイル62aの特徴とビーコン信号ファイル62cの特徴とは、互いに非類似であると判定されている。これにより、3Dモデル63aと3Dモデル63cのペアは、3Dモデルの候補ペアとして選択されないこととなり得る。
図5を参照すると、ユーザの位置を特定する処理の概要の例が示される。
図では、画像群71aとビーコン信号情報群72aと実世界座標73aとの対応が3Dマップの一部としてコンピュータ装置40に記憶されている。更に、画像群71bとビーコン信号情報群72bと実世界座標73bとの対応が3Dマップの一部としてコンピュータ装置40に記憶されている。更にまた、画像群71cとビーコン信号情報群72cと実世界座標73cとの対応が3Dマップの一部としてコンピュータ装置40に記憶されている。画像群とビーコン信号情報群と実世界座標との対応の個数は3個には限らず、3個より多い対応がコンピュータ装置40に記憶されてもよい。
まず、クエリ画像71qとビーコン信号情報72qとが、携帯端末30から受信され得る。具体的には、ある場所で携帯端末30によりクエリ画像71qが撮られると、ビーコン信号情報72qも携帯端末30により取得され得る。これにより、クエリ画像71q及びビーコン信号情報72qは、コンピュータ装置40へ送信され、コンピュータ装置40により受信され得る。
次に、複数の画像群に含まれる画像から、クエリ画像71qと照合すべき1つ以上の画像が選択され得る。具体的には、画像群71a,71b,71c等に含まれる画像から1つ以上の画像が選択され得る。クエリ画像71qと同じ場所で撮られた画像をその1つ以上の画像の1つとして選択するためには、画像のペアごとのビーコン信号の特徴間の類似度が用いられる。画像のペアごとのビーコン信号の特徴間の類似度については後述する。図では、両矢印74で示すように、ビーコン信号情報群72aの各情報の特徴とビーコン信号情報72qの特徴とが、互いに類似すると判定されている。これにより、矢印75で示すように、1つ以上の画像76aが、クエリ画像71qと照合すべき1つ以上の画像として選択され得る。
続いて、クエリ画像71qは、1つ以上の画像76aに含まれる各画像と照合される。これにより、1つ以上の画像76aから、よく使われる画像マッチングアルゴリズムによりクエリ画像71qに最も類似すると判定された画像が選択され得る。選択された画像に基づいて、クエリ画像71qを撮った携帯端末30の位置及び回転角度が推定され得る。尚、3Dマップは、選択された画像に関連付けて、携帯端末30の位置及び回転角度に関する情報を含むものとする。
一方、図では、ビーコン信号情報群72bの何れの情報の特徴とビーコン信号情報72qの特徴とも互いに非類似であり、ビーコン信号情報群72cの何れの情報の特徴とビーコン信号情報72qの特徴とも互いに非類似であると判定されている。これにより、画像群71b又は画像群71cに含まれる何れの画像も、クエリ画像71qと照合すべき1つ以上の画像として選択されないことになり、画像群71bに含まれる画像及び画像群71cに含まれる画像の何れの画像に基づいても、クエリ画像71qを撮った携帯端末30の位置及び回転角度は推定されないこととなり得る。
さて、ビーコン信号の特徴間の類似度について述べる。ビーコン信号の一例としてiBeacon(登録商標)信号を用いて説明する。
まず、b^(ハット記号は、数式中ではbの上に記すが、テキスト中ではbの右に記す)は、i番目のビーコン送信機10(i=1,2,…,n)から受信した生のビーコン信号の生のビーコンRSSIを表すものとする。生のビーコンRSSIb^は、次の式により、ビーコンRSSIbを取得するために正規化され得る。
Figure 2017111209
この式において、「Med」は、「Med」に続く集合の中央値を見つける関数である。
生のビーコンRSSIb^を正規化することは、ビーコンRSSIbがRSSI変動に対処することを可能にし得る。更に、iBeacon(登録商標)装置から取得された生のビーコンRSSIb^は−100から0までの間の値をとるが、生のビーコンRSSIb^を正規化することは、ビーコンRSSIbが0から100までの値をとることを可能にし得る。
次に、bは、場所xで観測されたビーコンRSSIb ,b ,…b を成分とするベクトルを表すものとし、bは、場所yで観測されたビーコンRSSIb ,b ,…b を成分とするベクトルを表すものとする。
とbとの類似度は、2つの尺度を用いて評価され得る。
第1の尺度は、共起情報の一例としてのビーコン信号共起性(以下、単に「共起性」という)であり得る。bとbについての共起性は、bにより示されるビーコン信号のうち観測されたビーコン信号を送信するビーコン送信機10の集合と、bにより示されるビーコン信号のうち観測されたビーコン信号を送信するビーコン送信機10の集合との類似の程度を表す指標であり得る。bとbについての共起性は、次の式により算出され得る。
Figure 2017111209
この式において、「min(b ,b )」は、b とb の小さい方を見つける関数であり、「max(b ,b )」は、b とb の大きい方を見つける関数である。
第2の尺度は、非類似情報の一例としてのビーコン信号非類似性(以下、単に「非類似性」という)であり得る。bとbの非類似性は、bにおける各ビーコンRSSIとbにおける各ビーコンRSSIとの非類似の程度を表す指標であり得る。bとbの非類似性は、次の式により算出され得る。
Figure 2017111209
ビーコン信号の特徴間の類似度は、例えば、c(b,b)が大きくなるほど又はd(b,b)が小さくなるほど大きな値を出力する関数により、算出され得る。
この類似度は、b及びbが画像ごとに用意されれば、図5のユーザの位置を特定する処理で用いられる「画像のペアごとのビーコン信号の特徴間の類似度」に相当し得る。
しかしながら、この類似度は、ビデオのペアごとのc(b,b)及びビデオのペアごとのd(b,b)が算出されなければ、図4の3Dマップを作成する処理で用いられる「ビデオのペアごとのビーコン信号の特徴間の類似度」には相当しないこととなり得る。具体的には、ビデオのペアごとのc(b,b)は、「min(b ,b )」を全てのフレームにわたってb とb の中で最も小さい値を求める関数と再定義し、「max(b ,b )」を全てのフレームにわたってb とb の中で最も大きい値を求める関数と再定義することにより、算出され得る。更に、ビデオのペアごとのd(b,b)は、上記式によりフレームの全てのペアについてのd(b,b)を算出し、フレームの全てのペアについての算出されたd(b,b)を合計することにより、算出され得る。
図6を参照すると、3Dマップ作成モジュール41が3Dマップを作成する際に行われる動作の例を表すフローチャートが示される。
図示するように、3Dマップ作成モジュール41は、まず、複数のビデオと、複数のビデオに1つずつ対応する複数のビーコン信号ファイルとを取得し得る(ステップ411)。3Dマップ作成モジュール41は、ステップ411で取得された複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築し得る(ステップ412)。3Dマップ作成モジュール41は、ステップ411で取得された複数のビーコン信号ファイルの各ペア間の類似度を算出し得る(ステップ413)。
次に、3Dマップ作成モジュール41は、ステップ413で算出された類似度に基づいて、複数のビデオの候補ペアを選択し得る(ステップ414)。候補ペアは、予め定められた閾値を超えた類似度を有するものであり得る。類似度は、複数のビデオの候補ペアに対応する複数のビーコン信号ファイルのペア間のものであり得る。従って、複数のビデオの候補ペアに対応する複数の3Dモデルのペアが特定される。
続けて、3Dマップ作成モジュール41は、複数の3Dモデルのペアがマージできるかどうかを判定し得る(ステップ415)。複数のビデオの対応するペアが候補ペアとして選択されたとしても複数の3Dモデルのペアがマージできない場合があるので、この判定が行われる。複数の3Dモデルのペアが同じ場所で撮られた異なる方向の画像に対応する場合が、そのような場合に含まれ得る。複数の3Dモデルのペアがマージできれば、3Dマップ作成モジュール41は、複数の3Dモデルのペアをマージし(ステップ416)、処理をステップ417へ進め得る。ステップ415で複数の3Dモデルのペアがマージできなければ、3Dマップ作成モジュール41は、複数の3Dモデルのペアをマージせずに、処理をステップ417へ進め得る。
その後、3Dマップ作成モジュール41は、ステップ414で複数のビデオの全ての候補ペアが選択されたかどうかを判定し得る(ステップ417)。複数のビデオの全ての候補ペアがまだ選択されていなければ、3Dマップ作成モジュール41は、処理をステップ414へ戻し得る。ステップ417で複数のビデオの全ての候補ペアが選択されていれば、3Dマップ作成モジュール41は、3Dモデル座標を実世界座標に変換することにより、3Dマップを生成し得る(ステップ418)。
図7を参照すると、ユーザ位置特定モジュール42がユーザの位置を特定する際に行われる動作の例を表すフローチャートが示される。
図示するように、ユーザ位置特定モジュール42は、まず、クエリ画像とビーコン信号情報とを携帯端末30から受信し得る(ステップ421)。次に、ユーザ位置特定モジュール42は、図6のステップ418で生成された3Dマップから、ビーコン信号情報群に含まれる1つ以上の類似ビーコン信号情報群に対応する1つ以上の画像を選択し得る(ステップ422)。1つ以上の類似ビーコン信号情報群は、ステップ421で受信されたビーコン信号情報に類似するものであり得る。続いて、ユーザ位置特定モジュール42は、ステップ421で受信されたクエリ画像を、ステップ422で選択された1つ以上の画像のそれぞれと照合し得る(ステップ423)。最後に、ユーザ位置特定モジュール42は、ステップ423でクエリ画像とマッチした画像に基づいて、携帯端末30の場所及び回転角度を推定し得る(ステップ424)。
上記では、3Dマップ作成モジュール41は、3Dモデルの候補ペアをそれが選択されるごとにマージするものとした。しかしながら、代替の実施の形態として、3Dマップ作成モジュール41は、3Dモデルの候補ペアをそれが選択されるときに蓄積し得る。3Dモデルの全ての候補ペアが選択された後、3Dマップ作成モジュール41は、3Dモデルの全ての候補ペアをマージし得る。即ち、この代替の実施の形態において、3Dマップ作成モジュール41は、3Dモデルの第1のペアを選択するが、3Dモデルの第1のペアが選択されるときに3Dモデルの第1のペアをマージするのを控え得る。続いて、3Dマップ作成モジュール41は、複数の3Dモデルから3Dモデルの第2のペアを選択し、3Dモデルの第2のペアが選択されるときに3Dモデルの第1のペアと3Dモデルの第2のペアとをマージし得る。
本発明は、システム、方法、及び/又はコンピュータプログラム製品であってよい。コンピュータプログラム製品は、プロセッサに本発明の態様を実行させるための、コンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体(又は媒体群)を含んでよい。
コンピュータ可読記憶媒体は、命令実行装置が使用するための命令を保持し格納することが可能な有形の装置である。コンピュータ可読記憶媒体は、例えば、これに限らないが、電子記憶装置、磁気記憶装置、光記憶装置、電磁気記憶装置、半導体記憶装置、又は前述の任意の適切な組み合せであってよい。コンピュータ可読記憶媒体の更に具体的な例の非包括的リストは、携帯型コンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラム可能読み取り専用メモリ(EPROM又はフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フレキシブルディスク、パンチカード又は記録された命令を有する溝中の凹凸構造体等の機械的に符号化された装置、及び前述の任意の適切な組み合わせを含む。本明細書で用いるコンピュータ可読記憶媒体は、電波又は他の自由に伝搬する電磁気波、導波管又は他の伝送媒体を通して伝搬する電磁気波(例えば、光ファイバケーブルを介して通過する光パルス)、もしくはワイヤを通って送信される電気信号等の、本質的に一時的な信号であるとして解釈されるべきでない。
本明細書に記載されたコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/プロセッシング装置に、或いは、例えば、インターネット、ローカルエリアネットワーク、広域ネットワーク及び/又は無線ネットワークを介して外部のコンピュータ又は外部の記憶装置にダウンロードすることができる。ネットワークは、銅の伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウエイコンピュータ、及び/又はエッジサーバを含み得る。各コンピューティング/プロセッシング装置中のネットワークアダプタカード又はネットワークインターフェイスは、ネットワークからコンピュータ可読プログラム命令を受信し、そのコンピュータ可読プログラム命令を、それぞれのコンピューティング/プロセッシング装置内のコンピュータ可読記憶媒体中に格納するため転送する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データであってよく、あるいは、Smalltalk、C++等のオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は類似のプログラミング言語等の従来式手続き型プログラミング言語を含む1つ以上のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードであってよい。コンピュータ可読プログラム命令は、ユーザのコンピュータで専ら実行してもよく、スタンドアロンソフトウェアパッケージとして一部をユーザのコンピュータで実行してもよく、一部をユーザのコンピュータで一部を遠隔コンピュータで実行してもよく、或いは遠隔のコンピュータ又はサーバで専ら実行してもよい。後者の場合は、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークを介して、遠隔コンピュータをユーザのコンピュータに接続してよく、或いは(例えばインターネットサービスプロバイダを使いインターネットを介し)外部のコンピュータへの接続を行ってもよい。幾つかの実施の形態において、本発明の態様を実施するために、例えば、プログラム可能ロジック回路、フィールドプログラム可能ゲートアレイ(FPGA)又はプログラム可能ロジックアレイ(PLA)を含む電子回路が、コンピュータ可読プログラム命令の状態情報を用いて電子回路を個別化することによって、コンピュータ可読プログラム命令を実行してよい。
本発明の態様は、本発明の実施の形態による方法、装置(システム)及びコンピュータプログラム製品のフローチャート図及び/又はブロック図を参照しながら、本明細書で説明されている。フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図中のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装することが可能であることが理解されよう。
これらのコンピュータ可読プログラム命令を、汎用コンピュータ、特殊用途コンピュータ、又はマシンを形成する他のプログラム可能データ処理装置のプロセッサに供給し、そのコンピュータ又は他のプログラム可能データ処理装置のプロセッサを介して実行する命令が、フローチャート及び/又はブロック図のブロック又はブロック群中に特定されている機能群/動作群を実装するための手段を生成するようにしてもよい。また、これらのコンピュータ可読プログラム命令を、コンピュータ、プログラム可能データ処理装置、及び/又は他の装置に対し特定の仕方で機能するよう命令することが可能なコンピュータ可読記憶媒体に格納し、格納された命令を有するコンピュータ可読記憶媒体が、フローチャート及び/又はブロック図のブロック又はブロック群中に特定されている機能/動作の態様を実装する命令群を包含する製造品を含むようにしてもよい。
また、コンピュータ可読プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他の装置にロードし、そのコンピュータ上、他のプログラム可能装置上、又は他の装置上で一連の動作ステップを実行させて、コンピュータ実装のプロセスを作り出し、そのコンピュータ上、他のプログラム可能装置上、又は他の装置上で実行する命令が、フローチャート及び/又はブロック図のブロック又はブロック群中に特定されている機能群/動作群を実装するようにしてもよい。
図面のフローチャート及びブロック図は、本発明の様々な実施の形態による、システム、方法、及びコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性、及び動作を示している。この点に関し、フローチャート又はブロック図中の各ブロックは、特定の論理機能(群)を実装するための1つ以上の実行可能命令を含む、モジュール、セグメント、又は命令の部分を表し得る。幾つかの代替の実装では、ブロック中に記載された機能が、図面に記載された順序から外れて行われ得る。例えば、連続して示された2つのブロックが、関与する機能性に応じ、実際にはほぼ同時に実行されることがあり、時にはこれらのブロックが逆の順序で実行されることもあり得る。また、ブロック図及び/又はフローチャート図の各ブロック、及びブロック図及び/又はフローチャート図のブロック群の組み合わせは、特定の機能又は動作を実施するもしくは特殊用途ハードウェアとコンピュータ命令との組み合わせを実行する特殊用途ハードウェアベースのシステムによって実装可能なことにも留意されよう。
本発明の様々な実施の形態の記述は、例示の目的で提示されたもので、網羅的であること、又は開示された実施の形態に限定されることは意図されていない。当業者には、開示された実施の形態の範囲及び趣旨から逸脱することのない多くの修改及び変形が明白であろう。本明細書で用いる用語は、本実施の形態の原理、実際的な応用又は市場で見られる技術に対する技術改善を最善に説明するために、もしくは、他の当業者が、本明細書で開示された実施の形態を理解できるようにするために選択されたものである。

Claims (7)

  1. 3Dマップを作成するためのコンピュータ実装の方法であって、
    複数のビデオと複数のビデオ関連データ単位とを取得することであって、前記複数のビデオ関連データ単位のそれぞれは、対応するビデオが撮られた場所で受信される電波信号の特徴を示す、ことと、
    前記複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築することと、
    前記複数の3Dモデルから一対の3Dモデルを、対応する一対のビデオ関連データ単位の類似度に基づいて選択することと、
    前記一対の3Dモデルをマージして3Dマップを取得することと
    を含む、方法。
  2. 第1のビデオ関連データ単位と第2のビデオ関連データ単位との類似度を、前記第1のビデオ関連データ単位により示される観測された電波信号のセットと前記第2のビデオ関連データ単位により示される観測された電波信号のセットとの類似の程度を表す共起情報を用いて、計算することを更に含む、請求項1の方法。
  3. 第1のビデオ関連データ単位と第2のビデオ関連データ単位との類似度を、前記第1のビデオ関連データ単位により示される電波信号の強度と前記第2のビデオ関連データ単位により示される電波信号の強度との非類似の程度を表す非類似情報を用いて、計算することを更に含む、請求項1の方法。
  4. 前記一対の3Dモデルを選択することは、前記複数の3Dモデルから第1の対の3Dモデルと続けて第2の対の3Dモデルとを選択することを含み、
    前記一対の3Dモデルをマージすることは、前記第2の対の3Dモデルの選択に応じてそれぞれ前記第1の対の3Dモデルと前記第2の対の3Dモデルとをマージすることを含む、請求項1の方法。
  5. 複数の画像と複数の画像関連データ単位とを含む3Dマップを記憶することであって、前記複数の画像関連データ単位のそれぞれは、対応する画像が撮られた場所で受信される電波信号の特徴を示す、ことと、
    入力画像と入力データ単位とを取得することであって、前記入力データ単位は、前記入力画像が撮られた特定の場所で受信される電波信号の特徴を示す、ことと、
    前記入力データ単位と、前記3Dマップに含まれる前記複数の画像関連データ単位の少なくとも1つの画像関連データ単位との類似度に基づいて、前記3Dマップに含まれる前記複数の画像から少なくとも1つの画像を選択することと、
    前記入力画像を前記少なくとも1つの画像と比較することと、
    比較することの結果に基づいて、前記特定の場所を推定することと
    を更に含む、請求項1の方法。
  6. 3Dマップを作成するための装置であって、
    プロセッサと、
    前記プロセッサに結合されたメモリと
    を含み、
    前記メモリは、
    複数のビデオと複数のビデオ関連データ単位とを取得することであって、前記複数のビデオ関連データ単位のそれぞれは、対応するビデオが撮られた場所で受信される電波信号の特徴を示す、ことと、
    前記複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築することと、
    前記複数の3Dモデルから一対の3Dモデルを、対応する一対のビデオ関連データ単位の類似度に基づいて選択することと、
    前記一対の3Dモデルをマージして3Dマップを取得することと
    を前記プロセッサにさせるために前記プロセッサにより実行可能なプログラム命令を含む、装置。
  7. 3Dマップを作成するためのコンピュータプログラム製品であって、前記コンピュータプログラム製品は、コンピュータ可読記憶媒体で実現されるプログラム命令を有する当該コンピュータ可読記憶媒体を含み、前記プログラム命令は、
    複数のビデオと複数のビデオ関連データ単位とを取得することであって、前記複数のビデオ関連データ単位のそれぞれは、対応するビデオが撮られた場所で受信される電波信号の特徴を示す、ことと、
    前記複数のビデオにそれぞれ基づいて、複数の3Dモデルを再構築することと、
    前記複数の3Dモデルから一対の3Dモデルを、対応する一対のビデオ関連データ単位の類似度に基づいて選択することと、
    前記一対の3Dモデルをマージして3Dマップを取得することと
    をコンピュータにさせるために前記コンピュータにより実行可能である、コンピュータプログラム製品。
JP2015243591A 2015-12-14 2015-12-14 3dマップの作成 Active JP6842618B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015243591A JP6842618B2 (ja) 2015-12-14 2015-12-14 3dマップの作成
US15/379,377 US10332273B2 (en) 2015-12-14 2016-12-14 Building 3D map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015243591A JP6842618B2 (ja) 2015-12-14 2015-12-14 3dマップの作成

Publications (2)

Publication Number Publication Date
JP2017111209A true JP2017111209A (ja) 2017-06-22
JP6842618B2 JP6842618B2 (ja) 2021-03-17

Family

ID=59020691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015243591A Active JP6842618B2 (ja) 2015-12-14 2015-12-14 3dマップの作成

Country Status (2)

Country Link
US (1) US10332273B2 (ja)
JP (1) JP6842618B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI644081B (zh) * 2017-12-01 2018-12-11 台灣國際航電股份有限公司 可部分更新參數化編輯三維城市模型的方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074676B (zh) * 2018-07-03 2023-07-07 达闼机器人股份有限公司 建立地图的方法、定位方法、终端及计算机可读存储介质
US11948347B2 (en) * 2020-04-10 2024-04-02 Samsung Display Co., Ltd. Fusion model training using distance metrics

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269592A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像処理装置及び方法
JP2003111128A (ja) * 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP2007306217A (ja) * 2006-05-10 2007-11-22 Necディスプレイソリューションズ株式会社 無線lan通信システムおよび無線lan端末間距離判定方法
US20130249902A1 (en) * 2012-03-25 2013-09-26 John Christopher Byrne System and Method for Defining an Augmented Reality View in a Specific Location
US20140119598A1 (en) * 2012-10-31 2014-05-01 Qualcomm Incorporated Systems and Methods of Merging Multiple Maps for Computer Vision Based Tracking
US20140314322A1 (en) * 2011-12-08 2014-10-23 Cornell University System and methods for world-scale camera pose estimation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images
US8798357B2 (en) 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization
US10495464B2 (en) * 2013-12-02 2019-12-03 The Regents Of The University Of California Systems and methods for GNSS SNR probabilistic localization and 3-D mapping
US9865058B2 (en) * 2014-02-19 2018-01-09 Daqri, Llc Three-dimensional mapping system
US9417911B2 (en) 2014-03-12 2016-08-16 Live Planet Llc Systems and methods for scalable asynchronous computing framework

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002269592A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像処理装置及び方法
JP2003111128A (ja) * 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP2007306217A (ja) * 2006-05-10 2007-11-22 Necディスプレイソリューションズ株式会社 無線lan通信システムおよび無線lan端末間距離判定方法
US20140314322A1 (en) * 2011-12-08 2014-10-23 Cornell University System and methods for world-scale camera pose estimation
US20130249902A1 (en) * 2012-03-25 2013-09-26 John Christopher Byrne System and Method for Defining an Augmented Reality View in a Specific Location
US20140119598A1 (en) * 2012-10-31 2014-05-01 Qualcomm Incorporated Systems and Methods of Merging Multiple Maps for Computer Vision Based Tracking

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
小野 晋太郎: "複数車載カメラ映像の時空間マッチングによる広域都市モデリングシステム", SSII2010 第16回 画像センシングシンポジウム講演論文集 [CD−ROM], JPN6021000099, 9 June 2010 (2010-06-09), JP, pages 4 - 08, ISSN: 0004422392 *
薄 充孝: "ランドマークデータベースに基づく静止画像からのカメラ位置・姿勢推定", 日本バーチャルリアリティ学会論文誌, vol. 第13巻 第2号, JPN6019030209, 30 June 2008 (2008-06-30), pages 161 - 170, ISSN: 0004248418 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI644081B (zh) * 2017-12-01 2018-12-11 台灣國際航電股份有限公司 可部分更新參數化編輯三維城市模型的方法

Also Published As

Publication number Publication date
US20170169583A1 (en) 2017-06-15
US10332273B2 (en) 2019-06-25
JP6842618B2 (ja) 2021-03-17

Similar Documents

Publication Publication Date Title
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
CN109816589B (zh) 用于生成漫画风格转换模型的方法和装置
CN111465962B (zh) 用于手持式用户设备的增强现实的运动深度
JP6348574B2 (ja) 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam
WO2019223382A1 (zh) 单目深度估计方法及其装置、设备和存储介质
JP6258953B2 (ja) 単眼視覚slamのための高速初期化
US10204423B2 (en) Visual odometry using object priors
JP2018530825A (ja) 非障害物エリア検出のためのシステムおよび方法
CN113874870A (zh) 基于图像的定位
US20200184668A1 (en) Systems and methods for three-dimensional pose determination
US10672188B2 (en) Surface reconstruction for environments with moving objects
WO2018205803A1 (zh) 位姿估计方法和装置
EP3872764B1 (en) Method and apparatus for constructing map
EP3872760A2 (en) Method and apparatus of training depth estimation network, and method and apparatus of estimating depth of image
CN110059623B (zh) 用于生成信息的方法和装置
CN112862877A (zh) 用于训练图像处理网络和图像处理的方法和装置
CN111260774A (zh) 生成3d关节点回归模型的方法和装置
JP6842618B2 (ja) 3dマップの作成
US11188787B1 (en) End-to-end room layout estimation
CN110827341A (zh) 一种图片深度估计方法、装置和存储介质
CN111814811A (zh) 图像信息提取方法、训练方法及装置、介质和电子设备
CN109816791B (zh) 用于生成信息的方法和装置
CN110956131A (zh) 单目标追踪方法、装置及系统
CN112085842A (zh) 深度值确定方法及装置、电子设备和存储介质
CN115393423A (zh) 目标检测方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210115

R150 Certificate of patent or registration of utility model

Ref document number: 6842618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150