JP2015513235A - 反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法 - Google Patents
反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2015513235A JP2015513235A JP2014554773A JP2014554773A JP2015513235A JP 2015513235 A JP2015513235 A JP 2015513235A JP 2014554773 A JP2014554773 A JP 2014554773A JP 2014554773 A JP2014554773 A JP 2014554773A JP 2015513235 A JP2015513235 A JP 2015513235A
- Authority
- JP
- Japan
- Prior art keywords
- image
- identifying
- facing camera
- code
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000003213 activating effect Effects 0.000 claims abstract description 17
- 238000012544 monitoring process Methods 0.000 claims abstract description 8
- 230000009977 dual effect Effects 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 19
- 230000033001 locomotion Effects 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 description 21
- 238000013459 approach Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000005355 Hall effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Navigation (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
これは、2012年1月27日に出願の非仮特許出願第13/360,372号に対する優先権を主張するPCT出願であり、参照によりその全体が本明細書に援用される。
・パッチは、空間的に局在化する幾つか(たとえば5〜9)のビンに分割される。
・その後、各空間ビンにおける結合(dx,dy)勾配ヒストグラムが計算される。CHoGヒストグラムビニングは、キーポイントの周囲で抽出されたパッチに関して観測される勾配統計データにおける典型的なスキューを利用する。
・各空間ビンからの勾配のヒストグラムは量子化され、記述子の一部として記憶される。
504 モデム
506 RXデータプロセッサ
508 コントローラ/プロセッサ
510 TXデータプロセッサ
512 メモリ
514 デュアルカメラ支援モジュール
516 画像取込モジュール
518 前方カメラ、前向きカメラ
520 後方カメラ、後向きカメラ
522 センサ
524 加速度計
526 ジャイロスコープ
528 磁力計
530 サーバ
532 プロセッサ
534 ネットワークインターフェース
536 データベース
538 デュアルカメラ位置決めモジュール
540 メモリ
Claims (43)
- デバイスの場所を特定するための方法であって、
前記デバイスの前向きカメラおよび後向きカメラを起動するステップと、
前記前向きカメラおよび前記後向きカメラを用いて第1の向きから第1の画像対を取り込むステップであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むステップと、
前記デバイスが第2の向きに回転されるのを監視するステップと、
前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むステップであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むステップと、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するステップとを含む、方法。 - 前記デバイスの前向きカメラおよび後向きカメラを起動するステップは、
前記デバイスの前記前向きカメラおよび前記後向きカメラをジェスチャで起動するステップを含み、前記ジェスチャは前記デバイスの1つまたは複数のユーザ定義による動きを適用することを含む、請求項1に記載の方法。 - 第1の画像対を取り込むステップは、
前記第1の画像対を同時に取り込むステップを含む、請求項1に記載の方法。 - 第1の画像対を取り込むステップは、
前記第1の画像対を所定の期間内に取り込むステップをさらに含む、請求項1に記載の方法。 - 加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて前記第1の向きおよび前記第2の向きの情報を求めるステップをさらに含む、請求項1に記載の方法。
- 前記デバイスの場所を特定するステップは、
前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するステップと、
前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するステップと、
前記第1の線および前記第2の線の近似的な交差点を求めるステップと、
前記近似的な交差点を前記デバイスの推定場所として識別するステップとを含む、請求項1に記載の方法。 - 第1の線を特定するステップは、
前記第1の前方画像をデータベース内の画像と比較するステップであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するステップと、
前記第1の前方画像の近似的な場所を識別するステップと、
前記第1の後方画像を前記データベース内の前記画像と比較するステップと、
前記第1の後方画像の近似的な場所を識別するステップと、
前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて前記第1の線を特定するステップとを含む、請求項6に記載の方法。 - 前記第1の前方画像を比較するステップは、
前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するステップであって、前記第1の1組の画像は前記前向きカメラの視野内の領域をカバーする、選択するステップと、
前記第1の前方画像を前記第1の1組の画像と比較するステップとを含む、請求項7に記載の方法。 - 前記第1の後方画像を比較するステップは、
前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するステップであって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するステップと、
前記第1の後方画像を前記第2の1組の画像と比較するステップとを含む、請求項7に記載の方法。 - 第2の線を特定するステップは、
前記第2の前方画像をデータベース内の画像と比較するステップであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するステップと、
前記第2の前方画像の近似的な場所を識別するステップと、
前記第2の後方画像を前記データベース内の前記画像と比較するステップと、
前記第2の後方画像の近似的な場所を識別するステップと、
前記第2の前方画像の前記近似的な場所および前記第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するステップとを含む、請求項6に記載の方法。 - 前記推定場所を位置決めエンジンに送るステップと、
前記位置決めエンジンにおいて、前記推定場所を用いて前記デバイスの最終的な場所を特定するステップとをさらに含む、請求項6に記載の方法。 - 1つまたは複数のコンピュータシステムによって実行され、デバイスの場所を特定するためのコンピュータプログラムであって、
前記デバイスの前向きカメラおよび後向きカメラを起動するためのコードと、
前記前向きカメラおよび前記後向きカメラを用いて第1の向きから第1の画像対を取り込むためのコードであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むためのコードと、
前記デバイスが第2の向きに移動されるのを監視するためのコードと、
前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むためのコードであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むためのコードと、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのコードとを含む、コンピュータプログラム。 - 前記デバイスの前向きカメラおよび後向きカメラを起動するためのコードは、
ジェスチャで前記デバイスの前記前向きカメラおよび前記後向きカメラを起動するためのコードを含み、前記ジェスチャは前記デバイスの1つまたは複数のユーザ定義による動きを適用することを含む、請求項12に記載のコンピュータプログラム。 - 第1の画像対を取り込むためのコードは、
前記第1の画像対を同時に取り込むためのコードを含む、請求項12に記載のコンピュータプログラム。 - 第1の画像対を取り込むためのコードは、
前記第1の画像対を所定の期間内に取り込むためのコードをさらに含む、請求項12に記載のコンピュータプログラム。 - 加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて前記第1の向きおよび前記第2の向きの情報を求めるためのコードをさらに含む、請求項12に記載のコンピュータプログラム。
- 前記デバイスの場所を特定するためのコードは、
前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するためのコードと、
前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するためのコードと、
前記第1の線および前記第2の線の近似的な交差点を求めるためのコードと、
前記近似的な交差点を前記デバイスの推定場所として識別するためのコードとを含む、請求項12に記載のコンピュータプログラム。 - 第1の線を特定するためのコードは、
前記第1の前方画像をデータベース内の画像と比較するためのコードであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのコードと、
前記第1の前方画像の近似的な場所を識別するためのコードと、
前記第1の後方画像を前記データベース内の前記画像と比較するためのコードと、
前記第1の後方画像の近似的な場所を識別するためのコードと、
前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて前記第1の線を特定するためのコードとを含む、請求項17に記載のコンピュータプログラム。 - 前記第1の前方画像を比較するためのコードは、
前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するためのコードであって、前記第1の1組の画像は前記前向きカメラの視野内に領域をカバーする、選択するためのコードと、
前記第1の前方画像を前記第1の1組の画像と比較するためのコードとを含む、請求項18に記載のコンピュータプログラム。 - 前記第1の後方画像を比較するためのコードは、
前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するためのコードであって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するためのコードと、
前記第1の後方画像を前記第2の1組の画像と比較するためのコードとを含む、請求項18に記載のコンピュータプログラム。 - 第2の線を特定するためのコードは、
前記第2の前方画像をデータベース内の画像と比較するためのコードであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのコードと、
前記第2の前方画像の近似的な場所を識別するためのコードと、
前記第2の後方画像を前記データベース内の前記画像と比較するためのコードと、
前記第2の後方画像の近似的な場所を識別するためのコードと、
前記第2の前方画像の前記近似的な場所および第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するためのコードとを含む、請求項17に記載のコンピュータプログラム。 - 前記推定場所を位置決めエンジンに送るためのコードと、
前記位置決めエンジンにおいて、前記推定場所を用いて、前記デバイスの最終的な場所を特定するためのコードとをさらに含む、請求項17に記載のコンピュータプログラム。 - 1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサとともに機能するデュアルカメラ支援モジュールであって、
デバイスの前向きカメラおよび後向きカメラを起動するためのロジックと、
前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第1の向きから第1の画像対を取り込むためのロジックであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むためのロジックと、
前記デバイスが第2の向きに移動されるのを監視するためのロジックと、
前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むためのロジックであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むためのロジックと、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのロジックとを含む、デュアルカメラ支援モジュールと、
前記デバイスの前記場所を記憶するように構成されるメモリとを備える、デバイス。 - 前記デバイスの前向きカメラおよび後向きカメラを起動するためのロジックは、
前記デバイスの前記前向きカメラおよび前記後向きカメラをジェスチャで起動するステップを含み、前記ジェスチャは前記デバイスの1つまたは複数のユーザ定義による動きを適用することを含む、請求項23に記載のデバイス。 - 第1の画像対を取り込むためのロジックは、
前記第1の画像対を同時に取り込むためのロジックを含む、請求項23に記載のデバイス。 - 第1の画像対を取り込むためのロジックは、
前記第1の画像対を所定の期間内に取り込むためのロジックをさらに含む、請求項23に記載のデバイス。 - 加速度計、ジャイロスコープおよび磁力計のうちの少なくとも1つを用いて前記第1の向きおよび前記第2の向きの情報を求めるためのロジックをさらに含む、請求項23に記載のデバイス。
- 前記デバイスの場所を特定するためのロジックは、
前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するためのロジックと、
前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するためのロジックと、
前記第1の線および前記第2の線の近似的な交差点を特定するためのロジックと、
前記近似的な交差点を前記デバイスの推定場所として識別するためのロジックとを含む、請求項23に記載のデバイス。 - 前記第1の線を特定するためのロジックは、
前記第1の前方画像をデータベース内の画像と比較するためのロジックであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのロジックと、
前記第1の前方画像の近似的な場所を識別するためのロジックと、
前記第1の後方画像を前記データベース内の前記画像と比較するためのロジックと、
前記第1の後方画像の近似的な場所を識別するためのロジックと、
前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて前記第1の線を特定するためのロジックとを含む、請求項28に記載のデバイス。 - 前記第1の前方画像を比較するためのロジックは、
前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するためのロジックであって、前記第1の1組の画像は前記前向きカメラの視野内の領域をカバーする、選択するためのロジックと、
前記第1の前方画像を前記第1の1組の画像と比較するためのロジックとを含む、請求項29に記載のデバイス。 - 前記第1の後方画像を比較するためのロジックは、
前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するためのロジックであって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するためのロジックと、
前記第1の後方画像を前記第2の1組の画像と比較するためのロジックとを含む、請求項29に記載のデバイス。 - 第2の線を特定するためのロジックは、
前記第2の前方画像をデータベース内の画像と比較するためのロジックであって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するためのロジックと、
前記第2の前方画像の近似的な場所を識別するためのロジックと、
前記第2の後方画像を前記データベース内の前記画像と比較するためのロジックと、
前記第2の後方画像の近似的な場所を識別するためのロジックと、
前記第2の前方画像の前記近似的な場所および前記第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するためのロジックとを含む、請求項28に記載のデバイス。 - 前記推定場所を位置決めエンジンに送るためのロジックと、
前記位置決めエンジンにおいて、前記推定場所を用いて、前記デバイスの最終的な場所を特定するためのロジックとをさらに含む、請求項28に記載のデバイス。 - デバイスの場所を特定するためのシステムであって、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサとともに機能するデュアルカメラ支援モジュールであって、
前記デバイスの前向きカメラおよび後向きカメラを起動するための手段と、
前記前向きカメラおよび前記後向きカメラを用いて第1の向きから第1の画像対を取り込むための手段であって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、取り込むための手段と、
前記デバイスが第2の向きに移動されるのを監視するための手段と、
前記前向きカメラおよび前記後向きカメラを用いて前記第2の向きから第2の画像対を取り込むための手段であって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、取り込むための手段と、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するための手段とを含む、デュアルカメラ支援モジュールと、
前記デバイスの前記場所を記憶するように構成されるメモリとを備える、システム。 - 前記デバイスの場所を特定するための手段は、
前記第1の前方画像および前記第1の後方画像に関連付けられる場所を結ぶ第1の線を特定するための手段と、
前記第2の前方画像および前記第2の後方画像に関連付けられる場所を結ぶ第2の線を特定するための手段と、
前記第1の線および前記第2の線の近似的な交差点を特定するための手段と、
前記近似的な交差点を前記デバイスの推定場所として識別するための手段とを備える、請求項34に記載のシステム。 - 第1の線を特定するための手段は、
前記第1の前方画像をデータベース内の画像と比較するための手段であって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するための手段と、
前記第1の前方画像の近似的な場所を識別するための手段と、
前記第1の後方画像を前記データベース内の前記画像と比較するための手段と、
前記第1の後方画像の近似的な場所を識別するための手段と、
前記第1の前方画像の前記近似的な場所および前記第1の後方画像の前記近似的な場所を用いて、前記第1の線を特定するための手段とを備える、請求項35に記載のシステム。 - 前記第1の前方画像を比較するための手段は、
前記デバイスの前記第1の向きに基づいて前記データベースから第1の1組の画像を選択するための手段であって、前記第1の1組の画像は前記前向きカメラの視野内の領域をカバーする、選択するための手段と、
前記第1の前方画像を前記第1の1組の画像と比較するための手段とを備える、請求項36に記載のシステム。 - 前記第1の後方画像を比較するための手段は、
前記第1の前方画像の前記近似的な場所に基づいて前記データベースから第2の1組の画像を選択するための手段であって、前記第2の1組の画像は前記第1の前方画像の前記近似的な場所の反対側の領域をカバーする、選択するための手段と、
前記第1の後方画像を前記第2の1組の画像と比較するための手段とを備える、請求項36に記載のシステム。 - 第2の線を特定するための手段は、
前記第2の前方画像をデータベース内の画像と比較するための手段であって、前記データベースはある現場の複数の場所の画像特徴を記憶する、比較するための手段と、
前記第2の前方画像の近似的な場所を識別するための手段と、
前記第2の後方画像を前記データベース内の前記画像と比較するための手段と、
前記第2の後方画像の近似的な場所を識別するための手段と、
前記第2の前方画像の前記近似的な場所および前記第2の後方画像の前記近似的な場所を用いて前記第2の線を特定するための手段とを備える、請求項35に記載のシステム。 - デバイスの場所を特定するための方法であって、
前向きカメラおよび後向きカメラを用いて前記デバイスの第1の向きから取り込まれた第1の画像対を受信するステップであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するステップと、
前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するステップであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するステップと、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するステップとを含む、方法。 - 1つまたは複数のコンピュータシステムによって実行され、デバイスの場所を特定するためのコンピュータプログラムであって、
前向きカメラおよび後向きカメラを用いて前記デバイスの第1の向きから取り込まれた第1の画像対を受信するためのコードであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するためのコードと、
前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するためのコードであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するためのコードと、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのコードとを含む、コンピュータプログラム。 - 1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサとともに機能するように構成されるデュアルカメラ位置決めモジュールであって、
前向きカメラおよび後向きカメラを用いてデバイスの第1の向きから取り込まれた第1の画像対を受信するためのロジックであって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するためのロジックと、
前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するためのロジックであって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するためのロジックと、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するためのロジックとを含む、デュアルカメラ位置決めモジュールと、
前記デバイスの前記場所を記憶するように構成されるメモリとを備える、サーバ。 - デバイスの場所を特定するためのシステムであって、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサとともに機能するように構成されるデュアルカメラ位置決めモジュールであって、
前向きカメラおよび後向きカメラを用いて前記デバイスの第1の向きから取り込まれた第1の画像対を受信するための手段であって、前記第1の画像対は第1の前方画像および第1の後方画像を含む、受信するための手段と、
前記前向きカメラおよび前記後向きカメラを用いて前記デバイスの第2の向きから取り込まれた第2の画像対を受信するための手段であって、前記第2の画像対は第2の前方画像および第2の後方画像を含む、受信するための手段と、
前記第1の画像対および前記第2の画像対を用いて前記デバイスの場所を特定するための手段とを含む、デュアルカメラ位置決めモジュールと、
前記デバイスの前記場所を記憶するように構成されるメモリとを備える、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/360,372 | 2012-01-27 | ||
US13/360,372 US9986208B2 (en) | 2012-01-27 | 2012-01-27 | System and method for determining location of a device using opposing cameras |
PCT/US2013/022527 WO2013112461A1 (en) | 2012-01-27 | 2013-01-22 | System and method for determining location of a device using opposing cameras |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015513235A true JP2015513235A (ja) | 2015-04-30 |
JP2015513235A5 JP2015513235A5 (ja) | 2016-03-10 |
JP6151278B2 JP6151278B2 (ja) | 2017-06-21 |
Family
ID=47624428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014554773A Expired - Fee Related JP6151278B2 (ja) | 2012-01-27 | 2013-01-22 | 反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US9986208B2 (ja) |
EP (1) | EP2807453B1 (ja) |
JP (1) | JP6151278B2 (ja) |
KR (1) | KR20140121861A (ja) |
CN (1) | CN104067091B (ja) |
IN (1) | IN2014MN01545A (ja) |
WO (1) | WO2013112461A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018185182A (ja) * | 2017-04-25 | 2018-11-22 | 東京電力ホールディングス株式会社 | 位置特定装置 |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10015449B2 (en) | 2013-10-11 | 2018-07-03 | Stmicroelectronics, Inc. | Method and apparatus for managing provisioning of an imaging system |
US9986208B2 (en) | 2012-01-27 | 2018-05-29 | Qualcomm Incorporated | System and method for determining location of a device using opposing cameras |
JP6168303B2 (ja) * | 2012-01-30 | 2017-07-26 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置およびその制御方法と制御プログラム、通信端末およびその制御方法と制御プログラム |
CN103364774A (zh) * | 2012-04-02 | 2013-10-23 | 深圳富泰宏精密工业有限公司 | 基于WiFi直连的邻近设备定位系统及方法 |
WO2013162585A1 (en) * | 2012-04-26 | 2013-10-31 | Intel Corporation | Multiple lenses in a mobile device |
CN103630130A (zh) * | 2012-08-23 | 2014-03-12 | 环达电脑(上海)有限公司 | 基于位基服务的导航系统及其导航显示方法 |
US9074892B2 (en) * | 2013-03-15 | 2015-07-07 | Ian Michael Fink | System and method of determining a position of a remote object |
US9589189B2 (en) * | 2013-05-23 | 2017-03-07 | Cellco Partnership | Device for mapping physical world with virtual information |
US10670402B2 (en) * | 2013-11-01 | 2020-06-02 | Invensense, Inc. | Systems and methods for optical sensor navigation |
US20150138314A1 (en) * | 2013-11-20 | 2015-05-21 | Google Inc. | Generating Panoramic Images |
CN104936283B (zh) * | 2014-03-21 | 2018-12-25 | 中国电信股份有限公司 | 室内定位方法、服务器和系统 |
US9684831B2 (en) * | 2015-02-18 | 2017-06-20 | Qualcomm Incorporated | Adaptive edge-like feature selection during object detection |
DE102015007624A1 (de) * | 2015-06-16 | 2016-12-22 | Liebherr-Components Biberach Gmbh | Verfahren zum Montieren von elektrischen Schaltanlagen sowie Montagehilfsvorrichtung zum Erleichtern der Montage solcher Schaltanlagen |
US10088318B2 (en) * | 2015-08-27 | 2018-10-02 | Qualcomm Incorporated | Cradle rotation insensitive inertial navigation |
US9349414B1 (en) * | 2015-09-18 | 2016-05-24 | Odile Aimee Furment | System and method for simultaneous capture of two video streams |
CN105282440B (zh) * | 2015-09-29 | 2018-11-09 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN105352484B (zh) * | 2015-10-12 | 2017-03-01 | 北京林业大学 | 一种地面摄影单像解析计算的方法 |
US9789403B1 (en) | 2016-06-14 | 2017-10-17 | Odile Aimee Furment | System for interactive image based game |
US10996060B2 (en) | 2016-08-26 | 2021-05-04 | William Marsh Rice University | Camera-based positioning system using learning |
US9813150B1 (en) * | 2016-09-23 | 2017-11-07 | Qualcomm Incorporated | Controllable selection of light-capture devices |
KR102595391B1 (ko) | 2016-12-07 | 2023-10-31 | 매직 아이 인코포레이티드 | 조정 가능한 초점 이미징 센서를 포함한 거리 센서 |
US10663298B2 (en) * | 2017-06-25 | 2020-05-26 | Invensense, Inc. | Method and apparatus for characterizing platform motion |
US10740612B2 (en) * | 2017-07-20 | 2020-08-11 | International Business Machines Corporation | Location determination |
EP3692396A4 (en) | 2017-10-08 | 2021-07-21 | Magik Eye Inc. | DISTANCE MEASUREMENT USING A LONGITUDINAL GRID PATTERN |
KR20200054324A (ko) * | 2017-10-08 | 2020-05-19 | 매직 아이 인코포레이티드 | 다중 이동형 센서들을 포함한 센서 시스템의 캘리브레이션 |
CN112119628B (zh) | 2018-03-20 | 2022-06-03 | 魔眼公司 | 调整相机曝光以用于三维深度感测和二维成像 |
WO2019182881A1 (en) | 2018-03-20 | 2019-09-26 | Magik Eye Inc. | Distance measurement using projection patterns of varying densities |
WO2019236563A1 (en) | 2018-06-06 | 2019-12-12 | Magik Eye Inc. | Distance measurement using high density projection patterns |
US11475584B2 (en) | 2018-08-07 | 2022-10-18 | Magik Eye Inc. | Baffles for three-dimensional sensors having spherical fields of view |
JP7565282B2 (ja) | 2019-01-20 | 2024-10-10 | マジック アイ インコーポレイテッド | 複数個の通過域を有するバンドパスフィルタを備える三次元センサ |
WO2020197813A1 (en) | 2019-03-25 | 2020-10-01 | Magik Eye Inc. | Distance measurement using high density projection patterns |
CN114073075B (zh) | 2019-05-12 | 2024-06-18 | 魔眼公司 | 将三维深度图数据映射到二维图像上 |
EP4065929A4 (en) | 2019-12-01 | 2023-12-06 | Magik Eye Inc. | IMPROVEMENT OF TRIANGULATION-BASED THREE-DIMENSIONAL DISTANCE MEASUREMENTS WITH TIME OF FLIGHT INFORMATION |
US11580662B2 (en) | 2019-12-29 | 2023-02-14 | Magik Eye Inc. | Associating three-dimensional coordinates with two-dimensional feature points |
WO2021138677A1 (en) | 2020-01-05 | 2021-07-08 | Magik Eye Inc. | Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera |
CN117036663B (zh) * | 2022-04-18 | 2024-07-09 | 荣耀终端有限公司 | 视觉定位方法、设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5699444A (en) * | 1995-03-31 | 1997-12-16 | Synthonics Incorporated | Methods and apparatus for using image data to determine camera location and orientation |
US5870136A (en) * | 1997-12-05 | 1999-02-09 | The University Of North Carolina At Chapel Hill | Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications |
JP2003111128A (ja) * | 2001-09-28 | 2003-04-11 | J-Phone East Co Ltd | 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末 |
JP2004191339A (ja) * | 2002-12-13 | 2004-07-08 | Sharp Corp | 位置情報検索方法、位置情報検索装置、位置情報検索端末、及び、位置情報検索システム |
JP2008502206A (ja) * | 2004-06-04 | 2008-01-24 | エレクトロニック アーツ インコーポレイテッド | デュアル・カメラ入力を用いたセンサ |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5259037A (en) * | 1991-02-07 | 1993-11-02 | Hughes Training, Inc. | Automated video imagery database generation using photogrammetry |
US7508444B1 (en) * | 1998-01-22 | 2009-03-24 | Eastman Kodak Company | Electronic camera with quick view and quick erase features |
US6895126B2 (en) * | 2000-10-06 | 2005-05-17 | Enrico Di Bernardo | System and method for creating, storing, and utilizing composite images of a geographic location |
US6990219B2 (en) * | 2000-12-15 | 2006-01-24 | Nippon Telegraph And Telephone Corporation | Image capturing method and apparatus and fingerprint collation method and apparatus |
US7619683B2 (en) | 2003-08-29 | 2009-11-17 | Aptina Imaging Corporation | Apparatus including a dual camera module and method of using the same |
WO2006035476A1 (ja) | 2004-09-27 | 2006-04-06 | Mitsubishi Denki Kabushiki Kaisha | 位置特定サーバ及び移動体端末 |
US8004558B2 (en) * | 2005-04-07 | 2011-08-23 | Axis Engineering Technologies, Inc. | Stereoscopic wide field of view imaging system |
US7860276B2 (en) | 2005-12-08 | 2010-12-28 | Topcon Corporation | Image processing device and method |
JP4764305B2 (ja) * | 2006-10-02 | 2011-08-31 | 株式会社東芝 | 立体画像生成装置、方法およびプログラム |
JP2009145061A (ja) * | 2007-12-11 | 2009-07-02 | Mitsubishi Electric Corp | 位置計測装置 |
JP4831434B2 (ja) * | 2007-12-27 | 2011-12-07 | アイシン・エィ・ダブリュ株式会社 | 地物情報収集装置及び地物情報収集プログラム、並びに自車位置認識装置及びナビゲーション装置 |
WO2010022129A1 (en) * | 2008-08-20 | 2010-02-25 | Xcard Holdings Llc | Secure smart card system |
US8483715B2 (en) | 2009-03-26 | 2013-07-09 | Yahoo! Inc. | Computer based location identification using images |
US8509488B1 (en) * | 2010-02-24 | 2013-08-13 | Qualcomm Incorporated | Image-aided positioning and navigation system |
US8384770B2 (en) * | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
US9031809B1 (en) * | 2010-07-14 | 2015-05-12 | Sri International | Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion |
US9392102B2 (en) * | 2011-08-23 | 2016-07-12 | Samsung Electronics Co., Ltd. | Apparatus and method for providing panoramic view during video telephony and video messaging |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US9525862B2 (en) | 2011-08-31 | 2016-12-20 | Metaio Gmbh | Method for estimating a camera motion and for determining a three-dimensional model of a real environment |
EP2751742A1 (en) | 2011-08-31 | 2014-07-09 | metaio GmbH | Method of matching image features with reference features |
US9986208B2 (en) | 2012-01-27 | 2018-05-29 | Qualcomm Incorporated | System and method for determining location of a device using opposing cameras |
-
2012
- 2012-01-27 US US13/360,372 patent/US9986208B2/en not_active Expired - Fee Related
-
2013
- 2013-01-22 CN CN201380006705.8A patent/CN104067091B/zh not_active Expired - Fee Related
- 2013-01-22 IN IN1545MUN2014 patent/IN2014MN01545A/en unknown
- 2013-01-22 KR KR1020147023714A patent/KR20140121861A/ko not_active Application Discontinuation
- 2013-01-22 WO PCT/US2013/022527 patent/WO2013112461A1/en active Application Filing
- 2013-01-22 JP JP2014554773A patent/JP6151278B2/ja not_active Expired - Fee Related
- 2013-01-22 EP EP13701700.0A patent/EP2807453B1/en not_active Not-in-force
-
2014
- 2014-08-15 US US14/461,354 patent/US20140354822A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5699444A (en) * | 1995-03-31 | 1997-12-16 | Synthonics Incorporated | Methods and apparatus for using image data to determine camera location and orientation |
US5870136A (en) * | 1997-12-05 | 1999-02-09 | The University Of North Carolina At Chapel Hill | Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications |
JP2003111128A (ja) * | 2001-09-28 | 2003-04-11 | J-Phone East Co Ltd | 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末 |
JP2004191339A (ja) * | 2002-12-13 | 2004-07-08 | Sharp Corp | 位置情報検索方法、位置情報検索装置、位置情報検索端末、及び、位置情報検索システム |
JP2008502206A (ja) * | 2004-06-04 | 2008-01-24 | エレクトロニック アーツ インコーポレイテッド | デュアル・カメラ入力を用いたセンサ |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018185182A (ja) * | 2017-04-25 | 2018-11-22 | 東京電力ホールディングス株式会社 | 位置特定装置 |
Also Published As
Publication number | Publication date |
---|---|
EP2807453A1 (en) | 2014-12-03 |
IN2014MN01545A (ja) | 2015-05-08 |
US20130194428A1 (en) | 2013-08-01 |
KR20140121861A (ko) | 2014-10-16 |
EP2807453B1 (en) | 2017-03-15 |
CN104067091A (zh) | 2014-09-24 |
WO2013112461A1 (en) | 2013-08-01 |
JP6151278B2 (ja) | 2017-06-21 |
US9986208B2 (en) | 2018-05-29 |
CN104067091B (zh) | 2017-02-22 |
US20140354822A1 (en) | 2014-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6151278B2 (ja) | 反対向きのカメラを用いてデバイスの場所を特定するためのシステムおよび方法 | |
US9031283B2 (en) | Sensor-aided wide-area localization on mobile devices | |
US11263475B2 (en) | Incremental learning for dynamic feature database management in an object recognition system | |
CN105009120B (zh) | 基于客户端-服务器的动态搜索 | |
JP5823634B2 (ja) | 3次元物体の追跡 | |
Chen et al. | City-scale landmark identification on mobile devices | |
JP5946924B2 (ja) | シーン構造ベース自己姿勢推定 | |
JP5660648B2 (ja) | マルチユーザ拡張現実におけるオンライン参照生成および追跡 | |
US9400941B2 (en) | Method of matching image features with reference features | |
US20150371440A1 (en) | Zero-baseline 3d map initialization | |
US11276201B1 (en) | Localizing an augmented reality device | |
US20150098616A1 (en) | Object recognition and map generation with environment references | |
US20150095360A1 (en) | Multiview pruning of feature database for object recognition system | |
TW201142749A (en) | Orientation determination of a mobile station using side and top view images | |
JP6393000B2 (ja) | 3dマップに関する仮説的ラインマッピングおよび検証 | |
Koh | Smart navigation system-mobile navigation client development |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160122 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6151278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |