JP6383439B2 - 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム - Google Patents
認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム Download PDFInfo
- Publication number
- JP6383439B2 JP6383439B2 JP2016572460A JP2016572460A JP6383439B2 JP 6383439 B2 JP6383439 B2 JP 6383439B2 JP 2016572460 A JP2016572460 A JP 2016572460A JP 2016572460 A JP2016572460 A JP 2016572460A JP 6383439 B2 JP6383439 B2 JP 6383439B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- sensor
- image
- identification information
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C17/00—Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
- G01C17/38—Testing, calibrating, or compensating of compasses
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R35/00—Testing or calibrating of apparatus covered by the other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Manufacturing & Machinery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Vascular Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
図面を参照して、図1は例示的なコンピューティングデバイス100を示す。いくつかの例においては、図1に示されるコンポーネントは、複数のコンピューティングデバイスを通じて分散され得る。しかしながら、例示のために、コンポーネントは例示的なコンピューティングデバイス100の一部として示され、説明されている。コンピューティングデバイス100は、モバイルデバイス(たとえば、モバイルフォン)、デスクトップコンピュータ、ラップトップコンピュータ、電子メール/メッセージングデバイス、タブレットコンピュータまたは本明細書において説明される機能を実行するように構成され得る類似のデバイスであり得る、または、含み得る。コンピューティングデバイス100は概して、本明細書において説明される方法および機能に従ってデータを送信または受信するように構成されているコンピューティングデバイスまたは送信機のいずれかの種類であり得る。
1または複数のセンサ110は、1または複数のセンサを含み得るか、または、コンピューティングデバイス100内に含まれる1または複数のセンサを表し得る。センサはたとえば、加速度計と、ジャイロスコープと、慣性計測装置(IMU)と、歩数計と、光センサと、マイクロフォンと、1または複数のカメラと、赤外線フラッシュと、気圧計と、磁力計と、Wi−Fi(登録商標)と、近距離無線通信(NFC)と、BLUETOOTH(登録商標)と、プロジェクタと、深度センサと、温度センサと、他の位置および/または状況察知センサとを含む。
磁力計218は、コンピューティングデバイス200のロール、ヨーおよびピッチの計測値を提供するように構成されてもよく、たとえば内蔵コンパスとして作動するように構成されてもよい。いくつかの例においては、磁力計218は、IMU202の図示しないコンポーネントであってもよい。
コプロセッサ230は、コンピューティングデバイス200上の全てのセンサを制御するように構成され得る。複数の例において、コプロセッサ230はカメラ208、210および212のいずれかの露光時間を制御し、プロジェクタ224のパルス同期、時間および強度を制御し、概してセンサのデータキャプチャまたは収集の時間を制御する。コプロセッサ230はさらに、いずれかのセンサからのデータを処理し、アプリケーションプロセッサ232のための適切なフォーマットにするように構成され得る。いくつかの例においては、コプロセッサ230は、同一のタイムスタンプまたはデータ収集時間(もしくは期間)に対応するいずれかのセンサからの全てのデータを、アプリケーションプロセッサ232に提供される単一のデータ構造に統合する。コプロセッサ230はさらに、下記の通り、他の機能を実行するように構成され得る。
Claims (20)
- モバイルデバイスにおける複数のセンサのうちの第1センサからイメージデータを受信する工程であって、前記イメージデータはターゲットオブジェクトを表すデータを含む工程と、
前記複数のセンサのうちの第2センサを用いて決定されるセンサデータを受信する工程と、
前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定するオブジェクト識別情報決定工程と、
前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程であって、前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含む工程と、
前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する比較工程と、
受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定するキャリブレーション値決定工程と、
前記センサキャリブレーション値に基づいて前記第2センサを調整する工程と
を備える方法。 - 前記イメージデータは複数の2次元イメージからなるシーケンスを含み、
前記シーケンスのうちの第1イメージと前記シーケンスのうちの第2イメージとの両方は、前記ターゲットオブジェクトを表すデータを含み、
前記第1イメージのイメージキャプチャ位置は、前記第2イメージのイメージキャプチャ位置とは異なり、
受信した前記センサデータは、前記第1イメージの前記イメージキャプチャ位置と前記第2イメージの前記イメージキャプチャ位置との間の移動に関するデータを含む、
請求項1に記載の方法。 - 前記オブジェクトデータは前記オブジェクト識別情報に関連付けられている色データを含み、
前記センサキャリブレーション値は、前記オブジェクト識別情報に関連付けられている前記色データと、前記ターゲットオブジェクトを表す前記データの色データとの間の差異に基づく、
請求項1に記載の方法。 - 前記モバイルデバイスのプロセッサは、前記オブジェクト識別情報決定工程と、前記比較工程と、前記キャリブレーション値決定工程とを実行する、
請求項1に記載の方法。 - 前記オブジェクト識別情報決定工程は、
前記イメージデータの少なくとも一部をリモートサーバに通信する工程と、
前記オブジェクト識別情報を示すデータを前記リモートサーバから受信する工程と
を含む請求項1に記載の方法。 - 前記オブジェクトデータは、第2モバイルデバイスからサーバに対して通信されるイメージデータに基づいて取り出される、
請求項1に記載の方法。 - 第2ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程であって、前記イメージデータは前記第2ターゲットオブジェクトを表すデータを含む工程と、
前記オブジェクト識別情報に基づいて第2オブジェクトデータを取り出す工程と、
前記オブジェクトデータと、前記第2オブジェクトデータと、前記イメージデータとに基づいて、前記予測されるセンサ値を決定する工程と、
をさらに備え、
前記予測されるセンサ値は、
(i)前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表すデータと比較する工程と、
(ii)前記第2オブジェクトデータを前記イメージデータにおいて前記第2ターゲットオブジェクトを表すデータと比較する工程との両方によって、決定される、
請求項1に記載の方法。 - イメージデータをキャプチャするように構成されている少なくとも1つのカメラと、
少なくとも1つのセンサと、
プロセッサと、を備え、前記プロセッサは、
前記少なくとも1つのカメラからイメージデータを受信する工程であって、前記イメージデータはターゲットオブジェクトを表すデータを含む工程と、
前記少なくとも1つのセンサを用いて決定されるセンサデータを受信する工程と、
前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定するオブジェクト識別情報決定工程と、
前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程であって、前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含む工程と、
前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する比較工程と、
受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定するキャリブレーション値決定工程と、
前記センサキャリブレーション値に基づいて前記少なくとも1つのセンサを調整する工程とを行うように構成されている、
モバイルデバイス。 - 前記イメージデータは複数の2次元イメージからなるシーケンスを含み、
前記シーケンスのうちの第1イメージと前記シーケンスのうちの第2イメージとの両方は、前記ターゲットオブジェクトを表すデータを含み、
前記第1イメージのイメージキャプチャ位置は、前記第2イメージのイメージキャプチャ位置とは異なり、
受信した前記センサデータは、前記第1イメージの前記イメージキャプチャ位置と前記第2イメージの前記イメージキャプチャ位置との間の移動に関するデータを含む、
請求項8に記載のモバイルデバイス。 - 前記オブジェクトデータは前記オブジェクト識別情報に関連付けられている色データを含み、
前記センサキャリブレーション値は、前記オブジェクト識別情報に関連付けられている前記色データと、前記ターゲットオブジェクトを表す前記データの色データとの間の差異に基づく、
請求項8に記載のモバイルデバイス。 - 前記オブジェクト識別情報決定工程は、
前記イメージデータの少なくとも一部をリモートサーバに通信する工程と、
オブジェクト識別情報を示すデータを前記リモートサーバから受信する工程とを前記プロセッサが行うようにさらに構成されていることを含む請求項8に記載のモバイルデバイス。 - 前記オブジェクトデータは、第2モバイルデバイスからサーバに対して通信されるイメージデータに基づいて取り出される、
請求項8に記載のモバイルデバイス。 - 第2ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程であって、前記イメージデータは前記第2ターゲットオブジェクトを表すデータを含む工程と、
前記オブジェクト識別情報に基づいて第2オブジェクトデータを取り出す工程と、
前記オブジェクトデータと、前記第2オブジェクトデータと、前記イメージデータとに基づいて、前記予測されるセンサ値を決定する工程とを前記プロセッサが行うようにさらに構成されていることをさらに含み、
前記予測されるセンサ値は、
(i)前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表すデータと比較する工程と、
(ii)前記第2オブジェクトデータを前記イメージデータにおいて前記第2ターゲットオブジェクトを表すデータと比較する工程との両方によって、決定される、
請求項8に記載のモバイルデバイス。 - 命令が記憶されている非一時的なコンピュータ可読媒体であって、前記命令はシステムにおけるプロセッサによって実行されるときに前記システムに、
モバイルデバイスにおける複数のセンサのうちの第1センサからイメージデータを受信する工程であって、前記イメージデータはターゲットオブジェクトを表すデータを含む工程と、
前記複数のセンサのうちの第2センサを用いて決定されるセンサデータを受信する工程と、
前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定するオブジェクト識別情報決定工程と、
前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程であって、前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含む工程と、
前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する比較工程と、
受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定するキャリブレーション値決定工程と、
前記センサキャリブレーション値に基づいて前記第2センサを調整する工程と
を含む動作を実行させる、非一時的なコンピュータ可読媒体。 - 前記イメージデータは複数の2次元イメージからなるシーケンスを含み、
前記シーケンスのうちの第1イメージと前記シーケンスのうちの第2イメージとの両方は、前記ターゲットオブジェクトを表すデータを含み、
前記第1イメージのイメージキャプチャ位置は、前記第2イメージのイメージキャプチャ位置とは異なり、
受信した前記センサデータは、前記第1イメージの前記イメージキャプチャ位置と前記第2イメージの前記イメージキャプチャ位置との間の移動に関するデータを含む、
請求項14に記載の非一時的なコンピュータ可読媒体。 - 前記オブジェクトデータは前記オブジェクト識別情報に関連付けられている色データを含み、
前記センサキャリブレーション値は、前記オブジェクト識別情報に関連付けられている前記色データと、前記ターゲットオブジェクトを表す前記データの色データとの間の差異に基づく、
請求項14に記載の非一時的なコンピュータ可読媒体。 - 前記モバイルデバイスのプロセッサは、前記オブジェクト識別情報決定工程と、前記比較工程と、前記キャリブレーション値決定工程とを実行する、
請求項14に記載の非一時的なコンピュータ可読媒体。 - 前記オブジェクト識別情報決定工程は、
前記イメージデータの少なくとも一部をリモートサーバに通信する工程と、
オブジェクト識別情報を示すデータを前記リモートサーバから受信する工程と
を含む請求項14に記載の非一時的なコンピュータ可読媒体。 - 前記オブジェクトデータは、第2モバイルデバイスからサーバに対して通信されるイメージデータに基づいて取り出される、
請求項14に記載の非一時的なコンピュータ可読媒体。 - 第2ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程であって、前記イメージデータは前記第2ターゲットオブジェクトを表すデータを含む工程と、
前記オブジェクト識別情報に基づいて第2オブジェクトデータを取り出す工程と、
前記オブジェクトデータと、前記第2オブジェクトデータと、前記イメージデータとに基づいて、前記予測されるセンサ値を決定する工程と、
をさらに備え、
前記予測されるセンサ値は、
(i)前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表すデータと比較する工程と、
(ii)前記第2オブジェクトデータを前記イメージデータにおいて前記第2ターゲットオブジェクトを表すデータと比較する工程との両方によって、決定される、
請求項14に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/302,926 | 2014-06-12 | ||
US14/302,926 US20150362579A1 (en) | 2014-06-12 | 2014-06-12 | Methods and Systems for Calibrating Sensors Using Recognized Objects |
PCT/US2015/030307 WO2015191204A1 (en) | 2014-06-12 | 2015-05-12 | Methods and systems for calibrating sensors using recognized objects |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017527145A JP2017527145A (ja) | 2017-09-14 |
JP6383439B2 true JP6383439B2 (ja) | 2018-08-29 |
Family
ID=54834080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016572460A Active JP6383439B2 (ja) | 2014-06-12 | 2015-05-12 | 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20150362579A1 (ja) |
EP (1) | EP3155503A4 (ja) |
JP (1) | JP6383439B2 (ja) |
KR (1) | KR101874926B1 (ja) |
CN (1) | CN106462244A (ja) |
AU (1) | AU2015275198B2 (ja) |
WO (1) | WO2015191204A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10187629B2 (en) | 2016-04-06 | 2019-01-22 | Facebook, Inc. | Camera calibration system |
US10012517B2 (en) * | 2016-08-01 | 2018-07-03 | Infinity Augmented Reality Israel Ltd. | Method and system for calibrating components of an inertial measurement unit (IMU) using scene-captured data |
US20180276842A1 (en) * | 2017-03-27 | 2018-09-27 | Blackberry Limited | System and method for image based confirmation |
DE102017211038A1 (de) * | 2017-06-29 | 2019-01-03 | Robert Bosch Gmbh | Verfahren zum Einstellen einer Kamera |
US11002820B2 (en) * | 2018-07-30 | 2021-05-11 | 7hugs Labs SAS | System for object tracking in physical space with aligned reference frames |
US11144018B2 (en) * | 2018-12-03 | 2021-10-12 | DSi Digital, LLC | Data interaction platforms utilizing dynamic relational awareness |
CN114152860B (zh) * | 2021-11-05 | 2023-11-10 | 深圳橙子自动化有限公司 | 探针校准方法和装置、电子设备及存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050222801A1 (en) * | 2004-04-06 | 2005-10-06 | Thomas Wulff | System and method for monitoring a mobile computing product/arrangement |
KR100560966B1 (ko) * | 2004-10-12 | 2006-03-15 | 삼성광주전자 주식회사 | 로봇 청소기의 자이로 센서 보정방법 |
DE102004056669A1 (de) | 2004-10-13 | 2006-04-20 | Robert Bosch Gmbh | Einrichtung für die Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug |
KR100761011B1 (ko) * | 2006-05-30 | 2007-09-21 | 학교법인 인하학원 | 카메라형 태양센서를 이용한 관성항법시스템의자세보정장치 및 방법 |
EP1972893A1 (en) * | 2007-03-21 | 2008-09-24 | Universiteit Gent | System and method for position determination |
KR101557678B1 (ko) * | 2009-04-22 | 2015-10-19 | 삼성전자주식회사 | 휴대 단말기의 캘리브레이션 방법 및 장치 |
US8855929B2 (en) * | 2010-01-18 | 2014-10-07 | Qualcomm Incorporated | Using object to align and calibrate inertial navigation system |
US8694051B2 (en) * | 2010-05-07 | 2014-04-08 | Qualcomm Incorporated | Orientation sensor calibration |
US8963883B2 (en) * | 2011-03-17 | 2015-02-24 | Symbol Technologies, Inc. | Touchless interactive display system |
KR101207462B1 (ko) * | 2011-05-31 | 2012-12-03 | 전자부품연구원 | 영상 정보와 거리-각도 정보를 이용한 센서 보정 시스템 |
EP2600109A3 (en) * | 2011-11-30 | 2015-03-25 | Sony Ericsson Mobile Communications AB | Method for calibration of a sensor unit and accessory comprising the same |
US20150172513A1 (en) * | 2013-12-18 | 2015-06-18 | Nokia Corporation | Methods And Apparatus For Color Balance Correction |
-
2014
- 2014-06-12 US US14/302,926 patent/US20150362579A1/en not_active Abandoned
-
2015
- 2015-05-12 CN CN201580027150.4A patent/CN106462244A/zh active Pending
- 2015-05-12 AU AU2015275198A patent/AU2015275198B2/en active Active
- 2015-05-12 EP EP15805935.2A patent/EP3155503A4/en not_active Withdrawn
- 2015-05-12 KR KR1020167034660A patent/KR101874926B1/ko active IP Right Grant
- 2015-05-12 WO PCT/US2015/030307 patent/WO2015191204A1/en active Application Filing
- 2015-05-12 JP JP2016572460A patent/JP6383439B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3155503A1 (en) | 2017-04-19 |
WO2015191204A1 (en) | 2015-12-17 |
KR101874926B1 (ko) | 2018-07-05 |
AU2015275198B2 (en) | 2017-08-03 |
KR20160149311A (ko) | 2016-12-27 |
JP2017527145A (ja) | 2017-09-14 |
CN106462244A (zh) | 2017-02-22 |
AU2015275198A1 (en) | 2016-10-06 |
US20150362579A1 (en) | 2015-12-17 |
EP3155503A4 (en) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6383439B2 (ja) | 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム | |
US9596443B2 (en) | Methods and systems for providing sensor data and image data to an application processor in a digital image format | |
US9277361B2 (en) | Methods and systems for cross-validating sensor data acquired using sensors of a mobile device | |
EP3090407B1 (en) | Methods and systems for determining estimation of motion of a device | |
US9631956B2 (en) | Methods and systems for calibrating sensors of a computing device | |
US10062178B2 (en) | Locating a portable device based on coded light | |
US9990547B2 (en) | Odometry feature matching | |
US20150193971A1 (en) | Methods and Systems for Generating a Map including Sparse and Dense Mapping Information | |
US9485366B2 (en) | Methods and systems for communicating sensor data on a mobile device | |
CN107560637B (zh) | 头戴显示设备校准结果验证方法及头戴显示设备 | |
US20150233743A1 (en) | Methods and Systems for Acquiring Sensor Data on a Device Using Multiple Acquisition Modes | |
US9424619B2 (en) | Methods and systems for detecting frame tears | |
US9445015B2 (en) | Methods and systems for adjusting sensor viewpoint to a virtual viewpoint |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6383439 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |