JP6383439B2 - 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム - Google Patents

認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム Download PDF

Info

Publication number
JP6383439B2
JP6383439B2 JP2016572460A JP2016572460A JP6383439B2 JP 6383439 B2 JP6383439 B2 JP 6383439B2 JP 2016572460 A JP2016572460 A JP 2016572460A JP 2016572460 A JP2016572460 A JP 2016572460A JP 6383439 B2 JP6383439 B2 JP 6383439B2
Authority
JP
Japan
Prior art keywords
data
sensor
image
identification information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016572460A
Other languages
English (en)
Other versions
JP2017527145A (ja
Inventor
ヘシュ、ジョエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2017527145A publication Critical patent/JP2017527145A/ja
Application granted granted Critical
Publication of JP6383439B2 publication Critical patent/JP6383439B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • G01C17/38Testing, calibrating, or compensating of compasses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R35/00Testing or calibrating of apparatus covered by the other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステムに関する。
多数の最新モバイルデバイスは、高速データ通信を可能とするための高度なコンピューティングおよびコネクティビティ性能に加えて、様々なセンサを備える。たとえば、モバイルデバイス(スマートフォン、タブレット、ウェアラブルコンピューティングデバイスなど)の多くは、イメージングおよびポジショニングのためのセンサを搭載する。モバイルデバイスにおいて見られるいくつかのセンサには、たとえば、加速度計、ジャイロスコープ、磁力計、気圧計、グローバルポジショニングシステム(GPS)受信機、マイクロフォン、カメラ、Wi−Fi(登録商標)センサ、BLUETOOTH(登録商標)センサ、温度センサおよび圧力センサが、他の種類のセンサに加えて含まれる。
幅広い種類の利用可能なセンサによって、モバイルデバイスは様々な機能を実行し、様々なユーザエクスペリエンスを提供することができる。一例として、モバイルデバイスは、ユーザが環境を通じてモバイルデバイスを移動させる際のモバイルデバイスの軌跡を決定するために、イメージングおよび/またはポジショニングデータを用い得る。他の例として、モバイルデバイスは、環境の2Dまたは3Dマップを生成するために、または環境の2Dまたは3Dマップ内でのモバイルデバイスの位置を決定するために、イメージングおよび/またはポジショニングデータを用い得る。さらなる例として、モバイルデバイスは、拡張現実アプリケーションを可能とするために、イメージングおよび/またはポジショニングデータを用い得る。他の例も存在する。
認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステムを提供する。
モバイルデバイスがセンサからのデータに依拠して特定の機能(たとえば、軌跡決定、走行距離計測、マップ生成)を実行する例においては、センサから受信したデータのキャリブレーションを行うことができると有利なことがある。たとえば、モバイルデバイスにおけるセンサは、デバイスが製造されるときの工場出荷時設定においてキャリブレーションが行われてもよい。本明細書において説明されるのは、工場出荷時設定以外を含む、センサのキャリブレーションを行うための方法およびシステムである。たとえば、モバイルデバイスのエンドユーザは光データをイメージまたはビデオデータとしてキャプチャしてもよく、モバイルデバイスの様々なセンサのキャリブレーションを行うために、この光データが用いられてもよい。
一例の態様においては、複数のセンサを有するモバイルデバイスによって行われる方法が提供される。前記方法は、モバイルデバイスにおける複数のセンサのうちの第1センサからイメージデータを受信する工程を備える。前記イメージデータはターゲットオブジェクトを表すデータを含んでもよい。前記方法はさらに、前記複数のセンサのうちの第2センサを用いて決定されるセンサデータを受信する工程を備える。前記方法はさらに、前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程を備える。前記方法はさらに、前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程を備える。前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含んでもよい。前記方法はさらに、前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する工程を備える。前記方法はさらに、受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定する工程を備える。前記方法はさらに、前記センサキャリブレーション値に基づいて前記第2センサを調整する工程を備える。
別例の態様においては、モバイルデバイスが提供される。前記モバイルデバイスは、イメージデータをキャプチャするように構成されている少なくとも1つのカメラと、少なくとも1つのセンサと、プロセッサと、を備える。前記プロセッサは、前記少なくとも1つのカメラからイメージデータを受信するように構成されている。前記イメージデータはターゲットオブジェクトを表すデータを含む。前記プロセッサはさらに、前記少なくとも1つのセンサを用いて決定されるセンサデータを受信するように構成されている。前記プロセッサはさらに、前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定するように構成されている。前記プロセッサはさらに、前記オブジェクト情報が決定された後、前記オブジェクト識別情報に基づいてオブジェクトデータを取り出すように構成されている。前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含む。前記プロセッサはさらに、前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較するように構成されている。前記プロセッサはさらに、受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定するように構成されている。前記プロセッサはさらに、前記センサキャリブレーション値に基づいて前記少なくとも1つのセンサを調整するように構成されている。
さらなる別例の態様においては、1または複数のプロセッサによって実行されるときに前記1または複数のプロセッサに複数の機能を実行させる非一時的なコンピュータ可読媒体が提供される。前記複数の機能は、モバイルデバイスにおける複数のセンサのうちの第1センサからイメージデータを受信する工程を含む。前記イメージデータはターゲットオブジェクトを表すデータを含んでもよい。前記複数の機能はさらに、前記複数のセンサのうちの第2センサを用いて決定されるセンサデータを受信する工程を含む。前記複数の機能はさらに、前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程を含む。前記複数の機能はさらに、前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程を含む。前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含んでもよい。前記複数の機能はさらに、前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する工程を含む。前記複数の機能はさらに、受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定する工程を含む。前記複数の機能はさらに、前記センサキャリブレーション値に基づいて前記第2センサを調整する工程とを含む。
前述のサマリは例示にすぎず、いかなる方法においても限定することを意図していない。上記の態様、実施形態および特徴に加えて、図面と以下の詳細な説明との参照によって、さらなる態様、実施形態および特徴が明らかになる。
一例のコンピューティングデバイスを示す図。 別例のコンピューティングデバイスを示す図。 コンピューティングデバイスの一例を示す概略図。 コンピューティングデバイスの一例を示す概略図。 椅子の画像データをキャプチャしているモバイルデバイスの一例を示す概略図。 椅子に対する3次元オブジェクトデータのレンダリングの一例を表す図。 デバイスセンサキャリブレーションのための方法の一例を示す図。 本明細書において説明される方法の一実施形態のためのフローダイアグラムを示す図。 本明細書において説明される方法の一実施形態のためのフローダイアグラムを示す図。 コンピュータデバイス上でコンピュータプロセスを行うためのコンピュータプログラムを含むコンピュータプログラム製品の一例を示す部分概略図。
以下の詳細な説明において、本明細書の一部を構成する添付図面が参照される。図面において、別段の指示がない限り、類似の符号によって概して類似の構成要素が識別される。詳細な説明、図面および請求項に説明される例示的実施形態は、限定的であることを意図していない。本明細書に提示される主題の範囲から逸脱することなく、他の実施形態が用いられてもよいし、他の変更がなされてもよい。本発明の態様は、本明細書において概して説明され、図面に示されている通りに、その全てが本明細書において明確に意図されている幅広い種類の様々な構成において、配置、置換、結合、分離および設計されると容易に理解される。
複数の例において、モバイルデバイスはイメージをキャプチャし、それに応じて、キャプチャされたイメージに基づいてセンサキャリブレーションを決定し得る。たとえば、モバイルデバイスは少なくとも1つのイメージをキャプチャして、さらに、各イメージと共にセンサデータをキャプチャし得る。モバイルデバイスは、イメージから少なくとも1つのオブジェクトを認識し得る。いくつかの例では、モバイルでは、デバイスにローカルであるか、またはリモートの位置にあるデータベースに問い合わせを行い、オブジェクトに関する情報を取得し得る。オブジェクトに関する情報は、3次元オブジェクトデータを含み得る。その後、モバイルデバイスは、3次元オブジェクトデータおよびキャプチャされたイメージに基づいて、関連付けられているセンサ値を決定し得る。関連付けられているセンサ値は、キャプチャされたセンサデータと比較され、センサキャリブレーションを決定する。その後、決定されたセンサキャリブレーションは、関連付けられているセンサに適用され得る。
以下、本明細書において、比較のためのイメージおよびセンサ読取値に由来し得る情報の種類の様々な例が説明される。いくつかの例においては、コンピューティングデバイスは、計算に基づいて、モバイルデバイスの様々なセンサの内的および/または外的パラメータの精度を決定し得る。内的パラメータは、1つのセンサの出力からのデータを扱うパラメータであり得る。たとえば、ジャイロスコープ装置におけるバイアスは、内的パラメータであり得る。外的パラメータは、一組のセンサからのアンサンブル出力を記述するパラメータであり得る。たとえば、センサ対の相対位置および配向は、ある場面を移動する際にその複数の計測値がどのように同時に生じるのか記述するのに役立つ。
他の例において、他のモバイルデバイスに由来する情報は、キャリブレーションを補助するために用いられ得る。一例として、第1モバイルデバイスは、ピクチャを撮り得る。このピクチャは、サーバに対して通信され得る。第2モバイルデバイスがピクチャを撮るとき、サーバは、オブジェクトが第1デバイスからの第1ピクチャおよび第2デバイスからの第2ピクチャの中に存在していたと判定し得る。第2デバイスのセンサのためのキャリブレーションは、部分的には第1デバイスからのピクチャに関連付けられている情報に基づいて計算され得る。
さらなる例示的な方法および例示的なデバイス(たとえば、モバイル、または、そうでないもの)が、添付の図面を参照して本明細書において説明される。
図面を参照して、図1は例示的なコンピューティングデバイス100を示す。いくつかの例においては、図1に示されるコンポーネントは、複数のコンピューティングデバイスを通じて分散され得る。しかしながら、例示のために、コンポーネントは例示的なコンピューティングデバイス100の一部として示され、説明されている。コンピューティングデバイス100は、モバイルデバイス(たとえば、モバイルフォン)、デスクトップコンピュータ、ラップトップコンピュータ、電子メール/メッセージングデバイス、タブレットコンピュータまたは本明細書において説明される機能を実行するように構成され得る類似のデバイスであり得る、または、含み得る。コンピューティングデバイス100は概して、本明細書において説明される方法および機能に従ってデータを送信または受信するように構成されているコンピューティングデバイスまたは送信機のいずれかの種類であり得る。
コンピューティングデバイス100は、インターフェース102、無線通信コンポーネント104、セルラー無線通信コンポーネント106、グローバルポジショニングシステム(GPS)受信機108、1または複数のセンサ110、データストレージ112および1または複数のプロセッサ114を備え得る。図1に示される複数のコンポーネントは、通信リンク116によってリンクされてもよい。コンピューティングデバイス100はさらに、コンピューティングデバイス100内における、および、コンピューティングデバイス100と他の図示しないコンピューティングデバイス(たとえば、サーバエンティティ)との間における通信を可能にするためのハードウェアを含み得る。ハードウェアは、送信機、受信機、アンテナなどを含み得る。
インターフェース102は、コンピューティングデバイス100が他の図示しないコンピューティングデバイス(たとえば、サーバ)と通信することを可能にするように構成され得る。したがって、インターフェース102は、1または複数のコンピューティングデバイスからの入力データを受信し、さらに、1または複数のコンピューティングデバイスからの出力データを送信するように構成され得る。インターフェース102は、無線または有線通信プロトコルに従って機能するように構成され得る。いくつかの例において、インターフェース102は、複数のボタン、キーボード、タッチスクリーン、1または複数のスピーカ118、1または複数のマイクロフォン120および/または他の任意の入力受信のための要素を含み得る。さらにインターフェース102は、1または複数のディスプレイおよび/または他の任意の出力通信のための要素を含み得る。
無線通信コンポーネント104は、1または複数の通信規格に従ったコンピューティングデバイス100のための無線データ通信を可能とするように構成されている通信インターフェースであり得る。たとえば、無線通信コンポーネント104は、1または複数のIEEE802.11規格に従った無線データ通信を可能とするように構成されているWi−Fi(登録商標)通信コンポーネントを含み得る。別の例として、無線通信コンポーネント104は、1または複数のBLUETOOTH(登録商標)通信規格に従った無線データ通信を可能とするように構成されているBLUETOOTH(登録商標)通信コンポーネントを含み得る。他の例も可能である。
セルラー無線通信コンポーネント106は、ネットワークにモバイルコネクティビティを提供するためにセルラー無線基地局との無線通信(音声および/またはデータ)を可能とするように構成されている通信インターフェースであり得る。セルラー無線通信コンポーネント106は、たとえば、コンピューティングデバイス100が位置するセルの基地局に接続されるように構成され得る。
GPS受信機108は、GPS衛星によって送信される信号を正確に計時することによりコンピューティングデバイス100の位置を推定するように構成され得る。
1または複数のセンサ110は、1または複数のセンサを含み得るか、または、コンピューティングデバイス100内に含まれる1または複数のセンサを表し得る。センサはたとえば、加速度計と、ジャイロスコープと、慣性計測装置(IMU)と、歩数計と、光センサと、マイクロフォンと、1または複数のカメラと、赤外線フラッシュと、気圧計と、磁力計と、Wi−Fi(登録商標)と、近距離無線通信(NFC)と、BLUETOOTH(登録商標)と、プロジェクタと、深度センサと、温度センサと、他の位置および/または状況察知センサとを含む。
データストレージ112は、1または複数のプロセッサ114によってアクセスおよび実行されるプログラムロジック122を記憶し得る。データストレージ112はさらに、1または複数のセンサ110によって収集されるデータ、または、無線通信コンポーネント104、セルラー無線通信コンポーネント106およびGPS受信機108のうちいずれかによって収集されるデータを記憶し得る。
1または複数のプロセッサ114は、1または複数のセンサ110に収集されるデータを受信して、該データに基づいて任意の数の機能を実行するように構成され得る。一例として、1または複数のプロセッサ114は、1または複数の位置決定コンポーネント(たとえば、無線通信コンポーネント104、セルラー無線通信コンポーネント106、またはGPS受信機108)を用いて、コンピューティングデバイス100の1または複数の地理的位置推定値を決定するように構成され得る。1または複数のプロセッサ114は、コンピューティングデバイス100の無線範囲内における1または複数の既知の無線アクセスポイントの存在または位置に基づいてコンピューティングデバイス100の位置を決定するために、位置決定アルゴリズムを用い得る。一例において、1または複数の無線アクセスポイント(たとえば、MACアドレス)の識別情報を決定し、該1または複数の無線アクセスポイントの各々より受信した信号の強度を計測し得る(たとえば、受信信号強度表示)。各固有無線アクセスポイントからの受信信号強度表示(RSSI)は、各無線アクセスポイントからの距離を決定するために用いられる。そして、その距離は、各固有無線アクセスポイントが位置する場所に関する情報を記憶するデータベースと比較され得る。各無線アクセスポイントからの距離と、各無線アクセスポイントの既知の位置とに基づいて、コンピューティングデバイス100の位置推定値が決定され得る。
別の例においては、1または複数のプロセッサ114は、近傍のセルラー基地局に基づいてコンピューティングデバイス100の位置を決定するために、位置決定アルゴリズムを用い得る。たとえば、セルラー無線通信コンポーネント106は、コンピューティングデバイス100がセルラーネットワークからの信号を受信中のセル、または、最後に受信したセルを識別するように構成され得る。セルラー無線通信コンポーネント106はさらに、信号を提供する基地局に対するラウンドトリップタイム(RTT)を計測し、位置推定値を決定するために、この情報を識別されたセルに組み合わせるように構成され得る。別の例においては、セルラー無線通信コンポーネント106は、コンピューティングデバイス100の位置を推定するために、3以上の基地局からOTODA(Observed Time Difference of Arrival)を用いるように構成され得る。
いくつかの実施形態では、コンピューティングデバイス100は、マルチレイヤードLinux(登録商標)プラットフォームとして構成され得る図示しないデバイスプラットフォームを含み得る。該デバイスプラットフォームは、様々なカーネル、ライブラリおよびランタイムエンティティだけでなく、様々なアプリケーションおよびアプリケーションフレームワークを含み得る。他の例においては、他のフォーマットまたはオペレーティングシステムはコンピューティングデバイス100も作動させ得る。
通信リンク116は有線通信として図示されるが、無線通信が用いられてもよい。たとえば、通信リンク116は、他の可能性もあるが、短距離無線技術またはIEEE802.11(任意のIEEE802.11の改訂版を含む)に記載されたコミュニケーションプロトコルなどを用いた有線シリアルバス(たとえば、ユニバーサルシリアルバスまたはパラレルバス)または無線通信であってもよい。
コンピューティングデバイス100は、より多数のコンポーネント、または、より少数のコンポーネントを備え得る。さらに、本明細書において説明される例示的な方法は、コンピューティングデバイス100のコンポーネントによって個別に、または、コンピューティングデバイス100の1または全てのコンポーネントによって共同で、実行されてもよい。
図2は、別の例示的なコンピューティングデバイス200を示す。図2中のコンピューティングデバイス200は、図1中に示されるコンピューティングデバイス100の一部を表し得る。図2において、コンピューティングデバイス200は、各々がコプロセッサ230に出力を行う複数のセンサ(たとえば、ジャイロスコープ204および加速度計206を含む慣性計測装置(IMU)202、グローバルシャッタ(GS)カメラ208、ローリングシャッタ(RS)カメラ210、前向きカメラ212、赤外線(IR)フラッシュ214、気圧計216、磁力計218、GPS受信機220、Wi−Fi(登録商標)/NFC/BLUETOOTH(登録商標)センサ222、プロジェクタ224および温度センサ226)を備えるように示されている。さらに、コンピューティングデバイス200は、コプロセッサ230から入力を受信し、コプロセッサ230に出力する深度プロセッサ228を備えるように示されている。コプロセッサ230は、アプリケーションプロセッサ232から入力を受信し、アプリケーションプロセッサ232に出力する。コンピューティングデバイス200はさらに、アプリケーションプロセッサ232に直接的に出力する第2IMU234を備え得る。
IMU202は、ジャイロスコープ204および加速度計206の出力に基づいて、コンピューティングデバイス200について速度、配向および重力を決定するように構成され得る。
GSカメラ208は、コンピューティングデバイス200の正面から離れて面するように、コンピューティングデバイス200上に設置して後向きのカメラになるように構成され得る。GSカメラ208は、カメラ208の全ピクセルの出力を同時に読み出せるように構成され得る。GSカメラ208は、約120〜170度の視野(たとえば、広角ビューイング用フィッシュアイセンサ)を有するように構成され得る。
RSカメラ210は、ピクセルディスプレイの上部からピクセルディスプレイの下部までのピクセルの出力を読み出すように構成され得る。一例として、RSカメラ210は、赤/緑/青(RGB)赤外線(IR)4メガピクセルイメージセンサであり得るが、他のセンサであってもよい。RSカメラ210は、最小限の読み出し時間(たとえば約5.5秒)で作動するよう、露光を高速にしてもよい。RSカメラ210は、GSカメラ208のように後向きのカメラであり得る。
カメラ212は、コンピューティングデバイス200における前向きカメラとして構成される補助カメラであってもよく、GSカメラ208およびRSカメラ210とは反対向きの補助カメラであってもよい。カメラ212は広角カメラであってもよく、たとえば広角ビューイング用に、約120〜170度の視野を有してもよい。
IRフラッシュ214は、コンピューティングデバイス200のための光源を提供してもよく、たとえばGSカメラ208およびRSカメラ210に光を提供するためコンピューティングデバイス200の後方に向けて光を出力してもよい。いくつかの例においては、IRフラッシュ214は、低デューティサイクル(たとえば5ヘルツ)で、または、コプロセッサ230もしくはアプリケーションプロセッサ232によって指示されて非連続的に、フラッシュするように構成され得る。IRフラッシュ214は、たとえばモバイルデバイスに用いられるように構成されるLED光源を含み得る。
図3Aおよび図3Bは、コンピューティングデバイス300上のいくつかのセンサの構成を示すコンピューティングデバイス300の概略図である。図3Aおよび図3Bにおいて、コンピューティングデバイス300はモバイルフォンとして示されている。コンピューティングデバイス300は、図1中のコンピューティングデバイス100または図2中のコンピューティングデバイス200のいずれかに類似し得る。図3Aは、前向きカメラ304およびP/Lセンサ開口部306(たとえば、近接または光センサ)と共に、ディスプレイ302が提供されるコンピューティングデバイス300の前面を示す。前向きカメラ304は、図2において説明されたカメラ212であってもよい。
図3Bは、後方カメラ310および別の後方カメラ314が提供されるコンピューティングデバイス300の背部308を示す。図2中のコンピューティングデバイス200により説明すると、後方カメラ310はRSカメラ210であってもよく、GSカメラ208であってもよい。コンピューティングデバイス300の背部308はさらに、IRフラッシュ314を含む。IRフラッシュ314は、図2中のコンピューティングデバイス200において説明されたIRフラッシュ214またはプロジェクタ224であり得る。一例においては、IRフラッシュ214とプロジェクタ224とは一体であり得る。たとえば、単一のIRフラッシュは、IRフラッシュ214およびプロジェクタ224の機能を実行するために用いられる。別の例においては、後方カメラ310の近傍にある、図示しない第2セカンドフラッシュ(たとえば、LEDフラッシュ)を含み得る。センサの構成および配置は、たとえば、コンピューティングデバイス300の望ましい機能を提供するのに役立ち得るが、他の構成も可能である。
図2に戻って、気圧計216は圧力センサを含んでもよく、空気圧および高度変化を決定するように構成されてもよい。
磁力計218は、コンピューティングデバイス200のロール、ヨーおよびピッチの計測値を提供するように構成されてもよく、たとえば内蔵コンパスとして作動するように構成されてもよい。いくつかの例においては、磁力計218は、IMU202の図示しないコンポーネントであってもよい。
GPS受信機220は、図1のコンピューティングデバイス100において説明されたGPS受信機108と類似し得る。さらなる例においては、GPS220はさらに、GPS衛星または他のネットワークエンティティから受信したタイミング信号を出力し得る。そのようなタイミング信号は、同一の衛星タイミングスタンプを含む収集データについて、複数のデバイスを通じてセンサからその収集データを同期するために用いられ得る。
Wi−Fi(登録商標)/NFC/BLUETOOTH(登録商標)センサ222は、別のデバイスと接触または近接することでその別のデバイスとの無線通信を確立させるため、図1のコンピューティングデバイス100と共に説明されたようにWi−Fi(登録商標)およびBLUETOOTH(登録商標)に従って作動するか、またはNFC規格に従って作動するように構成されている無線通信コンポーネントを含み得る。
プロジェクタ224は、環境においてドットパターンを生成するためのパターンジェネレータを有するレーザを備える構造化光プロジェクタであってもよく、該光プロジェクタを含んでもよい。プロジェクタ224は、環境におけるオブジェクトの深度に関する情報(たとえば、オブジェクトの3次元(3D)特徴)を回復するためにRSカメラ210と連動して作動するように構成され得る。たとえば、RSカメラ210は、ドットパターンの1または複数のイメージをキャプチャし、深度プロセッサ228にデータを提供するように構成されているRGB−IRカメラであり得る。深度プロセッサ228はその後、投影されたドットパターンに基づいてオブジェクトまでの距離およびオブジェクトの形状を決定するように構成され得る。たとえば、深度プロセッサ228は、プロジェクタ224にドットパターンを生成させ、RSカメラ210にドットパターンのイメージをキャプチャさせるように構成され得る。深度プロセッサはその後、ドットパターンのイメージを処理し、3Dデータの三角測量および抽出を行うための様々なアルゴリズムを用い、コプロセッサ230に深度イメージを出力し得る。
温度センサ226は、温度または温度勾配(たとえば、コンピューティングデバイス200の周囲環境などの温度変化)を計測するように構成され得る。
コプロセッサ230は、コンピューティングデバイス200上の全てのセンサを制御するように構成され得る。複数の例において、コプロセッサ230はカメラ208、210および212のいずれかの露光時間を制御し、プロジェクタ224のパルス同期、時間および強度を制御し、概してセンサのデータキャプチャまたは収集の時間を制御する。コプロセッサ230はさらに、いずれかのセンサからのデータを処理し、アプリケーションプロセッサ232のための適切なフォーマットにするように構成され得る。いくつかの例においては、コプロセッサ230は、同一のタイムスタンプまたはデータ収集時間(もしくは期間)に対応するいずれかのセンサからの全てのデータを、アプリケーションプロセッサ232に提供される単一のデータ構造に統合する。コプロセッサ230はさらに、下記の通り、他の機能を実行するように構成され得る。
アプリケーションプロセッサ232は、コンピューティングデバイス200の他の機能を制御する(たとえば、コンピューティングデバイス200上に記憶されたオペレーティングシステムまたは任意の数のソフトウェアアプリケーションに従ってコンピューティングデバイス200が作動するように制御する)ように構成され得る。アプリケーションプロセッサ232は、センサに収集され、コプロセッサから受信したデータを用いて、任意の数の種類の機能を実行するように構成され得る。アプリケーションプロセッサ232はコプロセッサ230の出力を受信してもよく、いくつかの例においては、未処理データ出力をGSカメラ208およびRSカメラ210を含む他のセンサから受信してもよい。アプリケーションプロセッサ232はさらに、下記の通り、他の機能を実行するように構成され得る。
第2IMU234は、アプリケーションプロセッサ232に直接的に収集データを出力し得る。該データは、アプリケーションプロセッサ232によって受信され、他のセンサにデータ収集を開始させるために用いられ得る。一例として、第2IMU234の出力はコンピューティングデバイス200の運動を示してもよく、コンピューティングデバイス200が運動している際には、イメージデータ、GPSデータなどを収集するのが望ましい。したがって、アプリケーションプロセッサ232は、IMU234の出力が運動を示す時間において、共通バスに対する通信シグナリングを通じて他のセンサにデータを収集させ得る。
図2に示されるコンピューティングデバイス200は、各センサおよびプロセッサ間における複数の通信バスを含む。たとえば、コンピューティングデバイス230は、通信用マルチマスターシリアルシングルエンドバスを含む集積回路間(I2C)バスを介して、IMU202、GSカメラ208、およびRSカメラ212の各々と通信し得る。コプロセッサ230は、同一のI2Cバスまたは別個の通信バスを通じて、IMU202、GSカメラ208、およびRSカメラ212の各々によって収集、計測および検知された未加工データを受信し得る。コプロセッサ230は、全二重方式で作動し得る同期シリアルデータリンクを含むシリアルペリフェラルインターフェース(SPI)バス、I2Cバス、および、カメラまたはピクセル情報と通信するように構成されているシリアルインターフェースを含むモバイルインダストリプロセッサインターフェース(MIPI)を含む複数の通信バスを通じて、アプリケーションプロセッサ232と通信し得る。様々なバスの使用は、たとえば各コミュニケーションバスによって提供されるデータ通信速度および帯域幅の必要に応じて決定され得る。
図4は、モバイルデバイス402が椅子404のイメージデータをキャプチャ中であるシナリオ400の概略図である。本明細書中に提示される実施例において、モバイルデバイス402は、同一のオブジェクト(たとえば、図4の椅子404)を各々が含む1または複数のイメージを、キャプチャし得る。モバイルデバイス402は、モバイルデバイス402の表現402A〜402Eによって示されるように、様々な角度から、および、様々な配向において、椅子のイメージデータをキャプチャし得る。イメージがキャプチャされる各位置において、モバイルデバイス402の各表現402A〜402Eは、関連付けられているビュー406A〜406Eを有し得る。各ビュー406A〜406E内において、モバイルデバイスのカメラはターゲットオブジェクト404を視界に入れることができる。
さらに、モバイルデバイス402は、データをキャプチャするとき、関連付けられているセンサデータも記憶し得る。たとえば、モバイルデバイス402は、写真がキャプチャされる各表現402A〜402Eの位置におけるセンサデータをキャプチャし得る。他の実施形態においては、モバイルデバイス402は、表現402A〜402Eの位置に対応する各イメージがキャプチャされる際に、連続してセンサデータをキャプチャし得る。
図5は、椅子に対する3次元オブジェクトデータ500のレンダリングを表す。3次元オブジェクトデータは、モバイルデバイス内に記憶され得る。モバイルデバイスは、モバイルデバイスによってキャプチャされるイメージを、3次元オブジェクトデータと比較し得る。たとえば、椅子が異なる角度から眺められる場合、椅子は異なって見える場合がある。したがって、3次元オブジェクトデータ500は、椅子の多数の異なるビューによりレンダリングされた状態で示される。図5に示されるように、ビュー502A〜502Dの各々は、椅子を異なった角度から示す。いくつかのさらなる例においては、椅子の3次元データ500は、椅子の色情報も含み得る。
モバイルデバイスが椅子を含むイメージをキャプチャするとき、モバイルデバイスは椅子の3Dオブジェクトデータ500を用いて、ピクチャのパラメータを決定し得る。たとえば、椅子のサイズおよび配向に基づいて、モバイルデバイスは、モバイルデバイスの椅子に対する位置に関するいくつかの位置情報を計算し得る。第2ピクチャがキャプチャされる場合、モバイルデバイスは第2ピクチャをキャプチャしたときのモバイルデバイスの位置に関するいくつかの位置情報を計算し得る。その2つのイメージに基づいて、モバイルデバイスは各ピクチャにおける椅子を分析することで、移動、配向または他のセンサパラメータを決定し得る。モバイルは、この決定された移動、配向または他のセンサパラメータを、キャプチャされたセンサデータと比較し得る。したがって、キャリブレーション値は、決定された移動、配向または他のセンサパラメータと、キャプチャされたセンサデータとに基づいて計算され得る。
図6は、デバイスセンサキャリブレーションのための例示的方法600のブロック図である。図6に示される方法600は、図1のコンピューティングデバイス100または図2のコンピューティングデバイス200によって、あるいは、より一般的には、任意のコンピューティングデバイスの1または複数のコンポーネントによって用いられる、または、実施され得る方法の一実施形態を提示している。方法600は、1または複数のブロック602〜614によって示される1または複数の演算、機能または作用を含み得る。ブロックを逐次的に示しているが、これらのブロックは並列に実行されたり、本明細書に説明されているものとは異なる順番で実行されたりしてもよい。さらに、様々なブロックは、望ましい実施形態に基づいて、より少数のブロックに結合されてもよいし、さらなるブロックに分割されてもよいし、および/または除去されてもよい。
さらに、方法600と、本明細書に説明される他のプロセスおよび方法とに関して、このブロック図は本実施形態の可能な一実施形態の機能および動作を示す。これに関して、各ブロックは、プロセスにおける特定の論理機能またはステップを実施するためのプロセッサまたはコンピューティングデバイスによって実行可能な1または複数の命令を含む、モジュール、セグメント、またはプログラムコードの一部を表し得る。プログラムコードは、任意の種類のコンピュータ可読媒体(たとえば、ディスクまたはハードドライブを含むストレージデバイス)に記憶され得る。コンピュータ可読媒体は、非一時的なコンピュータ可読媒体(たとえば、レジスタメモリ、プロセッサキャッシュおよびランダムアクセスメモリ(RAM)のような、短期間にデータを記憶するコンピュータ可読媒体)であり得る。コンピュータ可読媒体はさらに、非一時的な媒体(たとえば、読み出し専用メモリ(ROM)、光または磁気ディスク、コンパクトディスク読み出し専用メモリ(CD−ROM)のような、二次記憶装置または持続性長期記憶装置)であり得る。コンピュータ可読媒体はさらに、任意の他の揮発性または不揮発性ストレージシステムであり得る。コンピュータ可読媒体は、たとえば、コンピュータ可読記憶媒体(たとえば、有形の記憶媒体)であり得る。
さらに、方法600と、本明細書に説明される他のプロセスおよび方法とに関して、図6中の各ブロックは、プロセス中の特定の論理機能を実行するために配線される回路を表し得る。
方法600の機能は、完全にコンピューティングデバイスによって実行されてもよく、複数のコンピューティングデバイスおよび/またはサーバを通じて分散されてもよい。一例として、方法600は、オペレーティングシステムに基づいて機能するように構成されているアプリケーションプロセッサと、デバイスの複数のセンサからデータを受信するように構成されているコプロセッサとを有するデバイスによって実行され得る。該複数のセンサは、図1、図2または図3Aおよび図3Bのいずれかの中の任意の上記センサ(たとえば、IMU、グローバルシャッタカメラ、ローリングシャッタカメラ、構造化光プロジェクタ、深度カメラ、赤外線フラッシュ、気圧計、磁力計、温度計)を含み得る。該複数のセンサが他の種類のセンサを含むことも想定される。方法600はさらに、図4に関して説明されたものと類似するイメージキャプチャを行うことを有する。方法600はさらに、図5に関して説明されたものと類似する3次元オブジェクトデータを包含し得る。
いくつかの実施形態において、方法600の機能は、図2のアプリケーションプロセッサ232によって実行され得る。他の実施形態において、方法600の機能は図2のコプロセッサ230によって実行され得る。さらに他の実施形態において、方法600の機能は、モバイルデバイスからリモートに位置するコンピューティングデバイスによって実行され得る。いくつかの実施形態において、リモートコンピューティングデバイスはサーバにあり得る。
まずブロック602において、方法600は、モバイルデバイスにおける複数のセンサのうちの第1センサからイメージデータを受信する工程を備える。いくつかの例において、イメージデータは、ターゲットオブジェクトを表し得る。たとえば、イメージデータは、モバイルデバイスのカメラまたは深度プロセッサを用いてキャプチャされた2次元または3次元のイメージデータであり得る。複数の例において、イメージデータはモバイルデバイスのカメラから受信されてもよく、モバイルデバイスのコプロセッサから受信されてもよい。さらに、イメージデータは、複数のキャプチャされたイメージおよび/またはキャプチャされたビデオを含み得る。
イメージデータは、モバイルデバイスの位置および/または配向が操作されるときにモバイルデバイスがキャプチャし得るターゲットオブジェクトを表すデータを含み得る。たとえば、イメージデータは、ユーザがモバイルデバイスを回転させるか、またはモバイルデバイスの位置を変化させる間にキャプチャされ得る。しかしながら、他の実施形態においては、一箇所にあるモバイルデバイスは、デバイスが移動させられることなく、イメージデータをキャプチャし得る。
一実施形態において、イメージデータは、複数のイメージ(たとえば、3、5、10または別の任意の数の、順番にキャプチャされたイメージ)からなるシーケンスであり得る。別の実施形態において、イメージデータはビデオとしてキャプチャされ得る。
キャプチャされたイメージデータは、各イメージ(またはビデオ)におけるターゲットオブジェクトを表すデータを含み得る。いくつかの例において、イメージデータを構成する様々なイメージは、同一のターゲットオブジェクトを含み得る。たとえば、キャプチャされたイメージデータの様々なイメージは各々、1つの椅子を含み得る。この椅子は、様々な位置および角度からイメージ化され得る。したがって、この椅子は各イメージにおいて表され得るが、全く同じには現れない可能性がある(モバイルが様々な位置から、および、様々な配向を用いて、イメージをキャプチャするため)。別の実施形態においては、2以上のターゲットオブジェクトがイメージデータにおいてキャプチャされ得る。
ブロック604において、方法600は、複数のセンサのうちの第2センサからセンサデータを受信する工程を備える。さらに、センサデータは、モバイルデバイスの上記の同じ運動と対応し得る。さらに、センサデータは、イメージデータの1または複数のイメージがキャプチャされたときにモバイルデバイスの第2センサを用いて決定され得る。複数の例において、センサデータは、コプロセッサから受信されてもよく、モバイルデバイスのセンサから受信されてもよい。
一例において、センサデータは、モバイルデバイスのジャイロスコープ、IMU、磁力計または加速度計からの加速度計の読取値を含み得る。センサデータはさらに、GPS、デッドレコニングまたは他の形式のローカリゼーションに基づく移動情報を含み得る。別の例において、センサデータは、モバイルデバイスの第2カメラを用いてキャプチャされたモバイルデバイスの運動を表すイメージを含み得る。さらに別の例において、センサデータは、モバイルデバイスの深度プロセッサを用いて決定される複数の深度イメージからなるシーケンスを含み得る。また別の例において、センサデータは、モバイルデバイスの光センサによって提供される環境光の計測値を含み得る。さらなる実施形態において、センサデータは、モバイルデバイスのカメラによって提供される色データを含み得る。たとえば、いくつかの実施形態において、第1センサおよび第2センサの両方がカメラユニットであり得る。さらなる実施形態では、カメラセンサは、第1センサおよび第2センサの両方として機能し得る。
センサデータは、イメージデータのイメージがキャプチャされるのと同時か、イメージがキャプチャされる前または後か、イメージキャプチャを行っている間に連続的に、あるいは異なるタイミングで、キャプチャされ得る。1つの特定の例において、第1イメージがキャプチャされるときにセンサデータがキャプチャされてもよく、第2イメージがキャプチャされるまでデータがセンサから連続的にキャプチャされてもよい。別の実施形態では、センサデータは、各イメージキャプチャと同時にキャプチャされ得る。
ブロック606において、方法600は、イメージデータに基づいてターゲットオブジェクトに対するオブジェクト識別情報を決定する工程を備える。様々な実施形態において、ブロック606はローカルに実行されてもよく、リモートコンピューティングデバイスによって実行されてもよい。ブロック606がローカルに実行される実施形態においては、モバイルデバイスはオブジェクトデータベースを有し得る。モバイルは、ターゲットオブジェクトを表すデータをデータベースにおけるオブジェクトと比較して、オブジェクト識別情報を決定し得る。たとえば、イメージは、どのオブジェクトがイメージにおいて存在するか判定するために、分析され得る。オブジェクトが識別されると、ターゲットオブジェクトは様々な基準に基づいて識別され得る。いくつかの実施形態においては、ターゲットオブジェクトは、イメージ内のオブジェクトの配置によって識別される。他の実施形態においては、複数のオブジェクトが分析され、いずれの認識されるオブジェクトが識別されるターゲットオブジェクトであってもよい。
他の実施形態において、モバイルデバイスは、イメージデータの少なくとも一部をサーバに通信し得る。サーバは、イメージデータに基づいてターゲットオブジェクトを識別できる可能性がある。サーバはその後、それに応じてオブジェクト識別情報をモバイルデバイスに通信し得る。またさらなる実施形態においては、モバイルデバイス自体がターゲットオブジェクトを認識しようと試みてもよく、モバイルデバイスがターゲットオブジェクトを識別できない場合、識別を実行するため、モバイルデバイスがイメージデータの少なくとも一部をサーバに通信してもよい。
ブロック608において、方法600は、オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程を備える。オブジェクトデータは、オブジェクト識別情報の3次元表現に関するデータを含み得る。オブジェクトが識別されると、モバイルは識別されたオブジェクトに関するオブジェクトデータを取り出すことができる。様々な実施形態において、ブロック608の取出工程は、モバイルデバイスのメモリからローカルに取り出すことで、または、リモートコンピューティングデバイスに問い合わせを行うことで、実行され得る。いくつかの実施形態においては、まずモバイルデバイスはオブジェクトデータに対するローカルデバイスメモリを確認してもよく、ローカルメモリがオブジェクトデータを有しない場合、モバイルデバイスはそれに応じてリモートコンピューティングデバイスに問い合わせを行ってもよい。
オブジェクトデータは、図5に関して説明されたものと類似する、識別されるオブジェクトの3次元表現に関するデータを含み得る。たとえば、オブジェクトデータは、イメージデータの一部としてキャプチャされたオブジェクトの3Dモデルであり得る。さらに、オブジェクトデータは、識別されるオブジェクトに関する色情報を含み得る。オブジェクトデータは、様々な方法で取得され得る。たとえば、データベースは、オブジェクトに関しての詳細な計測値およびサイズデータを含み得る。オブジェクトが識別されるとき、データベースはオブジェクトデータを取り出すために問い合わせを行われ得る。
一例において、サーバはオブジェクトデータのライブラリを含み得る。サーバは、周期的にオブジェクトデータをモバイルデバイスに対して通信し得る。モバイルに対して通信されるオブジェクトデータは、モバイルデバイスによってイメージにおいてキャプチャされる可能性のあるオブジェクトに基づき得る。サーバは、イメージにおいてキャプチャされる可能性のあるオブジェクトを様々な方法で決定し得る。一例においては、一般的な日常的なオブジェクトに関するオブジェクトデータが、モバイルデバイスに対して通信され得る。別の例においては、モバイルデバイスの所有者が所有することが知られているオブジェクトに関するオブジェクトデータが、モバイルデバイスに対して通信され得る。また別の例においては、オブジェクトデータは、異なるモバイルデバイスによってキャプチャされたイメージに基づいて、モバイルデバイスに対して通信され得る。この例においては、異なるモバイルデバイスが、イメージをキャプチャまたはオブジェクトを識別してもよく、イメージまたはオブジェクト情報をサーバに通信してもよい。サーバは、他のモバイルデバイスが同一のオブジェクトに遭遇する可能性があると判定してもよく、オブジェクトデータをモバイルデバイスに対して通信してもよい。
ブロック610において、方法600は、予測されるセンサ値をオブジェクトデータおよびイメージデータに基づいて決定する工程を備える。オブジェクトデータはオブジェクトの3次元表現を含むため、オブジェクトデータはキャリブレーションのための基準として機能する。たとえば、予測されるセンサ値は、オブジェクトデータをイメージデータにおいてターゲットオブジェクトを表すデータと比較することによって、決定され得る。予測される値を決定するために、イメージデータはオブジェクトデータと共に分析され、センサが正しく作動している場合に当該センサが出力すべきものを予測する。
一実施形態において、イメージデータの第1イメージにおけるターゲットオブジェクトのサイズ、形状および位置は、オブジェクトデータと比較され得る。この比較に基づいて、モバイルデバイスに関するターゲットオブジェクトの距離、角度、配向、色または他の特質が計算され得る。この比較は、イメージデータの第2イメージに基づいて繰り返され得る。したがって、基準として機能するオブジェクトデータに基づく二つの比較によって、第1イメージがキャプチャされた位置と第2イメージがキャプチャされた位置との間におけるモバイルデバイスの移動に対して、予測されるセンサ値が計算される。
さらに、いくつかの実施形態において、オブジェクトデータは色情報を含み得る。これらの実施形態において、色情報はキャリブレーション用の基準として機能することができる。さらに、光レベルセンサは、色情報の実施形態において第2センサとして機能し得る。したがって、これらの実施形態において、センサを調整することによって、モバイルデバイスのカメラの色出力を正しく調整できる。
ブロック612において、方法600は、受信したセンサデータと予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定する工程を備える。センサキャリブレーション値は、モバイルデバイスあるいはリモートサーバのいずれか、またはモバイルデバイスおよびリモートサーバの両方によって計算され得る。
その後、予測されるセンサ値は計測されるセンサ値と比較され、センサキャリブレーション値のオフセットを決定することができる。このオフセットは、数学的に正しい値における複数の計測される値の間の差異を表し、キャリブレーション値であってもよい。たとえば、2つのキャプチャされたイメージの分析に基づいて、モバイルデバイスが2つのピクチャ間で右に約20センチメートル(8インチ)移動したと判定される可能性がある。センサデータは、デバイスが約15センチメートル(6インチ)のみ移動したことを示し得る。したがって、約5センチメートル(2インチ)の差異が、センサオフセットを計算するために用いられ得る。いくつかの実施形態において、センサオフセットを計算すると、センサデータにおける33パーセント増加となり得る(2インチは、センサによって報告された6インチの33パーセントであるため)。
他の実施形態においては、キャリブレーションは、モバイルデバイスのイメージング素子のために実行され得る。この実施形態においては、オブジェクトからの色情報が、ターゲットオブジェクトのためにキャプチャされた色と比較され得る。このキャリブレーションは、イメージデータにおける単一のキャプチャされたイメージのみを用いて実行され得る。しかしながら、いくつかの例においては、ターゲットオブジェクトは様々な照明条件においてキャプチャされ得る。キャリブレーションは、様々な照明条件において、様々なイメージを通じて実行され得る。たとえば、イメージは、白の特定の色調を有する椅子を含み得る。しかしながら、オブジェクトデータは、椅子が実際には白の異なる色調であることを示し得る。センサオフセットは、椅子の白色を正しくイメージングするために決定され得る。
また別の実施形態においては、第1モバイルデバイスがターゲットデバイスのイメージをキャプチャした場合、キャリブレーションは、第2モバイルデバイスによってキャプチャされた単一のイメージに基づいて実行され得る。第1モバイルデバイスはターゲットオブジェクトのイメージをキャプチャし、イメージをキャプチャするときに、関連付けられているセンサデータを記憶する。このイメージとセンサデータとは、サーバまたは他のモバイルデバイスのどちらかに対して通信され得る。さらに、第2モバイルデバイスは、ターゲットオブジェクトのイメージと、関連付けられているセンサデータとをキャプチャし得る。そして、この比較は、2つの異なるデバイスからキャプチャされたイメージと、2つの異なるデバイスからキャプチャされたセンサデータとの間で行われる。この比較は、2つのイメージの間の位置情報がセンサ情報に基づいて計算され得るので、第2デバイスのためのキャリブレーション値を計算するのに依然として用いられ得る。たとえば、キャリブレーションが行われた第1デバイスは、既知の位置から椅子のピクチャを撮り得る。第2デバイスはキャリブレーションが行われない可能性もあり、第2デバイスは同一の椅子のピクチャを撮り得る。2つのイメージの計算に基づいて、第2デバイスのセンサに関する移動、GPS位置または他のパラメータが計算され得る。
さらなる例においては、イメージデータが複数の2次元イメージからなるシーケンスを含む例において、モバイルデバイスの運動の推定値はモバイルデバイスの回転運動の推定値を含み得る。そのようなモバイルデバイスの回転運動の推定値は、センサデータに基づく計算に由来し得る。モバイルの回転運動の推定値は、イメージにおけるターゲットオブジェクトを識別することと、複数のイメージからなるシーケンス中の各イメージ内におけるターゲットオブジェクトの位置の移動を追跡することとに基づく基準移動と比較され得る。たとえば、2つのキャプチャされたイメージの分析に基づいて、モバイルデバイスが2つのピクチャ間で90度回転したと判定され得る。センサデータは、デバイスが85度のみ移動したことを示し得る。したがって、5度の差異がセンサオフセットを計算するために用いられ得る。
別の例においては、モバイルデバイスの基準運動はモバイルデバイスの軌跡を含み得る。たとえば、モバイルデバイスが既知のターゲットオブジェクトの前面に移動される場合、モバイルデバイスの経時的軌跡は、既知のオブジェクトまたはターゲットの観察に基づいて決定され得る。軌跡は、既知のオブジェクトまたはターゲットの基準座標系におけるモバイルデバイスの位置および配向の経時的推定値のうちの1つまたは任意の組み合わせを含み得る。基準軌跡は、センサキャリブレーション値を決定するために、センサ値に基づいて決定された軌跡と比較され得る。軌跡は、デバイスの移動について説明されたのと類似したセンサオフセットを計算するために用いられ得る。
ブロック614において、方法600は、センサキャリブレーション値に基づいて第2センサを調整する工程を備える。第2センサは、センサキャリブレーション値に基づいて調整され得る。センサまたはセンサオフセットの種類に応じて、調整は様々な方法で行われ得る。いくつかの実施形態においては、センサは固定されたオフセット調整を有し得る。他の実施形態においては、センサはセンサの値に基づいて調整を行うオフセットを有し得る。またさらなる実施形態においては、センサキャリブレーション値は、センサ値と期待値との間の数学的関係に基づいて決定され得る。いくつかの実施形態においては、センサキャリブレーション値を生成するために、ブロック602〜612は数回繰り返され得る。さらに、ブロック602〜612は、調整された第2センサ値がイメージの分析に基づいて計算されたものと類似するセンサ値を与えていることを確認するために、繰り返され得る。
図7Aおよび図7Bを参照すると、本明細書において説明されている方法の互いに異なる実施形態に関してのフローダイアグラムが記載されている。図7Aは、方法600の一実施形態を実行している単一のモバイルデバイスに関するフローダイアグラムを記載している。図7Bは、方法600の一実施形態を共に実行している2つのモバイルデバイスに関するフローダイアグラムを記載している。
図7Aでは、一群のセンサ702がプロセッサ704に対して結合される。センサとプロセッサとの両方は、モバイルデバイスに位置し得る。サーバ706は、モバイルデバイスから離れて位置し得るが、モバイルデバイスと通信し得る。一群のセンサ702は、通信用データをプロセッサ704に対して生成し得る。プロセッサ704は、センサデータとイメージデータとの両方を一群のセンサ702から受信し得る。
一群のセンサ702からの受信データに基づいて、プロセッサはターゲットオブジェクトに対するオブジェクト識別情報を決定し得る。その時のターゲットオブジェクトに対するオブジェクト識別情報は、一群のセンサ702からのイメージデータに基づいて決定され得る。いくつかの図示しない実施形態においては、プロセッサ704はその時のターゲットオブジェクトに対するオブジェクト識別情報を決定できない可能性がある。この場合、オブジェクト識別情報を決定するために、センサ群からのイメージデータはサーバ706に通信され得る。
プロセッサ704によってオブジェクト識別情報が決定されると、プロセッサ704はオブジェクトデータに対する要求をサーバ706に対して通信することができる。プロセッサ704はそれに応じて、サーバ706からオブジェクトデータを受信し得る。サーバ706がオブジェクト識別情報を決定する実施形態においては、プロセッサはオブジェクトに対しての要求をサーバ706に通信しない可能性もあるが、プロセッサはサーバ706のオブジェクト識別情報の決定後にサーバ706からオブジェクトデータを受信し得る。
プロセッサ704がサーバ706からオブジェクトデータを受信することに応じて、プロセッサ704はセンサキャリブレーションを決定し得る。プロセッサ704は、ブロック610および612を含む上記の図6についての説明と類似する方法でセンサキャリブレーションを決定し得る。同様に、プロセッサ704は、上記の図6について説明されていたようなセンサキャリブレーションに基づいてセンサデータを調整し得る。
図7Bでは、デバイス1(710)は、サーバ706と通信を行う。サーバ706も、デバイス2(720)と通信を行う。図7Bに示される実施形態では、2つのデバイスが、第2デバイスがセンサキャリブレーションを実行することを補助するために用いられる。デバイス1(710)は、オフィス内などのエリアのイメージデータをキャプチャし得る。デバイス1(710)はそれに応じて、サーバ706に対してイメージデータを送信し得る。サーバ706がイメージデータをデバイス1(710)から受信すると、サーバ706はイメージにおけるターゲットオブジェクトを決定する。さらに、サーバ706は、決定されたオブジェクトに関してのオブジェクトデータをデバイス2(720)に対して送信する。したがって、デバイス2(720)は、どのオブジェクトがイメージにおいて存在するか判定する前に、オブジェクトデータのローカルコピーを記憶できる可能性がある。さらに、デバイス2(720)は、オブジェクトデータのローカルコピーを記憶後、いかなる外部のネットワーク接続も用いずに方法600を実行できる可能性がある。
その後、デバイス2(720)は、デバイス2におけるプロセッサに対して結合されたセンサ群からイメージおよびセンサデータをキャプチャし得る。キャプチャされたイメージは、デバイス1(710)によってキャプチャされたものと同一のオフィスのイメージであり得る。センサとプロセッサとは、両方ともモバイルデバイスに位置し得る。センサ群からの受信データに基づいて、デバイス2(720)のプロセッサはターゲットオブジェクトに対するオブジェクト識別情報を決定し得る。その時のターゲットオブジェクトに対するオブジェクト識別情報は、センサ群からのイメージデータに基づいて決定され得る。
オブジェクト識別情報がプロセッサによって決定されると、プロセッサは、サーバ706からデバイス2(720)に対して提供されたオブジェクトデータを参照することができる。プロセッサがオブジェクトデータを参照することに応じて、プロセッサはセンサキャリブレーションを決定し得る。プロセッサは、ブロック610および612を含む上記の図6についての説明と類似する方法でセンサキャリブレーションを決定し得る。同様に、プロセッサは、上記の図6について説明されていたようなセンサキャリブレーションに基づいてセンサデータを調整し得る。
いくつかの実施形態においては、記載された方法は、機械可読フォーマットにおける非一時的なコンピュータ可読媒体、または他の非一時的な媒体もしくは製造物に符号化されたコンピュータプログラム命令として実施され得る。図8は、本明細書で提示された少なくともいくつかの実施形態に従って配置された、コンピューティングデバイス上のコンピュータプロセスを実行するためのコンピュータプログラムを含む例示的なコンピュータプログラム製品300を示す部分概略図である。
一実施形態においては、例示的なコンピュータプログラム製品800は、信号搬送媒体801を用いて提供される。信号搬送媒体801は、1または複数のプログラミング命令802を含み得る。1または複数のプログラミング命令802は、1または複数のプロセッサによって実行されるとき、図1〜図12についての上記の機能、またはその機能の一部を提供し得る。いくつかの例において、信号ベアリング媒体801は、コンピュータ可読媒体803(たとえば、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、メモリ)を包含し得るが、これに限られない。いくつかの実施形態においては、信号ベアリング媒体801は、コンピュータ記録可能媒体804(たとえば、メモリ、CD R/W、DVD R/W)を包含し得るが、これに限られない。いくつかの実施形態においては、信号ベアリング媒体801は、デジタルおよび/またはアナログ通信媒体(たとえば、光ファイバーケーブル、導波管、有線通信リンク、無線通信リンク)などの通信媒体806を包含し得るが、これに限られない。したがって、たとえば、信号ベアリング媒体801は、通信媒体806(たとえば、IEEE802.11または他の送信プロトコルに準拠する無線通信媒体)の無線形式によって通信され得る。
1または複数の命令802は、たとえば、コンピュータ実行可能である、論理実装される、またはその両方である命令であり得る。いくつかの例においては、コンピューティングデバイス(たとえば、図1のコンピューティングデバイス100)は、コンピュータ可読媒体803、コンピュータ記録可能媒体804および/または通信媒体806のうちの1または複数によってコンピューティングデバイス100に通信されるプログラミング命令802に応じて様々な演算、機能および作用を提供するように構成され得る。
本明細書において説明された配置は、単なる例示の目的のためであると理解されるべきである。そのようなものとして、代わりに他の配置および他の要素(たとえば、機械、インターフェース、機能、順番、機能の分類)が用いられ、いくつかの要素は所望の結果に従ってまとめて省略されてもよいと当業者は理解する。さらに、説明されている多くの要素は、任意の適切な組み合わせと位置とにおいて、個別のもしくは分散型のコンポーネントとして実施され得る、または他のコンポーネントと併せて実施され得る機能エンティティである。
様々な態様および実施形態について本明細書に開示されているが、他の態様および実施形態も当業者には明らかである。本明細書に開示の様々な態様および実施形態は例示を目的とするものであり、限定することを意図するものではなく、真の範囲は、添付の特許請求の範囲において、係る特許請求の範囲によって権利が与えられる均等の完全な範囲とともに示されている。さらに、本明細書において用いられた用語は、特定の実施形態を説明することを目的とするものに過ぎず、限定することを意図するものでないことも理解される。

Claims (20)

  1. モバイルデバイスにおける複数のセンサのうちの第1センサからイメージデータを受信する工程であって、前記イメージデータはターゲットオブジェクトを表すデータを含む工程と、
    前記複数のセンサのうちの第2センサを用いて決定されるセンサデータを受信する工程と、
    前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定するオブジェクト識別情報決定工程と、
    前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程であって、前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含む工程と、
    前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する比較工程と、
    受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定するキャリブレーション値決定工程と、
    前記センサキャリブレーション値に基づいて前記第2センサを調整する工程と
    を備える方法。
  2. 前記イメージデータは複数の2次元イメージからなるシーケンスを含み、
    前記シーケンスのうちの第1イメージと前記シーケンスのうちの第2イメージとの両方は、前記ターゲットオブジェクトを表すデータを含み、
    前記第1イメージのイメージキャプチャ位置は、前記第2イメージのイメージキャプチャ位置とは異なり、
    受信した前記センサデータは、前記第1イメージの前記イメージキャプチャ位置と前記第2イメージの前記イメージキャプチャ位置との間の移動に関するデータを含む、
    請求項1に記載の方法。
  3. 前記オブジェクトデータは前記オブジェクト識別情報に関連付けられている色データを含み、
    前記センサキャリブレーション値は、前記オブジェクト識別情報に関連付けられている前記色データと、前記ターゲットオブジェクトを表す前記データの色データとの間の差異に基づく、
    請求項1に記載の方法。
  4. 前記モバイルデバイスのプロセッサは、前記オブジェクト識別情報決定工程と、前記比較工程と、前記キャリブレーション値決定工程とを実行する、
    請求項1に記載の方法。
  5. 前記オブジェクト識別情報決定工程は、
    前記イメージデータの少なくとも一部をリモートサーバに通信する工程と、
    前記オブジェクト識別情報を示すデータを前記リモートサーバから受信する工程と
    を含む請求項1に記載の方法。
  6. 前記オブジェクトデータは、第2モバイルデバイスからサーバに対して通信されるイメージデータに基づいて取り出される、
    請求項1に記載の方法。
  7. 第2ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程であって、前記イメージデータは前記第2ターゲットオブジェクトを表すデータを含む工程と、
    前記オブジェクト識別情報に基づいて第2オブジェクトデータを取り出す工程と、
    前記オブジェクトデータと、前記第2オブジェクトデータと、前記イメージデータとに基づいて、前記予測されるセンサ値を決定する工程と、
    をさらに備え、
    前記予測されるセンサ値は、
    (i)前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表すデータと比較する工程と、
    (ii)前記第2オブジェクトデータを前記イメージデータにおいて前記第2ターゲットオブジェクトを表すデータと比較する工程との両方によって、決定される、
    請求項1に記載の方法。
  8. イメージデータをキャプチャするように構成されている少なくとも1つのカメラと、
    少なくとも1つのセンサと、
    プロセッサと、を備え、前記プロセッサは、
    前記少なくとも1つのカメラからイメージデータを受信する工程であって、前記イメージデータはターゲットオブジェクトを表すデータを含む工程と、
    前記少なくとも1つのセンサを用いて決定されるセンサデータを受信する工程と、
    前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定するオブジェクト識別情報決定工程と、
    前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程であって、前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含む工程と、
    前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する比較工程と、
    受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定するキャリブレーション値決定工程と、
    前記センサキャリブレーション値に基づいて前記少なくとも1つのセンサを調整する工程とを行うように構成されている、
    モバイルデバイス。
  9. 前記イメージデータは複数の2次元イメージからなるシーケンスを含み、
    前記シーケンスのうちの第1イメージと前記シーケンスのうちの第2イメージとの両方は、前記ターゲットオブジェクトを表すデータを含み、
    前記第1イメージのイメージキャプチャ位置は、前記第2イメージのイメージキャプチャ位置とは異なり、
    受信した前記センサデータは、前記第1イメージの前記イメージキャプチャ位置と前記第2イメージの前記イメージキャプチャ位置との間の移動に関するデータを含む、
    請求項8に記載のモバイルデバイス。
  10. 前記オブジェクトデータは前記オブジェクト識別情報に関連付けられている色データを含み、
    前記センサキャリブレーション値は、前記オブジェクト識別情報に関連付けられている前記色データと、前記ターゲットオブジェクトを表す前記データの色データとの間の差異に基づく、
    請求項8に記載のモバイルデバイス。
  11. 前記オブジェクト識別情報決定工程は、
    前記イメージデータの少なくとも一部をリモートサーバに通信する工程と、
    オブジェクト識別情報を示すデータを前記リモートサーバから受信する工程とを前記プロセッサが行うようにさらに構成されていることを含む請求項8に記載のモバイルデバイス。
  12. 前記オブジェクトデータは、第2モバイルデバイスからサーバに対して通信されるイメージデータに基づいて取り出される、
    請求項8に記載のモバイルデバイス。
  13. 第2ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程であって、前記イメージデータは前記第2ターゲットオブジェクトを表すデータを含む工程と、
    前記オブジェクト識別情報に基づいて第2オブジェクトデータを取り出す工程と、
    前記オブジェクトデータと、前記第2オブジェクトデータと、前記イメージデータとに基づいて、前記予測されるセンサ値を決定する工程とを前記プロセッサが行うようにさらに構成されていることをさらに含み、
    前記予測されるセンサ値は、
    (i)前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表すデータと比較する工程と、
    (ii)前記第2オブジェクトデータを前記イメージデータにおいて前記第2ターゲットオブジェクトを表すデータと比較する工程との両方によって、決定される、
    請求項8に記載のモバイルデバイス。
  14. 命令が記憶されている非一時的なコンピュータ可読媒体であって、前記命令はシステムにおけるプロセッサによって実行されるときに前記システムに、
    モバイルデバイスにおける複数のセンサのうちの第1センサからイメージデータを受信する工程であって、前記イメージデータはターゲットオブジェクトを表すデータを含む工程と、
    前記複数のセンサのうちの第2センサを用いて決定されるセンサデータを受信する工程と、
    前記ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定するオブジェクト識別情報決定工程と、
    前記オブジェクト識別情報に基づいてオブジェクトデータを取り出す工程であって、前記オブジェクトデータは前記オブジェクト識別情報の3次元表現に関するデータを含む工程と、
    前記イメージデータを出力する前記第1センサに対応する前記第2センサから出力される予測されるセンサ値を決定するように、前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表す前記データと比較する比較工程と、
    受信した前記センサデータと前記予測されるセンサ値との間の差異に基づいてセンサキャリブレーション値を決定するキャリブレーション値決定工程と、
    前記センサキャリブレーション値に基づいて前記第2センサを調整する工程と
    を含む動作を実行させる、非一時的なコンピュータ可読媒体
  15. 前記イメージデータは複数の2次元イメージからなるシーケンスを含み、
    前記シーケンスのうちの第1イメージと前記シーケンスのうちの第2イメージとの両方は、前記ターゲットオブジェクトを表すデータを含み、
    前記第1イメージのイメージキャプチャ位置は、前記第2イメージのイメージキャプチャ位置とは異なり、
    受信した前記センサデータは、前記第1イメージの前記イメージキャプチャ位置と前記第2イメージの前記イメージキャプチャ位置との間の移動に関するデータを含む、
    請求項14に記載の非一時的なコンピュータ可読媒体
  16. 前記オブジェクトデータは前記オブジェクト識別情報に関連付けられている色データを含み、
    前記センサキャリブレーション値は、前記オブジェクト識別情報に関連付けられている前記色データと、前記ターゲットオブジェクトを表す前記データの色データとの間の差異に基づく、
    請求項14に記載の非一時的なコンピュータ可読媒体
  17. 前記モバイルデバイスのプロセッサは、前記オブジェクト識別情報決定工程と、前記比較工程と、前記キャリブレーション値決定工程とを実行する、
    請求項14に記載の非一時的なコンピュータ可読媒体
  18. 前記オブジェクト識別情報決定工程は、
    前記イメージデータの少なくとも一部をリモートサーバに通信する工程と、
    オブジェクト識別情報を示すデータを前記リモートサーバから受信する工程と
    を含む請求項14に記載の非一時的なコンピュータ可読媒体
  19. 前記オブジェクトデータは、第2モバイルデバイスからサーバに対して通信されるイメージデータに基づいて取り出される、
    請求項14に記載の非一時的なコンピュータ可読媒体
  20. 第2ターゲットオブジェクトに対してのオブジェクト識別情報を前記イメージデータに基づいて決定する工程であって、前記イメージデータは前記第2ターゲットオブジェクトを表すデータを含む工程と、
    前記オブジェクト識別情報に基づいて第2オブジェクトデータを取り出す工程と、
    前記オブジェクトデータと、前記第2オブジェクトデータと、前記イメージデータとに基づいて、前記予測されるセンサ値を決定する工程と、
    をさらに備え、
    前記予測されるセンサ値は、
    (i)前記オブジェクトデータを前記イメージデータにおいて前記ターゲットオブジェクトを表すデータと比較する工程と、
    (ii)前記第2オブジェクトデータを前記イメージデータにおいて前記第2ターゲットオブジェクトを表すデータと比較する工程との両方によって、決定される、
    請求項14に記載の非一時的なコンピュータ可読媒体
JP2016572460A 2014-06-12 2015-05-12 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム Active JP6383439B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/302,926 2014-06-12
US14/302,926 US20150362579A1 (en) 2014-06-12 2014-06-12 Methods and Systems for Calibrating Sensors Using Recognized Objects
PCT/US2015/030307 WO2015191204A1 (en) 2014-06-12 2015-05-12 Methods and systems for calibrating sensors using recognized objects

Publications (2)

Publication Number Publication Date
JP2017527145A JP2017527145A (ja) 2017-09-14
JP6383439B2 true JP6383439B2 (ja) 2018-08-29

Family

ID=54834080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016572460A Active JP6383439B2 (ja) 2014-06-12 2015-05-12 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム

Country Status (7)

Country Link
US (1) US20150362579A1 (ja)
EP (1) EP3155503A4 (ja)
JP (1) JP6383439B2 (ja)
KR (1) KR101874926B1 (ja)
CN (1) CN106462244A (ja)
AU (1) AU2015275198B2 (ja)
WO (1) WO2015191204A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10187629B2 (en) 2016-04-06 2019-01-22 Facebook, Inc. Camera calibration system
US10012517B2 (en) * 2016-08-01 2018-07-03 Infinity Augmented Reality Israel Ltd. Method and system for calibrating components of an inertial measurement unit (IMU) using scene-captured data
US20180276842A1 (en) * 2017-03-27 2018-09-27 Blackberry Limited System and method for image based confirmation
DE102017211038A1 (de) * 2017-06-29 2019-01-03 Robert Bosch Gmbh Verfahren zum Einstellen einer Kamera
US11002820B2 (en) * 2018-07-30 2021-05-11 7hugs Labs SAS System for object tracking in physical space with aligned reference frames
US11144018B2 (en) * 2018-12-03 2021-10-12 DSi Digital, LLC Data interaction platforms utilizing dynamic relational awareness
CN114152860B (zh) * 2021-11-05 2023-11-10 深圳橙子自动化有限公司 探针校准方法和装置、电子设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050222801A1 (en) * 2004-04-06 2005-10-06 Thomas Wulff System and method for monitoring a mobile computing product/arrangement
KR100560966B1 (ko) * 2004-10-12 2006-03-15 삼성광주전자 주식회사 로봇 청소기의 자이로 센서 보정방법
DE102004056669A1 (de) 2004-10-13 2006-04-20 Robert Bosch Gmbh Einrichtung für die Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
KR100761011B1 (ko) * 2006-05-30 2007-09-21 학교법인 인하학원 카메라형 태양센서를 이용한 관성항법시스템의자세보정장치 및 방법
EP1972893A1 (en) * 2007-03-21 2008-09-24 Universiteit Gent System and method for position determination
KR101557678B1 (ko) * 2009-04-22 2015-10-19 삼성전자주식회사 휴대 단말기의 캘리브레이션 방법 및 장치
US8855929B2 (en) * 2010-01-18 2014-10-07 Qualcomm Incorporated Using object to align and calibrate inertial navigation system
US8694051B2 (en) * 2010-05-07 2014-04-08 Qualcomm Incorporated Orientation sensor calibration
US8963883B2 (en) * 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
KR101207462B1 (ko) * 2011-05-31 2012-12-03 전자부품연구원 영상 정보와 거리-각도 정보를 이용한 센서 보정 시스템
EP2600109A3 (en) * 2011-11-30 2015-03-25 Sony Ericsson Mobile Communications AB Method for calibration of a sensor unit and accessory comprising the same
US20150172513A1 (en) * 2013-12-18 2015-06-18 Nokia Corporation Methods And Apparatus For Color Balance Correction

Also Published As

Publication number Publication date
EP3155503A1 (en) 2017-04-19
WO2015191204A1 (en) 2015-12-17
KR101874926B1 (ko) 2018-07-05
AU2015275198B2 (en) 2017-08-03
KR20160149311A (ko) 2016-12-27
JP2017527145A (ja) 2017-09-14
CN106462244A (zh) 2017-02-22
AU2015275198A1 (en) 2016-10-06
US20150362579A1 (en) 2015-12-17
EP3155503A4 (en) 2017-12-20

Similar Documents

Publication Publication Date Title
JP6383439B2 (ja) 認識されたオブジェクトを用いてセンサのキャリブレーションを行うための方法およびシステム
US9596443B2 (en) Methods and systems for providing sensor data and image data to an application processor in a digital image format
US9277361B2 (en) Methods and systems for cross-validating sensor data acquired using sensors of a mobile device
EP3090407B1 (en) Methods and systems for determining estimation of motion of a device
US9631956B2 (en) Methods and systems for calibrating sensors of a computing device
US10062178B2 (en) Locating a portable device based on coded light
US9990547B2 (en) Odometry feature matching
US20150193971A1 (en) Methods and Systems for Generating a Map including Sparse and Dense Mapping Information
US9485366B2 (en) Methods and systems for communicating sensor data on a mobile device
CN107560637B (zh) 头戴显示设备校准结果验证方法及头戴显示设备
US20150233743A1 (en) Methods and Systems for Acquiring Sensor Data on a Device Using Multiple Acquisition Modes
US9424619B2 (en) Methods and systems for detecting frame tears
US9445015B2 (en) Methods and systems for adjusting sensor viewpoint to a virtual viewpoint

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180803

R150 Certificate of patent or registration of utility model

Ref document number: 6383439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250