JP2016500885A - System and method for merging multiple maps for computer vision based tracking - Google Patents

System and method for merging multiple maps for computer vision based tracking Download PDF

Info

Publication number
JP2016500885A
JP2016500885A JP2015539627A JP2015539627A JP2016500885A JP 2016500885 A JP2016500885 A JP 2016500885A JP 2015539627 A JP2015539627 A JP 2015539627A JP 2015539627 A JP2015539627 A JP 2015539627A JP 2016500885 A JP2016500885 A JP 2016500885A
Authority
JP
Japan
Prior art keywords
scene
diversity
maps
logic configured
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015539627A
Other languages
Japanese (ja)
Other versions
JP6339579B2 (en
JP2016500885A5 (en
Inventor
マヘシュ・ラマチャンドラン
アブヒシェク・ティアギ
セラフィン・ディアス・スピンドラ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2016500885A publication Critical patent/JP2016500885A/en
Publication of JP2016500885A5 publication Critical patent/JP2016500885A5/ja
Application granted granted Critical
Publication of JP6339579B2 publication Critical patent/JP6339579B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

コンピュータビジョンベースの追跡のために複数のマップをマージするための方法、装置、およびコンピュータプログラム製品が開示される。一実施形態では、コンピュータビジョンベースの追跡のために複数のマップをマージする方法は、少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するステップと、シーンの複数のマップの複数のキーフレームを識別するステップと、シーンのグローバルマップを生成するために複数のキーフレームをマージするステップとを備える。A method, apparatus, and computer program product for merging multiple maps for computer vision based tracking are disclosed. In one embodiment, a method for merging a plurality of maps for computer vision-based tracking includes receiving a plurality of maps of a scene at a location from at least one mobile device; and a plurality of maps of the scenes Identifying a key frame, and merging the plurality of key frames to generate a global map of the scene.

Description

関連出願の相互参照
本出願は、2013年3月14日に出願した、「Systems and Methods of Merging Multiple Maps for Computer Vision Based Mobile Device Tracking」という表題の米国出願第13/830,664号の利益を主張し、その出願は、2012年10月31日に出願した、「Systems and Methods of Merging Multiple Maps for Computer Vision Based Mobile Device Tracking」という表題の米国仮出願第61/720,804号の利益を主張する。前述の米国出願は、その全体が参照により本明細書に組み込まれている。
This application claims the benefit of US Application No. 13 / 830,664, filed March 14, 2013, entitled `` Systems and Methods of Merging Multiple Maps for Computer Vision Based Mobile Device Tracking ''. This application claims the benefit of US Provisional Application No. 61 / 720,804, filed Oct. 31, 2012, entitled “Systems and Methods of Merging Multiple Maps for Computer Vision Based Mobile Device Tracking”. The aforementioned US application is incorporated herein by reference in its entirety.

本開示は、ワイヤレス通信、コンピュータビジョン、および拡張現実の分野に関する。詳細には、本開示は、コンピュータビジョンベースの追跡のために複数のマップをマージするシステムおよび方法に関する。   The present disclosure relates to the fields of wireless communications, computer vision, and augmented reality. In particular, this disclosure relates to a system and method for merging multiple maps for computer vision-based tracking.

複数のサブマップからマップ全体を生成するために、多数の従来の方法が利用可能である。これらの従来の方法は、複数のサブマップのマージをサポートするためにメモリ内に冗長なサブマップを記憶する。そのような冗長なサブマップは、マップ全体の品質への寄与が低い場合がある。しかしながら、それらの冗長なサブマップは、かなりの記憶量を消費する場合がある。加えて、そのような冗長なサブマップを処理するために、貴重なコンピューティングリソースおよび時間が無駄になる場合がある。   A number of conventional methods are available for generating an entire map from multiple submaps. These conventional methods store redundant submaps in memory to support merging of multiple submaps. Such redundant submaps may have a low contribution to the overall map quality. However, these redundant submaps can consume considerable storage. In addition, valuable computing resources and time may be wasted processing such redundant submaps.

本開示は、コンピュータビジョンベースの追跡のために複数のマップをマージするシステムおよび方法に関する。一実施形態では、コンピュータビジョンベースの追跡のために複数のマップをマージする方法は、少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するステップと、シーンの複数のマップの複数のキーフレームを識別するステップと、シーンのグローバルマップを生成するために複数のキーフレームをマージするステップとを備える。本方法は、場所において少なくとも1つのモバイルデバイスの位置を追跡するステップをさらに備える。   The present disclosure relates to systems and methods for merging multiple maps for computer vision based tracking. In one embodiment, a method for merging a plurality of maps for computer vision-based tracking includes receiving a plurality of maps of a scene at a location from at least one mobile device; and a plurality of maps of the scenes Identifying a key frame, and merging the plurality of key frames to generate a global map of the scene. The method further comprises tracking the location of at least one mobile device at the location.

場所におけるシーンの複数のマップを受信する方法は、複数のモバイルデバイスからシーンの複数のマップを受信するステップを備える。本方法は、複数のモバイルデバイスからのシーンの複数のマップからの複数のキーフレームの冗長性を評価するステップと、冗長なキーフレームを削除するステップとをさらに備える。本方法は、複数のモバイルデバイスからのシーンの複数のマップを使用して自己位置推定及び地図構築同時実行(SLAM)マップを生成するステップと、複数のモバイルデバイスの間でSLAMマップを共有するステップとをさらに備える。   A method for receiving a plurality of maps of a scene at a location comprises receiving a plurality of maps of the scene from a plurality of mobile devices. The method further comprises evaluating redundancy of a plurality of key frames from a plurality of maps of a scene from a plurality of mobile devices, and deleting the redundant key frames. The method includes generating a self-localization and simultaneous map construction (SLAM) map using multiple maps of a scene from multiple mobile devices and sharing the SLAM map between the multiple mobile devices. And further comprising.

シーンの複数のマップの複数のキーフレームを識別する方法は、複数の角度からシーンの複数の視点を表す複数のキーフレームを識別するステップと、複数のスケールでシーンの複数の視点を表す複数のキーフレームを識別するステップとのうちの少なくとも1つを備え、これらの複数のキーフレームは、複数のマップの共通の特徴、位置座標、および外観を含む。これらの複数のスケールは、少なくとも1つのモバイルデバイスとシーンとの間の複数の距離と、少なくとも1つのモバイルデバイスからのシーンの複数のアスペクト比とのうちの少なくとも1つを備える。   A method of identifying a plurality of key frames of a plurality of maps of a scene includes: identifying a plurality of key frames representing a plurality of viewpoints of the scene from a plurality of angles; At least one of identifying a key frame, the plurality of key frames including common features, position coordinates, and appearance of the plurality of maps. The plurality of scales comprises at least one of a plurality of distances between the at least one mobile device and the scene and a plurality of aspect ratios of the scene from the at least one mobile device.

シーンのグローバルマップを生成するために複数のキーフレームをマージする方法は、複数のキーフレームの各キーフレームに関して、キーフレームの角度ダイバーシティおよびキーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、所定のしきい値未満の寄与スコアに応じてキーフレームを削除するステップとを備える。キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定する方法は、第1の重み因子をキーフレームの角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算するステップと、第2の重み因子をキーフレームのスケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算するステップと、寄与スコアを生成するために角度ダイバーシティスコアリング基準値とスケールダイバーシティスコアリング基準値とを組み合わせるステップとを備える。   The method of merging multiple keyframes to generate a global map of a scene determines a contribution score based at least in part on keyframe angular diversity and keyframe scale diversity for each keyframe of the multiple keyframes And deleting a key frame in response to a contribution score less than a predetermined threshold. A method for determining a contribution score based at least in part on keyframe angle diversity and scale diversity calculates an angle diversity scoring criterion by applying a first weighting factor to the keyframe angle diversity; Calculating a scale diversity scoring reference value by applying a second weighting factor to the scale diversity of the keyframe, and calculating an angle diversity scoring reference value and a scale diversity scoring reference value to generate a contribution score. Combining steps.

シーンのグローバルマップを生成するために複数のキーフレームをマージする方法は、複数のキーフレームの各キーフレームに関して、キーフレームの角度ダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、所定のしきい値未満の寄与スコアに応じてキーフレームを削除するステップとをさらに備える。シーンのグローバルマップを生成するために複数のキーフレームをマージする方法は、複数のキーフレームの各キーフレームに関して、キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、所定のしきい値未満の寄与スコアに応じてキーフレームを削除するステップとをさらに備える。   A method of merging a plurality of key frames to generate a global map of a scene includes determining a contribution score based at least in part on the key frame angular diversity for each key frame of the plurality of key frames; Deleting a key frame in response to a contribution score less than the threshold. A method of merging a plurality of key frames to generate a global map of a scene includes determining a contribution score based at least in part on the key frame scale diversity for each key frame of the plurality of key frames; Deleting a key frame in response to a contribution score less than the threshold.

シーンのグローバルマップを生成するために複数のキーフレームをマージする方法は、角度ヒストグラムにおいて複数のキーフレームを計数するステップをさらに備え、その角度ヒストグラムは、シーンの異なる視点角度(viewing angle)を表す複数のビンを含み、複数のビンの各ビンは、シーンの異なる視点スケール(viewing scale)を表す複数の区分を含む。本方法は、角度ヒストグラムにおける複数のキーフレームの各キーフレームに関して、キーフレームの角度ダイバーシティおよびキーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、所定のしきい値未満の寄与スコアに応じてキーフレームを削除するステップとをさらに含む。   The method of merging multiple keyframes to generate a global map of a scene further comprises counting the multiple keyframes in an angle histogram, the angle histogram representing different viewing angles of the scene. It includes a plurality of bins, each bin of the plurality of bins including a plurality of sections that represent different viewing scales of the scene. The method includes determining, for each keyframe of the plurality of keyframes in the angle histogram, a contribution score based at least in part on the keyframe angle diversity and the keyframe scale diversity, and a contribution less than a predetermined threshold And deleting a key frame according to the score.

キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定する方法は、キーフレームが含まれるビン内のキーフレームの数に少なくとも一部基づいている第1の重み因子をキーフレームの角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算するステップと、キーフレームが含まれる区分内のキーフレームの数に少なくとも一部基づいている第2の重み因子をキーフレームのスケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算するステップと、寄与スコアを生成するために角度ダイバーシティスコアリング基準値とスケールダイバーシティスコアリング基準値とを組み合わせるステップとを備える。   A method for determining a contribution score based at least in part on the angular diversity and scale diversity of a key frame includes a first weight factor based on at least a part of the number of key frames in the bin containing the key frame. Calculating an angle diversity scoring criterion by applying to angle diversity, and a second weighting factor based on the number of keyframes in the partition containing the keyframe to the keyframe scale diversity Calculating a scale diversity scoring reference value by applying and combining the angle diversity scoring reference value and the scale diversity scoring reference value to generate a contribution score.

別の実施形態では、装置は、少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するように構成された論理と、シーンの複数のマップの複数のキーフレームを識別するように構成された論理と、シーンのグローバルマップを生成するために複数のキーフレームをマージするように構成された論理とを備える。   In another embodiment, an apparatus is configured to identify logic configured to receive a plurality of maps of a scene at a location from at least one mobile device and a plurality of key frames of the maps of the scene. And logic configured to merge a plurality of key frames to generate a global map of the scene.

さらに別の実施形態では、コンピュータプログラム製品は、1つまたは複数のコンピュータシステムによって実行される命令を記憶する非一時的媒体を備える。これらの命令は、少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するための命令と、シーンの複数のマップの複数のキーフレームを識別するための命令と、シーンのグローバルマップを生成するために複数のキーフレームをマージするための命令とを備える。   In yet another embodiment, a computer program product comprises a non-transitory medium that stores instructions executed by one or more computer systems. These instructions include instructions for receiving multiple maps of a scene at a location from at least one mobile device, instructions for identifying multiple keyframes of the multiple maps of the scene, and a global map of the scene Instructions for merging a plurality of keyframes for generation.

さらに別の実施形態では、システムは、少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するための手段と、シーンの複数のマップの複数のキーフレームを識別するための手段と、シーンのグローバルマップを生成するために複数のキーフレームをマージするための手段とを備える。   In yet another embodiment, the system includes means for receiving a plurality of maps of a scene at a location from at least one mobile device; means for identifying a plurality of key frames of the maps of the scene; Means for merging a plurality of key frames to generate a global map of the scene.

本開示の上述の特徴および利点、ならびにその追加の特徴および利点は、以下の図面とともに本開示の実施形態の詳細な説明を読めば、より明確に理解されよう。   The foregoing features and advantages of the present disclosure, as well as additional features and advantages thereof, will be more clearly understood when the detailed description of the embodiments of the present disclosure is read in conjunction with the following drawings.

本開示のいくつかの態様による、例示的な場所を示す図である。FIG. 3 illustrates an example location in accordance with certain aspects of the present disclosure. 本開示のいくつかの態様による、複数の角度からシーンの複数の視点を記録する方法を示す図である。FIG. 6 illustrates a method for recording multiple viewpoints of a scene from multiple angles according to some aspects of the present disclosure. 本開示のいくつかの態様による、複数の距離からシーンの複数の視点を記録する方法を示す図である。FIG. 6 illustrates a method for recording multiple viewpoints of a scene from multiple distances according to some aspects of the present disclosure. 本開示のいくつかの態様による、複数のアスペクト比でシーンの複数の視点を記録する方法を示す図である。FIG. 6 illustrates a method for recording multiple viewpoints of a scene with multiple aspect ratios according to some aspects of the present disclosure. 本開示のいくつかの態様による、コンピュータビジョンベースの追跡のために複数のマップをマージする方法を実施するための例示的な装置を示す図である。FIG. 6 illustrates an example apparatus for performing a method for merging multiple maps for computer vision-based tracking in accordance with certain aspects of the present disclosure. 本開示のいくつかの態様による、コンピュータビジョンベースの追跡のために複数のマップをマージする方法を実施するための例示的なフローチャートである。6 is an exemplary flowchart for implementing a method of merging multiple maps for computer vision based tracking according to some aspects of the present disclosure. 本開示のいくつかの態様によるモバイルデバイスの例示的なブロック図である。FIG. 6 is an exemplary block diagram of a mobile device in accordance with certain aspects of the present disclosure. 本開示のいくつかの態様による、キーフレームの角度ダイバーシティおよびスケールダイバーシティを決定するための例示的な方法を示す図である。FIG. 6 illustrates an example method for determining key frame angular diversity and scale diversity in accordance with certain aspects of the present disclosure. 本開示のいくつかの態様による、キーフレームの角度ダイバーシティおよびスケールダイバーシティを決定するための別の例示的な方法を示す図である。FIG. 4 illustrates another exemplary method for determining key frame angular diversity and scale diversity in accordance with certain aspects of the present disclosure.

図面を通して同様の番号が使用される。   Similar numbers are used throughout the drawings.

コンピュータビジョンベースの追跡のために複数のマップをマージする実施形態が開示される。以下の説明は、いかなる当業者でも本開示を実施し、使用することができるようにするために提示される。特定の実施形態およびアプリケーションの説明は、例としてのみ提供される。本明細書で説明する例の様々な修正および組合せが当業者には容易に明らかであり、本明細書で定義した一般原理は、本開示の趣旨および範囲から逸脱することなく他の例およびアプリケーションに適用できる。したがって、本開示は、説明され示される例に限定されることが意図されず、本明細書で開示される原理および特徴に一致する最大の範囲を与えられることが意図される。   Embodiments for merging multiple maps for computer vision based tracking are disclosed. The following description is presented to enable any person skilled in the art to make and use the present disclosure. Descriptions of specific embodiments and applications are provided as examples only. Various modifications and combinations of the examples described herein will be readily apparent to those skilled in the art, and the generic principles defined herein may be used in other examples and applications without departing from the spirit and scope of the disclosure. Applicable to. Accordingly, this disclosure is not intended to be limited to the examples described and shown, but is intended to be accorded the maximum scope consistent with the principles and features disclosed herein.

本開示のいくつかの態様によれば、自己位置推定及び地図構築同時実行(SLAM)ベースのアプリケーションは、環境または場所において少なくとも1つのモバイルデバイスの位置を追跡するために少なくとも1つのモバイルデバイスによって観察される環境または場所に関する情報を構築および維持する。この情報は、環境マップとも呼ばれ得る、特徴の構造(3D位置)および外観を含むが、これらに限定されない。マップ構築のための技法は、様々な環境または場所における様々な使用事例をサポートするのに有益であり得る。たとえば、複数のモバイルデバイスを使用して大きい場所のグローバルマップを構築することは、環境において複数のモバイルデバイスの位置を追跡するのに有用であり得る。複数のモバイルデバイスを使用することは、単一のモバイルデバイスを使用してグローバルマップを構築するのとは対照的に、グローバルマップを構築するのに好ましい場合があることに留意されたい。   According to some aspects of the present disclosure, a self-localization and simultaneous map construction (SLAM) based application is observed by at least one mobile device to track the location of at least one mobile device in an environment or location Build and maintain information about the environment or location This information includes, but is not limited to, feature structure (3D position) and appearance, which may also be referred to as an environment map. Techniques for map construction can be beneficial to support different use cases in different environments or locations. For example, building a global map of a large location using multiple mobile devices can be useful for tracking the location of multiple mobile devices in the environment. It should be noted that using multiple mobile devices may be preferable for building a global map as opposed to building a global map using a single mobile device.

いくつかの実装形態では、これらのグローバルマップは、自己位置推定を実施する際に環境において複数のモバイルデバイスによって共有され得る。様々なモバイルデバイスからのシーンの複数のマップがある場合、一手法は、グローバルマップを得るためにこれらのマップをマージすることである。本開示の態様によれば、グローバルマップは、リアルタイムで生成され得るか、またはサーバにおいてオフラインで生成され得る。別の手法は、複数のマップをマージすることが、より小さいグローバルマップサイズと、グローバルマップを使用した、より低い追跡回数とをもたらすことができると同時に冗長性を除去することである。環境または場所に関する情報を効率的な方法で表すマージマップを生成する方法が、以下のセクションに説明される。   In some implementations, these global maps may be shared by multiple mobile devices in the environment when performing self-location estimation. If there are multiple maps of the scene from different mobile devices, one approach is to merge these maps to obtain a global map. According to aspects of the present disclosure, the global map can be generated in real time or can be generated offline at the server. Another approach is to eliminate redundancy while simultaneously merging multiple maps can result in smaller global map sizes and lower tracking times using global maps. Methods for generating merge maps that represent information about the environment or location in an efficient manner are described in the following sections.

本開示のいくつかの態様によれば、シーンのマップは、様々な視点から記録された画像であるキーフレームとして表され得る。各キーフレームは、シーン内の画像のセットおよび3D特徴(点、線など)の特徴の観測値(位置座標および点/線の外観)を含み得る。いくつかの実装形態では、新規の入って来る観測値または制約条件を有する幾何形状を精緻化するために、過去の観測値およびキーフレームが記憶および使用される。一手法は、キーフレーム内の特徴観測値を記憶することである。マップ内のキーフレームは、多様な視点におけるシーン特徴の観測値を記録することができる。加えて、キーフレームは、記憶された情報において冗長性が最小であるシーンの様々な部分の観測値を提供することができる。外観を使用した特徴追跡では、図2に関連して説明されるように、複数の視点から特徴の観測値を有することと、図3および図4に関連して説明されるように、複数のスケールで特徴の観測値を有することとが有用である。そのような特徴追跡方法は、追跡品質および頑強性を改善するのに有用である。   According to some aspects of the present disclosure, a map of a scene may be represented as key frames that are images recorded from various viewpoints. Each keyframe may include a set of images in the scene and observations of features of 3D features (points, lines, etc.) (location coordinates and appearance of points / lines). In some implementations, past observations and key frames are stored and used to refine the geometry with new incoming observations or constraints. One approach is to store feature observations in key frames. Keyframes in the map can record observations of scene features at various viewpoints. In addition, key frames can provide observations of various parts of the scene that have minimal redundancy in the stored information. Feature tracking using appearances has observations of features from multiple viewpoints, as described in connection with FIG. 2, and multiple features as described in connection with FIGS. 3 and 4. It is useful to have observations of features on a scale. Such a feature tracking method is useful for improving tracking quality and robustness.

マップ間の情報をマージする際にすべてのキーフレームを保持することは、冗長な情報がある場合、ジョイントマップサイズを増大させる場合があることに留意されたい。加えて、キーフレームを削減すること(放棄すること)は、追跡性能にはキーフレームが重要であるので、追跡品質に影響を及ぼさない場合があることは望ましい。一手法では、様々な角度におけるキーフレーム視野特徴を保持する場合があるが、様々なスケールにおけるキーフレーム視野特徴を放棄する場合がある。しかしながら、この手法は、様々な距離において特徴を継続的に追跡するのに有用な情報を保持しない。この手法は、三角測量を実行するか、または構造を解析するのに必要な情報のみを保持する。別の手法では、特徴をより近くで観測するキーフレームが好ましい場合がある。さらに別の手法では、様々な距離において特徴を観測するキーフレームを保持する場合があるが、様々な角度において特徴を観測するキーフレームを放棄する場合がある。キーフレームは、マップ全体または画像全体を生成する際のその寄与に関して評価される。   Note that keeping all keyframes when merging information between maps may increase the joint map size if there is redundant information. In addition, it is desirable that reducing key frames (abandonment) may not affect tracking quality because key frames are important for tracking performance. One approach may preserve keyframe field features at various angles, but may abandon keyframe field features at various scales. However, this approach does not retain information useful for continuously tracking features at various distances. This approach retains only the information necessary to perform triangulation or analyze the structure. In another approach, key frames that observe features closer may be preferred. In yet another approach, key frames that observe features at various distances may be retained, but key frames that observe features at various angles may be discarded. A key frame is evaluated for its contribution in generating the entire map or image.

本開示の態様によれば、様々なスケールにおいて特徴を観測するキーフレームは、図3および図4に関連して説明されるように、スケールの変化を伴った外観の変化を記録するのに使用され得る。さらに、キーフレームは、予測される外観が最小の加工物または最小の外観歪みを有するように、様々なスケールのうちの適切なスケールの外観を予測するのに使用され得る。   According to aspects of the present disclosure, keyframes that observe features at various scales can be used to record changes in appearance with changes in scale, as described in connection with FIGS. Can be done. In addition, keyframes can be used to predict the appearance of the appropriate scale of the various scales so that the predicted appearance has minimal workpiece or minimal appearance distortion.

例示的な一実装形態では、キーフレームに関連する寄与スコアは、キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて決定され得る。たとえば、寄与スコアの一部分は、キーフレームによって観測された特徴の角度ダイバーシティに対するキーフレームの寄与から導出され得る。寄与スコアの別の部分は、キーフレームによって観測された特徴のスケールダイバーシティに対するキーフレームの寄与から導出され得る。次いで、キーフレームは、寄与スコアが所定のしきい値未満である場合、削除され得る。本開示の態様によれば、寄与スコアの所定のしきい値は、アプリケーションに応じてプログラム可能であり得る。いくつかの他の実装形態では、寄与スコアは、一定の視点角度からおよび一定の視点スケールすなわち視点距離からキーフレームの数の出現を計数するように構成されたビン内にすでに存在するキーフレームの数を表す場合がある。たとえば、いくつかのアプリケーションでは、ビン内のキーフレームの数の所定のしきい値を2に設定することができ、いくつかの他のアプリケーションでは、ビン内のキーフレームの数の所定のしきい値を5に設定することができる。   In one exemplary implementation, a contribution score associated with a key frame may be determined based at least in part on the angular diversity and scale diversity of the key frame. For example, a portion of the contribution score may be derived from the keyframe contribution to the angular diversity of features observed by the keyframe. Another part of the contribution score may be derived from the key frame contribution to the scale diversity of the features observed by the key frame. The key frame can then be deleted if the contribution score is below a predetermined threshold. According to aspects of the present disclosure, the predetermined threshold for the contribution score may be programmable depending on the application. In some other implementations, the contribution score is calculated for a keyframe that already exists in a bin configured to count the occurrence of the number of keyframes from a constant viewpoint angle and from a constant viewpoint scale or distance. May represent a number. For example, in some applications, the predetermined threshold for the number of keyframes in a bin can be set to 2, and in some other applications, a predetermined threshold for the number of keyframes in a bin. The value can be set to 5.

言い換えれば、キーフレームスコアリング方法は、角度ダイバーシティを測定するのに第1のスコアリング基準値を使用し、キーフレームのスケールダイバーシティを測定するのに第2のスコアリング基準値を使用することができる。次いで、2つの基準値は、様々な重み因子と組み合わせられ、合計され得る。重み因子は、他のスコアリング基準値に対するあるスコアリング基準値をより強調するために使用され得る。本開示の態様によれば、角度ダイバーシティおよびスケールダイバーシティの重み因子は、プログラム可能であり、その範囲は、0(0%)から1(100%)まで変化し得る。たとえば、いくつかの実装形態では、角度ダイバーシティの重みは0であり、スケールダイバーシティの重みは1であってもよいし、逆もまた同様である。いくつかの他の実装形態では、角度ダイバーシティの重みは5であり、スケールダイバーシティの重みは5であってもよい。さらにいくつかの他の実装形態では、角度ダイバーシティの重みは6であり、スケールダイバーシティの重みは4であってもよいし、以下同様である。次いで、マッピングおよび追跡に関するキーフレームの寄与を評価するために、ジョイント基準値が使用され得る。上述のように、キーフレームは、その寄与スコアが所定のしきい値未満である場合、削除(または削減)され得る。たとえば、極めて類似した距離および角度からシーン内の同じオブジェクトを見る9つの他のキーフレームが存在した場合、これら9つのキーフレームは、低い角度ダイバーシティスコアおよびスケールダイバーシティスコアを有するであろうが、その理由は、それらのキーフレームのうちのいずれか1つを除去することは、他のキーフレームが同じ情報コンテンツを有するので重要でないからである。   In other words, the keyframe scoring method may use a first scoring reference value to measure angular diversity and a second scoring reference value to measure keyframe scale diversity. it can. The two reference values can then be combined with various weight factors and summed. The weighting factor can be used to more emphasize certain scoring reference values relative to other scoring reference values. According to aspects of the present disclosure, the angular diversity and scale diversity weighting factors are programmable, and their ranges can vary from 0 (0%) to 1 (100%). For example, in some implementations, the angle diversity weight may be 0, the scale diversity weight may be 1, and vice versa. In some other implementations, the angular diversity weight may be 5 and the scale diversity weight may be 5. In still some other implementations, the angular diversity weight may be 6, the scale diversity weight may be 4, and so on. The joint reference value can then be used to evaluate the keyframe contribution for mapping and tracking. As described above, a key frame can be deleted (or reduced) if its contribution score is below a predetermined threshold. For example, if there were nine other key frames that looked at the same object in the scene from very similar distances and angles, these nine key frames would have a low angle diversity score and a scale diversity score, but that The reason is that removing any one of those key frames is not important because the other key frames have the same information content.

別の例示的な実装形態では、シーンの角度ダイバーシティ基準値を決定する際、シーンの各観測値の情報コンテンツが計算され得る。次いで、キーフレームの寄与スコアを形成するために、正規化スコアが積算され得る。この手法は、角度ダイバーシティを奨励するが、モバイルデバイスにより近い対応する距離を有するシーンを表すキーフレームを選好することに留意されたい。   In another exemplary implementation, the information content of each observation of the scene may be calculated when determining the angle diversity reference value for the scene. The normalized score can then be integrated to form a key frame contribution score. Note that this approach encourages angular diversity but prefers keyframes representing scenes with corresponding distances closer to the mobile device.

シーンのスケールダイバーシティ基準値を決定する際、スケールダイバーシティのスケールが使用される。本方法は、一例として、0.5x〜2xの距離からの視像を合成するために距離xにおけるキーフレームを使用するように構成することができ、本方法は、1つのピラミッドレベルによるダウンサンプリング/アップサンプリングに対応する。この手法では、このブラケット内にあるすべてのキーフレームに関して、本方法は、そのブラケット内のキーフレームの数(N)によって除算されたスコアである場合がある寄与スコアを割り当てる。次いで、本方法は、観測されたマップ点の寄与スコアを合計する。本開示の態様によれば、スケールダイバーシティに基づいてスコアを割り当てるために様々な手法を使用することができ、たとえば、一手法は、N≦5の場合は-0.25*N+1.5、N>5の場合は1/Nを使用することができる。   In determining the scale diversity reference value for the scene, the scale diversity scale is used. The method can be configured to use keyframes at distance x to synthesize views from a distance of 0.5x to 2x, as an example, and the method can be downsampled by one pyramid level / Supports upsampling. In this approach, for all key frames within this bracket, the method assigns a contribution score that may be a score divided by the number (N) of key frames in that bracket. The method then sums the contribution scores of the observed map points. In accordance with aspects of the present disclosure, various approaches can be used to assign scores based on scale diversity, for example, one approach is −0.25 * N + 1.5 if N ≦ 5, N> 5 In the case of 1 / N can be used.

図1は、本開示のいくつかの態様による、例示的な場所を示す。図1に示すように、例示的な場所102は、複合フットボールスタジアムであり得る。そのような複合的な場所では、通常のモバイルデバイスは、スタジアム全体を表す画像を記録できない場合がある。追跡自己位置推定アプリケーションにおいて使用され得るグローバル画像を構築するために1つまたは複数のモバイルデバイスによって記録された複数の画像をマージするのが望ましい。   FIG. 1 illustrates an exemplary location according to some aspects of the present disclosure. As shown in FIG. 1, the exemplary location 102 may be a complex football stadium. In such a complex location, a typical mobile device may not be able to record an image that represents the entire stadium. It is desirable to merge multiple images recorded by one or more mobile devices to build a global image that can be used in a tracking self-location estimation application.

図2は、本開示のいくつかの態様による、複数の角度からシーンの複数の視点を記録する方法を示す。図2に示される例では、様々な視点角度において1つまたは複数のモバイルデバイス(201a〜201f)によってシーン202が記録され得る。たとえば、モバイルデバイス201aは視点角度A1を有し、モバイルデバイス201bは視点角度A2を有し、以下同様にして、モバイルデバイス201fは視点角度A6を有する。いくつかの実装形態では、複数の視点(A1〜A6)は、1つのモバイルデバイスによって記録され得る。いくつかの他の実装形態では、複数の視点(A1〜A6)は、複数のモバイルデバイスによって記録され得る。   FIG. 2 illustrates a method for recording multiple viewpoints of a scene from multiple angles according to some aspects of the present disclosure. In the example shown in FIG. 2, the scene 202 may be recorded by one or more mobile devices (201a-201f) at various viewpoint angles. For example, mobile device 201a has a viewing angle A1, mobile device 201b has a viewing angle A2, and so on, mobile device 201f has a viewing angle A6. In some implementations, multiple viewpoints (A1-A6) may be recorded by one mobile device. In some other implementations, multiple viewpoints (A1-A6) may be recorded by multiple mobile devices.

図3は、本開示のいくつかの態様による、複数の距離からシーンの複数の視点を記録する方法を示す。図3に示される例では、様々な距離から1つまたは複数のモバイルデバイス(301a〜301c)によってシーン302が記録され得る。たとえば、モバイルデバイス301aは距離D1においてシーン302を記録し、モバイルデバイス301bは距離D2においてシーン302を記録し、モバイルデバイス301cは距離D3においてシーン302を記録する。いくつかの実装形態では、様々な距離(D1〜D3)からの複数の視点は、1つのモバイルデバイスによって記録され得る。いくつかの他の実装形態では、様々な距離(D1〜D3)からの複数の視点は、複数のモバイルデバイスによって記録され得る。   FIG. 3 illustrates a method for recording multiple viewpoints of a scene from multiple distances according to some aspects of the present disclosure. In the example shown in FIG. 3, the scene 302 may be recorded by one or more mobile devices (301a-301c) from various distances. For example, mobile device 301a records scene 302 at distance D1, mobile device 301b records scene 302 at distance D2, and mobile device 301c records scene 302 at distance D3. In some implementations, multiple viewpoints from various distances (D1-D3) may be recorded by one mobile device. In some other implementations, multiple viewpoints from various distances (D1-D3) may be recorded by multiple mobile devices.

図4は、本開示のいくつかの態様による、複数のアスペクト比でシーンの複数の視点を記録する方法を示す。図4に示される例では、1つまたは複数のモバイルデバイス(401a〜401c)の様々なアスペクト比設定で、シーン402の複数の視点が1つまたは複数のモバイルデバイスによって記録され得る。たとえば、モバイルデバイス401aは距離Dにおいてアスペクト比AR1でシーン402を記録し、モバイルデバイス401bは距離Dにおいてアスペクト比AR2でシーン402を記録し、モバイルデバイス401cは距離Dにおいてアスペクト比AR3でシーン402を記録する。いくつかの実装形態では、様々なアスペクト比(AR1〜AR3)によるシーン402の複数の視点は、1つのモバイルデバイスによって記録され得る。いくつかの他の実装形態では、様々なアスペクト比(AR1〜AR3)によるシーン402の複数の視点は、複数のモバイルデバイスによって記録され得る。   FIG. 4 illustrates a method for recording multiple viewpoints of a scene with multiple aspect ratios, according to some aspects of the present disclosure. In the example shown in FIG. 4, multiple viewpoints of the scene 402 may be recorded by one or more mobile devices with various aspect ratio settings of one or more mobile devices (401a-401c). For example, mobile device 401a records scene 402 at an aspect ratio AR1 at distance D, mobile device 401b records scene 402 at an aspect ratio AR2 at distance D, and mobile device 401c records scene 402 at an aspect ratio AR3 at distance D. Record. In some implementations, multiple viewpoints of the scene 402 with various aspect ratios (AR1-AR3) may be recorded by one mobile device. In some other implementations, multiple viewpoints of the scene 402 with various aspect ratios (AR1-AR3) may be recorded by multiple mobile devices.

図5は、本開示のいくつかの態様による、コンピュータビジョンベースの追跡のために複数のマップをマージする方法を実施するための例示的な装置を示す。図5に示される例では、装置500は、1つまたは複数のプロセッサ502と、ネットワークインターフェース504と、マップデータベース506と、キーフレーム処理モジュール508と、メモリ510とを含む。1つまたは複数のプロセッサ502は、装置500の動作を制御するように構成され得る。ネットワークインターフェース504は、ネットワーク(図示せず)と通信するように構成することができ、ネットワークは、ネットワーク上のサーバ、コンピュータ、およびモバイルデバイスと通信するように構成され得る。マップデータベース506は、様々な場所、ランドマーク、マップ、および他のユーザ定義情報の画像を記憶するように構成され得る。キーフレーム処理モジュール538は、コンピュータビジョンベースの追跡のために複数のマップをマージする方法を実施するように構成され得る。たとえば、キーフレーム処理モジュール508は、プロセッサ502とともに動作しながら、上述の方法と、図6、図8、および図9に関連して下で説明する方法とを実施するように構成され得る。メモリ510は、装置500のためのプログラムコードおよびデータを記憶するように構成され得る。他の実施形態では、図6、図8、および図9に関連して下で説明する方法は、図2、図3、および図4に示されるモバイルデバイスのうちの1つによって実施され、サーバによっても実施され得る。   FIG. 5 illustrates an example apparatus for performing a method of merging multiple maps for computer vision-based tracking according to some aspects of the present disclosure. In the example shown in FIG. 5, apparatus 500 includes one or more processors 502, a network interface 504, a map database 506, a key frame processing module 508, and a memory 510. One or more processors 502 may be configured to control the operation of apparatus 500. Network interface 504 can be configured to communicate with a network (not shown), and the network can be configured to communicate with servers, computers, and mobile devices on the network. The map database 506 may be configured to store images of various locations, landmarks, maps, and other user defined information. The key frame processing module 538 may be configured to implement a method for merging multiple maps for computer vision based tracking. For example, the key frame processing module 508 may be configured to perform the methods described above and the methods described below in connection with FIGS. 6, 8, and 9 while operating in conjunction with the processor 502. Memory 510 may be configured to store program codes and data for device 500. In other embodiments, the method described below in connection with FIGS. 6, 8, and 9 is performed by one of the mobile devices shown in FIGS. 2, 3, and 4, and the server Can also be implemented.

図6は、本開示のいくつかの態様による、コンピュータビジョンベースの追跡のために複数のマップをマージする方法を実施するための例示的なフローチャートを示す。図6に示される例示的な実装形態では、ブロック602において、本方法は、少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信する。ブロック604では、本方法は、シーンの複数のマップの複数のキーフレームを識別する。ブロック606では、本方法は、シーンのグローバルマップを生成するために複数のキーフレームをマージする。本開示の態様によれば、グローバルマップは、場所の3次元モデル、自己位置推定及び地図構築同時実行(SLAM)マップ、および2次元モデルを含み得るが、これらに限定されない。加えて、グローバルマップは、動的に更新され得るか、または遠隔サーバにおいてオフラインで更新され得る。いくつかの状況では、複数のマップのいずれも互いに重複しない可能性があり、そのような状況では、複数のマップにおける対応するキーフレームのいずれも除去されない場合があるが、その理由は、これらのキーフレームが、そのそれぞれの1つまたは複数の近接したキーフレームに対して高い角度ダイバーシティおよび/またはスケールダイバーシティを有するものと見なされ得るからである。いくつかの他の状況では、複数のマップのうちのいくつかが互いに重複する可能性があり、そのような状況では、複数のマップにおける対応するキーフレームのうちのいくつかが除去される場合があるが、その理由は、冗長なキーフレームのうちのいくつかが、そのそれぞれの1つまたは複数の近接したキーフレームに対して低い角度ダイバーシティおよび/またはスケールダイバーシティを有するものと見なされ得るからである。いくつかの特別な状況では、2つ以上のマップが互いに実質的に重複する可能性があり、そのような状況では、マップのうちの少なくとも1つからの対応するキーフレームのほとんどが除去される場合があるが、その理由は、冗長なキーフレームのほとんどが、そのそれぞれの1つまたは複数の近接したキーフレームに対して低い角度ダイバーシティおよび/またはスケールダイバーシティを有するものと見なされ得るからである。   FIG. 6 illustrates an exemplary flowchart for implementing a method of merging multiple maps for computer vision-based tracking according to some aspects of the present disclosure. In the exemplary implementation shown in FIG. 6, at block 602, the method receives a plurality of maps of a scene at a location from at least one mobile device. At block 604, the method identifies multiple key frames of multiple maps of the scene. At block 606, the method merges multiple key frames to generate a global map of the scene. According to aspects of the present disclosure, global maps may include, but are not limited to, a three-dimensional model of a place, a self-localization and simultaneous map construction (SLAM) map, and a two-dimensional model. In addition, the global map can be updated dynamically or can be updated offline at a remote server. In some situations, none of the multiple maps may overlap each other, and in such situations, none of the corresponding keyframes in the multiple maps may be removed because of these reasons This is because a key frame can be considered to have high angular diversity and / or scale diversity relative to its respective one or more adjacent key frames. In some other situations, some of the maps may overlap each other, and in such situations, some of the corresponding keyframes in the maps may be removed. This is because some of the redundant key frames may be considered to have low angle diversity and / or scale diversity relative to their respective one or more adjacent key frames. is there. In some special situations, two or more maps may substantially overlap each other, in which case most of the corresponding keyframes from at least one of the maps are removed In some cases, the reason is that most of the redundant key frames can be considered to have low angle diversity and / or scale diversity with respect to their respective one or more adjacent key frames. .

本開示のいくつかの態様によれば、ブロック602で実行される方法は、ブロック608で実行される方法をさらに含むことができ、ブロック608で実行される方法は、ブロック609および610で実行される方法をさらに含むことができる。ブロック608では、本方法は、複数のモバイルデバイスからシーンの複数のマップを受信する。ブロック609では、本方法は、複数のモバイルデバイスからのシーンの複数のマップからの複数のキーフレームの冗長性を評価し、冗長なキーフレームを削除する。ブロック610では、本方法は、複数のモバイルデバイスからのシーンの複数のマップを使用してグローバルマップを生成し、複数のモバイルデバイスの間でグローバルマップを共有する。   According to some aspects of the present disclosure, the method performed at block 602 can further include the method performed at block 608, and the method performed at block 608 is performed at blocks 609 and 610. The method may further be included. At block 608, the method receives a plurality of maps of the scene from a plurality of mobile devices. At block 609, the method evaluates the redundancy of multiple key frames from multiple maps of the scene from multiple mobile devices and removes redundant key frames. At block 610, the method generates a global map using multiple maps of the scene from multiple mobile devices and shares the global map between the multiple mobile devices.

本開示のいくつかの態様によれば、ブロック604で実行される方法は、ブロック612で実行される方法をさらに含むことができ、ブロック612で実行される方法は、ブロック614の要素をさらに含むことができる。ブロック612では、本方法は、複数の角度からシーンの複数の視点を表す複数のキーフレームを識別し、および/または、複数のスケールでシーンの複数の視点を表す複数のキーフレームを識別するが、これらの複数のキーフレームは、複数のマップの特徴、3次元座標、および外観を含む。ブロック614では、これらの複数のスケールは、少なくとも1つのモバイルデバイスとシーンとの間の複数の距離と、少なくとも1つのモバイルデバイスからのシーンの複数のアスペクト比とのうちの少なくとも1つを備える。   According to some aspects of the present disclosure, the method performed at block 604 can further include the method performed at block 612, and the method performed at block 612 further includes the elements of block 614. be able to. At block 612, the method identifies a plurality of keyframes that represent a plurality of viewpoints of the scene from a plurality of angles, and / or identifies a plurality of keyframes that represent the plurality of viewpoints of the scene at a plurality of scales. These multiple keyframes include multiple map features, 3D coordinates, and appearance. At block 614, the plurality of scales comprises at least one of a plurality of distances between the at least one mobile device and the scene and a plurality of aspect ratios of the scene from the at least one mobile device.

本開示のいくつかの態様によれば、ブロック606で実行される方法は、ブロック616で実行される方法をさらに含むことができ、ブロック616で実行される方法は、ブロック618で実行される方法をさらに含むことができる。ブロック616では、本方法は、複数のキーフレームの各キーフレームに関して、キーフレームの角度ダイバーシティおよび/またはキーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定し、所定のしきい値未満の寄与スコアに応じてキーフレームを削除する。ブロック618では、本方法は、第1の重み因子をキーフレームの角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算し、第2の重み因子をキーフレームのスケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算し、寄与スコアを生成するために角度ダイバーシティスコアリング基準値とスケールダイバーシティスコアリング基準値とを組み合わせる。ブロック620では、本方法は、オプションで、場所において少なくとも1つのモバイルデバイスの位置を追跡し得る。   According to some aspects of the present disclosure, the method performed at block 606 can further include the method performed at block 616, and the method performed at block 616 is the method performed at block 618. Can further be included. At block 616, the method determines a contribution score for each keyframe of the plurality of keyframes based at least in part on the keyframe angular diversity and / or keyframe scale diversity and less than a predetermined threshold value. Delete keyframes according to contribution score. At block 618, the method calculates an angle diversity scoring criterion by applying a first weighting factor to keyframe angular diversity and applying a second weighting factor to keyframe scale diversity. A scale diversity scoring reference value is calculated and the angle diversity scoring reference value and the scale diversity scoring reference value are combined to generate a contribution score. At block 620, the method may optionally track the location of at least one mobile device at the location.

図7は、本開示のいくつかの態様によるモバイルデバイスの例示的なブロック図を示す。モバイルデバイス201(201a〜201fを実装するように構成され得る)は、限定されないが、サーバおよび他のモバイルデバイスを含む他のコンピューティングデバイスと通信するためのトランシーバ106と、個々の写真またはビデオのフレームのいずれかであり得る、環境の画像を記録するためのカメラ108とを含む。モバイルデバイス201は、それを用いてモバイルデバイス201がその位置および方向、すなわち、ポーズを判断することができるデータを提供するために使用され得るセンサ116を含むことも可能である。モバイルデバイス201とともに使用され得るセンサの例には、線形加速度計として使用される加速度計、水晶センサ、ジャイロ、マイクロ電気機械システム(MEMS)センサ、ならびに磁力計が含まれる。   FIG. 7 illustrates an example block diagram of a mobile device according to some aspects of the present disclosure. Mobile device 201 (which may be configured to implement 201a-201f) includes, but is not limited to, transceiver 106 for communicating with other computing devices, including but not limited to servers and other mobile devices, and individual photos or videos. And a camera 108 for recording an image of the environment, which can be any of the frames. The mobile device 201 can also include a sensor 116 that can be used to provide data with which the mobile device 201 can determine its position and orientation, i.e., pose. Examples of sensors that can be used with mobile device 201 include accelerometers used as linear accelerometers, crystal sensors, gyros, micro-electromechanical system (MEMS) sensors, and magnetometers.

モバイルデバイス201は、画像を表示することができるディスプレイ112を含むユーザインターフェース110も含み得る。ユーザインターフェース110は、キーパッド114、または、ユーザが情報をモバイルデバイス201に入力することができる他の入力デバイスを含むことも可能である。所望される場合、仮想キーパッドをタッチセンサ付きディスプレイ112に組み込むことによってキーパッド114を取り除くことができる。ユーザインターフェース110は、たとえば、モバイルプラットフォームがセルラー電話である場合、マイクロフォン117および1つまたは複数のスピーカ118を含むこともできる。当然、モバイルデバイス201は、本開示に関係しない他の構成要素を含むことが可能である。   The mobile device 201 may also include a user interface 110 that includes a display 112 that can display images. The user interface 110 may also include a keypad 114 or other input device that allows a user to enter information into the mobile device 201. If desired, the keypad 114 can be removed by incorporating a virtual keypad into the display 112 with touch sensor. The user interface 110 may also include a microphone 117 and one or more speakers 118, for example when the mobile platform is a cellular phone. Of course, the mobile device 201 can include other components not relevant to the present disclosure.

モバイルデバイス201は、任意の他の所望の特徴とともに、カメラ108、およびセンサ116、ならびにユーザインターフェース110に接続され、これらと通信する制御ユニット120をさらに含む。制御ユニット120は、1つまたは複数のプロセッサ122と、関連するメモリ/記憶装置124とによって提供され得る。制御ユニット120は、ソフトウェア126、ならびにハードウェア128、およびファームウェア130を含むことも可能である。制御ユニット120は、モバイルデバイス201によって記録された観測値に基づいてキーフレームを処理するように構成されたキーフレーム処理モジュール132を含む。制御ユニット120は、複数のサブマップに基づいてマップを生成するように構成されたマップ生成モジュール134をさらに含む。わかりやすいように、キーフレーム処理モジュール132およびマップ生成モジュール134は、プロセッサ122および/またはハードウェア128とは切り離して例示されるが、ソフトウェア126内およびファームウェア130内の命令に基づいて、プロセッサ122内および/もしくはハードウェア128内で組み合わせること、ならびに/または実装することが可能である。制御ユニット120は、キーフレーム処理およびマップ生成の方法を実施するように構成され得ることに留意されたい。たとえば、制御ユニット120は、図2、図3、および図4において説明されるモバイルデバイス201の機能を実施するように構成され得る。   Mobile device 201, along with any other desired features, further includes a control unit 120 connected to and in communication with camera 108 and sensor 116 and user interface 110. The control unit 120 may be provided by one or more processors 122 and associated memory / storage devices 124. The control unit 120 can also include software 126 and hardware 128 and firmware 130. The control unit 120 includes a key frame processing module 132 that is configured to process key frames based on observations recorded by the mobile device 201. The control unit 120 further includes a map generation module 134 configured to generate a map based on the plurality of submaps. For clarity, the keyframe processing module 132 and map generation module 134 are illustrated separately from the processor 122 and / or hardware 128, but based on instructions in the software 126 and firmware 130, and in the processor 122 and It can be combined and / or implemented in hardware 128. Note that the control unit 120 may be configured to implement keyframe processing and map generation methods. For example, the control unit 120 may be configured to perform the functions of the mobile device 201 described in FIGS. 2, 3, and 4.

図8は、本開示のいくつかの態様による、キーフレームの角度ダイバーシティおよびスケールダイバーシティを決定するための例示的な方法を示す。図8に示すように、黒い正方形として示されるオブジェクト802は、異なる角度から、異なる距離から、および異なるスケールで観測され得る。一手法では、考えられる方向は、図8に示される804および806などの、球800のビンに離散化され得る。本開示の態様によれば、ビンは、球800のセクタ(近似的にピラミッドとして示される)を表し得る。ビンは、観測値を含むキーフレームを記録する角度ヒストグラムと見なすこともでき、観測値は、ビン内の1つまたは複数の星印によって表される。例示のために、ビン804は、球800の右側に別に示される。この例では、ビン804は、観測値810a、810b、810c、810d、810e、および810fを含み得る。いくつかの実装形態では、ビンは、図8に示される区分1および区分2などの複数の区分にさらに区分され得る。ビン内の各観測値は、セクタ内の他の観測値に対して評価され得るか、または他のビンからの他の観測値に対して評価され得る。   FIG. 8 illustrates an exemplary method for determining angle diversity and scale diversity of a key frame, according to some aspects of the present disclosure. As shown in FIG. 8, an object 802, shown as a black square, can be observed from different angles, from different distances, and at different scales. In one approach, possible directions may be discretized into sphere 800 bins, such as 804 and 806 shown in FIG. According to aspects of the present disclosure, a bin may represent a sector of a sphere 800 (shown approximately as a pyramid). A bin can also be viewed as an angular histogram that records keyframes that contain observations, where the observations are represented by one or more stars in the bin. For illustrative purposes, the bin 804 is shown separately on the right side of the sphere 800. In this example, bin 804 may include observations 810a, 810b, 810c, 810d, 810e, and 810f. In some implementations, the bin may be further partitioned into multiple sections, such as Section 1 and Section 2 shown in FIG. Each observation in the bin can be evaluated against other observations in the sector or can be evaluated against other observations from other bins.

いくつかの実装形態では、ビン内の観測値の(マップ点の)数が、所定の数、たとえば3未満である場合、観測値は、高い角度重要度を有するものと見なされてもよく、それらの観測値は保持され得る。他方では、観測値の数が所定の数よりも大きい場合、追加の観測値は、低い角度重要度を有するものと見なされてもよく、その追加の観測値は放棄され得る。   In some implementations, if the number of observations (map points) in a bin is less than a predetermined number, e.g., 3, the observations may be considered as having high angular importance, Those observations can be retained. On the other hand, if the number of observations is greater than the predetermined number, the additional observations may be considered as having a low angular importance and the additional observations may be discarded.

本開示の態様によれば、ある視点からのマップ点の観測値を仮定すれば、異なる視点からのその外観および同様の視点角度は、カメラからマップ点までの距離の1/f倍〜f倍内に正確に生成されることが期待され得る。いくつかの実装形態では、fは2に等しい場合があり、他の実装形態では、fの値は、どれくらいのスケール範囲が望まれるかに応じて、より低くなる場合がある。各観測値に関するカメラからマップ点までの距離の対数は、観測値の角度ヒストグラムを表すビンに割り当てられ得る。その距離は、均等目盛または対数目盛で記録され得る。   According to an aspect of the present disclosure, assuming an observed value of a map point from a certain viewpoint, its appearance from a different viewpoint and a similar viewpoint angle are 1 / f times to f times the distance from the camera to the map point. Can be expected to be generated accurately within. In some implementations, f may be equal to 2, and in other implementations, the value of f may be lower depending on how much scale range is desired. The logarithm of the distance from the camera to the map point for each observation can be assigned to a bin representing the angle histogram of the observation. The distance can be recorded on a uniform scale or a logarithmic scale.

いくつかの実装形態では、ビン内の観測値の数が、所定の数、たとえば2未満である場合、観測値は、高いスケール重要度を有するものと見なされてもよく、そのような観測値は保持され得る。他方では、ビン内の観測値の数が所定の数よりも多い場合、ビン内の追加の観測値は、低いスケール重要度を有するものと見なされてもよく、その追加の観測値は放棄され得る。   In some implementations, if the number of observations in the bin is less than a predetermined number, e.g., 2, the observation may be considered to have a high scale importance, and such an observation Can be retained. On the other hand, if the number of observations in the bin is greater than the predetermined number, the additional observations in the bin may be considered to have a low scale importance and the additional observations are discarded. obtain.

本開示の態様によれば、観測値が高い角度重要度またはスケール重要度を有する場合、その観測値は、重要としてフラグを立てられ得る。観測値が低い角度重要度および低いスケール重要度を有する場合、その観測値は、重要でないとしてフラグを立てられてもよく、その観測値は除去可能となる場合がある。キーフレームが、除去可能観測値の所定の比率(たとえば、0.8)よりも大きく、重要な観測値の所定の比率(たとえば、0.1)未満である場合、そのキーフレームは、除去するためにフラグを立てられ得る。   According to aspects of the present disclosure, if an observation has a high degree of angular importance or scale importance, the observation can be flagged as important. If an observation has a low angular importance and a low scale importance, the observation may be flagged as insignificant and the observation may be removable. If a keyframe is greater than a predetermined ratio of removable observations (e.g., 0.8) and less than a predetermined ratio of important observations (e.g., 0.1), the keyframe is flagged for removal. Can be stood.

図9は、本開示のいくつかの態様による、キーフレームの角度ダイバーシティおよびスケールダイバーシティを決定するための別の例示的な方法を示す。図9に示される例では、黒い正方形として示されるオブジェクト902は、異なる角度から、異なる距離から、および異なるスケールで観測され得る。一手法では、考えられる方向は、図9に示される904および906などの、球900のビンに離散化され得る。図8に示される例と同様に、ビンは、球900のセクタ(円すいとして示される)を表し得る。ビンは、観測値を含むキーフレームを記録する角度ヒストグラムと見なすこともでき、観測値は、ビン内の1つまたは複数の星印によって表される。例示のために、ビン904は、球900の右側に別に示される。この例では、ビン904は、観測値910a、910b、910c、910d、910e、910f、および910gを含み得る。いくつかの実装形態では、ビンは、図9に示されるように、区分1および区分2などの複数の区分にさらに区分され得る。ビン内の各観測値は、セクタ内の他の観測値に対して評価され得るか、または他のビンからの他の観測値に対して評価され得る。   FIG. 9 illustrates another exemplary method for determining the angular diversity and scale diversity of a key frame, according to some aspects of the present disclosure. In the example shown in FIG. 9, the object 902, shown as a black square, can be observed from different angles, from different distances, and at different scales. In one approach, the possible directions may be discretized into sphere 900 bins, such as 904 and 906 shown in FIG. Similar to the example shown in FIG. 8, a bin may represent a sector of a sphere 900 (shown as a cone). A bin can also be viewed as an angular histogram that records keyframes that contain observations, where the observations are represented by one or more stars in the bin. For illustration, the bin 904 is shown separately on the right side of the sphere 900. In this example, bin 904 may include observations 910a, 910b, 910c, 910d, 910e, 910f, and 910g. In some implementations, the bin may be further partitioned into multiple sections, such as Section 1 and Section 2, as shown in FIG. Each observation in the bin can be evaluated against other observations in the sector or can be evaluated against other observations from other bins.

本開示の態様によれば、第1の観測値が第1のビン内にすでに存在すると仮定すると、第2のビン内に第2の観測値を有することは、第1のビン内に第2の観測値を有することよりも高い角度ダイバーシティ(すなわち、重要度)に寄与するであろう。たとえば、観測値910aがビン904内にすでに存在する場合、ビン906内に観測値912aを有することは、ビン904内に観測値910bを有することよりも高い角度ダイバーシティに寄与するであろう。いくつかの実装形態では、あるビンへの追加の観測値による角度ダイバーシティの寄与は、そのビン内の観測値の数に反比例する場合がある。   According to aspects of the present disclosure, assuming that the first observation is already in the first bin, having the second observation in the second bin is the second in the first bin. Will contribute to higher angular diversity (ie, importance) than having For example, if observation 910a already exists in bin 904, having observation 912a in bin 906 will contribute to higher angular diversity than having observation 910b in bin 904. In some implementations, the contribution of angular diversity due to additional observations to a bin may be inversely proportional to the number of observations in that bin.

本開示の態様によれば、ある観測値がビンの第1の区分内にすでに存在すると仮定すると、ビンの第2の区分内に追加の観測値を有することは、第1の区分内に追加の観測値を有することよりも高いスケールダイバーシティ(すなわち、重要度)に寄与するであろう。たとえば、観測値910aがビン904の区分1内にすでに存在する場合、ビン904の区分2内に追加の観測値910fを有することは、ビン904の区分1内に観測値910bを有することよりも高いスケールダイバーシティに寄与するであろう。いくつかの実装形態では、ビンのある区分内の追加の観測値によるスケールダイバーシティの寄与は、ビンのその区分内の観測値の数に反比例する場合がある。   According to aspects of this disclosure, assuming that an observation already exists in the first partition of the bin, having an additional observation in the second partition of the bin adds to the first partition. Will contribute to higher scale diversity (ie, importance) than having For example, if observation 910a already exists in bin 904 segment 1, having an additional observation 910f in bin 904 segment 2 is better than having observation 910b in bin 904 segment 1. It will contribute to high scale diversity. In some implementations, the contribution of scale diversity due to additional observations in a bin segment may be inversely proportional to the number of observations in that bin segment.

本開示の態様によれば、いくつかの技法を使用して、画像フレーム内の特徴を識別および追跡することが実行され得る。一手法では、特徴を識別する方法は、各2×2勾配行列の最小固有値を検査することによって実行され得る。次いで、2つの窓の間の差を最小化するニュートン・ラフソン法を使用して特徴が追跡される。多重解像度追跡の方法は、画像間の比較的大きな変位を可能にする。あるフレームから次のフレームに特徴を追跡する間、誤差が蓄積し得ることに留意されたい。潜在的に不良な特徴を検出するために、モバイルデバイスは、現在のフレーム内の特徴を囲む窓内の画像信号が、前のフレーム内の特徴を囲む窓内の画像信号に依然として類似するかどうかを監視するように構成され得る。多くのフレームを通して特徴を追跡することができるので、画像コンテンツは変形する場合がある。この課題に対処するために、相似またはアフィンマッピングを用いて、一貫性検査を実行することができる。   According to aspects of this disclosure, several techniques may be used to identify and track features in an image frame. In one approach, the method of identifying features may be performed by examining the minimum eigenvalue of each 2 × 2 gradient matrix. The features are then tracked using a Newton-Raphson method that minimizes the difference between the two windows. Multi-resolution tracking methods allow for relatively large displacements between images. Note that errors can accumulate while tracking features from one frame to the next. In order to detect potentially bad features, the mobile device determines whether the image signal in the window surrounding the feature in the current frame is still similar to the image signal in the window surrounding the feature in the previous frame. May be configured to monitor. The image content may be deformed because features can be tracked through many frames. To address this challenge, consistency checks can be performed using similarity or affine mapping.

本開示の態様によれば、画像内のオブジェクトを識別するために、オブジェクト上の点を抽出して、そのオブジェクトの(キーポイント、特徴点、または略して特徴とも呼ばれる)特徴記述子を提供することができる。次いで、多くの他のオブジェクトを含むテスト画像内のオブジェクトの位置特定を試みるとき、トレーニング画像から抽出されたこの記述子を使用して、そのオブジェクトを識別することができる。信頼性が高い認識を実行するために、トレーニング画像から抽出された特徴は、画像スケール、雑音、および照度の変更下ですら、検出可能であり得る。そのような点は、通常、オブジェクトエッジなど、画像の高コントラスト領域に存在する。   According to aspects of the present disclosure, to identify an object in an image, a point on the object is extracted to provide a feature descriptor (also referred to as a keypoint, feature point, or feature for short) of that object be able to. This descriptor extracted from the training image can then be used to identify that object when attempting to locate an object in a test image that contains many other objects. In order to perform reliable recognition, features extracted from training images may be detectable even under changes in image scale, noise, and illumination. Such points are usually present in high contrast areas of the image, such as object edges.

これらの特徴の別の特性は、元のシーン内のこれらの特徴同士の間の相対的な位置は画像ごとに変わらない場合があるということである。たとえば、扉の四隅だけが特徴として使用される場合、扉の位置にかかわらず、これらの四隅は機能し得るが、フレーム内の点が使用される場合、扉が開かれた場合、または閉じられた場合、認識は失敗する可能性がある。同様に、連結したオブジェクト内またはフレキシブルなオブジェクト内に位置する特徴は、処理されているセット内の2つの画像同士の間でその内部幾何形状に何らかの変更が発生した場合、一般に、機能しない可能性がある。いくつかの実装形態では、SIFTは、画像から多数の特徴を検出および使用し、これは、すべての特徴マッチング誤差の平均誤差における局所変化によって引き起こされる誤差の寄与を削減し得る。したがって、開示される方法は、ノイズの中ですら、および部分的なオクルージョン下ですら、オブジェクトを識別することができるが、これは、SIFT特徴記述子が一定のスケーリング、方向に対して不変であり得、アフィン歪み(affine distortion)および照度変化に対して部分的に不変であり得るからである。   Another characteristic of these features is that the relative position between these features in the original scene may not change from image to image. For example, if only the four corners of the door are used as features, these four corners can function regardless of the position of the door, but if a point in the frame is used, the door is opened or closed. Recognition may fail. Similarly, features located in connected or flexible objects may generally not work if any changes in their internal geometry occur between two images in the set being processed. There is. In some implementations, SIFT detects and uses multiple features from the image, which may reduce the error contribution caused by local changes in the average error of all feature matching errors. Thus, the disclosed method can identify objects even in noise and even under partial occlusion, but this is because SIFT feature descriptors are invariant to constant scaling and direction. This is possible because it can be partially invariant to affine distortion and illumination changes.

たとえば、オブジェクトのキーポイントを、まず参照画像のセットから抽出して、データベース内に記憶することができる。新しい画像からの各特徴をこのデータベースと比較して、それらの特徴ベクトルのユークリッド距離に基づいて、候補マッチング特徴を見出すことによって、新しい画像内のオブジェクトが認識される。マッチングの完全セットから、新しい画像内のオブジェクトおよびその位置、スケール、ならびに方向に関して一致したキーポイントのサブセットを識別して、良好なマッチングをフィルタ除去することができる。一貫性のあるクラスタの判断は、生成されたハフ変換のハッシュ表実装形態を使用することによって実行され得る。オブジェクトおよびそのポーズに関して一致した、3つ以上の特徴の各クラスタは、次いで、さらに詳細なモデル検証を受けることが可能であり、その後、異常値が廃棄され得る。次いで、適合の精度と推定誤マッチングの数とに基づいて、特徴の特定のセットがオブジェクトの存在を示す確率を計算することが可能である。テストに合格するオブジェクトマッチングは、高い信頼性で正確として識別され得る。   For example, object keypoints can first be extracted from a set of reference images and stored in a database. Objects in the new image are recognized by comparing each feature from the new image to this database and finding candidate matching features based on the Euclidean distance of those feature vectors. From the complete set of matches, the object in the new image and the subset of keypoints that matched with respect to its position, scale, and orientation can be identified to filter out good matches. The determination of a consistent cluster can be performed by using a generated Hough transform hash table implementation. Each cluster of three or more features that are matched with respect to the object and its pose can then undergo further detailed model verification, after which outliers can be discarded. Based on the accuracy of the fit and the number of estimated mismatches, it is then possible to calculate the probability that a particular set of features indicates the presence of the object. Object matches that pass the test can be identified as accurate and reliable.

本開示の態様によれば、画像特徴生成は、画像を、その各々が画像変換、スケーリング、および回転に対して不変であると同様に、照度変更に対しても不変であり得、局所的な幾何学的歪みに対して頑強であり得る特徴ベクトルの大規模コレクションに変換する。これらの特徴は、霊長類の視覚内のオブジェクト認識に関して使用される下側頭皮質内の神経細胞と類似の性質を共に有する。キー位置は、一連の平滑化および再サンプリングされた画像に対してスケール空間で適用されるガウス関数の差の結果の最大値および最小値として定義され得る。低コントラスト候補点、およびエッジに沿ったエッジ反応点を廃棄することができる。最も頻度の高い方向(dominant orientations)を局所的キーポイントに割り当てる。この手法は、マッチングおよび認識に関してキーポイントがより安定していることを保証する。次いで、キー位置の半径を囲む画素を考慮して、局所的な画像配向面のぼかしおよび再サンプリングによって、局所的なアフィン歪みに対して頑強なSIFT記述子が取得され得る。   In accordance with aspects of the present disclosure, image feature generation can be invariant to illumination changes, as well as local to each image transformation, scaling, and rotation. Convert to a large collection of feature vectors that can be robust against geometric distortions. These features have properties similar to those of neurons in the inferior temporal cortex used for object recognition in primate vision. The key position may be defined as the maximum and minimum results of a Gaussian function difference applied in scale space to a series of smoothed and resampled images. Low contrast candidate points and edge reaction points along the edge can be discarded. Assign the dominant orientations to local keypoints. This approach ensures that the key points are more stable with respect to matching and recognition. A SIFT descriptor that is robust against local affine distortion can then be obtained by blurring and resampling the local image orientation plane, taking into account the pixels surrounding the radius of the key position.

特徴マッチングおよび索引付けは、SIFTキーを記憶することと、新しい画像からマッチングキーを識別することとを含み得る。一手法では、限定された量の計算を使用して、高い確率を有する最近隣を識別するために使用され得るベストビンファースト検索(best-bin-first search)方法とも呼ばれるk-dツリーアルゴリズムの修正。ベストビンファーストアルゴリズムは、特徴空間内のビンをクエリ位置から最近距離の順序で検索することができるように、k-dツリーアルゴリズムに関して、修正された検索順序を使用する。この検索順序は、検索順序を効率的に判断するために、ヒープベースの優先待ち行列(heap-based priority queue)の使用を必要とする。トレーニング画像からキーポイントのデータベース内のその最近隣を識別することによって、各キーポイントに関する最善の候補マッチングを見出すことができる。最近隣は、所与の記述子ベクトルから最小ユークリッド距離を有するキーポイントとして定義され得る。マッチングが正確である確率は、最近隣から第2の最近隣までの距離の率をとることによって判断され得る。   Feature matching and indexing may include storing SIFT keys and identifying matching keys from new images. In one approach, a modification of the k-d tree algorithm, also called a best-bin-first search method, that can be used to identify nearest neighbors with high probability using a limited amount of computation. The best bin first algorithm uses a modified search order with respect to the k-d tree algorithm so that bins in the feature space can be searched in order of closest distance from the query location. This search order requires the use of a heap-based priority queue to efficiently determine the search order. By identifying its nearest neighbor in the keypoint database from the training image, the best candidate match for each keypoint can be found. The nearest neighbor can be defined as the keypoint that has the minimum Euclidean distance from a given descriptor vector. The probability that the matching is accurate can be determined by taking the ratio of the distance from the nearest neighbor to the second nearest neighbor.

1つの例示的な実装形態では、距離比が0.8を超えるマッチングは拒否されてよく、これは誤マッチングの90%を排除するのに対して、正確なマッチングの5%未満を廃棄する。ベストビンファーストアルゴリズムの効率をさらに改善するために、所定の数(たとえば、100個)の最近隣候補を検査した後、検索を止めることができる。100,000個のキーポイントのデータベースの場合、これは、正確な最近隣検索に関しておよそ2桁の加速を実現し得、さらに、正確なマッチングの数において5%未満の損失をもたらす。   In one exemplary implementation, matching with a distance ratio exceeding 0.8 may be rejected, which eliminates 90% of false matches while discarding less than 5% of exact matches. To further improve the efficiency of the best bin first algorithm, the search can be stopped after examining a predetermined number (eg, 100) of nearest neighbor candidates. For a database of 100,000 keypoints, this can achieve approximately two orders of magnitude acceleration for accurate nearest neighbor search, further resulting in less than 5% loss in the number of exact matches.

この例示的な実装形態の場合、ハフ変換を使用して、信頼性が高いモデル仮説をクラスタ化して、特定のモデルポーズに関して一致するキーに関して検索することができる。その特徴に一致し得るオブジェクトポーズを決定する(vote)ための各特徴を使用することによって、一貫性のある解釈を用いて特徴のクラスタを識別するために、ハフ変換を使用することができる。特徴のクラスタがオブジェクトの同じポーズを決定することが見出されたとき、正確である解釈の確率は任意の単一の特徴に関するよりもより高い場合がある。マッチング仮説からモデルの位置、方向、およびスケールを予測するために、ハッシュ表内に記入を生み出すことができる。ビン内の少なくとも3つの記入のクラスタを識別するためにハッシュ表を検索することができ、ビンをサイズの降順にソートすることができる。   For this exemplary implementation, the Hough transform can be used to cluster reliable model hypotheses and search for matching keys for a particular model pose. A Hough transform can be used to identify a cluster of features using a consistent interpretation by using each feature to determine an object pose that can match that feature. When a cluster of features is found to determine the same pose of an object, the probability of interpretation being accurate may be higher than for any single feature. Entries can be created in the hash table to predict the position, orientation, and scale of the model from the matching hypothesis. A hash table can be searched to identify clusters of at least three entries in the bin, and bins can be sorted in descending size order.

本開示の態様によれば、SIFTキーポイントの各々は、2D位置、スケール、および方向を指定することができる。加えて、データベース内の各マッチングキーポイントは、そのマッチングキーポイントが見出されるトレーニング画像に対するそのパラメータの記録を有し得る。これらの4つのパラメータによって暗示される相似変換は、3Dオブジェクトに関する6自由度のポーズ空間の近似値であり得、また任意の非剛体変形に対応しない。したがって、例示的な実装形態は、方向に関して30度の広いビンサイズ、2倍のスケール、および位置に関して(予測されたスケールを使用して)最大予想トレーニング画像寸法の0.25倍を使用することができる。より大きなスケールで生成されたSIFTキーサンプルには、より小さなスケールのSIFTキーサンプルよりも2倍の重みを与えることができる。この手法を用いると、より大きなスケールは、事実上、より小さなスケールで検査するための可能性が最も高い近隣をフィルタリングすることができる。この手法は、最も雑音の低いスケールにより大きな重みを与えることによって認識性能も改善する。本開示の態様によれば、ビン割当ての境界効果の課題を回避するために、各キーポイントマッチングは各次元内の2個の近接ビンを決定して、各仮説に関して合計で16個の記入を与えて、ポーズ範囲をさらに広げることができる。   According to aspects of the present disclosure, each of the SIFT keypoints can specify a 2D position, a scale, and a direction. In addition, each matching keypoint in the database may have a record of its parameters for the training image where the matching keypoint is found. The similarity transformation implied by these four parameters can be an approximation of a 6-DOF pose space for a 3D object and does not correspond to any non-rigid deformation. Thus, an exemplary implementation can use a wide bin size of 30 degrees with respect to direction, a scale of 2 times, and 0.25 times the maximum expected training image size (using the predicted scale) with respect to position. . SIFT key samples generated at a larger scale can be given twice as much weight as SIFT key samples at a smaller scale. With this approach, a larger scale can effectively filter the neighbors that are most likely to test on a smaller scale. This approach also improves recognition performance by giving greater weight to the lowest noise scale. According to aspects of the present disclosure, to avoid the bin assignment boundary effect problem, each keypoint matching determines two adjacent bins in each dimension, making a total of 16 entries for each hypothesis. Given this, the range of poses can be further expanded.

本開示の態様によれば、所与のパラメータ解に関して、各画像特徴とモデルとの間の一致を検査することによって、異常値を除去することができる。たとえば、線形最小二乗解を考慮すると、各マッチングは、ハフ変換ビン内のパラメータに関して使用される誤差の半分の範囲内で一致することが必要とされ得る。異常値が廃棄されると、残りの点を用いて線形最小二乗解を解くことができ、このプロセスを反復することができる。いくつかの実装形態では、異常値を廃棄した後、所定数未満の点(たとえば、3個の点)が残る場合、マッチングは拒否され得る。加えて、トップダウンマッチング段階を使用して、相似変換近似値または他の誤差により、ハフ変換ビンから欠落している場合がある、予測モデル位置に一致する任意のさらなるマッチングを追加することができる。   In accordance with aspects of the present disclosure, outliers can be removed by examining the match between each image feature and model for a given parameter solution. For example, given a linear least squares solution, each match may need to match within half the error used for the parameters in the Hough transform bin. Once the outliers are discarded, the remaining points can be used to solve the linear least squares solution and this process can be repeated. In some implementations, matching may be rejected if fewer than a predetermined number of points (eg, 3 points) remain after discarding outliers. In addition, the top-down matching stage can be used to add any further matching that matches the predicted model location that may be missing from the Hough transform bin due to similarity transformation approximations or other errors. .

モデル仮説を受け入れるか、または拒否する決定は、詳細な確率モデルに基づくことが可能である。この方法は、まず、モデルの予測されたサイズと、領域内の特徴の数と、マッチングの精度とを考慮して、モデルポーズに対して予想される誤マッチングの数を計算する。次いで、ベイズ確率解析は、見出された実際のマッチング特徴数に基づいて、そのオブジェクトが存在し得る確率を出すことが可能である。正確な解釈に関する最終的な確率が所定の割合(たとえば、95%)を超える場合、モデルを受け入れることができる。   The decision to accept or reject the model hypothesis can be based on a detailed probabilistic model. This method first calculates the expected number of false matches for a model pose, taking into account the predicted size of the model, the number of features in the region, and the accuracy of matching. Bayesian probability analysis can then give a probability that the object may exist based on the actual number of matching features found. If the final probability for correct interpretation exceeds a predetermined percentage (eg, 95%), the model can be accepted.

本開示の態様によれば、一手法では、クラッタ状況下または部分的なオクルージョン状況下で対処するために、SIFTの回転不変量の一般化(generalization)として、回転不変量特徴変換(RIFT:rotation invariant feature transform)方法を用いることができる。等しい幅の同心リングに分割された円正規化パッチ(circular normalized patches)を使用して、RIFT記述子を構築することが可能であり、各リング内の勾配方向ヒストグラムを計算することが可能である。回転不変を維持するために、中心から外に向かう方向に対して各点における方向を測定することができる。   According to an aspect of the present disclosure, in one approach, a rotation invariant feature transformation (RIFT) is used as a generalization of SIFT rotation invariants in order to deal with clutter or partial occlusion situations. invariant feature transform) method can be used. It is possible to construct RIFT descriptors using circular normalized patches divided into concentric rings of equal width, and to compute gradient direction histograms within each ring . In order to maintain rotation invariance, the direction at each point can be measured relative to the direction from the center outward.

別の手法では、一般化ロバスト不変特徴(G-RIF:generalized robust invariant feature)方法を使用することができる。G-RIFは、知覚的情報を空間符号化と組み合わせる統一形式でエッジ方向、エッジ密度、および色相情報を符号化する。オブジェクト認識方式は、近接コンテキストベースの決定を使用して、オブジェクトモデルを推定する。   In another approach, a generalized robust invariant feature (G-RIF) method can be used. G-RIF encodes edge direction, edge density, and hue information in a unified format that combines perceptual information with spatial coding. Object recognition schemes use proximity context-based determination to estimate the object model.

さらに別の手法では、再現性、独自性、および頑強性に関して前に提案された方式をしのぐ場合があるスケールおよび回転不変関心ポイント検出器(scale and rotation-invariant interest detector)/記述子を使用する高速化ロバスト特徴(SURF:speeded up robust feature)方法を使用することができる。SURFは、計算時間を削減するための画像畳み込み用の積分画像に依存し、(検出器に関する高速ヘッセ行列ベースの測定と、分布ベースの記述子とを使用する)優れた既存の検出器および記述子の強度に基づく。SURF方法は、関心ポイント近隣内のハール・ウェーブレット応答の分布を記述する。速度に関して積分画像を使用することができ、64次元を使用して、特徴計算およびマッチングに関する時間を削減することができる。索引付けステップは、記述子のマッチング速度および頑強性を高めるラプラシアンの信号に基づくことが可能である。   Yet another approach uses a scale and rotation-invariant interest detector / descriptor that may outperform previously proposed methods for repeatability, uniqueness, and robustness. A speeded up robust feature (SURF) method can be used. SURF relies on integral images for image convolution to reduce computation time, and superior existing detectors and descriptions (using fast Hessian-based measurements on detectors and distribution-based descriptors) Based on the strength of the child. The SURF method describes the distribution of Haar wavelet responses within the neighborhood of interest points. Integral images can be used for speed, and 64 dimensions can be used to reduce time for feature calculation and matching. The indexing step can be based on Laplacian signals that enhance descriptor matching speed and robustness.

さらに別の手法では、主成分分析SIFT(PCA-SIFT:principle component analysis SIFT)方法を使用することができる。いくつかの実装形態では、PCA-SIFT記述子は、サポート領域内で計算されたxおよびy方向の画像勾配のベクトルである。勾配領域は、39×39位置でサンプリングされ得る。したがって、ベクトルは次元3042のものであり得る。PCAを用いて、次元を36に削減することができる。さらに別の手法では、そのロバスト性および独自性を高めるように設計されたSIFT記述子の拡張である勾配位置方向ヒストグラム(GLOH:Gradient location-orientation histogram)方法を用いることができる。いくつかの実装形態では、SIFT記述子は、(半径が6、11、および15に設定される)半径方向に3個のビンと、角度方向に8個のビンとを有し、結果として17個の位置ビンを有するログ極性(log-polar)位置グリッドに関して計算され得る。中央ビンは、角度方向に分割されなくてよい。勾配方向は、16個のビン内で量子化されて、結果として、272ビンヒストグラムをもたらし得る。PCAを用いて、この記述子のサイズを削減することができる。様々な画像から収集された画像パッチに関して、PCAに関する共分散行列を推定することができる。次いで、記述のために128個の最も大きな固有ベクトルを使用することができる。   In yet another technique, a principal component analysis SIFT (PCA-SIFT) method can be used. In some implementations, the PCA-SIFT descriptor is a vector of image gradients in the x and y directions calculated within the support region. The gradient region can be sampled at 39 × 39 locations. Thus, the vector can be of dimension 3042. Using PCA, the dimension can be reduced to 36. Yet another approach may use a Gradient location-orientation histogram (GLOH) method, which is an extension of the SIFT descriptor designed to enhance its robustness and uniqueness. In some implementations, the SIFT descriptor has 3 bins in the radial direction (with radii set to 6, 11, and 15) and 8 bins in the angular direction, resulting in 17 It can be calculated for a log-polar position grid with a number of position bins. The central bin need not be divided in the angular direction. The gradient direction can be quantized within 16 bins, resulting in a 272 bin histogram. PCA can be used to reduce the size of this descriptor. For image patches collected from various images, a covariance matrix for PCA can be estimated. The 128 largest eigenvectors can then be used for the description.

さらに別の手法では、現在のモバイルデバイス限界範囲内で、2オブジェクト認識アルゴリズム(two-object recognition algorithm)を使用するために用いることができる。典型的なSIFT手法とは対照的に、特徴検出のために、加速セグメントテストからの特徴(FAST:Features from Accelerated Segment Test)コーナー検出器を使用することができる。この手法は、特徴が異なるスケールレベルで作成され得るオフライン準備段階と、特徴が、モバイルデバイスのカメラの画像の現在の固定スケールレベルで作成され得るオンライン段階とを区別する。1つの例示的な実装形態では、特徴は、所定の固定パッチサイズ(たとえば、15×15画素)から作成されることが可能であり、36次元を有するSIFT記述子を形成する。認識パイプライン内にスケーラブルな語彙ツリー(scalable vocabulary tree)を統合することによって、この手法をさらに拡張することが可能である。これは、モバイルデバイス上の多数のオブジェクトの効率的な認識を可能にする。   Yet another approach can be used to use a two-object recognition algorithm within current mobile device limits. In contrast to typical SIFT techniques, a feature from accelerated segment test (FAST) corner detector can be used for feature detection. This approach distinguishes between an offline preparation stage where features can be created at different scale levels and an online stage where features can be created at the current fixed scale level of the camera image of the mobile device. In one exemplary implementation, features can be created from a predetermined fixed patch size (eg, 15 × 15 pixels), forming a SIFT descriptor having 36 dimensions. This approach can be further extended by integrating a scalable vocabulary tree within the recognition pipeline. This allows efficient recognition of a large number of objects on the mobile device.

本開示の態様によれば、局所画像特徴の検出および記述は、オブジェクト認識に役立つ場合がある。SIFT特徴は、局所的であり得、特定の関心ポイントにおけるオブジェクトの外観に基づくことが可能であり、画像のスケールおよび回転に対して不変であり得る。SIFT特徴は、やはり、照度、雑音の変化、および視野内の微小変化に対して頑強であり得る。これらの特性に加えて、これらの特徴は非常に特徴的であり得、抽出が比較的容易であり得、低い不マッチング確率で正確なオブジェクト識別を可能にし得る。これらの特徴は、局所特徴の(大規模)データベースに対して比較的に容易にマッチングすることができ、ベストビンファースト検索を用いたK次元(k-d)ツリーなど、一般に確率的なアルゴリズムを使用することができる。SIFT特徴のセットによるオブジェクト記述は、部分的なオクルージョンに対しても頑強であり得る。たとえば、オブジェクトからわずか3個のSIFT特徴はその位置およびポーズを計算するのに十分であり得る。いくつかの実装形態では、認識は、小型データベースに関して、現代的なコンピュータハードウェア上で、疑似リアルタイムで実行され得る。   According to aspects of the present disclosure, detection and description of local image features may be useful for object recognition. SIFT features can be local, can be based on the appearance of the object at a particular point of interest, and can be invariant to the scale and rotation of the image. SIFT features can also be robust to illuminance, noise changes, and small changes in the field of view. In addition to these properties, these features can be very characteristic, can be relatively easy to extract and can allow accurate object identification with low mismatch probability. These features can be matched relatively easily against a (large) database of local features, and generally use probabilistic algorithms such as K-dimensional (kd) trees with best bin first search. be able to. Object descriptions with a set of SIFT features can be robust against partial occlusion. For example, as few as three SIFT features from an object may be sufficient to calculate their position and pose. In some implementations, recognition may be performed in pseudo real time on modern computer hardware with respect to a small database.

本開示の態様によれば、カメラの視野内のオブジェクトを移動させることによってもたらされる異常値を除去するために、ランダムサンプルコンセンサス(RANSAC)技法を用いることができる。RANSACは、異常値を含む、観測されたデータのセットから数学モデルのパラメータを推定するために反復方法を使用することに留意されたい。この方法は関連する確率を有する合理的な結果を生み出すため、この方法は非決定論的であり得、より多くの反復が実行されるにつれて、確率を高めることができる。   In accordance with aspects of the present disclosure, random sample consensus (RANSAC) techniques can be used to remove outliers caused by moving objects within the camera's field of view. Note that RANSAC uses an iterative method to estimate mathematical model parameters from a set of observed data, including outliers. Because this method produces reasonable results with associated probabilities, this method can be non-deterministic and can increase the probability as more iterations are performed.

1つの例示的な実装形態では、観測されたデータ値のセット、対応する信頼性パラメータを有する観測に適合し得るパラメータ化されたモデル。この例示的な実装形態では、この方法は、元のデータのランダムサブセットを反復的に選択する。これらのデータは、仮説的正常値であり得、この仮説は、次いで、次のようにテストされ得る。
1.モデルは仮説的正常値に適合し得、すなわち、モデルのすべての自由パラメータは正常値から再構築される。
2.次いで、適合モデルに対してすべての他のデータをテストすることができ、点が推定モデルに十分適合する場合、その点を仮説的に正常値であると見なすことができる。
3.十分な数の点が仮説的正常値として分類されている場合、推定モデルを許容可能と見なすことができる。
4.モデルは仮説的正常値の初期セットからだけ推定されているので、すべての仮説的正常値からモデルを再度推定することができる。
5.最終的に、モデルに対する正常値の誤差を推定することによって、モデルを評価することができる。
In one exemplary implementation, a set of observed data values, a parameterized model that can be adapted to observations with corresponding reliability parameters. In this exemplary implementation, the method iteratively selects a random subset of the original data. These data can be hypothetical normal values, which can then be tested as follows.
1. The model can fit hypothetical normal values, ie all free parameters of the model are reconstructed from normal values.
2. All other data can then be tested against the fitted model, and if the point fits well into the estimated model, the point can be considered hypothetically normal.
3. If a sufficient number of points are classified as hypothetical normal values, the estimation model can be considered acceptable.
4. Since the model is estimated only from the initial set of hypothetical normal values, the model can be estimated again from all hypothetical normal values.
5. Finally, the model can be evaluated by estimating the normal value error for the model.

上記の手順を所定回数繰り返し、毎回、あまりにも少ない点が正常値として分類されているので拒否され得るモデル、または対応する誤差測定とともに精緻化されたモデルのいずれかを生み出すことができる。後者の場合、誤差が前に保存されたモデルよりも低い場合、精緻化されたモデルを維持することができる。   The above procedure can be repeated a predetermined number of times to produce either a model that can be rejected because too few points are classified as normal values, or a refined model with corresponding error measurements. In the latter case, the refined model can be maintained if the error is lower than the previously stored model.

別の例示的な実装形態では、モデルベースの動き追跡方法を使用して、カメラの視野内の移動オブジェクトを積極的に識別および除去することができる。一手法では、追跡の対象は、モデル認識の問題として処理され得る。ターゲットの2進表現を追跡することができ、ハウスドルフ距離ベースの検索を使用して、対象物に関する画像の領域を検索することができる。ターゲット(モデル)の2進表現の場合、ガウス平滑化画像の標準キャニーエッジ(canny edge)検出器からの出力は、モデル履歴の概念を用いて拡張され得る。各フレームで、現在の画像および現在のモデルからのキャニーエッジを使用して、各ターゲットに関してハウスドルフ検索を実行することができる。加えて、アフィン推定を実行して、正味背景運動を概算することができる。これらの2つの検索の結果から、ターゲットに関する情報を収集して、ターゲットの動きを概算するため、ならびに、ターゲットの領域内の動きから背景を分離するために、この情報を使用することができる。(オブジェクトが遮断されて影になる、オブジェクトがフレームを離れる、またはカメラ画像の歪みが不良な画像品質をもたらすなど)有害/異常状態に対処することを可能にするために、ターゲットの過去の動きおよびサイズ変更、ターゲットの特徴的視野(ターゲットが追跡されてきた様々な様式の正確な表現を実現する、時間を通じたスナップショット)、および過去のマッチング品質など、ターゲットに関する履歴データを保持することが可能である。   In another exemplary implementation, a model-based motion tracking method may be used to actively identify and remove moving objects in the camera's field of view. In one approach, the tracking object can be treated as a model recognition problem. The binary representation of the target can be tracked, and the Hausdorff distance-based search can be used to search the area of the image for the object. In the case of a binary representation of the target (model), the output from a standard canny edge detector of a Gaussian smoothed image can be extended using the concept of model history. At each frame, a Hausdorff search can be performed for each target using the current image and the canny edge from the current model. In addition, affine estimation can be performed to approximate the net background motion. From these two search results, this information can be used to gather information about the target to approximate the target's motion, as well as to separate the background from motion within the target's region. The past movement of the target to allow it to deal with harmful / abnormal conditions (e.g. objects are blocked and become shadows, objects leave the frame, or camera image distortion results in poor image quality) And keep historical data about the target, such as resizing, target characteristic field of view (snapshot over time, providing an accurate representation of the various ways the target has been tracked), and past matching quality Is possible.

ターゲットを追跡する履歴は、有害/異常状態を単に補助する以上に有用な場合があり、固体運動追跡方法の一部は、フレームごとの動き比較方法だけでなく、履歴データを必要とする場合がある。この履歴状態は、何をターゲットの一部と見なすべきであるか(たとえば、同じ速度で移動するオブジェクトに近接して移動する物をオブジェクト内に組み込むべきであること)をどのように決定するかに関する情報を提供することができ、動きおよびサイズに関する情報を用いて、この方法は、失われた対象がどこに行ったか、またはその対象がどこに再現し得るかを予測的に推定することができる(これは、フレームを離れて、後の時点で再現するターゲットを回復する際に有用である)。   The history of tracking the target may be more useful than simply assisting in harmful / abnormal conditions, and some solid motion tracking methods may require historical data as well as frame-by-frame motion comparison methods. is there. How this history state determines what should be considered part of the target (for example, something that moves close to an object moving at the same speed should be incorporated into the object) With information about motion and size, this method can predictively where a lost object has gone or where it can be reproduced ( This is useful in leaving the frame and recovering the target to be reproduced at a later time).

動き追跡方法の本質的な課題は、(静的カメラとは対照的に)カメラは任意の動きを有する場合があり、これはカメラの動きの予測不可能な変化に対処し得る追跡システムの開発を困難にすることによってもたらされる場合がある。計算的に効率的なアフィン背景推定方式を使用して、カメラおよびシーンの動きに関する情報を提供することが可能である。   The essential challenge of motion tracking methods is that a camera may have arbitrary motion (as opposed to a static camera), which develops a tracking system that can cope with unpredictable changes in camera motion. May be caused by making it difficult. A computationally efficient affine background estimation scheme can be used to provide information about camera and scene motion.

本開示の態様によれば、画像に関するアフィン変換を、時間t+dtの画像に対して、時間tで実行することができ、これは、2つの画像内の動きを相関することを可能にする。この背景情報は、この方法が、時間tの画像から時間t+dtの画像を合成することと、正味シーン動作の近似であり得るアフィン変換とを可能にする。t+dtにおける実際の画像とt+dtにおける生成画像との差を利用して、ターゲットを取り巻く空間から画像特徴を除去することができるので、この合成画像は、新しいモデル情報を生成して、モデル空間から背景クラッタを除去する際に有用であり得る。   According to aspects of the present disclosure, an affine transformation on an image can be performed on an image at time t + dt at time t, which allows the motion in the two images to be correlated. . This background information allows this method to synthesize an image at time t + dt from an image at time t and an affine transformation that can be an approximation of the net scene motion. Since the image feature can be removed from the space surrounding the target using the difference between the actual image at t + dt and the generated image at t + dt, this composite image generates new model information, It can be useful in removing background clutter from model space.

検索空間を浄化するためのツールとしてアフィン変換を使用することに加えて、ターゲットの座標移動を正規化するためにこの合成画像を使用することも可能であり、背景がどのように移動し得るかを追跡するためのベクトルと、ターゲットがどのように移動し得るかを追跡するためのベクトルとを有することによって、2つのベクトルの差を利用して、背景に対するターゲットの動きを記述するベクトルを生成することができる。このベクトルは、この方法が、ターゲットがどこにいるべきかを予測的にマッチングし、障害状態を予期することを可能にする(たとえば、動きの方向を見越すことは、近づきつつある障害に関する手掛かりを提供すると同様に、障害状態の場合、オブジェクトがどこに存在し得るかを追跡することができる)。オブジェクトが障害状態に入ったとき、この方法は、背景運動を推定することが依然として可能であり、モデルの前の動きの知識とともにその推定を使用して、モデルがどこに再現する場合があるか、またはフレームに再び入る場合があるかを推測することができる。   In addition to using the affine transformation as a tool to clean up the search space, it is also possible to use this composite image to normalize the target coordinate movement and how the background can move By using a vector to track the target and a vector to track how the target can move, the difference between the two vectors is used to generate a vector that describes the movement of the target relative to the background can do. This vector allows the method to predictively match where the target should be and anticipate a fault condition (e.g., anticipating the direction of motion provides clues about the fault that is approaching. Similarly, in the case of a fault condition, we can track where an object can exist). When an object enters a fault state, this method can still estimate the background motion and use that estimate along with knowledge of the previous motion of the model, where the model may be reproduced, Alternatively, it can be estimated whether the frame may be entered again.

背景推定は、オブジェクトの長期的追跡における主な要因であり得る。背景推定なしに、短期的追跡を実行することが可能であるが、ある時間期間後には、背景の良好な推定なしに、オブジェクトの歪みおよび危険に効果的に対処するのは困難な場合があることに留意されたい。   Background estimation can be a major factor in long-term tracking of objects. It is possible to perform short-term tracking without background estimation, but after a certain period of time, it can be difficult to effectively deal with object distortion and danger without good estimation of the background Please note that.

本開示の態様によれば、マッチング演算子としてハウスドルフ距離を使用することの利点のうちの1つは、ハウスドルフ距離は、マッチングの間、形状の変化に対して極めて耐性であり得ることであるが、マッチング演算子としてハウスドルフ距離を使用することは、追跡されているオブジェクトをより正確に定義することを必要とする場合がある。   According to aspects of the present disclosure, one of the advantages of using the Hausdorff distance as a matching operator is that the Hausdorff distance can be extremely resistant to shape changes during matching. Although using the Hausdorff distance as a matching operator may require more precise definition of the object being tracked.

一手法では、時間t+1画像から新しいモデルを捕える直線膨張(straight dilation)ベースの方法を使用することができる。(発生することが非常に多い)オブジェクトに近接する非オブジェクト特徴が存在し得る、いくつかの状況では、膨張方法はシーン全体をモデル内にゆっくりと組み込むことが可能であるので、この方法は効果的でない場合があることに留意されたい。したがって、モデル形状の変化に対して耐性があり得る、フレームごとにモデルを更新するが、あまり緩やか(relaxed)ではなく、そのため、非モデル画素のモデル内への組込みを採用することができる。1つの例示的な実装形態は、背景除去と、現在のモデルマッチング窓に前のモデルを追加して、安定した画素と思われるもの、ならびに、安定していない場合があるので、経時的にモデルから排除される可能性、またはモデル内に組み込まれる可能性のいずれかがある、それらの画素を取り巻く新しい画素の利用との組合せを使用することである。この手法は、画像内のクラッタからモデルを比較的清浄に保つ際に効果的であり得る。たとえば、この手法を用いると、トラックに近接する道路はもはや画素ごとにモデル内に引き込まれない。モデルは膨張しているように見える場合があるが、これはそれらのモデルがどのように構築されているかの履歴的な影響の結果である場合があるが、この方法は、場合によっては、次のフレーム内でマッチングするより多くのモデル画素を有し得るので、検索結果をより明確にする特徴も有し得ることに留意されたい。   In one approach, a straight dilation based method that captures a new model from the time t + 1 image can be used. In some situations, where there may be non-object features that are close to the object (which is very likely to occur), the dilation method can slowly incorporate the entire scene into the model, so this method is effective. Note that this may not be the case. Therefore, the model is updated every frame, which can be resistant to changes in model shape, but is not relaxed, so that the incorporation of non-model pixels into the model can be employed. One exemplary implementation adds background removal and the previous model to the current model matching window, what appears to be a stable pixel, as well as the model over time since it may not be stable Use a combination with the use of new pixels surrounding those pixels that may either be excluded from or incorporated into the model. This approach can be effective in keeping the model relatively clean from clutter in the image. For example, using this approach, roads close to the truck are no longer drawn into the model pixel by pixel. The models may appear to be inflated, but this may be the result of a historical effect of how those models are built, but this method can be Note that it may also have features that make the search results clearer because it may have more model pixels to match within the frame.

各フレームにおいて、実行されるべきかなりの量の計算が存在し得ることに留意されたい。いくつかの実装形態によれば、モバイルデバイスは、各ターゲットの平滑化/特徴抽出、ハウスドルフマッチング(たとえば、モデルごとに1つのマッチング)、ならびに、アフィン背景推定を実行するように構成され得る。これらの動作の各々は、個々に、非常に計算的に高価であり得る。モバイルデバイス上でリアルタイム性能を達成するために、設計は、可能な限り並行処理を使用するように構成され得る。   Note that there may be a significant amount of computation to be performed in each frame. According to some implementations, the mobile device may be configured to perform smoothing / feature extraction for each target, Hausdorff matching (eg, one matching per model), and affine background estimation. Each of these operations can be very computationally expensive individually. In order to achieve real-time performance on mobile devices, the design can be configured to use parallel processing whenever possible.

少なくとも、次段落〜次々段落(原文段落[0085]〜[0086])、図5、図6、図7、およびそれらの対応する説明は、少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するための手段と、シーンの複数のマップの複数のキーフレームを識別するための手段と、シーンのグローバルマップを生成するために複数のキーフレームをマージするための手段とを提供することに留意されたい。   At least the following paragraphs to the following paragraphs (source paragraphs [0085] to [0086]), FIG. 5, FIG. 6, FIG. 7, and their corresponding descriptions are a plurality of maps of a scene at a location from at least one mobile device Providing means for receiving, means for identifying a plurality of keyframes of a plurality of maps of the scene, and means for merging the plurality of keyframes to generate a global map of the scene Please note that.

本明細書において説明される方法論およびモバイルデバイスは、アプリケーションに応じて種々の手段によって実施することができる。たとえば、これらの方法論は、ハードウェア、ファームウェア、ソフトウェア、またはそれらの組合せで実施され得る。ハードウェアの実施態様の場合、処理ユニットは、本明細書で説明される機能を実行するように設計された、1つもしくは複数の特定用途向け集積回路(ASIC)、デジタルシグナルプロセッサ(DSP)、デジタルシグナルプロセシングデバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、他の電子ユニット、またはそれらの組合せ内で実現することができる。本明細書では、「制御論理回路」という用語は、ソフトウェア、ハードウェア、ファームウェア、またはそれらの組合せによって実装された論理回路を包含する。   The methodologies and mobile devices described herein can be implemented by various means depending on the application. For example, these methodologies can be implemented in hardware, firmware, software, or a combination thereof. For a hardware implementation, the processing unit is one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), designed to perform the functions described herein. Implementation within a digital signal processing device (DSPD), programmable logic device (PLD), field programmable gate array (FPGA), processor, controller, microcontroller, microprocessor, electronic device, other electronic unit, or a combination thereof Can do. As used herein, the term “control logic circuit” encompasses a logic circuit implemented by software, hardware, firmware, or a combination thereof.

ファームウェアおよび/またはソフトウェアの実施態様の場合、それらの方法論は、本明細書において説明される機能を実行するモジュール(たとえば、手順、関数など)によって実施することができる。命令を有形に具現化するいずれの機械可読媒体も、本明細書で説明される方法論の実施において使用され得る。たとえば、ソフトウェアコードは、メモリに記憶され、処理ユニットによって実行され得る。メモリは、処理ユニット内に実装され、または処理ユニットの外部に実装される場合がある。本明細書において用いられるときに、「メモリ」という用語は、長期、短期、揮発性、不揮発性、または他の記憶デバイスのいずれかのタイプを指しており、任意の特定のタイプのメモリもしくはメモリの数には限定されず、あるいはメモリが格納される媒体のタイプに関して限定されない。   For firmware and / or software implementations, the methodologies may be performed by modules (eg, procedures, functions, etc.) that perform the functions described herein. Any machine-readable medium that tangibly embodies the instructions may be used in the implementation of the methodologies described herein. For example, the software code can be stored in memory and executed by a processing unit. The memory may be implemented within the processing unit or external to the processing unit. As used herein, the term “memory” refers to any type of long-term, short-term, volatile, non-volatile, or other storage device, and any particular type of memory or memory There is no limit to the number of media or the type of media on which the memory is stored.

ファームウェアおよび/またはソフトウェアに実装される場合、機能は、コンピュータ可読媒体に1つまたは複数の命令またはコードとして記憶され得る。例は、データ構造によって符号化されたコンピュータ可読媒体およびコンピュータプログラムによって符号化されたコンピュータ可読媒体を含む。コンピュータ可読媒体は製造物品の形態をとり得る。コンピュータ可読媒体は、物理的なコンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスされ得る任意の使用可能な媒体である場合がある。限定ではなく、例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、または所望のプログラムコードを命令もしくはデータ構造の形で記憶するために使用され、コンピュータによってアクセスされ得る任意の他の媒体を含むことができ、本明細書で使用するディスク(diskおよびdisc)には、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、およびブルーレイディスク(disc)が含まれ、ディスク(disk)は通常、データを磁気的に再生するが、ディスク(disc)はデータをレーザによって光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれるべきである。   If implemented in firmware and / or software, the functions may be stored as one or more instructions or code on a computer-readable medium. Examples include computer readable media encoded with a data structure and computer readable media encoded with a computer program. The computer readable medium may take the form of an article of manufacture. Computer-readable media includes physical computer storage media. A storage media may be any available media that can be accessed by a computer. By way of example, and not limitation, such computer-readable media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage device, or instructions or data structures with desired program code. Any other media that can be used to store and be accessed by a computer can be included, and the discs used herein include a compact disc (CD), Includes laser discs, optical discs, digital versatile discs (DVDs), floppy disks, and Blu-ray discs, which are usually data Is reproduced magnetically, but the disc optically reproduces the data with a laser. Combinations of the above should also be included within the scope of computer-readable media.

コンピュータ可読媒体に記憶するのに加えて、命令および/またはデータは、通信装置に含まれる伝送媒体上の信号として与えられ得る。たとえば、通信装置は、命令およびデータを示す信号を有するトランシーバを含み得る。命令およびデータは、少なくとも1つのプロセッサに特許請求の範囲において概説する機能を実施させるように構成される。すなわち、通信装置は、開示する機能を実行するための情報を示す信号を有する伝送媒体を含む。第1の時間において、通信装置中に含まれる伝送媒体は、開示する機能を実行するための情報の第1の部分を含んでよく、一方、第2の時間において、通信装置中に含まれる伝送媒体は、開示する機能を実行するための情報の第2の部分を含んでよい。   In addition to being stored on a computer readable medium, the instructions and / or data may be provided as a signal on a transmission medium included in the communication device. For example, the communication device may include a transceiver having signals indicative of instructions and data. The instructions and data are configured to cause at least one processor to perform the functions outlined in the claims. In other words, the communication device includes a transmission medium having a signal indicating information for executing the disclosed function. The transmission medium included in the communication device at the first time may include a first portion of information for performing the disclosed functions, while the transmission included in the communication device at the second time. The medium may include a second portion of information for performing the disclosed function.

本開示は、ワイヤレスワイドエリアネットワーク(WWAN)、ワイヤレスローカルエリアネットワーク(WLAN)、ワイヤレスパーソナルエリアネットワーク(WPAN)などの、種々のワイヤレス通信ネットワークとともに実現することができる。「ネットワーク」および「システム」という用語は、しばしば互換的に使用される。「位置」および「場所」という用語は、しばしば互換的に使用される。WWANは、符号分割多元接続(CDMA)ネットワーク、時分割多元接続(TDMA)ネットワーク、周波数分割多元接続(FDMA)ネットワーク、直交周波数分割多元接続(OFDMA)ネットワーク、シングルキャリア周波数分割多元接続(SC-FDMA)ネットワーク、ロングタームエボリューション(LTE:Long Term Evolution)ネットワーク、WiMAX(IEEE802.16)ネットワークなどとすることができる。CDMAネットワークは、cdma2000、広帯域CDMA(W-CDMA)などの1つまたは複数の無線アクセス技術(RAT)を実装することができる。cdma2000は、IS-95規格、IS-2000規格、およびIS-856規格を含む。TDMAネットワークは、Global System for Mobile Communications(GSM(登録商標))、Digital Advanced Mobile Phone System(D-AMPS)、または何らかの他のRATを実装することができる。GSM(登録商標)およびW-CDMAは、「第3世代パートナーシッププロジェクト」(3GPP)という名称の組織からの文書に記載されている。cdma2000は、「第3世代パートナーシッププロジェクト2」(3GPP2)という名称の組織からの文書に記述される。3GPPおよび3GPP2の文書は、公的に入手可能である。WLANは、IEEE802.11xネットワークであり得、またWPANはBluetooth(登録商標)ネットワーク、IEEE802.15x、または何らかの他のタイプのネットワークであり得る。また、本技法は、WWAN、WLAN、および/またはWPANの任意の組合せとともに実施することができる。   The present disclosure may be implemented with various wireless communication networks such as a wireless wide area network (WWAN), a wireless local area network (WLAN), a wireless personal area network (WPAN), and so on. The terms “network” and “system” are often used interchangeably. The terms “location” and “location” are often used interchangeably. WWAN includes code division multiple access (CDMA) networks, time division multiple access (TDMA) networks, frequency division multiple access (FDMA) networks, orthogonal frequency division multiple access (OFDMA) networks, single carrier frequency division multiple access (SC-FDMA). ) Network, Long Term Evolution (LTE) network, WiMAX (IEEE802.16) network, etc. A CDMA network may implement one or more radio access technologies (RAT) such as cdma2000, wideband CDMA (W-CDMA), and so on. cdma2000 includes IS-95, IS-2000, and IS-856 standards. A TDMA network may implement Global System for Mobile Communications (GSM), Digital Advanced Mobile Phone System (D-AMPS), or some other RAT. GSM® and W-CDMA are described in documents from an organization named “3rd Generation Partnership Project” (3GPP). cdma2000 is described in documents from an organization named “3rd Generation Partnership Project 2” (3GPP2). 3GPP and 3GPP2 documents are publicly available. The WLAN may be an IEEE 802.11x network and the WPAN may be a Bluetooth network, IEEE 802.11x, or some other type of network. The techniques can also be implemented with any combination of WWAN, WLAN, and / or WPAN.

移動局は、セルラー通信デバイスもしくは他のワイヤレス通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、個人情報マネージャ(PIM)、携帯情報端末(PDA)、ラップトップ、またはワイヤレス通信および/もしくはナビゲーション信号を受信することができる他の適切なモバイルデバイスなどのデバイスを指している。「移動局」という用語はまた、短距離ワイヤレス接続、赤外線接続、ワイヤライン接続、または他の接続などによって、パーソナルナビゲーションデバイス(PND)と通信するデバイスを、衛星信号受信、支援データ受信、および/または位置関連処理がそのデバイスにおいて行われるか、またはPNDにおいて行われるかにかかわらず含むことが意図される。また、「移動局」は、インターネット、Wi-Fi、または他のネットワークなどを介してサーバとの通信が可能である、ワイヤレス通信デバイス、コンピュータ、ラップトップなどを含むすべてのデバイスを、衛星信号受信、支援データ受信、および/または位置関連処理がそのデバイスにおいて行われるか、サーバにおいて行われるか、またはネットワークに関連する別のデバイスにおいて行われるかにかかわらず含むことが意図される。上記の任意の動作可能な組合せも「移動局」と見なされる。   A mobile station can be a cellular or other wireless communication device, a personal communication system (PCS) device, a personal navigation device (PND), a personal information manager (PIM), a personal digital assistant (PDA), a laptop, or a wireless communication and Refers to devices such as other suitable mobile devices capable of receiving navigation signals. The term “mobile station” also refers to a device that communicates with a personal navigation device (PND), such as a short-range wireless connection, an infrared connection, a wireline connection, or other connection, to receive satellite signals, receive assistance data, and / or Or is intended to include whether location related processing is performed at the device or at the PND. A “mobile station” also receives satellite signals from all devices, including wireless communication devices, computers, laptops, etc., that can communicate with the server via the Internet, Wi-Fi, or other networks. It is intended to include whether assistance data reception and / or location related processing is performed at the device, at the server, or at another device associated with the network. Any operable combination of the above is also considered a “mobile station”.

何かが「最適化される」、「必要とされる」という指摘または他の指摘は、最適化されるシステム、または「必要とされる」要素が存在するシステムのみに本開示が適用されること(または他の指摘に起因する他の制限)を示すものではない。これらの表現は、特定の説明された実装形態のみを指す。当然、多くの実装形態が可能である。本技法は、開発中であるか今後開発されるプロトコルを含む、本明細書で論じるプロトコル以外のプロトコルで使用できる。   Any indication that something is "optimized", "required" or other indications apply this disclosure only to systems that are optimized or have "required" elements (Or other limitations due to other indications). These representations refer only to the particular described implementation. Of course, many implementations are possible. The technique can be used with protocols other than those discussed herein, including protocols that are under development or will be developed in the future.

同じ基本的な根底をなす機構および方法を依然として使用しながら、開示される実施形態の多くの可能な変更および組合せを使用できることを、当業者は認識されよう。上記の説明は、説明の目的で、特定の実施形態に関して書かれている。しかしながら、上で示した論述は網羅的なものでも、あるいは本開示を開示された厳密な形態に限定しようとするものでもない。多くの修正および変形が、上記の教示に鑑みて可能である。本開示の原理およびその実際の適用について説明するために、また、企図される特定の用途に合わせて様々な修正を加えて本開示および様々な実施形態を他の当業者が最善の形で利用できるように、実施形態が選択され、説明されている。   Those skilled in the art will recognize that many possible variations and combinations of the disclosed embodiments can be used while still using the same underlying underlying mechanisms and methods. The above description has been written with reference to specific embodiments for purposes of explanation. However, the above discussion is not intended to be exhaustive or to limit the present disclosure to the precise form disclosed. Many modifications and variations are possible in light of the above teaching. The present disclosure and various embodiments are best utilized by other persons skilled in the art to explain the principles of the present disclosure and its practical application, and with various modifications to suit the particular application contemplated. Embodiments have been selected and described as possible.

102 場所
106 トランシーバ
108 カメラ
110 ユーザインターフェース
112 ディスプレイ
114 キーパッド
116 センサ
117 マイクロフォン
118 スピーカ
120 制御ユニット
122 プロセッサ
124 メモリ/記憶装置
126 ソフトウェア
128 ハードウェア
130 ファームウェア
132 キーフレーム処理モジュール
134 マップ生成モジュール
102 places
106 transceiver
108 Camera
110 User interface
112 display
114 keypad
116 sensors
117 Microphone
118 Speaker
120 Control unit
122 processor
124 Memory / Storage device
126 software
128 hardware
130 Firmware
132 Keyframe processing module
134 Map generation module

Claims (36)

コンピュータビジョンベースの追跡のために複数のマップをマージする方法であって、
少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するステップと、
前記シーンの前記複数のマップの複数のキーフレームを識別するステップと、
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするステップと
を備える、方法。
A method of merging multiple maps for computer vision based tracking,
Receiving a plurality of maps of a scene at a location from at least one mobile device;
Identifying a plurality of keyframes of the plurality of maps of the scene;
Merging the plurality of key frames to generate a global map of the scene.
ある場所におけるシーンの複数のマップを受信するステップは、
複数のモバイルデバイスから前記シーンの前記複数のマップを受信するステップ
を備える、請求項1に記載の方法。
The step of receiving multiple maps of a scene at a location is
The method of claim 1, comprising receiving the plurality of maps of the scene from a plurality of mobile devices.
複数のモバイルデバイスからの前記シーンの前記複数のマップからの前記複数のキーフレームの冗長性を評価するステップと、
冗長なキーフレームを削除するステップと
をさらに備える、請求項2に記載の方法。
Evaluating the redundancy of the plurality of key frames from the plurality of maps of the scene from a plurality of mobile devices;
3. The method of claim 2, further comprising the step of deleting redundant key frames.
複数のモバイルデバイスからの前記シーンの前記複数のマップを使用して自己位置推定及び地図構築同時実行(SLAM)マップを生成するステップと、
前記複数のモバイルデバイスの間で前記SLAMマップを共有するステップと
をさらに備える、請求項2に記載の方法。
Generating a self location and simultaneous map construction (SLAM) map using the plurality of maps of the scene from a plurality of mobile devices;
3. The method of claim 2, further comprising sharing the SLAM map between the plurality of mobile devices.
前記シーンの前記複数のマップの前記複数のキーフレームを識別するステップは、
複数の角度から前記シーンの複数の視点を表す前記複数のキーフレームを識別するステップと、
複数のスケールで前記シーンの複数の視点を表す前記複数のキーフレームを識別するステップと
のうちの少なくとも1つを備え、
前記複数のキーフレームは、前記複数のマップの共通の特徴、位置座標、および外観を含む、
請求項1に記載の方法。
Identifying the plurality of keyframes of the plurality of maps of the scene comprises:
Identifying the plurality of key frames representing a plurality of viewpoints of the scene from a plurality of angles;
Identifying at least one of the plurality of key frames representing a plurality of viewpoints of the scene at a plurality of scales,
The plurality of key frames include common features, position coordinates, and appearance of the plurality of maps.
The method of claim 1.
複数のスケールは、
前記少なくとも1つのモバイルデバイスと前記シーンとの間の複数の距離と、
前記少なくとも1つのモバイルデバイスからの前記シーンの複数のアスペクト比と
のうちの少なくとも1つを備える、
請求項5に記載の方法。
Multiple scales
A plurality of distances between the at least one mobile device and the scene;
Comprising at least one of a plurality of aspect ratios of the scene from the at least one mobile device;
6. The method according to claim 5.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするステップは、
前記複数のキーフレームの各キーフレームに関して、
前記キーフレームの角度ダイバーシティおよび前記キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するステップと
を備える、請求項1に記載の方法。
Merging the plurality of keyframes to generate a global map of the scene comprises
For each key frame of the plurality of key frames,
Determining a contribution score based at least in part on the angular diversity of the key frame and the scale diversity of the key frame;
2. The method of claim 1, comprising: deleting the key frame in response to the contribution score less than a predetermined threshold.
前記キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップは、
第1の重み因子を前記キーフレームの前記角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算するステップと、
第2の重み因子を前記キーフレームの前記スケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算するステップと、
前記寄与スコアを生成するために前記角度ダイバーシティスコアリング基準値と前記スケールダイバーシティスコアリング基準値とを組み合わせるステップと
を備える、請求項7に記載の方法。
Determining a contribution score based at least in part on the angular diversity and scale diversity of the keyframes;
Calculating an angle diversity scoring reference value by applying a first weighting factor to the angle diversity of the keyframe;
Calculating a scale diversity scoring reference value by applying a second weighting factor to the scale diversity of the keyframe;
8. The method of claim 7, comprising combining the angle diversity scoring reference value and the scale diversity scoring reference value to generate the contribution score.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするステップは、
前記複数のキーフレームの各キーフレームに関して、
前記キーフレームの角度ダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するステップと
を備える、請求項1に記載の方法。
Merging the plurality of keyframes to generate a global map of the scene comprises
For each key frame of the plurality of key frames,
Determining a contribution score based at least in part on the angular diversity of the key frame;
2. The method of claim 1, comprising: deleting the key frame in response to the contribution score less than a predetermined threshold.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするステップは、
前記複数のキーフレームの各キーフレームに関して、
前記キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するステップと
を備える、請求項1に記載の方法。
Merging the plurality of keyframes to generate a global map of the scene comprises
For each key frame of the plurality of key frames,
Determining a contribution score based at least in part on scale diversity of the key frame;
2. The method of claim 1, comprising: deleting the key frame in response to the contribution score less than a predetermined threshold.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするステップは、
角度ヒストグラムにおいて前記複数のキーフレームを計数するステップであって、前記角度ヒストグラムは、前記シーンの異なる視点角度を表す複数のビンを含み、前記複数のビンの各ビンは、前記シーンの異なる視点スケールを表す複数の区分を含む、ステップと、
前記角度ヒストグラムにおける前記複数のキーフレームの各キーフレームに関して、
前記キーフレームの角度ダイバーシティおよび前記キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップと、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するステップと
を備える、請求項1に記載の方法。
Merging the plurality of keyframes to generate a global map of the scene comprises
Counting the plurality of key frames in an angle histogram, wherein the angle histogram includes a plurality of bins representing different viewpoint angles of the scene, each bin of the plurality of bins having a different viewpoint scale of the scene. Including a plurality of sections representing
For each keyframe of the plurality of keyframes in the angle histogram,
Determining a contribution score based at least in part on the angular diversity of the key frame and the scale diversity of the key frame;
2. The method of claim 1, comprising: deleting the key frame in response to the contribution score less than a predetermined threshold.
前記キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するステップは、
前記キーフレームが含まれるビン内のキーフレームの数に少なくとも一部基づいている第1の重み因子を前記キーフレームの前記角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算するステップと、
前記キーフレームが含まれる区分内のキーフレームの数に少なくとも一部基づいている第2の重み因子を前記キーフレームの前記スケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算するステップと、
前記寄与スコアを生成するために前記角度ダイバーシティスコアリング基準値と前記スケールダイバーシティスコアリング基準値とを組み合わせるステップと
を備える、請求項11に記載の方法。
Determining a contribution score based at least in part on the angular diversity and scale diversity of the keyframes;
Calculating an angle diversity scoring reference value by applying to the angle diversity of the key frame a first weighting factor based at least in part on the number of key frames in the bin in which the key frame is included;
Calculating a scale diversity scoring reference value by applying a second weighting factor based at least in part on the number of keyframes in the partition in which the keyframe is included to the scale diversity of the keyframe;
12. The method of claim 11, comprising combining the angle diversity scoring reference value and the scale diversity scoring reference value to generate the contribution score.
前記場所において前記少なくとも1つのモバイルデバイスの位置を追跡するステップ
をさらに備える、請求項1に記載の方法。
The method of claim 1, further comprising tracking the location of the at least one mobile device at the location.
少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するように構成された論理と、
前記シーンの前記複数のマップの複数のキーフレームを識別するように構成された論理と、
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするように構成された論理と
を備える、装置。
Logic configured to receive multiple maps of a scene at a location from at least one mobile device;
Logic configured to identify a plurality of keyframes of the plurality of maps of the scene;
And logic configured to merge the plurality of key frames to generate a global map of the scene.
ある場所におけるシーンの複数のマップを受信するように構成された論理は、
複数のモバイルデバイスから前記シーンの前記複数のマップを受信するように構成された論理
を備える、請求項14に記載の装置。
Logic configured to receive multiple maps of a scene at a location is
The apparatus of claim 14, comprising logic configured to receive the plurality of maps of the scene from a plurality of mobile devices.
複数のモバイルデバイスからの前記シーンの前記複数のマップからの前記複数のキーフレームの冗長性を評価するように構成された論理と、
冗長なキーフレームを削除するように構成された論理と
をさらに備える、請求項15に記載の装置。
Logic configured to evaluate redundancy of the plurality of key frames from the plurality of maps of the scene from a plurality of mobile devices;
16. The apparatus of claim 15, further comprising logic configured to delete redundant key frames.
複数のモバイルデバイスからの前記シーンの前記複数のマップを使用して自己位置推定及び地図構築同時実行(SLAM)マップを生成するように構成された論理と、
前記複数のモバイルデバイスの間で前記SLAMマップを共有するように構成された論理と
をさらに備える、請求項15に記載の装置。
Logic configured to generate a self-localization and simultaneous map construction (SLAM) map using the plurality of maps of the scene from a plurality of mobile devices;
16. The apparatus of claim 15, further comprising logic configured to share the SLAM map between the plurality of mobile devices.
前記シーンの前記複数のマップの前記複数のキーフレームを識別するように構成された論理は、
複数の角度から前記シーンの複数の視点を表す前記複数のキーフレームを識別するように構成された論理と、
複数のスケールで前記シーンの複数の視点を表す前記複数のキーフレームを識別するように構成された論理と
のうちの少なくとも1つを備え、
前記複数のキーフレームは、前記複数のマップの共通の特徴、位置座標、および外観を含む、
請求項14に記載の装置。
Logic configured to identify the plurality of key frames of the plurality of maps of the scene comprises:
Logic configured to identify the plurality of key frames representing a plurality of viewpoints of the scene from a plurality of angles;
And at least one of logic configured to identify the plurality of key frames representing a plurality of viewpoints of the scene at a plurality of scales,
The plurality of key frames include common features, position coordinates, and appearance of the plurality of maps.
15. An apparatus according to claim 14.
複数のスケールは、
前記少なくとも1つのモバイルデバイスと前記シーンとの間の複数の距離と、
前記少なくとも1つのモバイルデバイスからの前記シーンの複数のアスペクト比と
のうちの少なくとも1つを備える、
請求項18に記載の装置。
Multiple scales
A plurality of distances between the at least one mobile device and the scene;
Comprising at least one of a plurality of aspect ratios of the scene from the at least one mobile device;
The apparatus according to claim 18.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするように構成された論理は、
前記複数のキーフレームの各キーフレームに関して、
前記キーフレームの角度ダイバーシティおよび前記キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するように構成された論理と、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するように構成された論理と
を備える、請求項14に記載の装置。
Logic configured to merge the plurality of keyframes to generate a global map of the scene is:
For each key frame of the plurality of key frames,
Logic configured to determine a contribution score based at least in part on the angular diversity of the keyframe and the scale diversity of the keyframe;
15. The apparatus of claim 14, comprising logic configured to delete the key frame in response to the contribution score below a predetermined threshold.
前記キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するように構成された論理は、
第1の重み因子を前記キーフレームの前記角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算するように構成された論理と、
第2の重み因子を前記キーフレームの前記スケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算するように構成された論理と、
前記寄与スコアを生成するために前記角度ダイバーシティスコアリング基準値と前記スケールダイバーシティスコアリング基準値とを組み合わせるように構成された論理と
を備える、請求項20に記載の装置。
Logic configured to determine a contribution score based at least in part on the angular diversity and scale diversity of the keyframe is:
Logic configured to calculate an angle diversity scoring reference value by applying a first weighting factor to the angle diversity of the keyframe;
Logic configured to calculate a scale diversity scoring criterion by applying a second weighting factor to the scale diversity of the keyframe;
21. The apparatus of claim 20, comprising logic configured to combine the angle diversity scoring reference value and the scale diversity scoring reference value to generate the contribution score.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするように構成された論理は、
前記複数のキーフレームの各キーフレームに関して、
前記キーフレームの角度ダイバーシティに少なくとも一部基づいて寄与スコアを決定するように構成された論理と、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するように構成された論理と
を備える、請求項14に記載の装置。
Logic configured to merge the plurality of keyframes to generate a global map of the scene is:
For each key frame of the plurality of key frames,
Logic configured to determine a contribution score based at least in part on the angular diversity of the keyframe;
15. The apparatus of claim 14, comprising logic configured to delete the key frame in response to the contribution score below a predetermined threshold.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするように構成された論理は、
前記複数のキーフレームの各キーフレームに関して、
前記キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するように構成された論理と、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するように構成された論理と
を備える、請求項14に記載の装置。
Logic configured to merge the plurality of keyframes to generate a global map of the scene is:
For each key frame of the plurality of key frames,
Logic configured to determine a contribution score based at least in part on scale diversity of the key frame;
15. The apparatus of claim 14, comprising logic configured to delete the key frame in response to the contribution score below a predetermined threshold.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするように構成された論理は、
角度ヒストグラムにおいて前記複数のキーフレームを計数するように構成された論理であって、前記角度ヒストグラムは、前記シーンの異なる視点角度を表す複数のビンを含み、前記複数のビンの各ビンは、前記シーンの異なる視点スケールを表す複数の区分を含む、論理と、
前記角度ヒストグラムにおける前記複数のキーフレームの各キーフレームに関して、
前記キーフレームの角度ダイバーシティおよび前記キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するように構成された論理と、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するように構成された論理と
を備える、請求項14に記載の装置。
Logic configured to merge the plurality of keyframes to generate a global map of the scene is:
Logic configured to count the plurality of key frames in an angle histogram, the angle histogram including a plurality of bins representing different viewpoint angles of the scene, wherein each bin of the plurality of bins is the Logic, including multiple sections representing different perspective scales of the scene;
For each keyframe of the plurality of keyframes in the angle histogram,
Logic configured to determine a contribution score based at least in part on the angular diversity of the keyframe and the scale diversity of the keyframe;
15. The apparatus of claim 14, comprising logic configured to delete the key frame in response to the contribution score below a predetermined threshold.
前記キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するように構成された論理は、
前記キーフレームが含まれるビン内のキーフレームの数に少なくとも一部基づいている第1の重み因子を前記キーフレームの前記角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算するように構成された論理と、
前記キーフレームが含まれる区分内のキーフレームの数に少なくとも一部基づいている第2の重み因子を前記キーフレームの前記スケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算するように構成された論理と、
前記寄与スコアを生成するために前記角度ダイバーシティスコアリング基準値と前記スケールダイバーシティスコアリング基準値とを組み合わせるように構成された論理と
を備える、請求項24に記載の装置。
Logic configured to determine a contribution score based at least in part on the angular diversity and scale diversity of the keyframe is:
Configured to calculate an angle diversity scoring reference value by applying to the angle diversity of the key frame a first weighting factor based at least in part on the number of key frames in the bin in which the key frame is included. Logic
Configured to calculate a scale diversity scoring reference value by applying a second weighting factor based at least in part on the number of key frames in a partition including the key frame to the scale diversity of the key frame Logic
25. The apparatus of claim 24, comprising logic configured to combine the angular diversity scoring reference value and the scale diversity scoring reference value to generate the contribution score.
前記場所において前記少なくとも1つのモバイルデバイスの位置を追跡するように構成された論理
をさらに備える、請求項14に記載の装置。
The apparatus of claim 14, further comprising logic configured to track a position of the at least one mobile device at the location.
1つまたは複数のコンピュータシステムによって実行される命令を記憶する非一時的媒体にあるコンピュータプログラムであって、前記命令は、
少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するための命令と、
前記シーンの前記複数のマップの複数のキーフレームを識別するための命令と、
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするための命令と
を備える、コンピュータプログラム。
A computer program residing in a non-transitory medium storing instructions to be executed by one or more computer systems, the instructions comprising:
Instructions for receiving multiple maps of a scene at a location from at least one mobile device;
Instructions for identifying a plurality of keyframes of the plurality of maps of the scene;
A computer program comprising: instructions for merging the plurality of key frames to generate a global map of the scene.
ある場所におけるシーンの複数のマップを受信するための命令は、
複数のモバイルデバイスから前記シーンの前記複数のマップを受信するための命令
を備える、請求項27に記載のコンピュータプログラム。
The instruction to receive multiple maps of a scene at a location is
28. The computer program of claim 27, comprising instructions for receiving the plurality of maps of the scene from a plurality of mobile devices.
複数のモバイルデバイスからの前記シーンの前記複数のマップからの前記複数のキーフレームの冗長性を評価するための命令と、
冗長なキーフレームを削除するための命令と
をさらに備える、請求項28に記載のコンピュータプログラム。
Instructions for evaluating the redundancy of the plurality of key frames from the plurality of maps of the scene from a plurality of mobile devices;
30. The computer program of claim 28, further comprising instructions for deleting redundant key frames.
複数のモバイルデバイスからの前記シーンの前記複数のマップを使用して自己位置推定及び地図構築同時実行(SLAM)マップを生成するための命令と、
前記複数のモバイルデバイスの間で前記SLAMマップを共有するための命令と
をさらに備える、請求項28に記載のコンピュータプログラム。
Instructions for generating a self location and simultaneous map construction (SLAM) map using the plurality of maps of the scene from a plurality of mobile devices;
30. The computer program of claim 28, further comprising instructions for sharing the SLAM map among the plurality of mobile devices.
前記シーンの前記複数のマップの前記複数のキーフレームを識別するための命令は、
複数の角度から前記シーンの複数の視点を表す前記複数のキーフレームを識別するための命令と、
複数のスケールで前記シーンの複数の視点を表す前記複数のキーフレームを識別するための命令と
のうちの少なくとも1つを備え、
前記複数のキーフレームは、前記複数のマップの共通の特徴、位置座標、および外観を含む、
請求項27に記載のコンピュータプログラム。
Instructions for identifying the plurality of key frames of the plurality of maps of the scene are:
Instructions for identifying the plurality of key frames representing a plurality of viewpoints of the scene from a plurality of angles;
And at least one of instructions for identifying the plurality of key frames representing a plurality of viewpoints of the scene at a plurality of scales,
The plurality of key frames include common features, position coordinates, and appearance of the plurality of maps.
28. The computer program according to claim 27.
複数のスケールは、
前記少なくとも1つのモバイルデバイスと前記シーンとの間の複数の距離と、
前記少なくとも1つのモバイルデバイスからの前記シーンの複数のアスペクト比と
のうちの少なくとも1つを備える、
請求項27に記載のコンピュータプログラム。
Multiple scales
A plurality of distances between the at least one mobile device and the scene;
Comprising at least one of a plurality of aspect ratios of the scene from the at least one mobile device;
28. The computer program according to claim 27.
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするための命令は、
前記複数のキーフレームの各キーフレームに関して、
前記キーフレームの角度ダイバーシティおよび前記キーフレームのスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するための命令と、
所定のしきい値未満の前記寄与スコアに応じて前記キーフレームを削除するための命令と
を備える、請求項27に記載のコンピュータプログラム。
Instructions for merging the plurality of keyframes to generate a global map of the scene are:
For each key frame of the plurality of key frames,
Instructions for determining a contribution score based at least in part on the angular diversity of the key frame and the scale diversity of the key frame;
28. A computer program according to claim 27, comprising: an instruction for deleting the key frame in response to the contribution score less than a predetermined threshold.
前記キーフレームの角度ダイバーシティおよびスケールダイバーシティに少なくとも一部基づいて寄与スコアを決定するための命令は、
第1の重み因子を前記キーフレームの前記角度ダイバーシティに適用することによって角度ダイバーシティスコアリング基準値を計算するための命令と、
第2の重み因子を前記キーフレームの前記スケールダイバーシティに適用することによってスケールダイバーシティスコアリング基準値を計算するための命令と、
前記寄与スコアを生成するために前記角度ダイバーシティスコアリング基準値と前記スケールダイバーシティスコアリング基準値とを組み合わせるための命令と
を備える、請求項33に記載のコンピュータプログラム。
Instructions for determining a contribution score based at least in part on the angular diversity and scale diversity of the key frame are:
Instructions for calculating an angle diversity scoring reference value by applying a first weighting factor to the angle diversity of the key frame;
Instructions for calculating a scale diversity scoring reference value by applying a second weighting factor to the scale diversity of the keyframe;
34. The computer program of claim 33, comprising instructions for combining the angle diversity scoring reference value and the scale diversity scoring reference value to generate the contribution score.
前記場所において前記少なくとも1つのモバイルデバイスの位置を追跡するための命令
をさらに備える、請求項27に記載のコンピュータプログラム。
28. The computer program of claim 27, further comprising instructions for tracking the location of the at least one mobile device at the location.
少なくとも1つのモバイルデバイスからある場所におけるシーンの複数のマップを受信するための手段と、
前記シーンの前記複数のマップの複数のキーフレームを識別するための手段と、
前記シーンのグローバルマップを生成するために前記複数のキーフレームをマージするための手段と
を備える、システム。
Means for receiving a plurality of maps of a scene at a location from at least one mobile device;
Means for identifying a plurality of keyframes of the plurality of maps of the scene;
Means for merging the plurality of key frames to generate a global map of the scene.
JP2015539627A 2012-10-31 2013-10-08 System and method for merging multiple maps for computer vision based tracking Expired - Fee Related JP6339579B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261720804P 2012-10-31 2012-10-31
US61/720,804 2012-10-31
US13/830,664 2013-03-14
US13/830,664 US9177404B2 (en) 2012-10-31 2013-03-14 Systems and methods of merging multiple maps for computer vision based tracking
PCT/US2013/063876 WO2014070390A1 (en) 2012-10-31 2013-10-08 Systems and methods of merging multiple maps for computer vision based tracking

Publications (3)

Publication Number Publication Date
JP2016500885A true JP2016500885A (en) 2016-01-14
JP2016500885A5 JP2016500885A5 (en) 2016-11-04
JP6339579B2 JP6339579B2 (en) 2018-06-06

Family

ID=50547228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015539627A Expired - Fee Related JP6339579B2 (en) 2012-10-31 2013-10-08 System and method for merging multiple maps for computer vision based tracking

Country Status (6)

Country Link
US (1) US9177404B2 (en)
EP (1) EP2915138B1 (en)
JP (1) JP6339579B2 (en)
KR (1) KR20150079730A (en)
CN (1) CN104756155B (en)
WO (1) WO2014070390A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021528781A (en) * 2018-06-26 2021-10-21 株式会社ソニー・インタラクティブエンタテインメント Multipoint SLAM capture
WO2022049615A1 (en) * 2020-09-01 2022-03-10 株式会社ネイン Information processing system, information processing method, and computer program

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8422777B2 (en) * 2008-10-14 2013-04-16 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-D pose of the target
US9367811B2 (en) * 2013-03-15 2016-06-14 Qualcomm Incorporated Context aware localization, mapping, and tracking
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
KR101574876B1 (en) * 2014-02-13 2015-12-04 영남대학교 산학협력단 Distance measuring method using vision sensor database
US9478029B2 (en) * 2014-10-23 2016-10-25 Qualcomm Incorporated Selection strategy for exchanging map information in collaborative multi-user SLAM systems
EP3234626A4 (en) * 2014-12-18 2018-08-22 Innerspace Technology Inc. Method and system for sensing interior spaces to auto-generate a navigational map
US10185775B2 (en) * 2014-12-19 2019-01-22 Qualcomm Technologies, Inc. Scalable 3D mapping system
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
JP7136558B2 (en) 2015-03-05 2022-09-13 マジック リープ, インコーポレイテッド Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
US9811734B2 (en) * 2015-05-11 2017-11-07 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
US9940542B2 (en) * 2015-08-11 2018-04-10 Google Llc Managing feature data for environment mapping on an electronic device
CN108604383A (en) 2015-12-04 2018-09-28 奇跃公司 Reposition system and method
JP6842618B2 (en) * 2015-12-14 2021-03-17 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Creating a 3D map
CN105913459B (en) * 2016-05-10 2019-07-12 中国科学院自动化研究所 Moving target detecting method based on high-resolution continuous shooting image
US10890600B2 (en) 2016-05-18 2021-01-12 Google Llc Real-time visual-inertial motion tracking fault detection
US10802147B2 (en) 2016-05-18 2020-10-13 Google Llc System and method for concurrent odometry and mapping
US11017610B2 (en) * 2016-05-18 2021-05-25 Google Llc System and method for fault detection and recovery for concurrent odometry and mapping
US10217231B2 (en) * 2016-05-31 2019-02-26 Microsoft Technology Licensing, Llc Systems and methods for utilizing anchor graphs in mixed reality environments
WO2018026737A1 (en) 2016-08-02 2018-02-08 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A3 (en) 2016-12-30 2024-05-29 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10812936B2 (en) * 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
US10534964B2 (en) * 2017-01-30 2020-01-14 Blackberry Limited Persistent feature descriptors for video
US10217232B2 (en) 2017-02-08 2019-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for locally aligning map data
CN111368126B (en) * 2017-02-13 2022-06-07 哈尔滨理工大学 Image retrieval-oriented generation method
IL290142B2 (en) 2017-03-17 2023-10-01 Magic Leap Inc Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
WO2018170482A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with color virtual content warping and method of generating virtual content using same
CN110431599B (en) 2017-03-17 2022-04-12 奇跃公司 Mixed reality system with virtual content warping and method for generating virtual content using the same
US10990829B2 (en) * 2017-04-28 2021-04-27 Micro Focus Llc Stitching maps generated using simultaneous localization and mapping
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
EP4390219A2 (en) 2017-12-10 2024-06-26 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
US11187923B2 (en) 2017-12-20 2021-11-30 Magic Leap, Inc. Insert for augmented reality viewing device
CN110099237B (en) * 2018-01-31 2021-08-17 腾讯科技(深圳)有限公司 Image processing method, electronic device, and computer-readable storage medium
US10755676B2 (en) 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11204491B2 (en) 2018-05-30 2021-12-21 Magic Leap, Inc. Compact variable focus configurations
EP3803450A4 (en) 2018-05-31 2021-08-18 Magic Leap, Inc. Radar head pose localization
EP3804306B1 (en) 2018-06-05 2023-12-27 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
US11092812B2 (en) 2018-06-08 2021-08-17 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2020006685A1 (en) * 2018-07-03 2020-01-09 深圳前海达闼云端智能科技有限公司 Method for establishing map, and terminal and computer readable storage medium
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
EP3637057B1 (en) 2018-07-19 2024-08-28 Uisee Technologies (Beijing) Ltd Method, device, system and storage medium for storing and loading visual positioning map
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
WO2020023545A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
JP7139762B2 (en) * 2018-07-31 2022-09-21 カシオ計算機株式会社 AUTONOMOUS MOBILE DEVICE, AUTONOMOUS MOVEMENT METHOD AND PROGRAM
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US10795458B2 (en) 2018-08-03 2020-10-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
CN112955073A (en) 2018-08-22 2021-06-11 奇跃公司 Patient viewing system
JP7182976B2 (en) 2018-09-27 2022-12-05 キヤノン株式会社 Information processing device, information processing method, and program
WO2020102412A1 (en) 2018-11-16 2020-05-22 Magic Leap, Inc. Image size triggered clarification to maintain image sharpness
CN113454507B (en) 2018-12-21 2024-05-07 奇跃公司 Cavitation structure for promoting total internal reflection within a waveguide
CN109754385A (en) * 2019-01-11 2019-05-14 中南大学 It is not registrated the rapid fusion method of multiple focussing image
EP3921720B1 (en) 2019-02-06 2024-05-22 Magic Leap, Inc. Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors
JP2022523852A (en) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド Aligning local content between first and second augmented reality viewers
CN109949412B (en) * 2019-03-26 2021-03-02 腾讯科技(深圳)有限公司 Three-dimensional object reconstruction method and device
WO2020223636A1 (en) 2019-05-01 2020-11-05 Magic Leap, Inc. Content provisioning system and method
WO2021021670A1 (en) 2019-07-26 2021-02-04 Magic Leap, Inc. Systems and methods for augmented reality
WO2021097318A1 (en) 2019-11-14 2021-05-20 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2021097323A1 (en) 2019-11-15 2021-05-20 Magic Leap, Inc. A viewing system for use in a surgical environment
CN111241944B (en) * 2019-12-31 2023-05-26 浙江大学 Scene recognition and loop detection method based on background target and background feature matching
CN111402288A (en) * 2020-03-26 2020-07-10 杭州博雅鸿图视频技术有限公司 Target detection tracking method and device
CN112541970A (en) * 2020-11-30 2021-03-23 北京华捷艾米科技有限公司 Relocation method and device in centralized cooperative SlAM
KR102431122B1 (en) 2021-12-30 2022-08-10 주식회사 버넥트 Method and system for map tartet tracking
CN115376051B (en) * 2022-10-25 2023-03-24 杭州华橙软件技术有限公司 Key frame management method and device, SLAM method and electronic equipment

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104179A (en) * 2007-10-15 2008-05-01 Seiko Epson Corp Panoramic composition of multiple image data
WO2011067713A2 (en) * 2009-12-01 2011-06-09 Rafael Advanced Defense Systems Ltd. Method and system of generating a three-dimensional view of a real scene for military planning and operations
US20110173565A1 (en) * 2010-01-12 2011-07-14 Microsoft Corporation Viewing media in the context of street-level images

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1167120B1 (en) 2000-06-30 2014-08-27 Panasonic Corporation Rendering device for parking aid
DE602006021188D1 (en) 2005-07-26 2011-05-19 Macdonald Dettwiler & Associates Inc CAR
JP4400659B2 (en) 2007-09-03 2010-01-20 トヨタ自動車株式会社 In-vehicle display device
US8200037B2 (en) * 2008-01-28 2012-06-12 Microsoft Corporation Importance guided image transformation
US8204299B2 (en) * 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
WO2010088840A1 (en) * 2009-02-06 2010-08-12 The Hong Kong University Of Science And Technology Generating three-dimensional models from images
US20120195491A1 (en) 2010-07-21 2012-08-02 Palo Alto Research Center Incorporated System And Method For Real-Time Mapping Of An Indoor Environment Using Mobile Robots With Limited Sensing
KR101732076B1 (en) 2010-12-22 2017-05-02 엘지전자 주식회사 Electronic device and control method for electronic device
CN102541418B (en) * 2010-12-30 2015-04-08 上海博泰悦臻电子设备制造有限公司 Processing method and device for realizing map display
US9247133B2 (en) * 2011-06-01 2016-01-26 Apple Inc. Image registration using sliding registration windows
US20130293671A1 (en) * 2012-05-01 2013-11-07 Tourwrist, Inc. Systems and methods for stitching and sharing panoramas

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104179A (en) * 2007-10-15 2008-05-01 Seiko Epson Corp Panoramic composition of multiple image data
WO2011067713A2 (en) * 2009-12-01 2011-06-09 Rafael Advanced Defense Systems Ltd. Method and system of generating a three-dimensional view of a real scene for military planning and operations
US20110173565A1 (en) * 2010-01-12 2011-07-14 Microsoft Corporation Viewing media in the context of street-level images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021528781A (en) * 2018-06-26 2021-10-21 株式会社ソニー・インタラクティブエンタテインメント Multipoint SLAM capture
JP7126008B2 (en) 2018-06-26 2022-08-25 株式会社ソニー・インタラクティブエンタテインメント Multi-point SLAM capture
WO2022049615A1 (en) * 2020-09-01 2022-03-10 株式会社ネイン Information processing system, information processing method, and computer program

Also Published As

Publication number Publication date
EP2915138B1 (en) 2019-07-31
EP2915138A1 (en) 2015-09-09
WO2014070390A1 (en) 2014-05-08
US20140119598A1 (en) 2014-05-01
US9177404B2 (en) 2015-11-03
CN104756155B (en) 2017-09-19
JP6339579B2 (en) 2018-06-06
KR20150079730A (en) 2015-07-08
CN104756155A (en) 2015-07-01

Similar Documents

Publication Publication Date Title
JP6339579B2 (en) System and method for merging multiple maps for computer vision based tracking
JP6162805B2 (en) Maintaining expansion continuity
US9330471B2 (en) Camera aided motion direction and speed estimation
JP5722502B2 (en) Planar mapping and tracking for mobile devices
US9098740B2 (en) Apparatus, method, and medium detecting object pose
JP5940453B2 (en) Method, computer program, and apparatus for hybrid tracking of real-time representations of objects in a sequence of images
US9064171B2 (en) Detection device and method for transition area in space
JP6007682B2 (en) Image processing apparatus, image processing method, and program
US11830218B2 (en) Visual-inertial localisation in an existing map
GB2599947A (en) Visual-inertial localisation in an existing map
GB2599948A (en) Initialising keyframes for visual-inertial localisation and/or mapping
Ekekrantz et al. Adaptive iterative closest keypoint
EP2939181B1 (en) Photometric edge description
Chen et al. Multi-Scale YOLOv2 for Hand Detection in Complex Scenes
Siddiqui et al. A novel plane extraction approach using supervised learning
WO2023150885A1 (en) System and method for object comprehension
Román Erades Creation and maintenance of visual incremental maps and hierarchical localization.
CN117745757A (en) Target tracking method, device, terminal equipment and storage medium
Kodirov et al. Robust real time face tracking in mobile devices
Doyle et al. Determination of feature generation methods for PTZ camera object tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170925

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180510

R150 Certificate of patent or registration of utility model

Ref document number: 6339579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees