JP2011186808A - 情報処理装置、マップ更新方法、プログラム及び情報処理システム - Google Patents

情報処理装置、マップ更新方法、プログラム及び情報処理システム Download PDF

Info

Publication number
JP2011186808A
JP2011186808A JP2010051731A JP2010051731A JP2011186808A JP 2011186808 A JP2011186808 A JP 2011186808A JP 2010051731 A JP2010051731 A JP 2010051731A JP 2010051731 A JP2010051731 A JP 2010051731A JP 2011186808 A JP2011186808 A JP 2011186808A
Authority
JP
Japan
Prior art keywords
map
global map
unit
global
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010051731A
Other languages
English (en)
Other versions
JP5471626B2 (ja
Inventor
Kenichiro Oi
堅一郎 多井
Quan Wang
チャン ワン
Koichi Matsuda
晃一 松田
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010051731A priority Critical patent/JP5471626B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP11156227.8A priority patent/EP2372582B1/en
Priority to KR1020110017936A priority patent/KR20110102174A/ko
Priority to US13/037,788 priority patent/US9014970B2/en
Priority to RU2011108115/08A priority patent/RU2481625C2/ru
Priority to CN201110051888.8A priority patent/CN102194367B/zh
Publication of JP2011186808A publication Critical patent/JP2011186808A/ja
Application granted granted Critical
Publication of JP5471626B2 publication Critical patent/JP5471626B2/ja
Priority to US14/691,197 priority patent/US9449023B2/en
Priority to US15/041,752 priority patent/US10599687B2/en
Priority to US15/253,188 priority patent/US9727580B2/en
Priority to US15/647,813 priority patent/US10083188B2/en
Priority to US16/122,125 priority patent/US10803098B2/en
Priority to US17/007,858 priority patent/US11762887B2/en
Priority to US18/233,075 priority patent/US20230385309A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • G06F16/2379Updates performed during online database operations; commit processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/20Linear translation of a whole image or part thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects

Abstract

【課題】実空間内の物体の位置の変化を迅速にユーザ間で共有すること。
【解決手段】複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップの少なくとも一部分を取得するグローバルマップ取得部と、前記複数のユーザのうちの1人のユーザの装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するローカルマップ生成部と、前記ローカルマップに含まれる物体の位置データに基づいて、前記グローバルマップを更新する更新部と、を備える情報処理装置を提供する。
【選択図】図5

Description

本発明は、情報処理装置、マップ更新方法、プログラム及び情報処理システムに関する。
今日、実空間内の物体の位置を表現するマップをネットワークを介して複数のユーザが共有するための様々なアプリケーションが実用化されている。一例として、ユーザがマップ上の任意の位置にコメント又は写真などの情報を関連付けた上で、当該情報又はマップを他のユーザと共有することのできるアプリケーションが存在する(下記特許文献1及び非特許文献1参照)。また、マップ上の任意の位置に仮想的なタグを関連付けておき、端末のカメラ機能を用いて撮像された画像にそのタグを重畳して表示するアプリケーションも存在する(下記非特許文献2参照)。
特開2006−209784号公報
「Google Maps」、[online]、[2010年2月22日検索]、インターネット<URL:http://maps.google.com/> 「Sekai Camera Support Center」、[online]、[2010年2月22日検索]、インターネット<URL:http://support.sekaicamera.com/en>
しかしながら、従来のマップ共有アプリケーションでは、マップと関連付けられる情報はユーザにより自由に更新され得るものの、マップそのものはサービス提供者が更新する場合を除いて変化しない。そのため、実空間内の物体の位置の変化をユーザが認識した場合にも、その変化をマップに迅速に反映して他のユーザと共有することは困難である。また、サービス提供者によって詳細なマップが提供されないプライベート空間において、マップあるいはマップと関連付けられる情報をユーザ間で共有することができない。
そこで、本発明は、実空間内の物体の位置の変化を迅速にユーザ間で共有することのできる、新規かつ改良された情報処理装置、マップ更新方法、プログラム及び情報処理システムを提供しようとするものである。
本発明のある実施形態によれば、複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップの少なくとも一部分を取得するグローバルマップ取得部と、上記複数のユーザのうちの1人のユーザの装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するローカルマップ生成部と、上記ローカルマップに含まれる物体の位置データに基づいて、上記グローバルマップを更新する更新部と、を備える情報処理装置が提供される。
また、上記情報処理装置は、上記グローバルマップに含まれる物体の位置データ及び上記ローカルマップに含まれる物体の位置データに基づいて、上記グローバルマップに対する上記ローカルマップの相対位置を算出する算出部と、上記ローカルマップの上記相対位置に応じて、上記ローカルマップに含まれる物体の位置データを上記グローバルマップの座標系のデータに座標変換する変換部と、をさらに備え、上記更新部は、上記変換部による座標変換後の上記ローカルマップに含まれる物体の位置データを用いて、上記グローバルマップを更新してもよい。
また、上記情報処理装置は、上記1人のユーザが有する端末装置であってもよい。
また、上記グローバルマップ取得部は、上記グローバルマップを保持するサーバ装置から上記グローバルマップの少なくとも一部分を取得し、上記更新部は、物体の位置データを上記サーバ装置へ送信することにより、上記サーバ装置の上記グローバルマップを更新してもよい。
また、上記グローバルマップ取得部は、上記グローバルマップのうち、上記実空間内の上記端末装置の位置を含む局所的な領域に対応する一部分を取得してもよい。
また、上記グローバルマップ取得部は、上記グローバルマップのうち、上記端末装置の近傍に位置する所定の数の物体の位置を表現する一部分を取得してもよい。
また、上記ローカルマップ生成部は、撮像装置を用いて実空間を撮影することにより得られる入力画像と、1つ以上の物体の外観の特徴を表す特徴データとに基づいて、上記ローカルマップを生成してもよい。
また、上記算出部は、上記グローバルマップ及び上記ローカルマップに共通して含まれる非移動物体の位置データに基づいて、上記ローカルマップの上記相対位置を算出してもよい。
また、上記算出部は、上記ローカルマップに含まれる物体の位置データを上記グローバルマップの座標系のデータに変換した場合に、当該変換後のデータと上記グローバルマップに含まれる物体の位置データとの間の差が全体として小さくなるように、上記ローカルマップの上記相対位置を算出してもよい。
また、上記グローバルマップは、上記実空間内の各物体についての上記グローバルマップの座標系における位置データと当該位置データに関するタイムスタンプとを含んでもよい。
また、上記情報処理装置は、ユーザからの指示に応じて、上記グローバルマップを少なくとも部分的に可視化して画面に出力する表示制御部、をさらに備えてもよい。
また、本発明の別の実施形態によれば、情報処理装置を用いて、複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップを更新するためのマップ更新方法であって、上記グローバルマップの少なくとも一部分を取得するステップと、上記情報処理装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するステップと、上記ローカルマップに含まれる物体の位置データに基づいて、上記グローバルマップを更新するステップと、含むマップ更新方法が提供される。
また、本発明の別の実施形態によれば、情報処理装置を制御するコンピュータを、複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップの少なくとも一部分を取得するグローバルマップ取得部と、上記複数のユーザのうちの1人のユーザの装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するローカルマップ生成部と、上記ローカルマップに含まれる物体の位置データに基づいて、上記グローバルマップを更新する更新部と、として機能させるための、プログラムが提供される。
また、本発明の別の実施形態によれば、複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップを記憶媒体を用いて記憶しているサーバ装置と、上記複数のユーザのうちの1人のユーザが保持する情報処理装置であって、上記サーバ装置から、上記グローバルマップの少なくとも一部分を取得するグローバルマップ取得部、上記情報処理装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するローカルマップ生成部、及び、上記ローカルマップに含まれる物体の位置データに基づいて、上記グローバルマップを更新する更新部、を備える情報処理装置と、を含む情報処理システムが提供される。
以上説明したように、本発明に係る情報処理装置、マップ更新方法、プログラム及び情報処理システムによれば、実空間内の物体の位置の変化を迅速にユーザ間で共有することができる。
一実施形態に係るシステムの概要について説明するための模式図である。 グローバルマップ及びローカルマップに含まれる物体の位置データについて説明するための模式図である。 一実施形態に係るサーバの構成の一例を示すブロック図である。 部分グローバルマップについて説明するための説明図である。 一実施形態に係る端末装置の構成の一例を示すブロック図である。 部分グローバルマップ取得処理の第1の例について説明するための説明図である。 部分グローバルマップ取得処理の第2の例について説明するための説明図である。 部分グローバルマップ取得処理の第3の例について説明するための説明図である。 一実施形態に係るローカルマップ生成部の詳細な構成の一例を示すブロック図である。 一実施形態に係る自己位置検出処理の流れの一例を示すフローチャートである。 オブジェクト上に設定される特徴点について説明するための説明図である。 特徴点の追加について説明するための説明図である。 予測モデルの一例について説明するための説明図である。 特徴データの構成の一例について説明するための説明図である。 一実施形態に係るオブジェクト認識処理の流れの一例を示すフローチャートである。 一実施形態に係る算出部によるマップ照合処理の一例について説明するための説明図である。 一実施形態に係る算出部によるマップ照合処理の他の例について説明するための説明図である。 一実施形態に係るグローバルマップ更新処理の一例について説明するための説明図である。 一実施形態に係るグローバルマップ更新処理の他の例について説明するための説明図である。 一実施形態に係るマップ管理サーバと端末装置との間のマップ更新処理の流れの一例を示すフローチャートである。 一実施形態に係るスーパークライアントの構成の一例を示すブロック図である。 追加情報の共有の適用場面の一例を示す模式図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。
また、以下の順序にしたがって当該「発明を実施するための形態」を説明する。
1.システムの概要
1−1.システム構成の例
1−2.位置データの例
2.一実施形態に係るマップ管理サーバの構成
3.一実施形態に係る端末装置の構成
3−1.通信インタフェース
3−2.撮像部
3−3.初期化部
3−4.グローバルマップ取得部
3−5.ローカルマップ生成部
3−6.算出部
3−7.変換部
3−8.更新部
3−9.表示制御部
4.処理の流れ
5.変形例
5−1.スーパークライアント
5−2.付加情報の共有
6.まとめ
<1.システムの概要>
[1−1.システム構成の例]
まず、図1及び図2を用いて、本発明の一実施形態に係るシステムの概要について説明する。図1は、本発明の一実施形態に係る情報処理システム1の概要を示す模式図である。図1を参照すると、本実施形態に係る情報処理システム1は、マップ管理サーバ10、端末装置100a及び端末装置100bを含む。
マップ管理サーバ10は、複数のユーザの間でマップ及びマップに関連付けられる情報を共有させるためのマップ共有サービスを提供する情報処理装置である。マップ管理サーバ10は、装置の内部又は外部にデータベースを有し、当該データベースに後述するグローバルマップを格納する。マップ管理サーバ10は、典型的には、PC(Personal Computer)又はワークステーションなどの汎用的な情報処理装置を用いて実現される。
本明細書において、マップ管理サーバ10により管理されるマップをグローバルマップという。グローバルマップは、マップ共有サービスのサービス対象領域Aの全体にわたって、実空間内の物体の位置を表現するマップである。
端末装置100aは、ユーザUaが保持する情報処理装置である。端末装置100bは、ユーザUbが保持する情報処理装置である。本明細書において、これら端末装置100a及び端末装置100bを互いに区別する必要が無い場合には、符号の末尾のアルファベットを省略して端末装置100と総称する。端末装置100は、有線又は無線による通信接続を介して、マップ管理サーバ10との間で通信することができる。端末装置100は、典型的には、PC、スマートフォン、PDA(Personal Digital Assistants)、ポータブル音楽プレーヤ、又はゲーム端末などの任意の種類の情報処理装置であってよい。
端末装置100は、周囲の物体の位置を検出可能なセンサ機能を有する。そして、端末装置100は、当該センサ機能を用いて、自装置の周囲(例えば、領域ALa又は領域ALb内)の物体の位置を表現するローカルマップを生成する。本実施形態では、センサ機能の一例として、単眼カメラを用いてカメラの位置及び姿勢と入力画像に映る物体の特徴点の位置とを同時に推定可能なSLAM(Simultaneous Localization And Mapping)技術を用いる例を説明する。
さらに、端末装置100は、生成したローカルマップを用いてマップ管理サーバ10により管理されるグローバルマップを更新する更新機能と、最新の(又は過去の任意の時点の)グローバルマップを表示する表示機能とを有する。即ち、例えば、ユーザUaは、ユーザUbにより保持されている端末装置100bにより更新されたグローバルマップを、端末装置100aの画面上で閲覧することができる。また、例えば、ユーザUbは、ユーザUaにより保持されている端末装置100aにより更新されたグローバルマップを、端末装置100bの画面上で閲覧することができる。
[1−2.位置データの例]
図2は、グローバルマップ及びローカルマップに含まれる物体の位置データについて説明するための模式図である。
図2を参照すると、実空間内に存在する4つの物体B1〜B4が示されている。物体B1は、テーブルである。物体B2は、コーヒーカップである。物体B3は、ノートPCである。物体B4は、窓である。このうち、物体B4の位置は、通常移動しない。本明細書では、このような移動しない物体を非移動物体あるいはランドマークという。また、図2には、各物体についての位置データR1〜R4も示されている。各位置データR1〜R4は、それぞれ、物体B1〜B4を表すオブジェクトID「Obj1」〜「Obj4」、位置「X1」〜「X4」及び姿勢「Ω1」〜「Ω4」、並びに位置データの生成時点を表すタイムスタンプ「YYYYMMDDhhmmss」を含む。
グローバルマップは、サービス対象領域Aの全体にわたる実空間内に存在する物体についての、図2に例示したような位置データを含むデータセットである。例えば、1つの建物の全体をサービス対象領域Aとする場合には、グローバルマップには、図2に例示した1つの部屋の中の物体だけでなく、他の部屋の中の物体についての位置データも含まれ得る。グローバルマップの位置データの座標系は、グローバル座標系として予め固定的に設定される。
これに対し、ローカルマップは、端末装置100の周囲の実空間内に存在する物体についての、図2に例示したような位置データを含むデータセットである。例えば、ローカルマップには、図2に例示した物体B1〜B4についての位置データが含まれ得る。ローカルマップの座標系の原点の位置と座標軸の向きは、端末装置100のカメラの位置及び姿勢に依存する。そのため、ローカルマップの座標系は、通常、グローバル座標系とは異なる。
なお、グローバルマップ及びローカルマップにより位置が表現され得る物体は、図2の例に限定されない。例えば、屋内に存在する物体の代わりに、屋外に存在する建物又は車などの物体の位置データがグローバルマップ及びローカルマップに含まれてもよい。この場合、建物はランドマークとなり得る。
<2.一実施形態に係るマップ管理サーバの構成>
図3は、本実施形態に係るマップ管理サーバ10の構成の一例を示すブロック図である。図3を参照すると、マップ管理サーバ10は、通信インタフェース20、グローバルマップ記憶部30、部分グローバルマップ抽出部40、更新部50、及びグローバルマップ配信部60を備える。
通信インタフェース20は、マップ管理サーバ10と端末装置100との間の通信接続を仲介するインタフェースである。通信インタフェース20は、無線通信インタフェースであってもよく、有線通信インタフェースであってもよい。
グローバルマップ記憶部30は、ハードディスク又は半導体メモリなどの記憶媒体を用いて構成されるデータベースに相当し、複数のユーザが活動する実空間内の物体の位置を表現する上述したグローバルマップを記憶する。そして、グローバルマップ記憶部30は、部分グローバルマップ抽出部40からの要求に応じて、グローバルマップのサブセットである部分グローバルマップを出力する。また、グローバルマップ記憶部30に記憶されているグローバルマップは、更新部50により更新される。また、グローバルマップ記憶部30は、グローバルマップ配信部60からの要求に応じて、グローバルマップの全体又は要求された一部分を出力する。
部分グローバルマップ抽出部40は、通信インタフェース20を介して端末装置100の位置に関する情報を受信し、当該情報に応じて部分グローバルマップを抽出する。そして、部分グローバルマップ抽出部40は、抽出した部分グローバルマップを、通信インタフェース20を介して端末装置100へ送信する。部分グローバルマップとは、グローバルマップのサブセットである。部分グローバルマップは、グローバル座標系における端末装置100の位置の周囲の局所的な領域に含まれる物体の位置を表現する。
図4は、部分グローバルマップについて説明するための説明図である。図4の左には、オブジェクトIDが「Obj1」〜「Obj19」である19個の物体についての位置データを含むグローバルマップMが示されている。これら19個の物体は、図4の右に示されたサービス対象領域Aの中に散在する。このとき、ユーザUaが保持する端末100aの位置からの距離が閾値D以下である物体は、物体B1〜B9である。この場合、例えば、当該物体B1〜B9についての位置データが、ユーザUaのための部分グローバルマップM(Ua)を構成する。また、ユーザUbが保持する端末100bの位置からの距離が閾値D以下である物体は、物体B11〜B19である。この場合、例えば、当該物体B11〜B19についての位置データが、ユーザUbのための部分グローバルマップM(Ub)を構成する。閾値Dは、後述するローカルマップの範囲の大部分が部分グローバルマップにも含まれるように、予め適切な値に設定される。なお、部分グローバルマップの抽出に関する他の例について、後にさらに説明する。
更新部50は、端末装置100から通信インタフェース20を介して受信される物体の位置データに基づいて、グローバルマップ記憶部30により記憶されているグローバルマップを更新する。それにより、実空間内の物体の位置の変化がグローバルマップに迅速に反映される。更新部50によるグローバルマップ更新処理については、後にさらに説明する。
グローバルマップ配信部60は、端末装置100からの要求に応じて、グローバルマップ記憶部30により記憶されているグローバルマップを端末装置100へ配信する。グローバルマップ配信部60から配信されるグローバルマップは、端末装置100の表示機能により端末装置100の画面上で可視化される。それにより、ユーザは、最新の(又は過去の任意の時点の)グローバルマップを閲覧することができる。
<3.一実施形態に係る端末装置の構成>
図5は、本実施形態に係る端末装置100の構成の一例を示すブロック図である。図5を参照すると、端末装置100は、通信インタフェース102、撮像部110、初期化部120、グローバルマップ取得部130、記憶部132、ローカルマップ生成部140、算出部160、変換部170、更新部180及び表示制御部190を備える。
[3−1.通信インタフェース]
通信インタフェース102は、端末装置100とマップ管理サーバ10との間の通信接続を仲介するインタフェースである。通信インタフェース102は、無線通信インタフェースであってもよく、有線通信インタフェースであってもよい。
[3−2.撮像部]
撮像部110は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有するカメラとして実現され得る。撮像部110は、端末装置100の外部に設けられてもよい。撮像部110は、図2に例示したような物体が存在する実空間を撮影することにより取得した画像を、入力画像として、初期化部120及びローカルマップ生成部140へ出力する。
[3−3.初期化部]
初期化部120は、撮像部110から入力される入力画像を用いて、グローバル座標系における端末装置100の大まかな位置を特定する。入力画像に基づく端末装置100の位置の特定(Localization)は、例えば、特開2008−185417号公報に記載されている手法に従って行われ得る。その場合、初期化部120は、入力画像と記憶部132により予め記憶されている参照用画像とを照合し、一致度の高い参照用画像に対して高スコアを設定する。そして、初期化部120は、当該スコアに基づいて端末装置100の位置の候補の確率分布を算出し、算出した当該確率分布に基づいて尤もらしい端末装置100の位置(仮説確率分布における確率値が最も高い位置)を特定する。そして、初期化部120は、特定した端末装置100の位置をグローバルマップ取得部130へ出力する。
なお、初期化部120は、上述した手法の代わりに、GPS(Global Positioning System)機能を用いて端末装置100の位置を特定してもよい。また、初期化部120は、例えば、周囲の無線アクセスポイントからの電測情報に基づいて現在位置を測定することの可能なPlaceEngineなどの技術を用いて、端末装置100の位置を特定してもよい。
[3−4.グローバルマップ取得部]
グローバルマップ取得部130は、通信インタフェース102を介してマップ管理サーバ10へ端末装置100の位置に関する情報を送信し、マップ管理サーバ10の部分グローバルマップ抽出部40により抽出される上述した部分グローバルマップを取得する。そして、グローバルマップ取得部130は、取得した部分グローバルマップを記憶部132へ格納する。
図6Aは、部分グローバルマップ取得処理の第1の例について説明するための説明図である。図6Aを参照すると、端末装置100のグローバルマップ取得部130は、グローバル座標系における端末装置100の位置座標をマップ管理サーバ10へ送信する。そうすると、マップ管理サーバ10の部分グローバルマップ抽出部40は、例えば、当該位置座標を中心として半径D[m]以内に位置する物体についての位置データにより構成される部分グローバルマップを抽出し、当該部分グローバルマップを端末装置100へ返送する。それにより、グローバルマップ取得部130は、予め定義される広さを有する局所的な領域に対応する部分グローバルマップを取得できる。局所的な領域とは、例えば、端末装置100の撮像部110により直接的に観測可能な広さを有する領域であってよい。それにより、グローバルマップの全体を取得する場合と比較して、端末装置100による通信コスト及び処理コストを抑制することができる。
図6Bは、部分グローバルマップ取得処理の第2の例について説明するための説明図である。図6Bを参照すると、端末装置100のグローバルマップ取得部130は、グローバル座標系における端末装置100の位置座標をマップ管理サーバ10へ送信する。そうすると、マップ管理サーバ10の部分グローバルマップ抽出部40は、例えば、当該位置座標からの距離が近い順にn個の物体についての位置データにより構成される部分グローバルマップを抽出し、当該部分グローバルマップを端末装置100へ返送する。それにより、グローバルマップ取得部130は、予め定義されるデータ数を含む局所的な領域に対応する部分グローバルマップを取得できる。通常、予め定義されるデータ数nが大きいほど、後述する算出部160による部分グローバルマップとローカルマップとの照合を高い精度で行うことができる。nの値は、当該照合の精度と通信コスト及び処理コストとのバランスを考慮して決定される(例えばn=100などであってよい)。
図6Cは、部分グローバルマップ取得処理の第3の例について説明するための説明図である。図6Cを参照すると、端末装置100のグローバルマップ取得部130は、端末装置100が位置するエリアを識別するための識別子(以下、エリア識別子という)をマップ管理サーバ10へ送信する。エリア識別子とは、例えば、端末装置100がアクセス可能な無線アクセスポイントのアクセスポイント識別子であってもよい。また、1つの建物の全体がサービス対象領域Aである場合には、エリア識別子とは、端末装置100が位置するフロア又は部屋を識別する番号などであってもよい。マップ管理サーバ10の部分グローバルマップ抽出部40は、エリア識別子を受信すると、当該エリア識別子が示すエリアに含まれる物体についての位置データにより構成される部分グローバルマップを抽出し、当該部分グローバルマップを端末装置100へ返送する。この場合にも、グローバルマップの全体を取得する場合と比較して、端末装置100による通信コスト及び処理コストを抑制することができる。
[3−5.ローカルマップ生成部]
ローカルマップ生成部140は、撮像部110から入力される入力画像及び記憶部132により記憶されている後述する特徴データに基づいて、端末装置100により検出可能な周囲の物体の位置を表現する上述したローカルマップを生成する。図7は本実施形態に係るローカルマップ生成部140の詳細な構成の一例を示すブロック図である。図7を参照すると、ローカルマップ生成部140は、自己位置検出部142、画像認識部144及びローカルマップ構築部146を含む。
(1)自己位置検出部
自己位置検出部142は、撮像部110から入力される入力画像、及び記憶部132により記憶されている特徴データに基づいて、入力画像を映したカメラの位置を動的に検出する。例えば、自己位置検出部142は、Andrew J.Davisonによる“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されているSLAM技術を応用することにより、撮像部110のカメラが単眼カメラである場合にも、当該カメラの位置及び姿勢、並びにカメラの撮像面における特徴点の位置を、フレームごとに動的に決定することができる。
まず、図8を用いて、自己位置検出部142によるSLAM技術を応用した自己位置検出処理の全体的な流れについて説明する。次に、図9〜図11を用いて、自己位置検出処理の詳細を説明する。
図8は、自己位置検出部142によるSLAM技術を応用した自己位置検出処理の流れの一例を示すフローチャートである。図8において、自己位置検出処理が開始すると、自己位置検出部142は、まず、状態変数を初期化する(ステップS102)。本実施形態において、状態変数とは、カメラの位置及び姿勢(回転角)、当該カメラの移動速度及び角速度、並びに1つ以上の特徴点の位置を要素として含むベクトルである。そして、自己位置検出部142は、撮像部110から入力画像を順次取得する(ステップS112)。ステップ112からステップS118までの処理は、各入力画像について(即ち毎フレーム)繰り返され得る。
ステップS114では、自己位置検出部142は、入力画像に映る特徴点を追跡する。例えば、自己位置検出部142は、記憶部132により予め記憶されている特徴点ごとのパッチ(例えば特徴点を中心とする3×3=9画素の小画像)を入力画像から検出する。ここで検出されたパッチの位置、即ち特徴点の位置は、後の状態変数の更新の際に用いられる。
ステップS116では、自己位置検出部142は、所定の予測モデルに基づいて、例えば1フレーム後の状態変数の予測値を生成する。また、ステップS118では、自己位置検出部142は、ステップS116において生成した状態変数の予測値と、ステップS114において検出した特徴点の位置に応じた観測値とを用いて、状態変数を更新する。自己位置検出部142は、ステップS116及びS118における処理を、拡張カルマンフィルタの原理に基づいて実行する。
このような処理の結果として、毎フレーム更新される状態変数の値が出力される。以下、特徴点の追跡(ステップS114)、状態変数の予測(ステップS116)、状態変数の更新(ステップS118)の各処理の内容について、より具体的に説明する。
(1−1)特徴点の追跡
本実施形態において、記憶部132は、実空間内に存在し得る物体に対応するオブジェクトの特徴を表す特徴データを予め記憶している。特徴データには、例えば、各オブジェクトの外観の特徴を表す1つ以上の特徴点についての小画像、即ちパッチ(Patch)が含まれる。パッチとは、例えば、特徴点を中心とする3×3=9画素よりなる小画像であってよい。
図9は、オブジェクトの2つの例、並びに各オブジェクト上に設定される特徴点(FP:Feature Point)及びパッチの例を示している。図9の左のオブジェクトは、PCを表すオブジェクトである(9a参照)。当該オブジェクト上には、特徴点FP1を含む複数の特徴点が設定されている。さらに、特徴点FP1と関連付けて、パッチPth1が定義されている。一方、図9の右のオブジェクトは、カレンダーを表すオブジェクトである(9b参照)。当該オブジェクト上には、特徴点FP2を含む複数の特徴点が設定されている。さらに、特徴点FP2と関連付けて、パッチPth2が定義されている。
自己位置検出部142は、撮像部110から入力画像を取得すると、入力画像に含まれる部分画像と、記憶部132に予め記憶されている図9に例示した特徴点ごとのパッチとを照合する。そして、自己位置検出部142は、照合の結果として、入力画像に含まれる特徴点の位置(例えば検出されたパッチの中心画素の位置)を特定する。
なお、特徴点の追跡(図8のステップS114)において、追跡される全ての特徴点に関するデータが予め記憶部132に記憶されていなくてもよい。例えば、図10の例では、時刻T=t−1において、4つの特徴点が入力画像内で検出されている(10a参照)。次に、時刻T=tにおいてカメラの位置又は姿勢が変化すると、時刻T=t−1において入力画像に映っていた4つの特徴点のうち2つのみが入力画像内に映っている。この場合に、自己位置検出部142は、入力画像内で特徴的な画素のパターンを有する位置に新たに特徴点を設定し、その新たな特徴点を後のフレームにおける自己位置検出処理に用いてもよい。例えば、図10の例では、時刻T=tにおいて、3つの新たな特徴点がオブジェクト上に設定されている(10b参照)。かかる点は、SLAM技術の1つの特長であり、それにより、予め全ての特徴点を設定しておくコストを削減できると共に、追加される多数の特徴点を用いて処理の精度を高めることができる。
(1−2)状態変数の予測
本実施形態において、自己位置検出部142は、拡張カルマンフィルタを適用すべき状態変数として、次式に示す状態変数Xを用いる。
Figure 2011186808
(1)
式(1)における状態変数Xの第1の要素は、次式の通り、端末装置100ごとに設定されるローカルマップ座標系(x,y,z)でのカメラの3次元位置を表す。なお、ローカルマップ座標系は、例えば、初期化処理時の撮像部110のカメラの位置及び姿勢に応じて設定される。例えば、ローカルマップの座標系の原点は、初期化処理時のカメラの位置であってよい。
Figure 2011186808
(2)
また、状態変数の第2の要素は、カメラの姿勢を表す回転行列に対応する四元数(クォータニオン)を要素として有する4次元ベクトルωである。なお、四元数の変わりにオイラー角を用いてカメラの姿勢が表されてもよい。また、状態変数の第3及び第4の要素は、カメラの移動速度及び角速度をそれぞれ表す。
さらに、状態変数の第5及びそれ以降の要素は、次式の通り、ローカルマップ座標系での特徴点FP(i=1…N)の3次元位置pをそれぞれ表す。なお、上述したように、特徴点の数Nは、処理の間変化し得る。
Figure 2011186808
(3)
自己位置検出部142は、ステップS102において初期化された状態変数Xの値、又は前フレームにおいて更新された状態変数Xの値に基づいて、最新のフレームについての状態変数の予測値を生成する。状態変数の予測値は、次式に示す多次元正規分布に従った拡張カルマンフィルタの状態方程式に従って生成される。
Figure 2011186808
ここで、Fはシステムの状態遷移に関する予測モデル、aは予測条件である。また、wはガウシアンノイズであり、例えばモデル近似誤差や観測誤差等を含み得る。一般的に、ガウシアンノイズwの平均はゼロとなる。
図11は、本実施形態に係る予測モデルの一例について説明するための説明図である。図11を参照すると、本実施形態に係る予測モデルにおける2つの予測条件が示されている。まず、第1の条件として、特徴点のローカルマップ座標系における3次元位置は変化しないものとする。即ち、時刻Tにおける特徴点FP1の3次元位置をpとすると、次式の関係が成立する。
Figure 2011186808
(5)
次に、第2の条件として、カメラの運動は等速運動であるものとする。即ち、時刻T=t−1から時刻T=tにかけてのカメラの速度及び角速度について、次式の関係が成立する。
Figure 2011186808
(6)
Figure 2011186808
(7)
このような予測モデル及び式(4)に示した状態方程式に基づいて、自己位置検出部142は、最新のフレームについての状態変数の予測値を生成する。
(1−3)状態変数の更新
そして、自己位置検出部142は、観測方程式を用いて、例えば状態変数の予測値から予測される観測情報と、特徴点の追跡結果として得られる実際の観測情報との誤差を評価する。なお、式(8)におけるνがその誤差である。
Figure 2011186808
ここで、Hは観測モデルを表す。例えば、特徴点FPの撮像面(u−v平面)上の位置を、次式のように定義する。
Figure 2011186808
ここで、カメラの位置x、カメラの姿勢ω、及び特徴点FPの3次元位置pは、いずれも状態変数Xの要素として与えられる。そうすると、ピンホールモデルに従い、特徴点FPの撮像面上の位置は次式を用いて導かれる。
Figure 2011186808
(11)
ここで、λは正規化のためのパラメータ、Aはカメラ内部パラメータ、Rωは状態変数Xに含まれるカメラの姿勢を表す四元数ωに対応する回転行列である。カメラ内部パラメータAは、入力画像を撮影するカメラの特性に応じて、予め次式のように与えられる。
Figure 2011186808
(12)
ここで、fは焦点距離、θは画像軸の直交性(理想値は90°)、kは撮像面の縦軸のスケール(ローカルマップ座標系から撮像面の座標系へのスケール変化率)、kは撮像面の横軸のスケール、(u,v)は撮像面の中心位置である。
従って、式(11)を用いて導かれる予測される観測情報、即ち各特徴点の撮像面上の位置と、図8のステップS114における特徴点の追跡結果との間の誤差を最小にする状態変数Xを探索することにより、尤もらしい最新の状態変数Xを得ることができる。
Figure 2011186808
自己位置検出部142は、このようにSLAM技術を応用して動的に更新したカメラの位置x及び姿勢ωを、ローカルマップ構築部146へ出力する。
(2)特徴データ
記憶部132は、実空間内に存在し得る物体に対応するオブジェクトの特徴を表す特徴データを予め記憶している。図12は、特徴データの構成の一例について説明するための説明図である。
図12を参照すると、オブジェクトB2についての一例としての特徴データFD1が示されている。特徴データFD1は、オブジェクト名称FD11、6方向から撮影した画像データFD12、パッチデータDF13、3次元形状データFD14、及びオントロジーデータFD15を含む。
オブジェクト名称FD11は、“コーヒーカップA”など、対応するオブジェクトを特定することのできる名称である。
画像データFD12は、例えば、対応するオブジェクトを前・後・左・右・上・下の6方向からそれぞれ撮影した6つの画像データを含む。パッチデータFD13は、各オブジェクト上に設定される1つ以上の特徴点ごとの、各特徴点を中心とする小画像の集合である。画像データFD12及びパッチデータFD13は、後述する画像認識部144によるオブジェクト認識処理のために使用され得る。また、パッチデータFD13は、前述した自己位置検出部142による自己位置検出処理のために使用され得る。
3次元形状データFD14は、対応するオブジェクトの形状を認識するためのポリゴン情報、及び特徴点の3次元的な位置情報を含む。3次元形状データFD14は、後述するローカルマップ構築部146によるローカルマップ構築処理のために使用され得る。
オントロジーデータFD15は、例えば、ローカルマップ構築部146によるローカルマップ構築処理を支援するために使用され得るデータである。図12の例では、オントロジーデータFD15は、コーヒーカップであるオブジェクトB2が、テーブルに対応するオブジェクトに接する可能性が高いこと、及び本棚に対応するオブジェクトに接する可能性が低いことを表している。
(3)画像認識部
画像認識部144は、記憶部132により記憶されている上述した特徴データを用いて、入力画像に映っている物体がそれぞれどのオブジェクトに対応するかを特定する。
図13は、画像認識部144によるオブジェクト認識処理の流れの一例を示すフローチャートである。図13を参照すると、まず、画像認識部144は、撮像部110から入力画像を取得する(ステップS212)。次に、画像認識部144は、入力画像に含まれる部分画像と、特徴データに含まれる各オブジェクトの1つ以上の特徴点のパッチとを照合し、入力画像に含まれる特徴点を抽出する(ステップS214)。なお、画像認識部144によるオブジェクト認識処理に用いられる特徴点と、自己位置検出部142による自己位置検出処理に用いられる特徴点とは、必ずしも同じでなくてもよい。但し、双方の処理で用いられる特徴点が共通している場合には、画像認識部144は、自己位置検出部142による特徴点の追跡結果を再利用してもよい。
次に、画像認識部144は、特徴点の抽出結果に基づいて、入力画像に映っているオブジェクトを特定する(ステップS216)。例えば、画像認識部144は、ある領域内で1つのオブジェクトに属す特徴点が高い密度で抽出された場合には、当該領域にそのオブジェクトが映っていると認識し得る。そして、画像認識部144は、特定したオブジェクトのオブジェクト名称(又は識別子)及びそのオブジェクトに属す特徴点の撮像面上の位置を、ローカルマップ構築部146へ出力する(ステップS218)。
(4)ローカルマップ構築部
ローカルマップ構築部146は、自己位置検出部142から入力されるカメラの位置及び姿勢、画像認識部144から入力される特徴点の撮像面上の位置、及び記憶部132に記憶されている特徴データを用いて、ローカルマップを構築する。本実施形態において、ローカルマップとは、上述したように、端末装置100の周囲に存在する1つ以上の物体の位置及び姿勢をローカルマップ座標系を用いて表現する位置データの集合である。また、ローカルマップに含まれる各位置データは、例えば、物体に対応するオブジェクト名称、当該物体に属す特徴点の3次元位置、及び当該物体の形状を構成するポリゴン情報などと関連付けられてもよい。ローカルマップは、例えば、画像認識部144から入力される特徴点の撮像面上の位置から、上述したピンホールモデルに従って各特徴点の3次元位置を求めることにより構築され得る。
式(11)に示したピンホールモデルの関係式を変形すると、特徴点FPのローカルマップ座標系における3次元位置pは、次式により求められる。
Figure 2011186808
(14)
ここで、dはカメラと各特徴点との間のローカルマップ座標系における距離を表す。ローカルマップ構築部146は、かかる距離dを、オブジェクトごとに少なくとも4つの特徴点の撮像面上の位置、及び当該特徴点間の距離に基づいて、算出することができる。特徴点間の距離は、図12を用いて説明した特徴データに含まれる3次元形状データFD14として、予め記憶部132により記憶されている。なお、式(14)における距離dの算出処理については、特開2008−304268号公報において詳しく説明されている。
距離dが算出されると、式(14)における右辺の残りの変数は、自己位置検出部142から入力されるカメラの位置及び姿勢、並びに画像認識部144から入力される特徴点の撮像面上の位置であり、いずれも既知となる。そこで、ローカルマップ構築部146は、式(14)に従って、画像認識部144から入力される各特徴点について、ローカルマップ座標系における3次元位置を計算する。そして、ローカルマップ構築部146は、算出した特徴点ごとの3次元位置に応じて最新のローカルマップを構築する。このとき、ローカルマップ構築部146は、図12を用いて説明した特徴データに含まれるオントロジーデータFD15を用いて、ローカルマップのデータの正確性を向上させてもよい。そして、ローカルマップ構築部146は、構築したローカルマップを記憶部132に格納すると共に、当該ローカルマップを算出部160へ出力する。
なお、ここでは、ローカルマップ生成部10が特徴データに含まれる画像(物体の特徴点ごとのパッチなど)を用いてローカルマップを生成する例について説明した。しかしながら、その代わりに、個々の物体を識別可能なマーカ又はタグなどの識別手段が物体に予め付されている場合には、ローカルマップ生成部10は、当該識別手段を用いて個々の物体を識別した上で、その識別結果を用いてローカルマップを生成してもよい。個々の物体を識別するための識別手段としては、例えば、バーコード、QRコード(登録商標)又はRF(Radio Frequency)タグなどを用いることができる。
[3−6.算出部]
算出部160は、部分グローバルマップに含まれる物体の位置データとローカルマップに含まれる物体の位置データとを照合し、その照合の結果に基づいて、グローバルマップに対するローカルマップの相対的な位置及び姿勢を算出する。部分グローバルマップに対するローカルマップの相対的な位置及び姿勢とは、グローバル座標系を基準とした場合の、ローカルマップ座標系の変位と傾きに相当する。より具体的には、算出部160は、例えば、部分グローバルマップ及びローカルマップに共通して含まれるランドマークの位置データに基づいて、ローカルマップの相対的な位置及び姿勢を算出してもよい。その代わりに、算出部160は、例えば、ローカルマップに含まれる物体の位置データをグローバル座標系のデータに変換した場合に、当該変換後のデータと部分グローバルマップに含まれる物体の位置データとの間の差が全体として小さくなるように、ローカルマップの相対的な位置及び姿勢を算出してもよい。そして、算出部160は、算出したローカルマップの相対的な位置及び姿勢とローカルマップとを、変換部170へ出力する。
(第1の手法)
図14Aは、本実施形態に係る算出部160によるマップ照合処理の一例について説明するための説明図である。
図14Aを参照すると、記憶部132により記憶されている部分グローバルマップM(Ua)と、ローカルマップ生成部140により生成されるローカルマップMLaとが模式的に示されている。このうち、部分グローバルマップM(Ua)には、立方体により表されている9個の物体が含まれる。また、ローカルマップMLaには、球体により表されている4個の物体が含まれる。これら物体のうち、物体B1、B2(B2´)、B3及びB4が、部分グローバルマップM(Ua)及びローカルマップMLaに共通的に含まれている物体である。また、物体B1、B3及びB4は、移動することの稀な非移動物体、即ちランドマークである。そこで、算出部160は、例えば、ローカルマップの物体B1、B3及びB4の位置データをグローバル座標系のデータに変換した場合に、当該変換後のデータと部分グローバルマップに含まれる物体B1、B3及びB4の位置データとが重なるように、ローカルマップの位置と姿勢とを算出する。
まず、算出部160は、部分グローバルマップM(Ua)及びローカルマップMLaに共通するランドマーク(又はランドマーク上の特徴点)のペアを3つ抽出する。ランドマークの3つのペアについて、ローカルマップ座標系における3次元位置をw(i=1,2,3)、グローバル座標系における3次元位置をXとする。さらに、グローバル座標系を基準とした場合のローカルマップ座標系の変位をΔX、ローカルマップ座標系の傾きΔΩに対応する回転行列をRとすると、次の方程式が成立する。
Figure 2011186808
(15)
回転行列Rは、式(15)を式(16)のように変形することで求められる。
Figure 2011186808
(16)
なお、回転行列Rの代わりに四元数(クォータニオン)を用いてローカルマップ座標系の回転を表現した場合にも、回転を表す四元数のノルムが1であることを利用して、回転を表す四元数(及び当該四元数に応じた回転行列)を求めることができる。
さらに、算出部160は、方程式(15)を解くことにより、ローカルマップ座標系の変位ΔXを求めることができる。
なお、図14Aの例では、ランドマークでない物体B2の部分グローバルマップM(Ua)における位置と、ローカルマップMLaにおける位置(B2´)とは異なる。これは、部分グローバルマップM(Ua)の最後の更新時点からローカルマップMLaの生成時点の間に、物体B2が移動したことを意味している。
(第2の手法)
図14Bは、本実施形態に係る算出部160によるマップ照合処理の他の例について説明するための説明図である。
図14Bを参照すると、記憶部132により記憶されている部分グローバルマップM(Ua)と、ローカルマップ生成部140により生成されるローカルマップMLaとが模式的に示されている。このうち、部分グローバルマップM(Ua)には、立方体により表されている9個の物体が含まれる。また、ローカルマップMLaには、球体により表されている4個の物体が含まれる。これら物体のうち、物体B5、B6、B7及びB8は、部分グローバルマップM(Ua)及びローカルマップMLaに共通的に含まれている。そこで、算出部160は、例えば、これら物体B5〜B8の位置データをグローバル座標系のデータに変換した場合に、当該変換後のデータと部分グローバルマップに含まれる物体B5〜B8の位置データとの間の差の総和(例えば、図14Aの例における距離E5、E6、E7及びE8の和)が小さくなるように、ローカルマップの位置(ローカルマップ座標系の変位ΔX)と姿勢(ローカルマップ座標系の傾きΔΩ)とを算出し得る。例えば、算出部160は、公知のRANSAC(“RANdom Sample Consensus”)アルゴリズムを応用することにより、上述した差の総和が小さくなる尤もらしいローカルマップの位置及び姿勢を算出することができる。
RANSACアルゴリズムは、一般的には、3次元位置が既知である複数の点について、予め設定される誤差の範囲内で当該複数の点を含む直線又は面を決定するためのアルゴリズムである。本実施形態においては、まず、算出部160は、部分グローバルマップM(Ua)及びローカルマップMLaに共通する物体(又は物体上の特徴点)のペアを複数(好適には4つ以上)用意する。次に、算出部160は、用意した複数のペアからランダムに3つのペアを抽出する。次に、算出部160は、抽出した3つのペアについて、上述した方程式(15)を解くことにより、ローカルマップ座標系の変位ΔX、及びローカルマップ座標系の傾きΔΩに対応する回転行列Rの候補を導出する。そして、算出部160は、導出した候補を次の評価式を用いて評価する。
Figure 2011186808
(17)
なお、式(17)において、jは、物体(又は物体上の特徴点)のそれぞれを指す。算出部160は、式(17)における評価値εを所定の閾値よりも小さくするjの数をカウントする。そして、算出部160は、カウント結果が最も多くなる変位ΔX及び回転行列Rを尤もらしいローカルマップの位置及び姿勢として決定する。
(第1の手法と第2の手法との組合せ)
また、算出部160は、例えば、ローカルマップに含まれるランドマークの数に応じて、上述した第1の手法と第2の手法とを使い分けてもよい。例えば、3つのランドマークがローカルマップに含まれる場合には図14Aを用いて説明した手法、2つ以下のランドマークのみがローカルマップに含まれる場合には図14Bを用いて説明した手法を使用して、ローカルマップの相対的な位置及び姿勢を算出してもよい。
[3−7.変換部]
変換部170は、算出部160から入力されるローカルマップの相対的な位置及び姿勢に応じて、ローカルマップに含まれる物体の位置データをグローバルマップの座標系のデータに座標変換する。より具体的には、変換部170は、例えば、ローカルマップに含まれる物体の3次元位置(ローカルマップ座標系)を、算出部160から入力されるローカルマップの傾きΔΩに応じた回転行列を用いて回転させる。そして、変換部170は、算出部160から入力されるローカルマップの相対的な位置(グローバル座標系に対するローカルマップ座標系の変位ΔX)を、回転後の座標に加算する。それにより、ローカルマップに含まれる物体の位置データが、グローバルマップの座標系のデータに変換される。変換部170は、このような座標変換後のローカルマップに含まれる物体の位置データを、更新部180へ出力する。
また、変換部170は、ローカルマップ生成部142の自己位置検出部142により検出されたローカルマップ座標系のカメラの位置及び姿勢を、算出部160から入力されるローカルマップの相対的な位置及び姿勢を用いて、グローバルマップの座標系のデータに座標変換してもよい。それにより、初期化部120が特定した端末装置100の位置を、初期化後の端末装置100の移動に応じて更新することができる。この後、グローバルマップ取得部130は、更新された新たな端末装置100の位置に応じて、マップ管理サーバ10から新たな部分グローバルマップを取得してもよい。
[3−8.更新部]
更新部180は、変換部170による座標変換後のローカルマップに含まれる物体の位置データを用いて、記憶部132により記憶されている部分グローバルマップを更新する。また、更新部180は、変換部170による座標変換後のローカルマップ又は更新した部分グローバルマップをマップ管理サーバ10へ送信することにより、マップ管理サーバ10が保持しているグローバルマップを更新する。グローバルマップの更新は、最終的には、端末装置100の更新部180から座標変換後のローカルマップ又は更新後のグローバルマップを受信したマップ管理サーバ10の更新部50により行われ得る。
図15Aは、本実施形態に係るグローバルマップ更新処理の一例について説明するための説明図である。
図15Aを参照すると、更新前の部分グローバルマップM(Ua)及び座標変換後のローカルマップMLa´が示されている。更新前の部分グローバルマップM(Ua)には、9つの物体(Obj1〜Obj9)についての位置データが含まれている。これら位置データのタイムスタンプは、一例として、2010年1月1日23時59分59秒を示している。一方、座標変換後のローカルマップMLa´には、5つの物体(Obj1〜Obj4及びObj10)についての位置データが含まれている。これら位置データのタイムスタンプは、一例として、2010年1月2日12時00分00秒を示している。この場合、更新部180は、共通する物体(Obj1〜Obj4)のそれぞれについて、部分グローバルマップM(Ua)の位置データを、より新しい座標変換後のローカルマップMLa´の位置データで更新する。また、新たな物体(Obj10)についての位置データを部分グローバルマップM(Ua)に挿入する。その結果、新たな部分グローバルマップM(Ua)´が生成される。
なお、図15Aの例では、共通する物体についての位置データが新しいデータで上書きされているが、その代わりに、共通する物体についての古い位置データと新しい位置データとを並存させてもよい。それにより、最新のグローバルマップのみならず、過去のグローバルマップを時刻でフィルタリングすることにより抽出することも可能となる。この場合、古い位置データは、例えば、定期的な処理により、一定の期間が経過した後に削除される。
図15Bは、本実施形態に係るグローバルマップ更新処理の他の例について説明するための説明図である。
図15Bを参照すると、更新前の部分グローバルマップM(Ua)及び座標変換後のローカルマップMLa´が模式的に示されている。更新前の部分グローバルマップM(Ua)には、物体B1〜B3を含む7つの物体が含まれている。一方、座標変換後のローカルマップMLa´には、4つの物体B1〜B3及びB12が含まれている。この場合、更新部180は、例えば、座標変換後のローカルマップMLa´に対応する領域(図15Bにおける破線の領域)に含まれる更新前の部分グローバルマップM(Ua)内の物体を削除し、当該領域に含まれる座標変換後のローカルマップMLa´内の物体を部分グローバルマップM(Ua)に挿入する。その結果、図15Bの下に示したような新たな部分グローバルマップM(Ua)´が生成される。このような更新処理によれば、例えば、外観が同一の複数の物体など、画像認識によって互いに区別し得ない複数の物体の移動を適切にグローバルマップに反映することができる。
なお、図15Bの例においても、1つのマップ内に、古い位置データと新しい位置データとを並存させてもよい。また、部分グローバルマップに含まれる物体のうちランドマークである物体は通常移動しないため、更新部180は、ランドマークについての位置データの更新処理を省略してもよい。
図15A及び図15Bについての上述した説明は、端末装置100の更新部180による部分グローバルマップの更新のみならず、マップ管理サーバ10の更新部50によるグローバルマップの更新にも同様に適用され得る。この場合、図15A及び図15Bにおける部分グローバルマップはグローバルマップ記憶部30により記憶されているグローバルマップ、図15A及び図15Bにおける座標変換後のローカルマップは端末装置100からマップ管理サーバ10へ送信される部分グローバルマップ(又は座標変換後のローカルマップ)に対応する。
[3−9.表示制御部]
表示制御部190は、ユーザからの指示に応じて、マップ管理サーバ10からグローバルマップをダウンロードし、グローバルマップを少なくとも部分的に可視化して端末装置100の画面に出力する。より具体的には、例えば、表示制御部190は、ユーザからの指示入力を検知すると、グローバルマップの送信要求をマップ管理サーバ10のグローバルマップ配信部60へ送信する。そうすると、マップ管理サーバ10のグローバルマップ配信部60から、グローバルマップ記憶部30により記憶されているグローバルマップが配信される。表示制御部190は、かかるグローバルマップを受信し、ユーザが望む領域(ユーザが現在位置している領域以外の領域であってよい)についての物体の位置を可視化して画面に出力する。
<4.処理の流れ>
図16は、本実施形態に係るマップ管理サーバ10と端末装置100との間のマップ更新処理の流れの一例を示すフローチャートである。
図16を参照すると、まず、端末装置100の初期化部120により、撮像部110から入力される入力画像を用いて、グローバル座標系における端末装置100の位置が初期化される(ステップS302)。初期化部120による初期化処理は、例えば、端末装置100の起動時、又は端末装置100における所定のアプリケーションの起動時などに行われ得る。
次に、端末装置100のグローバルマップ取得部130からマップ管理サーバ10へ、グローバル座標系における端末装置100の位置に関する情報が送信される(ステップS304)。端末装置100の位置に関する情報とは、例えば、端末装置100のグローバル座標系における座標であってもよく、その代わりに端末装置100が位置するエリアを識別するためのエリア識別子であってもよい。
次に、マップ管理サーバ10の部分グローバルマップ抽出部40により、グローバルマップ記憶部30に記憶されているグローバルマップのサブセットである端末装置100のための部分グローバルマップが抽出される(ステップS306)。
次に、マップ管理サーバ10の部分グローバルマップ抽出部40から端末装置100のグローバルマップ取得部130へ、端末装置100のための部分グローバルマップが送信される(ステップS308)。
次に、端末装置100のローカルマップ生成部140により、入力画像及び特徴データに基づいて、周囲の物体の位置を表現するローカルマップが生成される(ステップS310)。
次に、端末装置100の算出部160により、部分グローバルマップに含まれる物体の位置データ及びローカルマップに含まれる物体の位置データに基づいて、グローバル座標系を基準とするローカルマップの相対的な位置及び姿勢が算出される(ステップS312)。そして、算出部160により算出されたローカルマップの相対的な位置及び姿勢に応じて、変換部170により、ローカルマップに含まれる物体の位置データがグローバル座標系のデータに座標変換される
次に、端末装置100の更新部170により、座標変換後のローカルマップに含まれる物体の位置データを用いて、端末装置100の記憶部132に記憶されている部分グローバルマップが更新される。また、グローバル座標系における端末装置100の位置が更新される(ステップS314)。
次に、端末装置100の更新部170からマップ管理サーバ10の更新部50へ、更新後の部分グローバルマップが送信される(ステップ316)。そして、マップ管理サーバ10の更新部50により、更新後の部分グローバルマップに含まれる物体の位置データを用いて、グローバルマップ記憶部30に記憶されているグローバルマップが更新される(ステップS318)。
その後、定期的に、又は要求に応じて、ローカルマップの生成(ステップS310)からグローバルマップの更新(ステップS318)までの処理が繰り返される。また、例えば、端末装置100の位置が部分グローバルマップの中心位置から所定の距離以上離れた場合には、最新の端末装置100の位置に基づく部分グローバルマップの取得(ステップS304)からの処理が行われ得る。
ユーザは、このようなマップ更新処理により更新されるグローバルマップを、マップ管理サーバ10のグローバルマップ配信部60及び端末装置100の表示制御部190を通じて提供される表示機能を用いて、端末装置100の画面上で閲覧することができる。
<5.変形例>
[5−1.スーパークライアント]
ここまで、マップ管理サーバ10と端末装置100との間でマップ更新処理が行われる例について主に説明した。しかしながら、本発明は、かかる例に限定されない。例えば、いずれかのユーザが保持する端末装置がマップ管理サーバ10と同等のグローバルマップ管理機能を備えてもよい。そのような端末装置を、本節ではスーパークライアントという。
図17は、一例としてのスーパークライアント200の構成の一例を示すブロック図である。図17を参照すると、スーパークライアント200は、通信インタフェース210、サーバ処理モジュール220、クライアント処理モジュール230及び表示制御部240を備える。
通信インタフェース210は、スーパークライアント200と他の端末装置(例えば、図5に例示した端末装置100)との間の通信接続を仲介するインタフェースである。通信インタフェース210は、無線通信インタフェースであってもよく、有線通信インタフェースであってもよい。
サーバ処理モジュール220は、上述したマップ管理サーバ10と同等のグローバルマップ管理機能を有するモジュールである。サーバ処理モジュール220は、グローバルマップ記憶部30、部分グローバルマップ抽出部40、更新部50及びグローバルマップ配信部60を含む。サーバ処理モジュール220は、他の端末装置との間で図16を用いて説明したようなマップ更新処理を行うことに加えて、後述するクライアント処理モジュール230との間でもマップ更新処理を行う。
クライアント処理モジュール230は、上述した端末装置100と同等のグローバルマップの更新及び閲覧等の機能を有するモジュールである。クライアント処理モジュール230は、撮像部110、初期化部120、グローバルマップ取得部130、記憶部132、ローカルマップ生成部140、算出部160、変換部170及び更新部180を含む。
表示制御部240は、ユーザからの指示に応じて、サーバ処理モジュール220のグローバルマップ記憶部30により記憶されているグローバルマップを少なくとも部分的に可視化して画面に出力する。また、表示制御部240は、クライアント処理モジュール230の記憶部132に記憶されている部分グローバルマップ又はローカルマップを可視化して画面に出力してもよい。
このようなスーパークライアント200と1つ以上の端末装置100とを用いることにより、例えば、P2P(Peer to Peer)を用いた通信接続を介して複数のユーザが1つのグローバルマップを共有することが可能となる。
[5−2.付加情報の共有]
端末装置100は、例えば、撮像部110を用いて撮像した画像などの追加情報を座標データと関連付けて、部分グローバルマップと共にマップ管理サーバ10へ送信してもよい。そして、マップ管理サーバ10のグローバルマップ配信部60及び端末装置100の表示制御部190を通じて当該追加情報をも閲覧可能とすることで、動的に更新されるグローバルマップと関連付けられた追加情報を複数のユーザが共有することが可能となる。追加情報とは、例えば端末装置100において撮像された画像そのものであってもよく、画像に映った文字等の認識結果などであってもよい。例えば、路上に駐車している車のナンバーの読み取り結果をグローバルマップ内の車の位置データと関連付けて共有することにより、駐車禁止などの交通違反の検挙に役立てることができる(図18参照)。また、商店街の各店舗における商品の価格情報をグローバルマップ内の商品の位置データと関連付けて共有することにより、ユーザによるショッピングの際の利便性の向上及び商品の販促効果を期待することができる。また、倉庫にある在庫品のデータをグローバルマップ内の商品の位置データと関連付けて共有することにより、在庫管理が容易となる。
<6.まとめ>
ここまで、図1〜図18を用いて、本発明の一実施形態及びその応用例について説明した。本実施形態によれば、端末装置100又はスーパークライアント200などの情報処理装置により、複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップの少なくとも一部分である部分グローバルマップが取得されると共に、当該装置により検出可能な周囲の物体の位置を表現するローカルマップが生成される。そして、ローカルマップに含まれる物体の位置データに基づいて、上記部分グローバルマップ及び複数のユーザ間で共有されるグローバルマップが更新される。それにより、実空間内の物体の位置の変化を迅速にユーザ間で共有することが可能となる。また、ローカルマップ生成処理において検出される端末装置100の周囲の物体の位置データをグローバルマップに追加することができるため、サービス提供者によって詳細なマップが提供されない空間においても、より詳細な物体の位置データを複数のユーザ間で共有することができる。
本実施形態によれば、部分グローバルマップに含まれる物体の位置データ及びローカルマップに含まれる物体の位置データに基づいて、グローバル座標系を基準とするローカルマップの相対位置及び姿勢が算出された後、その算出結果に応じて座標変換されたローカルマップの位置データを用いて、上述した更新処理が行われる。従って、ローカルマップ座標系に制約が課されないことから、ユーザは、上記情報処理装置を自由に持ち運びながら、動的に更新されるグローバルマップを他のユーザと共有することができる。
また、本実施形態によれば、上記部分グローバルマップは、グローバルマップを保持するサーバ装置から取得される。かかる部分グローバルマップは、実空間内の情報処理装置の位置に関する情報に応じて抽出される、グローバルマップのサブセットである。従って、複数のユーザ間でのグローバルマップの共有に際して、グローバルマップの更新処理のための通信コストの増大が抑制される。
また、本実施形態によれば、SLAM技術を応用することにより、撮像装置からの入力画像と物体の外観の特徴を表す特徴データとに基づいて、ローカルマップが生成される。それにより、上記情報処理装置が単眼カメラのみを有する場合にも、高い精度で物体の位置を検出してグローバルマップを更新することができる。
また、本実施形態によれば、グローバルマップ及びローカルマップは、実空間内の各物体についての位置データと当該位置データに関するタイムスタンプとを含む。従って、複数のユーザによる更新の競合をタイムスタンプの比較により解消することができると共に、例えば、ユーザにより指定される過去の位置データを閲覧することも可能となる。
なお、本明細書において説明した情報処理装置100による一連の処理は、典型的には、ソフトウェアを用いて実現される。一連の処理を実現するソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPU(Central Processing Unit)などのプロセッサにより実行される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 マップ管理サーバ
100 端末装置
110 撮像部
130 グローバルマップ取得部
140 ローカルマップ生成部
160 算出部
170 変換部
180 更新部

Claims (14)

  1. 複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップの少なくとも一部分を取得するグローバルマップ取得部と;
    前記複数のユーザのうちの1人のユーザの装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するローカルマップ生成部と;
    前記ローカルマップに含まれる物体の位置データに基づいて、前記グローバルマップを更新する更新部と;
    を備える情報処理装置。
  2. 前記情報処理装置は、
    前記グローバルマップに含まれる物体の位置データ及び前記ローカルマップに含まれる物体の位置データに基づいて、前記グローバルマップに対する前記ローカルマップの相対位置を算出する算出部と;
    前記ローカルマップの前記相対位置に応じて、前記ローカルマップに含まれる物体の位置データを前記グローバルマップの座標系のデータに座標変換する変換部と;
    をさらに備え、
    前記更新部は、前記変換部による座標変換後の前記ローカルマップに含まれる物体の位置データを用いて、前記グローバルマップを更新する、
    請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、前記1人のユーザが有する端末装置である、
    請求項1又は請求項2に記載の情報処理装置。
  4. 前記グローバルマップ取得部は、前記グローバルマップを保持するサーバ装置から前記グローバルマップの少なくとも一部分を取得し、
    前記更新部は、物体の位置データを前記サーバ装置へ送信することにより、前記サーバ装置の前記グローバルマップを更新する、
    請求項3に記載の情報処理装置。
  5. 前記グローバルマップ取得部は、前記グローバルマップのうち、前記実空間内の前記端末装置の位置を含む局所的な領域に対応する一部分を取得する、請求項4に記載の情報処理装置。
  6. 前記グローバルマップ取得部は、前記グローバルマップのうち、前記端末装置の近傍に位置する所定の数の物体の位置を表現する一部分を取得する、請求項4に記載の情報処理装置。
  7. 前記ローカルマップ生成部は、撮像装置を用いて実空間を撮影することにより得られる入力画像と、1つ以上の物体の外観の特徴を表す特徴データとに基づいて、前記ローカルマップを生成する、請求項1に記載の情報処理装置。
  8. 前記算出部は、前記グローバルマップ及び前記ローカルマップに共通して含まれる非移動物体の位置データに基づいて、前記ローカルマップの前記相対位置を算出する、請求項2に記載の情報処理装置。
  9. 前記算出部は、前記ローカルマップに含まれる物体の位置データを前記グローバルマップの座標系のデータに変換した場合に、当該変換後のデータと前記グローバルマップに含まれる物体の位置データとの間の差が全体として小さくなるように、前記ローカルマップの前記相対位置を算出する、請求項2に記載の情報処理装置。
  10. 前記グローバルマップは、前記実空間内の各物体についての前記グローバルマップの座標系における位置データと当該位置データに関するタイムスタンプとを含む、請求項1に記載の情報処理装置。
  11. 前記情報処理装置は、
    ユーザからの指示に応じて、前記グローバルマップを少なくとも部分的に可視化して画面に出力する表示制御部、
    をさらに備える、請求項1に記載の情報処理装置。
  12. 情報処理装置を用いて、複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップを更新するためのマップ更新方法であって:
    前記グローバルマップの少なくとも一部分を取得するステップと;
    前記情報処理装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するステップと;
    前記ローカルマップに含まれる物体の位置データに基づいて、前記グローバルマップを更新するステップと;
    含むマップ更新方法。
  13. 情報処理装置を制御するコンピュータを:
    複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップの少なくとも一部分を取得するグローバルマップ取得部と;
    前記複数のユーザのうちの1人のユーザの装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するローカルマップ生成部と;
    前記ローカルマップに含まれる物体の位置データに基づいて、前記グローバルマップを更新する更新部と;
    として機能させるための、プログラム。
  14. 複数のユーザが活動する実空間内の物体の位置を表現するグローバルマップを記憶媒体を用いて記憶しているサーバ装置と;
    前記複数のユーザのうちの1人のユーザが保持する情報処理装置であって、
    前記サーバ装置から、前記グローバルマップの少なくとも一部分を取得するグローバルマップ取得部、
    前記情報処理装置により検出可能な周囲の物体の位置を表現するローカルマップを生成するローカルマップ生成部、
    及び、前記ローカルマップに含まれる物体の位置データに基づいて、前記グローバルマップを更新する更新部、
    を備える情報処理装置と;
    を含む情報処理システム。
JP2010051731A 2010-03-09 2010-03-09 情報処理装置、マップ更新方法、プログラム及び情報処理システム Active JP5471626B2 (ja)

Priority Applications (13)

Application Number Priority Date Filing Date Title
JP2010051731A JP5471626B2 (ja) 2010-03-09 2010-03-09 情報処理装置、マップ更新方法、プログラム及び情報処理システム
EP11156227.8A EP2372582B1 (en) 2010-03-09 2011-02-28 Information processing device, map update method, program, and information processing system
KR1020110017936A KR20110102174A (ko) 2010-03-09 2011-02-28 정보 처리 장치, 맵 갱신 방법, 프로그램 및 정보 처리 시스템
US13/037,788 US9014970B2 (en) 2010-03-09 2011-03-01 Information processing device, map update method, program, and information processing system
RU2011108115/08A RU2481625C2 (ru) 2010-03-09 2011-03-02 Устройство обработки информации, способ обновления карты, программа и система обработки информации
CN201110051888.8A CN102194367B (zh) 2010-03-09 2011-03-02 信息处理设备、地图更新方法以及信息处理系统
US14/691,197 US9449023B2 (en) 2010-03-09 2015-04-20 Information processing device, map update method, program, and information processing system
US15/041,752 US10599687B2 (en) 2010-03-09 2016-02-11 Information processing device, map update method, program, and information processing system
US15/253,188 US9727580B2 (en) 2010-03-09 2016-08-31 Information processing device, map update method, program, and information processing system
US15/647,813 US10083188B2 (en) 2010-03-09 2017-07-12 Information processing device, map update method, program, and information processing system
US16/122,125 US10803098B2 (en) 2010-03-09 2018-09-05 Information processing device, map update method, program, and information processing system
US17/007,858 US11762887B2 (en) 2010-03-09 2020-08-31 Information processing device, map update method, program, and information processing system
US18/233,075 US20230385309A1 (en) 2010-03-09 2023-08-11 Information processing device, map update method, program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010051731A JP5471626B2 (ja) 2010-03-09 2010-03-09 情報処理装置、マップ更新方法、プログラム及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2011186808A true JP2011186808A (ja) 2011-09-22
JP5471626B2 JP5471626B2 (ja) 2014-04-16

Family

ID=44475192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010051731A Active JP5471626B2 (ja) 2010-03-09 2010-03-09 情報処理装置、マップ更新方法、プログラム及び情報処理システム

Country Status (6)

Country Link
US (8) US9014970B2 (ja)
EP (1) EP2372582B1 (ja)
JP (1) JP5471626B2 (ja)
KR (1) KR20110102174A (ja)
CN (1) CN102194367B (ja)
RU (1) RU2481625C2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016515254A (ja) * 2013-03-15 2016-05-26 クアルコム,インコーポレイテッド クライアント−サーバベースの動的検索
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法
JP2017184136A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
KR20180004109A (ko) * 2015-05-11 2018-01-10 구글 엘엘씨 모바일 디바이스 현지화를 위한 영역 서술 파일의 크라우드-소싱 생성 및 업데이트
WO2019171916A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 ロボット管理システム、ロボット管理方法、情報処理装置、情報処理方法および情報処理プログラム
JP2020503507A (ja) * 2016-12-23 2020-01-30 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. 測位方法、端末及びサーバー
WO2020054498A1 (ja) * 2018-09-13 2020-03-19 ソニー株式会社 情報処理装置、端末装置、情報処理システム、情報処理方法及びプログラム
JP2020526829A (ja) * 2017-07-07 2020-08-31 ナイアンティック, インコーポレイテッドNiantic,Inc. クラウド対応の拡張現実
WO2020178916A1 (ja) * 2019-03-01 2020-09-10 株式会社ソニー・インタラクティブエンタテインメント 環境地図管理装置、環境地図管理システム、環境地図管理方法及びプログラム
KR20210037469A (ko) * 2019-09-27 2021-04-06 (주)서울로보틱스 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
WO2021125190A1 (ja) * 2019-12-19 2021-06-24 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法
WO2021140631A1 (ja) * 2020-01-09 2021-07-15 マクセル株式会社 空間認識システム、空間認識方法、および情報端末
WO2021156977A1 (ja) * 2020-02-05 2021-08-12 マクセル株式会社 空間認識システム、空間認識方法、情報端末、およびサーバ装置
JP2021162980A (ja) * 2020-03-31 2021-10-11 株式会社博報堂Dyホールディングス 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム
JP2022501684A (ja) * 2019-08-23 2022-01-06 上海亦我信息技術有限公司 撮影に基づく3dモデリングシステムおよび方法、自動3dモデリング装置および方法
JP2022530821A (ja) * 2019-06-28 2022-07-01 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 座標系のアライメント方法及び装置、電子機器並びに記憶媒体
JP2022537984A (ja) * 2019-07-29 2022-08-31 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 情報処理方法、測位方法及び装置、電子機器並びに記憶媒体
WO2023132269A1 (ja) * 2022-01-06 2023-07-13 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2024009581A1 (ja) * 2022-07-06 2024-01-11 キヤノン株式会社 情報処理システム、情報処理装置、端末装置および情報処理システムの制御方法
US11983820B2 (en) 2019-07-29 2024-05-14 Zhejiang Sensetime Technology Development Co., Ltd Information processing method and device, positioning method and device, electronic device and storage medium

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007094868A2 (en) 2005-10-28 2007-08-23 Mojix, Inc. Rfid receiver
EP2137710B1 (en) 2007-03-23 2019-10-09 Mojix, Inc. Rfid systems using distributed exciter network
EP3232414A1 (en) 2008-04-14 2017-10-18 Mojix, Inc. Radio frequency identification tag location estimation and tracking system
JP5471626B2 (ja) * 2010-03-09 2014-04-16 ソニー株式会社 情報処理装置、マップ更新方法、プログラム及び情報処理システム
KR101763221B1 (ko) 2010-04-14 2017-07-31 모직스, 인코포레이티드 Rfid 시스템을 이용하여 수집된 시공간 데이터에서 패턴들을 검출하는 시스템 및 방법
US9602316B2 (en) 2011-03-07 2017-03-21 Mojix, Inc. Multiple symbol noncoherent soft output detector
CN103259616B (zh) * 2012-02-20 2016-12-28 联想(北京)有限公司 一种数据传输方法
CN103297486B (zh) * 2012-03-05 2017-03-29 联想(北京)有限公司 即时定位与地图构建方法和设备
NL2008490C2 (nl) * 2012-03-15 2013-09-18 Ooms Otto Bv Werkwijze, inrichting en computerprogramma voor het extraheren van informatie over een of meerdere ruimtelijke objecten.
CN103325296B (zh) * 2012-03-19 2016-03-02 联想(北京)有限公司 用于即时定位与地图构建的信息处理方法和设备
CN103389486B (zh) * 2012-05-07 2017-04-19 联想(北京)有限公司 控制方法和电子设备
CN103854006A (zh) * 2012-12-06 2014-06-11 腾讯科技(深圳)有限公司 图片识别方法及装置
CN103901884B (zh) * 2012-12-25 2017-09-29 联想(北京)有限公司 信息处理方法和信息处理设备
US9111156B2 (en) 2013-03-15 2015-08-18 Mojix, Inc. Systems and methods for compressive sensing ranging evaluation
US20140347492A1 (en) * 2013-05-24 2014-11-27 Qualcomm Incorporated Venue map generation and updating
US9036867B2 (en) * 2013-08-12 2015-05-19 Beeonics, Inc. Accurate positioning system using attributes
NL2012485B1 (en) * 2014-03-20 2016-01-18 Lely Patent Nv Method and system for navigating an agricultural vehicle on a land area.
CN103940435B (zh) * 2014-05-04 2019-04-23 乔东江 道路地图的完善方法、系统以及经其完善的道路地图
US9723109B2 (en) * 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US9541404B2 (en) 2014-08-29 2017-01-10 Samsung Electronics Co., Ltd. System for determining the location of entrances and areas of interest
DE102014013208B3 (de) * 2014-09-06 2016-01-14 Audi Ag Verfahren zur Navigation eines Benutzers zwischen einer ersten Position innerhalb eines Gebäudes und einer zweiten Position
JP2016085482A (ja) * 2014-10-22 2016-05-19 株式会社リコー 情報処理装置、情報処理システム、配置情報生成方法及びプログラム
US10534970B2 (en) * 2014-12-24 2020-01-14 Datalogic Ip Tech S.R.L. System and method for reading direct part marking (DPM) codes on objects
US11370422B2 (en) * 2015-02-12 2022-06-28 Honda Research Institute Europe Gmbh Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
US9883337B2 (en) * 2015-04-24 2018-01-30 Mijix, Inc. Location based services for RFID and sensor networks
CN104916216A (zh) * 2015-06-26 2015-09-16 深圳乐行天下科技有限公司 一种地图构建方法及系统
US10415978B2 (en) 2015-11-20 2019-09-17 Samsung Electronics Co., Ltd. Landmark location determination
JP6790417B2 (ja) * 2016-03-31 2020-11-25 ソニー株式会社 情報処理装置及び情報処理サーバ
EP3322149B1 (en) * 2016-11-10 2023-09-13 Tata Consultancy Services Limited Customized map generation with real time messages and locations from concurrent users
WO2018120010A1 (en) * 2016-12-30 2018-07-05 Intel Corporation Memory sharing for application offload from host processor to integrated sensor hub
CN106643701B (zh) * 2017-01-16 2019-05-14 深圳优地科技有限公司 一种机器人互相检测方法及装置
JPWO2018181974A1 (ja) * 2017-03-30 2020-05-14 パイオニア株式会社 判定装置、判定方法、及び、プログラム
WO2018185972A1 (ja) * 2017-04-03 2018-10-11 三菱電機株式会社 マップデータ生成装置および方法
DE102017126861A1 (de) * 2017-11-15 2019-05-16 Innogy Innovation Gmbh Verfahren und Vorrichtung zur Positionsbestimmung
CN107818592B (zh) * 2017-11-24 2022-04-01 北京华捷艾米科技有限公司 协作式同步定位与地图构建的方法、系统及交互系统
KR102374570B1 (ko) * 2017-11-28 2022-03-14 제이에프이 스틸 가부시키가이샤 설비 관리 시스템
CN111263960B (zh) * 2018-01-15 2022-04-05 Sk电信有限公司 用于更新高清晰度地图的设备和方法
KR102221695B1 (ko) 2018-01-15 2021-03-02 에스케이텔레콤 주식회사 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법
WO2019205069A1 (en) * 2018-04-27 2019-10-31 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for updating 3d model of building
JP7139762B2 (ja) * 2018-07-31 2022-09-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
CN113950609A (zh) * 2019-06-03 2022-01-18 微软技术许可有限责任公司 使用信号指纹和会话特定标识符的粗略重定位
JP2021005267A (ja) 2019-06-27 2021-01-14 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
CN112256810B (zh) * 2019-07-21 2023-07-14 长沙智能驾驶研究院有限公司 智慧工地的工地地图更新方法、装置和计算机设备
CN111060135B (zh) * 2019-12-10 2021-12-17 亿嘉和科技股份有限公司 一种基于局部地图的地图修正方法及系统
US11466992B2 (en) * 2020-03-02 2022-10-11 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device and medium for detecting environmental change
CN111780771B (zh) * 2020-05-12 2022-09-23 驭势科技(北京)有限公司 一种定位方法、装置、电子设备及计算机可读存储介质
CN111672109B (zh) * 2020-06-10 2021-12-03 腾讯科技(深圳)有限公司 一种游戏地图生成的方法、游戏测试的方法以及相关装置
JP7474137B2 (ja) 2020-06-30 2024-04-24 キヤノン株式会社 情報処理装置およびその制御方法
CN112365521B (zh) * 2020-12-08 2021-08-27 萱闱(北京)生物科技有限公司 终端设备的速度监测方法、装置、介质和计算设备
CN113398577B (zh) * 2021-05-13 2024-04-09 杭州易现先进科技有限公司 一种线下空间的多人ar互动方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002243469A (ja) * 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2008304268A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2010500584A (ja) * 2006-08-15 2010-01-07 トムトム インターナショナル ベスローテン フエンノートシャップ ナビゲーション装置において使用するための改善された地図データを生成する方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0580167B1 (en) * 1992-07-23 1999-10-20 Aisin Aw Co., Ltd. Vehicle route guidance apparatus for researching for a route when vehicle goes out of route
JPH102950A (ja) * 1995-07-25 1998-01-06 Rookasu:Kk 位置決めシステム
JP3528452B2 (ja) * 1996-08-14 2004-05-17 トヨタ自動車株式会社 制動力制御装置
DE19738690C2 (de) * 1997-09-04 2002-05-29 Bosch Gmbh Robert Verfahren und Vorrichtung zur Steuerung der Bremsanlage eines Fahrzeugs
JP2006209784A (ja) 1998-10-19 2006-08-10 Sony Corp 情報処理システム、情報処理端末、情報処理装置及び情報処理方法
US6161071A (en) * 1999-03-12 2000-12-12 Navigation Technologies Corporation Method and system for an in-vehicle computing architecture
JP2002015215A (ja) * 2000-06-30 2002-01-18 Hitachi Ltd マルチメデア情報配信システムおよび携帯情報端末装置
US6827167B2 (en) * 2002-03-28 2004-12-07 Ford Global Technologies, Llc Hybrid electric vehicle torque distribution
US6629026B1 (en) * 2002-04-12 2003-09-30 Ford Motor Company Hybrid electric vehicle with motor torque fill in
US7027915B2 (en) * 2002-10-09 2006-04-11 Craine Dean A Personal traffic congestion avoidance system
WO2005093688A1 (ja) * 2004-03-25 2005-10-06 Xanavi Informatics Corporation ナビゲーション装置の交通情報収集システム
US7147078B2 (en) * 2004-07-01 2006-12-12 Ford Global Technologies, Llc Charging a fluid accumulator while operating a hybrid vehicle powertrain including an engine and a pump/motor
US7689331B2 (en) * 2004-12-01 2010-03-30 Ise Corporation Method of controlling engine stop-start operation for heavy-duty hybrid-electric and hybrid-hydraulic vehicles
CN100428286C (zh) * 2004-12-10 2008-10-22 私立逢甲大学 一种移动载具跟踪管理系统
US7444238B1 (en) * 2005-01-31 2008-10-28 Uniden America Corporation Global position mapping system having a mobile docking station and method for use of same
DE102005055751B4 (de) * 2005-04-21 2018-09-06 Ipgate Ag Druckmodulatorsteuerung
US7499713B2 (en) * 2005-04-28 2009-03-03 Northrop Grumann Corporation Systems and methods for condition and location monitoring of mobile entities
JP4250149B2 (ja) * 2005-05-10 2009-04-08 株式会社デンソー エンジン始動制御システム
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
JP5183029B2 (ja) * 2006-03-10 2013-04-17 日立オートモティブシステムズ株式会社 地図更新プログラム及び地図更新端末
ATE462956T1 (de) * 2006-03-31 2010-04-15 Research In Motion Ltd Verfahren zur kontrolle von kartenversionen und vorrichtung zur aktualisierung der verwendung von über ein netzwerk gewarteten kartendatensätzen für mobile kommunikationsvorrichtungen
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
DE112007002465B4 (de) * 2006-10-18 2013-04-11 Mitsubishi Electric Corp. Karteninformations-Verarbeitungsvorrichtung zum Hinzufügen eines nicht-registrierten Weges
CN101566471B (zh) * 2007-01-18 2011-08-31 上海交通大学 基于地面纹理的智能车视觉全局定位方法
JP2008185417A (ja) 2007-01-29 2008-08-14 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4725535B2 (ja) * 2007-02-27 2011-07-13 アイシン・エィ・ダブリュ株式会社 地図情報更新システム
US20080288162A1 (en) * 2007-05-17 2008-11-20 Nokia Corporation Combined short range and long range communication for traffic analysis and collision avoidance
JP4844978B2 (ja) * 2007-07-11 2011-12-28 本田技研工業株式会社 ナビ装置およびナビシステム
US9043138B2 (en) * 2007-09-07 2015-05-26 Green Driver, Inc. System and method for automated updating of map information
US20090177378A1 (en) * 2008-01-07 2009-07-09 Theo Kamalski Navigation device and method
US20090216438A1 (en) * 2008-02-21 2009-08-27 Microsoft Corporation Facility map framework
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
US8732246B2 (en) * 2008-03-14 2014-05-20 Madhavi Jayanthi Mobile social network for facilitating GPS based services
US20090281844A1 (en) * 2008-05-09 2009-11-12 Probst Joseph M Charter Transport Service Information Management System
ATE545077T1 (de) * 2008-05-23 2012-02-15 Fundacion Fatronik Rollstuhl und verfahren zum korrigieren der lenkung eines rollstuhls
TWI386626B (zh) * 2008-07-07 2013-02-21 Wistron Corp 用於一導航系統中的圖資更新裝置及相關導航系統
JP5013211B2 (ja) * 2008-08-21 2012-08-29 アイシン・エィ・ダブリュ株式会社 運転評価システム及び運転評価プログラム
JP5141507B2 (ja) * 2008-08-25 2013-02-13 村田機械株式会社 自律移動装置
JP5438936B2 (ja) 2008-08-29 2014-03-12 株式会社東芝 超音波診断装置、画像処理装置及び画像処理プログラム
US20100057562A1 (en) * 2008-09-03 2010-03-04 Ronen Gabbay System and method for mobile match mapping
US8219309B2 (en) * 2009-05-29 2012-07-10 Nokia Corporation Method and apparatus for a navigational graphical user interface
EA013011B1 (ru) * 2009-06-01 2010-02-26 Общество С Ограниченной Ответственностью "Телепроводник" Способ обновления и использования баз географических данных и пространственно-распределенная гибридная навигационная система для его реализации
US8818711B2 (en) * 2009-12-18 2014-08-26 Empire Technology Development Llc 3D path analysis for environmental modeling
JP2011145159A (ja) * 2010-01-14 2011-07-28 Denso Corp 道路学習装置
JP5471626B2 (ja) * 2010-03-09 2014-04-16 ソニー株式会社 情報処理装置、マップ更新方法、プログラム及び情報処理システム
US20110302214A1 (en) * 2010-06-03 2011-12-08 General Motors Llc Method for updating a database

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002243469A (ja) * 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2010500584A (ja) * 2006-08-15 2010-01-07 トムトム インターナショナル ベスローテン フエンノートシャップ ナビゲーション装置において使用するための改善された地図データを生成する方法
JP2008304268A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石川智也、外6名: "カメラと自蔵センサモジュールを併用したインタラクティブ3次元屋内環境モデラ", 電子情報通信学会技術研究報告, vol. 109, no. 215, JPN6013054470, 1 October 2009 (2009-10-01), pages 65 - 70, ISSN: 0002670680 *

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016515254A (ja) * 2013-03-15 2016-05-26 クアルコム,インコーポレイテッド クライアント−サーバベースの動的検索
KR20180004109A (ko) * 2015-05-11 2018-01-10 구글 엘엘씨 모바일 디바이스 현지화를 위한 영역 서술 파일의 크라우드-소싱 생성 및 업데이트
JP2018519558A (ja) * 2015-05-11 2018-07-19 グーグル エルエルシー 移動体装置ローカリゼーションのためのエリア記述ファイルのクラウドソーシングによる作成および更新
KR102044491B1 (ko) * 2015-05-11 2019-11-13 구글 엘엘씨 모바일 디바이스 현지화를 위한 영역 서술 파일의 크라우드-소싱 생성 및 업데이트
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法
JP2017184136A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2020503507A (ja) * 2016-12-23 2020-01-30 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. 測位方法、端末及びサーバー
US11430189B2 (en) 2017-07-07 2022-08-30 Niantic, Inc. Cloud assisted generation of local map data using novel viewpoints
JP2020526829A (ja) * 2017-07-07 2020-08-31 ナイアンティック, インコーポレイテッドNiantic,Inc. クラウド対応の拡張現実
JP7486565B2 (ja) 2017-07-07 2024-05-17 ナイアンティック, インコーポレイテッド クラウド支援型の新しい視点を利用したローカルマップデータの生成
JP7179819B2 (ja) 2017-07-07 2022-11-29 ナイアンティック, インコーポレイテッド クラウド対応の拡張現実
WO2019171916A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 ロボット管理システム、ロボット管理方法、情報処理装置、情報処理方法および情報処理プログラム
WO2020054498A1 (ja) * 2018-09-13 2020-03-19 ソニー株式会社 情報処理装置、端末装置、情報処理システム、情報処理方法及びプログラム
JPWO2020178916A1 (ja) * 2019-03-01 2021-09-30 株式会社ソニー・インタラクティブエンタテインメント 環境地図管理装置、環境地図管理システム、環境地図管理方法及びプログラム
WO2020178916A1 (ja) * 2019-03-01 2020-09-10 株式会社ソニー・インタラクティブエンタテインメント 環境地図管理装置、環境地図管理システム、環境地図管理方法及びプログラム
US11906322B2 (en) 2019-03-01 2024-02-20 Sony Interactive Entertainment Inc. Environment map management device, environment map management system, environment map management method, and program
JP7218426B2 (ja) 2019-03-01 2023-02-06 株式会社ソニー・インタラクティブエンタテインメント 環境地図管理装置、環境地図管理システム、環境地図管理方法及びプログラム
JP2022530821A (ja) * 2019-06-28 2022-07-01 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 座標系のアライメント方法及び装置、電子機器並びに記憶媒体
JP2022537984A (ja) * 2019-07-29 2022-08-31 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 情報処理方法、測位方法及び装置、電子機器並びに記憶媒体
US11983820B2 (en) 2019-07-29 2024-05-14 Zhejiang Sensetime Technology Development Co., Ltd Information processing method and device, positioning method and device, electronic device and storage medium
JP7328366B2 (ja) 2019-07-29 2023-08-16 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド 情報処理方法、測位方法及び装置、電子機器並びに記憶媒体
JP7223449B2 (ja) 2019-08-23 2023-02-16 上海亦我信息技術有限公司 撮影に基づく3dモデリングシステム
JP2022501684A (ja) * 2019-08-23 2022-01-06 上海亦我信息技術有限公司 撮影に基づく3dモデリングシステムおよび方法、自動3dモデリング装置および方法
KR102238522B1 (ko) 2019-09-27 2021-04-09 주식회사 서울로보틱스 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
KR20210037469A (ko) * 2019-09-27 2021-04-06 (주)서울로보틱스 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
WO2021125190A1 (ja) * 2019-12-19 2021-06-24 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法
JPWO2021140631A1 (ja) * 2020-01-09 2021-07-15
WO2021140631A1 (ja) * 2020-01-09 2021-07-15 マクセル株式会社 空間認識システム、空間認識方法、および情報端末
WO2021156977A1 (ja) * 2020-02-05 2021-08-12 マクセル株式会社 空間認識システム、空間認識方法、情報端末、およびサーバ装置
JPWO2021156977A1 (ja) * 2020-02-05 2021-08-12
JP2021162980A (ja) * 2020-03-31 2021-10-11 株式会社博報堂Dyホールディングス 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム
WO2023132269A1 (ja) * 2022-01-06 2023-07-13 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2024009581A1 (ja) * 2022-07-06 2024-01-11 キヤノン株式会社 情報処理システム、情報処理装置、端末装置および情報処理システムの制御方法

Also Published As

Publication number Publication date
US20160163039A1 (en) 2016-06-09
US10083188B2 (en) 2018-09-25
US9014970B2 (en) 2015-04-21
US10599687B2 (en) 2020-03-24
EP2372582B1 (en) 2018-08-01
US20150227554A1 (en) 2015-08-13
US20110224902A1 (en) 2011-09-15
US20160371301A1 (en) 2016-12-22
US11762887B2 (en) 2023-09-19
US9727580B2 (en) 2017-08-08
JP5471626B2 (ja) 2014-04-16
RU2481625C2 (ru) 2013-05-10
RU2011108115A (ru) 2012-09-10
EP2372582A3 (en) 2012-03-07
KR20110102174A (ko) 2011-09-16
US20230385309A1 (en) 2023-11-30
CN102194367B (zh) 2015-04-01
US20170322949A1 (en) 2017-11-09
US20190005068A1 (en) 2019-01-03
US20200401611A1 (en) 2020-12-24
EP2372582A2 (en) 2011-10-05
US10803098B2 (en) 2020-10-13
CN102194367A (zh) 2011-09-21
US9449023B2 (en) 2016-09-20

Similar Documents

Publication Publication Date Title
JP5471626B2 (ja) 情報処理装置、マップ更新方法、プログラム及び情報処理システム
US10592744B1 (en) System and method for determining position of a device
US11430189B2 (en) Cloud assisted generation of local map data using novel viewpoints
JP5920352B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106164982B (zh) 基于影像的电子设备定位
Chen et al. Rise of the indoor crowd: Reconstruction of building interior view via mobile crowdsourcing
Anagnostopoulos et al. Gaze-Informed location-based services
US20140300775A1 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
JP2021524636A (ja) デバイスローカリゼーションのためのマルチシンクアンサンブルモデル
CN115151948A (zh) 合并来自建图设备的局部地图
US11238665B2 (en) Multi-modality localization of users
WO2020054498A1 (ja) 情報処理装置、端末装置、情報処理システム、情報処理方法及びプログラム
CN116349222B (zh) 利用集成图像帧渲染基于深度的三维模型
WO2022153910A1 (ja) 検出システム、検出方法、及びプログラム
CN116349222A (zh) 利用集成图像帧渲染基于深度的三维模型
Peter Crowd-sourced reconstruction of building interiors
Ventura Wide-Area Visual Modeling and Tracking for Mobile Augmented Reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R151 Written notification of patent or utility model registration

Ref document number: 5471626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250