JP2013141049A - 世界座標系データベースを利用したサーバ及び端末 - Google Patents

世界座標系データベースを利用したサーバ及び端末 Download PDF

Info

Publication number
JP2013141049A
JP2013141049A JP2010067977A JP2010067977A JP2013141049A JP 2013141049 A JP2013141049 A JP 2013141049A JP 2010067977 A JP2010067977 A JP 2010067977A JP 2010067977 A JP2010067977 A JP 2010067977A JP 2013141049 A JP2013141049 A JP 2013141049A
Authority
JP
Japan
Prior art keywords
coordinate system
index
camera
world coordinate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010067977A
Other languages
English (en)
Inventor
Yoshinori Musha
義則 武者
Kiyoshi Ikehara
潔 池原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010067977A priority Critical patent/JP2013141049A/ja
Priority to PCT/JP2011/052868 priority patent/WO2011118282A1/ja
Publication of JP2013141049A publication Critical patent/JP2013141049A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Abstract

【課題】同一フレームに含まれない複数のマーカの相対的な位置・姿勢関係を、補助マーカを用いずに特定する。
【解決手段】特徴点が小グループにまとめられ、連続したフレーム間で追跡されて対応付けが行われる。あるいは、連続したフレーム間での小グループの追跡が、遮蔽やカメラアングルの急な変更などで中断した場合、照合処理を行うことで離れたフレーム間での対応付けがなされる。また、特徴フレームバッファ106および特徴DB108から読みだされる任意の2つのフレーム間で小グループの入れ替え度合いの大小に応じて、2種類の対応付けデータが生成され、カメラとマーカの位置・姿勢推定部109へ入力される。マーカ識別部104からのマーカ識別情報とその座標を特徴点として扱う。位置・姿勢推定部109では、対応付けされた小グループ群を仮想的に定義されたマーカとして扱い、カメラ、マーカおよび仮想マーカの位置・姿勢を推定する。
【選択図】図4

Description

本発明は、世界座標系のデータベースを利用したサーバ及び端末に係り、特に、拡張現実感すなわちAR(Augmented Reality)技術を用いて撮影映像に対象物の関連情報を重ねて情報提供するための実空間の座標情報を生成し、世界座標系のデータベースに蓄積し、蓄積されたこの情報を利用したAR表示を実現するサーバ及び端末に関する。
AR技術において、現実空間にコンピュータグラフィックス(CG)で作成された仮想空間のオブジェクト等を正確に重ね合わせるために、現実空間に配置されている対象物の3次元座標を推定することが行われている。ある位置・向きで撮影された端末のカメラ映像(動画)に映るマーカ(指標)の空間座標系と、別の位置・向きで撮影されたカメラ映像に映るマーカの空間座標系が同一なものとしないと、両者のマーカが相互にどのような位置や向きの関係で配置されるのか決定するができない。これを解決する方法として、両者のカメラ映像に共通に含まれるように、補助マーカを用意し、配置することで解決する方法が提案されている(特許文献1)。
スケール(大きさ)と回転に対して不変な特徴量を求めるための特徴点追跡法として、非特許文献1にはSIFT特徴量を用いる手法が、非特許文献2にはSURF特徴量を用いる手法が開示されている。
非特許文献3には、世界座標系に対応付けられたマーカと対応付けられていないマーカとを環境内に複数個配置し,それをカメラで取り込み、カメラに対するマーカの相対的な位置を推定する手法が開示されている。
特開2006−214832号公報
Lowe, David G. "Object recognition from local scale-invariant features", Proceedings of the International Conference on Computer Vision. 2, pp. 1150-1157, 1999 Herbert Bay, Andreas Ess, Tinne Tuytelaars, Luc Van Gool "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU), Vol. 110, No.3, pp. 346-359, 2008 G. Baratoff, et al., "Interactive Multi-Marker Calibration for Augmented Reality Application," ISMAR 2002, pp.107-116, 2002
AR技術を用いて、カメラ付き端末を保持するユーザに、対象物やマーカに関連する情報を提供するサービスが開発されつつある。このようなサービスを提供する際、利用者であるユーザが屋外で端末を利用する場合を想定すると、マーカの存在する2つの現実空間の間にマーカのない現実空間が存在することは多々あり、そのような空間に補助マーカが存在するとは限らない。また、マーカのない現実空間に備えて、ユーザに補助マーカを用意させることも現実的ではない。よって、マーカのない現実空間が存在する場合であっても、補助マーカを用いずにAR技術を用いたサービスを提供できる手法が必要である。
また、マーカに関連付いた情報をユーザに提供する場合、ユーザがマーカの検出またはマーカが表現する情報の識別に失敗した場合に、それに関連付いた情報を提供することができない。よって、マーカに関連する情報を提供するサービスのユーザビリティを向上させるために、ユーザがマーカの検出または識別に失敗した場合でもマーカの関連情報を提供する手法が必要である。
先行技術では、マーカの検出またはマーカが表現する情報の識別に失敗した場合に、それに関連付いた情報を提供することについての配慮が十分でなかった。
本発明の目的は、上記の課題を解決し、ユーザがAR技術を用いたユーザビリティの高いサービスを受けられる、世界座標系データベースを利用したサーバ及び端末を提供することにある。
本発明の代表的なものの一例を示すと次の通りである。本発明のサーバは、端末のカメラで撮影された映像を受信する機能と、前記映像を構成する複数の映像フレームについて各映像フレーム内の自然特徴量を抽出し特徴量データベースに蓄積する特徴抽出部と、AR関連情報を特定するための指標を前記各映像フレームから検出する指標検出部と、検出された前記指標を識別する指標識別部と、前記複数の映像フレームの前記自然特徴量の間の対応付けを行う特徴グループ化対応付け部と、前記カメラと前記指標との相対的な位置および姿勢を推定する位置・姿勢推定部と、前記位置・姿勢が既知の前記指標を基準にして前記映像フレームにおける未知の指標の座標および前記自然特徴量の座標を世界座標系に変換する世界座標系変換部と、変換された前記世界座標系の座標データを蓄積する世界座標系データベースとを備えている。
本発明によると、同一フレームに含まれない複数のマーカの相対的な位置・姿勢関係を、補助マーカを用いずに特定することができる。また、マーカ自体を撮影できなくとも、あるいは、マーカの検出または識別に失敗した場合でも、マーカ周辺を撮影することで、そのマーカの位置・姿勢を推定することができる。
本発明の第1の実施例になる、端末システムおよびサーバシステムの構成例と各端末システムおよびサーバシステムの機能モジュールの一例を示すブロック図。 第1の実施例における、端末システムおよびサーバシステムの処理手順の概要を示したフロー図。 第1の実施例における、屋外の現実空間でのマーカ及びビルと、カメラ位置・向きの撮像範囲の移動状況の関係を表す図。 第1の実施例における、世界座標系データベース作成・更新処理を行うユニットを説明する図。 第1の実施例における特徴量DB内のデータ構造の例を示す図。 第1の実施例における世界座標系DB内の、特徴点座標のデータ構造の例を示す図。 世界座標系DB内のデータ構造の例を示す図。 ビルの横に、マーカに関連する情報として仮想的な3Dオブジェクト(ロケット)が配置された例を示す図。 特徴点のグループ化対応付けを行うユニットの処理手順を示すPAD図。 移動ベクトルと対応付けデータとの関係を説明する模式図。 現実空間にある2つのマーカと、カメラで連続的に撮影された3つの特徴点フレームとの関係を示す図。 自然特徴点群の照合により、異なるフレーム内の2つのマーカの位置を推定して、世界座標系DBを生成する例の説明図。 マーカが視野にありマーカ識別が成功したときに、関連情報の2次元的な重ね合せ表示を行う構成例を示す図。 マーカが視野にありマーカ識別が成功したときに、マーカの関連情報の3次元的な重ね合せ表示をマーカに対して行う構成例を示す図。 視野の近くのマーカの位置・姿勢を推定し、マーカの関連情報や世界座標系DBの座標に対応づけられた情報を、映像と重ね合わせ表示する構成例を示す図。 マーカ識別が成功したときに、撮影映像に無い情報で、かつ、マーカの関連情報や世界座標系DBの座標に対応づけられた情報を、映像と重ね合わせ表示する構成例を示す図。 マーカ識別に失敗した場合に、マーカ周辺の撮影映像を利用してそのマーカの位置・姿勢を推定し、オブジェクトを重ね合せて表示した映像を示す図。 本発明の第2の実施例になる、世界座標系データベース作成および利用を行うシステムを示した機能モジュールの一例を示すブロック図。 本発明の第3の実施例になる、世界座標系データベース作成および利用を行うシステムを示した機能モジュールの一例を示すブロック図。
本発明は、マーカ以外の周囲環境から抽出する自然特徴とマーカを併用し、自然特徴をグループ化し、追跡し、照合することで、複数の映像中に含まれる自然特徴を対応づけて世界座標系データベース構築し、さらに、その情報を利用するサーバ及び端末に特徴がある。自然特徴としては、例えば、スケール不変量であるSIFT特徴量やSURF特徴量を用いることができる。
また、本発明は、複数の映像中に含まれる自然特徴の空間座標系を、マーカを基準にすることで世界座標系に変換してデータベースに蓄積する。さらに、マーカの配置も世界座標系において表現し、映像中に含まれるマーカ周辺の自然特徴群と、過去に蓄積された自然特徴とを、世界座標系の座標群において照合することで、マーカの位置・姿勢を推定する。
以下、図を参照しながら、本発明の実施例になる、世界座標系データベース作成および利用を行う端末システムおよびサーバシステムの構成例について詳細に説明する。なお、世界座標系は、ネットワークを介して不特定の端末ユーザやプロバイダが、実世界及びAR空間を表現するために、共通に利用できる座標系であれば良い。以下の説明では、このような共通の座標系として、世界座標系を用いるものとする。本発明で用いる世界座標系は、このような用途に適したものであれば、例えば地球座標系等、他の用語で定義されているものも含まれることは言うまでも無い。
また、本発明では、映像の1つのフレーム内で共通の座標をフレーム内共通座標系、複数のフレーム間で共通する座標をフレーム間共通座標系と定義する。さらに、実世界におけるカメラの位置や姿勢を表すための座標系をカメラ座標と定義する。
本発明の第1の実施例を、図1ないし図16を参照しながら説明する。
図1に、本発明の第1の実施例になる、世界座標系データベース作成および利用を行う、端末システムおよびサーバシステムの構成例を示す。図1の例では、複数のクライアント端末11、12、13(端末1、端末2、端末N)がインターネットまたは公衆回線などの通信ネットワーク14を介して、1つのサーバ15と接続されている。端末やサーバは、指標に関連した情報を提供するプロバイダ16とも接続可能である。ここではこのようなサーバ・クライアントの構成が可能なシステム構成を、以下に説明する。また、サーバ・クライアント間の通信データとして映像を送受する場合のシステム構成を示す。なお、サーバ及び端末は、いずれも、少なくとも1つのコンピュータを備えており、プログラムをメモリ上で実行させることにより、所定の機能が実現されるように構成されている。
実世界上の特定の被写体、例えばビル10や柱等には、実世界のカメラの撮影映像と重ねてAR表示を行うための関連情報を提供する機能を有する指標(マーカ)が設置されている。端末11、12、13には、夫々、少なくとも、動画撮影機能を有するカメラ101、表示部112、およびAR表示処理機能130が搭載されている。AR表示処理機能130は、以下に述べるように、プロバイダ16から提供される関連情報をカメラの撮影映像と重ねて表示部112にAR表示する機能を備えている。サーバ15には、カメラ101から受信した撮影映像を保持する映像バッファ150、この撮影映像の自然特徴量を抽出する特徴抽出部151(自然特徴抽出部102、特徴フレームバッファ106)と、この撮影映像から指標(マーカ)の有無を検出する指標検出部103と、検出された指標を識別する指標識別部104と、検出された指標に関連するAR表示を行うための情報をネット経由でプロバイダ16から取得する関連情報取得部105と、自然特徴が抽出された複数の映像フレームに関してこれらの映像フレーム間の特徴量の対応付けを行う特徴グループ化対応付け部107と、抽出された特徴量を保持する特徴量DB108と、カメラと指標の相対的な位置および姿勢を推定する位置・姿勢推定部152(カメラとマーカの位置・姿勢推定部109、マーカ位置推定部116)と、位置・姿勢が既知の指標を基準にして、前記映像フレーム内の未知の指標および自然特徴量の座標(フレーム内共通座標、または、フレーム間共通座標)を、世界座標系の座標に変換する世界座標系変換部153(世界座標系へのマッピング部113と世界座標系での照合部114)と、世界座標系での座標データを蓄積する世界座標系データベース115と、カメラ動き補完部154(カメラ動き補完部110、カメラ座標系への投影部117)と重ね合わせ表示処理部111と、が搭載される。重ね合わせ表示処理部111では、マーカ関連情報と映像バッファ150に保持されていた撮影映像とが、タイミング調整しながら重ね合わせ処理され、表示用データとして端末へ送信される。さらに、必要に応じて、地図変換部155、地図重ね合わせ部156も搭載される。
図2に基づいて、第1の実施例における、端末システムおよびサーバシステムの処理手順の概要を説明する。サーバ15では、いずれかの端末Nのカメラ(動画撮影部)101で撮影された映像フレームの保持、更新の処理と、この映像フレームの情報に基づく、世界座標系データベース作成、更新の処理と、この映像フレームの情報にAR表示を行うための関連情報を付加して端末Nの表示部に表示するための処理とが、並行して実行される。すなわち、端末N13からカメラで撮影した映像がサーバ15に送信されると、この映像はフレーム単位で映像バッファに保持される。サーバ15では、この映像についてフレーム毎に自然特徴抽出の処理や指標検出、指標識別の処理がなされる。
そして、これらの処理の結果を利用して、世界座標系データベース作成、更新の処理では、特徴量データベースを作成し、さらに、世界座標系データベースの作成、更新の処理がなされ、その結果が世界座標系データベース115に蓄積される。
また、自然特徴抽出の処理や指標検出、指標識別の処理の結果を利用して、AR表示を行うための関連情報が取得され、カメラの動きを補完したうえで、この関連情報と映像との重ね合わせ処理がなされ、その処理結果が端末Nに送信され、これに基づいて、端末Nの表示部112に自ら撮影した映像と、この映像に関連するAR表示関連情報とが、重ね合わせて端末Nの画面に表示される。これらの処理に際しては、特徴量DB108や世界座標系データベース115の情報も利用される。
なお、地図変換部155はカメラ座標から世界座標系に対応付いた地図上の座標に変換する機能を有し、地図重ね合わせ部156は、カメラの位置を地図上に重ねて表示する機能を有する。これにより、ユーザは、風景を撮影するだけで、ユーザ自信の現在地を把握することができるという効果がある。
図3は、端末Nのカメラ動画撮影部101で撮影された3つの映像フレームと現実空間との関係の一例を示す図である。現実空間として、ここでは屋外の複数のビルとマーカとが示されている。202はビル10Aに設置されたマーカA、203〜205はカメラ位置・向きを示す。201はカメラ位置・向き203からの撮像範囲、206はカメラ位置・向き204からの撮像範囲、207はカメラ位置・向き205からの撮像範囲、208は他のビルDに設置されたマーカBを示している。カメラ動画撮影部101で撮影された動画、すなわち各々、撮像範囲201、撮像範囲206、撮像範囲207に対応する、各映像フレーム209、210、211のデータは、逐一、サーバ15に送信される。
[世界座標系データベースの作成・更新処理]
世界座標系データベース作成・更新処理について、図4〜図12を参照して説明する。最初に、世界座標系データベース作成・更新処理を行うユニットの機能について説明する。図4において、カメラ動画撮影部101で撮影された動画の映像フレームから、自然特徴抽出部102にて自然特徴が抽出される。特徴フレームバッファ106にて、自然特徴量がフレーム毎にまとめられてバッファリングされる。これらフレーム単位のデータは、特徴DB108に蓄積されると同時に、特徴点のグループ化対応付け部107へ入力される。
特徴DB108内のデータ構造の一例を、図5に示す。フレーム番号は、映像フレームを示す番号である。画面上の点の座標は、フレーム内共通座標系におけるあるフレームでの特徴点を区別する番号(1,2,3,−)と、画面上での各特徴点の座標X,Y(2次元)を示すデータ(10,20等)で構成される。それが特徴点の数だけフレームごとに格納される。
自然特徴抽出部102での、自然特徴の抽出方法として、SIFT特徴量(非特許文献1参照)やSURF特徴量(非特許文献2参照)、その他の公知の方法を用いることができる。いずれもロバストに抽出可能なスケール不変量として得られる。ただし、抽出される特徴量は、画像または映像フレーム中の座標が特定できる情報であれば、点や線分、その他の色・形状等のものでもよい。
特徴点のグループ化対応付け部107では、特徴点が小グループにまとめられ、連続したフレーム間で追跡されて対応付けが行われる。あるいは、連続したフレーム間での小グループの追跡が、遮蔽やカメラアングルの急な変更などで中断した場合、照合処理を行うことで離れたフレーム間での小グループ群の対応付けされる。また、特徴フレームバッファ106および特徴DB108から読みだされる任意の2つのフレーム間で小グループの入れ替え度合いの大小に応じて、2種類の対応付けデータが生成され、カメラとマーカの位置・推定部109へ入力される。マーカ識別部104からのマーカ識別情報とその座標を特徴点として扱う。なお、特徴点のグループ化対応付け部107については、図9を参照して改めて説明する。
カメラとマーカの位置・推定部109では、対応付けデータによって対応付けされた小グループ群を実空間上にはマーカは実在しないが計算上仮想的に定義された仮想マーカとして扱い、カメラの位置・姿勢およびマーカおよび仮想マーカの位置・姿勢を推定する。推定された位置・姿勢を示す座標データは世界座標系へのマッピング部113へ入力される。
この推定方法には、例えば非特許文献3に記載の公知の方法を用いることが出来る。
一方、カメラ動画撮影部101からの映像フレームは、マーカ検出部103へも入力されて、実空間上に設置されたマーカが検出される。さらに、検出されたマーカが表現している情報が、マーカ識別部104によって識別される。このマーカはURLや情報IDなどのリンクやキーワード等を表現することが可能である。
このとき、必要に応じてマーカの関連情報も取得され、世界座標系へのマッピング部113へ送付される。すなわち、関連情報取得部105で、リンク情報であればリンク先の情報を、キーワード等であればそれを検索キーとして検索した情報をマーカ関連情報として、プロバイダ16等からネット経由で取得する。関連情報取得部105は、システム外部のデータベースやWeb情報を遂次入手することも可能であるが、その内部にマーカ関連情報のデータベースを保有していてもよい。
また、カメラとマーカの位置・姿勢推定109で、フレーム毎の座標系(フレーム内共通座標系)が複数のフレーム間での共通座標系(フレーム間共通座標系)に変換される。取得されたマーカ関連情報が、テキストや画像のデータであれば、3次元的なCGオブジェクトに貼り付けられ、あるいは3次元的なCGオブジェクトであればサイズのスケールが調整されて、世界座標系へのマッピング部113へ送付される。
世界座標系へのマッピング部113では、位置と姿勢が世界座標系で既知のマーカを用いて、推定されたマーカおよび仮想マーカの座標を世界座標系へマッピングされる。マーカが既知であるか否かについては、マーカ識別情報を世界座標系DB115で検索し、登録されているか否かで確認する。すなわち、既知のマーカは、マーカ識別情報に対応付けて世界座標系での座標データを世界座標系DB115に登録しておくものとする。
もし、検出されたマーカが既知のマーカであった場合、そのマーカについてカメラとマーカの位置・姿勢推定部109で推定された相対的な位置・姿勢情報が、世界座標系として登録された位置・姿勢情報と同一であることが判明する。そのため、その相対的な位置・姿勢情報が世界座標系への位置・姿勢情報へ変換されるような変換処理を、未知のマーカおよび自然特徴に対しても適用することで、世界座標系へのマッピングを実現する。こうして得られた未知のマーカおよび自然特徴の世界座標系での座標データは世界座標系DB115へ登録される。
同様に、自然特徴抽出部102、特徴フレームバッファ106、特徴点のグループ化対応付け部107、カメラとマーカの位置・姿勢推定109を経由して世界座標系へのマッピング113に入力される自然特徴量のフレーム間の共通座標系(フレーム間共通座標系)も、その座標変換式で、世界座標へ変換し、世界座標系DB115へ格納する。
図6に、世界座標系DB115内の、特徴点座標のデータ構造の一例を示す。この例は、世界座標系が緯度、経度、高さで表現された例である。
特徴度合いとは、特徴点の抽出しやすさの指標で、高いほど確実に抽出しやすいことを示し、特徴点の照合の際の重みとして使われる(SIFT、SURF特徴量を参照)。
照合回数は、その特徴点の(撮影回数−1)と同じ。照合して、成功するたびに照合成功数が増え、特徴点の信頼度が増していく。
特徴点の信頼度=照合成功数/照合回数
照合の頻度を減らして計算速度を高速化、効率化するような場合に、特徴点の信頼度が高い特徴点が優先的に照合に利用される。
登録日時は、経時変化で変わりうるため(ビルがなくなったとか、印刷がかすれたとか)、情報の古さを比較できる。情報を更新する目安となる。
関連情報IDは、次のテーブルのエントリーを示す。
図7に、世界座標系DB内のデータ構造の例を示す。このデータ構造は、図8に示した、ビルの横に、関連情報取得部105で取得されたマーカに関連する情報として、仮想的な3Dオブジェクト(ロケット)が配置された例に対応している。
なお、本発明において、マーカの点は、「マーカ特徴点」、マーカが無い点は、「自然特徴点」、両者合わせて、「特徴点」と定義する。
姿勢方向X,Y,Zは、オブジェクトの配置の基準となる平面に対する法線ベクトルを示す。基準点IDは、その平面に含まれる特徴点の一つを示す。オブジェクトを配置する中心点付近の特徴点を採用する。マーカ構成点IDは、マーカを構成する特徴点を示す。オブジェクトIDは、2Dや3Dのオブジェクトを指し示す。例えば、AR表示を行うためのロケットの3DデータがオブジェクトIDの一例である。URLは、プロバイダ等、関連情報IDに対応づけられるその他の情報への参照先を示す。
図8に示したように、マーカAと関連づけられた道路上の自然特徴点(点ID=5)の位置で、道路の法線方向にAR表示を行うロケットの向きが向けられている。すなわち、図8において、701は、マーカAのマーカ特徴点(点ID=1)、702はマーカAのマーカ特徴点(点ID=2)、703は白線の自然特徴点(点ID=5)、704は道路、705はマーカAのマーカ特徴点(点ID=3)、706はマーカA、707はマーカAのマーカ特徴点(点ID=4)、708はビル、709は道路の法線ベクトル、710はAR表示を行う3Dオブジェクト(ロケット、オブジェクトID=1)を示している。
世界座標系へのマッピング113では、マーカ識別部104、特徴点のグループ化対応付け部107、カメラとマーカの位置・姿勢推定109を経由して、マーカのフレーム間共通座標(1)と識別情報が入力される。世界座標DB115では、マーカの世界座標(2)と識別情報が格納されており、マーカの識別情報が一致したものについて、フレーム間共通座標(1)と世界座標(2)が実は同一のものであるので、フレーム間共通座標(1)から世界座標(2)への座標変換式を作成する。
このようにして、それ以前に世界座標系での座標データが未知のマーカがあっても、既知のマーカとの関係において世界座標系での座標データを確定して登録することによって未知のマーカが既知となる。
次に、図9を参照して特徴点のグループ化対応付け部107について説明する。
図9は、特徴点のグループ化対応付けを行うブロックの処理手順を示すPAD図である。
特徴点のグループ化対応付け部901は、以下のステップで処理される。まず初期化処理として、状態を「追跡」にセットする(ステップ902)。下記の特徴点フレームバッファ106のデータを全て処理するまで繰り返す(ステップ903)。ステップ905では、特徴点フレームが特徴点フレームバッファ106から取得される。ステップ906にて、近傍の3点以上の特徴点で小グループを生成し、フレーム内の全ての特徴点を小グループ群にまとめ上げる。ステップ907にて、小グループを連続するフレーム間で追跡し、対応付けのための移動ベクトルを算出する。
ステップ908では、状態が判定され、状態が「追跡」であれば、次のステップ909へ進み、状態が「追跡中断」であれば、ステップ910へ進む。ステップ909では、ステップ907の処理結果を判定して追跡不能を検出した場合、ステップ914へ進む。ステップ914では、直前のフレームの小グループ群を「保存A」として保存し、ステップ915にて状態を「追跡中断」へ遷移させる。次の繰り返し処理にて、ステップ908で状態が「追跡中断」であった場合、ステップ910へ進む。ステップ910では、現在のフレームの小グループ群と保存した小グループ群「保存A」とを照合し、ステップ911にて合致と判定した場合、ステップ912にて「保存A」からの対応付けを行った移動ベクトルを算出する。ステップ913にて、状態を「追跡」へ遷移させる。
ステップ904では、用意する特徴点フレームが尽きるまで次の処理を繰り返す。ステップ916では、移動ベクトルの連鎖によって連なる特徴点フレームから、2つの特徴点フレームを用意する。特徴点フレームの選び方として、入替率算出が未処理の任意の2つの特徴点フレームのペアを用意することもできるが、組み合わせが膨大になる場合には、マーカ識別部104からのマーカ識別情報とその座標を含む複数のフレームと、その間に並ぶフレームからサンプリングして得られるフレームを用意してもよい。ステップ917では、特徴点の入替率を算出する。なお、入替率は、用意された1つ目のフレームに存在する特徴点の全数に対する、1つ目のフレームから2つ目のフレームへ移動ベクトルによって対応付かない特徴点の数の比率と定義する。ステップ918にて、算出された入替率がX%以下の場合、ステップ919にて特徴点フレームのペアとその間の移動ベクトルを対応付けデータ出力1として出力する。ステップ918にて、X〜Y%の場合、ステップ920にて特徴点フレームのペアとその間の移動ベクトルを対応付けデータ出力2として出力する。なお、XおよびYの値はX<Yである。
Xの値は、カメラとマーカの位置・姿勢推定部109にて、マーカや特徴点の位置・姿勢の推定に使用されることを想定したもので、マーカや特徴点の多くが同じフレームに含まれるような異なる視点のフレームを選び出すために設定する。よって、位置・姿勢の推定精度を高めるために視差が十分にあるが極力多くのマーカや特徴点が共通に含まれるように、Xの値は小さく設定される。Yの値は、カメラとマーカの位置・姿勢推定部109にて、同一フレームに存在しないマーカを含む複数のフレームを、移動ベクトルの連鎖でつなぐための特徴点フレームを選びだすために設定する。間をつなぐ特徴点フレームの枚数が増えると、誤差が蓄積して位置・姿勢の推定精度が低下するため、極力少ない枚数となるように、Yの値は大きく設定される。XおよびYの値は選び出される特徴点フレーム数の枚数等に応じて動的に変更してもよい。
ここで、移動ベクトルと対応付けデータとの関係を図10の模式図を用いて説明する。1001は、ある特徴点フレームにおける一つの特徴点を示す。1003は、別の特徴点フレームにおける同じ特徴点を示す。この特徴点は1001の位置から1003の位置へ移動したことを示す。上記の移動ベクトルとは、この移動の向きと長さを示す1002の情報のことである。一方、対応付けデータとは、特徴点フレームを特定する情報と、その特徴点を特定する情報として1001のような座標情報と、その移動ベクトルで構成される。
以上の手法によれば、複数のマーカが同一フレームに含まれないような撮影状況においても、それらのマーカの相対的な位置・姿勢関係を、補助マーカを用いずに特定することができる。
本発明によれば、それ以前に世界座標系での座標データが未知のマーカがあっても、既知のマーカとの関係において世界座標系での座標データを確定して登録することによって未知のマーカが既知となる。また、現在のカメラの位置・姿勢も世界座標系へマッピングする。
世界座標系DB作成に基づく、本発明の効果を、図11、図12で説明する。ここでは、自然特徴を介して映像中の同一フレーム内に存在しない複数のマーカの位置・姿勢の相互の関係を特定する機能について述べる。
図11において、カメラ位置・向き203のときには、撮像範囲201が撮影されており、その際のマーカA202および自然特徴を示したものが特徴点フレーム209である。カメラ位置・向き204のときには、撮像範囲206が撮影されており、その際の自然特徴を示したものが徴点フレーム210である。また、カメラ位置・向き205のときには、撮像範囲2007が撮影されており、その際のマーカB208および自然特徴を示したものが特徴点フレーム211である。現実空間にマーカは2つあるが、カメラのフレーム209、211内には1つしか見えていない。一方、カメラのフレーム210内にはマーカが1つも見えていない。本発明によれば、特徴点フレーム209の中ではマーカAと自然特徴点群(FAとする)との位置・姿勢の関係が特定される。一方、特徴点フレーム211の中ではマーカBと自然特徴点群(FBとする)との位置・姿勢の関係が特定される。そして、それらの間にある特徴点フレーム210の中では自然特徴点群FAと自然特徴点群FBとの位置・姿勢の相互の関係が特定される。このようにして、中間の特徴点フレーム210を介して、現実空間で離れた位置にある2つのマーカA202とマーカB208の位置・姿勢の関係が特定される。
また、図12は、移動ベクトルと対応付けデータとの関係を説明する模式図である。ここで想定している状況は、図11の場合と同様、道路前にビルが4棟並んでいる風景である。マーカはA,Bの2つ(202と208)あるが、1つの映像として取得出来るフレーム201内には1つのマーカA202しか見えていない。しかも、見えているマーカAは遠すぎるため、映像中では小さく、マーカ識別ができない。本発明によれば、世界座標系データベース115内に、事前に1003の自然特徴点群とマーカA,マーカBとの位置関係が格納されている。従って、マーカA202もマーカB208もマーカ識別できていない場合であっても、自然特徴点群の照合により、マーカAとマーカBの位置が推定できるため、そこに関連情報(オブジェクト)を重ねることが出来る。
このように、同一フレームに含まれない複数のマーカの相対的な位置・姿勢関係を、補助マーカを用いずに特定することができる世界座標系データベースを構築することができる。また、マーカ自体を撮影できなくとも、あるいは、マーカの検出または識別に失敗した場合でも、マーカ周辺を撮影することで、そのマーカの位置・姿勢を推定可能な世界座標系データベースを提供することができる。
また、世界座標系データベースが複数の端末利用者によって共有され、繰り返し利用されることにより、サービス利用者がさまざまな位置からマーカやマーカ周辺を撮影してサーバへ登録するたびに、自然特徴による、その場における空間モデルが世界座標系で構築され、多くのサービス利用者が利用するたびにデータが増え、データベースの信頼度が増す。
[関連情報と映像との重ね合わせ処理]
次に、上記世界座標系データベース115を利用した、サーバ15における関連情報とカメラの映像との重ね合わせ処理機能について説明する。この、関連情報と映像との重ね合わせ処理には、以下に述べるように、状況に応じた複数の方式がある。カメラの映像とマーカの関係等に応じていずれか最適の方式が選択される。
まず、カメラのフレーム209、211のように、マーカが視野にあり、しかも、マーカ識別が成功したときに、カメラ動画と関連情報の2次元的な重ね合せ表示する処理方式の例を、図13に示す。
カメラ座標系への投影部117では、世界座標系へマッピングされたカメラ位置・姿勢およびそこから撮影されているマーカ関連情報の世界座標系での位置・姿勢が分かるため、マーカ関連情報の位置・姿勢をカメラ座標系へ投影変換を行う。マーカ関連情報出力の経路118により、関連情報取得部105のマーカ関連情報はカメラ動き補完部110へ直接入力される。
カメラ動き補完110は、カメラの素早い揺れや動きに、マーカ関連情報を追随させるためのものである。例えば、特徴フレームバッファ106の2次元的な特徴点にマーカ関連情報の座標を追随させる方法や、6軸の加速度センサを搭載した端末であれば、カメラの姿勢の変化に応じてマーカ関連情報の座標を追随させる方法などを使うことが出来る。
マーカ関連情報は、映像との重ね合せ部111で、カメラ動画撮影された映像とタイミング調整しながら重ね合わされ、表示部112にて表示される。
この方式では、マーカが視野にありマーカ識別が成功したときに、カメラ動画と関連情報との2次元的な重ね合せ表示が出来る。ただし、映像の3次元構造は不明なので、マーカの情報を2次元的に重ね合せることしかできない。関連情報を、例えば単なるテキスト情報の形で、吹き出しのように表示する際には有用である。
次に、図14に、カメラのフレーム209、211のように、マーカが視野にあり、しかも、マーカ識別が成功したときに、さらに、マーカの関連情報の3次元的な重ね合せ表示をマーカに対して行う処理方式の例を示す。マーカの位置・姿勢を推定し、カメラ動き補完110に利用するための、カメラとマーカの位置・姿勢推定部109が追加されている。カメラ動き補完110では、3次元オブジェクトをカメラ座標系での位置・姿勢に変換する。マーカの3次元的な位置と姿勢が分かっているため、関連情報として3次元オブジェクトをマーカの位置と姿勢に合わせて、まるで実際にその場に3次元オブジェクトが置かれているかのように配置することが可能である。なお、カメラとマーカの位置・姿勢推定部109に代えて、6軸加速度センサを使ってカメラ動きを検出する方法もある。
3次元オブジェクトは、動くオブジェクト(フィギュアとかアバターとか)であってもよく、その場合の更新された情報がデータフロー118を介してカメラ動き補完110に供給される。
次に、図15に、カメラのフレーム210のようにマーカが視野に無い場合や、カメラのフレーム209、211のようにマーカが視野にあるにも拘わらずそれを検出できない場合の処理方式について説明する。これらの場合は、視野近くのマーカの関連情報や世界座標系DBの座標に対応づけられた情報を利用して、映像と重ね合わせ表示する。この例では、マーカ周辺を撮影することで、そのマーカの位置・姿勢を推定し、オブジェクトを重ね合せて映像を表示する。
例えば、マーカの検出または識別に失敗したケース、およびまだカメラ映像中にはマーカ全体が映されていないケースにおいては、世界座標系での照合部114にて、カメラ映像からの自然特徴の世界座標系での位置が照合され、マーカ位置推定部116にて、その近辺に存在するマーカが特定される。その特定されたマーカの情報を識別されたマーカ情報の代わりに関連情報取得部105に入力させる。こうして、マーカが識別できなくとも、あるいは映されていなくとも、マーカ関連情報を出力することができる。
この例では、カメラ動画撮影部101、自然特徴抽出部102、特徴フレームバッファ106と、特徴点のグループ化対応付け部107、及びカメラとマーカの位置・姿勢推定部109で、フレーム間共通座標系が用いられる。カメラとマーカの位置・姿勢推定部109では、特徴フレームを使ってカメラの動きを検出する。この機能に代えて、6軸加速度センサを使ってカメラ動きを検出する方法もある。また、フレーム間共通座標系を用いて、世界座標系データベース115での照合を行い、マーカ位置と識別子を取得する機能114が追加されている。すなわち、特徴点群を世界座標系で照合し、近辺のマーカ位置と識別子を取得する。また、その照合結果を利用して、カメラフレームでのマーカ位置を推定する機能116も追加されている。さらに、3次元オブジェクトをカメラ座標系での位置・姿勢に変換する機能117も追加されている。3次元オブジェクトは、動くオブジェクト(フィギュアとかアバターとか)であってもよく、その場合の更新された情報がデータフロー118で供給される。
図16に、マーカ識別に成功したときに、カメラの撮影映像に無い情報で、かつ、マーカの関連情報や世界座標系DBの座標に対応づけられた情報を、映像と重ね合わせて端末に表示する構成例を示す。この例では、マーカ識別結果に基く情報よりも、よりきめ細かい豊富な情報をユーザに提供することができる。
図17に、マーカ識別に失敗した場合に、マーカ周辺の撮影映像を利用することで、そのマーカの位置・姿勢を推定し、オブジェクトを重ね合せて表示した映像の例を示す。1503はフレーム、710はマーカA202と関連付いたオブジェクト(ロケット)、1504はマーカB208と関連付いた関連情報(文章)である。この例では、マーカA202の識別に失敗したにも拘わらすマーカA202に対応するオブジェクト(ロケット)710のAR表示がなされている。また、フレーム1503には入っていないもののフレーム1503の直ぐ近くにあるマーカB208に関する文章情報1504も、フレーム1503内に重ねて表示されている。
このように、本実施例によれば、マーカが視野にない、あるいはマーカ識別をしなくても、視野近くのマーカの関連情報や世界座標系DBの座標に対応づけられた情報を、映像と重ね合わせ表示できる。周辺の3次元構造が分かっているため、視野の近くのマーカの関連情報やその他の情報として3次元オブジェクトを3次元空間に合わせて、まるで実際にその場に置かれているかのように配置することが可能である。また、マーカの関連以外の3次元オブジェクトを世界座標系DBの座標に対応付けて格納しておくことで、マーカ以外の空間にも3次元オブジェクトを重ね合せて表示することができる。この点が、世界座標系DBを使う最大のメリットである。
以上述べた実施の形態によれば、複数のマーカが同一フレームに含まれないような撮影状況においても、それらのマーカの相対的な位置・姿勢関係を、補助マーカを用いずに特定することができる。
また、マーカ自体を撮影できなくとも、あるいは、マーカの検出または識別に失敗した場合でも、マーカ周辺を撮影することで、そのマーカの位置・姿勢を推定することができる。そして、実空間の撮影映像におけるマーカの位置・姿勢に合わせた形で、マーカ関連情報である2次元または3次元のCGオブジェクトを撮影映像に重ねて表現することができる。
端末のユーザにとっては、マーカ自体を撮影できなくとも、マーカ関連情報やその他の情報について、AR表示により提供を受けることができ。他方、プロバイダにとっては、マーカをきめ細かく配置していない場合で、端末のユーザがそのマーカの周辺を撮影することでサービスの提供が可能になる利点がある。また、サービス利用者がさまざまな位置からマーカやマーカ周辺を撮影してサーバへ登録する、換言すると、多くのサービス利用者が利用するたびに、世界座標系データベースのデータが増え、データベースの信頼度が一層増し、マーカ関連情報やその他の情報についてのサービスが充実されるという、端末のユーザ及びプロバイダの双方にとっての利点もある。
実施例1のシステム構成例によれば、端末は動画の撮影および表示の処理だけでよいが、通信負荷が高くなる。また、端末の数が多い場合には、サーバ負荷が高くなる。そこで、通信負荷やサーバ負荷を軽減した実施例について述べる。
図17は、本発明の第2の実施例になる、世界座標系データベース作成および利用を行うシステムを示した機能モジュールの一例を示すブロック図である。本実施例では、サーバ・クライアント間の通信データとして、特徴点データやマーカ関連情報など処理済みのデータを送受するように構成されている。端末には、図1に示した、カメラ101と、自然特徴抽出部102と、マーカ検出部103と、マーカ識別部104と、関連情報取得部105と、カメラ動き補完部110と、映像との重ね合せ部111と、表示部112と、AR表示処理機能130とが搭載される。サーバには、それ以外の機能部位が搭載される。
以上のシステム構成によれば、映像に対する処理を端末で行うことによって通信データとして映像を送受する必要がなくなるため、実施例1に比較して、端末負荷は高まるが、通信負荷およびサーバ負荷が軽減される。
ここでは、通信負荷およびサーバ負荷をさらに軽減した実施例について述べる。サーバ・クライアント間の通信データとして、マーカ関連情報と推定済みの位置・姿勢情報を送受する場合のシステム構成を示す。端末には、図1における、カメラ動画撮影部101と、自然特徴抽出部102と、マーカ検出部103と、マーカ識別部104と、関連情報取得部105と、特徴フレームバッファ106と、特徴点のグループ化対応付け部107と、カメラとマーカの位置・姿勢推定部109と、カメラ座標系への投影部117と、カメラ動き補完部110と、映像との重ね合せ部111と、表示部112が搭載される。サーバには、それ以外の機能部位が搭載される。サーバは基本的に世界座標系データを扱う部分と、特徴点フレームDBを扱う部分が搭載される。
以上のシステム構成によれば、ほとんどの処理を端末で行うため、実施例1、2に比較して、端末負荷は高まるが通信負荷およびサーバ負荷が軽減される。
以上のいずれの実施例のシステム構成においても、サービス利用者がさまざまな位置からマーカやマーカ周辺を撮影してサーバへ登録するたびに、自然特徴による、その場における空間モデルが世界座標系で構築される。
なお、カメラおよび表示部は端末に、世界座標系データを扱う部分はサーバに配置する必要があるが、それ以外の機能を端末やサーバのいずれに持たせるかは、用途、端末やサーバの処理能力等に応じて適宜設定すればよく、上記実施例の配置例に限定されるものではない。
本発明は、例えば、携帯電話やモバイル端末、ヘッドマウントディスプレー等を介して見ている対象物の情報を提供する情報検索サービスおよび対象物の補足情報を提供することによる作業支援システムや等に利用可能である。
10 ビル、
11 端末A、
12 端末B、
13 端末N、
14 通信ネットワーク、
15 サーバ、
16 プロバイダ、
101 カメラ(動画撮影部)、
102 自然特徴抽出部、
103 マーカ検出部、
104 マーカ識別部、
105 関連情報取得部、
106 特徴フレームバッファ、
107 特徴点のグループ化対応付け部、
108 特徴量DB、
109 カメラとマーカの位置・姿勢推定部、
110 カメラ動き補完部、
111 映像との重ね合せ部、
112 表示部、
113 世界座標系へのマッピング部(世界座標系変換部)、
114 世界座標系での照合部、
115 世界座標系データベース(世界座標系DB)、
116 マーカ位置推定部、
117 カメラ座標系への投影部、
118 マーカ関連情報出力の一経路、
130 AR表示処理機能、
201 カメラ位置・向き203からの撮像範囲、
202 マーカA、
203 カメラ位置・向き203、
204 カメラ位置・向き204、
205 カメラ位置・向き205、
206 カメラ位置・向き204からの撮像範囲、
207 カメラ位置・向き205からの撮像範囲、
208 マーカB、
209 撮像範囲201の特徴点フレーム、
210 撮像範囲206の特徴点フレーム、
211 撮像範囲207の特徴点フレーム、
701 マーカAのマーカ特徴点(点ID=1)、
702 マーカAのマーカ特徴点(点ID=2)、
703 白線の自然特徴点(点ID=5)、
704 道路、
705 マーカAのマーカ特徴点(点ID=3)、
706 マーカA、
707 マーカAのマーカ特徴点(点ID=4)、
708 ビル、
709 道路の法線ベクトル、
710 3Dオブジェクト(ロケット)(オブジェクトID=1)、
1001 ある特徴点フレームにおける特徴点、
1002 移動ベクトル、
1003 別の特徴点フレームにおける特徴点。

Claims (20)

  1. 端末のカメラで撮影された映像を受信する機能と、
    前記映像を構成する複数の映像フレームについて、各映像フレーム内の自然特徴量を抽出し、特徴量データベースに蓄積する特徴抽出部と、
    AR関連情報を特定するための指標を、前記各映像フレームから検出する指標検出部と、
    検出された前記指標を識別する指標識別部と、
    前記複数の映像フレームの前記自然特徴量の間の対応付けを行う特徴グループ化対応付け部と、
    前記カメラと前記指標との相対的な位置および姿勢を推定する位置・姿勢推定部と、
    前記位置・姿勢が既知の前記指標を基準にして、前記映像フレームにおける未知の指標の座標および前記自然特徴量の座標を、世界座標系に変換する世界座標系変換部と、
    変換された前記世界座標系の座標データ及び関連する情報を蓄積する世界座標系データベースとを備えた
    ことを特徴とするサーバ。
  2. 請求項1において、
    前記指標は、前記カメラによる実世界の撮影映像と重ねてAR表示を行うための関連情報を提供する機能を有する
    ことを特徴とするサーバ。
  3. 請求項1において、
    前記特徴グループ化対応付け部は、
    前記映像フレーム内における3つ以上の前記自然特徴量を小グループ化し、前記自然特徴量の小グループを複数の前記映像フレーム間で追跡することで対応付けを行う
    ことを特徴とするサーバ。
  4. 請求項3において、
    前記特徴グループ化対応付け部は、
    前記連続したフレーム間での前記小グループの追跡ができない場合、離れた前記フレーム間での前記小グループ群の照合処理による前記対応付けを行う
    ことを特徴とするサーバ。
  5. 請求項3において、
    前記特徴グループ化対応付け部は、
    前記フレームから入れ替わる特徴量の数に応じて、対応付けデータを仕分けして出力する
    ことを特徴とするサーバ。
  6. 請求項3において、
    前記位置・姿勢推定部は、前記対応付けデータによって対応付けされた前記小グループ群を実空間上には前記指標は実在しないが計算上仮想的に定義された仮想指標として扱い、前記カメラの位置・姿勢および前記仮想指標の位置・姿勢を推定する
    ことを特徴とするサーバ。
  7. 請求項6において、
    前記位置・姿勢推定部は、前記映像の1つのフレーム内で共通するフレーム内共通座標系、または前記複数のフレーム間で共通するフレーム間共通座標系で、前記映像フレーム内の未知の指標および前記自然特徴量の座標を定義する
    ことを特徴とするサーバ。
  8. 請求項7において、
    前記世界座標系変換部は、前記フレーム間共通座標系で定義された前記映像フレーム内の未知の指標および前記自然特徴量の座標を、前記世界座標系に変換する座標変換式を有する
    ことを特徴とするサーバ。
  9. 請求項6において、
    前記世界座標系変換部は、位置と姿勢が前記世界座標系で既知の指標を用いて、推定された前記仮想指標の位置・姿勢を、前記世界座標系の座標に変換する
    ことを特徴とするサーバ。
  10. 請求項9において、
    指標の位置と姿勢が前記世界座標系で既知の2つのフレームを用いて、前記各フレーム内の前記指標及び前記自然特徴量を利用して、前記2つのフレームの間に存在するフレームの前記自然特徴量位置・姿勢を特定する
    ことを特徴とするサーバ。
  11. 請求項1において、
    前記端末から受信した新たな前記映像に基づく情報を逐次追加しながら前記世界座標系データベースを更新する
    ことを特徴とするサーバ。
  12. 請求項1において、
    検出された前記指標に関連するAR表示を行うための関連情報を取得する関連情報取得部と、
    前記カメラの動きに前記指標の関連情報を追随させるためカメラ動き補完部と、
    前記カメラで撮影された映像と前記指標に関連する関連情報とを重ね合わせ表示するための処理を行う重ね合せ処理部とを備えた
    ことを特徴とするサーバ。
  13. 請求項12において、
    前記カメラで撮影された映像フレームから前記指標が検出または識別されない場合に、前記自然特徴の位置を前記世界座標系データベースで照合し、前記指標位置を推定する位置・姿勢推定部を備え、
    前記重ね合わせ処理部は、前記推定された指標に基づく関連情報を前記カメラで撮影された映像と重ね合わせる
    ことを特徴とするサーバ。
  14. 請求項12において、
    前記カメラで撮影された映像フレームから前記指標が検出された場合に、該指標を前記世界座標系データベースで照合し、前記関連情報に加えて前記世界座標系データベースの情報を前記カメラで撮影された映像と重ね合わせる
    ことを特徴とするサーバ。
  15. 請求項13において、
    前記指標の関連情報を、前記カメラの座標系での位置・姿勢に変換する機能を備えている
    ことを特徴とするサーバ。
  16. 請求項13において、
    前記カメラで撮影された前記映像フレーム外でかつ該の直ぐ近くにある前記指標の関連情報を前記世界座標系データベースで照合し、
    該関連情報を前記カメラで撮影された映像と重ね合わせる
    ことを特徴とするサーバ。
  17. 請求項12において、
    前記カメラ動き補完部は、前記世界座標系へマッピングされた前記カメラ位置・姿勢およびそこから撮影されている前記指標の関連情報の前記世界座標系での位置・姿勢を前記世界座標系データベースで参照し、前記指標の関連情報の位置・姿勢を前記カメラの座標系へ投影変換する
    ことを特徴とするサーバ。
  18. 請求項6において、
    前記世界座標系変換部は、位置と姿勢が前記世界座標系で既知の指標を用いて、前記カメラの座標を共通の座標系に変換し、
    前記カメラ座標から前記世界座標系に対応付いた地図上の座標に変換し、
    前記カメラの位置を前記地図上に重ねて表示する
    ことを特徴とするサーバ。
  19. ネットワークを介してサーバに接続可能に構成された端末であって、
    前記サーバは、端末のカメラで撮影された映像を構成する複数の複数の映像フレームの自然特徴量の間の対応付けを行う特徴グループ化対応付け部と、特徴量データベースと、前記カメラと指標との相対的な位置および姿勢を推定する位置・姿勢推定部と、前記位置・姿勢が既知の前記指標を基準にして前記映像フレームにおける未知の指標の座標および前記自然特徴量の座標を世界座標系に変換する世界座標系変換部と、変換された前記世界座標系の座標データ及び関連する情報を蓄積する世界座標系データベースとを備えており、
    前記端末は、
    前記カメラで映像を撮影する機能と、
    前記映像を構成する前記複数の映像フレームについて、各映像フレーム内の前記自然特徴量を抽出し、前記サーバの前記特徴量データベースに蓄積する特徴抽出部と、
    AR関連情報を特定するための前記指標を、前記各映像フレームから検出する指標検出部と、
    検出された前記指標を識別する指標識別部と、
    検出された前記指標に関連するAR表示を行うための関連情報を取得する関連情報取得部と、
    前記映像フレームにおける未知の指標の座標および前記自然特徴量の座標の情報を前記サーバへ送信し、前記サーバの世界座標系変換部で、前記位置・姿勢が既知の前記指標を基準にして、世界座標系に変換し前記世界座標系データベースに蓄積する機能と、
    前記位置・姿勢推定部の処理結果を受けて、前記カメラの動きに前記指標の関連情報を追随させるためカメラ動き補完部と、
    前記サーバの前記位置・姿勢推定部及び前記世界座標系変換部の処理結果を受けて、前記カメラで撮影された映像と前記指標に関連する関連情報とを重ね合わせ表示するための処理を行う重ね合せ処理部と、
    表示部とを備え、
    前記カメラで撮影された映像と前記指標に関連する関連情報とを重ね合わせて前記表示部に表示する
    ことを特徴とする端末。
  20. ネットワークを介してサーバに接続可能に構成された端末であって、
    前記サーバは、特徴量データベースと、位置・姿勢が既知の指標を基準にして端末のカメラで撮影された映像を構成する複数の映像フレームにおける未知の指標の座標および自然特徴量の座標を世界座標系に変換する世界座標系変換部と、変換された前記世界座標系の座標データ及び関連する情報を蓄積する世界座標系データベースとを備えており、
    前記端末は、
    前記カメラで映像を撮影する機能と、
    前記映像を構成する前記複数の映像フレームについて、各映像フレーム内の前記自然特徴量を抽出し、前記サーバの前記特徴量データベースに蓄積する特徴抽出部と、
    AR関連情報を特定するための前記指標を、前記各映像フレームから検出する指標検出部と、
    検出された前記指標を識別する指標識別部と、
    検出された前記指標に関連するAR表示を行うための関連情報を取得する関連情報取得部と、
    前記複数の映像フレームの前記自然特徴量の間の対応付けを行う特徴グループ化対応付け部と、
    前記映像フレームにおける未知の指標の座標および前記自然特徴量の座標の情報を前記サーバへ送信し、前記サーバの世界座標系変換部で、前記位置・姿勢が既知の前記指標を基準にして、世界座標系に変換し前記世界座標系データベースに蓄積する機能と、
    特徴量データベースと、前記カメラと前記指標との相対的な位置および姿勢を推定する位置・姿勢推定部と、
    前記カメラの動きに前記指標の関連情報を追随させるためカメラ動き補完部と、
    前記世界座標系変換部の処理結果を受けて、前記カメラで撮影された映像と前記指標に関連する関連情報とを重ね合わせ表示するための処理を行う重ね合せ処理部と、
    表示部とを備え、
    前記カメラで撮影された映像と前記指標に関連する関連情報とを重ね合わせて前記表示部に表示する
    ことを特徴とする端末。
JP2010067977A 2010-03-24 2010-03-24 世界座標系データベースを利用したサーバ及び端末 Pending JP2013141049A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010067977A JP2013141049A (ja) 2010-03-24 2010-03-24 世界座標系データベースを利用したサーバ及び端末
PCT/JP2011/052868 WO2011118282A1 (ja) 2010-03-24 2011-02-10 世界座標系データベースを利用したサーバ及び端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010067977A JP2013141049A (ja) 2010-03-24 2010-03-24 世界座標系データベースを利用したサーバ及び端末

Publications (1)

Publication Number Publication Date
JP2013141049A true JP2013141049A (ja) 2013-07-18

Family

ID=44672855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010067977A Pending JP2013141049A (ja) 2010-03-24 2010-03-24 世界座標系データベースを利用したサーバ及び端末

Country Status (2)

Country Link
JP (1) JP2013141049A (ja)
WO (1) WO2011118282A1 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060241A (ja) * 2013-09-17 2015-03-30 ウエストユニティス株式会社 表示システム
JP2015148957A (ja) * 2014-02-06 2015-08-20 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
JP2015211363A (ja) * 2014-04-28 2015-11-24 富士通株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP2016021097A (ja) * 2014-07-11 2016-02-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016115268A (ja) * 2014-12-17 2016-06-23 富士通株式会社 情報処理方法、情報処理プログラム、及び情報処理装置
JP2016170060A (ja) * 2015-03-13 2016-09-23 三菱電機株式会社 設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法
WO2016208404A1 (ja) * 2015-06-23 2016-12-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2017097770A (ja) * 2015-11-27 2017-06-01 富士通株式会社 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
KR20180008575A (ko) * 2015-05-20 2018-01-24 캐논 가부시끼가이샤 정보 처리 장치, 방법, 및 프로그램
EP3291179A1 (en) 2016-08-31 2018-03-07 Fujitsu Limited Image processing device, image processing method, and image processing program
US20180120106A1 (en) * 2015-04-09 2018-05-03 Nec Corporation Map generating device, map generating method, and program recording medium
JP2018533121A (ja) * 2015-09-11 2018-11-08 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの写真に仮想画像を重ね合わせるための方法及び装置、並びに携帯デバイス
US10147398B2 (en) 2013-04-22 2018-12-04 Fujitsu Limited Display control method and device
JP2019185759A (ja) * 2018-04-10 2019-10-24 アーム・アイピー・リミテッド 拡張現実のための画像処理
JP2020513604A (ja) * 2016-11-08 2020-05-14 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの複製物に仮想画像及び音声データを重ね合わせるための方法及び装置、並びに携帯デバイス
JPWO2021149254A1 (ja) * 2020-01-24 2021-07-29
JP2021170272A (ja) * 2020-04-16 2021-10-28 共同印刷株式会社 測位システム、測位装置、測位方法および測位プログラム
JP2021534491A (ja) * 2018-08-13 2021-12-09 マジック リープ, インコーポレイテッドMagic Leap, Inc. クロスリアリティシステム
JP2022051761A (ja) * 2016-06-30 2022-04-01 マジック リープ, インコーポレイテッド 3次元空間内の姿勢推定
US11967020B2 (en) 2020-02-13 2024-04-23 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199584B (zh) * 2019-12-31 2023-10-20 武汉市城建工程有限公司 目标物定位虚实融合方法及装置
JPWO2021140631A1 (ja) * 2020-01-09 2021-07-15

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048484A (ja) * 2004-08-06 2006-02-16 Advanced Telecommunication Research Institute International デザイン支援装置
JP4830696B2 (ja) * 2006-07-31 2011-12-07 オムロン株式会社 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10147398B2 (en) 2013-04-22 2018-12-04 Fujitsu Limited Display control method and device
JP2015060241A (ja) * 2013-09-17 2015-03-30 ウエストユニティス株式会社 表示システム
JP2015148957A (ja) * 2014-02-06 2015-08-20 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US9990773B2 (en) 2014-02-06 2018-06-05 Fujitsu Limited Terminal, information processing apparatus, display control method, and storage medium
US9542745B2 (en) 2014-02-25 2017-01-10 Fujitsu Limited Apparatus and method for estimating orientation of camera
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
JP2015211363A (ja) * 2014-04-28 2015-11-24 富士通株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP2016021097A (ja) * 2014-07-11 2016-02-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016115268A (ja) * 2014-12-17 2016-06-23 富士通株式会社 情報処理方法、情報処理プログラム、及び情報処理装置
JP2016170060A (ja) * 2015-03-13 2016-09-23 三菱電機株式会社 設備情報表示システム、モバイル端末、サーバおよび設備情報表示方法
US10415966B2 (en) * 2015-04-09 2019-09-17 Nec Corporation Map generating device, map generating method, and program recording medium
US20180120106A1 (en) * 2015-04-09 2018-05-03 Nec Corporation Map generating device, map generating method, and program recording medium
KR20180008575A (ko) * 2015-05-20 2018-01-24 캐논 가부시끼가이샤 정보 처리 장치, 방법, 및 프로그램
KR101992044B1 (ko) 2015-05-20 2019-06-21 캐논 가부시끼가이샤 정보 처리 장치, 방법, 및 컴퓨터 프로그램
WO2016208404A1 (ja) * 2015-06-23 2016-12-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
US10600202B2 (en) 2015-06-23 2020-03-24 Sony Corporation Information processing device and method, and program
JPWO2016208404A1 (ja) * 2015-06-23 2018-04-12 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2018533121A (ja) * 2015-09-11 2018-11-08 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの写真に仮想画像を重ね合わせるための方法及び装置、並びに携帯デバイス
JP2017097770A (ja) * 2015-11-27 2017-06-01 富士通株式会社 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
JP2022051761A (ja) * 2016-06-30 2022-04-01 マジック リープ, インコーポレイテッド 3次元空間内の姿勢推定
EP3291179A1 (en) 2016-08-31 2018-03-07 Fujitsu Limited Image processing device, image processing method, and image processing program
US10354409B2 (en) 2016-08-31 2019-07-16 Fujitsu Limited Image processing device, image processing method, and non-transitory computer-readable recording medium
JP2020513604A (ja) * 2016-11-08 2020-05-14 スリーディーキューアール ゲーエムベーハー3DQR GmbH 現実シーンの複製物に仮想画像及び音声データを重ね合わせるための方法及び装置、並びに携帯デバイス
JP2019185759A (ja) * 2018-04-10 2019-10-24 アーム・アイピー・リミテッド 拡張現実のための画像処理
JP7445642B2 (ja) 2018-08-13 2024-03-07 マジック リープ, インコーポレイテッド クロスリアリティシステム
JP2021534491A (ja) * 2018-08-13 2021-12-09 マジック リープ, インコーポレイテッドMagic Leap, Inc. クロスリアリティシステム
JP7291251B2 (ja) 2020-01-24 2023-06-14 株式会社ソニー・インタラクティブエンタテインメント 環境地図管理装置、環境地図管理方法及びプログラム
JPWO2021149254A1 (ja) * 2020-01-24 2021-07-29
US11967020B2 (en) 2020-02-13 2024-04-23 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
JP2021170272A (ja) * 2020-04-16 2021-10-28 共同印刷株式会社 測位システム、測位装置、測位方法および測位プログラム
JP7412260B2 (ja) 2020-04-16 2024-01-12 共同印刷株式会社 測位システム、測位装置、測位方法および測位プログラム

Also Published As

Publication number Publication date
WO2011118282A1 (ja) 2011-09-29

Similar Documents

Publication Publication Date Title
WO2011118282A1 (ja) 世界座標系データベースを利用したサーバ及び端末
CN108028871B (zh) 移动设备上的无标记的多用户多对象增强现实
US10740975B2 (en) Mobile augmented reality system
JP5582548B2 (ja) 実環境視像における仮想情報の表示方法
WO2019242262A1 (zh) 基于增强现实的远程指导方法、装置、终端和存储介质
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US9558559B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
CN108932051B (zh) 增强现实图像处理方法、装置及存储介质
TW201715476A (zh) 運用擴增實境技術之導航系統
CN108958469B (zh) 一种基于增强现实的在虚拟世界增加超链接的方法
CN112556685B (zh) 导航路线的显示方法、装置和存储介质及电子设备
Oskiper et al. Augmented reality binoculars
CN107430498A (zh) 扩展照片的视场
JP2003263104A (ja) 撮像情報認識システム
JPWO2021076757A5 (ja)
JP5843288B2 (ja) 情報提示システム
KR20180133052A (ko) 360도 이미지 및 비디오 기반의 증강현실 콘텐츠 저작 방법
JP6304815B2 (ja) 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置
JP5709261B2 (ja) 情報端末、情報提供システム及び情報提供方法
JP2013238987A (ja) 情報表示装置、情報入力装置、情報表示プログラム及び情報入力プログラム
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP2010158056A (ja) リンク情報表示装置、その表示方法およびリンク情報処理システム
JP2016071496A (ja) 情報端末装置、方法及びプログラム
Wang et al. Mobile media in action: Remote target localization and tracking
KR101640020B1 (ko) 강화 이미지 제공 시스템 및 방법