JP5536124B2 - 画像処理システム及び画像処理方法 - Google Patents

画像処理システム及び画像処理方法 Download PDF

Info

Publication number
JP5536124B2
JP5536124B2 JP2012048416A JP2012048416A JP5536124B2 JP 5536124 B2 JP5536124 B2 JP 5536124B2 JP 2012048416 A JP2012048416 A JP 2012048416A JP 2012048416 A JP2012048416 A JP 2012048416A JP 5536124 B2 JP5536124 B2 JP 5536124B2
Authority
JP
Japan
Prior art keywords
image
feature
data
reference image
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012048416A
Other languages
English (en)
Other versions
JP2013186478A (ja
Inventor
悠一 吉田
満 安倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2012048416A priority Critical patent/JP5536124B2/ja
Publication of JP2013186478A publication Critical patent/JP2013186478A/ja
Application granted granted Critical
Publication of JP5536124B2 publication Critical patent/JP5536124B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、画像認識及び検索技術に関する。
カメラ越しに覗いた物体に、その物体の説明を重畳する拡張現実感(Augmented Reality:以下「AR」という)というアプリケーションがある。このアプリケーションを実現するには、カメラ画像中の物体を識別するという課題と、カメラ画像中の物体の位置を同定するという課題の二つの課題を達成しなければならない。
一つ目の技術として、2次元コードを用いる手法がある。2次元コードは、画像中にある2次元コードを正確に識別しながら、同時に同定できる特徴を持つ。また、2次元コードのパターンを多数用意できるため、対象を識別できる能力も高い。しかし、対象物に2次元コードを付与する必要があるため、意匠への影響が大きいことと、ランドマークなどのサイズの大きい対象への応用が難しいという問題がある(非特許文献1)。
二つ目の技術として、撮影対象自体を色ヒストグラム等で識別し、その後、テンプレートマッチングで追跡することでARを実現する手法がある。この手法は、識別対象に2次元コードのような指標となるものを付与する必要がない。また、画像中の対象を識別するため、対象の画像中での位置の同定精度も高い。Taketaらは、色ヒストグラムを用いて、対象を識別する手法を実装したと報告している。他には、検出性能を向上させるため、あらかじめひとつの対象に対して多数のテンプレートを生成しておいて追跡する手法や、対象の幾何的な歪みやボケをモデル化してテンプレートマッチングの精度を向上させた手法などが報告されている。これらの手法は、かなり高速に追跡できる反面、多種類の対象を識別する能力が低い(非特許文献2)。
三つ目の技術として、画像特徴点を用いる手法がある。近年では、SIFT、SURFといった画像特徴点表現手法がある。画像特徴量を用いて二つの画像間で共通する特徴点を数え上げ、共通する特徴点が多いとき、その二つの画像は同じ物体を含んでいるとして、画像検索を行う手法が知られている。この手法は、上述した色ヒストグラムを用いる手法などと比較して識別能力が高く、多くの対象を識別できるという特徴がある。また、二つの画像間の対応点のリストが得られるため、入力画像に対するコンテンツの重畳表示に必要な計算が容易に実行でき、画像中の物体を識別できるという特徴もある。しかしながら、この手法には、データベースサイズが大きくなりすぎるという問題点と、似ている画像特徴量を検索するための計算コストが大きい問題点がある。
したがって、この技術をそのまま携帯情報端末上に実装すると、データベースの利用や保持のために大量のメモリやストレージが必要となる。また、計算コストが大きいために現実的な時間内に識別の計算が終わらないおそれがある。このような理由から、携帯情報端末でこの技術を応用する場合、データベースや識別のための計算資源をネットワークに接続された別のマシンで実装し、画像や結果の情報を通信でやり取りする方法が一般的である。しかしながら、この実現方法では通信経路の遅延などを考えると、リアルタイムでカメラ画像中の物体を同定することは難しい。
暦本純一「2次元マトリックスコードを利用した拡張現実感システムの構成手法」インタラクティブシステムとソフトウェア IV,近代科学社,1996 Nobuko Taketa, Kenichi Hayashi,Hirokazu Kato and Shogo Nishida,"Virtual Pop-Up Book Based on Augmented Reality, HUMAN INTERFACE AND THE MANAGEMENT OF INFORMATION. INTERACTING IN INFORMATION ENVIRONMENTS", Lecture Notes in Computer Science, 2007, Volume 4558,pp.475-484(2007) David G. Lowe, "Object recognition from local scale-invariant features," International Conference on Computer Vision, Corfu, Greece (September 1999),pp.1150-1157
二つ目の技術によれば、携帯電話のようなデバイスでも高速にカメラ画像中の物体を識別できる可能性があるが、多くの物体を識別する能力が低い。また、三つ目の画像特徴点を用いる技術は、識別能力が高く、対応点を用いて物体の同定も可能ではあるが、その計算コストが大きいという課題がある。
そこで、カメラ画像中の物体を大量に識別する問題と、カメラ画像中の物体を高速に同定する問題をバランスよく解決する手法を実現することが課題となると考えられる。本発明は、このような課題に鑑みてなされたものである。
本発明の画像処理システムは、サーバに記憶された複数の参照画像の中から、端末にて入力された入力画像に対応する対応参照画像を検索し、前記入力画像上の点と前記対応参照画像上の点の位置関係を求める画像処理システムであって、前記サーバは、複数の参照画像中の複数の特徴点の特徴量のデータとその特徴点を含む参照画像の識別子とを記憶すると共にデータを特徴量から検索するためのインデックスが設定された特徴量データベースと、前記入力画像上の点と前記参照画像上の点の位置関係の計算に用いられる当該参照画像の特徴部分に関連するデータをトラッキングデータとして記憶したトラッキングデータベースと、前記入力画像中の複数の特徴点の特徴量のデータを前記端末から受信する受信部と、前記特徴量データベースを用いて、前記入力画像の特徴量データに対応する特徴点を最も多く含む参照画像を前記対応参照画像として検出する対応参照画像検出部と、前記トラッキングデータベースから前記対応参照画像のトラッキングデータを取得するトラッキングデータ取得部と、前記対応参照画像のトラッキングデータを前記端末に送信する送信部とを備え、前記端末は、前記入力画像中の特徴点の位置およびその特徴量を検出する特徴点検出部と、前記サーバに前記入力画像中の複数の特徴点の特徴量のデータを送信する送信部と、前記サーバから、前記対応参照画像のトラッキングデータを受信する受信部と、前記トラッキングデータに基づいて、前記入力画像上の点と前記対応参照画像上の点の位置関係を計算する位置関係算出部とを備える。
このように特徴量データベースとは別にトラッキングデータベースを設けておき、特徴量データベースを用いて対応参照画像を求めた後に、対応参照画像のトラッキングデータを端末に送信する構成とすることにより、端末側で入力画像と対応参照画像との位置関係を計算することができ、サーバの処理負担を軽減し、全体として計算処理を高速にすることができる。
本発明の画像処理システムにおいて、前記トラッキングデータベースは、複数の参照画像のそれぞれについて、当該参照画像中の特徴点の特徴量及び位置のデータであり、かつ、データを特徴量から検索するためのインデックスが前記参照画像ごとに設定されたトラッキングデータを記憶しており、前記端末の位置関係算出部は、前記トラッキングデータに基づいて、前記入力画像中の各特徴点に対応する前記対応参照画像の特徴点を求め、対応する各特徴点の位置関係に基づいて、前記入力画像上の点と前記参照画像上の点の位置関係を計算してもよい。
このように参照画像ごとに、特徴量によって検索するためのインデックスを設定したトラッキングデータを持つことにより、入力画像の特徴量に対応する対応参照画像の特徴点を高速に求めることができ、入力画像と対応参照画像との位置関係を求めることができる。
本発明の画像処理システムにおいて、前記トラッキングデータは、参照画像中の特徴部分を表したテンプレート画像及びその位置データであり、前記端末の位置関係算出部は、前記入力画像と前記テンプレート画像とのマッチングを行うことにより、前記入力画像上の点と前記対応参照画像上の点の位置関係を計算してもよい。
このように入力画像とテンプレート画像とのマッチングを行うことにより、入力画像と対応参照画像との位置関係を求めることができる。
本発明の画像処理システムにおいて、前記サーバは、前記参照画像に関連付けて、参照画像に重畳されるコンテンツ及びその重畳位置のデータを記憶したコンテンツデータベースと、前記コンテンツデータベースから、前記対応参照画像に対応するコンテンツ及びその重畳位置のデータを読み出すコンテンツ抽出部と、前記コンテンツ及びその重畳位置のデータを前記端末に送信する送信部とを備え、前記端末は、前記コンテンツ及びその重畳位置のデータを受信する受信部と、前記位置関係算出部にて検出された位置関係に基づいて、前記コンテンツの重畳位置を前記入力画像上の座標系に変換し、前記入力画像に前記コンテンツを重畳する重畳部と、前記コンテンツを重畳した画像を表示する表示部とを備えてもよい。
この構成により、入力画像と対応参照画像との位置関係に基づいて、入力画像に対してコンテンツを適切に重畳することができる。
本発明の画像処理システムは、サーバに記憶された複数の参照画像の中から、端末にて入力された入力画像に対応する対応参照画像を検索し、前記入力画像上の点と前記対応参照画像上の点の位置関係を求める画像処理システムであって、複数の参照画像中の複数の特徴点の特徴量のデータとその特徴点を含む参照画像の識別子とを記憶すると共にデータを特徴量から検索するためのインデックスが設定された特徴量データベースと、前記入力画像上の点と前記参照画像上の点の位置関係の計算に用いられる当該参照画像の特徴部分に関連するデータをトラッキングデータとして記憶したトラッキングデータベースと、前記入力画像中の特徴点の位置およびその特徴量を検出する特徴点検出部と、前記特徴量データベースを用いて、前記入力画像の特徴量データに対応する特徴点を最も多く含む参照画像を前記対応参照画像として検出する対応参照画像検出部と、前記トラッキングデータベースから前記対応参照画像のトラッキングデータを取得するトラッキングデータ取得部と、前記対応参照画像のトラッキングデータに基づいて、前記入力画像上の点と前記対応参照画像上の点の位置関係を計算する位置関係算出部とを備える。
このように特徴量データベースとは別にトラッキングデータベースを設けておき、特徴量データベースを用いて対応参照画像を求めた後に、対応参照画像のトラッキングデータを用いて入力画像と対応参照画像との位置関係を計算することにより、全体として計算処理を高速にすることができる。
本発明の画像処理方法は、サーバに記憶された複数の参照画像の中から、端末にて入力された入力画像に対応する対応参照画像を検索し、前記入力画像上の点と前記対応参照画像上の点の位置関係を求める方法であって、前記端末が、前記入力画像中の特徴点の位置およびその特徴量を検出するステップと、前記端末が、前記サーバに前記入力画像中の複数の特徴点の特徴量のデータを送信するステップと、前記サーバが、複数の参照画像中の特徴点の特徴量のデータとその特徴点を含む参照画像の識別子とを記憶すると共にデータを特徴量から検索するためのインデックスが設定された特徴量データベースの中から、前記入力画像の特徴量データに対応する特徴点を最も多く含む参照画像を前記対応参照画像として検出するステップと、前記サーバが、前記入力画像上の点と前記参照画像上の点の位置関係の計算に用いられる当該参照画像の特徴部分に関連するデータをトラッキングデータとして記憶したトラッキングデータベースから、前記対応参照画像のトラッキングデータを取得するステップと、前記サーバが、前記対応参照画像のトラッキングデータを前記端末に送信するステップと、前記端末が、前記トラッキングデータに基づいて、前記入力画像上の点と前記対応参照画像上の点の位置関係を計算するステップとを備える。
この構成により、上述した画像処理システムと同様に、サーバの処理負担を軽減し、全体として計算処理を高速にすることができる。
本発明は、特徴量データベースとは別にトラッキングデータベースを設け、特徴量データベースを用いて対応参照画像を求め、トラッキングデータを用いて入力画像と対応参照画像との位置関係を求めることにより、計算処理を高速にすることができるという効果を有する。
第1の実施の形態の画像処理システムの構成を示す図である。 実施の形態における入力画像の例を示す図である。 実施の形態における入力画像から抽出された特徴点を示す図である。 実施の形態における入力画像から検出された特徴量を示す図である。 実施の形態におけるバイナリコードに変換された特徴量を示す図である。 実施の形態における対応点の対を示す図である。 特徴量データベースに記憶されたデータの例を示す図である。 トラッキングデータベースに記憶された特徴点のデータの例を示す図である。 コンテンツデータベースに記憶されたデータの例を示す図である。 第1の実施の形態の画像処理システムの動作を示す図である。 最も近い特徴量を有する参照画像を求めた結果を示す図である。 第2の実施の形態のトラッキングデータベースに記憶されたテンプレート画像の例を示す図である。 第2の実施の形態の画像処理システムの動作を示す図である。
以下、本発明の実施の形態に係る画像処理システムについて、図面を参照しながら詳細に説明する。以下では、携帯電話端末で雑誌を撮影及び認識し、その雑誌を撮影した画像中に雑誌に関連付けられた付加情報(コンテンツ)を重畳して表示する例について説明する。
(第1の実施の形態)
図1は、第1の実施の形態の画像処理システムの構成を示すブロック図である。画像処理システムは、携帯電話端末10と、コンテンツサーバ30とがネットワークによって接続されて構成されている。
[携帯電話端末10]
携帯電話端末10は、画像取得部12と、取得した画像から複数の特徴点を検出する特徴点検出部14と、コンテンツサーバ30と通信を行う通信部16とを有している。画像取得部12は、携帯電話端末10に備えられたカメラで撮影をすることにより画像を生成し、これを入力画像として取得する。画像取得部12は、外部で生成された画像を通信又は記録媒体を介して取得してもよい。画像取得部12は、取得した画像を画像記憶部18に記憶する。
図2は、入力画像の例を示す図である。以下の説明では、この図2の入力画像を用いて各部における処理を説明する。画像取得部12にて取得された入力画像は、特徴点検出部14に出力される。
特徴点検出部14は、入力画像から特徴点を抽出し、特徴点を含む周辺の領域の画像に基づいて特徴点の特徴量を計算する。特徴量の計算には、既存技術のSIFTを用いる。また、可能であれば、他のSURFなどの画像特徴量計算アルゴリズムを用いてもよい。図3は、入力画像から抽出された特徴点を示す図である。図3に示すように、一般的には、入力画像から複数の特徴点が検出される。
図4は、特徴点検出部14により検出された特徴量を示す図である。本実施の形態では、特徴量として、局所特徴量を用いる。図4に示すように、特徴点検出部14において、局所特徴量は、単精度実数のベクトルとして求められる。特徴量のデータは、計算処理負担を軽減するために、図5に示すようなバイナリデータに変換して扱うことが望ましい。単精度実数のベクトルからバイナリデータへの変換方法については、本出願人による別の出願(特願2011−19575)において詳しく説明している。特徴点検出部14は、特徴点の位置及び特徴量のデータを特徴点記憶部20に記憶すると共に、特徴量のデータをコンテンツサーバ30に送信する。
また、携帯電話端末10は、入力画像上の点と対応参照画像上の点の位置関係を求める位置関係算出部22と、コンテンツサーバ30から送信されたコンテンツデータを入力画像に重畳するコンテンツ重畳部24と、コンテンツが重畳された入力画像を表示する表示部26とを有している。
位置関係算出部22は、特徴点記憶部20から入力画像の特徴点の特徴量及び位置のデータを読み出す。また、位置関係算出部22は、コンテンツサーバ30からトラッキングデータである対応参照画像の特徴点の特徴量及びその位置のデータを受信する。そして、位置関係算出部22は、入力画像の各特徴点の特徴量と対応参照画像の特徴量とを比較し、似ている特徴量のリストを作成する。図6は、対応点の対を示す図である。
位置関係算出部22は、入力画像中の特徴点の座標と、この特徴点と対になる対応参照画像中の特徴点の座標に基づいて、対応参照画像上の任意の座標を、入力画像上の点に写像するホモグラフィー行列を計算する。ホモグラフィー行列は、対応点の対のリストから、以下の式を満たすホモグラフィー行列AをRANSAC(Random Sample Consensus)法で推定する。
x=A・X
このホモグラフィー行列Aを用いると、対応参照画像上の任意の点を入力画像上の点に写像させることができる。
コンテンツ重畳部24は、位置関係算出部22によって得られたホモグラフィー行列Aを用いて、コンテンツの重畳位置を入力画像中の座標系に変換し、入力画像上に重畳する。
[コンテンツサーバ30]
コンテンツサーバ30は、携帯電話端末10と通信する通信部32と、複数の参照画像の特徴点の特徴量のデータを参照画像のIDに関連付けて記憶した特徴量データベース(以下、「特徴量DB」という)34と、特徴量DB34のデータを用いて入力画像に対応する対応参照画像を検出する対応参照画像検出部36と、入力画像と参照画像との位置関係の算出に用いられるトラッキングデータを記憶したトラッキングデータベース(以下、「トラッキングDB」という)38と、トラッキングDB38から対応参照画像のトラッキングデータを取得するトラッキングデータ取得部40と、コンテンツを記憶したコンテンツデータベース(以下、「コンテンツDB」という)42と、コンテンツDB42からコンテンツを抽出するコンテンツ抽出部44とを有している。
図7は、特徴量DB34に記憶されたデータの例を示す図である。特徴量DB34は、複数の参照画像中の特徴点の特徴量のデータと、その特徴点を抽出した参照画像IDのデータを有している。例えば、図7において、上から第1〜3行に記載された特徴量は、参照画像IDが「1」の参照画像に含まれる特徴点の特徴量である。
この参照画像は、ARにおける認識対象の画像となる。すなわち、参照画像は、認識対象である雑誌を撮影して得た参照画像の中から、特徴点を抽出し、特徴量を計算して得たものである。この画像特徴点の計算手法は、既存技術のSIFTを用いる。可能であれば、他のSURFなどの画像特徴量計算アルゴリズムを用いてもよい。SIFTの場合、特徴量は128次元のベクトルとなる。
特徴量のデータは、参照画像に含まれる特徴点の個数分だけ抽出される。特徴量DB34は、複数の参照画像に含まれる複数の特徴量のデータを記憶しているため、データ量は非常に膨大になる場合がある。例えば、1000枚の参照画像の特徴量データを記憶する場合、1つの参照画像につき1000個の特徴点があるとすると、特徴量DB34は、100万個もの特徴量データを有することになる。
特徴量DB34は、特徴量DB34内のデータを効率的に検索するために、特徴量によって検索するためのインデックスが設定されている。このインデックスとしては、例えば、B木やB+木などのDBMS(Database Management System)で一般的に提供されているインデックスを用いることができる。このように複数の参照画像から得られた特徴量のデータを混然一体として扱っている特徴量DB34に検索用のインデックスが設定されていることにより、複数の参照画像の中から、最も近い特徴量を有する参照画像を高速に探し出すことができる。
対応参照画像検出部36は、特徴量DB34を用いて、入力画像に最も近似する参照画像を対応参照画像として求める。ここで、具体的な処理について述べる。まず、対応参照画像検出部36は、入力画像中の複数の特徴量データのそれぞれについて、最も近い特徴量を特徴量DB34から検索し、検索された特徴量データに関連付けられた参照画像IDを求める。本実施の形態では、バイナリコードで表現された特徴量の遠近の評価にはハミング距離を採用する。なお、対応参照画像検出部36は、高速化等の目的に応じて、LSH(Locality Sensitive Hashing)などの既存技術を用いて、最も近いバイナリコードの探索を行なってもよい。
対応参照画像検出部36は、入力画像の特徴量に最も近い特徴量に紐付けられた参照画像IDに投票していく。対応参照画像検出部36は、入力画像から抽出されたすべての特徴量について投票を行った結果、最も多くの票を獲得した参照画像を、この入力画像に対応する対応参照画像であると決定する。なお、対応参照画像検出部36は、対応参照画像であると決定するための獲得票数の下限を設定してもよい。この場合は、最も多く票を獲得した参照画像の獲得票数がこの下限に満たない場合には、特徴量DB34に対応参照画像が存在しないと判断される。
図8は、トラッキングDB38に記憶されたデータの例を示す図である。トラッキングDB38は、参照画像ごとに、参照画像に含まれる特徴点の特徴量とその位置のデータを記憶している。トラッキングDB38は、トラッキングDB38内のデータを特徴量によって検索するためのインデックスが参照画像ごとに設定されている。このインデックスは、例えば、B木やB+木などのDBMS(Database Management System)で一般的に提供されているインデックスを用いることができる。このようなインデックスが参照画像ごとに設定されていることにより、参照画像ごとに特徴量の検索を行うことができる。つまり、トラッキングDB38を備えることにより、対応参照画像が特定された後は、特定された参照画像だけを検索することが可能となる。
図9は、コンテンツDB42に記憶されたデータの例を示す図である。図9に示すように、コンテンツDB42には、コンテンツごとに、コンテンツが対応する参照画像の画像識別番号、コンテンツデータ、コンテンツの形状、サイズ、及び重畳場所からなるレコードが記憶されている。本実施の形態では、コンテンツの重畳場所は、形状、サイズ、位置によって特定されている。
コンテンツデータは、テキストデータ、画像データ、動画データを含む、入力画像に重畳される各種のデータであってよい。図9の例では、参照画像IDが「1」の参照画像には、コンテンツデータとして、「この写真は・・・」という参照画像に映っている対象物体の説明文(テキストデータ)、「http://www.abcdefg.com」という参考URL(テキストデータ)、及び参考画像の画像データが用意されている。
図10は、本実施の形態の画像処理システムの動作を示すフローチャートである。携帯電話端末10は、画像取得部12にて画像を取得する(S10)。画像取得部12は、例えば、携帯電話端末10に備えられたカメラによって撮影を行うことにより画像を取得する。携帯電話端末10は、画像取得部12にて取得した画像を画像記憶部18に記憶すると共に特徴点検出部14に入力する。
特徴点検出部14は、画像取得部12から入力された入力画像から複数の特徴点を検出し、各特徴点の位置と特徴量を求める(S12)。特徴点検出部14は、検出した特徴点の位置と特徴量のデータを特徴点記憶部20に記憶する。また、特徴点検出部14は、検出した特徴量のデータを通信部16を通じてコンテンツサーバ30に送信する(S14)。
コンテンツサーバ30は、携帯電話端末10から送信されてきた入力画像の特徴量のデータを受信する(S16)。コンテンツサーバ30の対応参照画像検出部36は、特徴量DB34を検索し、特徴量データに対応する特徴点を最も多く含む対応参照画像を求める(S18)。
具体的には、対応参照画像検出部36は、受信した特徴量データに最も近い特徴量データを特徴量DB34から検索し、検索された特徴量データに関連付けられた参照画像IDを求める処理を、複数の特徴量データについて繰り返し行う。
図11は、入力画像中の特徴点の特徴量に対応する(最も近い)特徴量を有する参照画像のIDを求めた結果を示す図である。図11の最初のカラムに記載された「1011010111・・・」の特徴量に対応する特徴量を有する参照画像IDは「783」であり、2番目のカラムの特徴量に対応する特徴量を有する参照画像IDは「236」である。このように、入力画像中の複数の特徴量のそれぞれについて、対応する特徴量を有する参照画像IDを求め、求めた参照画像IDに対して投票を行う。その結果、最も多くの票を獲得した参照画像を、この入力画像に対応する対応参照画像であると決定する。つまり、入力画像中の特徴量に対応する特徴量を最も多く含んだ参照画像が対応参照画像となる。
図10に戻って、動作の説明を続ける。コンテンツサーバ30は、検出した対応参照画像の特徴点のデータと、コンテンツデータを携帯電話端末10に送信する(S20)。ここで、対応参照画像の特徴点のデータは、トラッキングDB38から読み出したトラッキングデータである。すなわち、対応参照画像の特徴点の位置とその特徴量のデータを含んでおり、かつ、当該データを特徴量から検索するためのインデックスが設定されている。コンテンツデータは、コンテンツDB42から読み出したデータであり、コンテンツ自体を表すコンテンツデータと、コンテンツの重畳位置を示すデータを含んでいる。
携帯電話端末10は、コンテンツサーバ30から送信された対応参照画像の特徴点のデータとコンテンツデータを受信する(S22)。携帯電話端末10の位置関係算出部22は、入力画像の特徴点データと対応参照画像の特徴点データとを比べることによって、図6に示すような、入力画像の特徴点に対応する対応参照画像上の特徴点(対応点)を求める(S24)。
続いて、携帯電話端末10の位置関係算出部22は、対応点の位置関係に基づいて、入力画像上の点と対応参照画像上の点との位置関係を求める(S26)。具体的には、上述したとおり、入力画像中の特徴点の座標と対応参照画像上の任意の点を、入力画像上の点に写像するホモグラフィー行列を計算する。
携帯電話端末10のコンテンツ重畳部24は、求めたホモグラフィー行列を用いて、コンテンツの重畳位置を入力画像中の座標系に変換し、入力画像上に重畳する(S28)。携帯電話端末10は、コンテンツを重畳した入力画像を表示部26にて表示する(S30)。以上、第1の実施の形態の画像処理システムについて説明した。
第1の実施の形態の画像処理システムでは、コンテンツサーバ30のトラッキングDB38が、参照画像ごとにインデックスが設定された特徴点のデータを記憶している。したがって、対応参照画像検出部36にて対応参照画像が決定された後には、その対応参照画像についてだけ検索をかけることができるという効果を有している。
また、第1の実施の形態では、トラッキングデータを携帯電話端末10に送信し、対象参照画像に対する検索を携帯電話端末10に行わせている。対象参照画像だけを検索対象として、入力画像の特徴量データに対応する特徴量データを検索するのであれば、携帯電話端末10側でも十分に高速に処理できる。これにより、コンテンツサーバ30の計算負担を軽減し、全体としてシステムの計算速度を向上できる。
(第2の実施の形態)
次に、本発明の第2の実施の形態の画像処理システムについて説明する。第2の実施の形態の画像処理システムの基本的な構成は、第1の実施の形態と同じであるが(図1参照)、第2の実施の形態では、トラッキングDB38に記憶されたデータが異なり、対応参照画像と入力画像との位置関係を求める処理も異なる。
図12は、トラッキングDB38に記憶されたデータの例を示す図である。トラッキングDB38は、トラッキングデータとして、参照画像ごとに、テンプレート画像とその中心位置を記憶している。
図13は、第2の実施の形態の画像処理システムの動作を示すフローチャートである。第2の実施の形態の画像処理システムの基本的な動作は、第1の実施の形態と同じであるが、第2の実施の形態では、コンテンツサーバ30が、トラッキングデータとして、携帯電話端末10にテンプレート画像を送る点が異なっている(S21)。
携帯電話端末10は、コンテンツサーバ30からテンプレート画像を受信すると(S23)、位置関係算出部22にて、テンプレート画像を用いて入力画像とのマッチングを行う(S25)。これにより、位置関係算出部22は、入力画像中において、テンプレート画像とマッチする位置を検出する。位置関係算出部22は、入力画像中でマッチした位置の座標とテンプレート画像の座標とに基づいて、入力画像上の点と対応参照画像上の点との位置関係を求める。具体的には、上述したとおり、入力画像中の特徴点の座標と対応参照画像上の任意の座標を、入力画像上の点に写像するホモグラフィー行列を計算する。以上、第2の実施の形態の画像処理システムについて、第1の実施の形態と異なる部分を中心に説明した。
第2の実施の形態の画像処理システムも、第1の実施の形態と同様に、対応参照画像が決定された後には、その対応参照画像についてだけ検索をかけることができるという効果を有し、コンテンツサーバ30の計算負担を軽減し、全体としてシステムの計算速度を向上できる効果を有している。
以上、本発明の画像処理システム及び画像処理方法について、実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。
上記した実施の形態では、携帯電話端末10において入力画像の特徴点を検出する例について説明したが、携帯電話端末10は取得した入力画像をコンテンツサーバ30に送信し、コンテンツサーバ30にて特徴点の検出を行うこととしてもよい。
上記した実施の形態では、入力画像に対してコンテンツを重畳するシステムを例として説明したが、本発明の画像処理システムは、コンテンツを重畳して表示するシステムに限らず、様々な用途に適用することが可能である。
以上説明したとおり、本発明は、システム全体として計算処理を高速にすることができるという効果を有し、入力画像に対応する対応参照画像を大量の参照画像の中から検索し、その対応関係を求めるシステム等として有用である。
10 携帯電話端末
12 画像取得部
14 特徴点検出部
16 通信部
18 画像記憶部
20 特徴点記憶部
22 位置関係算出部
24 コンテンツ重畳部
26 表示部
30 コンテンツサーバ
32 通信部
34 特徴量DB
36 対応参照画像検出部
38 トラッキングDB
40 トラッキングデータ取得部
42 コンテンツDB
44 コンテンツ抽出部

Claims (4)

  1. サーバに記憶された複数の参照画像の中から、端末にて入力された入力画像に対応する対応参照画像を検索し、前記入力画像上の点と前記対応参照画像上の点の位置関係を求める画像処理システムであって、
    前記サーバは、
    複数の参照画像中の複数の特徴点の特徴量のデータとその特徴点を含む参照画像の識別子とを記憶すると共に、データを特徴量から検索するためのインデックスが設定された特徴量データベースと、
    前記入力画像上の点と前記参照画像上の点の位置関係の計算に用いられる当該参照画像中の特徴点の特徴量を表すバイナリデータ及び位置のデータをトラッキングデータとして記憶したトラッキングデータベースと、
    前記入力画像中の複数の特徴点の特徴量のデータを前記端末から受信する受信部と、
    前記特徴量データベースを用いて、前記入力画像の特徴量データに対応する特徴点を最も多く含む参照画像を前記対応参照画像として検出する対応参照画像検出部と、
    前記トラッキングデータベースから前記対応参照画像のトラッキングデータを取得するトラッキングデータ取得部と、
    前記対応参照画像のトラッキングデータを前記端末に送信する送信部と、
    を備え、
    前記端末は、
    前記入力画像中の特徴点の位置およびその特徴量を検出する特徴点検出部と、
    前記サーバに前記入力画像中の複数の特徴点の特徴量のデータを送信する送信部と、
    前記サーバから、前記対応参照画像のトラッキングデータを受信する受信部と、
    前記トラッキングデータに基づいて、前記入力画像上の点と前記対応参照画像上の点の位置関係を計算する位置関係算出部と、
    を備える画像処理システム。
  2. 前記トラッキングデータベースは、データを特徴量から検索するためのインデックスが参照画像ごとに設定されたトラッキングデータを記憶しており、
    前記端末の位置関係算出部は、前記トラッキングデータに基づいて、前記入力画像中の各特徴点に対応する前記対応参照画像の特徴点を求め、対応する各特徴点の位置関係に基づいて、前記入力画像上の点と前記参照画像上の点の位置関係を計算する請求項1に記載の画像処理システム。
  3. 前記サーバは、
    前記参照画像に関連付けて、参照画像に重畳されるコンテンツ及びその重畳位置のデータを記憶したコンテンツデータベースと、
    前記コンテンツデータベースから、前記対応参照画像に対応するコンテンツ及びその重畳位置のデータを読み出すコンテンツ抽出部と、
    前記コンテンツ及びその重畳位置のデータを前記端末に送信する送信部と、
    を備え、
    前記端末は、
    前記コンテンツ及びその重畳位置のデータを受信する受信部と、
    前記位置関係算出部にて検出された位置関係に基づいて、前記コンテンツの重畳位置を前記入力画像上の座標系に変換し、前記入力画像に前記コンテンツを重畳する重畳部と、
    前記コンテンツを重畳した画像を表示する表示部と、
    を備える請求項1または2に記載の画像処理システム。
  4. サーバに記憶された複数の参照画像の中から、端末にて入力された入力画像に対応する対応参照画像を検索し、前記入力画像上の点と前記対応参照画像上の点の位置関係を求める方法であって、
    前記端末が、前記入力画像中の特徴点の位置およびその特徴量を検出するステップと、
    前記端末が、前記サーバに前記入力画像中の複数の特徴点の特徴量のデータを送信するステップと、
    前記サーバが、複数の参照画像中の特徴点の特徴量のデータとその特徴点を含む参照画像の識別子とを記憶すると共に、データを特徴量から検索するためのインデックスが設定された特徴量データベースの中から、前記入力画像の特徴量データに対応する特徴点を最も多く含む参照画像を前記対応参照画像として検出するステップと、
    前記サーバが、前記入力画像上の点と前記参照画像上の点の位置関係の計算に用いられる当該参照画像中の特徴点の特徴量を表すバイナリデータ及び位置のデータをトラッキングデータとして記憶したトラッキングデータベースから、前記対応参照画像のトラッキングデータを取得するステップと、
    前記サーバが、前記対応参照画像のトラッキングデータを前記端末に送信するステップと、
    前記端末が、前記トラッキングデータに基づいて、前記入力画像上の点と前記対応参照画像上の点の位置関係を計算するステップと、
    を備える画像処理方法。
JP2012048416A 2012-03-05 2012-03-05 画像処理システム及び画像処理方法 Expired - Fee Related JP5536124B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012048416A JP5536124B2 (ja) 2012-03-05 2012-03-05 画像処理システム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012048416A JP5536124B2 (ja) 2012-03-05 2012-03-05 画像処理システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2013186478A JP2013186478A (ja) 2013-09-19
JP5536124B2 true JP5536124B2 (ja) 2014-07-02

Family

ID=49387901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012048416A Expired - Fee Related JP5536124B2 (ja) 2012-03-05 2012-03-05 画像処理システム及び画像処理方法

Country Status (1)

Country Link
JP (1) JP5536124B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6420605B2 (ja) * 2014-09-24 2018-11-07 Kddi株式会社 画像処理装置
JP2017046324A (ja) * 2015-08-28 2017-03-02 株式会社オプティム ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム
JP6514632B2 (ja) * 2015-12-22 2019-05-15 Kddi株式会社 情報処理システム、情報処理方法、情報処理装置、サーバ及びプログラム
JP6603178B2 (ja) * 2016-06-13 2019-11-06 日本電信電話株式会社 表示制御システム、表示制御方法、および表示制御プログラム
US20220318398A1 (en) * 2019-06-24 2022-10-06 Nippon Telegraph And Telephone Corporation Support device, support method, program, and support system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101133429B (zh) * 2005-03-01 2010-10-06 公立大学法人大阪府立大学 文档和/或图像检索方法、文档和/或图像存储设备和检索设备
JP4538507B2 (ja) * 2008-05-02 2010-09-08 シャープ株式会社 画像照合方法、画像照合装置、画像データ出力処理装置、プログラム及び記憶媒体
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP2013186478A (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
WO2020259481A1 (zh) 定位方法及装置、电子设备、可读存储介质
US11501514B2 (en) Universal object recognition
US10210423B2 (en) Image match for featureless objects
US8798357B2 (en) Image-based localization
JP5563494B2 (ja) 対応参照画像検索装置及び方法、コンテンツ重畳装置、システム、及び方法、並びにコンピュータプログラム
US8442307B1 (en) Appearance augmented 3-D point clouds for trajectory and camera localization
US9076069B2 (en) Registering metadata apparatus
CN110287772B (zh) 平面手掌掌心区域提取方法及装置
AU2018202767B2 (en) Data structure and algorithm for tag less search and svg retrieval
JP6211407B2 (ja) 画像検索システム、画像検索装置、検索サーバ装置、画像検索方法、及び画像検索プログラム
JP2018523881A (ja) データを位置合わせする方法及びシステム
JP5536124B2 (ja) 画像処理システム及び画像処理方法
CN112419388A (zh) 深度检测方法、装置、电子设备和计算机可读存储介质
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
CN112102404B (zh) 物体检测追踪方法、装置及头戴显示设备
KR20190124436A (ko) 영상 기반 건물 검색 방법 및 장치
CN112989922B (zh) 基于人工智能的脸部识别方法、装置、设备和存储介质
JP2014225168A (ja) 特徴点集合で表される画像間の類似度を算出するプログラム、装置及び方法
JP2014038566A (ja) 画像処理装置
JP6244887B2 (ja) 情報処理装置、画像探索方法、及びプログラム
US20190102885A1 (en) Image processing method and image processing apparatus
CN115482285A (zh) 图像对齐方法、装置、设备及存储介质
JP5975484B2 (ja) 画像処理装置
JP6946912B2 (ja) 推定プログラム、推定装置、及び推定方法
JP2022534314A (ja) ピクチャに基づいた多次元情報の統合方法及び関連機器

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140423

R150 Certificate of patent or registration of utility model

Ref document number: 5536124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees