JP2008310446A - Image retrieval system - Google Patents
Image retrieval system Download PDFInfo
- Publication number
- JP2008310446A JP2008310446A JP2007155649A JP2007155649A JP2008310446A JP 2008310446 A JP2008310446 A JP 2008310446A JP 2007155649 A JP2007155649 A JP 2007155649A JP 2007155649 A JP2007155649 A JP 2007155649A JP 2008310446 A JP2008310446 A JP 2008310446A
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured
- database
- comparison target
- capturing terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、携帯電話機等の画像撮影端末の位置を特定する位置特定方法、撮影した風景画像とデータベース上に保持している画像との類似性の比較精度を向上させる画像比較方法、及びこれらの方法を実現する際に使用する画像検索システムに関するものである。 The present invention relates to a position specifying method for specifying the position of an image capturing terminal such as a mobile phone, an image comparison method for improving the accuracy of comparing the similarity between a captured landscape image and an image stored in a database, and The present invention relates to an image search system used for realizing the method.
携帯電話機等の携帯端末は、従来はGPS(Global Positioning System)技術を利用して、現在位置の特定や経路案内を実施している。この方法は、GPS衛星からの電波を利用しているため、信号の届かない場所では機能しない。また、携帯端末が通信する基地局を利用して、その電波の強さ等から位置を特定する方法も知られているが、十分な精度が得られないという問題点があった。 Conventionally, portable terminals such as cellular phones use the GPS (Global Positioning System) technology to specify the current position and provide route guidance. Since this method uses radio waves from GPS satellites, it does not function in places where signals do not reach. Also, a method of specifying a position from the strength of the radio wave using a base station with which a mobile terminal communicates is known, but there is a problem that sufficient accuracy cannot be obtained.
そのため、携帯端末で撮影した風景画像と、サーバ上に保持している地図情報を3D(3次元)化したデータとを比較して位置を特定することにより、GPS衛星からの電波が届かない場所でも、位置を特定するための技術が公開されている(例えば、特許文献1参照)。
しかしながら、前記従来の構成では、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響により、同じ位置を撮影した場合でも、画像の変化が大きく、3Dデータとの類似性を比較する際に悪影響となる要因が多いため、位置を判定できないことや、誤判定の可能性が大きいという問題点があった。 However, in the conventional configuration, the image changes even when the same position is photographed due to the influence of disturbance such as building extension, reconstruction, removal or new construction, moving objects such as people and plants, or reflection of automobiles. Since there are many factors that adversely affect the similarity with 3D data, there are problems that the position cannot be determined and the possibility of erroneous determination is high.
また、建物の増改築、撤去又は新築などによって、比較用の3Dデータが役に立たなくなることを防ぐためのメンテナンスが不可欠であるという問題点も存在している。 There is also a problem that maintenance is indispensable to prevent comparison 3D data from becoming useless due to expansion, reconstruction, removal, or new construction of a building.
本発明の目的は、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、撮影画像の類似性を評価することができ、画像撮影端末の位置情報を高精度に求めることができる画像検索システムを提供することである。 The object of the present invention is to take a picture without being affected by the expansion, reconstruction, removal or new construction of a building, the influence of disturbance such as a moving object such as a person or a plant or the reflection of an automobile, or the deviation of a photographed image. To provide an image search system that can evaluate the similarity of images and can obtain the position information of the image capturing terminal with high accuracy.
本発明に係る画像検索システムは、撮影画像を利用して現在位置の候補を提示する画像検索システムであって、風景を撮影した撮影画像を取得する画像撮影端末と、前記画像撮影端末により撮影された撮影画像とデータベース上に保持している撮影画像との類似性の判断を行い、類似性が認められた前記データベース上に保持している撮影画像を候補画像として特定し、特定した候補画像に対応付けて前記データベース上に保持している位置情報を前記画像撮影端末へ返信する候補画像決定部とを備える。 An image search system according to the present invention is an image search system that presents a candidate for a current position using a captured image, and is captured by an image capturing terminal that acquires a captured image of a landscape and the image capturing terminal. The photographed image and the photographed image held in the database are judged to be similar, the photographed image retained in the database in which the similarity is recognized is identified as a candidate image, and the identified candidate image A candidate image determination unit that returns the positional information associated with and held on the database to the image capturing terminal.
この画像検索システムにおいては、撮影画像とその位置情報のみでデータベースを作成し、撮影画像から位置情報を特定することができるので、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができるため、画像撮影端末の位置情報を高精度に求めることができる。 In this image retrieval system, it is possible to create a database only with captured images and their position information, and to specify position information from the captured images, so that the expansion, renovation, removal or new construction of buildings, movements of people, plants, etc. Because it is possible to evaluate the similarity of images without being affected by disturbances such as reflection of a certain object or car, or by the shift of the captured image, the position information of the image capturing terminal must be obtained with high accuracy. Can do.
前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第1の画像評価部と、前記データベース上に保持している撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第2の画像評価部と、前記第1の画像評価部により算出された比較対象オブジェクト間の距離と前記第2の画像評価部により算出された比較対象オブジェクト間の距離とを基に、前記画像撮影端末により撮影された撮影画像と前記データベース上に保持している撮影画像との類似性の判断を行う比較処理部とを含むことが好ましい。 The candidate image determination unit stores a first image evaluation unit that extracts a plurality of comparison target objects from a captured image captured by the image capturing terminal and calculates a distance between the comparison target objects, and stores the comparison target object on the database. A second image evaluation unit that extracts a plurality of comparison target objects from a captured image and calculates a distance between the comparison target objects; a distance between the comparison target objects calculated by the first image evaluation unit; Based on the distance between the comparison target objects calculated by the second image evaluation unit, the similarity between the captured image captured by the image capturing terminal and the captured image stored on the database is determined. It is preferable to include a comparison processing unit.
この場合、比較対象オブジェクト間の距離のみを用いて画像の類似性を評価することにより、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができる。 In this case, by evaluating the similarity of the image using only the distance between the objects to be compared, disturbances such as expansion, reconstruction, removal, or new construction of a building, moving objects such as people or plants, or reflection of a car It is possible to evaluate the similarity of images without being affected by the influence of the above and the deviation of the photographed image.
前記画像撮影端末は、プレビュー画像上に比較対象オブジェクトが存在している場合、該当比較対象オブジェクトの周囲にガイドラインを描画することが好ましい。 The image photographing terminal preferably draws a guideline around the comparison target object when the comparison target object exists on the preview image.
この場合、ユーザは複数の比較対象オブジェクトをスムーズに撮影画像に収めることが可能となり、画像の類似性の評価に使用される比較対象オブジェクト数が増加するため、より精度よく類似性を評価することができる。 In this case, the user can smoothly place a plurality of comparison target objects in the captured image, and the number of comparison target objects used for evaluating the similarity of images increases, so that the similarity can be evaluated more accurately. Can do.
前記比較処理部は、前記画像撮影端末により撮影された撮影画像に類似する候補画像が複数ある場合に、前記画像撮影端末に対して、プレビュー画像上の比較対象オブジェクト数を増加させるよう促す通知を行い、前記画像撮影端末は、前記通知を受けた場合に、通知内容をユーザに提示することが好ましい。 The comparison processing unit notifies the image photographing terminal to increase the number of comparison target objects on the preview image when there are a plurality of candidate images similar to the photographed image photographed by the image photographing terminal. Preferably, the image photographing terminal presents the notification content to the user when receiving the notification.
この場合、撮影画像がデータベース中の画像と一致しなかったときや、複数の画像と一致したときに、新規の比較対象オブジェクトを撮影画像に含めるようにユーザに要求することにより、新たな比較対象オブジェクトにより類似性を評価することができるため、撮影画像がデータベース中の画像と一致する頻度を増やすことができる。 In this case, when the captured image does not match the image in the database or when it matches a plurality of images, a new comparison target is requested by requesting the user to include a new comparison target object in the captured image. Since the similarity can be evaluated by the object, the frequency with which the captured image matches the image in the database can be increased.
前記データベースは、保持している撮影画像内に存在している複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算した結果を、当該撮影画像と対応付けて予め保持することが好ましい。 The database preferably stores in advance a result of extracting a plurality of comparison target objects existing in the held captured image and calculating a distance between the comparison target objects in association with the captured image. .
この場合、データベース中の撮影画像の比較対象オブジェクトを予め抽出しておくことにより、撮影画像の類似性の評価を行う毎に比較対象オブジェクトを抽出する処理を削減することができる。 In this case, by extracting the comparison target object of the captured image in the database in advance, the process of extracting the comparison target object every time the similarity of the captured image is evaluated can be reduced.
前記データベースは、比較対象オブジェクト毎に位置情報を保持することが好ましい。 The database preferably holds position information for each comparison target object.
この場合、データベース上のデータを比較対象オブジェクト単位とすることにより、異なる画像に含まれている比較対象オブジェクト間の比較も可能となるため、撮影画像中の比較対象オブジェクトとデータベース中の比較対象オブジェクトとの類似性を比較する際に、一致する確率を高めることができ、位置情報を特定できる頻度を増やすことができる。 In this case, by comparing the data in the database with the comparison target object unit, it becomes possible to compare the comparison target objects included in different images. Therefore, the comparison target object in the captured image and the comparison target object in the database When comparing the similarity with, the probability of matching can be increased, and the frequency with which position information can be specified can be increased.
前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像と前記データベース上に保持している撮影画像との類似性が高い場合には、前記データベース上に保持している撮影画像を前記画像撮影端末により撮影された撮影画像に置き換えることが好ましい。 When the similarity between the captured image captured by the image capturing terminal and the captured image stored on the database is high, the candidate image determination unit selects the captured image stored on the database. It is preferable to replace the image with a captured image captured by the image capturing terminal.
この場合、実際に建物の増改築などにより地図に変化が発生したにも関わらず、データベース中の比較対象オブジェクトが更新されていない場合に、最新の画像を用いて、データベース上に保持している撮影画像を正しい風景を表す画像に置き換えることができ、その後の画像の類似性の評価の精度を高めることができる。 In this case, when the comparison object in the database has not been updated even though the map has actually changed due to expansion or renovation of the building, etc., the latest image is used and stored in the database. The captured image can be replaced with an image representing a correct landscape, and the accuracy of the subsequent similarity evaluation of the image can be increased.
前記候補画像決定部は、前記データベースに新たな比較対象オブジェクトを追加することが好ましい。 Preferably, the candidate image determination unit adds a new comparison target object to the database.
この場合、新たな比較対象オブジェクトの情報を追加することにより、比較対象オブジェクトが増加するため、類似性を評価する精度を高めることができる。 In this case, by adding information about a new comparison target object, the number of comparison target objects increases, so that the accuracy of evaluating similarity can be increased.
前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像とデータベース上に保持している撮影画像との類似性の判断を行い、類似性が認められた場合には、前記画像撮影端末の傾きを算出して前記画像撮影端末へ返信することが好ましい。 The candidate image determination unit determines the similarity between the captured image captured by the image capturing terminal and the captured image stored in the database, and when the similarity is recognized, the image capturing terminal It is preferable to calculate the inclination of the image and send it back to the image capturing terminal.
この場合、画像撮影端末にて傾き情報を利用することが可能となるため、ユーザに傾きを提示したり、画像撮影端末内部にて傾き情報を利用したりすることが可能となる。 In this case, since the tilt information can be used at the image capturing terminal, it is possible to present the tilt to the user or to use the tilt information inside the image capturing terminal.
本発明の画像検索システムによれば、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができるため、画像撮影端末の位置情報を高精度に求めることができる。 According to the image retrieval system of the present invention, it is affected by the expansion, reconstruction, removal or new construction of buildings, the influence of disturbances such as moving objects such as people and plants, or the reflection of automobiles, and the deviation of captured images. Therefore, since the similarity of images can be evaluated, the position information of the image capturing terminal can be obtained with high accuracy.
以下、本発明の各実施の形態による画像検索システムについて図面を参照しながら詳細に説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態による画像検索システムの構成を示すブロック図である。図1に示す画像検索システムでは、画像撮影端末10は、撮影した風景の画像データ40をサーバ20へ送信し、サーバ20は、受信した画像データ40と、画像データと当該画像データの撮影位置を表す撮影位置情報とをペアで記録したデータベース30内の各画像データとのマッチング処理を行うことにより、画像データ40に類似する画像データの検索を行う。サーバ20は、マッチした画像データとペアで管理される撮影位置情報50を画像撮影端末10へ送信し、画像撮影端末10は、撮影位置情報50をLCD(液晶表示装置)60に描画することにより、撮影位置情報をユーザに提示し、ユーザは現在位置を特定することができる。
Hereinafter, image search systems according to embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an image search system according to the first embodiment of the present invention. In the image search system shown in FIG. 1, the
図2に、画像データと画像データの撮影位置情報とをペアで管理するデータベース30内のデータ構成の一例を示す。ここで、撮影位置情報とは、例えば、地図上の座標と撮影方向である。
FIG. 2 shows an example of a data configuration in the
図3に、図1に示す画像撮影端末10とサーバ20との機能ブロック図を示す。なお、図3では、データベース26として、図1に示すデータベース30をサーバ20の内部に有する例を図示しているが、データベースは、図1に示すようにサーバと別体であってもよいし、サーバの内部に備えてもよい。以下の他の実施の形態でも同様である。
FIG. 3 shows a functional block diagram of the
図3を用いて、図1に示す画像検索システムによる現在位置特定処理の全体の流れを説明する。画像撮影端末10のカメラ画取り込み部12は、カメラ11により撮影された風景の撮影画像を画像データとして取り込む。カメラ画送信部13は、取り込まれた画像データをサーバ20へ送信する。
The overall flow of the current position specifying process by the image search system shown in FIG. 1 will be described with reference to FIG. The camera
ここで、画像データは、特に断らない限り、静止画を指すが、動画像は静止画の連続であるため、動画像であってもよく、特に静止画に限定するものではない。また、画像データは、圧縮してもよく、この場合の画像データの圧縮方式は、どのような圧縮方式でもよく、圧縮部や展開部は本発明とは関わらないため、その説明を省略する。 Here, the image data refers to a still image unless otherwise specified. However, since a moving image is a sequence of still images, it may be a moving image, and is not limited to a still image. Further, the image data may be compressed. In this case, the compression method of the image data may be any compression method, and the compression unit and the decompression unit are not related to the present invention, and thus the description thereof is omitted.
サーバ20の画像受信部21は、画像データを受信し、一時的に画像データを画像データ一時記録部22に保存する。サーバ20の比較処理部24は、画像受信部21にて画像データが受信されたことを監視し、画像データが受信された場合には、第1の画像評価部23に対して画像データ一時記録部22から画像データを取り出すように指示を出す。第1の画像評価部23は、画像データ中の比較対象オブジェクト(以下、「オブジェクト」と略す)の解析を行う。また、第1の画像評価部23、比較処理部24、第2の画像評価部25から候補画像決定部29が構成される。
The
本実施の形態では、オブジェクトの一例として看板を用いて説明するが、オブジェクトは、特に看板に限定されるものではなく、風景上に存在する不動のものであれば、種々のものを用いることができ、画像検索システムの利用者は、オブジェクトを表すオブジェクト情報をオブジェクトデータベース28に登録することができる。
In the present embodiment, a sign is used as an example of an object. However, the object is not particularly limited to a sign, and various objects may be used as long as they are stationary on the landscape. The user of the image search system can register object information representing an object in the
第1の画像評価部23は、画像データ一時記録部22に記憶されている受信画像とオブジェクトデータベース28に記憶されているオブジェクト情報とから、比較処理部24に渡すオブジェクト情報を求める。求めるオブジェクト情報は、画像撮影端末10により撮影された画像データの左下位置を原点とするオブジェクトの位置(水平方向、垂直方向及び奥行き方向の位置)を表す情報である。
The first
ここで求めるオブジェクト情報(オブジェクトの位置)は、画像撮影端末10のカメラ解像度に影響されないよう、ピクセル単位で求めた位置を実スケールに変換したものである。これは、サーバ20側のデータベース26に保持される、様々な解像度で撮影された画像と、画像撮影端末10により撮影された撮影画像とを比較する必要があるからである。
The object information (object position) obtained here is obtained by converting the position obtained in pixel units into an actual scale so as not to be affected by the camera resolution of the
実スケールの単位としては、メートル、インチ、度・分(主に緯度、経度をあらわすときに使用する単位)等様々あるが、いずれを用いてもよい。以後の説明では、メートルを例に説明する。また、第1の画像評価部23におけるオブジェクトの位置は、三次元空間上の任意の一点を原点とした場合の相対的な位置でよいため、オブジェクト位置の原点位置も、必ずしも画像データの左下位置に限定されるものではなく、画像データのどの点を原点としてもよい。
There are various actual scale units such as meters, inches, degrees / minutes (units mainly used for expressing latitude and longitude), and any unit may be used. In the following description, a meter will be described as an example. In addition, since the position of the object in the first
図4に、図3に示すオブジェクトデータベース28のデータ構造の一例を示す。オブジェクトデータベース28は、オブジェクトごとに、オブジェクト種別、オブジェクト画像データ、及び、オブジェクトサイズを保持する。ここで、オブジェクトの種別とは、オブジェクトを識別するための識別子であり、ユニークなものであれば、数字や記号など種々のものを用いることができる。また、本実施の形態では、簡略化のため、オブジェクトのサイズとして、水平方向(W)のサイズと垂直方向(H)のサイズとを用いて説明をしているが、その他に奥行きや、より複雑な形状を表現するために、他の種々のパラメータを追加してもよい。さらに、オブジェクトの形は、四角形であることに限定するものではなく、形が複雑である場合には、そのオブジェクトを含む四角形をオブジェクトのサイズとしてもよい。
FIG. 4 shows an example of the data structure of the
まず、第1の画像評価部23は、画像データ一時記録部22に保持される画像データとオブジェクトデータベース28のオブジェクト画像データを比較し、ピクセル単位のオブジェクト位置(水平方向及び垂直方向の位置)、及び、オブジェクト大きさ(水平方向及び垂直方向の位置)を求める。図5に、一例として、画像データIDから、図4に示す三つのオブジェクトA、オブジェクトB及びオブジェクトCを抽出し、これらの位置及び大きさを求めた例を示す。
First, the first
なお、比較の手法は、既存の画像認識技術を用いることができるため、本実施の形態では、具体的な画像認識技術の説明については省略するが、既存の画像認識技術の例として、カメラで撮影する画像には通常遠近補正がかかっているので、例えば、岩村雅一、他3名、「変形を許容する高速なテンプレートマッチングによる情景画像中文字認識」、画像の認識・理解シンポジウム(MIRU2006)論文集、IS2-42、pp.906-911、(2006-7)で開示された手法のように、遠近補正がかかった画像でも適用可能な手法を用いることが望ましい。これらの画像認識技術を用いて画像データとオブジェクト画像データとを比較し、ピクセル単位のオブジェクトの位置及び大きさを取得する。 Since the comparison method can use an existing image recognition technology, a specific description of the image recognition technology is omitted in this embodiment, but an example of the existing image recognition technology is a camera. Since images are usually subject to perspective correction, for example, Masakazu Iwamura and three others, "Character recognition in scene images by high-speed template matching that allows deformation", Image Recognition and Understanding Symposium (MIRU2006) It is desirable to use a technique that can be applied even to images subjected to perspective correction, such as the technique disclosed in Proceedings, IS2-42, pp.906-911, (2006-7). The image data and the object image data are compared using these image recognition techniques, and the position and size of the object in units of pixels are acquired.
次に、ピクセル単位で求めたオブジェクト位置(水平方向、垂直方向)を実スケール(メートル)に変換する方法を述べる。算出式を以下に示す。 Next, a method for converting the object position (horizontal direction and vertical direction) obtained in pixel units into an actual scale (meters) will be described. The calculation formula is shown below.
X=x×(W/w) …(1)
Y=y×(H/h) …(2)
上記式(1)及び(2)において、X、Yは、実スケールの水平方向及び垂直方向のオブジェクト位置、x、yは、ピクセル単位の水平方向及び垂直方向のオブジェクト位置、W、Hは、オブジェクトデータベース28内の水平方向及び垂直方向のオブジェクトサイズ、w、hは、ピクセル単位の水平方向及び垂直方向のオブジェクトサイズである。
X = xx (W / w) (1)
Y = y × (H / h) (2)
In the above formulas (1) and (2), X and Y are the horizontal and vertical object positions on the real scale, x and y are the horizontal and vertical object positions in pixel units, and W and H are The horizontal and vertical object sizes, w and h in the
続いて、オブジェクト位置における奥行きを求める方法を述べる。算出式を以下に示す。 Next, a method for obtaining the depth at the object position will be described. The calculation formula is shown below.
Z=Zccd×(W/w’) …(3)
上記式(3)において、Zは、実スケールの奥行き方向のオブジェクト位置、Zccdは、カメラ11の焦点距離、Wは、オブジェクトデータベース28内の水平方向のオブジェクトサイズである。w’は、以下式により算出される値である。
Z = Zccd × (W / w ′) (3)
In the above equation (3), Z is the object position in the depth direction of the actual scale, Zccd is the focal length of the
w’=w×(Wccd/wp) …(4)
上記式(4)において、Wccdは、カメラ11内の撮影素子(CCD)サイズ(単位:メートル)、wpは、画像データIDの水平方向の大きさ(単位:ピクセル)である。
w ′ = w × (Wccd / wp) (4)
In the above formula (4), Wccd is the size of the photographing element (CCD) in the camera 11 (unit: meter), and wp is the horizontal size (unit: pixel) of the image data ID.
以上の処理を経て、画像データIDの左下位置を原点とする実スケールのオブジェクトの水平方向、垂直方向及び奥行き方向の各位置(X,Y,Z)が求まる。図6に、図5に示すオブジェクトA、オブジェクトB及びオブジェクトCの実スケールのオブジェクト位置の例を示す。 Through the above processing, each position (X, Y, Z) in the horizontal direction, vertical direction, and depth direction of the real scale object having the origin at the lower left position of the image data ID is obtained. FIG. 6 shows an example of the actual scale object positions of the objects A, B, and C shown in FIG.
また、比較処理部24は、第2の画像評価部25にオブジェクトの抽出を要求する。第2の画像評価部25は、第1の画像評価部23と同様のアルゴリズムで、データベース26内の画像データからオブジェクトの抽出を行い、比較処理部24へオブジェクト情報を返す。比較処理部24は、第1の画像評価部23と第2の画像評価部25とより抽出されたそれぞれのオブジェクト情報を用いて、画像データのマッチング処理を行う。
The
図7に、比較処理部24におけるマッチング処理を説明するためのフローチャートを示す。なお、以降の説明では、第1の画像評価部23にて評価した画像データを撮影画像とし、第2の画像評価部25にて評価した画像データを地図画像とする。
FIG. 7 is a flowchart for explaining the matching process in the
マッチング処理が開始すると(S10)、比較処理部24は、はじめに撮影画像中のオブジェクト(1)を1つ選択する(S11)。次に、比較処理部24は、撮影画像中からもう一つ別のオブジェクト(2)を選択し(S12)、データベース26の中から地図画像(3)を順に選択する(S13)。
When the matching process starts (S10), the
次に、比較処理部24は、第2の画像評価部25を用いて、選択した地図画像(3)からオブジェクト(4)の選択を行い(S14)、オブジェクト(1)の種別とオブジェクト(4)の種別との比較を行う(S15)。種別が同一の場合、比較処理部24は、地図画像(3)から別のオブジェクト(5)を抽出し(S16)、オブジェクト(2)の種別とオブジェクト(5)の種別との比較を行う(S17)。種別が同一の場合、比較処理部24は、オブジェクト(1)とオブジェクト(2)との距離L1と、オブジェクト(4)とオブジェクト(5)との距離L2とを算出する。距離L1の算出式を以下に示す。
Next, the
L1=√{(X2−X1)2+(Y2−Y1)2+(Z2−Z1)2} …(5)
上記式(5)において、(X1,Y1,Z1)は、オブジェクト(1)の位置、(X2,Y2,Z2)は、オブジェクト(2)の位置である。距離L2の算出式も、上記と同様である。
L1 = √ {(X2−X1) 2 + (Y2−Y1) 2 + (Z2−Z1) 2 } (5)
In the above formula (5), (X1, Y1, Z1) is the position of the object (1), and (X2, Y2, Z2) is the position of the object (2). The formula for calculating the distance L2 is the same as above.
次に、比較処理部24は、距離L1と距離L2との比較を行い(S18)、距離が同一の場合、撮影画像と選択中の地図画像(3)には相関関係がある(類似している)と判断し、地図画像単位で管理する評価値を増加させる(S19)。ここで、地図画像単位で管理される評価値は、比較処理開始時に初期化しておく。
Next, the
なお、距離の比較方法は、必ずしも同一である場合に限定するものではなく、地図上誤差と考えられるわずかな距離の違いについては、同一とみなしてもよい。わずかな距離の例として、オブジェクトの実際の幅と撮影画像上のオブジェクトの幅のピクセル数とから、1ピクセルあたりの実際の距離を求めることにより、1ピクセルあたりの実際の距離を誤差としてもよい。 Note that the distance comparison method is not necessarily limited to the case where the distances are the same, and a slight difference in distance considered as an error on the map may be regarded as the same. As an example of the slight distance, the actual distance per pixel may be an error by obtaining the actual distance per pixel from the actual width of the object and the number of pixels of the object width on the captured image. .
その後、比較処理部24は、別の地図画像と比較を行うため、別の地図画像(3)の選択が可能か確認する(S22)。比較処理部24は、別の地図画像(3)が存在するのであれば、選択処理(S13)へ戻り、存在しない場合は、撮影画像から別のオブジェクト(2)を選択可能か確認する(S23)。比較処理部24は、別のオブジェクト(2)が存在するのであれば、選択処理(S12)へ戻り、存在しない場合は撮影画像から別のオブジェクト(1)を選択可能か確認する(S24)。比較処理部24は、別のオブジェクト(1)が存在するのであれば、選択処理(S11)へ戻り、存在しないのであれば、マッチング処理を終了する(S25)。
Thereafter, the
また、オブジェクト(2)の種別とオブジェクト(5)の種別との比較処理(S17)と、オブジェクト間の距離の比較処理(S18)とにおいて、結果が異なる場合、比較処理部24は、地図画像(3)から別のオブジェクト(5)を選択可能か確認する(S20)。比較処理部24は、別のオブジェクト(5)が選択可能であれば、再度オブジェクト(5)の選択を行い(S16)、不可であれば、地図画像(3)から別のオブジェクト(4)の選択が可能か確認する(S21)。比較処理部24は、オブジェクト(4)を選択可能であれば、再度オブジェクト(4)の抽出を行い(S14)、存在しないのであれば、別の地図画像(3)の選択の確認処理(S22)へ戻る。また、オブジェクト(1)の種別とオブジェクト(4)の種別の比較処理(S15)にて、種別が異なる場合、比較処理部24は、オブジェクト(4)の選択の確認処理(S21)へ戻る。
If the result of the comparison process (S17) between the type of the object (2) and the type of the object (5) is different from the comparison process (S18) of the distance between objects, the
なお、図7のフローチャートにて撮影画像からのオブジェクトの選択処理及び地図画像からのオブジェクトの選択処理において、オブジェクトの数が足りずに選択が失敗する場合があるが、一般的な異常処理であるため、説明を省略する。 In the flowchart of FIG. 7, in the object selection process from the captured image and the object selection process from the map image, the selection may fail due to insufficient number of objects, but this is a general abnormality process. Therefore, the description is omitted.
上記のマッチング処理が終了した後、比較処理部24は、地図画像データ毎に集計した評価値を比較し、最も評価値の大きい地図画像データが撮影画像に近似の地点を撮影したと考えられる地図画像データであると特定し、地図画像データとペアで管理される撮影位置情報を元に、画像撮影端末10の位置を特定する。
After the above matching processing is completed, the
次に、画像撮影端末10の位置特定の算出式を以下に示す。なお、画像撮影端末10のカメラ11の部分の左下の位置のことを、特に断りがない限り、画像撮影端末10の位置と表現する。
Next, a calculation formula for specifying the position of the
まず、式(6)にて、データベース26内の画像の左下を原点とする座標系上における画像撮影端末10の位置(EyeX,EyeY,EyeZ)を求める。式(6)において、(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)は、画像データIDの左下位置を原点としたときのオブジェクトの位置、(AX1,AY1,AZ1)、(AX2,AY2,AZ2)、(AX3,AY3,AZ3)は、データベース26内の画像の左下を原点としたときのオブジェクトの位置である。また、(SX,SY,SZ)は、画像撮影端末10の水平方向の傾き、(UX,UY,UZ)は、画像撮影端末10の垂直方向の傾き、(DX,DY,DZ)は、画像撮影端末10の視線方向の傾きである。また、Wp、Hpは、実スケールの画像データIDの水平方向及び垂直方向の大きさであり、以下式により算出する。
First, the position (EyeX, EyeY, EyeZ) of the
Wp=wp×(W/w) …(7)
Hp=hp×(H/h) …(8)
上記式(7)及び(8)において、W、w、H、hは、式(1)及び(2)と同様である。wp、hpは、画像データIDの水平方向及び垂直方向の大きさ(単位:ピクセル)である。
Wp = wp × (W / w) (7)
Hp = hp × (H / h) (8)
In the above formulas (7) and (8), W, w, H, and h are the same as in formulas (1) and (2). wp and hp are the horizontal and vertical sizes (unit: pixels) of the image data ID.
次に、比較処理部24は、下記式を用いて、画像撮影端末10の絶対位置を求める。なお、式(9)及び(10)では、絶対位置の例として緯度、経度の算出式を示した。
Next, the
緯度=A0_Z+{(EyeZ×cosα)/111111} …(9)
経度=A0_X+{(EyeX×cosα)/111111} …(10)
式(9)及び(10)において、A0_X、A0_Zは、データベース26内の画像の左下絶対位置の経度及び緯度であり、αは、データベース26内の画像を撮影した際の撮影端末の向き(北方向から時計周りに何度ずれているかを示す値であり、高度方向のずれは無視)であり、「111111」は、定数であり、緯度/経度1°あたりのメートル量である。
Latitude = A0_Z + {(EyeZ × cos α) / 111111} (9)
Longitude = A0_X + {(EyeX × cos α) / 111111} (10)
In equations (9) and (10), A0_X and A0_Z are the longitude and latitude of the lower left absolute position of the image in the
比較処理部24は、上記の画像撮影端末10の位置を情報送信部27へ送り、情報送信部27は、画像撮影端末10の情報受信部14に位置情報を通知する。画像撮影端末10の表示処理部15は、情報受信部14から位置情報を受け取り、LCD60を用いて位置情報を表示する。
The
また、比較処理部24は、画像撮影端末10により撮影された撮影画像とデータベース26上に保持している撮影画像との類似性の判断を行い、類似性が認められた場合には、位置情報の場合と同様の方法を利用して、画像撮影端末10の傾きを算出し、この傾きを表す傾き情報を、情報送信部27を用いて画像撮影端末10へ送信する。この場合、傾き検出用のセンサーを備えなくとも、画像撮影端末10のLCD60に傾きを示す情報を表示することや、その他の制御用に傾き情報を使用することができる。
Further, the
また、サーバ20の比較処理部24にて、撮影画像のオブジェクト数が足りないために地図画像データ毎に管理する評価値が全て初期値であった場合には、データベース26内にマッチする地図画像データが見つからなかったことを示すため、サーバ20は、画像撮影端末10へオブジェクトの要求通知を行う。
In addition, when the
要求をうけた画像撮影端末10は、オブジェクト位置(水平方向、垂直方向)、オブジェクト大きさ(水平方向、垂直方向)に基づき、オブジェクト抽出結果をユーザに通知する。図8は、画像撮影端末10にオブジェクトの追加要求を行う場合におけるオブジェクト抽出結果の通知画面の一例である。図8の例では、オブジェクトO1、O2に対してそれぞれ、ガイドラインの一例として、枠線F1、F2を表示し、さらに、オブジェクトがあと何個必要かを示すメッセージM1を表示している。なお、ガイドラインは、上記の破線に特に限定されず、実線、一転鎖線、二点鎖線等を用いてもよく、種々の変更が可能である。
Upon receiving the request, the
メッセージM1で示した必要オブジェクト数は、比較処理部24に依存する値である。例として、候補画像が一つもない場合にはオブジェクトを1個要求し、後述するように候補画像が複数存在し、候補画像中に未評価のオブジェクトが二つある場合には、二つ要求するなどの値の決定方法がある。ただし、値の決定方法は、これらの例に限定するものではなく、1つずつ要求する方法であったり、地図上の統計情報を利用する方法であったりしても構わない。また、ここで示した方法以外であっても、ユーザにオブジェクト抽出結果が分かる方法ならばなんでもよい。
The required number of objects indicated by the message M1 is a value depending on the
これにより、候補画像を特定できない場合であっても、ユーザは、撮影画像中のオブジェクトを増やすなどの対策をとることが可能になり、再度、撮影画像のマッチング処理を行う時に、比較処理部24におけるオブジェクトの比較パターンを増やし、地図画像データとマッチする可能性を高めることができる。
Thus, even when the candidate image cannot be specified, the user can take measures such as increasing the number of objects in the captured image. When the matching processing of the captured image is performed again, the
さらに、サーバ20の比較処理部24にて、撮影画像のオブジェクト数が足りないために、地図画像データ毎に管理する評価値が同一の地図画像データが、複数存在した場合には、やはり同様にサーバ20から画像撮影端末10へオブジェクト数を増やす通知を行うことにより、オブジェクトによる比較数を増やし、より撮影画像に近い地図画像データを見つけることができる。
Further, when there are a plurality of map image data with the same evaluation value managed for each map image data in the
また、比較処理部24は、撮影画像と地図画像との評価値が最も近いものを同一地点とみなし、該当地図画像を該当撮影画像で置き換える機能を持つ。このとき、比較処理部24は、データベース26が保持している図2に示した情報を直接書き換えてもよいし、サーバ20から画像撮影端末10に通知を行って図9に示すような確認表示M2を行い、ユーザの指示によりデータベース26の書き換えを行わせてもよい。
In addition, the
さらに、撮影画像と同一評価値となる地図画像が複数存在した場合には、やはり同様にサーバ20から画像撮影端末10へ候補地の通知を行い、図10に示すように、置き換え候補地をユーザに提示するメッセージM3を表示し、ユーザに書き換え地点を選択させる。上記地図画像を撮影画像で置き換えることにより、地図画像を常に最新に保つことが可能となる。
Further, when there are a plurality of map images having the same evaluation value as the photographed image, the
上記のように、本実施の形態では、撮影画像とその位置情報のみでデータベース26を作成し、撮影画像から位置情報を特定することができるので、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができるため、画像撮影端末の位置情報を高精度に求めることができる。
As described above, in the present embodiment, the
(第2の実施の形態)
次に、サーバにて、地図画像データ毎にオブジェクトを前もって抽出して保持する実施の形態を、第2の実施の形態として説明する。第2の実施の形態では、画像検索システムの管理者は、データベースに地図画像データを登録する際に、サーバにてオブジェクトの抽出を実行し、地図画像データ単位でオブジェクトの抽出結果を予め登録する。
(Second Embodiment)
Next, an embodiment in which an object is extracted and held in advance for each map image data in the server will be described as a second embodiment. In the second embodiment, when registering map image data in the database, the administrator of the image search system executes object extraction at the server and registers the object extraction result in advance in units of map image data. .
図11に、本発明の第2の実施の形態による画像検索システムの、データベース26に地図画像データとオブジェクトを登録するための機能を追加したサーバ20aのブロック図を示す。なお、サーバ20aと通信する画像撮影端末10は、第1の実施の形態と同様であるので、図示及び詳細な説明を省略する。
FIG. 11 shows a block diagram of a
画像入力部32は、画像検索システムの管理者による地図画像データ、撮影位置情報及び撮影方向の入力を受付け、地図画像データ、撮影位置情報及び撮影方向を画像登録部31へ送信する。画像登録部31は、比較処理部24に地図画像の評価を依頼する。比較処理部24は、第1の画像評価部23に地図画像の解析を依頼する。第1の画像評価部23は、オブジェクトデータベース28を利用してオブジェクトの抽出を行う。オブジェクトの抽出方法は、第1の実施の形態にて説明した方法と同一である。なお、地図画像を評価する画像評価部は、第1の画像評価部23に限定するものではなく、第2の画像評価部25を用いて地図画像データを解析してオブジェクト及びその属性情報の抽出を行ってもよい。
The
第1の画像評価部23は、オブジェクトの抽出を終えると、比較処理部24を経由して画像登録部31にオブジェクト情報を通知し、画像登録部31は、地図画像データ、撮影位置情報及び撮影方向とともにオブジェクト情報をデータベース26に登録する。
When the first
図12に、データベース26にて管理するデータ構造の一例を示す。図12に示すように、データベース26は、地図画像データ毎に、撮影位置情報(緯度及び経度)並びに撮影方向を記憶するとともに、当該地図画像に含まれるオブジェクトの種別並びに位置(緯度、経度及び高度)を記憶している。
FIG. 12 shows an example of a data structure managed by the
このように、本実施の形態では、データベース26内の地図画像データ毎にオブジェクトは抽出済みであるため、第2の画像評価部25は、地図画像データを解析してオブジェクトを抽出する必要はない。従って、比較処理部24は、地図画像データに含まれるオブジェクト情報をデータベース26から直接読み出すことができる。その他の処理については、第1の実施の形態と同様となる。
Thus, in this embodiment, since the object has been extracted for each map image data in the
なお、画像撮影端末10により撮影された撮影画像の位置情報を特定後、その撮影画像から抽出したオブジェクトの属性情報を撮影位置情報とともに、データベース26に地図画像データとして登録してもよい。
Note that, after specifying the position information of the captured image captured by the
また、データベース26は、保持している地図画像内に存在している複数のオブジェクトを抽出してオブジェクト間の距離を計算した結果を、当該地図画像と対応付けて予め保持するようにしてもよい。この場合、データベース26中の地図画像のオブジェクトを予め抽出しておくことにより、撮影画像との類似性の評価を行う毎にオブジェクトを抽出する処理を削減することができる。
Further, the
(第3の実施の形態)
次に、サーバにて、地図上の位置情報とともにオブジェクト単位でデータを保持しておく実施の形態を、第3の実施の形態として説明する。第3の実施の形態では、画像検索システムの管理者は、データベースに地図画像データを登録する際に、サーバにてオブジェクトの抽出と位置情報の特定とを実行し、オブジェクト単位でその位置情報とともにその属性情報を予め登録する。
(Third embodiment)
Next, an embodiment in which data is stored in units of objects together with position information on a map at a server will be described as a third embodiment. In the third embodiment, when registering the map image data in the database, the administrator of the image search system executes object extraction and position information identification at the server, together with the position information for each object. The attribute information is registered in advance.
本実施の形態による画像検索システムの機能ブロック図は、図11と同様であるため、重複する図示を省略するため、図11を用いて説明するとともに、同一処理を行う箇所については説明を省略する。 Since the functional block diagram of the image search system according to the present embodiment is the same as that in FIG. 11, the overlapping illustration is omitted. Therefore, the description will be omitted with reference to FIG. .
本実施の形態と第2の実施の形態とで異なる点は、第1の画像評価部23は、オブジェクトの抽出とともにオブジェクト毎の位置情報の算出を行い、画像登録部31に通知する点と、オブジェクト情報とその位置情報とを通知された画像登録部31は、オブジェクト情報と位置情報とをデータベース26に登録する点である。なお、詳細については後述する。
The difference between the present embodiment and the second embodiment is that the first
図13に、データベース26にて管理するデータ構造の一例を示す。本実施の形態では、データベース26内のデータは、地図用オブジェクトデータであり、実体はオブジェクト単位の属性情報と位置情報とである。従って、第2の画像評価部25は、地図画像データを解析してオブジェクトを抽出する必要はなく、比較処理部24は、地図画像データに含まれるオブジェクト情報をデータベース26から直接読み出すことができる。
FIG. 13 shows an example of a data structure managed by the
図14は、本実施の形態による画像検索システムの比較処理部24におけるマッチング処理を説明するためのフローチャートを示す。
FIG. 14 is a flowchart for explaining matching processing in the
マッチング処理が開始すると(S30)、比較処理部24は、はじめに撮影画像の中から第1のオブジェクト(1)を1つ選択し(S31)、さらに、撮影画像中からもう一つ別の第2のオブジェクト(2)を選択する(S32)。比較処理部24は、さらにデータベース26の中から第3のオブジェクト(3)を一つ選択し(S33)、オブジェクト(1)の種別とオブジェクト(3)の種別との比較を行う(S34)。
When the matching process starts (S30), the
種別が同一の場合、比較処理部24は、データベース26の中から第3のオブジェクト(3)とは異なる第4のオブジェクト(4)を抽出し(S35)、オブジェクト(2)の種別とオブジェクト(4)の種別との比較を行う(S36)。種別が同一の場合、比較処理部24は、オブジェクト(1)とオブジェクト(2)との距離L1と、オブジェクト(3)とオブジェクト(4)との距離L2を算出する。距離の算出式は、第1の実施の形態と同様である。
If the types are the same, the
次に、比較処理部24は、距離L1と距離L2との比較を行い(S37)、距離が同一の場合、撮影画像中のオブジェクト(1)、(2)と、選択中のオブジェクト(3)、(4)には相関関係があると判断し、データベース26中のオブジェクト単位で管理される評価値を増加させる(S38)。なお、データベース26中のオブジェクト単位で管理される評価値は、比較処理開始時に初期化しておく。
Next, the
その後、比較処理部24は、データベース26中の別のオブジェクトとも比較を行うため、別の第4のオブジェクト(4)を選択可能か確認する(S39)。比較処理部24は、別のオブジェクト(4)が存在するのであれば、選択処理(S35)へ戻り、存在しない場合は、データベース26中から別のオブジェクト(3)を選択可能か確認する(S40)。比較処理部24は、別のオブジェクト(3)が存在するのであれば、選択処理(S33)へ戻り、存在しない場合は、撮影画像から別のオブジェクト(2)を選択可能か確認する(S41)。比較処理部24は、別のオブジェクト(2)が存在するのであれば、選択処理(S32)へ戻り、存在しない場合は撮影画像から別のオブジェクト(1)を選択可能か確認する(S42)。比較処理部24は、別のオブジェクト(1)が存在するのであれば、選択処理(S31)へ戻り、存在しないのであれば、マッチング処理を終了する(S43)。
After that, the
また、オブジェクト(2)の種別とオブジェクト(4)の種別との比較処理(S36)と、オブジェクト間の距離の比較処理(S37)とにて、結果が異なる場合、比較処理部24は、データベース26から別のオブジェクト(4)を選択可能か確認する(S39)。比較処理部24は、別のオブジェクト(4)を選択可能であれば、再度オブジェクト(4)の選択を行い(S35)、不可であれば、データベース26から別のオブジェクト(3)の選択を行えるか確認する(S40)。比較処理部24は、オブジェクト(3)を選択可能であれば、再度オブジェクト(4)の抽出を行い(S33)、存在しないのであれば、撮影画像からのオブジェクト(2)の選択の確認処理を行う(S41)。また、比較処理部24は、オブジェクト(1)の種別とオブジェクト(3)の種別との比較処理(S34)にて、種別が異なる場合、オブジェクト(3)の選択の確認処理を行う(S40)。
If the result of the comparison process (S36) between the type of the object (2) and the type of the object (4) is different from the comparison process of the distance between objects (S37), the
なお、図14のフローチャートにて撮影画像からのオブジェクトの選択処理及びデータベースからのオブジェクトの選択処理において、オブジェクトの数が足りずに選択が失敗する場合があるが、一般的な異常処理であるため、説明を省略する。また、画像撮影端末10により撮影された撮影画像の位置情報を特定後、その撮影画像から抽出したオブジェクトの属性情報を撮影位置情報とともに、データベース26に地図用オブジェクトデータとして登録してもよい。
In the flowchart of FIG. 14, in the object selection process from the captured image and the object selection process from the database, the selection may fail due to an insufficient number of objects, but this is a general abnormal process. The description is omitted. Further, after specifying the position information of the photographed image photographed by the
上記のマッチング処理が終了した後、比較処理部24は、データベース26中のオブジェクト毎に集計した評価値を比較し、最も評価値の大きいオブジェクトと、そのオブジェクトとの距離を算出したオブジェクト(撮影画像中のオブジェクトと一致したデータベース26中の別のオブジェクト)とが、ともに撮影画像にも含まれていると特定し、オブジェクトとペアで管理される位置情報を用いて、撮影画像における撮影位置を特定する。
After the above matching processing is completed, the
次に、画像撮影端末10の位置特定の算出式を以下に示す。
Next, a calculation formula for specifying the position of the
ここで、式(11)で算出される画像撮影端末10の位置(EyeX,EyeY,EyeZ)は、データベース26内の座標系における位置である。また、式(11)において、(AX1,AY1,AZ1)、(AX2,AY2,AZ2)、(AX3,AY3,AZ3)は、データベース26内のオブジェクト位置である。また、行列Fにおいて、fv=1.0/tan(π×fovy/180.0)であり、Fは、遠近補正用の行列であり、、画像撮影端末10のカメラ固有パラメータ、fovy(垂直方向の視野角)、aspect(水平方向の視野角)、f,n(焦点距離)により求まる固定値である。式(11)における他の記号は、式(6)と同様である。
Here, the position (EyeX, EyeY, EyeZ) of the
上記のアルゴリズムにより画像撮影端末10の撮影位置を特定した後、画像撮影端末10へ撮影位置を送信する手順については、第1の実施の形態に記載の手順と同じである。
The procedure for transmitting the shooting position to the
次に、図11のデータベース26に対して、画像撮影端末10で撮影された画像上のオブジェクト、または画像入力部32より登録される地図画像データ上のオブジェクト(以下、登録対象オブジェクトと記す)を追加又は削除して登録対象オブジェクトを更新する方法について示す。なお、オブジェクトを登録するための処理要求は、第1の実施の形態に示したとおり、画像撮影端末10からの処理要求であってもよいし、未登録のオブジェクトを画像撮影端末10からの処理要求がなくとも、サーバ20aにて自動で登録してもよい。
Next, with respect to the
登録対象オブジェクトの追加方法としては、第1の画像評価部23によるオブジェクト抽出後、比較処理部24及び第2の画像評価部25は、抽出されたオブジェクトとデータベース26中のオブジェクトと比較を行い、第1の画像評価部23により抽出されたオブジェクトがデータベース26に存在しない場合、登録対象オブジェクトとしてデータベース26に追加する。また、データベース26中にオブジェクトと位置情報とが存在するが、撮影画像上にオブジェクトが存在しない場合、データベース26中の該当オブジェクトを削除する。また、撮影画像上のオブジェクトと同一位置に存在するデータベース26中のオブジェクトの種別が異なる場合、撮影画像上のオブジェクトに関する情報によりデータベース26中の該当オブジェクトに関する情報を上書きする。
As an addition method of the registration target object, after the object extraction by the first
次に、登録対象オブジェクトをデータベース26に登録する手順の詳細を示す。登録対象オブジェクトの位置を、撮影画像の左下位置を原点とする座標系における値からデータベース26内の座標系における値に変換するための式を以下に示す。
Next, details of a procedure for registering an object to be registered in the
ここで、式(13)において、(AX’,AY’,AZ’)は、変換後の登録対象オブジェクトの位置(データベース26内の座標系における値)である。また、(X,Y,Z)は、変換前の登録対象オブジェクトの位置(撮影画像の左下位置を原点とする座標系における値)である。他の記号は、式(11)と同様である。上記の手順により、データベース26にオブジェクトとともにオブジェクトの位置情報を登録することができる。
Here, in Expression (13), (AX ′, AY ′, AZ ′) is the position of the registration target object after conversion (value in the coordinate system in the database 26). Also, (X, Y, Z) is the position of the registration target object before conversion (value in the coordinate system with the lower left position of the captured image as the origin). Other symbols are the same as those in Expression (11). With the above procedure, the object position information can be registered in the
上記のように、本実施の形態では、データベース26上のデータをオブジェクト単位で保持しているので、異なる画像に含まれているオブジェクト間の比較も可能となるため、撮影画像中のオブジェクトとデータベース26中のオブジェクトとの類似性を比較する際に、一致する確率を高めることができ、位置情報を特定できる頻度を増やすことができる。
As described above, in the present embodiment, since the data on the
(第4の実施の形態)
次に、図3における第1の画像評価部23及びオブジェクトデータベース28と同等の第3の画像評価部及びオブジェクトデータベースを画像撮影端末側に持たせ、撮影中のプレビュー画像上に、オブジェクト抽出結果を表示する(例えば、オブジェクトのまわりに枠線を表示する)実施の形態を、第4の実施の形態として説明する。本実施の形態では、オブジェクト抽出結果が撮影時にユーザに分かるため、サーバ20上での画像データのマッチング処理(図7のフローチャート)にてオブジェクトの数が足りずに選択が失敗する場合を極力減らすことが可能になる。
(Fourth embodiment)
Next, a third image evaluation unit and an object database equivalent to the first
図15に、第4の実施の形態による画像検索システムの画像撮影端末及びサーバの機能ブロック図を示す。なお、本実施の形態のサーバにおける処理は、第1の実施の形態と同様であるので、詳細な説明を省略し、図15を用いて、本画像検索システムによる現在位置特定処理の全体の流れのうち画像撮影端末によるオブジェクト抽出処理を主に説明する。 FIG. 15 is a functional block diagram of an image capturing terminal and a server of the image search system according to the fourth embodiment. The processing in the server according to the present embodiment is the same as that in the first embodiment, and thus detailed description thereof will be omitted, and the overall flow of the current position specifying process by the image search system will be described with reference to FIG. Among these, object extraction processing by the image capturing terminal will be mainly described.
画像撮影端末10aのカメラ画取り込み部12は、カメラ11により撮影中の風景を画像データとして取り込み、撮影画像記録部16に保存する。第3の画像評価部18は、撮影画像記録部16及びオブジェクトデータベース17に記憶されているオブジェクト情報から表示処理部15に渡すオブジェクト情報を求める。撮影画像記録部16の画像データ及びオブジェクトデータベース17からピクセル単位のオブジェクト位置(水平方向、垂直方向)及びオブジェクト大きさ(水平方向、垂直方向)を求める方法は、第1の実施の形態と同様である。
The camera
第3の画像評価部18が求めるオブジェクト情報は、画像撮影端末10aの左下位置を原点とするオブジェクトの位置(水平方向、垂直方向)である。ここでは、求めたオブジェクト情報は、画像撮影端末10a内で用いるだけなので、オブジェクトの位置を実スケールで求める必要はなく、ピクセル単位でよい。また、LCD60に枠線等を表示するのが目的なので、オブジェクトの位置(奥行き方向)も不要である。
The object information required by the third
表示処理部15は、オブジェクト情報に基づき、オブジェクトの周りへの枠線をLCD60に表示を行うなどして、オブジェクト抽出結果をユーザに知らせる。例えば、図8のように、表示処理部15は、第3の画像評価部18にて求めたオブジェクト位置(水平方向、垂直方向)、オブジェクト大きさ(水平方向、垂直方向)に基づき、オブジェクト抽出結果をユーザに通知する。通知の方法は、第1の実施の形態と同様である。
The
ユーザは、オブジェクト抽出結果をLCD60にて確認しながら、プレビュー画像内のオブジェクト数が増えるように画像撮影端末10aを上下左右に移動するなどして撮影範囲を決める。
While checking the object extraction result on the
図16は、ユーザが図8の状態から画像撮影端末10aを右に移動させることにより、オブジェクトO3が新たに認識され、画像内オブジェクト数が必要オブジェクト数に達した場合の例である。メッセージM4にて、撮影してよい旨をユーザに通知している。ユーザは、メッセージM4を見て撮影ボタンを押下する。または、画像内オブジェクト数が必要オブジェクト数に達した時点で自動的に撮影ボタンが押されるようにしてもよい。 FIG. 16 shows an example in which the object O3 is newly recognized and the number of objects in the image reaches the required number of objects when the user moves the image capturing terminal 10a to the right from the state of FIG. A message M4 informs the user that shooting is allowed. The user sees the message M4 and presses the shooting button. Alternatively, the shooting button may be automatically pressed when the number of objects in the image reaches the required number of objects.
撮影ボタンが押下されると、カメラ画取り込み部12は、カメラ11により撮影中の風景を画像データとして取り込んで撮影画像記録部16に保存し、撮影画像記録部16は、カメラ画送信部13を通じて画像データをサーバ20へ送信する。サーバ20への送信後の処理は、第1実施の形態と同様である。
When the shooting button is pressed, the camera
本実施の形態によれば、オブジェクト抽出結果がプレビュー時にユーザに分かるため、サーバ20上での画像データのマッチング処理(図7のフローチャート)にてオブジェクトの数が足りずに選択が失敗する場合を極力減らすことが可能になる。これにより、ユーザに何度もカメラ画像の取り直しさせるといった事態も防げるため、位置特定にかかる時間もその分短縮できる。また、サーバ20への画像送信の回数を減らせるため、画像送信にかかる通信費を抑制することも可能になる。
According to the present embodiment, since the object extraction result is known to the user at the time of preview, there is a case where the selection fails due to an insufficient number of objects in the image data matching process (the flowchart in FIG. 7) on the
本発明によると、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受け難いため、精度よく画像の類似性を評価する方法して有用である。また、精度よく画像の類似性を評価可能なことを利用することにより、画像の類似性を比較評価して画像撮影端末の位置情報を得る用途にも適用できるため、画像撮影端末にGPS等の位置特定手段を設ける必要はなく、その産業上の利用価値は極めて高い。 According to the present invention, it is difficult to be affected by the expansion, reconstruction, removal or new construction of buildings, the influence of disturbances such as moving objects such as people and plants, or the reflection of automobiles, and the displacement of captured images. This is useful as a method for evaluating the similarity of images. In addition, by utilizing the fact that the similarity of images can be evaluated with high accuracy, it can be applied to the purpose of comparing and evaluating the similarity of images to obtain the position information of the image capturing terminal. There is no need to provide a location specifying means, and its industrial utility value is extremely high.
10、10a 画像撮影端末
11 カメラ
12 画取り込み部
13 カメラ画送信部
14 情報受信部
15 表示処理部
16 撮影画像記録部
17 オブジェクトデータベース
18 第3の画像評価部
20、20a サーバ
21 画像受信部
22 画像データ一時記録部
23 第1の画像評価部
24 比較処理部
25 第2の画像評価部
26、30 データベース
27 情報送信部
28 オブジェクトデータベース
29 候補画像決定部
31 画像登録部
32 画像入力部
60 LCD
DESCRIPTION OF
Claims (9)
風景を撮影した撮影画像を取得する画像撮影端末と、
前記画像撮影端末により撮影された撮影画像とデータベース上に保持している撮影画像との類似性の判断を行い、類似性が認められた前記データベース上に保持している撮影画像を候補画像として特定し、特定した候補画像に対応付けて前記データベース上に保持している位置情報を前記画像撮影端末へ返信する候補画像決定部とを備えることを特徴とする画像検索システム。 An image search system that presents candidates for the current position using captured images,
An image capturing terminal that acquires a captured image of a landscape;
Judge the similarity between the captured image captured by the image capturing terminal and the captured image stored in the database, and identify the captured image stored in the database where the similarity is recognized as a candidate image And a candidate image determination unit that returns position information stored in the database in association with the identified candidate image to the image capturing terminal.
前記画像撮影端末により撮影された撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第1の画像評価部と、
前記データベース上に保持している撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第2の画像評価部と、
前記第1の画像評価部により算出された比較対象オブジェクト間の距離と前記第2の画像評価部により算出された比較対象オブジェクト間の距離とを基に、前記画像撮影端末により撮影された撮影画像と前記データベース上に保持している撮影画像との類似性の判断を行う比較処理部とを含むことを特徴とする請求項1に記載の画像検索システム。 The candidate image determination unit
A first image evaluation unit that extracts a plurality of comparison target objects from a captured image captured by the image capturing terminal and calculates a distance between the comparison target objects;
A second image evaluation unit that extracts a plurality of comparison target objects from a captured image held on the database and calculates a distance between the comparison target objects;
A captured image captured by the image capturing terminal based on the distance between the comparison target objects calculated by the first image evaluation unit and the distance between the comparison target objects calculated by the second image evaluation unit. The image search system according to claim 1, further comprising: a comparison processing unit that determines similarity between the captured image and the captured image held on the database.
前記画像撮影端末は、前記通知を受けた場合に、通知内容をユーザに提示することを特徴とする請求項3に記載の画像検索システム。 The comparison processing unit notifies the image photographing terminal to increase the number of comparison target objects on the preview image when there are a plurality of candidate images similar to the photographed image photographed by the image photographing terminal. Done
The image retrieval system according to claim 3, wherein the image capturing terminal presents notification contents to the user when receiving the notification.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007155649A JP2008310446A (en) | 2007-06-12 | 2007-06-12 | Image retrieval system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007155649A JP2008310446A (en) | 2007-06-12 | 2007-06-12 | Image retrieval system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008310446A true JP2008310446A (en) | 2008-12-25 |
Family
ID=40238015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007155649A Pending JP2008310446A (en) | 2007-06-12 | 2007-06-12 | Image retrieval system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008310446A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011075437A (en) * | 2009-09-30 | 2011-04-14 | Denso It Laboratory Inc | Device, method and program for displaying vehicle periphery |
JP2011146005A (en) * | 2010-01-18 | 2011-07-28 | Denso It Laboratory Inc | Apparatus, system and method for constructing subject spot database |
JP2012009923A (en) * | 2010-06-22 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Landscape image synthesis device, landscape image synthesis method and landscape image synthesis program |
WO2012046671A1 (en) * | 2010-10-06 | 2012-04-12 | 日本電気株式会社 | Positioning system |
JP2012155433A (en) * | 2011-01-25 | 2012-08-16 | Nippon Signal Co Ltd:The | Image retrieval system |
JP2013084130A (en) * | 2011-10-11 | 2013-05-09 | Fujitsu Ltd | Image recognition system and image recognition method |
JP2013231733A (en) * | 2009-10-14 | 2013-11-14 | Qualcomm Inc | Limitation for rough position injection in position determination system |
JPWO2013145883A1 (en) * | 2012-03-26 | 2015-12-10 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JPWO2013179742A1 (en) * | 2012-05-30 | 2016-01-18 | ソニー株式会社 | Information processing apparatus, system, and storage medium |
JP2016103268A (en) * | 2009-08-24 | 2016-06-02 | サムスン エレクトロニクス カンパニー リミテッド | Mobile device and server for exchanging information with mobile devices |
WO2016203896A1 (en) * | 2015-06-16 | 2016-12-22 | シャープ株式会社 | Generation device |
CN110503123A (en) * | 2018-05-17 | 2019-11-26 | 奥迪股份公司 | Image position method, device, computer equipment and storage medium |
KR20200134807A (en) * | 2019-05-23 | 2020-12-02 | 주식회사 다비오 | System and method for indoor positioning based on image |
KR20210106639A (en) * | 2020-02-21 | 2021-08-31 | 동명대학교산학협력단 | Apparatus for guiding indoor route of pedestrian through training of image data and method thereof |
-
2007
- 2007-06-12 JP JP2007155649A patent/JP2008310446A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016103268A (en) * | 2009-08-24 | 2016-06-02 | サムスン エレクトロニクス カンパニー リミテッド | Mobile device and server for exchanging information with mobile devices |
JP2011075437A (en) * | 2009-09-30 | 2011-04-14 | Denso It Laboratory Inc | Device, method and program for displaying vehicle periphery |
JP2013231733A (en) * | 2009-10-14 | 2013-11-14 | Qualcomm Inc | Limitation for rough position injection in position determination system |
JP2011146005A (en) * | 2010-01-18 | 2011-07-28 | Denso It Laboratory Inc | Apparatus, system and method for constructing subject spot database |
JP2012009923A (en) * | 2010-06-22 | 2012-01-12 | Nippon Telegr & Teleph Corp <Ntt> | Landscape image synthesis device, landscape image synthesis method and landscape image synthesis program |
WO2012046671A1 (en) * | 2010-10-06 | 2012-04-12 | 日本電気株式会社 | Positioning system |
US9104702B2 (en) | 2010-10-06 | 2015-08-11 | Nec Corporation | Positioning system |
JP2012155433A (en) * | 2011-01-25 | 2012-08-16 | Nippon Signal Co Ltd:The | Image retrieval system |
JP2013084130A (en) * | 2011-10-11 | 2013-05-09 | Fujitsu Ltd | Image recognition system and image recognition method |
JPWO2013145883A1 (en) * | 2012-03-26 | 2015-12-10 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JPWO2013179742A1 (en) * | 2012-05-30 | 2016-01-18 | ソニー株式会社 | Information processing apparatus, system, and storage medium |
WO2016203896A1 (en) * | 2015-06-16 | 2016-12-22 | シャープ株式会社 | Generation device |
CN107683604A (en) * | 2015-06-16 | 2018-02-09 | 夏普株式会社 | Generating means |
CN110503123A (en) * | 2018-05-17 | 2019-11-26 | 奥迪股份公司 | Image position method, device, computer equipment and storage medium |
KR20200134807A (en) * | 2019-05-23 | 2020-12-02 | 주식회사 다비오 | System and method for indoor positioning based on image |
KR102277974B1 (en) * | 2019-05-23 | 2021-07-15 | 주식회사 다비오 | System and method for indoor positioning based on image |
KR20210106639A (en) * | 2020-02-21 | 2021-08-31 | 동명대학교산학협력단 | Apparatus for guiding indoor route of pedestrian through training of image data and method thereof |
KR102317499B1 (en) * | 2020-02-21 | 2021-10-25 | 동명대학교 산학협력단 | Apparatus for guiding indoor route of pedestrian through training of image data and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008310446A (en) | Image retrieval system | |
JP5255595B2 (en) | Terminal location specifying system and terminal location specifying method | |
KR101285360B1 (en) | Point of interest displaying apparatus and method for using augmented reality | |
US7088389B2 (en) | System for displaying information in specific region | |
US20180188033A1 (en) | Navigation method and device | |
JP6532412B2 (en) | Self-position estimation system, self-position estimation method, mobile terminal, server and self-position estimation program | |
JP6513207B2 (en) | Imaging support system, apparatus and method, and imaging terminal | |
JP2014002536A (en) | Bar arrangement inspection system | |
JP2012038153A (en) | Surrounding information retrieval device and surrounding information retrieval method | |
WO2011096343A1 (en) | Photographic location recommendation system, photographic location recommendation device, photographic location recommendation method, and program for photographic location recommendation | |
KR20100060472A (en) | Apparatus and method for recongnizing position using camera | |
JP7001711B2 (en) | A position information system that uses images taken by a camera, and an information device with a camera that uses it. | |
JP2006285546A (en) | Information providing system, database server, portable communication terminal | |
CN114726978A (en) | Information processing apparatus, information processing method, and program | |
JP2011112364A (en) | Map information processing device, method, and program | |
US20220076399A1 (en) | Photographing guide device | |
JP2013142956A (en) | Photographing object retrieval system | |
KR102168110B1 (en) | Camera system | |
KR102458559B1 (en) | Construction management system and method using mobile electric device | |
WO2006043319A1 (en) | Terminal and server | |
JP6509546B2 (en) | Image search system and image search method | |
JP6591594B2 (en) | Information providing system, server device, and information providing method | |
JP2010164402A (en) | Information collecting device, mobile terminal device, information center, and navigation system | |
KR20210016757A (en) | System and method for managing base station antenna information | |
JP5670092B2 (en) | Topographic display system, portable terminal, topographic display method and program |