JP2008310446A - Image retrieval system - Google Patents

Image retrieval system Download PDF

Info

Publication number
JP2008310446A
JP2008310446A JP2007155649A JP2007155649A JP2008310446A JP 2008310446 A JP2008310446 A JP 2008310446A JP 2007155649 A JP2007155649 A JP 2007155649A JP 2007155649 A JP2007155649 A JP 2007155649A JP 2008310446 A JP2008310446 A JP 2008310446A
Authority
JP
Japan
Prior art keywords
image
captured
database
comparison target
capturing terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007155649A
Other languages
Japanese (ja)
Inventor
Satoshi Abe
安部  聡
Takeshi Nagao
健 長尾
Takamasa Shimazaki
貴正 島崎
Masayori Matsuoka
雅順 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2007155649A priority Critical patent/JP2008310446A/en
Publication of JP2008310446A publication Critical patent/JP2008310446A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image retrieval system capable of evaluating the similarity of a photographed image, without being affected by a disturbance, a shift in the photographed image and the like, and capable of finding precisely positional information of an image photographing terminal. <P>SOLUTION: This image retrieval system is provided with the image photographing terminal 10 for acquiring the photographed image with a photographed landscape in order to present a candidate of a current position using the photographed image, and a server 20 for judging the similarity of the photographed image photographed by the image photographing terminal 10 to the photographed image held on a database 30, for specifying the similarity-recognized photographed image held on the database 30, as a candidate image, and for reply-transmitting the positional information held on the database 30 correlatedly with the specified candidate image, to the image photographing terminal 10. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、携帯電話機等の画像撮影端末の位置を特定する位置特定方法、撮影した風景画像とデータベース上に保持している画像との類似性の比較精度を向上させる画像比較方法、及びこれらの方法を実現する際に使用する画像検索システムに関するものである。   The present invention relates to a position specifying method for specifying the position of an image capturing terminal such as a mobile phone, an image comparison method for improving the accuracy of comparing the similarity between a captured landscape image and an image stored in a database, and The present invention relates to an image search system used for realizing the method.

携帯電話機等の携帯端末は、従来はGPS(Global Positioning System)技術を利用して、現在位置の特定や経路案内を実施している。この方法は、GPS衛星からの電波を利用しているため、信号の届かない場所では機能しない。また、携帯端末が通信する基地局を利用して、その電波の強さ等から位置を特定する方法も知られているが、十分な精度が得られないという問題点があった。   Conventionally, portable terminals such as cellular phones use the GPS (Global Positioning System) technology to specify the current position and provide route guidance. Since this method uses radio waves from GPS satellites, it does not function in places where signals do not reach. Also, a method of specifying a position from the strength of the radio wave using a base station with which a mobile terminal communicates is known, but there is a problem that sufficient accuracy cannot be obtained.

そのため、携帯端末で撮影した風景画像と、サーバ上に保持している地図情報を3D(3次元)化したデータとを比較して位置を特定することにより、GPS衛星からの電波が届かない場所でも、位置を特定するための技術が公開されている(例えば、特許文献1参照)。
特開2003−111128号公報
For this reason, a place where radio waves from GPS satellites do not reach by specifying the position by comparing the landscape image captured by the mobile terminal with the data obtained by converting the map information held on the server into 3D (three-dimensional) However, a technique for specifying the position is disclosed (for example, see Patent Document 1).
JP 2003-111128 A

しかしながら、前記従来の構成では、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響により、同じ位置を撮影した場合でも、画像の変化が大きく、3Dデータとの類似性を比較する際に悪影響となる要因が多いため、位置を判定できないことや、誤判定の可能性が大きいという問題点があった。   However, in the conventional configuration, the image changes even when the same position is photographed due to the influence of disturbance such as building extension, reconstruction, removal or new construction, moving objects such as people and plants, or reflection of automobiles. Since there are many factors that adversely affect the similarity with 3D data, there are problems that the position cannot be determined and the possibility of erroneous determination is high.

また、建物の増改築、撤去又は新築などによって、比較用の3Dデータが役に立たなくなることを防ぐためのメンテナンスが不可欠であるという問題点も存在している。   There is also a problem that maintenance is indispensable to prevent comparison 3D data from becoming useless due to expansion, reconstruction, removal, or new construction of a building.

本発明の目的は、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、撮影画像の類似性を評価することができ、画像撮影端末の位置情報を高精度に求めることができる画像検索システムを提供することである。   The object of the present invention is to take a picture without being affected by the expansion, reconstruction, removal or new construction of a building, the influence of disturbance such as a moving object such as a person or a plant or the reflection of an automobile, or the deviation of a photographed image. To provide an image search system that can evaluate the similarity of images and can obtain the position information of the image capturing terminal with high accuracy.

本発明に係る画像検索システムは、撮影画像を利用して現在位置の候補を提示する画像検索システムであって、風景を撮影した撮影画像を取得する画像撮影端末と、前記画像撮影端末により撮影された撮影画像とデータベース上に保持している撮影画像との類似性の判断を行い、類似性が認められた前記データベース上に保持している撮影画像を候補画像として特定し、特定した候補画像に対応付けて前記データベース上に保持している位置情報を前記画像撮影端末へ返信する候補画像決定部とを備える。   An image search system according to the present invention is an image search system that presents a candidate for a current position using a captured image, and is captured by an image capturing terminal that acquires a captured image of a landscape and the image capturing terminal. The photographed image and the photographed image held in the database are judged to be similar, the photographed image retained in the database in which the similarity is recognized is identified as a candidate image, and the identified candidate image A candidate image determination unit that returns the positional information associated with and held on the database to the image capturing terminal.

この画像検索システムにおいては、撮影画像とその位置情報のみでデータベースを作成し、撮影画像から位置情報を特定することができるので、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができるため、画像撮影端末の位置情報を高精度に求めることができる。   In this image retrieval system, it is possible to create a database only with captured images and their position information, and to specify position information from the captured images, so that the expansion, renovation, removal or new construction of buildings, movements of people, plants, etc. Because it is possible to evaluate the similarity of images without being affected by disturbances such as reflection of a certain object or car, or by the shift of the captured image, the position information of the image capturing terminal must be obtained with high accuracy. Can do.

前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第1の画像評価部と、前記データベース上に保持している撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第2の画像評価部と、前記第1の画像評価部により算出された比較対象オブジェクト間の距離と前記第2の画像評価部により算出された比較対象オブジェクト間の距離とを基に、前記画像撮影端末により撮影された撮影画像と前記データベース上に保持している撮影画像との類似性の判断を行う比較処理部とを含むことが好ましい。   The candidate image determination unit stores a first image evaluation unit that extracts a plurality of comparison target objects from a captured image captured by the image capturing terminal and calculates a distance between the comparison target objects, and stores the comparison target object on the database. A second image evaluation unit that extracts a plurality of comparison target objects from a captured image and calculates a distance between the comparison target objects; a distance between the comparison target objects calculated by the first image evaluation unit; Based on the distance between the comparison target objects calculated by the second image evaluation unit, the similarity between the captured image captured by the image capturing terminal and the captured image stored on the database is determined. It is preferable to include a comparison processing unit.

この場合、比較対象オブジェクト間の距離のみを用いて画像の類似性を評価することにより、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができる。   In this case, by evaluating the similarity of the image using only the distance between the objects to be compared, disturbances such as expansion, reconstruction, removal, or new construction of a building, moving objects such as people or plants, or reflection of a car It is possible to evaluate the similarity of images without being affected by the influence of the above and the deviation of the photographed image.

前記画像撮影端末は、プレビュー画像上に比較対象オブジェクトが存在している場合、該当比較対象オブジェクトの周囲にガイドラインを描画することが好ましい。   The image photographing terminal preferably draws a guideline around the comparison target object when the comparison target object exists on the preview image.

この場合、ユーザは複数の比較対象オブジェクトをスムーズに撮影画像に収めることが可能となり、画像の類似性の評価に使用される比較対象オブジェクト数が増加するため、より精度よく類似性を評価することができる。   In this case, the user can smoothly place a plurality of comparison target objects in the captured image, and the number of comparison target objects used for evaluating the similarity of images increases, so that the similarity can be evaluated more accurately. Can do.

前記比較処理部は、前記画像撮影端末により撮影された撮影画像に類似する候補画像が複数ある場合に、前記画像撮影端末に対して、プレビュー画像上の比較対象オブジェクト数を増加させるよう促す通知を行い、前記画像撮影端末は、前記通知を受けた場合に、通知内容をユーザに提示することが好ましい。   The comparison processing unit notifies the image photographing terminal to increase the number of comparison target objects on the preview image when there are a plurality of candidate images similar to the photographed image photographed by the image photographing terminal. Preferably, the image photographing terminal presents the notification content to the user when receiving the notification.

この場合、撮影画像がデータベース中の画像と一致しなかったときや、複数の画像と一致したときに、新規の比較対象オブジェクトを撮影画像に含めるようにユーザに要求することにより、新たな比較対象オブジェクトにより類似性を評価することができるため、撮影画像がデータベース中の画像と一致する頻度を増やすことができる。   In this case, when the captured image does not match the image in the database or when it matches a plurality of images, a new comparison target is requested by requesting the user to include a new comparison target object in the captured image. Since the similarity can be evaluated by the object, the frequency with which the captured image matches the image in the database can be increased.

前記データベースは、保持している撮影画像内に存在している複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算した結果を、当該撮影画像と対応付けて予め保持することが好ましい。   The database preferably stores in advance a result of extracting a plurality of comparison target objects existing in the held captured image and calculating a distance between the comparison target objects in association with the captured image. .

この場合、データベース中の撮影画像の比較対象オブジェクトを予め抽出しておくことにより、撮影画像の類似性の評価を行う毎に比較対象オブジェクトを抽出する処理を削減することができる。   In this case, by extracting the comparison target object of the captured image in the database in advance, the process of extracting the comparison target object every time the similarity of the captured image is evaluated can be reduced.

前記データベースは、比較対象オブジェクト毎に位置情報を保持することが好ましい。   The database preferably holds position information for each comparison target object.

この場合、データベース上のデータを比較対象オブジェクト単位とすることにより、異なる画像に含まれている比較対象オブジェクト間の比較も可能となるため、撮影画像中の比較対象オブジェクトとデータベース中の比較対象オブジェクトとの類似性を比較する際に、一致する確率を高めることができ、位置情報を特定できる頻度を増やすことができる。   In this case, by comparing the data in the database with the comparison target object unit, it becomes possible to compare the comparison target objects included in different images. Therefore, the comparison target object in the captured image and the comparison target object in the database When comparing the similarity with, the probability of matching can be increased, and the frequency with which position information can be specified can be increased.

前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像と前記データベース上に保持している撮影画像との類似性が高い場合には、前記データベース上に保持している撮影画像を前記画像撮影端末により撮影された撮影画像に置き換えることが好ましい。   When the similarity between the captured image captured by the image capturing terminal and the captured image stored on the database is high, the candidate image determination unit selects the captured image stored on the database. It is preferable to replace the image with a captured image captured by the image capturing terminal.

この場合、実際に建物の増改築などにより地図に変化が発生したにも関わらず、データベース中の比較対象オブジェクトが更新されていない場合に、最新の画像を用いて、データベース上に保持している撮影画像を正しい風景を表す画像に置き換えることができ、その後の画像の類似性の評価の精度を高めることができる。   In this case, when the comparison object in the database has not been updated even though the map has actually changed due to expansion or renovation of the building, etc., the latest image is used and stored in the database. The captured image can be replaced with an image representing a correct landscape, and the accuracy of the subsequent similarity evaluation of the image can be increased.

前記候補画像決定部は、前記データベースに新たな比較対象オブジェクトを追加することが好ましい。   Preferably, the candidate image determination unit adds a new comparison target object to the database.

この場合、新たな比較対象オブジェクトの情報を追加することにより、比較対象オブジェクトが増加するため、類似性を評価する精度を高めることができる。   In this case, by adding information about a new comparison target object, the number of comparison target objects increases, so that the accuracy of evaluating similarity can be increased.

前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像とデータベース上に保持している撮影画像との類似性の判断を行い、類似性が認められた場合には、前記画像撮影端末の傾きを算出して前記画像撮影端末へ返信することが好ましい。   The candidate image determination unit determines the similarity between the captured image captured by the image capturing terminal and the captured image stored in the database, and when the similarity is recognized, the image capturing terminal It is preferable to calculate the inclination of the image and send it back to the image capturing terminal.

この場合、画像撮影端末にて傾き情報を利用することが可能となるため、ユーザに傾きを提示したり、画像撮影端末内部にて傾き情報を利用したりすることが可能となる。   In this case, since the tilt information can be used at the image capturing terminal, it is possible to present the tilt to the user or to use the tilt information inside the image capturing terminal.

本発明の画像検索システムによれば、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができるため、画像撮影端末の位置情報を高精度に求めることができる。   According to the image retrieval system of the present invention, it is affected by the expansion, reconstruction, removal or new construction of buildings, the influence of disturbances such as moving objects such as people and plants, or the reflection of automobiles, and the deviation of captured images. Therefore, since the similarity of images can be evaluated, the position information of the image capturing terminal can be obtained with high accuracy.

以下、本発明の各実施の形態による画像検索システムについて図面を参照しながら詳細に説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態による画像検索システムの構成を示すブロック図である。図1に示す画像検索システムでは、画像撮影端末10は、撮影した風景の画像データ40をサーバ20へ送信し、サーバ20は、受信した画像データ40と、画像データと当該画像データの撮影位置を表す撮影位置情報とをペアで記録したデータベース30内の各画像データとのマッチング処理を行うことにより、画像データ40に類似する画像データの検索を行う。サーバ20は、マッチした画像データとペアで管理される撮影位置情報50を画像撮影端末10へ送信し、画像撮影端末10は、撮影位置情報50をLCD(液晶表示装置)60に描画することにより、撮影位置情報をユーザに提示し、ユーザは現在位置を特定することができる。
Hereinafter, image search systems according to embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an image search system according to the first embodiment of the present invention. In the image search system shown in FIG. 1, the image capturing terminal 10 transmits image data 40 of a captured landscape to the server 20, and the server 20 determines the received image data 40, the image data, and the shooting position of the image data. Image data similar to the image data 40 is searched by performing matching processing with each image data in the database 30 in which the photographing position information to be represented is recorded in pairs. The server 20 transmits shooting position information 50 managed as a pair with the matched image data to the image shooting terminal 10, and the image shooting terminal 10 draws the shooting position information 50 on an LCD (liquid crystal display) 60. The shooting position information is presented to the user, and the user can specify the current position.

図2に、画像データと画像データの撮影位置情報とをペアで管理するデータベース30内のデータ構成の一例を示す。ここで、撮影位置情報とは、例えば、地図上の座標と撮影方向である。   FIG. 2 shows an example of a data configuration in the database 30 that manages image data and shooting position information of the image data in pairs. Here, the shooting position information is, for example, coordinates on the map and shooting direction.

図3に、図1に示す画像撮影端末10とサーバ20との機能ブロック図を示す。なお、図3では、データベース26として、図1に示すデータベース30をサーバ20の内部に有する例を図示しているが、データベースは、図1に示すようにサーバと別体であってもよいし、サーバの内部に備えてもよい。以下の他の実施の形態でも同様である。   FIG. 3 shows a functional block diagram of the image capturing terminal 10 and the server 20 shown in FIG. 3 illustrates an example in which the database 30 illustrated in FIG. 1 is included in the server 20 as the database 26, the database may be separate from the server as illustrated in FIG. It may be provided inside the server. The same applies to other embodiments described below.

図3を用いて、図1に示す画像検索システムによる現在位置特定処理の全体の流れを説明する。画像撮影端末10のカメラ画取り込み部12は、カメラ11により撮影された風景の撮影画像を画像データとして取り込む。カメラ画送信部13は、取り込まれた画像データをサーバ20へ送信する。   The overall flow of the current position specifying process by the image search system shown in FIG. 1 will be described with reference to FIG. The camera image capturing unit 12 of the image capturing terminal 10 captures a captured image of a landscape captured by the camera 11 as image data. The camera image transmission unit 13 transmits the captured image data to the server 20.

ここで、画像データは、特に断らない限り、静止画を指すが、動画像は静止画の連続であるため、動画像であってもよく、特に静止画に限定するものではない。また、画像データは、圧縮してもよく、この場合の画像データの圧縮方式は、どのような圧縮方式でもよく、圧縮部や展開部は本発明とは関わらないため、その説明を省略する。   Here, the image data refers to a still image unless otherwise specified. However, since a moving image is a sequence of still images, it may be a moving image, and is not limited to a still image. Further, the image data may be compressed. In this case, the compression method of the image data may be any compression method, and the compression unit and the decompression unit are not related to the present invention, and thus the description thereof is omitted.

サーバ20の画像受信部21は、画像データを受信し、一時的に画像データを画像データ一時記録部22に保存する。サーバ20の比較処理部24は、画像受信部21にて画像データが受信されたことを監視し、画像データが受信された場合には、第1の画像評価部23に対して画像データ一時記録部22から画像データを取り出すように指示を出す。第1の画像評価部23は、画像データ中の比較対象オブジェクト(以下、「オブジェクト」と略す)の解析を行う。また、第1の画像評価部23、比較処理部24、第2の画像評価部25から候補画像決定部29が構成される。   The image receiving unit 21 of the server 20 receives the image data and temporarily stores the image data in the image data temporary recording unit 22. The comparison processing unit 24 of the server 20 monitors that the image data is received by the image receiving unit 21, and when the image data is received, temporarily stores the image data in the first image evaluation unit 23. An instruction is issued to extract image data from the unit 22. The first image evaluation unit 23 analyzes a comparison target object (hereinafter abbreviated as “object”) in the image data. In addition, a candidate image determination unit 29 is configured by the first image evaluation unit 23, the comparison processing unit 24, and the second image evaluation unit 25.

本実施の形態では、オブジェクトの一例として看板を用いて説明するが、オブジェクトは、特に看板に限定されるものではなく、風景上に存在する不動のものであれば、種々のものを用いることができ、画像検索システムの利用者は、オブジェクトを表すオブジェクト情報をオブジェクトデータベース28に登録することができる。   In the present embodiment, a sign is used as an example of an object. However, the object is not particularly limited to a sign, and various objects may be used as long as they are stationary on the landscape. The user of the image search system can register object information representing an object in the object database 28.

第1の画像評価部23は、画像データ一時記録部22に記憶されている受信画像とオブジェクトデータベース28に記憶されているオブジェクト情報とから、比較処理部24に渡すオブジェクト情報を求める。求めるオブジェクト情報は、画像撮影端末10により撮影された画像データの左下位置を原点とするオブジェクトの位置(水平方向、垂直方向及び奥行き方向の位置)を表す情報である。   The first image evaluation unit 23 obtains object information to be passed to the comparison processing unit 24 from the received image stored in the image data temporary recording unit 22 and the object information stored in the object database 28. The object information to be obtained is information representing the position of the object (the position in the horizontal direction, the vertical direction and the depth direction) with the lower left position of the image data captured by the image capturing terminal 10 as the origin.

ここで求めるオブジェクト情報(オブジェクトの位置)は、画像撮影端末10のカメラ解像度に影響されないよう、ピクセル単位で求めた位置を実スケールに変換したものである。これは、サーバ20側のデータベース26に保持される、様々な解像度で撮影された画像と、画像撮影端末10により撮影された撮影画像とを比較する必要があるからである。   The object information (object position) obtained here is obtained by converting the position obtained in pixel units into an actual scale so as not to be affected by the camera resolution of the image capturing terminal 10. This is because it is necessary to compare images captured at various resolutions stored in the database 26 on the server 20 side with captured images captured by the image capturing terminal 10.

実スケールの単位としては、メートル、インチ、度・分(主に緯度、経度をあらわすときに使用する単位)等様々あるが、いずれを用いてもよい。以後の説明では、メートルを例に説明する。また、第1の画像評価部23におけるオブジェクトの位置は、三次元空間上の任意の一点を原点とした場合の相対的な位置でよいため、オブジェクト位置の原点位置も、必ずしも画像データの左下位置に限定されるものではなく、画像データのどの点を原点としてもよい。   There are various actual scale units such as meters, inches, degrees / minutes (units mainly used for expressing latitude and longitude), and any unit may be used. In the following description, a meter will be described as an example. In addition, since the position of the object in the first image evaluation unit 23 may be a relative position when an arbitrary point in the three-dimensional space is set as the origin, the origin position of the object position is not necessarily the lower left position of the image data. The origin is not limited to any point in the image data.

図4に、図3に示すオブジェクトデータベース28のデータ構造の一例を示す。オブジェクトデータベース28は、オブジェクトごとに、オブジェクト種別、オブジェクト画像データ、及び、オブジェクトサイズを保持する。ここで、オブジェクトの種別とは、オブジェクトを識別するための識別子であり、ユニークなものであれば、数字や記号など種々のものを用いることができる。また、本実施の形態では、簡略化のため、オブジェクトのサイズとして、水平方向(W)のサイズと垂直方向(H)のサイズとを用いて説明をしているが、その他に奥行きや、より複雑な形状を表現するために、他の種々のパラメータを追加してもよい。さらに、オブジェクトの形は、四角形であることに限定するものではなく、形が複雑である場合には、そのオブジェクトを含む四角形をオブジェクトのサイズとしてもよい。   FIG. 4 shows an example of the data structure of the object database 28 shown in FIG. The object database 28 holds object type, object image data, and object size for each object. Here, the type of object is an identifier for identifying the object, and various things such as numbers and symbols can be used as long as they are unique. Further, in this embodiment, for simplification, description is made using the horizontal size (W) and the vertical size (H) as the size of the object. Various other parameters may be added to represent complex shapes. Furthermore, the shape of the object is not limited to a quadrangle, and when the shape is complicated, a rectangle including the object may be used as the size of the object.

まず、第1の画像評価部23は、画像データ一時記録部22に保持される画像データとオブジェクトデータベース28のオブジェクト画像データを比較し、ピクセル単位のオブジェクト位置(水平方向及び垂直方向の位置)、及び、オブジェクト大きさ(水平方向及び垂直方向の位置)を求める。図5に、一例として、画像データIDから、図4に示す三つのオブジェクトA、オブジェクトB及びオブジェクトCを抽出し、これらの位置及び大きさを求めた例を示す。   First, the first image evaluation unit 23 compares the image data held in the image data temporary recording unit 22 with the object image data in the object database 28, and determines the object position in pixels (horizontal and vertical positions), The object size (horizontal and vertical positions) is obtained. As an example, FIG. 5 shows an example in which the three objects A, B, and C shown in FIG. 4 are extracted from the image data ID and their positions and sizes are obtained.

なお、比較の手法は、既存の画像認識技術を用いることができるため、本実施の形態では、具体的な画像認識技術の説明については省略するが、既存の画像認識技術の例として、カメラで撮影する画像には通常遠近補正がかかっているので、例えば、岩村雅一、他3名、「変形を許容する高速なテンプレートマッチングによる情景画像中文字認識」、画像の認識・理解シンポジウム(MIRU2006)論文集、IS2-42、pp.906-911、(2006-7)で開示された手法のように、遠近補正がかかった画像でも適用可能な手法を用いることが望ましい。これらの画像認識技術を用いて画像データとオブジェクト画像データとを比較し、ピクセル単位のオブジェクトの位置及び大きさを取得する。   Since the comparison method can use an existing image recognition technology, a specific description of the image recognition technology is omitted in this embodiment, but an example of the existing image recognition technology is a camera. Since images are usually subject to perspective correction, for example, Masakazu Iwamura and three others, "Character recognition in scene images by high-speed template matching that allows deformation", Image Recognition and Understanding Symposium (MIRU2006) It is desirable to use a technique that can be applied even to images subjected to perspective correction, such as the technique disclosed in Proceedings, IS2-42, pp.906-911, (2006-7). The image data and the object image data are compared using these image recognition techniques, and the position and size of the object in units of pixels are acquired.

次に、ピクセル単位で求めたオブジェクト位置(水平方向、垂直方向)を実スケール(メートル)に変換する方法を述べる。算出式を以下に示す。   Next, a method for converting the object position (horizontal direction and vertical direction) obtained in pixel units into an actual scale (meters) will be described. The calculation formula is shown below.

X=x×(W/w) …(1)
Y=y×(H/h) …(2)
上記式(1)及び(2)において、X、Yは、実スケールの水平方向及び垂直方向のオブジェクト位置、x、yは、ピクセル単位の水平方向及び垂直方向のオブジェクト位置、W、Hは、オブジェクトデータベース28内の水平方向及び垂直方向のオブジェクトサイズ、w、hは、ピクセル単位の水平方向及び垂直方向のオブジェクトサイズである。
X = xx (W / w) (1)
Y = y × (H / h) (2)
In the above formulas (1) and (2), X and Y are the horizontal and vertical object positions on the real scale, x and y are the horizontal and vertical object positions in pixel units, and W and H are The horizontal and vertical object sizes, w and h in the object database 28 are the horizontal and vertical object sizes in pixel units.

続いて、オブジェクト位置における奥行きを求める方法を述べる。算出式を以下に示す。   Next, a method for obtaining the depth at the object position will be described. The calculation formula is shown below.

Z=Zccd×(W/w’) …(3)
上記式(3)において、Zは、実スケールの奥行き方向のオブジェクト位置、Zccdは、カメラ11の焦点距離、Wは、オブジェクトデータベース28内の水平方向のオブジェクトサイズである。w’は、以下式により算出される値である。
Z = Zccd × (W / w ′) (3)
In the above equation (3), Z is the object position in the depth direction of the actual scale, Zccd is the focal length of the camera 11, and W is the object size in the horizontal direction in the object database 28. w ′ is a value calculated by the following equation.

w’=w×(Wccd/wp) …(4)
上記式(4)において、Wccdは、カメラ11内の撮影素子(CCD)サイズ(単位:メートル)、wpは、画像データIDの水平方向の大きさ(単位:ピクセル)である。
w ′ = w × (Wccd / wp) (4)
In the above formula (4), Wccd is the size of the photographing element (CCD) in the camera 11 (unit: meter), and wp is the horizontal size (unit: pixel) of the image data ID.

以上の処理を経て、画像データIDの左下位置を原点とする実スケールのオブジェクトの水平方向、垂直方向及び奥行き方向の各位置(X,Y,Z)が求まる。図6に、図5に示すオブジェクトA、オブジェクトB及びオブジェクトCの実スケールのオブジェクト位置の例を示す。   Through the above processing, each position (X, Y, Z) in the horizontal direction, vertical direction, and depth direction of the real scale object having the origin at the lower left position of the image data ID is obtained. FIG. 6 shows an example of the actual scale object positions of the objects A, B, and C shown in FIG.

また、比較処理部24は、第2の画像評価部25にオブジェクトの抽出を要求する。第2の画像評価部25は、第1の画像評価部23と同様のアルゴリズムで、データベース26内の画像データからオブジェクトの抽出を行い、比較処理部24へオブジェクト情報を返す。比較処理部24は、第1の画像評価部23と第2の画像評価部25とより抽出されたそれぞれのオブジェクト情報を用いて、画像データのマッチング処理を行う。   The comparison processing unit 24 requests the second image evaluation unit 25 to extract an object. The second image evaluation unit 25 extracts an object from the image data in the database 26 using the same algorithm as the first image evaluation unit 23 and returns object information to the comparison processing unit 24. The comparison processing unit 24 performs image data matching processing using the object information extracted by the first image evaluation unit 23 and the second image evaluation unit 25.

図7に、比較処理部24におけるマッチング処理を説明するためのフローチャートを示す。なお、以降の説明では、第1の画像評価部23にて評価した画像データを撮影画像とし、第2の画像評価部25にて評価した画像データを地図画像とする。   FIG. 7 is a flowchart for explaining the matching process in the comparison processing unit 24. In the following description, it is assumed that the image data evaluated by the first image evaluation unit 23 is a captured image, and the image data evaluated by the second image evaluation unit 25 is a map image.

マッチング処理が開始すると(S10)、比較処理部24は、はじめに撮影画像中のオブジェクト(1)を1つ選択する(S11)。次に、比較処理部24は、撮影画像中からもう一つ別のオブジェクト(2)を選択し(S12)、データベース26の中から地図画像(3)を順に選択する(S13)。   When the matching process starts (S10), the comparison processing unit 24 first selects one object (1) in the captured image (S11). Next, the comparison processing unit 24 selects another object (2) from the captured image (S12), and sequentially selects the map image (3) from the database 26 (S13).

次に、比較処理部24は、第2の画像評価部25を用いて、選択した地図画像(3)からオブジェクト(4)の選択を行い(S14)、オブジェクト(1)の種別とオブジェクト(4)の種別との比較を行う(S15)。種別が同一の場合、比較処理部24は、地図画像(3)から別のオブジェクト(5)を抽出し(S16)、オブジェクト(2)の種別とオブジェクト(5)の種別との比較を行う(S17)。種別が同一の場合、比較処理部24は、オブジェクト(1)とオブジェクト(2)との距離L1と、オブジェクト(4)とオブジェクト(5)との距離L2とを算出する。距離L1の算出式を以下に示す。   Next, the comparison processing unit 24 selects the object (4) from the selected map image (3) using the second image evaluation unit 25 (S14), and the type of the object (1) and the object (4) ) Is compared (S15). When the types are the same, the comparison processing unit 24 extracts another object (5) from the map image (3) (S16), and compares the type of the object (2) with the type of the object (5) ( S17). When the types are the same, the comparison processing unit 24 calculates the distance L1 between the objects (1) and (2) and the distance L2 between the objects (4) and (5). The calculation formula of the distance L1 is shown below.

L1=√{(X2−X1)+(Y2−Y1)+(Z2−Z1)} …(5)
上記式(5)において、(X1,Y1,Z1)は、オブジェクト(1)の位置、(X2,Y2,Z2)は、オブジェクト(2)の位置である。距離L2の算出式も、上記と同様である。
L1 = √ {(X2−X1) 2 + (Y2−Y1) 2 + (Z2−Z1) 2 } (5)
In the above formula (5), (X1, Y1, Z1) is the position of the object (1), and (X2, Y2, Z2) is the position of the object (2). The formula for calculating the distance L2 is the same as above.

次に、比較処理部24は、距離L1と距離L2との比較を行い(S18)、距離が同一の場合、撮影画像と選択中の地図画像(3)には相関関係がある(類似している)と判断し、地図画像単位で管理する評価値を増加させる(S19)。ここで、地図画像単位で管理される評価値は、比較処理開始時に初期化しておく。   Next, the comparison processing unit 24 compares the distance L1 and the distance L2 (S18). If the distance is the same, the captured image and the selected map image (3) have a correlation (similarly). The evaluation value managed in map image units is increased (S19). Here, the evaluation value managed in map image units is initialized at the start of the comparison process.

なお、距離の比較方法は、必ずしも同一である場合に限定するものではなく、地図上誤差と考えられるわずかな距離の違いについては、同一とみなしてもよい。わずかな距離の例として、オブジェクトの実際の幅と撮影画像上のオブジェクトの幅のピクセル数とから、1ピクセルあたりの実際の距離を求めることにより、1ピクセルあたりの実際の距離を誤差としてもよい。   Note that the distance comparison method is not necessarily limited to the case where the distances are the same, and a slight difference in distance considered as an error on the map may be regarded as the same. As an example of the slight distance, the actual distance per pixel may be an error by obtaining the actual distance per pixel from the actual width of the object and the number of pixels of the object width on the captured image. .

その後、比較処理部24は、別の地図画像と比較を行うため、別の地図画像(3)の選択が可能か確認する(S22)。比較処理部24は、別の地図画像(3)が存在するのであれば、選択処理(S13)へ戻り、存在しない場合は、撮影画像から別のオブジェクト(2)を選択可能か確認する(S23)。比較処理部24は、別のオブジェクト(2)が存在するのであれば、選択処理(S12)へ戻り、存在しない場合は撮影画像から別のオブジェクト(1)を選択可能か確認する(S24)。比較処理部24は、別のオブジェクト(1)が存在するのであれば、選択処理(S11)へ戻り、存在しないのであれば、マッチング処理を終了する(S25)。   Thereafter, the comparison processing unit 24 confirms whether another map image (3) can be selected in order to compare with another map image (S22). If another map image (3) exists, the comparison processing unit 24 returns to the selection process (S13), and if not, checks whether another object (2) can be selected from the captured image (S23). ). If another object (2) exists, the comparison processing unit 24 returns to the selection process (S12), and if not, checks whether another object (1) can be selected from the captured image (S24). The comparison processing unit 24 returns to the selection process (S11) if another object (1) exists, and ends the matching process if it does not exist (S25).

また、オブジェクト(2)の種別とオブジェクト(5)の種別との比較処理(S17)と、オブジェクト間の距離の比較処理(S18)とにおいて、結果が異なる場合、比較処理部24は、地図画像(3)から別のオブジェクト(5)を選択可能か確認する(S20)。比較処理部24は、別のオブジェクト(5)が選択可能であれば、再度オブジェクト(5)の選択を行い(S16)、不可であれば、地図画像(3)から別のオブジェクト(4)の選択が可能か確認する(S21)。比較処理部24は、オブジェクト(4)を選択可能であれば、再度オブジェクト(4)の抽出を行い(S14)、存在しないのであれば、別の地図画像(3)の選択の確認処理(S22)へ戻る。また、オブジェクト(1)の種別とオブジェクト(4)の種別の比較処理(S15)にて、種別が異なる場合、比較処理部24は、オブジェクト(4)の選択の確認処理(S21)へ戻る。   If the result of the comparison process (S17) between the type of the object (2) and the type of the object (5) is different from the comparison process (S18) of the distance between objects, the comparison processing unit 24 displays the map image. It is confirmed whether another object (5) can be selected from (3) (S20). The comparison processing unit 24 selects the object (5) again if another object (5) can be selected (S16). If the other object (5) cannot be selected, the comparison processing unit 24 selects another object (4) from the map image (3). It is confirmed whether selection is possible (S21). If the object (4) can be selected, the comparison processing unit 24 extracts the object (4) again (S14). If the object (4) does not exist, the comparison processing unit 24 confirms the selection of another map image (3) (S22). Return to). If the type is different in the comparison process (S15) between the type of the object (1) and the type of the object (4), the comparison processing unit 24 returns to the confirmation process (S21) of the selection of the object (4).

なお、図7のフローチャートにて撮影画像からのオブジェクトの選択処理及び地図画像からのオブジェクトの選択処理において、オブジェクトの数が足りずに選択が失敗する場合があるが、一般的な異常処理であるため、説明を省略する。   In the flowchart of FIG. 7, in the object selection process from the captured image and the object selection process from the map image, the selection may fail due to insufficient number of objects, but this is a general abnormality process. Therefore, the description is omitted.

上記のマッチング処理が終了した後、比較処理部24は、地図画像データ毎に集計した評価値を比較し、最も評価値の大きい地図画像データが撮影画像に近似の地点を撮影したと考えられる地図画像データであると特定し、地図画像データとペアで管理される撮影位置情報を元に、画像撮影端末10の位置を特定する。   After the above matching processing is completed, the comparison processing unit 24 compares the evaluation values aggregated for each map image data, and the map that is considered that the map image data having the largest evaluation value has taken a point that approximates the captured image. It identifies that it is image data, and identifies the position of the image photographing terminal 10 based on the photographing position information managed as a pair with the map image data.

次に、画像撮影端末10の位置特定の算出式を以下に示す。なお、画像撮影端末10のカメラ11の部分の左下の位置のことを、特に断りがない限り、画像撮影端末10の位置と表現する。   Next, a calculation formula for specifying the position of the image capturing terminal 10 is shown below. Note that the lower left position of the camera 11 portion of the image capturing terminal 10 is expressed as the position of the image capturing terminal 10 unless otherwise specified.

Figure 2008310446
Figure 2008310446

まず、式(6)にて、データベース26内の画像の左下を原点とする座標系上における画像撮影端末10の位置(EyeX,EyeY,EyeZ)を求める。式(6)において、(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)は、画像データIDの左下位置を原点としたときのオブジェクトの位置、(AX1,AY1,AZ1)、(AX2,AY2,AZ2)、(AX3,AY3,AZ3)は、データベース26内の画像の左下を原点としたときのオブジェクトの位置である。また、(SX,SY,SZ)は、画像撮影端末10の水平方向の傾き、(UX,UY,UZ)は、画像撮影端末10の垂直方向の傾き、(DX,DY,DZ)は、画像撮影端末10の視線方向の傾きである。また、Wp、Hpは、実スケールの画像データIDの水平方向及び垂直方向の大きさであり、以下式により算出する。   First, the position (EyeX, EyeY, EyeZ) of the image capturing terminal 10 on the coordinate system having the origin at the lower left of the image in the database 26 is obtained by Expression (6). In the equation (6), (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3) are the positions of the objects with the lower left position of the image data ID as the origin, (AX1, AY1, AZ1), (AX2, AY2, AZ2), and (AX3, AY3, AZ3) are object positions when the lower left of the image in the database 26 is set as the origin. Further, (SX, SY, SZ) is the horizontal tilt of the image capturing terminal 10, (UX, UY, UZ) is the vertical tilt of the image capturing terminal 10, and (DX, DY, DZ) is the image. This is the inclination in the line-of-sight direction of the photographing terminal 10. Wp and Hp are the horizontal and vertical sizes of the actual scale image data ID, and are calculated by the following equations.

Wp=wp×(W/w) …(7)
Hp=hp×(H/h) …(8)
上記式(7)及び(8)において、W、w、H、hは、式(1)及び(2)と同様である。wp、hpは、画像データIDの水平方向及び垂直方向の大きさ(単位:ピクセル)である。
Wp = wp × (W / w) (7)
Hp = hp × (H / h) (8)
In the above formulas (7) and (8), W, w, H, and h are the same as in formulas (1) and (2). wp and hp are the horizontal and vertical sizes (unit: pixels) of the image data ID.

次に、比較処理部24は、下記式を用いて、画像撮影端末10の絶対位置を求める。なお、式(9)及び(10)では、絶対位置の例として緯度、経度の算出式を示した。   Next, the comparison processing unit 24 obtains the absolute position of the image capturing terminal 10 using the following formula. In equations (9) and (10), latitude and longitude calculation formulas are shown as examples of absolute positions.

緯度=A0_Z+{(EyeZ×cosα)/111111} …(9)
経度=A0_X+{(EyeX×cosα)/111111} …(10)
式(9)及び(10)において、A0_X、A0_Zは、データベース26内の画像の左下絶対位置の経度及び緯度であり、αは、データベース26内の画像を撮影した際の撮影端末の向き(北方向から時計周りに何度ずれているかを示す値であり、高度方向のずれは無視)であり、「111111」は、定数であり、緯度/経度1°あたりのメートル量である。
Latitude = A0_Z + {(EyeZ × cos α) / 111111} (9)
Longitude = A0_X + {(EyeX × cos α) / 111111} (10)
In equations (9) and (10), A0_X and A0_Z are the longitude and latitude of the lower left absolute position of the image in the database 26, and α is the orientation (north) of the image capturing terminal when the image in the database 26 is captured. It is a value indicating how many times the direction is deviated clockwise from the direction, and the deviation in the altitude direction is ignored), and “111111” is a constant and is a meter amount per latitude / longitude of 1 °.

比較処理部24は、上記の画像撮影端末10の位置を情報送信部27へ送り、情報送信部27は、画像撮影端末10の情報受信部14に位置情報を通知する。画像撮影端末10の表示処理部15は、情報受信部14から位置情報を受け取り、LCD60を用いて位置情報を表示する。   The comparison processing unit 24 sends the position of the image capturing terminal 10 to the information transmitting unit 27, and the information transmitting unit 27 notifies the information receiving unit 14 of the image capturing terminal 10 of the position information. The display processing unit 15 of the image capturing terminal 10 receives the position information from the information receiving unit 14 and displays the position information using the LCD 60.

また、比較処理部24は、画像撮影端末10により撮影された撮影画像とデータベース26上に保持している撮影画像との類似性の判断を行い、類似性が認められた場合には、位置情報の場合と同様の方法を利用して、画像撮影端末10の傾きを算出し、この傾きを表す傾き情報を、情報送信部27を用いて画像撮影端末10へ送信する。この場合、傾き検出用のセンサーを備えなくとも、画像撮影端末10のLCD60に傾きを示す情報を表示することや、その他の制御用に傾き情報を使用することができる。   Further, the comparison processing unit 24 determines the similarity between the captured image captured by the image capturing terminal 10 and the captured image held on the database 26, and if the similarity is recognized, the position information The inclination of the image capturing terminal 10 is calculated using the same method as in the above case, and inclination information representing the inclination is transmitted to the image capturing terminal 10 using the information transmitting unit 27. In this case, it is possible to display information indicating the inclination on the LCD 60 of the image capturing terminal 10 without using a sensor for detecting the inclination, or to use the inclination information for other controls.

また、サーバ20の比較処理部24にて、撮影画像のオブジェクト数が足りないために地図画像データ毎に管理する評価値が全て初期値であった場合には、データベース26内にマッチする地図画像データが見つからなかったことを示すため、サーバ20は、画像撮影端末10へオブジェクトの要求通知を行う。   In addition, when the comparison processing unit 24 of the server 20 has all the evaluation values managed for each map image data because the number of objects of the photographed image is insufficient, the map image that matches in the database 26. In order to indicate that the data was not found, the server 20 sends an object request notification to the image capturing terminal 10.

要求をうけた画像撮影端末10は、オブジェクト位置(水平方向、垂直方向)、オブジェクト大きさ(水平方向、垂直方向)に基づき、オブジェクト抽出結果をユーザに通知する。図8は、画像撮影端末10にオブジェクトの追加要求を行う場合におけるオブジェクト抽出結果の通知画面の一例である。図8の例では、オブジェクトO1、O2に対してそれぞれ、ガイドラインの一例として、枠線F1、F2を表示し、さらに、オブジェクトがあと何個必要かを示すメッセージM1を表示している。なお、ガイドラインは、上記の破線に特に限定されず、実線、一転鎖線、二点鎖線等を用いてもよく、種々の変更が可能である。   Upon receiving the request, the image capturing terminal 10 notifies the user of the object extraction result based on the object position (horizontal direction and vertical direction) and the object size (horizontal direction and vertical direction). FIG. 8 is an example of an object extraction result notification screen when an object addition request is made to the image capturing terminal 10. In the example of FIG. 8, frame lines F1 and F2 are displayed as examples of guidelines for the objects O1 and O2, respectively, and a message M1 indicating how many objects are required is displayed. In addition, a guideline is not specifically limited to said broken line, A solid line, a 1-dot chain line, a dashed-two dotted line, etc. may be used and a various change is possible.

メッセージM1で示した必要オブジェクト数は、比較処理部24に依存する値である。例として、候補画像が一つもない場合にはオブジェクトを1個要求し、後述するように候補画像が複数存在し、候補画像中に未評価のオブジェクトが二つある場合には、二つ要求するなどの値の決定方法がある。ただし、値の決定方法は、これらの例に限定するものではなく、1つずつ要求する方法であったり、地図上の統計情報を利用する方法であったりしても構わない。また、ここで示した方法以外であっても、ユーザにオブジェクト抽出結果が分かる方法ならばなんでもよい。   The required number of objects indicated by the message M1 is a value depending on the comparison processing unit 24. For example, if there is no candidate image, request one object, and if there are multiple candidate images as described later and there are two unevaluated objects in the candidate image, request two. There is a method for determining such values. However, the value determination method is not limited to these examples, and it may be a method of requesting one by one or a method of using statistical information on a map. Also, any method other than the method shown here may be used as long as the user can know the object extraction result.

これにより、候補画像を特定できない場合であっても、ユーザは、撮影画像中のオブジェクトを増やすなどの対策をとることが可能になり、再度、撮影画像のマッチング処理を行う時に、比較処理部24におけるオブジェクトの比較パターンを増やし、地図画像データとマッチする可能性を高めることができる。   Thus, even when the candidate image cannot be specified, the user can take measures such as increasing the number of objects in the captured image. When the matching processing of the captured image is performed again, the comparison processing unit 24 can be used. The number of object comparison patterns can be increased, and the possibility of matching with map image data can be increased.

さらに、サーバ20の比較処理部24にて、撮影画像のオブジェクト数が足りないために、地図画像データ毎に管理する評価値が同一の地図画像データが、複数存在した場合には、やはり同様にサーバ20から画像撮影端末10へオブジェクト数を増やす通知を行うことにより、オブジェクトによる比較数を増やし、より撮影画像に近い地図画像データを見つけることができる。   Further, when there are a plurality of map image data with the same evaluation value managed for each map image data in the comparison processing unit 24 of the server 20 because there are not enough objects in the photographed image, the same applies. By notifying the image capturing terminal 10 from the server 20 to increase the number of objects, the number of comparisons by objects can be increased, and map image data closer to the captured image can be found.

また、比較処理部24は、撮影画像と地図画像との評価値が最も近いものを同一地点とみなし、該当地図画像を該当撮影画像で置き換える機能を持つ。このとき、比較処理部24は、データベース26が保持している図2に示した情報を直接書き換えてもよいし、サーバ20から画像撮影端末10に通知を行って図9に示すような確認表示M2を行い、ユーザの指示によりデータベース26の書き換えを行わせてもよい。   In addition, the comparison processing unit 24 has a function of replacing the corresponding map image with the corresponding captured image by regarding the closest evaluation value between the captured image and the map image as the same point. At this time, the comparison processing unit 24 may directly rewrite the information shown in FIG. 2 held in the database 26, or notifies the image photographing terminal 10 from the server 20 and displays a confirmation display as shown in FIG. M2 may be performed, and the database 26 may be rewritten according to a user instruction.

さらに、撮影画像と同一評価値となる地図画像が複数存在した場合には、やはり同様にサーバ20から画像撮影端末10へ候補地の通知を行い、図10に示すように、置き換え候補地をユーザに提示するメッセージM3を表示し、ユーザに書き換え地点を選択させる。上記地図画像を撮影画像で置き換えることにより、地図画像を常に最新に保つことが可能となる。   Further, when there are a plurality of map images having the same evaluation value as the photographed image, the server 20 notifies the image photographing terminal 10 of the candidate location in the same manner, and the replacement candidate location is selected by the user as shown in FIG. A message M3 to be presented is displayed, and the user is made to select a rewriting point. By replacing the map image with a captured image, the map image can always be kept up-to-date.

上記のように、本実施の形態では、撮影画像とその位置情報のみでデータベース26を作成し、撮影画像から位置情報を特定することができるので、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受けることなく、画像の類似性を評価することができるため、画像撮影端末の位置情報を高精度に求めることができる。   As described above, in the present embodiment, the database 26 can be created from only the photographed image and its position information, and the position information can be specified from the photographed image. Since the similarity of images can be evaluated without being affected by disturbances such as moving objects such as plants or the reflection of automobiles, or by deviations in the captured images, the location information of the image capturing terminals can be obtained. It can be obtained with high accuracy.

(第2の実施の形態)
次に、サーバにて、地図画像データ毎にオブジェクトを前もって抽出して保持する実施の形態を、第2の実施の形態として説明する。第2の実施の形態では、画像検索システムの管理者は、データベースに地図画像データを登録する際に、サーバにてオブジェクトの抽出を実行し、地図画像データ単位でオブジェクトの抽出結果を予め登録する。
(Second Embodiment)
Next, an embodiment in which an object is extracted and held in advance for each map image data in the server will be described as a second embodiment. In the second embodiment, when registering map image data in the database, the administrator of the image search system executes object extraction at the server and registers the object extraction result in advance in units of map image data. .

図11に、本発明の第2の実施の形態による画像検索システムの、データベース26に地図画像データとオブジェクトを登録するための機能を追加したサーバ20aのブロック図を示す。なお、サーバ20aと通信する画像撮影端末10は、第1の実施の形態と同様であるので、図示及び詳細な説明を省略する。   FIG. 11 shows a block diagram of a server 20a to which a function for registering map image data and objects in the database 26 is added in the image search system according to the second embodiment of the present invention. The image capturing terminal 10 that communicates with the server 20a is the same as that in the first embodiment, and thus illustration and detailed description thereof are omitted.

画像入力部32は、画像検索システムの管理者による地図画像データ、撮影位置情報及び撮影方向の入力を受付け、地図画像データ、撮影位置情報及び撮影方向を画像登録部31へ送信する。画像登録部31は、比較処理部24に地図画像の評価を依頼する。比較処理部24は、第1の画像評価部23に地図画像の解析を依頼する。第1の画像評価部23は、オブジェクトデータベース28を利用してオブジェクトの抽出を行う。オブジェクトの抽出方法は、第1の実施の形態にて説明した方法と同一である。なお、地図画像を評価する画像評価部は、第1の画像評価部23に限定するものではなく、第2の画像評価部25を用いて地図画像データを解析してオブジェクト及びその属性情報の抽出を行ってもよい。   The image input unit 32 receives input of map image data, shooting position information, and shooting direction by an administrator of the image search system, and transmits the map image data, shooting position information, and shooting direction to the image registration unit 31. The image registration unit 31 requests the comparison processing unit 24 to evaluate the map image. The comparison processing unit 24 requests the first image evaluation unit 23 to analyze the map image. The first image evaluation unit 23 extracts objects using the object database 28. The object extraction method is the same as the method described in the first embodiment. The image evaluation unit that evaluates the map image is not limited to the first image evaluation unit 23, and the map image data is analyzed using the second image evaluation unit 25 to extract the object and its attribute information. May be performed.

第1の画像評価部23は、オブジェクトの抽出を終えると、比較処理部24を経由して画像登録部31にオブジェクト情報を通知し、画像登録部31は、地図画像データ、撮影位置情報及び撮影方向とともにオブジェクト情報をデータベース26に登録する。   When the first image evaluation unit 23 finishes extracting the object, the first image evaluation unit 23 notifies the image registration unit 31 of the object information via the comparison processing unit 24, and the image registration unit 31 includes the map image data, the shooting position information, and the shooting The object information is registered in the database 26 together with the direction.

図12に、データベース26にて管理するデータ構造の一例を示す。図12に示すように、データベース26は、地図画像データ毎に、撮影位置情報(緯度及び経度)並びに撮影方向を記憶するとともに、当該地図画像に含まれるオブジェクトの種別並びに位置(緯度、経度及び高度)を記憶している。   FIG. 12 shows an example of a data structure managed by the database 26. As shown in FIG. 12, the database 26 stores the shooting position information (latitude and longitude) and the shooting direction for each map image data, and the type and position (latitude, longitude and altitude) of the objects included in the map image. ) Is remembered.

このように、本実施の形態では、データベース26内の地図画像データ毎にオブジェクトは抽出済みであるため、第2の画像評価部25は、地図画像データを解析してオブジェクトを抽出する必要はない。従って、比較処理部24は、地図画像データに含まれるオブジェクト情報をデータベース26から直接読み出すことができる。その他の処理については、第1の実施の形態と同様となる。   Thus, in this embodiment, since the object has been extracted for each map image data in the database 26, the second image evaluation unit 25 does not need to analyze the map image data and extract the object. . Therefore, the comparison processing unit 24 can directly read the object information included in the map image data from the database 26. Other processes are the same as those in the first embodiment.

なお、画像撮影端末10により撮影された撮影画像の位置情報を特定後、その撮影画像から抽出したオブジェクトの属性情報を撮影位置情報とともに、データベース26に地図画像データとして登録してもよい。   Note that, after specifying the position information of the captured image captured by the image capturing terminal 10, the attribute information of the object extracted from the captured image may be registered as map image data in the database 26 together with the captured position information.

また、データベース26は、保持している地図画像内に存在している複数のオブジェクトを抽出してオブジェクト間の距離を計算した結果を、当該地図画像と対応付けて予め保持するようにしてもよい。この場合、データベース26中の地図画像のオブジェクトを予め抽出しておくことにより、撮影画像との類似性の評価を行う毎にオブジェクトを抽出する処理を削減することができる。   Further, the database 26 may store in advance a result of extracting a plurality of objects existing in the held map image and calculating the distance between the objects in association with the map image. . In this case, by extracting the map image object in the database 26 in advance, it is possible to reduce the process of extracting the object each time the similarity with the photographed image is evaluated.

(第3の実施の形態)
次に、サーバにて、地図上の位置情報とともにオブジェクト単位でデータを保持しておく実施の形態を、第3の実施の形態として説明する。第3の実施の形態では、画像検索システムの管理者は、データベースに地図画像データを登録する際に、サーバにてオブジェクトの抽出と位置情報の特定とを実行し、オブジェクト単位でその位置情報とともにその属性情報を予め登録する。
(Third embodiment)
Next, an embodiment in which data is stored in units of objects together with position information on a map at a server will be described as a third embodiment. In the third embodiment, when registering the map image data in the database, the administrator of the image search system executes object extraction and position information identification at the server, together with the position information for each object. The attribute information is registered in advance.

本実施の形態による画像検索システムの機能ブロック図は、図11と同様であるため、重複する図示を省略するため、図11を用いて説明するとともに、同一処理を行う箇所については説明を省略する。   Since the functional block diagram of the image search system according to the present embodiment is the same as that in FIG. 11, the overlapping illustration is omitted. Therefore, the description will be omitted with reference to FIG. .

本実施の形態と第2の実施の形態とで異なる点は、第1の画像評価部23は、オブジェクトの抽出とともにオブジェクト毎の位置情報の算出を行い、画像登録部31に通知する点と、オブジェクト情報とその位置情報とを通知された画像登録部31は、オブジェクト情報と位置情報とをデータベース26に登録する点である。なお、詳細については後述する。   The difference between the present embodiment and the second embodiment is that the first image evaluation unit 23 calculates the position information for each object together with the extraction of the object, and notifies the image registration unit 31 of the difference. The image registration unit 31 notified of the object information and its position information is to register the object information and the position information in the database 26. Details will be described later.

図13に、データベース26にて管理するデータ構造の一例を示す。本実施の形態では、データベース26内のデータは、地図用オブジェクトデータであり、実体はオブジェクト単位の属性情報と位置情報とである。従って、第2の画像評価部25は、地図画像データを解析してオブジェクトを抽出する必要はなく、比較処理部24は、地図画像データに含まれるオブジェクト情報をデータベース26から直接読み出すことができる。   FIG. 13 shows an example of a data structure managed by the database 26. In the present embodiment, the data in the database 26 is map object data, and the entity is attribute information and position information in units of objects. Therefore, the second image evaluation unit 25 does not need to analyze the map image data and extract an object, and the comparison processing unit 24 can directly read the object information included in the map image data from the database 26.

図14は、本実施の形態による画像検索システムの比較処理部24におけるマッチング処理を説明するためのフローチャートを示す。   FIG. 14 is a flowchart for explaining matching processing in the comparison processing unit 24 of the image search system according to this embodiment.

マッチング処理が開始すると(S30)、比較処理部24は、はじめに撮影画像の中から第1のオブジェクト(1)を1つ選択し(S31)、さらに、撮影画像中からもう一つ別の第2のオブジェクト(2)を選択する(S32)。比較処理部24は、さらにデータベース26の中から第3のオブジェクト(3)を一つ選択し(S33)、オブジェクト(1)の種別とオブジェクト(3)の種別との比較を行う(S34)。   When the matching process starts (S30), the comparison processing unit 24 first selects one first object (1) from the photographed image (S31), and then another second second object from the photographed image. The object (2) is selected (S32). The comparison processing unit 24 further selects one third object (3) from the database 26 (S33), and compares the type of the object (1) with the type of the object (3) (S34).

種別が同一の場合、比較処理部24は、データベース26の中から第3のオブジェクト(3)とは異なる第4のオブジェクト(4)を抽出し(S35)、オブジェクト(2)の種別とオブジェクト(4)の種別との比較を行う(S36)。種別が同一の場合、比較処理部24は、オブジェクト(1)とオブジェクト(2)との距離L1と、オブジェクト(3)とオブジェクト(4)との距離L2を算出する。距離の算出式は、第1の実施の形態と同様である。   If the types are the same, the comparison processing unit 24 extracts the fourth object (4) different from the third object (3) from the database 26 (S35), and the type and object (2) of the object (2) Comparison with the type of 4) is performed (S36). When the types are the same, the comparison processing unit 24 calculates the distance L1 between the objects (1) and (2) and the distance L2 between the objects (3) and (4). The formula for calculating the distance is the same as that in the first embodiment.

次に、比較処理部24は、距離L1と距離L2との比較を行い(S37)、距離が同一の場合、撮影画像中のオブジェクト(1)、(2)と、選択中のオブジェクト(3)、(4)には相関関係があると判断し、データベース26中のオブジェクト単位で管理される評価値を増加させる(S38)。なお、データベース26中のオブジェクト単位で管理される評価値は、比較処理開始時に初期化しておく。   Next, the comparison processing unit 24 compares the distance L1 and the distance L2 (S37). If the distances are the same, the objects (1) and (2) in the photographed image and the object (3) being selected are selected. , (4) is determined to have a correlation, and the evaluation value managed in units of objects in the database 26 is increased (S38). Note that the evaluation value managed in units of objects in the database 26 is initialized at the start of the comparison process.

その後、比較処理部24は、データベース26中の別のオブジェクトとも比較を行うため、別の第4のオブジェクト(4)を選択可能か確認する(S39)。比較処理部24は、別のオブジェクト(4)が存在するのであれば、選択処理(S35)へ戻り、存在しない場合は、データベース26中から別のオブジェクト(3)を選択可能か確認する(S40)。比較処理部24は、別のオブジェクト(3)が存在するのであれば、選択処理(S33)へ戻り、存在しない場合は、撮影画像から別のオブジェクト(2)を選択可能か確認する(S41)。比較処理部24は、別のオブジェクト(2)が存在するのであれば、選択処理(S32)へ戻り、存在しない場合は撮影画像から別のオブジェクト(1)を選択可能か確認する(S42)。比較処理部24は、別のオブジェクト(1)が存在するのであれば、選択処理(S31)へ戻り、存在しないのであれば、マッチング処理を終了する(S43)。   After that, the comparison processing unit 24 compares with another object in the database 26, and confirms whether another fourth object (4) can be selected (S39). If another object (4) exists, the comparison processing unit 24 returns to the selection process (S35), and if not, checks whether another object (3) can be selected from the database 26 (S40). ). If another object (3) exists, the comparison processing unit 24 returns to the selection process (S33), and if not, checks whether another object (2) can be selected from the photographed image (S41). . If another object (2) exists, the comparison processing unit 24 returns to the selection process (S32), and if not, checks whether another object (1) can be selected from the captured image (S42). The comparison processing unit 24 returns to the selection process (S31) if another object (1) exists, and ends the matching process if it does not exist (S43).

また、オブジェクト(2)の種別とオブジェクト(4)の種別との比較処理(S36)と、オブジェクト間の距離の比較処理(S37)とにて、結果が異なる場合、比較処理部24は、データベース26から別のオブジェクト(4)を選択可能か確認する(S39)。比較処理部24は、別のオブジェクト(4)を選択可能であれば、再度オブジェクト(4)の選択を行い(S35)、不可であれば、データベース26から別のオブジェクト(3)の選択を行えるか確認する(S40)。比較処理部24は、オブジェクト(3)を選択可能であれば、再度オブジェクト(4)の抽出を行い(S33)、存在しないのであれば、撮影画像からのオブジェクト(2)の選択の確認処理を行う(S41)。また、比較処理部24は、オブジェクト(1)の種別とオブジェクト(3)の種別との比較処理(S34)にて、種別が異なる場合、オブジェクト(3)の選択の確認処理を行う(S40)。   If the result of the comparison process (S36) between the type of the object (2) and the type of the object (4) is different from the comparison process of the distance between objects (S37), the comparison processing unit 24 26, it is confirmed whether another object (4) can be selected (S39). If another object (4) can be selected, the comparison processing unit 24 selects the object (4) again (S35). If the other object (4) cannot be selected, the comparison processing unit 24 can select another object (3) from the database 26. (S40). If the object (3) can be selected, the comparison processing unit 24 extracts the object (4) again (S33). If the object (3) does not exist, the comparison processing unit 24 performs confirmation processing for selecting the object (2) from the photographed image. Perform (S41). Further, when the types are different in the comparison process (S34) between the type of the object (1) and the type of the object (3) (S34), the comparison processing unit 24 performs a confirmation process for selecting the object (3) (S40). .

なお、図14のフローチャートにて撮影画像からのオブジェクトの選択処理及びデータベースからのオブジェクトの選択処理において、オブジェクトの数が足りずに選択が失敗する場合があるが、一般的な異常処理であるため、説明を省略する。また、画像撮影端末10により撮影された撮影画像の位置情報を特定後、その撮影画像から抽出したオブジェクトの属性情報を撮影位置情報とともに、データベース26に地図用オブジェクトデータとして登録してもよい。   In the flowchart of FIG. 14, in the object selection process from the captured image and the object selection process from the database, the selection may fail due to an insufficient number of objects, but this is a general abnormal process. The description is omitted. Further, after specifying the position information of the photographed image photographed by the image photographing terminal 10, the attribute information of the object extracted from the photographed image may be registered as map object data in the database 26 together with the photographing position information.

上記のマッチング処理が終了した後、比較処理部24は、データベース26中のオブジェクト毎に集計した評価値を比較し、最も評価値の大きいオブジェクトと、そのオブジェクトとの距離を算出したオブジェクト(撮影画像中のオブジェクトと一致したデータベース26中の別のオブジェクト)とが、ともに撮影画像にも含まれていると特定し、オブジェクトとペアで管理される位置情報を用いて、撮影画像における撮影位置を特定する。   After the above matching processing is completed, the comparison processing unit 24 compares the evaluation values collected for each object in the database 26, and calculates the distance between the object having the largest evaluation value and the object (photographed image). And another object in the database 26 that matches the object in the image) are both included in the photographed image, and the photographing position in the photographed image is identified using position information managed in pairs with the object. To do.

次に、画像撮影端末10の位置特定の算出式を以下に示す。   Next, a calculation formula for specifying the position of the image capturing terminal 10 is shown below.

Figure 2008310446
Figure 2008310446

ここで、式(11)で算出される画像撮影端末10の位置(EyeX,EyeY,EyeZ)は、データベース26内の座標系における位置である。また、式(11)において、(AX1,AY1,AZ1)、(AX2,AY2,AZ2)、(AX3,AY3,AZ3)は、データベース26内のオブジェクト位置である。また、行列Fにおいて、fv=1.0/tan(π×fovy/180.0)であり、Fは、遠近補正用の行列であり、、画像撮影端末10のカメラ固有パラメータ、fovy(垂直方向の視野角)、aspect(水平方向の視野角)、f,n(焦点距離)により求まる固定値である。式(11)における他の記号は、式(6)と同様である。   Here, the position (EyeX, EyeY, EyeZ) of the image capturing terminal 10 calculated by Expression (11) is a position in the coordinate system in the database 26. In the equation (11), (AX1, AY1, AZ1), (AX2, AY2, AZ2), and (AX3, AY3, AZ3) are object positions in the database 26. Further, in the matrix F, fv = 1.0 / tan (π × fovy / 180.0), F is a perspective correction matrix, and is a camera-specific parameter of the image capturing terminal 10, fovy (vertical direction) Is a fixed value obtained from aspect (horizontal viewing angle), aspect (horizontal viewing angle), and f, n (focal length). Other symbols in Equation (11) are the same as in Equation (6).

上記のアルゴリズムにより画像撮影端末10の撮影位置を特定した後、画像撮影端末10へ撮影位置を送信する手順については、第1の実施の形態に記載の手順と同じである。   The procedure for transmitting the shooting position to the image shooting terminal 10 after specifying the shooting position of the image shooting terminal 10 by the above algorithm is the same as the procedure described in the first embodiment.

次に、図11のデータベース26に対して、画像撮影端末10で撮影された画像上のオブジェクト、または画像入力部32より登録される地図画像データ上のオブジェクト(以下、登録対象オブジェクトと記す)を追加又は削除して登録対象オブジェクトを更新する方法について示す。なお、オブジェクトを登録するための処理要求は、第1の実施の形態に示したとおり、画像撮影端末10からの処理要求であってもよいし、未登録のオブジェクトを画像撮影端末10からの処理要求がなくとも、サーバ20aにて自動で登録してもよい。   Next, with respect to the database 26 in FIG. 11, an object on an image captured by the image capturing terminal 10 or an object on map image data registered by the image input unit 32 (hereinafter referred to as a registration target object). A method for updating an object to be registered by adding or deleting will be described. Note that the processing request for registering an object may be a processing request from the image capturing terminal 10 as described in the first embodiment, or a process request from the image capturing terminal 10 for an unregistered object. Even if there is no request, it may be automatically registered in the server 20a.

登録対象オブジェクトの追加方法としては、第1の画像評価部23によるオブジェクト抽出後、比較処理部24及び第2の画像評価部25は、抽出されたオブジェクトとデータベース26中のオブジェクトと比較を行い、第1の画像評価部23により抽出されたオブジェクトがデータベース26に存在しない場合、登録対象オブジェクトとしてデータベース26に追加する。また、データベース26中にオブジェクトと位置情報とが存在するが、撮影画像上にオブジェクトが存在しない場合、データベース26中の該当オブジェクトを削除する。また、撮影画像上のオブジェクトと同一位置に存在するデータベース26中のオブジェクトの種別が異なる場合、撮影画像上のオブジェクトに関する情報によりデータベース26中の該当オブジェクトに関する情報を上書きする。   As an addition method of the registration target object, after the object extraction by the first image evaluation unit 23, the comparison processing unit 24 and the second image evaluation unit 25 compare the extracted object with the object in the database 26, If the object extracted by the first image evaluation unit 23 does not exist in the database 26, it is added to the database 26 as a registration target object. If the object and position information exist in the database 26 but no object exists on the captured image, the object in the database 26 is deleted. If the type of the object in the database 26 existing at the same position as the object on the captured image is different, the information on the object in the database 26 is overwritten with the information on the object on the captured image.

次に、登録対象オブジェクトをデータベース26に登録する手順の詳細を示す。登録対象オブジェクトの位置を、撮影画像の左下位置を原点とする座標系における値からデータベース26内の座標系における値に変換するための式を以下に示す。   Next, details of a procedure for registering an object to be registered in the database 26 will be described. An expression for converting the position of the registration target object from the value in the coordinate system with the origin at the lower left position of the captured image to the value in the coordinate system in the database 26 is shown below.

Figure 2008310446
Figure 2008310446

ここで、式(13)において、(AX’,AY’,AZ’)は、変換後の登録対象オブジェクトの位置(データベース26内の座標系における値)である。また、(X,Y,Z)は、変換前の登録対象オブジェクトの位置(撮影画像の左下位置を原点とする座標系における値)である。他の記号は、式(11)と同様である。上記の手順により、データベース26にオブジェクトとともにオブジェクトの位置情報を登録することができる。   Here, in Expression (13), (AX ′, AY ′, AZ ′) is the position of the registration target object after conversion (value in the coordinate system in the database 26). Also, (X, Y, Z) is the position of the registration target object before conversion (value in the coordinate system with the lower left position of the captured image as the origin). Other symbols are the same as those in Expression (11). With the above procedure, the object position information can be registered in the database 26 together with the object.

上記のように、本実施の形態では、データベース26上のデータをオブジェクト単位で保持しているので、異なる画像に含まれているオブジェクト間の比較も可能となるため、撮影画像中のオブジェクトとデータベース26中のオブジェクトとの類似性を比較する際に、一致する確率を高めることができ、位置情報を特定できる頻度を増やすことができる。   As described above, in the present embodiment, since the data on the database 26 is held in units of objects, it is possible to compare objects included in different images. When comparing the similarity with the object in 26, the probability of matching can be increased, and the frequency with which the position information can be specified can be increased.

(第4の実施の形態)
次に、図3における第1の画像評価部23及びオブジェクトデータベース28と同等の第3の画像評価部及びオブジェクトデータベースを画像撮影端末側に持たせ、撮影中のプレビュー画像上に、オブジェクト抽出結果を表示する(例えば、オブジェクトのまわりに枠線を表示する)実施の形態を、第4の実施の形態として説明する。本実施の形態では、オブジェクト抽出結果が撮影時にユーザに分かるため、サーバ20上での画像データのマッチング処理(図7のフローチャート)にてオブジェクトの数が足りずに選択が失敗する場合を極力減らすことが可能になる。
(Fourth embodiment)
Next, a third image evaluation unit and an object database equivalent to the first image evaluation unit 23 and the object database 28 in FIG. 3 are provided on the image shooting terminal side, and the object extraction result is displayed on the preview image being shot. An embodiment for displaying (for example, displaying a frame line around an object) will be described as a fourth embodiment. In this embodiment, since the object extraction result is known to the user at the time of shooting, the case where selection fails due to an insufficient number of objects in the image data matching process (flow chart in FIG. 7) on the server 20 is reduced as much as possible. It becomes possible.

図15に、第4の実施の形態による画像検索システムの画像撮影端末及びサーバの機能ブロック図を示す。なお、本実施の形態のサーバにおける処理は、第1の実施の形態と同様であるので、詳細な説明を省略し、図15を用いて、本画像検索システムによる現在位置特定処理の全体の流れのうち画像撮影端末によるオブジェクト抽出処理を主に説明する。   FIG. 15 is a functional block diagram of an image capturing terminal and a server of the image search system according to the fourth embodiment. The processing in the server according to the present embodiment is the same as that in the first embodiment, and thus detailed description thereof will be omitted, and the overall flow of the current position specifying process by the image search system will be described with reference to FIG. Among these, object extraction processing by the image capturing terminal will be mainly described.

画像撮影端末10aのカメラ画取り込み部12は、カメラ11により撮影中の風景を画像データとして取り込み、撮影画像記録部16に保存する。第3の画像評価部18は、撮影画像記録部16及びオブジェクトデータベース17に記憶されているオブジェクト情報から表示処理部15に渡すオブジェクト情報を求める。撮影画像記録部16の画像データ及びオブジェクトデータベース17からピクセル単位のオブジェクト位置(水平方向、垂直方向)及びオブジェクト大きさ(水平方向、垂直方向)を求める方法は、第1の実施の形態と同様である。   The camera image capturing unit 12 of the image capturing terminal 10 a captures the scenery being captured by the camera 11 as image data and stores it in the captured image recording unit 16. The third image evaluation unit 18 obtains object information to be passed to the display processing unit 15 from the object information stored in the captured image recording unit 16 and the object database 17. The method for obtaining the object position (horizontal direction and vertical direction) and the object size (horizontal direction and vertical direction) in pixel units from the image data of the photographed image recording unit 16 and the object database 17 is the same as in the first embodiment. is there.

第3の画像評価部18が求めるオブジェクト情報は、画像撮影端末10aの左下位置を原点とするオブジェクトの位置(水平方向、垂直方向)である。ここでは、求めたオブジェクト情報は、画像撮影端末10a内で用いるだけなので、オブジェクトの位置を実スケールで求める必要はなく、ピクセル単位でよい。また、LCD60に枠線等を表示するのが目的なので、オブジェクトの位置(奥行き方向)も不要である。   The object information required by the third image evaluation unit 18 is the position of the object (horizontal direction and vertical direction) with the lower left position of the image capturing terminal 10a as the origin. Here, since the obtained object information is only used in the image capturing terminal 10a, it is not necessary to obtain the position of the object on an actual scale, and may be in units of pixels. Further, since the purpose is to display a frame line or the like on the LCD 60, the position of the object (in the depth direction) is also unnecessary.

表示処理部15は、オブジェクト情報に基づき、オブジェクトの周りへの枠線をLCD60に表示を行うなどして、オブジェクト抽出結果をユーザに知らせる。例えば、図8のように、表示処理部15は、第3の画像評価部18にて求めたオブジェクト位置(水平方向、垂直方向)、オブジェクト大きさ(水平方向、垂直方向)に基づき、オブジェクト抽出結果をユーザに通知する。通知の方法は、第1の実施の形態と同様である。   The display processing unit 15 notifies the user of the object extraction result by displaying a frame line around the object on the LCD 60 based on the object information. For example, as shown in FIG. 8, the display processing unit 15 performs object extraction based on the object position (horizontal direction and vertical direction) and the object size (horizontal direction and vertical direction) obtained by the third image evaluation unit 18. Notify the user of the result. The notification method is the same as in the first embodiment.

ユーザは、オブジェクト抽出結果をLCD60にて確認しながら、プレビュー画像内のオブジェクト数が増えるように画像撮影端末10aを上下左右に移動するなどして撮影範囲を決める。   While checking the object extraction result on the LCD 60, the user determines the shooting range by moving the image shooting terminal 10a up and down, left and right so that the number of objects in the preview image increases.

図16は、ユーザが図8の状態から画像撮影端末10aを右に移動させることにより、オブジェクトO3が新たに認識され、画像内オブジェクト数が必要オブジェクト数に達した場合の例である。メッセージM4にて、撮影してよい旨をユーザに通知している。ユーザは、メッセージM4を見て撮影ボタンを押下する。または、画像内オブジェクト数が必要オブジェクト数に達した時点で自動的に撮影ボタンが押されるようにしてもよい。   FIG. 16 shows an example in which the object O3 is newly recognized and the number of objects in the image reaches the required number of objects when the user moves the image capturing terminal 10a to the right from the state of FIG. A message M4 informs the user that shooting is allowed. The user sees the message M4 and presses the shooting button. Alternatively, the shooting button may be automatically pressed when the number of objects in the image reaches the required number of objects.

撮影ボタンが押下されると、カメラ画取り込み部12は、カメラ11により撮影中の風景を画像データとして取り込んで撮影画像記録部16に保存し、撮影画像記録部16は、カメラ画送信部13を通じて画像データをサーバ20へ送信する。サーバ20への送信後の処理は、第1実施の形態と同様である。   When the shooting button is pressed, the camera image capturing unit 12 captures the scenery being captured by the camera 11 as image data and stores it in the captured image recording unit 16, and the captured image recording unit 16 passes through the camera image transmission unit 13. The image data is transmitted to the server 20. Processing after transmission to the server 20 is the same as in the first embodiment.

本実施の形態によれば、オブジェクト抽出結果がプレビュー時にユーザに分かるため、サーバ20上での画像データのマッチング処理(図7のフローチャート)にてオブジェクトの数が足りずに選択が失敗する場合を極力減らすことが可能になる。これにより、ユーザに何度もカメラ画像の取り直しさせるといった事態も防げるため、位置特定にかかる時間もその分短縮できる。また、サーバ20への画像送信の回数を減らせるため、画像送信にかかる通信費を抑制することも可能になる。   According to the present embodiment, since the object extraction result is known to the user at the time of preview, there is a case where the selection fails due to an insufficient number of objects in the image data matching process (the flowchart in FIG. 7) on the server 20. It becomes possible to reduce as much as possible. As a result, it is possible to prevent the user from re-acquiring the camera image many times, and the time required for specifying the position can be reduced accordingly. In addition, since the number of times of image transmission to the server 20 can be reduced, it is possible to reduce communication costs for image transmission.

本発明によると、建物の増改築、撤去又は新築や、人物や植物等の動きのあるもの又は自動車の映りこみなどの外乱の影響や、撮影画像のずれなどの影響を受け難いため、精度よく画像の類似性を評価する方法して有用である。また、精度よく画像の類似性を評価可能なことを利用することにより、画像の類似性を比較評価して画像撮影端末の位置情報を得る用途にも適用できるため、画像撮影端末にGPS等の位置特定手段を設ける必要はなく、その産業上の利用価値は極めて高い。   According to the present invention, it is difficult to be affected by the expansion, reconstruction, removal or new construction of buildings, the influence of disturbances such as moving objects such as people and plants, or the reflection of automobiles, and the displacement of captured images. This is useful as a method for evaluating the similarity of images. In addition, by utilizing the fact that the similarity of images can be evaluated with high accuracy, it can be applied to the purpose of comparing and evaluating the similarity of images to obtain the position information of the image capturing terminal. There is no need to provide a location specifying means, and its industrial utility value is extremely high.

本発明の第1の実施の形態による画像検索システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image search system by the 1st Embodiment of this invention. 画像データと画像データの撮影位置情報とをペアで管理するデータベース内のデータ構成の一例を示す図である。It is a figure which shows an example of the data structure in the database which manages image data and imaging | photography position information of image data by a pair. 図1に示す画像撮影端末とサーバとの機能ブロック図である。FIG. 2 is a functional block diagram of an image capturing terminal and a server shown in FIG. 1. 図3に示すオブジェクトデータベースのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the object database shown in FIG. 図4に示す三つのオブジェクトを抽出し、これらの位置及び大きさを求めた例を示す図である。It is a figure which shows the example which extracted three objects shown in FIG. 4, and calculated | required these positions and magnitude | sizes. 図5に示す実スケールのオブジェクト位置の例を示す図である。It is a figure which shows the example of the object position of the real scale shown in FIG. 図3に示す比較処理部におけるマッチング処理を説明するためのフローチャートである。It is a flowchart for demonstrating the matching process in the comparison process part shown in FIG. 図3に示す画像撮影端末にオブジェクトの追加要求を行う場合におけるオブジェクト抽出結果の通知画面の一例を示す図である。It is a figure which shows an example of the notification screen of the object extraction result in the case of performing the addition request of an object to the image photographing terminal shown in FIG. 地図画像の入れ替えを行う場合における確認画面の一例を示す図である。It is a figure which shows an example of the confirmation screen in the case of replacing a map image. 地図画像を選択して撮影画像と入れ替える場合の問い合わせ画面の一例を示す図である。It is a figure which shows an example of the inquiry screen in the case of selecting a map image and replacing with a picked-up image. 本発明の第2の実施の形態による画像検索システムのサーバの機能ブロック図である。It is a functional block diagram of the server of the image search system by the 2nd Embodiment of this invention. 地図画像毎に抽出済みのオブジェクトの属性情報を管理する場合にデータベースにて管理するデータ構造の一例を示す図である。It is a figure which shows an example of the data structure managed in a database, when managing the attribute information of the extracted object for every map image. オブジェクト毎に属性情報を管理する場合にデータベースにて管理するデータ構造の一例を示す図である。It is a figure which shows an example of the data structure managed in a database, when managing attribute information for every object. 本発明の第3の実施の形態による画像検索システムの比較処理部におけるマッチング処理を説明するためのフローチャートである。It is a flowchart for demonstrating the matching process in the comparison process part of the image search system by the 3rd Embodiment of this invention. 本発明の第4の実施の形態による画像検索システムの画像撮影端末及びサーバの機能ブロック図である。It is a functional block diagram of the image photographing terminal and server of the image search system by the 4th Embodiment of this invention. 画像内オブジェクト数が必要オブジェクト数に達した場合におけるオブジェクト抽出結果の通知画面の一例を示す図である。It is a figure which shows an example of the notification screen of the object extraction result when the number of objects in an image reaches the required number of objects.

符号の説明Explanation of symbols

10、10a 画像撮影端末
11 カメラ
12 画取り込み部
13 カメラ画送信部
14 情報受信部
15 表示処理部
16 撮影画像記録部
17 オブジェクトデータベース
18 第3の画像評価部
20、20a サーバ
21 画像受信部
22 画像データ一時記録部
23 第1の画像評価部
24 比較処理部
25 第2の画像評価部
26、30 データベース
27 情報送信部
28 オブジェクトデータベース
29 候補画像決定部
31 画像登録部
32 画像入力部
60 LCD
DESCRIPTION OF SYMBOLS 10, 10a Image photographing terminal 11 Camera 12 Image capture part 13 Camera image transmission part 14 Information receiving part 15 Display processing part 16 Captured image recording part 17 Object database 18 3rd image evaluation part 20, 20a Server 21 Image receiving part 22 Image Data temporary recording unit 23 First image evaluation unit 24 Comparison processing unit 25 Second image evaluation unit 26, 30 Database 27 Information transmission unit 28 Object database 29 Candidate image determination unit 31 Image registration unit 32 Image input unit 60 LCD

Claims (9)

撮影画像を利用して現在位置の候補を提示する画像検索システムであって、
風景を撮影した撮影画像を取得する画像撮影端末と、
前記画像撮影端末により撮影された撮影画像とデータベース上に保持している撮影画像との類似性の判断を行い、類似性が認められた前記データベース上に保持している撮影画像を候補画像として特定し、特定した候補画像に対応付けて前記データベース上に保持している位置情報を前記画像撮影端末へ返信する候補画像決定部とを備えることを特徴とする画像検索システム。
An image search system that presents candidates for the current position using captured images,
An image capturing terminal that acquires a captured image of a landscape;
Judge the similarity between the captured image captured by the image capturing terminal and the captured image stored in the database, and identify the captured image stored in the database where the similarity is recognized as a candidate image And a candidate image determination unit that returns position information stored in the database in association with the identified candidate image to the image capturing terminal.
前記候補画像決定部は、
前記画像撮影端末により撮影された撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第1の画像評価部と、
前記データベース上に保持している撮影画像から複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算する第2の画像評価部と、
前記第1の画像評価部により算出された比較対象オブジェクト間の距離と前記第2の画像評価部により算出された比較対象オブジェクト間の距離とを基に、前記画像撮影端末により撮影された撮影画像と前記データベース上に保持している撮影画像との類似性の判断を行う比較処理部とを含むことを特徴とする請求項1に記載の画像検索システム。
The candidate image determination unit
A first image evaluation unit that extracts a plurality of comparison target objects from a captured image captured by the image capturing terminal and calculates a distance between the comparison target objects;
A second image evaluation unit that extracts a plurality of comparison target objects from a captured image held on the database and calculates a distance between the comparison target objects;
A captured image captured by the image capturing terminal based on the distance between the comparison target objects calculated by the first image evaluation unit and the distance between the comparison target objects calculated by the second image evaluation unit. The image search system according to claim 1, further comprising: a comparison processing unit that determines similarity between the captured image and the captured image held on the database.
前記画像撮影端末は、プレビュー画像上に比較対象オブジェクトが存在している場合、該当比較対象オブジェクトの周囲にガイドラインを描画することを特徴とする請求項2又は3に記載の画像検索システム。   4. The image search system according to claim 2, wherein the image photographing terminal draws a guideline around the comparison target object when the comparison target object exists on the preview image. 前記比較処理部は、前記画像撮影端末により撮影された撮影画像に類似する候補画像が複数ある場合に、前記画像撮影端末に対して、プレビュー画像上の比較対象オブジェクト数を増加させるよう促す通知を行い、
前記画像撮影端末は、前記通知を受けた場合に、通知内容をユーザに提示することを特徴とする請求項3に記載の画像検索システム。
The comparison processing unit notifies the image photographing terminal to increase the number of comparison target objects on the preview image when there are a plurality of candidate images similar to the photographed image photographed by the image photographing terminal. Done
The image retrieval system according to claim 3, wherein the image capturing terminal presents notification contents to the user when receiving the notification.
前記データベースは、保持している撮影画像内に存在している複数の比較対象オブジェクトを抽出して比較対象オブジェクト間の距離を計算した結果を、当該撮影画像と対応付けて予め保持することを特徴とする請求項2〜4のいずれかに記載の画像検索システム。   The database stores, in advance, a result of calculating a distance between comparison target objects by extracting a plurality of comparison target objects existing in the held captured image in association with the captured image. The image search system according to any one of claims 2 to 4. 前記データベースは、比較対象オブジェクト毎に位置情報を保持することを特徴とする請求項2〜5のいずれかに記載の画像検索システム。   The image search system according to claim 2, wherein the database holds position information for each comparison target object. 前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像と前記データベース上に保持している撮影画像との類似性が高い場合には、前記データベース上に保持している撮影画像を前記画像撮影端末により撮影された撮影画像に置き換えることを特徴とする請求項1〜6のいずれかに記載の画像検索システム。   When the similarity between the captured image captured by the image capturing terminal and the captured image stored on the database is high, the candidate image determination unit selects the captured image stored on the database. The image search system according to claim 1, wherein the image search system is replaced with a captured image captured by an image capturing terminal. 前記候補画像決定部は、前記データベースに新たな比較対象オブジェクトを追加することを特徴とする請求項1〜7のいずれかに記載の画像検索システム。   The image search system according to claim 1, wherein the candidate image determination unit adds a new comparison target object to the database. 前記候補画像決定部は、前記画像撮影端末により撮影された撮影画像とデータベース上に保持している撮影画像との類似性の判断を行い、類似性が認められた場合には、前記画像撮影端末の傾きを算出して前記画像撮影端末へ返信することを特徴とする請求項1〜8のいずれかに記載の画像検索システム。   The candidate image determination unit determines the similarity between the captured image captured by the image capturing terminal and the captured image stored in the database, and when the similarity is recognized, the image capturing terminal The image search system according to claim 1, wherein an inclination of the image is calculated and returned to the image capturing terminal.
JP2007155649A 2007-06-12 2007-06-12 Image retrieval system Pending JP2008310446A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007155649A JP2008310446A (en) 2007-06-12 2007-06-12 Image retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007155649A JP2008310446A (en) 2007-06-12 2007-06-12 Image retrieval system

Publications (1)

Publication Number Publication Date
JP2008310446A true JP2008310446A (en) 2008-12-25

Family

ID=40238015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007155649A Pending JP2008310446A (en) 2007-06-12 2007-06-12 Image retrieval system

Country Status (1)

Country Link
JP (1) JP2008310446A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011075437A (en) * 2009-09-30 2011-04-14 Denso It Laboratory Inc Device, method and program for displaying vehicle periphery
JP2011146005A (en) * 2010-01-18 2011-07-28 Denso It Laboratory Inc Apparatus, system and method for constructing subject spot database
JP2012009923A (en) * 2010-06-22 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> Landscape image synthesis device, landscape image synthesis method and landscape image synthesis program
WO2012046671A1 (en) * 2010-10-06 2012-04-12 日本電気株式会社 Positioning system
JP2012155433A (en) * 2011-01-25 2012-08-16 Nippon Signal Co Ltd:The Image retrieval system
JP2013084130A (en) * 2011-10-11 2013-05-09 Fujitsu Ltd Image recognition system and image recognition method
JP2013231733A (en) * 2009-10-14 2013-11-14 Qualcomm Inc Limitation for rough position injection in position determination system
JPWO2013145883A1 (en) * 2012-03-26 2015-12-10 ソニー株式会社 Information processing apparatus, information processing method, and program
JPWO2013179742A1 (en) * 2012-05-30 2016-01-18 ソニー株式会社 Information processing apparatus, system, and storage medium
JP2016103268A (en) * 2009-08-24 2016-06-02 サムスン エレクトロニクス カンパニー リミテッド Mobile device and server for exchanging information with mobile devices
WO2016203896A1 (en) * 2015-06-16 2016-12-22 シャープ株式会社 Generation device
CN110503123A (en) * 2018-05-17 2019-11-26 奥迪股份公司 Image position method, device, computer equipment and storage medium
KR20200134807A (en) * 2019-05-23 2020-12-02 주식회사 다비오 System and method for indoor positioning based on image
KR20210106639A (en) * 2020-02-21 2021-08-31 동명대학교산학협력단 Apparatus for guiding indoor route of pedestrian through training of image data and method thereof

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103268A (en) * 2009-08-24 2016-06-02 サムスン エレクトロニクス カンパニー リミテッド Mobile device and server for exchanging information with mobile devices
JP2011075437A (en) * 2009-09-30 2011-04-14 Denso It Laboratory Inc Device, method and program for displaying vehicle periphery
JP2013231733A (en) * 2009-10-14 2013-11-14 Qualcomm Inc Limitation for rough position injection in position determination system
JP2011146005A (en) * 2010-01-18 2011-07-28 Denso It Laboratory Inc Apparatus, system and method for constructing subject spot database
JP2012009923A (en) * 2010-06-22 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> Landscape image synthesis device, landscape image synthesis method and landscape image synthesis program
WO2012046671A1 (en) * 2010-10-06 2012-04-12 日本電気株式会社 Positioning system
US9104702B2 (en) 2010-10-06 2015-08-11 Nec Corporation Positioning system
JP2012155433A (en) * 2011-01-25 2012-08-16 Nippon Signal Co Ltd:The Image retrieval system
JP2013084130A (en) * 2011-10-11 2013-05-09 Fujitsu Ltd Image recognition system and image recognition method
JPWO2013145883A1 (en) * 2012-03-26 2015-12-10 ソニー株式会社 Information processing apparatus, information processing method, and program
JPWO2013179742A1 (en) * 2012-05-30 2016-01-18 ソニー株式会社 Information processing apparatus, system, and storage medium
WO2016203896A1 (en) * 2015-06-16 2016-12-22 シャープ株式会社 Generation device
CN107683604A (en) * 2015-06-16 2018-02-09 夏普株式会社 Generating means
CN110503123A (en) * 2018-05-17 2019-11-26 奥迪股份公司 Image position method, device, computer equipment and storage medium
KR20200134807A (en) * 2019-05-23 2020-12-02 주식회사 다비오 System and method for indoor positioning based on image
KR102277974B1 (en) * 2019-05-23 2021-07-15 주식회사 다비오 System and method for indoor positioning based on image
KR20210106639A (en) * 2020-02-21 2021-08-31 동명대학교산학협력단 Apparatus for guiding indoor route of pedestrian through training of image data and method thereof
KR102317499B1 (en) * 2020-02-21 2021-10-25 동명대학교 산학협력단 Apparatus for guiding indoor route of pedestrian through training of image data and method thereof

Similar Documents

Publication Publication Date Title
JP2008310446A (en) Image retrieval system
JP5255595B2 (en) Terminal location specifying system and terminal location specifying method
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US7088389B2 (en) System for displaying information in specific region
US20180188033A1 (en) Navigation method and device
JP6532412B2 (en) Self-position estimation system, self-position estimation method, mobile terminal, server and self-position estimation program
JP6513207B2 (en) Imaging support system, apparatus and method, and imaging terminal
JP2014002536A (en) Bar arrangement inspection system
JP2012038153A (en) Surrounding information retrieval device and surrounding information retrieval method
WO2011096343A1 (en) Photographic location recommendation system, photographic location recommendation device, photographic location recommendation method, and program for photographic location recommendation
KR20100060472A (en) Apparatus and method for recongnizing position using camera
JP7001711B2 (en) A position information system that uses images taken by a camera, and an information device with a camera that uses it.
JP2006285546A (en) Information providing system, database server, portable communication terminal
CN114726978A (en) Information processing apparatus, information processing method, and program
JP2011112364A (en) Map information processing device, method, and program
US20220076399A1 (en) Photographing guide device
JP2013142956A (en) Photographing object retrieval system
KR102168110B1 (en) Camera system
KR102458559B1 (en) Construction management system and method using mobile electric device
WO2006043319A1 (en) Terminal and server
JP6509546B2 (en) Image search system and image search method
JP6591594B2 (en) Information providing system, server device, and information providing method
JP2010164402A (en) Information collecting device, mobile terminal device, information center, and navigation system
KR20210016757A (en) System and method for managing base station antenna information
JP5670092B2 (en) Topographic display system, portable terminal, topographic display method and program