JP2001034632A - Image retrieving method - Google Patents

Image retrieving method

Info

Publication number
JP2001034632A
JP2001034632A JP11208493A JP20849399A JP2001034632A JP 2001034632 A JP2001034632 A JP 2001034632A JP 11208493 A JP11208493 A JP 11208493A JP 20849399 A JP20849399 A JP 20849399A JP 2001034632 A JP2001034632 A JP 2001034632A
Authority
JP
Japan
Prior art keywords
information
image
photographing
subject
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11208493A
Other languages
Japanese (ja)
Other versions
JP3913410B2 (en
JP2001034632A5 (en
Inventor
Naoto Kaneshiro
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP20849399A priority Critical patent/JP3913410B2/en
Priority to US09/617,309 priority patent/US6813395B1/en
Publication of JP2001034632A publication Critical patent/JP2001034632A/en
Priority to US10/875,380 priority patent/US7421154B2/en
Publication of JP2001034632A5 publication Critical patent/JP2001034632A5/ja
Application granted granted Critical
Publication of JP3913410B2 publication Critical patent/JP3913410B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make easily retrievable an image by specifying, as reference data, the photographing place, the position or name of a subject and finding to what extent the data match the information attached to the data of a stored image. SOLUTION: The direction and photographic power of a camera at the time of photographing are superposed on map information and a photographed subject is specified and stored in a database in sequence. A specification pattern for retrieval is read in and superposed on the map information to perform conversion to retrieval specification information of a user, i.e., positional information on the subject. Then, an original image database is read in and the read information is collected with tabled specific patterns for retrieval. Here, the columns and rows of the table are collated sequentially and matching columns or rows, when found, are taken out as a result of retrieval. Then the degree of matching (similarity) with a plurality of candidate subjects in the original image database is calculated and retrieved images are outputted in the decreasing order of the points of the degree of matching.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像検索方法に関
し、より具体的には、撮影時の位置情報,カメラ情報お
よび地図情報から被写体が何かを抽出して、この抽出画
像を検索に用いるようにした画像検索方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image retrieving method, and more specifically, a method of extracting an image of a subject from position information, camera information and map information at the time of photographing, and using the extracted image for retrieval. To an image search method.

【0002】[0002]

【従来の技術】近年、記録写真の撮影に供する目的で、
写真を「いつ、どこで」撮影したかが自動的に記録でき
るカメラが上市されている。このカメラは、カーナビ
(カーナビゲーションシステム)でよく利用されている
人工衛星を用いた位置計測装置GPS(Global Posit
ioninng System )および方位センサとカメラが組み合
わされた複合商品である(写真工業、1996-7、pp.12-1
5,84-87 )。
2. Description of the Related Art In recent years, for the purpose of taking recorded photographs,
There are cameras on the market that can automatically record when and where a picture was taken. This camera is a GPS (global posit) position measurement device using artificial satellites that is often used in car navigation systems (car navigation systems).
ioninng system) and a combination product of a direction sensor and a camera (Photo Industry, 1996-7, pp.12-1)
5, 84-87).

【0003】写真撮影の役割の中で、写真の記録性,証
言性の重要さは、写真が持つ本質的な価値の1つであ
る。従って、記録写真においては、被写体に関して、
「いつ、どこで」撮影したかということを示す付帯情報
が、重要な役割を果たす。従来のカメラは、「いつ」と
いう情報はある程度提供してきたが、「どこで」という
情報は提供していなかった。
[0003] In the role of photography, the importance of recordability and testimony of photographs is one of the essential values possessed by photographs. Therefore, in the recorded photograph,
Ancillary information indicating “when and where” was taken plays an important role. Conventional cameras have provided some information about "when" but not information about "where".

【0004】前述の写真工業誌に紹介されているカメラ
(以下、GPS内蔵カメラという)は、この意味では、
記録写真本来の機能を果たすものということができる。
すなわち、まず、従来の(これまでの)いわゆるデート
機能付きカメラのデート機能と、GPS内蔵カメラの時
刻表示との違いは、前者がいわば私的に決定できる時刻
であるのに対して、後者は衛星から送信されてくるいわ
ば「公式の時刻」である点で、証言性という面では決定
的に異なる。
The camera introduced in the above-mentioned photo magazine (hereinafter referred to as a camera with a built-in GPS) is, in this sense,
It can be said that the recorded photograph fulfills its original function.
That is, first, the difference between the date function of the conventional (previously) so-called camera with a date function and the time display of the camera with a built-in GPS is a time that can be determined privately by the former, whereas The testimony is crucially different in that it is the "official time" transmitted from the satellite.

【0005】一方、GPS内蔵カメラの示す位置情報
は、正確には被写体の位置ではなく、カメラの位置と撮
影の方向である。このため、写真が遠景の場合には、被
写体の位置が必ずしも明確ではない。この場合にも、必
要により、画像中の複数の被写体間の距離などから、正
確に被写体の位置を算出することが可能である。
On the other hand, the position information indicated by the GPS built-in camera is not exactly the position of the subject but the position of the camera and the direction of shooting. Therefore, when the photograph is a distant view, the position of the subject is not always clear. Also in this case, if necessary, the position of the subject can be accurately calculated from the distance between the plurality of subjects in the image.

【0006】[0006]

【発明が解決しようとする課題】ところで、本発明者
は、先に、撮影された画像に関連付けて、撮影位置,撮
影方位および撮影倍率の少なくとも一つの撮影情報を取
得し、この取得した撮影情報の少なくとも一部に関連す
る付加情報を得、得られた付加情報を写真プリントに付
加するようにした写真プリント方法およびこの方法を具
体化した写真プリント装置を、特願平10−16213
0号により提案している。
The inventor first obtains at least one piece of photographing information of a photographing position, a photographing azimuth and a photographing magnification in association with a photographed image. And Japanese Patent Application No. Hei 10-16213, which discloses a photographic printing method for obtaining additional information related to at least a part of the method and adding the obtained additional information to a photographic print.
No. 0 proposes.

【0007】上述の写真プリント方法および装置によれ
ば、撮影された画像に関連付けて付加された撮影情報に
基づいて、顧客が画像を見て容易に撮影時の状況などを
想起することができるので、単に写真プリントのメモ的
機能を高めるだけでなく、写真プリントに娯楽性(話題
提供性といってもよい)を持たせることができるという
点でも、有効なものである。
According to the above-described photographic printing method and apparatus, the customer can easily recall the situation at the time of shooting by looking at the image based on the shooting information added in association with the shot image. This is effective not only in enhancing the memo function of the photo print, but also in providing the photo print with entertainment (may be referred to as topic providing).

【0008】本発明は、上記技術をさらに利用しやすく
するためになされたもので、その目的とするところは、
顧客が、蓄積されている多数の画像の中から所望の画像
を検索する際に、上述の、撮影された画像に関連付けて
付加された撮影時の位置情報やカメラ情報および地図情
報を利用することで、容易に画像を検索可能とする画像
検索方法を提供することにある。
[0008] The present invention has been made to make the above technology easier to use.
When a customer searches for a desired image from among a large number of stored images, the above-mentioned position information, camera information, and map information at the time of shooting added in association with the shot image are used. Accordingly, an object of the present invention is to provide an image search method that enables easy image search.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、本発明に係る画像検索方法は、撮影時の撮影情報お
よび地図情報から撮影場所または被写体の名称および地
図上の位置を抽出して、抽出結果を付属情報として画像
データに付属させて記憶し、撮影場所の位置または名
称、あるいは被写体の位置または名称を参照データとし
て指定し、前記記憶させた画像のデータに付属している
付属情報との一致度を求め、所定値以上の一致度を有す
る画像を読み出すことを特徴とする。
In order to achieve the above object, an image search method according to the present invention extracts a shooting location or a subject name and a position on a map from shooting information and map information at the time of shooting. The extraction result is attached to the image data as attached information and stored, and the position or name of the shooting location, or the position or name of the subject is specified as reference data, and the attached information attached to the stored image data and Is obtained, and an image having a degree of coincidence equal to or more than a predetermined value is read out.

【0010】本発明に係る画像検索方法においては、前
記撮影情報が、撮影画像に関連付けて取得される、撮影
位置からなる第1のデータ構成,撮影位置と撮影方位か
らなる第2のデータ構成,撮影位置と撮影倍率からなる
第3のデータ構成,撮影位置と撮影方位と撮影倍率から
なる第4のデータ構成のいずれかであることを特徴とす
る。
In the image search method according to the present invention, the photographing information is acquired in association with a photographed image, wherein a first data structure comprising a photographing position, a second data structure comprising a photographing position and a photographing direction, It is characterized by one of a third data configuration consisting of a shooting position and a shooting magnification, and a fourth data configuration consisting of a shooting position, a shooting direction and a shooting magnification.

【0011】本発明に係る画像検索方法においては、前
記撮影の位置および被写体位置に関する参照データとし
て、仮想的地図空間にパターン化した被写体を配置する
ことで奥行きの概略を指定することを特徴とする。ま
た、前記抽出情報に加えて、撮影場所または被写体の画
面内における位置およびサイズを抽出し、これを前記付
属情報に加えることを特徴とする。
The image retrieval method according to the present invention is characterized in that an approximate depth is designated by arranging a patterned subject in a virtual map space as reference data relating to the photographing position and the subject position. . Further, in addition to the extracted information, a position and a size of a shooting place or a subject in a screen are extracted, and the extracted locations and sizes are added to the additional information.

【0012】また、本発明に係る画像検索方法において
は、前記抽出情報に加えて、撮影場所または被写体の画
面内における位置およびサイズを指定情報に加えること
も好ましい。
[0012] In the image search method according to the present invention, it is preferable that, in addition to the extraction information, a position and a size of a shooting place or a subject in a screen are added to the designation information.

【0013】また、本発明に係る画像検索方法は、撮影
時の位置情報,カメラ情報および地図情報から撮影画面
の距離情報を導出し、導出結果を付属情報として画像デ
ータに付属させて記憶し、撮影画面の距離情報を参照デ
ータとして指定し、前記記憶させた画像のデータに付属
している付属情報との一致度を求め、所定値以上の一致
度を有する画像を読み出すことを特徴とする。
Further, the image retrieval method according to the present invention derives distance information of a photographing screen from position information, camera information and map information at the time of photographing, and stores the derivation result attached to image data as additional information. It is characterized in that the distance information of the shooting screen is designated as reference data, the degree of coincidence with the attached information attached to the stored image data is obtained, and an image having a degree of coincidence equal to or more than a predetermined value is read.

【0014】本発明に係る画像検索方法においては、前
記撮影画面の距離情報に関する参照データとして、撮影
画面における領域別の奥行きを概略で指定することを特
徴とする。また、前記撮影画面の距離情報に関する参照
データとして、仮想的地図空間にパターン化した被写体
を配置することで奥行きの概略を指定することを特徴と
する。
The image retrieval method according to the present invention is characterized in that, as reference data relating to the distance information of the photographing screen, the depth of each region in the photographing screen is roughly specified. In addition, an outline of the depth is designated by arranging a patterned subject in a virtual map space as reference data relating to the distance information of the shooting screen.

【0015】また、本発明に係る画像検索方法において
は、撮影時の位置情報,カメラ情報および地図情報から
作成した撮影画像のシミュレーション画像データと、実
際の撮影画像との差分を記憶し、検索結果の画像出力時
には、前記撮影時の位置情報,カメラ情報および地図情
報から作成した撮影画像のシミュレーション画像データ
に、前記記憶させた差分を加えた画像を出力することに
より、記憶データ容量を低減することが好ましい。
In the image retrieval method according to the present invention, a difference between simulation image data of a photographed image created from position information, camera information and map information at the time of photographing and an actual photographed image is stored. When outputting an image, the storage data capacity is reduced by outputting an image obtained by adding the stored difference to simulated image data of a captured image created from the position information, camera information, and map information at the time of shooting. Is preferred.

【0016】[0016]

【発明の実施の形態】以下、添付の図面に示す好適実施
例に基づいて、本発明の実施の形態を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to preferred embodiments shown in the accompanying drawings.

【0017】図1,図2は、本発明の一実施例に係る画
像検索方法を説明するための図であり、図1はGPS機
能付きカメラで撮影されたフィルム上の原画像10を、
図2はこの原画像10を検索する際に、ユーザが、例え
ば、端末装置の画面上でマウスなどを用いて入力した検
索用指定パターン20を示している。
FIGS. 1 and 2 are diagrams for explaining an image retrieval method according to an embodiment of the present invention. FIG. 1 shows an original image 10 on a film taken by a camera with a GPS function.
FIG. 2 shows a search specification pattern 20 input by the user using a mouse or the like on the screen of the terminal device when searching for the original image 10.

【0018】図1に示す原画像10中において、11は
主要被写体である人物を、12は後述する撮影位置の特
定に有効な被写体である山(以下、便宜上、○山と呼
ぶ)を、13はこれも撮影位置の特定に有効な被写体で
ある著名なビルディング(同、×ビルと呼ぶ)を示して
いる。
In the original image 10 shown in FIG. 1, reference numeral 11 denotes a person who is a main subject, reference numeral 12 denotes a mountain (hereinafter, referred to as a circle for convenience) which is a subject effective for specifying a shooting position described later, and reference numeral 13 denotes a mountain. Indicates a well-known building (also referred to as an X building) which is also a subject effective for specifying the shooting position.

【0019】また、図2に示す検索用指定パターン20
は、ユーザが、例えば、「T1エリア辺りに何とかとい
う山があって、T2エリア辺りに何とかというビルディ
ングがあるようなシーンを検索したい」というような希
望を、検索用指定パターンとして表現・入力した例であ
り、22は山の存在位置を示す表示、23はビルディン
グの存在位置を示す表示である。
The search specification pattern 20 shown in FIG.
Has expressed and input, for example, a desire such as "I want to search for a scene where there is a mountain somehow around the T1 area and there is a building somehow around the T2 area" as a search specification pattern. In the example, reference numeral 22 denotes a display indicating an existing position of a mountain, and reference numeral 23 denotes a display indicating an existing position of a building.

【0020】以下、まず、本実施例に係る画像検索方法
における準備動作としての、図1に示す原画像10中の
位置が特定し得る被写体の位置および名称の特定を動作
する概要を、図3に示す動作フロー図に従って説明す
る。
First, as a preparatory operation in the image search method according to the present embodiment, the outline of the operation of specifying the position and name of the subject whose position in the original image 10 shown in FIG. The operation will be described with reference to the operation flowchart shown in FIG.

【0021】図3に示すように、画像が読み込まれると
きには、これに付加されている前述の撮影時点のGPS
情報や撮影時のカメラの方向および撮影倍率も読み込ま
れる(ステップ101)。予め用意されている地図情報
に、上記GPS情報を重ね合わせることにより、まず、
撮影地点が特定される(ステップ102)。
As shown in FIG. 3, when an image is read, the GPS added at the time of the above-mentioned photographing is added to the image.
Information, the direction of the camera at the time of shooting, and the shooting magnification are also read (step 101). By overlaying the GPS information on the map information prepared in advance,
An imaging point is specified (step 102).

【0022】次に、地図情報に、上記撮影時のカメラの
方向および撮影倍率を重ね合わせることにより、撮影さ
れている被写体が特定される(ステップ103)。この
処理は、地図上の該当位置における、カメラの方向や撮
影倍率に基づいてシミュレーション画像を作成し、撮影
画像とのパターンマッチングにより、被写体を特定する
ようにしてもよい。特定された各被写体は、順次、デー
タベースに記憶される(ステップ104)。
Next, the subject to be photographed is specified by superimposing the direction of the camera and the photographing magnification at the time of photographing on the map information (step 103). In this process, a simulation image may be created based on the camera direction and the photographing magnification at the corresponding position on the map, and the subject may be specified by pattern matching with the photographed image. The identified subjects are sequentially stored in the database (step 104).

【0023】表1に、上述の原画像に付加情報として付
加されている撮影位置情報に基づいて作成された原画像
の画像データへの付属情報の例を示す。表1に示すよう
に、ここでは、撮影時点のGPS情報および撮影時のカ
メラの方向などにより、位置が予め判っている前記○
山,×ビルなどが、画面上の位置や形状,地図上の位置
および名称と共に採録されている。なお、撮影日時,撮
影位置情報(緯度,経度,地名),その他カメラ情報に
ついても、撮影画像の付属情報としてデータベースに登
録する。
Table 1 shows an example of information attached to image data of an original image created based on photographing position information added as additional information to the original image. As shown in Table 1, here, the position is known in advance based on the GPS information at the time of shooting and the direction of the camera at the time of shooting.
Mountains, x-buildings, etc. are recorded along with their positions and shapes on the screen, their positions and names on the map. Note that the shooting date and time, shooting location information (latitude, longitude, place name), and other camera information are also registered in the database as additional information of the shot image.

【0024】[0024]

【表1】 [Table 1]

【0025】なお、本実施例においては、上記データ採
録ステップが自動的に行われるので、データベースに画
像データを登録する際に、検索用データとして被写体名
を入力する手間を省くことができるという効果が得られ
るものである。
In the present embodiment, since the data recording step is automatically performed, it is possible to save the trouble of inputting a subject name as search data when registering image data in the database. Is obtained.

【0026】画像を検索しようとするユーザは、検索情
報として画面内の被写体の位置情報(緯度,経度),地
名あるいは名称などを入力する。この入力は、図2に示
した検索用指定パターン20のような、端末装置の画面
上でマウスなどを用いて行ってもよい。この場合には、
山やビルディングの名前を指定することで、間接的に位
置の指定を行うことになる。
A user who wants to search for an image inputs position information (latitude, longitude) of a subject on the screen, a place name or a name, etc. as search information. This input may be performed using a mouse or the like on the screen of the terminal device, such as the designated pattern for search 20 shown in FIG. In this case,
By specifying the name of a mountain or a building, the position is specified indirectly.

【0027】次に、上述のように記憶されたデータに基
づいて画像を検索する、本実施例における動作の流れを
図4に基づいて説明する。
Next, the flow of operation in this embodiment for searching for an image based on the data stored as described above will be described with reference to FIG.

【0028】まず、図4に示すような検索用指定パター
ンを読み込み(ステップ201)、これを地図情報と重
ね合わせることで、ユーザの検索用指定情報、すなわ
ち、被写体の位置情報に変換する(ステップ202)。
なお、ユーザが、位置情報を入力した場合には、これら
のステップは飛ばしてよい。
First, a search specification pattern as shown in FIG. 4 is read (step 201), and is superimposed on map information to be converted into user search specification information, ie, subject position information (step 201). 202).
If the user inputs the position information, these steps may be skipped.

【0029】次に、原画像データベースを読み込み(ス
テップ203)、テーブル化された検索用指定パターン
と照合する(ステップ204)。この照合は、テーブル
の各列,各行を順次行い、一致するものがあれば、検索
結果として取り出す(ステップ205〜209)。
Next, the original image database is read (step 203), and the original image database is collated with the table-designated search designated pattern (step 204). This collation is performed for each column and each row of the table in order, and if there is a match, it is extracted as a search result (steps 205 to 209).

【0030】なお、ここでは、説明を簡単にするため、
照合を行う場合に、「一致するものがあれば、取り出
す」と説明したが、実際には、完全に一致することは少
ないので、後述するように、一致度を定義して、算出し
た一致度が、所定の閾値を超えたものを、一致したもの
とするのがよい。
Here, in order to simplify the explanation,
In the case of matching, it was explained that "if there is a match, it is taken out." However, in practice, it is rare that there is a perfect match, so as described later, the match degree is defined and the calculated match degree is determined. However, it is preferable that those that exceed a predetermined threshold value be matched.

【0031】上述の、一致度の計算方式としては、例え
ば、表1に示した付属情報中の、中心座標,サイズ,天
地方向という情報を用いる方式により、原画像データベ
ース中の複数の候補被写体について一致度(または類似
度)を計算し、このうちの一致度のポイントの大きいも
のから順に、検索された画像を出力する。
As a method of calculating the degree of coincidence described above, for example, a method using information such as center coordinates, size, and vertical direction in the auxiliary information shown in Table 1 is used for a plurality of candidate subjects in the original image database. The degree of coincidence (or similarity) is calculated, and the retrieved images are output in descending order of the degree of coincidence.

【0032】本実施例に示した画像検索方法によれば、
ユーザが、端末装置の画面上などでマウスなどを用いて
入力した検索用指定パターン20や、検索情報としてキ
ーボードにより入力した画面内の被写体の位置情報(緯
度,経度),地名あるいは名称などに基づいて、指示に
適合する画像を検索することが可能になる。
According to the image search method shown in this embodiment,
The search specification pattern 20 input by the user using a mouse or the like on the screen of the terminal device, the position information (latitude, longitude) of the subject in the screen input by the keyboard as search information, a place name or a name, etc. Thus, it becomes possible to search for an image that matches the instruction.

【0033】次に、本発明の他の実施例を説明する。前
述の実施例では、原画像とその撮影情報から作成したデ
ータベースを用いる例を示したが、本実施例では、画像
中の奥行き情報を用いて、シーンの判別ないしは照合を
行うようにする場合を説明する。なお、本実施例は、撮
影位置情報や地図情報を用いないケースである。ここ
で、上記奥行きの情報は、周知のカメラ技術である多段
フォーカス画像/ステレオ画像から導出したものを用い
るのがよい。
Next, another embodiment of the present invention will be described. In the above-described embodiment, an example in which a database created from the original image and its photographing information is used has been described.In this embodiment, however, scene determination or collation is performed using depth information in an image. explain. Note that the present embodiment is a case in which photographing position information and map information are not used. Here, as the depth information, it is preferable to use information derived from a multi-stage focus image / stereo image, which is a known camera technology.

【0034】図5に、上述のような、奥行き情報を含む
検索指定パターン30の一例を示す。図5に示す例で
は、31の丸印が人物で、上方の距離にして遠いところ
が山に相当し(横長の楕円形32)、右側の4角形33
がビルディングに相当するものである。
FIG. 5 shows an example of the search designation pattern 30 including the depth information as described above. In the example shown in FIG. 5, a circle 31 is a person, and a farther place in the upper direction corresponds to a mountain (a horizontally long ellipse 32), and a square 33 on the right side.
Is equivalent to a building.

【0035】具体的には、図5に示す例では、カメラか
ら見て、人物31が5〜10m程度の距離に居り、右側
100mほど奥にビルディング33が存在し、さらに、
人物の後方1000mほどに、山32が存在するという
情景を表現している。なお、図2に示した画面中におけ
る被写体の位置の指定と、図5に示した被写体の形状に
よる配置とを組み合わせて用いることも可能である。
Specifically, in the example shown in FIG. 5, the person 31 is located at a distance of about 5 to 10 m as viewed from the camera, and the building 33 is located at a depth of about 100 m on the right side.
This expresses a scene in which a mountain 32 exists 1000 m behind the person. Note that the designation of the position of the subject on the screen shown in FIG. 2 and the arrangement based on the shape of the subject shown in FIG. 5 can be used in combination.

【0036】ユーザが、図5に示すような配置図によ
り、シーンの大まかなエリア毎の奥行きを表現して、検
索すべき画像を指定すると、この内容と、前記原画像デ
ータベース中の複数の候補被写体について一致度を計算
し、このうちの一致度のポイントの大きいものから順
に、検索された画像を出力する。
When the user specifies the image to be searched by expressing the depth of each rough area of the scene by the layout diagram as shown in FIG. 5, the contents and a plurality of candidates in the original image database are specified. The degree of coincidence is calculated for the subject, and the retrieved images are output in descending order of the points of the degree of coincidence.

【0037】本実施例に示した画像検索方法によれば、
ユーザが、入力する検索用指定パターン20に、平面的
な被写体の配置状況を加えたことにより、指示に適合す
る画像を検索することがより容易にできるようになると
いう効果がある。なお、本実施例に係る画像検索方法
は、動画にも適用することが可能である。この場合、動
画像のコマ間の動き情報も利用できる。
According to the image retrieval method shown in this embodiment,
By adding a two-dimensional arrangement state of subjects to the search specification pattern 20 input by the user, there is an effect that it becomes easier to search for an image that matches the instruction. The image search method according to the present embodiment can be applied to a moving image. In this case, motion information between frames of a moving image can also be used.

【0038】次に、本発明のさらに他の実施例を説明す
る。本実施例においては、被写体相互間の配置状況を示
す配置図がある場合を説明する。ここで、上記配置図と
しては、例えば、図5に示すようなものでよく、主要被
写体である人物に対する、山やビルディングの平面的な
位置関係がわかるものであればよい。
Next, still another embodiment of the present invention will be described. In the present embodiment, a case will be described in which there is an arrangement diagram showing an arrangement state between subjects. Here, the arrangement diagram may be, for example, the one shown in FIG. 5, as long as the planar positional relationship of a mountain or a building with respect to a person who is a main subject can be understood.

【0039】ここで、位置情報としては、前述のGPS
情報またはPHS(Personal Handyphone System )
による位置判定(この場合には、位置判定の精度は、現
状では、GPSよりは大分劣るが)、または、より大ま
かな位置指定情報(例えば、××市○○町△△丁目とい
うような)を用いることができる。
Here, as the position information, the aforementioned GPS
Information or PHS (Personal Handyphone System)
(In this case, the accuracy of the position determination is currently much lower than that of the GPS) or more general position specification information (for example, XX city OO town △△ chome) Can be used.

【0040】その後、地図データ上の配置と指定に用い
た配置図との照合による、マッチング処理を行って、各
候補毎に一致度を算出する。なお、カメラの方位情報が
ない場合には、カメラ方位を所定角度毎に回転(0〜3
60°)することでシミュレーションを行う。また、位
置の精度が低い場合には、所定範囲内で平行移動するこ
とでシミュレーションを行う。
Thereafter, a matching process is performed by comparing the layout on the map data with the layout map used for designation, and the degree of coincidence is calculated for each candidate. If there is no camera direction information, the camera direction is rotated by a predetermined angle (0 to 3).
60 °) to perform a simulation. If the accuracy of the position is low, the simulation is performed by performing parallel movement within a predetermined range.

【0041】本実施例によれば、簡単な指示により、地
形などの情報を利用した画像の検索を行うことが可能に
なり、画像検索の効率化を計ることが可能になるという
効果が得られる。
According to the present embodiment, it is possible to search for an image using information such as terrain by a simple instruction, and it is possible to obtain an effect of increasing the efficiency of image search. .

【0042】ところで、従来は、上述のような画像の検
索を行う場合において、位置情報と視点方向が、図6
(b)のような形で与えられる場合が多かった。すなわ
ち、カメラ位置(GPS情報)と撮影方向(カメラ情
報)である。これに対して、図6(a)のような形、す
なわち、被写体位置と撮影方向の情報が得られれば、こ
れを基に、以下のようなことができる。
By the way, conventionally, when searching for an image as described above, the position information and the viewpoint direction are not shown in FIG.
It was often given in the form shown in (b). That is, a camera position (GPS information) and a shooting direction (camera information). On the other hand, if the information as shown in FIG. 6A, that is, the information on the object position and the photographing direction is obtained, the following can be performed based on the information.

【0043】つまり、何を撮影しているかが判っている
ということなので、予め用意されている画像データベー
ス中から、撮影されている被写体の画像を取り出して、
これを基にコンピュータグラフィック画像を作成して、
実際の撮影画像との比較により、位置合わせ,サイズ合
わせなどを行った後、両者の差分をとり、必要に応じて
適宜圧縮して記憶データとする。
In other words, since it is known what is being photographed, an image of the photographed subject is taken out of a prepared image database, and
Create a computer graphic image based on this,
After performing position adjustment, size adjustment, and the like by comparison with an actual photographed image, a difference between the two is obtained, and the data is appropriately compressed as necessary to be stored data.

【0044】シミュレーション用画像としては、上述の
コンピュータグラフィック画像以外にも、以前撮影した
実画像で、位置情報,カメラ撮影情報により最も近似す
ると思われる画像、あるいは、これと上述のコンピュー
タグラフィック画像を組み合わせたものなどが利用可能
である。いずれの画像を用いる場合にも、記憶データ量
を削減することが可能である。
As the simulation image, in addition to the above-described computer graphic image, an image that has been previously photographed and is considered to be closest to the position information and camera photographing information, or a combination of this image and the above-described computer graphic image Are available. Whichever image is used, the amount of stored data can be reduced.

【0045】なお、上記各実施例はいずれも本発明の一
例を示したものであり、本発明はこれらに限定されるべ
きものではないことは言うまでもない。
Each of the above embodiments is merely an example of the present invention, and it is needless to say that the present invention is not limited to these embodiments.

【0046】[0046]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、顧客が、蓄積されている多数の画像の中から所
望の画像を検索する際に、上述の、撮影された画像に関
連付けて付加された撮影時の位置情報やカメラ情報およ
び地図情報を利用することで、容易に画像を検索可能と
する画像検索方法を実現することができるという効果を
奏するものである。
As described above in detail, according to the present invention, when a customer searches for a desired image from among a large number of stored images, the above-described captured image By using the position information, camera information, and map information at the time of shooting added in association with each other, it is possible to realize an image search method capable of easily searching for an image.

【0047】すなわち、本発明に係る画像検索方法によ
れば、ユーザが、端末装置の画面上などでマウスなどを
用いて入力した検索用指定パターンや、検索情報として
キーボードにより入力した画面内の被写体の位置情報
(緯度,経度),地名あるいは名称などに基づいて、指
示に適合する画像を検索することが可能になる。
In other words, according to the image search method of the present invention, a search specification pattern input by a user using a mouse or the like on a screen of a terminal device, or an object in a screen input by a keyboard as search information. It is possible to search for an image that matches the instruction based on the location information (latitude, longitude), place name, name, or the like.

【0048】また、ユーザが、入力する検索用指定パタ
ーンに、平面的な被写体の配置状況を加えることによ
り、指示に適合する画像を検索することが、より容易に
可能になるという効果もある。なお、本発明に係る画像
検索方法は、基本的に動画にも適用することが可能であ
る。
In addition, by adding a two-dimensional arrangement of the subjects to the search designated pattern input by the user, it is possible to more easily search for an image that matches the instruction. Note that the image search method according to the present invention can basically be applied to moving images.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例に係る画像検索方法を説明
するための、GPS機能付きカメラで撮影されたフィル
ム上の原画像10を示す図である。
FIG. 1 is a diagram showing an original image 10 on a film taken by a camera with a GPS function, for describing an image search method according to an embodiment of the present invention.

【図2】 図1に示した原画像10を検索する際に、ユ
ーザが入力した検索用指定パターン20の一例を示す図
である。
FIG. 2 is a diagram showing an example of a search specification pattern 20 input by a user when searching for the original image 10 shown in FIG.

【図3】 一実施例に係る画像検索方法における準備動
作としての、原画像10中の位置が特定し得る被写体の
位置および名称を特定する動作の概要を示す動作フロー
図である。
FIG. 3 is an operation flowchart showing an outline of an operation of specifying a position and a name of a subject whose position in the original image 10 can be specified as a preparation operation in the image search method according to one embodiment.

【図4】 一実施例に係る画像検索方法における、記憶
されたデータに基づいて画像を検索する動作の流れをを
示す動作フロー図である。
FIG. 4 is an operation flowchart showing a flow of an operation of searching for an image based on stored data in the image search method according to one embodiment.

【図5】 他の実施例に係る、奥行き情報を含む検索指
定パターンの一例を示す図である。
FIG. 5 is a diagram illustrating an example of a search designation pattern including depth information according to another embodiment.

【図6】 位置情報と視点方向との関連を示す図であ
り、(a)は被写体が何であるかがわかる場合、(b)
はどこで撮影したかが判るだけで被写体が何であるかは
わからない場合を示している。
6A and 6B are diagrams showing a relationship between position information and a viewpoint direction. FIG. 6A shows a case where a subject is known, and FIG.
Indicates a case where the user can only know where the image was taken but cannot know what the subject is.

【符号の説明】[Explanation of symbols]

10 原画像 11 人物 12 山(○山) 13 ビルディング(×ビル) 20 検索用指定パターン 22 山の存在位置を示す表示 23 ビルディングの存在位置を示す表示 30 検索指定パターン 31 人物(に相当する丸印) 32 山横長の楕円形) 33 ビルディング(に相当する4角形) Reference Signs List 10 original image 11 person 12 mountain (○ mountain) 13 building (× building) 20 designated pattern for search 22 display showing location of mountain 23 display showing location of building 30 search designated pattern 31 circle corresponding to ( ) 32 Mountain oval oblong) 33 Building (equivalent square)

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】撮影時の撮影情報および地図情報から撮影
場所または被写体の名称および地図上の位置を抽出し
て、抽出結果を付属情報として画像データに付属させて
記憶し、撮影場所の位置または名称、あるいは被写体の
位置または名称を参照データとして指定し、前記記憶さ
せた画像のデータに付属している付属情報との一致度を
求め、所定値以上の一致度を有する画像を読み出すこと
を特徴とする画像検索方法。
1. A photographing place or subject name and a position on a map are extracted from photographing information and map information at the time of photographing, and the extraction result is attached to image data as attached information and stored. A name or a position or a name of a subject is designated as reference data, a degree of coincidence with attached information attached to the stored image data is obtained, and an image having a degree of coincidence equal to or more than a predetermined value is read. Image search method.
【請求項2】前記撮影情報が、撮影画像に関連付けて取
得される、撮影位置からなる第1のデータ構成,撮影位
置と撮影方位からなる第2のデータ構成,撮影位置と撮
影倍率からなる第3のデータ構成,撮影位置と撮影方位
と撮影倍率からなる第4のデータ構成のいずれかである
請求項1に記載の画像検索方法。
2. A first data structure comprising a photographing position, a second data structure comprising a photographing position and a photographing direction, and a first data structure comprising a photographing position and a photographing magnification, wherein the photographing information is acquired in association with a photographed image. 2. The image search method according to claim 1, wherein the image search method is any one of the data structure of No. 3, and a fourth data structure including a shooting position, a shooting direction, and a shooting magnification.
【請求項3】前記撮影の位置および被写体位置に関する
参照データとして、仮想的地図空間にパターン化した被
写体を配置することで奥行きの概略を指定する請求項1
または2のいずれかに記載の画像検索方法。
3. An approximate depth is specified by arranging a patterned subject in a virtual map space as reference data relating to the photographing position and the subject position.
Or the image retrieval method according to any one of 2.
【請求項4】前記抽出情報に加えて、撮影場所または被
写体の画面内における位置およびサイズを抽出し、これ
を前記付属情報に加える請求項1〜3のいずれか1項に
記載の画像検索方法。
4. The image search method according to claim 1, wherein, in addition to the extracted information, a position and a size of a photographing place or a subject in a screen are extracted and added to the attached information. .
【請求項5】前記抽出情報に加えて、撮影場所または被
写体の画面内における位置およびサイズを指定情報に加
える請求項1〜3のいずれか1項に記載の画像検索方
法。
5. The image search method according to claim 1, wherein, in addition to the extraction information, a position and a size of a shooting location or a subject in a screen are added to the designation information.
【請求項6】撮影時の位置情報,カメラ情報および地図
情報から撮影画面の距離情報を導出し、導出結果を付属
情報として画像データに付属させて記憶し、撮影画面の
距離情報を参照データとして指定し、前記記憶させた画
像のデータに付属している付属情報との一致度を求め、
所定値以上の一致度を有する画像を読み出すことを特徴
とする画像検索方法。
6. Deriving distance information of a photographing screen from position information, camera information and map information at the time of photographing, storing the derivation result attached to image data as additional information, and using the distance information of the photographing screen as reference data. Specify and determine the degree of coincidence with the attached information attached to the data of the stored image,
An image search method comprising reading an image having a degree of coincidence equal to or greater than a predetermined value.
【請求項7】前記撮影画面の距離情報に関する参照デー
タとして、撮影画面における領域別の奥行きを概略で指
定する請求項6に記載の画像検索方法。
7. The image search method according to claim 6, wherein a depth of each area in the shooting screen is roughly specified as reference data relating to distance information of the shooting screen.
【請求項8】前記撮影画面の距離情報に関する参照デー
タとして、仮想的地図空間にパターン化した被写体を配
置することで奥行きの概略を指定する請求項6に記載の
画像検索方法。
8. The image search method according to claim 6, wherein an approximate depth is specified by arranging a patterned subject in a virtual map space as reference data relating to distance information of the photographing screen.
【請求項9】撮影時の位置情報,カメラ情報および地図
情報から作成した撮影画像のシミュレーション画像デー
タと、実際の撮影画像との差分を記憶し、検索結果の画
像出力時には、前記撮影時の位置情報,カメラ情報およ
び地図情報から作成した撮影画像のシミュレーション画
像データに、前記記憶させた差分を加えた画像を出力す
ることを特徴とする請求項1〜8のいずれか1項に記載
の画像検索方法。
9. A difference between simulation image data of a photographed image created from position information at the time of photographing, camera information and map information and an actual photographed image, and when outputting a search result image, the position at the time of photographing is stored. The image search according to any one of claims 1 to 8, wherein an image obtained by adding the stored difference to simulation image data of a captured image created from information, camera information, and map information is output. Method.
JP20849399A 1999-07-14 1999-07-23 Image search method Expired - Fee Related JP3913410B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP20849399A JP3913410B2 (en) 1999-07-23 1999-07-23 Image search method
US09/617,309 US6813395B1 (en) 1999-07-14 2000-07-14 Image searching method and image processing method
US10/875,380 US7421154B2 (en) 1999-07-14 2004-06-25 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20849399A JP3913410B2 (en) 1999-07-23 1999-07-23 Image search method

Publications (3)

Publication Number Publication Date
JP2001034632A true JP2001034632A (en) 2001-02-09
JP2001034632A5 JP2001034632A5 (en) 2005-06-16
JP3913410B2 JP3913410B2 (en) 2007-05-09

Family

ID=16557081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20849399A Expired - Fee Related JP3913410B2 (en) 1999-07-14 1999-07-23 Image search method

Country Status (1)

Country Link
JP (1) JP3913410B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263104A (en) * 2002-03-11 2003-09-19 Mitsubishi Electric Corp Imaging information recognition system
WO2005059868A1 (en) * 2003-12-18 2005-06-30 Matsushita Electric Industrial Co., Ltd. Image processing device and image processing method
JP2006072614A (en) * 2004-09-01 2006-03-16 Matsushita Electric Ind Co Ltd Image file preservation method and related technology thereof
US7236652B2 (en) 2001-07-25 2007-06-26 Nec Corporation Image retrieval apparatus and image retrieving method
JP2009065324A (en) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Image providing device, image providing method and image providing program
JP2009541896A (en) * 2006-06-26 2009-11-26 イーストマン コダック カンパニー Image region classification based on picture position
KR20150106625A (en) * 2014-03-12 2015-09-22 에스케이플래닛 주식회사 Terminal and service providing device, control method thereof, computer readable medium having computer program recorded therefor and image searching system
JP2017118341A (en) * 2015-12-24 2017-06-29 株式会社ニコン Image processing device, imaging device, electronic apparatus, and image processing program
KR101820349B1 (en) * 2015-03-31 2018-01-19 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Picture presentation method and apparatus
JP6908953B1 (en) * 2020-10-16 2021-07-28 株式会社センシンロボティクス Information processing device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236652B2 (en) 2001-07-25 2007-06-26 Nec Corporation Image retrieval apparatus and image retrieving method
JP2003263104A (en) * 2002-03-11 2003-09-19 Mitsubishi Electric Corp Imaging information recognition system
US7305149B2 (en) 2002-03-11 2007-12-04 Mitsubishi Denki Kabushiki Kaisha Image pickup information recognition system
WO2005059868A1 (en) * 2003-12-18 2005-06-30 Matsushita Electric Industrial Co., Ltd. Image processing device and image processing method
JP2006072614A (en) * 2004-09-01 2006-03-16 Matsushita Electric Ind Co Ltd Image file preservation method and related technology thereof
JP2009541896A (en) * 2006-06-26 2009-11-26 イーストマン コダック カンパニー Image region classification based on picture position
JP2009065324A (en) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Image providing device, image providing method and image providing program
KR20150106625A (en) * 2014-03-12 2015-09-22 에스케이플래닛 주식회사 Terminal and service providing device, control method thereof, computer readable medium having computer program recorded therefor and image searching system
KR102178177B1 (en) 2014-03-12 2020-11-12 에스케이플래닛 주식회사 Terminal and service providing device, control method thereof, computer readable medium having computer program recorded therefor and image searching system
KR101820349B1 (en) * 2015-03-31 2018-01-19 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 Picture presentation method and apparatus
JP2017118341A (en) * 2015-12-24 2017-06-29 株式会社ニコン Image processing device, imaging device, electronic apparatus, and image processing program
JP6908953B1 (en) * 2020-10-16 2021-07-28 株式会社センシンロボティクス Information processing device
WO2022079881A1 (en) * 2020-10-16 2022-04-21 株式会社センシンロボティクス Information processing device

Also Published As

Publication number Publication date
JP3913410B2 (en) 2007-05-09

Similar Documents

Publication Publication Date Title
US7421154B2 (en) Image processing method
US8768107B2 (en) Matching an approximately located query image against a reference image set
JP5255595B2 (en) Terminal location specifying system and terminal location specifying method
US7526718B2 (en) Apparatus and method for recording “path-enhanced” multimedia
US20040021780A1 (en) Method and apparatus for automatic photograph annotation with contents of a camera&#39;s field of view
US20050104976A1 (en) System and method for applying inference information to digital camera metadata to identify digital picture content
EP1622081A1 (en) Video object recognition device and recognition method, video annotation giving device and giving method, and program
JP5334159B2 (en) Photo display method and system on electronic map
JPH11122638A (en) Image processor, image processing method, and computer-readable information recording medium recorded with image processing program
KR100982192B1 (en) A Method for Geo-tagging of Pictures and Apparatus thereof
JP2007133825A (en) System and method for retrieving photographing position facility, and map data
KR100925278B1 (en) System for geocoding using digital map and method therefor
KR20090019184A (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method
US10068157B2 (en) Automatic detection of noteworthy locations
JP3913410B2 (en) Image search method
JP2007129407A (en) Camera system, map information display system
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
JP4085634B2 (en) Image display program
JP2002077805A (en) Camera with photographing memo function
JP2007190831A (en) Image institution-name printing device and the method
JP2001036842A (en) Image processor, image processing method and storage medium
JP3984155B2 (en) Subject estimation method, apparatus, and program
CN101110889A (en) Method and device for automatically recording document forming information in output document
CN107343142A (en) The image pickup method and filming apparatus of a kind of photo
KR20090132485A (en) Method for geographical information system and mobile terminal

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061120

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070131

R150 Certificate of patent or registration of utility model

Ref document number: 3913410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100209

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140209

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees