JP5664729B2 - Search method, search device, program, search condition setting method, information terminal device - Google Patents

Search method, search device, program, search condition setting method, information terminal device Download PDF

Info

Publication number
JP5664729B2
JP5664729B2 JP2013189681A JP2013189681A JP5664729B2 JP 5664729 B2 JP5664729 B2 JP 5664729B2 JP 2013189681 A JP2013189681 A JP 2013189681A JP 2013189681 A JP2013189681 A JP 2013189681A JP 5664729 B2 JP5664729 B2 JP 5664729B2
Authority
JP
Japan
Prior art keywords
search
information
area range
image
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013189681A
Other languages
Japanese (ja)
Other versions
JP2014013600A5 (en
JP2014013600A (en
Inventor
一朗 上野
一朗 上野
柏平 廖
柏平 廖
富永 浩之
浩之 富永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=50109204&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP5664729(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013189681A priority Critical patent/JP5664729B2/en
Publication of JP2014013600A publication Critical patent/JP2014013600A/en
Publication of JP2014013600A5 publication Critical patent/JP2014013600A5/en
Application granted granted Critical
Publication of JP5664729B2 publication Critical patent/JP5664729B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、例えば画像データなどの所定種類のデータを検索対象として検索する検索装置と、その方法に関する。また、このような検索装置が実行するプログラムに関する。   The present invention relates to a search apparatus and a method for searching for a predetermined type of data such as image data as a search target. The present invention also relates to a program executed by such a search device.

特開2004−233150号公報JP 2004-233150 A

例えばGPS(Global Positioning System)機能を有するデバイスと、ビデオカメラやデジタルスチルカメラなどの撮像装置とを組み合わせることによっては、これらの撮像装置により記録した動画、あるいは静止画などによる画像データのファイル(画像ファイル)の付加情報として、撮影時刻に応じた位置情報を付加することが可能になる。
このようにして位置情報が付加された画像ファイルは、例えば、地図のアプリケーションソフトウェアなどで利用することができる。つまり、地図のアプリケーションソフトウェアに位置情報が付加された画像ファイルを読み込ませると、この地図のアプリケーションソフトウェアでは、読み込んだ画像ファイルの画像とともに、その画像ファイルが撮影(記録)された位置を地図画像により示すようにされる。
For example, by combining a device having a GPS (Global Positioning System) function with an imaging device such as a video camera or a digital still camera, an image data file (image) recorded by a moving image or a still image recorded by these imaging devices. As the additional information of (file), it becomes possible to add position information corresponding to the shooting time.
The image file to which the position information is added in this way can be used by, for example, map application software. In other words, when an image file with location information added is read into the map application software, the map application software uses the map image to indicate the position at which the image file was shot (recorded) along with the image of the read image file. As shown.

上記のようにして画像データに位置情報を付加すれば、地図画像との連携が容易に可能になるなどの利便性が得られることになる。しかしながら、現状においては、このようにして、画像データに付加された位置情報は、地図アプリケーションが利用する程度の適用にとどまっている。そこで、本願発明としては、位置情報が付加される画像データをより有効に活用できるようにすることを目的とする。   If position information is added to image data as described above, convenience such as easy cooperation with a map image can be obtained. However, at present, the position information added to the image data in this way is only applied to the extent that the map application uses it. Accordingly, an object of the present invention is to enable more effective use of image data to which position information is added.

このために、本発明としての検索装置の検索方法として次の手順を実行することとした。
つまり、情報端末と通信可能な検索装置が実行する検索方法であって、上記情報端末から検索条件として受信した文字列情報に基づいて、検索地域範囲を決定する検索地域範囲決定手順と、上記検索地域範囲決定手順により決定された上記検索地域範囲に基づいて地図情報を取得する地図情報取得手順と、上記検索地域範囲決定手順により決定された上記検索地域範囲に基づいて位置情報が関連付けられた画像データを取得する画像データ取得手順と、上記地図情報取得手順により取得された地図情報と、上記画像データ取得手順により取得された画像データを、上記情報端末の表示手段上に表示するための表示用データを生成する表示用データ生成手順と、上記表示用データを上記情報端末に送信する送信手順と、を実行し、上記表示用データが送信された後に、上記情報端末から検索地域範囲情報を受信した場合には、上記情報端末から受信される検索地域範囲情報は、上記表示用データに基づいて上記情報端末上に表示される地図画像についての座標に対応する情報とされ、上記地図画像についての座標に対応する情報を位置情報に変換し、該変換された検索地域範囲情報を上記検索地域範囲決定手順で用いる検索地域範囲とすることとした。
Therefore, the following procedure is executed as a search method of the search device according to the present invention.
That is, a search method executed by a search device that can communicate with an information terminal, the search region range determining procedure for determining a search region range based on character string information received as a search condition from the information terminal, and the search Map information acquisition procedure for acquiring map information based on the search region range determined by the region range determination procedure, and image in which position information is associated based on the search region range determined by the search region range determination procedure Image data acquisition procedure for acquiring data, map information acquired by the map information acquisition procedure, and display for displaying the image data acquired by the image data acquisition procedure on the display means of the information terminal A display data generation procedure for generating data, and a transmission procedure for transmitting the display data to the information terminal. After the data has been sent, when receiving the search area range information from the information terminal, the search area range information received from the information terminal is displayed on the information terminal based on the display data Information corresponding to the coordinates of the map image, information corresponding to the coordinates of the map image is converted into position information, and the converted search area range information is used in the search area range determination procedure; I decided to do it.

本発明としては検索装置として次のように構成することとした。
情報端末から検索条件として受信した文字列情報に基づいて、検索地域範囲を決定する検索地域範囲決定手段と、上記検索地域範囲決定手段により決定された上記検索地域範囲に基づいて地図情報を取得する地図情報取得手段と、上記検索地域範囲決定手段により決定された上記検索地域範囲に基づいて位置情報が関連付けられた画像データを取得する画像データ取得手段と、上記地図情報取得手段により取得された地図情報と、上記画像データ取得手段により取得された画像データを、上記情報端末の表示手段上に表示するための表示用データを生成する表示用データ生成手段と、上記表示用データを上記情報端末に送信する送信手段とを備え、上記表示用データが送信された後に、上記情報端末から検索地域範囲情報を受信した場合には、上記情報端末から受信される検索地域範囲情報は、上記表示用データに基づいて上記情報端末上に表示される地図画像についての座標に対応する情報とされ、上記地図画像についての座標に対応する情報を位置情報に変換し、該変換された検索地域範囲情報を上記検索地域範囲決定手段で用いる検索地域範囲とする検索装置とすることとした。
In the present invention, the search device is configured as follows.
Based on the character string information received as the search condition from the information terminal, the search area range determining means for determining the search area range, and the map information is acquired based on the search area range determined by the search area range determining means. Map information acquisition means, image data acquisition means for acquiring image data associated with position information based on the search area range determined by the search area range determination means, and map acquired by the map information acquisition means Information and display data generation means for generating display data for displaying the image data acquired by the image data acquisition means on the display means of the information terminal, and the display data to the information terminal A transmission means for transmitting, and when the search area range information is received from the information terminal after the display data is transmitted. Search area range information received from the information terminal is the information corresponding to the coordinates for the map image displayed on the information terminal based on the display data, information corresponding to the coordinates for the map image Is converted into position information, and the converted search area range information is used as a search area range used by the search area range determination means .

上記のようにして本願発明では、文字列により検索を行うと、その文字列が示す例えば地域、場所などに関連した所定形式の情報、データが検索結果として取り出されるという、これまでには無かったとされる検索システムを得ることが可能になる。また、本願発明としての検索装置は、上記しているように、検索対象情報には位置情報が付加されていることが前提となるものであるが、このことは、例えば画像データなどをはじめとして、付加情報として位置情報を含むような構造のデータのさらなる有効活用につながる。   As described above, in the present invention, when a search is performed using a character string, information and data in a predetermined format related to, for example, a region or a location indicated by the character string has been retrieved as a search result. It becomes possible to obtain a search system. In addition, as described above, the search device according to the present invention is based on the premise that position information is added to the search target information. This includes, for example, image data and the like. This leads to further effective utilization of data having a structure including position information as additional information.

本実施の形態の検索サーバと、この検索サーバを利用するPCから成るネットワークシステム構成の例を示す図である。It is a figure which shows the example of the network system structure which consists of the search server of this Embodiment, and PC using this search server. Webブラウザに表示される、実施の形態の検索画面例を示す図である。It is a figure which shows the example of a search screen of embodiment displayed on a web browser. Webブラウザに表示される、実施の形態の検索画面例を示す図である。It is a figure which shows the example of a search screen of embodiment displayed on a web browser. 実施の形態に対応するパーソナルコンピュータ(PC)の構成例を示す図である。It is a figure which shows the structural example of the personal computer (PC) corresponding to embodiment. 実施の形態に対応する検索サーバの構成例を示す図である。It is a figure which shows the structural example of the search server corresponding to embodiment. 実施の形態に対応する画像ファイルの構造例を示す図である。It is a figure which shows the example of a structure of the image file corresponding to embodiment. 図2の検索画面表示の動作に応じた、PCと検索サーバとの間での処理手順例を示す図である。It is a figure which shows the example of a process sequence between PC and a search server according to operation | movement of the search screen display of FIG. 図3の検索画面表示の動作に応じた、PCと検索サーバとの間での処理手順例を示す図である。It is a figure which shows the example of a process sequence between PC and a search server according to operation | movement of the search screen display of FIG. 実施の形態の検索サーバが画像ファイルを収集するためのモデル例を模式的に示す図である。It is a figure which shows typically the example of a model for the search server of embodiment to collect an image file. 図9に示される撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device shown by FIG.

以下、本願発明を実施するための形態(以下、実施の形態という)について説明する。
本実施の形態では、例えばインターネットなどのネットワーク上に置かれる検索サーバに本願発明の検索装置の構成を適用している。
図1は、本実施の形態の検索サーバ3と、この検索サーバ3を利用するネットワーク端末であるパーソナルコンピュータ(PC)2から成るシステム構成を簡単に示している。先ず、この図により、本実施の形態の検索サーバ3を利用した検索の仕方の概略について説明しておく。
例えばPC2のユーザが検索サーバ3を利用して検索を行おうとするときには、PC2上で、Webブラウザ34aを起動させる。Webブラウザ34aとは、アプリケーションソフトウェアの1つであり、インターネット上で公開されているWebコンテンツ(Webページ)にアクセスしてこれを閲覧するためのものである。そして、ユーザは、起動させたWebブラウザ34aに対する操作を行って、ネットワーク経由で検索サーバ3にアクセスし、検索画面を要求する。これにより、検索サーバ3からは検索用のユーザインターフェイス画面としてのWebページのデータが送信され、PC2側では受信したWebページのデータを解釈して、Webブラウザ34aにより検索用画面を表示させる。なお、周知のようにして、Webページは、HTML(Hyper Text Markup Language),XML(eXtensible Markup Language)などのマークアップ言語により記述されており、Webブラウザは、この記述を解釈してWebページの再生出力を行うようにされる。
Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described.
In this embodiment, the configuration of the search device of the present invention is applied to a search server placed on a network such as the Internet.
FIG. 1 simply shows a system configuration including a search server 3 of the present embodiment and a personal computer (PC) 2 that is a network terminal using the search server 3. First, an outline of a search method using the search server 3 of the present embodiment will be described with reference to FIG.
For example, when a user of the PC 2 tries to perform a search using the search server 3, the Web browser 34 a is activated on the PC 2. The web browser 34a is one of application software, and is for accessing and browsing web contents (web pages) published on the Internet. Then, the user performs an operation on the activated Web browser 34a, accesses the search server 3 via the network, and requests a search screen. As a result, Web page data serving as a search user interface screen is transmitted from the search server 3, and the received Web page data is interpreted on the PC 2 side, and the search screen is displayed by the Web browser 34a. As is well known, a Web page is described in a markup language such as HTML (Hyper Text Markup Language) or XML (eXtensible Markup Language), and the Web browser interprets this description and Playback output is performed.

上記のようにしてWebブラウザにより表示される検索画面には、検索条件を文字列により入力するための入力ボックスが表示されている。そこで、ユーザは、任意の文字列を入力ボックスに入力したうえで、検索を要求するためのボタン操作などを行うようにされる。この操作に応じて、PC2のWebブラウザ34aは、ネットワーク経由の通信により、入力ボックスに入力された文字列のデータを検索条件として、検索サーバ3に対して検索要求を行うようにされる。
検索サーバ3では、検索要求に対する応答として、要求と共に送信されてきた検索条件としての文字列を利用して検索処理を実行する。そして、この検索処理により得られた検索結果の内容をWebページとして表示可能な形式のデータとしてPC2に対して返す。
PC2では、上記のようにして送信されてきた検索結果の内容をWebブラウザ34aにより表示出力させる。
上記説明から理解されるように、ユーザが本実施の形態の検索サーバ3を利用するのにあたっては、これまでに知られているようなインターネット上の検索サイトを利用する場合と同様に、パーソナルコンピュータ等の端末によりWebブラウザのアプリケーションに対する操作を行えばよいものであり、この点で、特別な装置の使用や、難易な操作などが要求されるものではない。
On the search screen displayed by the Web browser as described above, an input box for inputting a search condition by a character string is displayed. Therefore, the user inputs an arbitrary character string into the input box and then performs a button operation for requesting a search. In response to this operation, the Web browser 34a of the PC 2 makes a search request to the search server 3 using the character string data input in the input box as a search condition by communication via the network.
In the search server 3, as a response to the search request, a search process is executed using a character string as a search condition transmitted along with the request. Then, the contents of the search result obtained by this search process are returned to the PC 2 as data in a format that can be displayed as a Web page.
The PC 2 causes the Web browser 34a to display and output the contents of the search result transmitted as described above.
As understood from the above description, when the user uses the search server 3 of the present embodiment, the personal computer is used in the same manner as when using a search site on the Internet as known so far. It is only necessary to operate the application of the Web browser with a terminal such as the above, and in this respect, use of a special device or difficult operation is not required.

続いて、図2及び図3により、本実施の形態の検索サーバ3が提供する検索サービスの内容例について説明する。図2及び図3は、PC2により検索サーバ3にアクセスしてその検索サービスを利用しているときの、PCのディスプレイに表示される検索用画面の表示態様例を示している。
先ず、検索サーバ3の検索サービスを利用しようとするPC2のユーザは、図1にても説明したように、PC2上でWebブラウザを起動させ、このWebブラウザにより検索サーバ3にサクセスする。すると、PC2のディスプレイには、初期画面として、検索条件を入力する入力ボックスが配置された検索画面が表示される。
Next, an example of the content of the search service provided by the search server 3 of the present embodiment will be described with reference to FIGS. 2 and 3 show examples of display modes of a search screen displayed on the display of the PC when the search server 3 is accessed by the PC 2 and the search service is used.
First, as described with reference to FIG. 1, the user of the PC 2 who intends to use the search service of the search server 3 starts a Web browser on the PC 2 and accesses the search server 3 using this Web browser. Then, a search screen in which an input box for inputting search conditions is arranged is displayed on the display of the PC 2 as an initial screen.

本実施の形態の検索サーバ3の検索サービスは、画像検索とされる。また、ここでは、説明を簡単なものとするために、検索対象となる画像は写真画像(写真画像のデータファイル)であることとする。
そしてこの場合のユーザは、富士山に関連する写真画像を検索したいと思っているとする。そこで、ユーザは、例えばキーボードなどによる文字入力操作によって、Webブラウザに表示されている検索画面の入力ボックスに対して「富士山」の文字列を入力したうえで、例えば検索実行のためのボタンクリック操作に相当する操作を行う。この操作に応じて、Webブラウザから検索サーバ3に対しては、「富士山」の文字列情報を検索条件として指定したうえで、検索要求が送信されることになる。
The search service of the search server 3 according to the present embodiment is an image search. Here, in order to simplify the description, it is assumed that the image to be searched is a photographic image (photo image data file).
The user in this case wants to search for a photographic image related to Mt. Fuji. Therefore, the user inputs the character string “Mt. Fuji” in the input box of the search screen displayed on the Web browser by, for example, a character input operation using a keyboard or the like, and then performs a button click operation for executing the search, for example. The operation corresponding to is performed. In response to this operation, the search request is transmitted from the Web browser to the search server 3 after designating the character string information “Mt. Fuji” as a search condition.

検索サーバ3では上記検索要求に応答して検索を実行してその検索結果を、PC2のWebブラウザに返してくる。この検索結果は、Webブラウザのウィンドウ内にて、例えば図2(a)に示すようにして表示される。図2(a)には、検索条件である「富士山」の文字列情報に該当するとされた検索結果としての写真画像のリストが配列表示されている(検索画像リスト表示)。   The search server 3 executes a search in response to the search request and returns the search result to the Web browser of the PC 2. This search result is displayed in the window of the Web browser, for example, as shown in FIG. In FIG. 2A, a list of photo images as a search result determined to correspond to the character string information of “Mt. Fuji” as a search condition is displayed in an array (search image list display).

また、Webブラウザのウィンドウ内には、上記図2(a)の検索結果の画像のリスト表示と共に、図2(b)に示される検索地域範囲表示も行われる。この検索地域範囲表示としては、先ず、或る地域範囲の地図画像が表示される。そして、この地図画像における或る地点に対して基準位置rpが表示されると共に、この基準位置rpを基準として位置決めされる所定形状による検索範囲指定枠MRが地図画像上に重畳表示されるようになっている。この場合の検索範囲指定枠MRは、例えば検索地域範囲表示の画枠形状に応じた長方形とされている。   In addition, in the window of the Web browser, the search area range display shown in FIG. 2B is displayed together with the list display of the search result images shown in FIG. As the search area range display, first, a map image of a certain area range is displayed. A reference position rp is displayed for a certain point in the map image, and a search range designation frame MR having a predetermined shape that is positioned with reference to the reference position rp is superimposed on the map image. It has become. The search range designation frame MR in this case is a rectangle corresponding to the image frame shape of the search area range display, for example.

図2(b)の検索地域範囲表示は、富士山周辺の地図が表示されている。そして、基準位置rpとしては富士山山頂とされたうえで、この基準位置rpを基準に、一定範囲の長方形で囲まれる地域を検索範囲指定枠MRにより示している。このようにして表示される検索範囲指定枠MRは、「図2(a)の検索画像リスト表示にリストアップされている画像が対応する位置の範囲」を示している。換言すれば、「図2(a)の検索画像リスト表示にリストアップされている写真画像は、検索範囲指定枠MRにおいて示される地域内において実際に撮影されたものである」ということを示している。このことから、先の図2(a)の検索画像リスト表示が主たる検索結果の出力画面とされるのに対して、この図2(b)の検索地域範囲表示は、検索画像リスト表示にて出力される検索結果について、その実質的な検索条件である地域範囲(位置情報の範囲)を視覚的に示すという意味で、主たる検索結果を補助するような役割を有しているものであるということがいえる。   In the search area range display in FIG. 2B, a map around Mt. Fuji is displayed. The reference position rp is set to the summit of Mt. Fuji, and an area surrounded by a certain range of rectangles is indicated by a search range designation frame MR based on the reference position rp. The search range designation frame MR displayed in this way indicates “a range of positions corresponding to images listed in the search image list display of FIG. 2A”. In other words, it indicates that “the photograph images listed in the search image list display of FIG. 2A are actually taken in the area indicated in the search range designation frame MR”. Yes. Therefore, the search image list display of FIG. 2A is used as an output screen for the main search results, whereas the search area range display of FIG. 2B is the search image list display. The output search result has a role of assisting the main search result in the sense that the region range (range of position information) that is the substantial search condition is visually indicated. I can say that.

そして、上記図2(b)に示される検索地域範囲表示の検索範囲指定枠MRは、PC2に対する操作に応じて、地図画像上におけるサイズを変更することが可能とされている。この操作としては、例えば画像処理などのアプリケーションソフトウェアなどにおける範囲指定操作のようにして、マウスなどによるドラッグ操作により、検索範囲指定枠MRの縦横比を保ちながら、そのサイズを変更するようなものを考えることができる。もちろん、検索範囲指定枠MRの縦横比を変更できるようにしても良い。さらには、基準位置rpとともに、地図画像上における検索範囲指定枠MRの位置も移動変更させるようにすることも考えられる。   The search area designation frame MR in the search area range display shown in FIG. 2B can be changed in size on the map image in response to an operation on the PC 2. As this operation, for example, an operation for changing the size of the search range specification frame MR while maintaining the aspect ratio by a drag operation with a mouse or the like like a range specification operation in application software for image processing or the like. Can think. Of course, the aspect ratio of the search range designation frame MR may be changed. Furthermore, it is also conceivable to move and change the position of the search range designation frame MR on the map image together with the reference position rp.

そして、検索範囲指定枠MRのサイズ変更の具体例として、ここでは、図2(b)に示される検索範囲指定枠MRについて、図3(a)に示すようにしてサイズ変更を行ったとする。今回のこのような操作をユーザが行った意図としては、次のようなものであることとする。つまり、例えば、ユーザとしては、富士山周辺地域の画像が欲しかったために検索文字列として、「富士山」を入力して検索をかけたのであるが、実際のユーザの意図ととしては、山中湖周辺も含めた富士山付近の画像が欲しかったものであるとする。しかしながら、図2(b)に示される検索範囲指定枠MRが示す地域範囲内には山中湖が入っていない。そこで、このような場合にユーザは、検索範囲指定枠MRのサイズ変更操作として、例えばこれまでよりも大きなサイズに拡大させて、例えば図3(a)に示すように、富士山とともに山中湖が含まれるような地域範囲を設定するようにされる。   As a specific example of the size change of the search range designation frame MR, it is assumed here that the search range designation frame MR shown in FIG. 2B has been resized as shown in FIG. The intention that the user has performed such an operation this time is as follows. In other words, for example, as a user wanted an image of the area around Mt. Fuji, he entered “Mt. Fuji” as a search character string and searched for it. Suppose you wanted an image near Mt. Fuji. However, Yamanakako is not included in the area range indicated by the search range designation frame MR shown in FIG. Therefore, in such a case, as a size change operation of the search range designation frame MR, the user expands the size to a size larger than before, for example, as shown in FIG. Such an area range is set.

このようにして検索範囲指定枠MRのサイズを変更したのに応じて、PC2のWebブラウザからは、この変更された検索範囲指定枠MRのサイズに応じた地図上の地域範囲を示す情報を検索条件として、再度、検索サーバ3に対して検索要求を行うようにされる。検索サーバ3は、この検索条件に従って検索を行って検索結果を返す。これにより、検索画像リスト表示は、図2(a)から図3(b)に示すようにして、変更された検索範囲指定枠MRが示す地域範囲にて撮影された写真画像をリストアップさせた内容に変更される。つまり、検索画像リスト表示においては、これまでの富士山の画像に加えて、山中湖近辺で撮影した画像も追加されるようにして表示されることになる。
なお、ここでの説明は省略するが、図2(b)から図3(a)への遷移とは逆の要領で、検索範囲指定枠MRのサイズを縮小する操作により、新たな地域範囲設定をすることは当然可能である。
In response to the change in the size of the search range designation frame MR in this way, the Web browser of the PC 2 retrieves information indicating the area range on the map according to the changed size of the search range designation frame MR. As a condition, a search request is made to the search server 3 again. The search server 3 performs a search according to this search condition and returns a search result. As a result, the search image list display lists photographic images taken in the region indicated by the changed search range designation frame MR as shown in FIGS. 2 (a) to 3 (b). Changed to content. That is, in the search image list display, in addition to the images of Mt. Fuji so far, an image photographed in the vicinity of Lake Yamanaka is added and displayed.
Although explanation here is omitted, a new area range setting is performed by an operation of reducing the size of the search range designation frame MR in the opposite manner to the transition from FIG. 2B to FIG. 3A. Of course it is possible to do.

上記説明から理解されるように、本実施の形態の写真画像検索では、最初の検索条件としては文字列情報とされている。従来において画像を検索するための検索文字列は、例えば画像のファイル名であるとか、Webページなどにおいて画像のレイアウトに対して付加されるテキスト内容などを検索対象とするのが一般的である。これに対して、本実施の形態では、検索文字列の情報は、検索対象とされる写真画像が撮影されたとする場所、地域を指定するものであることになる。   As understood from the above description, in the photo image search of the present embodiment, the first search condition is character string information. Conventionally, a search character string for searching for an image is generally searched for, for example, an image file name or text content added to an image layout on a Web page or the like. On the other hand, in the present embodiment, the information of the search character string specifies the location and area where the photographic image to be searched is taken.

例えば上記具体例のようにして富士山を風景とする写真画像を検索したいとする場合、従来の画像検索によっても、「富士山」という文字列を検索条件として入力して検索をかけることによって、富士山の写真画像を検索することは可能である。しかしながら、これまでの画像検索は、例えばあくまでもファイル名やWebページのテキストなどに応じたものであるので、例えば「富士山」を含まないようなファイル名が付されていたり、Webページのテキスト内容に「富士山」の文字列が無いような場合には検索結果から外れてしまうことになる。これに対して本実施の形態では、検索文字列は、写真画像が撮影されたとする場所などの名称に対応するものであるから、上記のようにしてファイル名やWebページのテキスト内容には関係なく、検索条件として指定した場所、地域で撮影された画像を検索することが可能となる。つまり、撮影した場所という観点からの画像検索を行う場合においては、これまでの画像検索よりも的確とされる検索結果が得られるものである。   For example, if you want to search for photographic images with Mt. Fuji as in the above example, you can enter the character string “Mt. Fuji” as a search condition and search for Mt. Fuji. It is possible to retrieve photographic images. However, since the image search so far is based on, for example, the file name and the text of the Web page, for example, a file name that does not include “Mt. Fuji” is added, or the text content of the Web page is included. If there is no character string “Mt. Fuji”, it will be excluded from the search results. On the other hand, in the present embodiment, the search character string corresponds to a name such as a place where a photographic image is taken, and thus is related to the file name and the text content of the Web page as described above. Instead, it is possible to search for an image taken in a place or region designated as a search condition. In other words, in the case of performing an image search from the viewpoint of the location where the image was taken, a search result that is more accurate than the conventional image search can be obtained.

さらに、本実施の形態では、図2(a)に示される検索画像リスト表示とともに、図2(b)に示される検索範囲指示表示も行うようにしている。これにより、検索地域範囲表示内の検索範囲指定枠MRを見ることで、ユーザは、検索画像リスト表示に提示される画像が、実際においてはどのような地域範囲で撮影されたものであるのかを視覚的に認識できることになる。また、検索条件の範囲の変更についても、図2(b)、図3(a)に示すようにして、検索地域範囲表示において地図画像上の検索範囲指定枠MRのサイズを変更するという、グラフィカルな操作によって行えるようになっている。例えば、これまでの検索の仕方により「富士山」と「山中湖」とに関する画像を検索したい場合には、入力ボックスに対して「富士山」と「山中湖」の文字列を入力したうえで、これらの文字列についての論理和演算が行われるようにするための操作を行う必要があるなど、その操作については本実施の形態ほどは感覚的ではなく、また、難易度も若干高くなる。
そして、上記図2、図3に示される本実施の形態の画像検索は、後述するようにして、検索サーバ3において、検索対象のコンテンツである画像データのファイルについて、付加情報として位置情報を含む画像データを記憶保持して管理することとしたうえで、地図情報(地図データベース)と連携させていることにより実現されるものである。この点で、本実施の形態の画像検索は、位置情報が付加される画像データを有効に活用したうえで、これまでには無かったとされる検索システムを提供できるサービス、技術であるということがいえる。
Further, in the present embodiment, the search range instruction display shown in FIG. 2B is also performed in addition to the search image list display shown in FIG. Thus, by looking at the search range designation frame MR in the search area range display, the user can determine in what area range the image presented in the search image list display is actually taken. It will be visually recognizable. Further, regarding the change of the search condition range, as shown in FIGS. 2B and 3A, the size of the search range designation frame MR on the map image is changed in the search area range display. Can be done by simple operation. For example, if you want to search for images related to “Mt. Fuji” and “Lake Yamanaka” according to the previous search method, enter the strings “Mt. Fuji” and “Lake Yamanaka” in the input box, and then enter these characters. For example, it is necessary to perform an operation for performing a logical sum operation on a column. The operation is not as sensual as the present embodiment, and the degree of difficulty is slightly higher.
The image search of the present embodiment shown in FIG. 2 and FIG. 3 includes position information as additional information for the image data file that is the search target content in the search server 3 as described later. This is realized by storing and managing image data and linking with map information (map database). In this respect, the image search according to the present embodiment is a service and technology that can provide a search system that has never existed before, after effectively using image data to which position information is added. I can say that.

以降、本実施の形態の画像検索を実現するための技術構成について説明していく。
先ず、図4により、検索サービス利用のためにユーザが使用するパーソナルコンピュータ(PC)2の構成例について説明する。
この図におけるPC2は、CPU31、ROM32、RAM33、HDD(ハードディスク)34、操作入力処理部35、表示出力処理部36、メディアドライブ37、データインターフェイス38、及びネットワークインターフェイス39を内部バス40により相互に接続して成るものとして示されている。
Hereinafter, a technical configuration for realizing the image search of the present embodiment will be described.
First, a configuration example of a personal computer (PC) 2 used by a user for using a search service will be described with reference to FIG.
In this figure, the PC 2 connects the CPU 31, ROM 32, RAM 33, HDD (hard disk) 34, operation input processing unit 35, display output processing unit 36, media drive 37, data interface 38, and network interface 39 to each other via an internal bus 40. It is shown as consisting of

CPU(Central Processing Unit)31は、例えばROM32において保持されているプログラム、及びHDD34に記憶されているアプリケーションプログラム等をRAM13に展開して実行する。また、RAM13にはCPU11が各種処理を実行するのに必要なデータ等も適宜保持される。なお、ROM32は、一般には書き換え不可の構成であるが、例えば、フラッシュメモリなどの不揮発性の書き換え可能なメモリ素子を含んだ構成とされてもよい。   A CPU (Central Processing Unit) 31 expands and executes, for example, a program held in the ROM 32 and an application program stored in the HDD 34 on the RAM 13. Further, the RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes. The ROM 32 generally has a non-rewritable configuration, but may be configured to include a nonvolatile rewritable memory element such as a flash memory, for example.

HDD34は、PCにおける補助記憶装置となるもので、上記のようにしてCPU31が実行する各種プログラムがインストールされるようにして記憶される。また、各種のアプリケーションファイルなども記憶可能とされる。このようにしてHDD34に記憶されるデータは、ファイルシステムなどにより管理される。CPU31は、例えばファイルシステムを利用することで、HDD34に対するデータの書き込み又は読み出しを行うことができるようにされている。
なお、この図においては、HDD34にインストールされるプログラムのうちで、特に、Webブラウザ34aを示している。Webブラウザ34aは、インターネット上でアップロード、公開されているWebサイト、若しくはローカルにおかれるHTMLなどのマークアップ言語による文書を表示出力して閲覧、利用できるようにするためのアプリケーションソフトウェアであり、先の説明から理解されるように、本実施の形態との対応では、画像検索のために検索サーバ3とネットワーク(インターネット)経由でアクセスするときに使用される。
The HDD 34 serves as an auxiliary storage device in the PC, and is stored such that various programs executed by the CPU 31 are installed as described above. Various application files can also be stored. Data stored in the HDD 34 in this way is managed by a file system or the like. The CPU 31 can write or read data to or from the HDD 34 by using, for example, a file system.
In this figure, among the programs installed in the HDD 34, the Web browser 34a is particularly shown. The Web browser 34a is application software for displaying, outputting, browsing, and using a document in a markup language such as HTML uploaded or published on the Internet or locally. As will be understood from the above description, the correspondence with the present embodiment is used when accessing the search server 3 via the network (Internet) for image search.

操作入力処理部35は、操作デバイス41から出力される操作に応じた信号を入力してCPU31が処理可能な命令に変換し、CPU31に出力する。CPU31は、この命令に応じた処理を実行することになる。なお、ここでの操作デバイス41は、例えばマウス、キーボードをはじめとするコンピュータをユーザが操作するための各種操作入力デバイスを包括して示しているものである。
表示出力処理部36は、例えばCPU31の制御に応じて表示デバイス42により画像を表示出力させるための処理を実行する。
The operation input processing unit 35 receives a signal corresponding to an operation output from the operation device 41, converts the signal into a command that can be processed by the CPU 31, and outputs the command to the CPU 31. The CPU 31 executes processing according to this command. The operation device 41 here is a comprehensive illustration of various operation input devices for a user to operate a computer such as a mouse and a keyboard.
The display output processing unit 36 executes a process for causing the display device 42 to display and output an image under the control of the CPU 31, for example.

メディアドライブ37は、例えば現状であれば、CD−ROMやDVD、さらにはリムーバブル形式の所定規格による半導体メモリ素子などをはじめとする特定種別のメディアに対応してデータの読み出し/書き込みが可能に構成される。このための制御もCPU31が実行するようにされる。   The media drive 37 is configured to be able to read / write data corresponding to a specific type of medium such as a CD-ROM, a DVD, or a semiconductor memory device according to a predetermined standard in a removable format, for example. Is done. The CPU 31 executes control for this purpose.

データインターフェイス38は、PC2と外部デバイスとの間で所定のデータ通信方式により外部デバイスと通信を行うためのハードウェア、ソフトウェアを実装して構成される部位であり、この場合には、例えば撮像装置1のデータインターフェイス24に対応して通信可能な構成が採られるものとなる。   The data interface 38 is a part configured by mounting hardware and software for communicating with an external device by a predetermined data communication method between the PC 2 and the external device. In this case, for example, an imaging apparatus Thus, a communicable configuration corresponding to one data interface 24 is adopted.

ネットワークインターフェイス39は、インターネット、LANなどのネットワークを介して通信を行うためのインターフェイス機能を実現する部位であり、例えば、現状であれば、Ethernet(登録商標)などの規格に対応した構成となる。また、IEEE802.11a/b/gなどの無線LAN(Local Area Network)規格に対応した構成も考えられる。さらには、電話回線を利用してインターネットと接続するような構成であれば、モデムなどを備えて構成することになる。   The network interface 39 is a part that realizes an interface function for performing communication via a network such as the Internet or a LAN. For example, in the current state, the network interface 39 has a configuration corresponding to a standard such as Ethernet (registered trademark). A configuration corresponding to a wireless LAN (Local Area Network) standard such as IEEE802.11a / b / g is also conceivable. Furthermore, if it is configured to connect to the Internet using a telephone line, it is configured with a modem or the like.

続いて図5により検索サーバ3の構成例について説明する。
この図に示す検索サーバ3は、制御部50、ネットワークインターフェイス51、検索処理部52、及び記憶部53を内部バス54により相互に接続して構成されるものとして示されている。
Next, a configuration example of the search server 3 will be described with reference to FIG.
The search server 3 shown in this figure is shown as configured by connecting a control unit 50, a network interface 51, a search processing unit 52, and a storage unit 53 to each other via an internal bus 54.

制御部50は、例えばCPU、RAM、ROMなどを備えて構成されるもので、内部CPUが、内部ROMあるいは記憶部53に記憶されるプログラムを実行することで、検索サーバ3における制御処理を行うようにされる。   The control unit 50 includes, for example, a CPU, a RAM, a ROM, and the like, and the internal CPU performs a control process in the search server 3 by executing a program stored in the internal ROM or the storage unit 53. To be done.

ネットワークインターフェイス51は、インターネット、LANなどのネットワークを介して通信を行うためのインターフェイス機能を実現する部位である。検索サーバ3は、このネットワークインターフェイス51からインターネットを経由するようにして、自身がサービスを提供すべき端末と接続することになる。   The network interface 51 is a part that realizes an interface function for performing communication via a network such as the Internet or a LAN. The search server 3 is connected to a terminal to which a service is to be provided through the network interface 51 via the Internet.

検索処理部52は、入力された検索条件により、記憶部53内の画像ファイルデータベース53a、及び地図データベース53bに対する検索処理を実行するための部位である。
なお、検索処理部52の機能としては、例えば実際には、制御部50におけるCPUがコンテンツ作成処理部52としての機能に応じたプログラムを実行し、検索サーバ3を形成するハードウェア資源であるメモリ、信号処理回路などを利用することで実現されるものである。
The search processing unit 52 is a part for executing a search process on the image file database 53a and the map database 53b in the storage unit 53 according to the input search conditions.
As a function of the search processing unit 52, for example, a memory that is a hardware resource that actually forms a search server 3 by the CPU in the control unit 50 executing a program corresponding to the function as the content creation processing unit 52. It is realized by using a signal processing circuit or the like.

記憶部53は、例えば実際にはHDDなどを備えて構成され、検索サーバ3が実行すべき動作に関して必要となる各種の情報、データが記憶保持される。このような情報として、図においては、画像ファイルデータベース53a、地図データベース53bを示している。   The storage unit 53 actually includes, for example, an HDD, and stores and holds various information and data necessary for operations to be executed by the search server 3. As such information, in the figure, an image file database 53a and a map database 53b are shown.

画像ファイルデータベース53aは、検索対象のコンテンツとなる画像ファイルをデータベース化したものとされる。
ここで、図6により、画像ファイルデータベース53aとして記憶部53にて記憶管理される画像ファイルの構造例を示しておく。
この図に示される画像ファイルの構造としては、静止画(動画であってもよい)としての画像データの実体より成る画像データ部と、この画像データ部としての内容に関連した所定項目の情報から成るメタデータ部とから成るものとされる。そして、このメタデータ部における所定位置に位置情報を格納する領域が設けられる。上記しているように、ここに格納される位置情報は、GPSモジュールにより取得されたものであるから、この位置情報によっては、その画像データを撮像したときの位置が示されることになる。なお、メタデータ部に格納される位置情報以外の情報としては、例えば、撮影日時、データ(ファイル)サイズ、画像データ部の解像度、データレート、エンコード形式や、撮影時において撮像装置に設定されていた露出、ホワイトバランスなどの各種パラメータの設定値などが挙げられる。
The image file database 53a is a database of image files serving as search target contents.
Here, FIG. 6 shows an example of the structure of an image file stored and managed in the storage unit 53 as the image file database 53a.
The structure of the image file shown in this figure is based on an image data portion consisting of the substance of image data as a still image (which may be a moving image), and information on predetermined items related to the contents as the image data portion. And a metadata part. An area for storing position information is provided at a predetermined position in the metadata portion. As described above, since the position information stored here is acquired by the GPS module, the position when the image data is captured is indicated by the position information. As information other than the position information stored in the metadata part, for example, the shooting date and time, the data (file) size, the resolution of the image data part, the data rate, the encoding format, and the information set in the imaging device at the time of shooting are set. The setting values of various parameters such as exposure and white balance.

また、図5の記憶部52における地図データベース53bは、データベース化された地図情報となる。この地図データベース53bが有する地図情報としては、先ず、地図画像に、緯度/経度による位置情報を対応させた基本的な構造を有する。そのうえで、例えば位置情報に対して地名、住所、その他の各種付加情報などを対応させるものである。   Further, the map database 53b in the storage unit 52 of FIG. 5 is map information stored in a database. The map information included in the map database 53b has a basic structure in which position information based on latitude / longitude is associated with a map image. In addition, for example, a place name, an address, and other various additional information are associated with the position information.

なお、ここでは図示していないが、記憶部5においては、検索サーバ3の動作に必要なプログラムも記憶させることができる。例えば実際においては、OS(Operating System)のプログラムと、このOS上で動作するアプリケーションプログラムが記憶されることになる。この場合のアプリケーションプログラムとしては、検索処理部52などの機能に対応するプログラムを挙げることができる。 Although not shown here, in the storage unit 3, it is possible to also store programs necessary for the operation of the search server 3. For example, in practice, an OS (Operating System) program and an application program operating on the OS are stored. As an application program in this case, a program corresponding to a function such as the search processing unit 52 can be cited.

次に、図7により、図2にて説明した例に倣って画像検索を行う場合の、PC2と検索サーバ3が実行する処理手順を示す。なお、この図に示す手順は、PC2上で起動されたにWebブラウザ34aがインターネット経由でWeb検索サーバ3にアクセスしたことで、検索画面のトップページである、文字列入力用の入力ボックスが配置された検索画面が表示されている状況から開始されるものとしている。
また、図7において、PC2側については、ユーザインターフェイスとWebブラウザが示され、検索サーバ3側については、検索処理、地図データベース、画像ファイルデータベースが示される。PC2側のユーザインターフェイスは操作入力処理部35が対応する処理となる。同じPC2のWebブラウザは、記憶部34に記憶されているもので、起動された状態でCPU31が実行しているWebブラウザ34aとしての動作が相当する。また、検索サーバ3側の検索処理、地図データベース、画像ファイルデータベースは、それぞれ、図5の検索処理部52、地図データベース53b、画像ファイルデータベース53aが対応する。
Next, FIG. 7 shows a processing procedure executed by the PC 2 and the search server 3 when performing an image search according to the example described in FIG. In the procedure shown in this figure, when the Web browser 34a is started on the PC 2 and accesses the Web search server 3 via the Internet, an input box for character string input, which is the top page of the search screen, is arranged. It is assumed that the search is started from the situation where the search screen is displayed.
In FIG. 7, the PC 2 side shows a user interface and a Web browser, and the search server 3 side shows a search process, a map database, and an image file database. The user interface on the PC 2 side is a process corresponding to the operation input processing unit 35. The Web browser of the same PC 2 is stored in the storage unit 34, and corresponds to the operation as the Web browser 34a executed by the CPU 31 in the activated state. The search processing, map database, and image file database on the search server 3 side correspond to the search processing unit 52, map database 53b, and image file database 53a in FIG. 5, respectively.

これまでにも説明しているように、画像検索のためには、先ずユーザは、PC2のWebブラウザにより表示されている、検索画面トップページの入力ボックスに対して、検索条件としての文字列を入力するための操作を行う。この操作に応じて、PC2では、図7のステップS101として示すように、ユーザインターフェイスからWebアプリケーションに対して、検索条件の文字列情報を入力することになる。この結果として、例えばWebブラウザにより表示されている検索画面の入力ボックスには、入力操作に応じた文字列が表示される。そして、このようにして検索文字列の入力を完了させたうえで検索要求のための操作が行われたとすると、ステップS102として示すように、Webブラウザ34aは、検索サーバ3に対して、入力された検索条件としての文字列情報の送信を伴って検索を要求する。   As described above, in order to search for an image, first, the user inputs a character string as a search condition to the input box on the search screen top page displayed by the Web browser of the PC 2. Perform operations for input. In response to this operation, the PC 2 inputs character string information of the search condition from the user interface to the Web application as shown in step S101 in FIG. As a result, for example, a character string corresponding to the input operation is displayed in the input box of the search screen displayed by the Web browser. Assuming that an operation for a search request is performed after completing the input of the search character string in this way, the Web browser 34a is input to the search server 3 as shown in step S102. A search is requested with transmission of character string information as a search condition.

この検索要求は、検索サーバ3内の検索処理部52に受け渡される。これに応じて、検索処理部52は、ステップS103としての手順を実行する、このステップS103は、地図データベース53bにアクセスして、検索要求と共に受け渡された検索条件としての文字列情報に該当するとされる位置情報を検索するようにされる。
地図データベース53bとしては、先に説明したように、地図画像に対して位置情報が対応つけられた基本構造を有したうえで、さらに、位置情報に対応させるようにして、地名、住所、施設名などの地図上で示されるべき各種名称の文字列情報も対応つけているものとされる。つまり、地図情報は、上記地名等を表す文字列情報が、位置情報と対応関係を持つようにされた情報の構造を有するものであるといえる。
そこで、ステップS103としては、地図データベース53bから、先ず検索条件の文字列情報に該当する地図関連の文字情報を特定するようにされる。そして、さらに、上記のようにして検索された地図関連の文字情報と対応つけられている地図画像の位置情報を、同じ地図データベース53bから検索するようにされる。なお、このようにして検索される位置情報としては、或る場所、地点に対応した一点の位置情報であることとする。このようにしてステップS103の手順により検索された位置情報を、検索処理部52は、ステップS104により取り込んで取得する。ここで取得した位置情報は、検索地域範囲表示における基準位置rpとなる。
This search request is delivered to the search processing unit 52 in the search server 3. In response to this, the search processing unit 52 executes the procedure as Step S103. This Step S103 accesses the map database 53b and corresponds to the character string information as the search condition delivered together with the search request. To search for location information.
As described above, the map database 53b has a basic structure in which position information is associated with a map image, and is further made to correspond to the position information. It is also assumed that character string information of various names to be shown on a map such as That is, it can be said that the map information has a structure of information in which the character string information representing the place name and the like has a correspondence relationship with the position information.
Therefore, as step S103, the map-related character information corresponding to the character string information of the search condition is first specified from the map database 53b. Further, the position information of the map image associated with the map-related character information searched as described above is searched from the same map database 53b. Note that the position information searched in this way is position information of one point corresponding to a certain place or point. In this way, the search processing unit 52 acquires and acquires the position information searched by the procedure of step S103 in step S104. The position information acquired here is the reference position rp in the search area range display.

続いて、検索処理部52は、ステップS105により検索地域範囲を決定するための処理を行う。この検索地域範囲は、図2(b)に示されるようにして、検索地域範囲表示における地図画像上において、基準位置rpにより決定される位置にて配置される検索範囲指定枠MRに対応するものとされる。
そして、検索地域範囲の決定は、例えば次のようにして行うことができる。先ず、地図データベース53bについては、地図画像に対応つけて管理する文字情報に関して、その名称の種別ごとに区分して管理するように構成する。その区分としては、住所(住所はさらに都道府県、市町村、丁などにより細分化して区分できる)、施設名、山、河川、名所旧跡などを挙げることができる。
そして、検索条件の文字列情報が、地図データベース53bにおいて管理される文字情報としては、どのような種別に属するのかを判定し、その判定結果に応じて所定規則に従って検索地域範囲を決定するようにされる。
例えば「富士山」は山に分類されるが、このような分類の文字列の場合に、例えば数キロメートル四方程度の検索地域範囲を決定したとしても、例えば富士山頂付近の地域のみを指定することになってしまうために、この後の検索結果として有効な画像ファイルを得ることは難しい。そこで、このような分類の場合には、数キロから数十キロ程度の検索地域範囲とすることが好ましい。逆に、「○×区役所」や「○△デパート」のような施設、店舗などの場合に、数キロもの範囲を指定することは妥当ではなく、数十メートルから数百メートルの範囲とすることが好ましいことになる。
このようなことを考慮して、例えば文字情報の分類に応じて検索地域範囲を決定するための規則を設定しておき、検索処理部52としては、この規則に応じたアルゴリズムにより、検索地域範囲を決定するように構成すればよい。
なお、この検索地域範囲の情報の実体としては位置情報に基づいたものとなる。あくまでも一例であるが、検索地域範囲の形状が図2(b)の検索範囲指定枠MRに対応するような方形であるとした場合には、この方形を成すとされる4つの頂角が対応する地図画像上での位置情報を得るようにされる。これらの位置情報により、方形による検索地域範囲に含まれる位置情報は特定できる。また、例えば基準位置rpと、検索範囲指定枠MRのサイズに応じて決まる対角線の長さに関しての情報を検索地域範囲として持つことも考えられる。準位置rpと対角線の長さの情報を利用して所定の演算を行えば、検索範囲指定枠MRを形成する位置情報を求めることが可能である。このことに準じて、検索範囲指定枠MRの形状が円形、楕円形などとされる場合にも、例えば基準位置rpと半径とを利用して所定の演算を実行すれば位置情報が特定できる。
このようにして、ステップS105により決定される検索地域範囲としては、位置情報に基づくものとなる。
Subsequently, the search processing unit 52 performs a process for determining a search area range in step S105. This search area range corresponds to the search range designation frame MR arranged at the position determined by the reference position rp on the map image in the search area range display as shown in FIG. It is said.
The search area range can be determined as follows, for example. First, the map database 53b is configured such that character information managed in association with a map image is classified and managed for each name type. Examples of the classification include an address (the address can be further subdivided into prefectures, municipalities, and dolls), a facility name, a mountain, a river, and a historic site.
The character string information of the search condition is determined as to what type of character information is managed in the map database 53b, and the search area range is determined according to a predetermined rule according to the determination result. Is done.
For example, “Mt. Fuji” is classified as a mountain, but in the case of a character string of such classification, for example, even if a search area range of about several kilometers square is determined, for example, only the area near the top of Mt. Fuji is specified. Therefore, it is difficult to obtain an effective image file as a subsequent search result. Therefore, in the case of such classification, it is preferable that the search area range is from several kilometers to several tens of kilometers. Conversely, it is not appropriate to specify a range of several kilometers in the case of facilities, stores, etc. such as “○ × ward office” or “○ △ department store”, and it should be in the range of tens to hundreds of meters. Is preferred.
Considering this, for example, a rule for determining the search area range according to the classification of the character information is set, and the search processing unit 52 uses the algorithm according to this rule to search the search area range. May be configured so as to determine the above.
Note that the entity of the information in the search area range is based on the position information. As an example only, if the shape of the search area range is a rectangle corresponding to the search range specification frame MR in FIG. 2B, the four apex angles that form this rectangle correspond. Position information on the map image to be obtained. With these pieces of position information, position information included in the rectangular search area range can be specified. Further, for example, it may be possible to have information on the reference position rp and the length of the diagonal line determined according to the size of the search range designation frame MR as the search area range. If a predetermined calculation is performed using information on the quasi-position rp and the length of the diagonal line, it is possible to obtain position information that forms the search range designation frame MR. In accordance with this, even when the shape of the search range designation frame MR is circular, elliptical, or the like, the position information can be specified by executing a predetermined calculation using the reference position rp and the radius, for example.
Thus, the search area range determined in step S105 is based on the position information.

上記のようにして検索地域範囲を決定すると、検索処理部52は、ステップS106により、決定した検索地域範囲に対応する位置情報を検索条件として、画像ファイルデータベース53aに対して画像ファイルの検索をかける。
先に図6により説明したように、画像ファイルには位置情報が付加されている。ステップS106では、検索地域範囲に対応する位置情報と一致する位置情報が付加された画像ファイルを検索するようにされる。そして、続くステップS107としての手順により、このようにして検索条件に該当したとされる画像ファイルのデータと、これらの画像ファイルの所在をURLなどの記述により示すリンク情報とを画像ファイルデータベース53aから取り込む。
ここまでの説明によると、ステップS101においては、検索条件として地名等に応じた文字列情報を入力させているのであるが、この文字列情報は、ステップS103、S104により位置情報に変換され、実際には、この位置情報を検索条件として画像ファイルデータベース53aに対する検索を行うようにしている。つまり、ユーザインターフェイス側としては文字情報により検索をかけているのであるが、実質的には、位置情報により検索をかけているということになる。このことは、ユーザインターフェイスにより入力される文字列情報による検索条件が仮のもので、実際に検索サーバ3側にて画像ファイルデータベース53aに対して検索をかける位置情報が実の検索条件であるとしてみることができる。
When the search area range is determined as described above, the search processing unit 52 searches the image file database 53a for an image file using the position information corresponding to the determined search area range as a search condition in step S106. .
As described above with reference to FIG. 6, position information is added to the image file. In step S106, an image file to which position information matching the position information corresponding to the search area range is added is searched. Then, by the procedure as the subsequent step S107, the image file data that is considered to satisfy the search condition in this way and the link information that indicates the location of these image files by the description such as URL are obtained from the image file database 53a. take in.
According to the description so far, in step S101, character string information corresponding to a place name or the like is input as a search condition. This character string information is converted into position information in steps S103 and S104, and is actually The image file database 53a is searched using this position information as a search condition. That is, the user interface side is searching based on character information, but is actually searching based on position information. This is because the search condition based on the character string information input from the user interface is provisional, and the position information for actually searching the image file database 53a on the search server 3 side is the actual search condition. You can see.

続くステップS108においては、図2(a)に示したような検索画像リスト表示としてのWebページのデータを作成するための処理を実行する。このWebページの作成にあたり、ステップS107により取り込んだ画像ファイルのデータは、検索画像リスト表示内に配置させるサムネイル画像TNを生成するのに用いられる。また、同じステップS107により取り込んだ画像ファイルのリンク情報は、例えば上記サムネイル画像に対してリンクが張られた状態が得られるようにして、HTMLなどの文書に記述するようにされる。
そして、検索処理部52は、上記のようにして作成した検索画像リスト表示のWebページデータを、ステップS109により検索要求元のPC2に対して、検索結果として返送する。PC2では、受信したWebページデータをWebブラウザ34aにより解釈して再生出力する。これにより、図2(a)に示すようにして、Webブラウザの画面上に対して検索画像リスト表示が行われることになる。
In subsequent step S108, processing for creating Web page data as a search image list display as shown in FIG. 2A is executed. In creating the Web page, the image file data captured in step S107 is used to generate a thumbnail image TN to be arranged in the search image list display. Further, the link information of the image file captured in the same step S107 is described in a document such as HTML so that a state where the thumbnail image is linked is obtained, for example.
Then, the search processing unit 52 returns the Web page data of the search image list display created as described above to the search request source PC 2 as a search result in step S109. The PC 2 interprets the received web page data by the web browser 34a and reproduces and outputs it. As a result, as shown in FIG. 2A, the search image list is displayed on the screen of the Web browser.

また、検索サーバ3の検索処理部52では、上記ステップS109により検索画像リスト表示のWebページデータの送信を行うと、次いで、ステップS110、S111により、地図データベース53bから、検索地域範囲に対応する部分地図情報を検索して取り込むようにされる。
先に説明したようにステップS105により決定される検索地域範囲は、位置情報から成るものとされる。ステップS110としては、図2(b)に倣えば、検索地域範囲を成すとされる位置情報による範囲が、一定割合で含まれるような地域範囲に対応する部分地図情報を検索するようにされる。なお、このようにして検索、取得される部分地図情報としては、少なくとも、検索された地域範囲に対応する地図画像の情報とされる。
In addition, when the search processing unit 52 of the search server 3 transmits the Web page data of the search image list display in the above step S109, the part corresponding to the search area range is then retrieved from the map database 53b in steps S110 and S111. Map information is retrieved and imported.
As described above, the search area range determined in step S105 is made up of position information. As step S110, according to FIG. 2B, the partial map information corresponding to the area range in which the range based on the position information that is supposed to form the search area range is included at a certain ratio is searched. . The partial map information searched and acquired in this way is at least information of a map image corresponding to the searched area range.

そして、検索処理部52は、次のステップS112により、取得した部分地図情報を利用して、図2(b)に例示した検索地域範囲表示のWebページを作成する。この検索地域範囲表示のWebページとしても、例えばHTMLなどの文書を使用するコンテンツデータとして作成されればよいが、特に検索地域範囲表示のWebページに関しては、地図画像上に表示させた検索範囲指定枠MRのサイズがユーザ操作に応じて変更可能となるようにすることと、変更された検索範囲指定枠MRのサイズに応じて新たな検索条件を設定して検索要求が送信されるように構築する必要がある。また、このようなユーザインターフェイス機能を与えることを考えると、検索地域範囲表示のWebページについては、例えばJava(登録商標)アプレットといわれるプログラムとして作成することも有効である。Javaアプレットとは、周知のようにして、Javaといわれるプログラミング言語により作成され、JavaソフトウェアがインストールされたWebブラウザ上で実行されるプログラムである。   Then, in the next step S112, the search processing unit 52 uses the acquired partial map information to create a Web page for the search area range display illustrated in FIG. The search area range display web page may be created as content data using, for example, a document such as HTML, but the search area designation displayed on the map image is particularly relevant to the search area range display web page. Constructed so that the size of the frame MR can be changed according to the user operation, and a new search condition is set according to the size of the changed search range designation frame MR and a search request is transmitted. There is a need to. In consideration of providing such a user interface function, it is also effective to create a search area range display Web page as a program called a Java (registered trademark) applet, for example. As is well known, a Java applet is a program that is created in a programming language called Java and that is executed on a Web browser on which Java software is installed.

上記のようにして作成された検索地域範囲表示のWebページデータは、ステップS113により、PC2に対して送信する。PC2では、送信されてきた検索地域範囲表示のWebページデータを受信して、Webブラウザ34aに渡す。Webブラウザ34aは、このWebページデータについて処理を実行することで、例えば図2(b)に示すようにして検索地域範囲表示を行うようにされる。   The search area range display Web page data created as described above is transmitted to the PC 2 in step S113. The PC 2 receives the Web page data for the search area range display that has been transmitted and passes it to the Web browser 34a. The Web browser 34a performs processing on the Web page data, thereby displaying the search area range as shown in FIG. 2B, for example.

続いては、先に図3により説明したようにして、Webブラウザにより表示される検索地域範囲表示上の検索範囲指定枠MRのサイズの変更操作が行われるのに応じて、検索画像リスト表示に表示される検索結果(画像ファイルのリストの内容)を変更するための手順について、図8を参照して説明する。
この場合には先ず、検索範囲指定枠MRのサイズを変更する操作が行われるのに応じて、ステップS201としての手順により、ユーザインターフェイスから操作に応じた命令がWebブラウザに出力される。この命令の入力に応じて、Webブラウザでは、例えば図2(b)から図3(a)への遷移例として示したように、実際に表示させている検索地域範囲表示上の検索範囲指定枠MRのサイズを変更させるための画像処理を実行する。
Subsequently, as described above with reference to FIG. 3, the search image list display is performed in response to an operation for changing the size of the search range designation frame MR on the search region range display displayed by the Web browser. A procedure for changing the displayed search result (the contents of the list of image files) will be described with reference to FIG.
In this case, first, in response to an operation for changing the size of the search range designation frame MR, a command corresponding to the operation is output from the user interface to the Web browser according to the procedure as step S201. In response to the input of this command, in the Web browser, for example, as shown as a transition example from FIG. 2B to FIG. Image processing for changing the MR size is executed.

次に、Webブラウザは、ステップS202としての手順により、上記ステップ201で変更された検索範囲指定枠MRのサイズに応じた検索地域範囲を設定し、この検索地域範囲の情報を検索サーバ3に対して送信する。この段階での検索地域範囲の情報の実体としては、例えば、地図画像に対応つけられた位置情報に基づいて表現されるものであってもよいのであるが、ここでは、例えば地図画像としてみた場合の画像上での座標により表現されるものとする。つまり、Webブラウザからは、地図情報ベースでの検索地域範囲の情報を送信する。
仮に、このステップS201で設定、送信する検索地域範囲を位置情報に基づくものとした場合には、先の図7のステップS112により作成する検索地域範囲表示のWebページについて、地図画像の座標に対応させて位置情報を付加する必要があり、Webページのデータサイズが増加してネットワーク伝送時間などの点で不利となることが考えられる。また、このような検索地域範囲表示のWebページデータをWebブラウザが実行しようとすれば、その処理も重くなり、動作速度などの点で不利となることが考えられる。
Next, the Web browser sets a search area range according to the size of the search range designation frame MR changed in step 201 by the procedure as step S202, and sends information on this search area range to the search server 3. To send. The entity of the search area range information at this stage may be expressed based on the position information associated with the map image, for example, but here, for example, when viewed as a map image It is assumed that it is expressed by the coordinates on the image. That is, information on the search area range based on the map information is transmitted from the Web browser.
If the search area range to be set and transmitted in step S201 is based on position information, the search area range display Web page created in step S112 of FIG. 7 corresponds to the coordinates of the map image. Therefore, it is necessary to add location information, and the data size of the Web page increases, which may be disadvantageous in terms of network transmission time. In addition, if the Web browser tries to execute Web page data displaying such a search area range, the processing becomes heavy, which may be disadvantageous in terms of operation speed.

検索サーバ3は、上記ステップS202により送信されてきた検索地域範囲の情報を受信すると、これを検索処理部52に渡す。すると検索処理部52では、次のステップS203、S204としての手順により、この受け渡された地図画像の座標により表現される検索地域範囲の情報を、地図データベース53bの地図情報と照らし合わせることで、その座標を、位置情報に置き換えたものを取得する。つまり、検索地域範囲を、地図画像の座標により表現されるものから、位置情報により表現されるものに変換する。   When the search server 3 receives the search area range information transmitted in step S202, the search server 3 passes this information to the search processing unit 52. Then, the search processing unit 52 compares the search area range information expressed by the coordinates of the received map image with the map information of the map database 53b by the procedure as the next steps S203 and S204. The coordinate is replaced with position information. That is, the search area range is converted from one represented by the coordinates of the map image to one represented by the position information.

次に検索処理部52は、ステップS205、S206の手順により、上記ステップS205により得られた位置情報ベースの検索地域範囲のデータを検索条件として、地図データベース53bから画像ファイルを検索し、検索した画像ファイルと、これらの画像ファイルのリンク情報を取り込む。なお、このステップS205、S206は、先の図7におけるステップS106,S107とほぼ同様となるものである。
次に、検索処理部52は、ステップS207、S208により、上記ステップS205にて取り込んだ画像ファイルとそのリンク情報を利用して、検索画像リスト表示のWebページデータを作成し、PC2に対して送信する。なお、このステップS207、S208の手順については、先の図7のステップS108、S109と同様の処理により実行されるものであればよい。
そしてPC2では、上記ステップS208により送信された検索画像リスト表示のWebページデータを受信してWebブラウザに渡す。Webブラウザでは、このWebページデータを処理することで、例えば図2(a)に示したようにして表示されていた検索画像リスト表示を、図3(b)に示すようにして、変更後の検索範囲指定枠MRのサイズに応じた内容に切り換えて表示するようにされる。
Next, the search processing unit 52 searches for an image file from the map database 53b by using the location information-based search area range data obtained in step S205 according to the procedures of steps S205 and S206, and searches the image file. The file and link information of these image files are captured. Note that steps S205 and S206 are substantially the same as steps S106 and S107 in FIG.
Next, in steps S207 and S208, the search processing unit 52 uses the image file captured in step S205 and its link information to create Web page data for display of the search image list and transmits it to the PC 2. To do. Note that the procedures in steps S207 and S208 only need to be executed by the same processing as steps S108 and S109 in FIG.
The PC 2 receives the search image list display Web page data transmitted in step S208 and passes it to the Web browser. In the Web browser, by processing this Web page data, for example, the search image list display that has been displayed as shown in FIG. 2A is changed to that after the change as shown in FIG. The display is switched to the content corresponding to the size of the search range designation frame MR.

ところで、これまでの説明から理解されるように、本実施の形態の検索サービスを実現するためには、検索サーバ3において、位置情報が付加された画像ファイルが蓄積されることが前提になる。そこで、検索サーバ3が位置情報の付加された画像ファイルを収集するためのモデルの一例について、図9を参照して説明しておくこととする。   By the way, as understood from the above description, in order to realize the search service of the present embodiment, it is premised that the search server 3 stores image files to which position information is added. Therefore, an example of a model for the search server 3 to collect image files to which position information is added will be described with reference to FIG.

図9には、不特定多数の一般ユーザが使用する撮像装置として、ビデオカメラ100、デジタルスチルカメラ200が示されている。これらのビデオカメラ100、デジタルスチルカメラ200には、それぞれ、GPSモジュールが内蔵されている。ここでいうGPSモジュールとは、GPSの衛星から送出される電波を受信して測位演算を実行し、測位情報を取得することのできる部品装置である。
このようにしてGPSモジュールを内蔵することで、ビデオカメラ100、及びデジタルスチルカメラ200は、例えば複数のGPS衛星(300A,300B,300C)から電波を受信し、所定の測位方式により測位演算を行い、測位情報として少なくとも現在の位置情報を取得することができる。
そして、ビデオカメラ100、デジタルスチルカメラ200では、ユーザが撮像記録の操作を行うのに応じて、撮像により得られた画像データを、自身が内蔵する記憶媒体、あるいは装填されたリムーバブルの記憶媒体に対して、例えばファイル単位で記憶させる。このようにして記憶される画像データのファイル(画像ファイル)は、例えば画像データの内容や撮影時の状況などに関連した所定の情報項目を有するメタデータ(付加情報)が付加される構造を有するものとされるが、この場合には、このメタデータの構造内にGPSモジュールにより取得された位置情報を含むものとされる。
つまり、これらの撮像装置(ビデオカメラ100、デジタルスチルカメラ200)によっては、先に図6に示した構造の画像ファイルが得られるものとされる。
FIG. 9 shows a video camera 100 and a digital still camera 200 as imaging devices used by an unspecified number of general users. These video camera 100 and digital still camera 200 each have a built-in GPS module. The GPS module here is a component device that can receive radio waves transmitted from GPS satellites, execute positioning calculations, and acquire positioning information.
By incorporating the GPS module in this way, the video camera 100 and the digital still camera 200 receive radio waves from, for example, a plurality of GPS satellites (300A, 300B, 300C), and perform a positioning calculation by a predetermined positioning method. At least current position information can be acquired as positioning information.
Then, in the video camera 100 and the digital still camera 200, the image data obtained by imaging is stored in a storage medium built in itself or a removable storage medium loaded in response to a user performing an imaging recording operation. On the other hand, for example, it is stored in units of files. The image data file (image file) stored in this way has a structure to which, for example, metadata (additional information) having predetermined information items related to the contents of the image data or the situation at the time of shooting is added. In this case, the position information acquired by the GPS module is included in the structure of the metadata.
That is, depending on these imaging devices (video camera 100, digital still camera 200), an image file having the structure shown in FIG. 6 can be obtained.

そして、ユーザは、撮像装置により撮影記録して得た画像ファイルを、ネットワーク経由で検索サーバ3に対してアップロードするようにして送信するようにされる。検索サーバ3では、このようにして送信されてきた画像ファイルを、先に説明したように、画像ファイルデータベース53aによりデータベース化して保存するようにされる。   Then, the user transmits the image file obtained by photographing and recording with the imaging device by uploading it to the search server 3 via the network. In the search server 3, the image file transmitted in this way is stored in a database by the image file database 53a as described above.

なお、検索サーバ3が、位置情報の付加された画像ファイルを収集するモデルとしては、これ以外にも考えられるものである。例えば、インターネット上で公開されるWebページとして、そのWebページに貼り付けられたりリンクが張られたりする画像ファイルについて、例えばファイル名などと同様に、メタ情報もHTMLなどのソースに反映されるような形式とする。そのうえで、例えば検索ロボットなどによりインターネット上を巡回させることで、画像ファイルの所在と、その位置情報を取得し、画像ファイルデータベース53aとして構築するものである。この場合、ファイルの実体は画像ファイルデータベース53aには存在させる必要はないが、これまでの説明に準じた検索サーバ3の検索処理を実現することは、例えばこれまでに知られている多くのネットワーク検索システムの技術を応用することで容易に可能である。   In addition, the search server 3 can be considered as a model for collecting image files to which position information is added. For example, for an image file that is pasted or linked as a Web page published on the Internet, meta information is reflected in a source such as HTML as well as a file name, for example. Format. In addition, for example, the location of the image file and its position information are acquired by patroling the Internet with a search robot or the like, and the image file database 53a is constructed. In this case, the file entity does not need to exist in the image file database 53a. However, to realize the search processing of the search server 3 according to the above description, for example, many networks known so far This can be done easily by applying search system technology.

また、補足として、図10により、上記図9に示したビデオカメラ100又はデジタルスチルカメラ200などとしての撮像装置の構成例について説明しておく。この図には、撮像装置の構成として、撮像画像の記録に対応した構成を抜き出して示している。図中に示される実線の矢印は、ビデオ信号、オーディオ信号、またはメタ情報などの、ストレージ部において記録媒体(記憶媒体)に書き込んで記憶させるべきユーザデータとなる情報の流れを示している。また、白抜きの矢印は、各種制御のための情報の流れを示している。
この図に示す撮像装置1において、撮像部11は、例えば光学系(撮像用光学系)、撮像デバイス、及び圧縮符号化前までの画像信号処理系などから成る。光学系は、撮像のためのレンズから成るレンズユニット、絞りなどからなる。また、レンズユニットにおいては、フォーカス(焦点)調整のためのフォーカスレンズや、ズーム(画角)調整のためのズームレンズを備える。撮像部11は、焦点調整のために、フォーカスレンズを光軸方向に沿って移動させるためのギヤ、モータなどから成るフォーカスレンズ駆動機構を備える。また、ズーム調整のために、ズームレンズを光軸方向に沿って移動させるためのギヤ、モータなどから成るズームレンズ駆動機構を備える。
As a supplement, a configuration example of the imaging apparatus as the video camera 100 or the digital still camera 200 shown in FIG. 9 will be described with reference to FIG. In this figure, as a configuration of the imaging apparatus, a configuration corresponding to recording of a captured image is extracted and shown. A solid line arrow shown in the drawing indicates a flow of information, such as a video signal, an audio signal, or meta information, which becomes user data to be written and stored in a recording medium (storage medium) in the storage unit. White arrows indicate the flow of information for various controls.
In the imaging apparatus 1 shown in this figure, the imaging unit 11 includes, for example, an optical system (imaging optical system), an imaging device, an image signal processing system before compression coding, and the like. The optical system includes a lens unit including a lens for imaging, a diaphragm, and the like. In addition, the lens unit includes a focus lens for focus adjustment and a zoom lens for zoom (field angle) adjustment. The imaging unit 11 includes a focus lens driving mechanism including a gear, a motor, and the like for moving the focus lens along the optical axis direction for focus adjustment. In addition, a zoom lens driving mechanism including a gear, a motor, and the like for moving the zoom lens along the optical axis direction for zoom adjustment is provided.

撮像部11において、上記光学系により得られた撮像光は、撮像デバイスが備える光電変換素子ユニット上にて結像されて電気信号に変換される。光電変換素子としては、CCD(Charge Coupled Device)やCMOSなどを挙げることができる。
撮像部11では、撮像デバイスから出力された電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理など施したうえでデジタル信号に変換し、デジタル信号処理による所定の画像信号処理を施す。この画像信号処理としては、例えば上記デジタル信号から、撮像画像に対応するデジタルビデオ信号を得ることをはじめとして、所要のデジタル信号処理を実行する。
In the imaging unit 11, the imaging light obtained by the optical system is imaged on a photoelectric conversion element unit provided in the imaging device and converted into an electrical signal. Examples of the photoelectric conversion element include a CCD (Charge Coupled Device) and a CMOS.
In the imaging unit 11, the electrical signal output from the imaging device is subjected to, for example, CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, etc., and converted to a digital signal, and a predetermined image signal by digital signal processing is converted. Apply processing. As this image signal processing, for example, necessary digital signal processing is executed including obtaining a digital video signal corresponding to a captured image from the digital signal.

また、撮像部11では、信号処理として、カメラ制御部18がカメラ制御のために利用する所要の制御パラメータ生成などに応じた所要の信号処理を実行する。ここでカメラ制御部18が実行すべきカメラ制御としては、AF(Auto Focus:自動焦点調整)制御、露出制御、ホワイトバランス処理、手ぶれ補正などを挙げることができる。これらのカメラ制御技術については、周知の技術が採用されればよい。   Further, in the imaging unit 11, as signal processing, required signal processing according to generation of required control parameters used by the camera control unit 18 for camera control is executed. Here, examples of camera control to be executed by the camera control unit 18 include AF (Auto Focus) control, exposure control, white balance processing, camera shake correction, and the like. As these camera control techniques, known techniques may be employed.

また、本実施の形態の撮像装置1には、位置検出部2が設けられる。
位置検出部2は、例えばGPS(Global Positioning System)モジュールなどのデバイスから成り、例えば、現在時点における位置を検出する。このようにして検出される位置情報は、例えば緯度、経度などにより表される。本実施の形態の場合、この位置検出部2により検出された位置情報は、カメラ制御部18に入力されるようになっている。
本実施の形態において、上記のようにして取得される位置情報は、ストレージ部17に記憶させるべき撮像画像データのファイルに付加すべき情報として利用するようにされる。つまり、図6に示したように、画像データのメタデータ部に格納すべき位置情報として利用する。なお、位置情報は、これ以外の用途に利用されてもよいものである。また、位置検出部2としては、GPSを備えるもの以外であっても、現在位置の情報を取得できる構成を採るものであればよい。
Also, the imaging apparatus 1 of this embodiment, is provided a position detection unit 2 1.
Position detection unit 2 1, for example, a device such as a GPS (Global Positioning System) module, for example, to detect the position at the current time point. The position information detected in this way is represented by, for example, latitude and longitude. In this embodiment, the position information detected by the position detection unit 2 1, are inputted to the camera control unit 18.
In the present embodiment, the position information acquired as described above is used as information to be added to a file of captured image data to be stored in the storage unit 17. That is, as shown in FIG. 6, it is used as position information to be stored in the metadata portion of the image data. Note that the position information may be used for other purposes. As the position detection unit 2 1, be other than comprising a GPS, as long as it employs a configuration can obtain the information of the current position.

また、撮像部11にて最終的に得られたデジタルビデオ信号は、ビデオ圧縮処理部12に対して入力される。ビデオ圧縮処理部12では、入力されたビデオ信号について所定方式に従った圧縮符号化を施す。例えば、現状においては、動画であれば、MPEG関連のフォーマットなどをはじめとする動画像情報の圧縮符号化方式を採用することができる。また、静止画であれば、JPEG形式などをはじめとする各種の静止画像圧縮符号化方式を採用できる。
ビデオ圧縮処理部12により圧縮符号化が施されることで得られた動画あるいは静止画の画像データは、多重化処理部15に出力される。
The digital video signal finally obtained by the imaging unit 11 is input to the video compression processing unit 12. The video compression processing unit 12 performs compression coding according to a predetermined method on the input video signal. For example, at present, a moving image information compression coding system including MPEG related formats can be adopted for moving images. For still images, various still image compression encoding methods such as JPEG format can be adopted.
The moving image or still image data obtained by the compression encoding by the video compression processing unit 12 is output to the multiplexing processing unit 15.

また、収音部13は、所定本数のマイクロフォンと、このマイクロフォンにより収音して得られた音声信号について、圧縮符号化前までの所定の信号処理を施すオーディオ信号処理系とを備えて構成される。また、この場合には、収音部13においては、所定の信号処理段階にて、オーディオ信号をアナログからデジタル形式に変換するものとされる。
収音部13から出力されたデジタルオーディオ信号は、オーディオ圧縮処理部14に対して出力される。
オーディオ圧縮処理部14は、ビデオ圧縮処理部12の画像圧縮符号化方式に対応する音声圧縮符号化の処理を実行し、多重化処理部15に出力する。なお、動画記録の場合には、ビデオ圧縮処理部12とオーディオ圧縮処理部14は、いわゆるリップシンクが保たれるようにして圧縮符号化処理を実行して、それぞれ圧縮符号化されたビデオ信号(圧縮ビデオデータ)、オーディオ信号(圧縮オーディオデータ)を出力する。
The sound collection unit 13 includes a predetermined number of microphones and an audio signal processing system that performs predetermined signal processing before compression coding on a sound signal obtained by collecting the sound with the microphones. The In this case, the sound collection unit 13 converts the audio signal from analog to digital format at a predetermined signal processing stage.
The digital audio signal output from the sound collection unit 13 is output to the audio compression processing unit 14.
The audio compression processing unit 14 executes audio compression encoding processing corresponding to the image compression encoding method of the video compression processing unit 12 and outputs the result to the multiplexing processing unit 15. In the case of moving image recording, the video compression processing unit 12 and the audio compression processing unit 14 execute compression encoding processing so as to maintain a so-called lip sync, and each of the compressed encoded video signals ( Compressed video data) and audio signals (compressed audio data) are output.

カメラ制御部18は、先に説明したAF制御、ズーム制御などに代表される、撮像部11においてカメラユニットを構成するとされる部位についての所定の制御機能をまとめて示す部位である。また、このカメラ制御部18において得られた所定の制御結果などの情報は、メタデータ制御部20が取り込んで、メタデータの生成に使用するようにもされる。
ビデオ制御部23は、ビデオ圧縮処理部12における信号処理動作が適正に実行されるように各種の制御を行う。例えば、ビデオ信号処理部12からデータを取り込んで、圧縮処理のための動き検出などの各種検出処理、演算処理などを実行し、その検出結果や演算結果に応じて、ビデオ信号処理部12における信号処理についての所要の制御等を行うようにされる。また、ビデオ制御部23において得られた所定項目についての検出結果や、制御結果などの情報は、メタデータ制御部20が取り込んで管理情報の生成に使用することができる。
オーディオ制御部19は、この場合には、オーディオ信号処理動作についての各種制御を実行する。このために、オーディオ制御部19は、例えば収音部13の信号処理結果などに応じて出力される所定の情報に基づいて、オーディオ圧縮処理部14の信号処理動作を制御するようにされる。また、このオーディオ制御部19において得られた所定の制御結果などの情報も、メタデータ制御部20が取り込んでメタデータの生成に使用することができる。
The camera control unit 18 is a part that collectively represents a predetermined control function for a part that constitutes a camera unit in the imaging unit 11, represented by the AF control, zoom control, and the like described above. Further, information such as a predetermined control result obtained by the camera control unit 18 is taken in by the metadata control unit 20 and used for generating metadata.
The video control unit 23 performs various controls so that the signal processing operation in the video compression processing unit 12 is appropriately executed. For example, data is fetched from the video signal processing unit 12, various detection processes such as motion detection for compression processing, arithmetic processing, and the like are executed. Necessary control for processing is performed. Information such as detection results and control results for the predetermined items obtained in the video control unit 23 can be captured by the metadata control unit 20 and used to generate management information.
In this case, the audio control unit 19 executes various controls for the audio signal processing operation. For this purpose, the audio control unit 19 controls the signal processing operation of the audio compression processing unit 14 based on, for example, predetermined information output according to the signal processing result of the sound collection unit 13 or the like. Information such as a predetermined control result obtained in the audio control unit 19 can also be taken in by the metadata control unit 20 and used to generate metadata.

ユーザインターフェイス制御部22は、撮像装置が備えるとされる各種の操作子などに対して行われた所定操作により得られた操作情報を取り込んで、撮像装置が操作に応じた適正な動作を実行できるように、操作情報を処理するための部位とされる。ユーザインターフェイス制御部22は、所定の操作に応じて得られた操作情報を、ここで図示している各機能部位における所要の部位に対して伝送するようにされる。   The user interface control unit 22 can acquire operation information obtained by a predetermined operation performed on various operators and the like that are provided in the imaging apparatus, and the imaging apparatus can execute an appropriate operation according to the operation. As described above, it is a part for processing operation information. The user interface control unit 22 is configured to transmit operation information obtained in response to a predetermined operation to a required part in each functional part illustrated here.

メタデータ制御部20は、図2に例示したように、画像データに付随させるべきメタデータ部としての情報(メタデータ)を生成する。メタデータ制御部20は、これまでに説明したように、管理情報の生成にあたって、例えばカメラ制御部18、オーディオ制御部19、及びビデオ圧縮処理部12などから出力される所定の制御情報、検出結果などの情報を利用して、位置検出部2にて検出された位置情報の他、撮影日時等をはじめとする各種のメタデータの情報項目を収集、生成する。そして、これらの情報項目を所定のデータ構造に格納するようにしてメタデータとしての情報単位を得る。 As illustrated in FIG. 2, the metadata control unit 20 generates information (metadata) as a metadata unit to be attached to the image data. As described above, the metadata control unit 20 generates predetermined control information and detection results output from, for example, the camera control unit 18, the audio control unit 19 , and the video compression processing unit 12 when generating management information. using information such as, other detected position information by the position detection unit 2 1, it collects information items of various metadata including the shooting date and time, to generate. These information items are stored in a predetermined data structure to obtain an information unit as metadata.

多重化処理部15には、動画又は静止画としての圧縮符号化データ(動画記録の場合には、圧縮オーディオデータも含まれる)と、メタデータの情報とが入力されることになる。そこで、多重化処理部15としては、動画又は静止画の圧縮符号化データと、メタデータとについて、例えば所要の多重化処理、合成処理などを施すことで、図2に示したような、画像データ部とメタデータ部とから成るデータ構造に応じた画像データを生成する。そして、このようにして生成された画像データについて、例えばストレージ部17としての記録フォーマットに適合する記録符号化などを施して記録データを生成し、この記録データをバッファ部16に転送して蓄積させる。   The multiplex processing unit 15 receives compressed encoded data as a moving image or a still image (including compressed audio data in the case of moving image recording) and metadata information. Therefore, the multiplexing processing unit 15 performs, for example, necessary multiplexing processing, composition processing, and the like on the compressed encoded data of the moving image or the still image and the metadata, so that the image as shown in FIG. Image data corresponding to a data structure including a data part and a metadata part is generated. Then, the image data generated in this way is subjected to, for example, recording encoding suitable for the recording format as the storage unit 17 to generate recording data, and the recording data is transferred to the buffer unit 16 to be accumulated. .

バッファ部16では、蓄積された記録データの所定量をストレージ部17に転送して書き込みを行う。このようにして、逐次、データの記録が行われていくことで、例えば図2に示した画像データが記録される。
ストレージ部17の具体的な構成としては、所定の記録媒体(記憶媒体)と、この記録媒体に対応したデータ記録(及び再生)が可能なドライブなどを備える。この場合において、記録媒体は、例えばリムーバブルであってもよいし、例えばHDD(ハードディスク)などのようにドライブとともに固定的に実装されるものであってもよい。
また、ストレージ部17の記録フォーマットとしては、例えばストレージ部17がDVD(Digital Versatile Disc)に対応しているものとすれば、DVD−Video、DVD−VR(Video Recording)などの、いわゆるDVDフォーマットを採用することになる。
The buffer unit 16 transfers a predetermined amount of the accumulated recording data to the storage unit 17 for writing. Thus, the image data shown in FIG. 2, for example, is recorded by sequentially recording data.
The specific configuration of the storage unit 17 includes a predetermined recording medium (storage medium) and a drive capable of recording (and reproducing) data corresponding to the recording medium. In this case, the recording medium may be removable, for example, or may be fixedly mounted together with a drive such as an HDD (hard disk).
As the recording format of the storage unit 17, for example, if the storage unit 17 is compatible with DVD (Digital Versatile Disc), a so-called DVD format such as DVD-Video or DVD-VR (Video Recording) is used. Will be adopted.

データインターフェイス24は、撮像装置1と外部デバイスとの間で所定のデータ通信方式により外部デバイスと通信を行うためのハードウェア、ソフトウェアを実装して構成される部位である。この通信部16が対応するデータ通信方式としては、有線、無線を問わず特に限定されるべきものではなく、また、対応するデータ通信方式の数も限定されるべきものでない。現状であれば、データ通信方式としては、有線ではUSB(Universal Serial Bus)、IEEE1394、SCSI(Small Computer System Interface)などのデータバス規格などを挙げることができる。また、無線であれば、Bluetooth(登録商標)などのデバイス間近距離無線通信規格を挙げることができる。本実施の形態では、このデータインターフェイス24を利用するデータ通信により、ストレージ部17に記憶される画像データのファイルを通信バス経由で外部に送出できるようにされる。   The data interface 24 is a part configured by mounting hardware and software for communicating with an external device by a predetermined data communication method between the imaging apparatus 1 and the external device. The data communication system supported by the communication unit 16 is not particularly limited regardless of whether it is wired or wireless, and the number of corresponding data communication systems should not be limited. At present, as a data communication system, data bus standards such as USB (Universal Serial Bus), IEEE1394, and SCSI (Small Computer System Interface) can be cited as a data communication system. For wireless communication, a short-range wireless communication standard between devices such as Bluetooth (registered trademark) can be cited. In the present embodiment, the image data file stored in the storage unit 17 can be transmitted to the outside via the communication bus by data communication using the data interface 24.

なお、この図に示す構成は、撮像装置として録画(及び録音)に関する機能をブロック構成により示しているものであり、実際のハードウェア構成とは異なる。実際としては、例えば撮像素子により撮像を行う部位と、マイクロフォンなどにより収音を行う部位と、これらの部位により得られたビデオ信号、オーディオ信号をデジタル信号に変換して、所定のデジタル信号処理、符号化処理、多重化処理などを実行するプロセッサと、所定の記録媒体に対応するドライブと、CPU、ROM、RAMなどから成り、各種所要の制御処理を実行するマイクロコンピュータなどから成るものである。   Note that the configuration shown in this figure is a block diagram showing functions related to recording (and recording) as an imaging device, and is different from the actual hardware configuration. Actually, for example, a part to be imaged by an image sensor, a part to collect sound by a microphone, etc., and a video signal and an audio signal obtained by these parts are converted into digital signals, and predetermined digital signal processing, It consists of a processor that executes encoding processing, multiplexing processing, a drive corresponding to a predetermined recording medium, a CPU, ROM, RAM, and the like, and a microcomputer that executes various required control processing.

また、本願発明としては、これまでに説明した実施の形態としての内容に限定されるものではなく、適宜変更が可能とされる。
例えば、実施の形態においては、説明を簡単にすることの便宜上、検索対象となる情報は、撮像装置により撮影記録されることにより得られる写真画像であることとしている。つまり、撮像記録された静止画像のデータファイルである。しかしながら、図9においてビデオカメラ100も示されていることからわかるように、撮影記録された動画像のデータファイルとされてもよい。動画像ファイルの場合にも、例えばそのデータ内容から、静止画あるいは動画によるサムネイル画像を生成して、検索画像リスト表示のWebページを作成することは可能である。
さらに、検索対象となる情報は、描画処理などにより作成したものなど、撮影記録によるもの以外の画像ファイルとされても良いものである。この場合には、撮影記録と同時に位置情報を付加するのに代えて、その画像ファイルの作成過程、あるいは、作成後において、位置情報を付加するための編集作業を行うようにすればよい。また、画像ファイル以外にも、例えば文書ファイルなどをはじめ、他の種別形式のものであってもよい。つまり、本願発明としての検索対象情報は、画像、文書を始め、検索サービスを利用するユーザにとって有意、有用な情報内容を持つものであればよい。なお、このような撮像画像以外の検索対象の情報に対して位置情報を付加する場合には、その位置情報が、作成された場所、あるいはその情報内容に応じた場所などを示すものとした扱いにすることが有用であると考えられる。
また、実施の形態にあっては、PCから検索サーバ3に対してネットワーク経由でアクセスして検索を行うシステム構成を例としているが、例えば、PCなどのコンピュータシステムにおいて、画像ファイルデータベース53a及び地図データベース53bに相当するものを実装させることとすれば、そのコンピュータシステムのローカル内で完結した画像検索システムを構築することも可能である。
また、本願発明としては、検索を行うユーザが自身の意図により入力する仮検索条件を文字列情報としているが、位置情報を除いたうえで、文字列以外の所定種類、形式の情報とすることも考えられる。
Further, the present invention is not limited to the contents as the embodiment described so far, and can be appropriately changed.
For example, in the embodiment, for the sake of simplicity, the information to be searched is a photographic image obtained by being recorded by an imaging device. That is, it is a data file of a still image that has been captured and recorded. However, as can be seen from the fact that the video camera 100 is also shown in FIG. 9, it may be a data file of a moving image recorded and recorded. Even in the case of a moving image file, for example, it is possible to generate a thumbnail image of a still image or a moving image from the data content and create a Web page for displaying a search image list.
Further, the information to be searched for may be an image file other than that obtained by shooting and recording, such as information created by drawing processing or the like. In this case, instead of adding position information at the same time as shooting and recording, an editing operation for adding position information may be performed in the process of creating the image file or after creation. In addition to the image file, other types such as a document file may be used. That is, the search target information as the invention of the present application may be any information that has significant and useful information content for users using the search service, including images and documents. In addition, when position information is added to information to be searched other than such captured images, the position information is treated as indicating the created location or the location according to the information content. It is thought that it is useful.
In the embodiment, a system configuration in which a search is performed by accessing the search server 3 from a PC via a network is taken as an example. For example, in a computer system such as a PC, the image file database 53a and the map If a database equivalent to the database 53b is installed, it is possible to construct a complete image search system within the local computer system.
In the present invention, the temporary search condition input by the user who performs the search by his / her own intention is the character string information. However, the position information is excluded and the information is of a predetermined type and format other than the character string. Is also possible.

1 撮像装置、2 パーソナルコンピュータ(PC)、3 検索サーバ、11 撮像部、12 ビデオ圧縮処理部、13 収音部、14 オーディオ圧縮部、15 多重化処理部、16 バッファ部、17 ストレージ部、18 カメラ制御部、19 オーディオ制御部、20 管理情報制御部、21 位置検出部、22 ユーザインターフェイス制御部、23 ビデオ制御部、24 データインターフェイス、31 CPU、32 ROM、33 RAM、34 HDD、34a Webブラウザ、35 操作入力処理部、36 表示出力処理部、37 メディアドライブ、38 データインターフェイス、39 ネットワークインターフェイス、40 内部バス、41 操作デバイス、42 表示デバイス、50 制御部、51 ネットワークインターフェイス、52 コンテンツ作成処理部、53 メタデータ処理部、53 記憶部、53a 画像ファイルデータベース、53b 地図データベース、54 内部バス DESCRIPTION OF SYMBOLS 1 Imaging device, 2 Personal computer (PC), 3 Search server, 11 Imaging part, 12 Video compression process part, 13 Sound collection part, 14 Audio compression part, 15 Multiplexing process part, 16 Buffer part, 17 Storage part, 18 Camera control unit, 19 audio control unit, 20 management information control unit, 21 position detection unit, 22 user interface control unit, 23 video control unit, 24 data interface, 31 CPU, 32 ROM, 33 RAM, 34 HDD, 34a Web browser 35 Operation input processing unit 36 Display output processing unit 37 Media drive 38 Data interface 39 Network interface 40 Internal bus 41 Operation device 42 Display device 50 Control unit 51 Network interface 52 Content creation Processing section, 53 metadata processing unit, 53 storage unit, 53a an image file database, 53b map database 54 internal bus

Claims (13)

情報端末と通信可能な検索装置が実行する検索方法であって、
上記情報端末から検索条件として受信した文字列情報に基づいて、検索地域範囲を決定する検索地域範囲決定手順と、
上記検索地域範囲決定手順により決定された上記検索地域範囲に基づいて地図情報を取得する地図情報取得手順と、
上記検索地域範囲決定手順により決定された上記検索地域範囲に基づいて位置情報が関連付けられた画像データを取得する画像データ取得手順と、
上記地図情報取得手順により取得された地図情報と、上記画像データ取得手順により取得された画像データを、上記情報端末の表示手段上に表示するための表示用データを生成する表示用データ生成手順と、
上記表示用データを上記情報端末に送信する送信手順と、を実行し、
上記表示用データが送信された後に、上記情報端末から検索地域範囲情報を受信した場合には、
上記情報端末から受信される検索地域範囲情報は、上記表示用データに基づいて上記情報端末上に表示される地図画像についての座標に対応する情報とされ、上記地図画像についての座標に対応する情報を位置情報に変換し、該変換された検索地域範囲情報を上記検索地域範囲決定手順で用いる検索地域範囲とする
検索方法。
A search method executed by a search device capable of communicating with an information terminal,
Based on the character string information received as the search condition from the information terminal, a search area range determination procedure for determining a search area range,
A map information acquisition procedure for acquiring map information based on the search region range determined by the search region range determination procedure;
An image data acquisition procedure for acquiring image data associated with position information based on the search region range determined by the search region range determination procedure;
A display data generation procedure for generating display data for displaying the map information acquired by the map information acquisition procedure and the image data acquired by the image data acquisition procedure on the display means of the information terminal; ,
A transmission procedure for transmitting the display data to the information terminal,
When the search area range information is received from the information terminal after the display data is transmitted,
The search area range information received from the information terminal is information corresponding to the coordinates about the map image displayed on the information terminal based on the display data, and the information corresponding to the coordinates about the map image. Is converted into position information, and the converted search area range information is used as a search area range used in the search area range determination procedure .
上記情報端末から受信される上記検索地域範囲情報は、上記表示用データに基づいて上記情報端末上に表示される地図画像に対し、画像を検索する地域範囲の拡大又は縮小を指示する操作に基づく検索地域範囲情報である
請求項1の検索方法。
The search area range information received from the information terminal is based on an operation for instructing the map image displayed on the information terminal based on the display data to expand or reduce the area range for searching for an image. The search method according to claim 1, which is search area range information.
上記表示用データは、上記文字列情報に対応する基準位置の情報を含み、
上記基準位置の情報は上記表示用データに基づいて上記情報端末上に表示される地図画像上に表示される
請求項1の検索方法。
The display data includes information on a reference position corresponding to the character string information,
The search method according to claim 1, wherein the reference position information is displayed on a map image displayed on the information terminal based on the display data.
上記検索地域範囲決定手順は、上記情報端末から受信した上記文字列情報の分類に基づいて上記検索地域範囲を決定する
請求項1の検索方法。
The search method according to claim 1, wherein the search area range determination procedure determines the search area range based on a classification of the character string information received from the information terminal.
上記表示用データは上記画像データ取得手順により取得された画像データのサムネイル画像を含む
請求項1の検索方法。
The search method according to claim 1, wherein the display data includes a thumbnail image of the image data acquired by the image data acquisition procedure.
上記表示用データは上記画像データ取得手順により取得された画像データへのリンク情報を含む
請求項1の検索方法。
The search method according to claim 1, wherein the display data includes link information to the image data acquired by the image data acquisition procedure.
情報端末から検索条件として受信した文字列情報に基づいて、検索地域範囲を決定する検索地域範囲決定手段と、
上記検索地域範囲決定手段により決定された上記検索地域範囲に基づいて地図情報を取得する地図情報取得手段と、
上記検索地域範囲決定手段により決定された上記検索地域範囲に基づいて位置情報が関連付けられた画像データを取得する画像データ取得手段と、
上記地図情報取得手段により取得された地図情報と、上記画像データ取得手段により取得された画像データを、上記情報端末の表示手段上に表示するための表示用データを生成する表示用データ生成手段と、
上記表示用データを上記情報端末に送信する送信手段とを備え、
上記表示用データが送信された後に、上記情報端末から検索地域範囲情報を受信した場合には、
上記情報端末から受信される検索地域範囲情報は、上記表示用データに基づいて上記情報端末上に表示される地図画像についての座標に対応する情報とされ、上記地図画像についての座標に対応する情報を位置情報に変換し、該変換された検索地域範囲情報を上記検索地域範囲決定手段で用いる検索地域範囲とする
検索装置。
Search area range determining means for determining a search area range based on character string information received as a search condition from an information terminal;
Map information acquisition means for acquiring map information based on the search area range determined by the search area range determination means;
Image data acquisition means for acquiring image data associated with position information based on the search area range determined by the search area range determination means;
Display data generation means for generating display data for displaying the map information acquired by the map information acquisition means and the image data acquired by the image data acquisition means on the display means of the information terminal; ,
Transmission means for transmitting the display data to the information terminal,
When the search area range information is received from the information terminal after the display data is transmitted,
The search area range information received from the information terminal is information corresponding to the coordinates about the map image displayed on the information terminal based on the display data, and the information corresponding to the coordinates about the map image. A search device that converts the search area range information into a search area range that is used by the search area range determination means .
情報端末から検索条件として受信した文字列情報に基づいて、検索地域範囲を決定する検索地域範囲決定手順と、
上記検索地域範囲決定手順により決定された上記検索地域範囲に基づいて地図情報を取得する地図情報取得手順と、
上記検索地域範囲決定手順により決定された上記検索地域範囲に基づいて位置情報が関連付けられた画像データを取得する画像データ取得手順と、
上記地図情報取得手順により取得された地図情報と、上記画像データ取得手順により取得された画像データを、上記情報端末の表示手段上に表示するための表示用データを生成する表示用データ生成手順と、
上記表示用データを上記情報端末に送信する送信手順とを実行し、
上記表示用データが送信された後に、上記情報端末から検索地域範囲情報を受信した場合には、
上記情報端末から受信される検索地域範囲情報は、上記表示用データに基づいて上記情報端末上に表示される地図画像についての座標に対応する情報とされ、上記地図画像についての座標に対応する情報を位置情報に変換し、該変換された検索地域範囲情報を上記検索地域範囲決定手順で用いる検索地域範囲とする検索方法を検索装置に実行させる
プログラム。
A search area range determination procedure for determining a search area range based on character string information received as a search condition from an information terminal;
A map information acquisition procedure for acquiring map information based on the search region range determined by the search region range determination procedure;
An image data acquisition procedure for acquiring image data associated with position information based on the search region range determined by the search region range determination procedure;
A display data generation procedure for generating display data for displaying the map information acquired by the map information acquisition procedure and the image data acquired by the image data acquisition procedure on the display means of the information terminal; ,
A transmission procedure for transmitting the display data to the information terminal;
When the search area range information is received from the information terminal after the display data is transmitted,
The search area range information received from the information terminal is information corresponding to the coordinates about the map image displayed on the information terminal based on the display data, and the information corresponding to the coordinates about the map image. A program that causes a search device to execute a search method that converts a search area range information into a search area range that is used in the search area range determination procedure .
検索装置と通信可能な情報端末が実行する検索条件設定方法であって、
検索条件として入力された文字列情報を上記検索装置に送信する送信手順と、
上記検索装置から上記文字列情報に基づき決定される検索地域範囲に応じて取得された表示データである、地図情報と画像データとを受信する受信手順と、
表示手段に上記地図情報に対応した地図画像とともに上記画像データを表示する表示手順と、
上記表示手段上に表示された上記地図画像上で行われるユーザ操作により上記地図画像に対応した上記索地域範囲が変更された場合には、上記変更に応じた検索地域範囲情報として上記表示手段に表示される地図画像についての座標に対応する情報上記検索装置に新たな検索条件として送信する送信手順と、を実行する
検索条件設定方法。
A search condition setting method executed by an information terminal capable of communicating with a search device,
The character string information entered as a search condition and transmitting step of transmitting to said search device,
A display data acquired in response to a search area range determined on the basis of the character string information from the search device, a receiving step of receiving the map information and the image data,
A display procedure for displaying the image data together with a map image corresponding to the map information on a display means;
If the search area range corresponding to the map image by a user operation performed on the displayed the map image on said display means is changed, the display means as a search area range information corresponding to the change Search condition setting method information corresponding to the coordinates for the map image to be displayed to execute a transmitting step of transmitting as a new search condition to the search apparatus.
上記検索地域範囲の変更は、該検索地域範囲の拡大又は縮小である
請求項の検索条件設定方法。
The search condition setting method according to claim 9 , wherein the change of the search area range is expansion or reduction of the search area range.
上記示データは画像データのサムネイル画像を含む
請求項の検索条件設定方法。
The Display data retrieval condition setting method according to claim 9 including the thumbnail image of the image data.
検索条件として入力された文字列情報を検索装置に送信する送信手段と、
上記検索装置から上記文字列情報に基づき決定される検索地域範囲に応じて取得された表示データである、地図情報と画像データとを受信する受信手段と、
表示手段に上記地図情報に対応した地図画像とともに上記画像データを表示する表示制御手段とを備え、
上記検索地域範囲は可変可能とされ、上記可変後の検索地域範囲を上記表示手段に表示される地図画像についての座標に対応する情報として上記送信手段により上記検索装置に送信する
情報端末装置。
Transmission means for transmitting character string information input as a search condition to the search device;
A display data acquired in response to a search area range determined on the basis of the character string information from the search device, receiving means for receiving map information and the image data,
Display control means for displaying the image data together with a map image corresponding to the map information on the display means,
The search area range is variable, and the variable search area range is transmitted to the search apparatus by the transmission means as information corresponding to coordinates about a map image displayed on the display means .
検索条件として入力された文字列情報を検索装置に送信する送信手順と、
上記検索装置から上記文字列情報に基づき決定される検索地域範囲に応じて取得された表示データである、地図情報と画像データとを受信する受信手順と、
表示手段に上記地図情報に対応した地図画像とともに上記画像データを表示する表示手順と、
上記表示手段上に表示された上記地図画像上で行われるユーザ操作により上記地図画像に対応した上記索地域範囲が変更された場合には、上記変更に応じた検索地域範囲情報として上記表示手段に表示される地図画像についての座標に対応する情報上記検索装置に新たな検索条件として送信する送信手順と、を情報端末装置に実行させる
プログラム。
A transmission procedure for transmitting character string information input as a search condition to the search device;
A display data acquired in response to a search area range determined on the basis of the character string information from the search device, a receiving step of receiving the map information and the image data,
A display procedure for displaying the image data together with a map image corresponding to the map information on a display means;
If the search area range corresponding to the map image by a user operation performed on the displayed the map image on said display means is changed, the display means as a search area range information corresponding to the change program for executing a transmission step of transmitting information corresponding to the coordinates for the map image as a new search condition to the search apparatus to be displayed on the information terminal device.
JP2013189681A 2013-09-12 2013-09-12 Search method, search device, program, search condition setting method, information terminal device Active JP5664729B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013189681A JP5664729B2 (en) 2013-09-12 2013-09-12 Search method, search device, program, search condition setting method, information terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013189681A JP5664729B2 (en) 2013-09-12 2013-09-12 Search method, search device, program, search condition setting method, information terminal device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006036499A Division JP2007219615A (en) 2006-02-14 2006-02-14 Retrieval device, retrieval method, program

Publications (3)

Publication Number Publication Date
JP2014013600A JP2014013600A (en) 2014-01-23
JP2014013600A5 JP2014013600A5 (en) 2014-04-10
JP5664729B2 true JP5664729B2 (en) 2015-02-04

Family

ID=50109204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013189681A Active JP5664729B2 (en) 2013-09-12 2013-09-12 Search method, search device, program, search condition setting method, information terminal device

Country Status (1)

Country Link
JP (1) JP5664729B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101859050B1 (en) * 2016-06-02 2018-05-21 네이버 주식회사 Method and system for searching map image using context of image

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282813A (en) * 2000-03-29 2001-10-12 Toshiba Corp Multimedia data retrieval method, index information providing method, multimedia data retrieval device, index server and multimedia data retrieval server
JP2002203012A (en) * 2000-12-28 2002-07-19 Yamaha Motor Co Ltd Planning equipment, system and equipment for planning travel
JP2002350151A (en) * 2001-05-24 2002-12-04 Mitsubishi Electric Corp Navigation device
JP4409132B2 (en) * 2001-09-27 2010-02-03 株式会社リコー INFORMATION PROVIDING SYSTEM, INFORMATION SEARCH SERVER, ITS CLIENT, PORTABLE TELEPHONE, PORTABLE ELECTRONIC DEVICE, INFORMATION PROVIDING METHOD, CHARGE METHOD, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP3889268B2 (en) * 2001-11-09 2007-03-07 アルパイン株式会社 Peripheral facility search method and in-vehicle navigation device
JP2003241650A (en) * 2002-02-15 2003-08-29 Ntt Me Corp Device, method, and program for generating map information, and server system
JP2003209779A (en) * 2002-10-25 2003-07-25 Fuji Xerox Co Ltd Device for managing information
JP4037790B2 (en) * 2003-05-02 2008-01-23 アルパイン株式会社 Navigation device
JP2006018334A (en) * 2004-06-30 2006-01-19 Toshiba Corp Search coordination device, search coordination method and program
JP2006038529A (en) * 2004-07-23 2006-02-09 Noritsu Koki Co Ltd System and method for processing image
JP2007219615A (en) * 2006-02-14 2007-08-30 Sony Corp Retrieval device, retrieval method, program

Also Published As

Publication number Publication date
JP2014013600A (en) 2014-01-23

Similar Documents

Publication Publication Date Title
JP2007219615A (en) Retrieval device, retrieval method, program
US8295650B2 (en) Information processing apparatus and method, and program
JP5385598B2 (en) Image processing apparatus, image management server apparatus, control method thereof, and program
JP4333599B2 (en) Information processing apparatus and information processing method
US20040114042A1 (en) Systems and methods for annotating digital images
JP6223534B2 (en) Imaging device, imaging method, and imaging control program
Riggs et al. Image mapping through metadata
JP2010257215A (en) Digital camera and illustrative photographing/posting program
JP5664729B2 (en) Search method, search device, program, search condition setting method, information terminal device
JP2013179465A (en) Imaging apparatus and communication system
JP4821462B2 (en) Recording apparatus and method, reproducing apparatus and method, and program
US20070009228A1 (en) Information processing device and method, program recording medium, program, and imaging device
JP2005086265A (en) Mobile terminal, image data file management system, and image data file management method
JP5536003B2 (en) Movie editing apparatus, movie editing method, and program
JP6428877B2 (en) Electronic equipment, program and camera
JP2005217505A (en) Imaging apparatus, viewer software, communication software, and image management software
JP2005092281A (en) Image input device and information processor
JP2023009680A (en) Communication apparatus, control method, and program
JP2010074309A (en) Electronic camera and data processing system
JP5262695B2 (en) Information processing apparatus, information processing method, and program
JP2016136736A (en) Electronic apparatus and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R151 Written notification of patent or utility model registration

Ref document number: 5664729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250