JP2006309600A - Retrieval system - Google Patents

Retrieval system Download PDF

Info

Publication number
JP2006309600A
JP2006309600A JP2005133229A JP2005133229A JP2006309600A JP 2006309600 A JP2006309600 A JP 2006309600A JP 2005133229 A JP2005133229 A JP 2005133229A JP 2005133229 A JP2005133229 A JP 2005133229A JP 2006309600 A JP2006309600 A JP 2006309600A
Authority
JP
Japan
Prior art keywords
search
information
image
menu
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005133229A
Other languages
Japanese (ja)
Inventor
Junichi Ishibashi
純一 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005133229A priority Critical patent/JP2006309600A/en
Publication of JP2006309600A publication Critical patent/JP2006309600A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To photograph a retrieval object, and to remotely retrieve a name or the like of the object by easy operation. <P>SOLUTION: When retrieving information related to the retrieval object imaged by a photographing part 11, menu information for the retrieval is wirelessly transmitted to a camera 10 side from a server 20 side, retrieval category data, retrieval target image data and retrieval assistance information data of the retrieval object obtained by use of the menu information are wirelessly transmitted to the server 20 side from the camera 10 side. The server 20 retrieves name information or the like related to the retrieval object from a relation information DB part 24 by use of the retrieval category data, the retrieval target image data and the retrieval assistance information data received on the server 20 side, and a retrieval result is wirelessly transmitted to the camera 10 side from the server 20 side. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮影視野内にある対象物の名称を遠隔で検索する検索システムに関するものである。   The present invention relates to a retrieval system that remotely retrieves the name of an object in a field of view.

日常、カメラなどで撮影した対象物(被撮像物)がどのようなものであるか、その名称や種類などを知りたいことが多くある。しかし、通常、カメラで対象物を撮影し、その画像を表示しながら、インターネットのWebサイトを利用して検索したり、図鑑閲覧して検索したりして、その名称などを判断しようとしても、一般には困難を伴うことが多々ある。また、検索専用のコンピュータを用いて画像認識を行う画像検索装置もあるが、このような画像検索装置は、まだ限られた場所にあり、限られた人にしか使用できなかった。また、カメラの画像データを無線通信でデータ転送する技術もあるが、一般的には大規模な画像検索システムへはアクセスすることができず、画像検索が困難であった。   In many cases, it is often desirable to know what an object (object to be imaged) photographed with a camera or the like is, and its name and type. However, usually, the subject is photographed with a camera and the image is displayed while searching using an Internet website or browsing and searching a picture book to determine its name, There are often difficulties in general. There is also an image search apparatus that performs image recognition using a computer dedicated to search, but such an image search apparatus is still in a limited place and can be used only by a limited number of people. There is also a technique for transferring image data of a camera by wireless communication, but generally, a large-scale image search system cannot be accessed, and image search is difficult.

そこで、たとえば特許文献1に示すように、カメラで撮影した検索対象である対象物の画像の特徴部分をペン入力部で指定し、その属性情報を入力し、このペン入力部で指定した対象画像および属性情報と、画像データベースに蓄積されている部分画像とを比較することにより、この画像データベースから検索対象の画像認識を行うものがあった。   Therefore, for example, as shown in Patent Document 1, a feature portion of an image of a target object to be searched taken by a camera is designated by a pen input unit, its attribute information is input, and the target image designated by the pen input unit is designated. In addition, by comparing the attribute information with the partial images stored in the image database, the image database to be searched is recognized from the image database.

特開平10−254901号公報Japanese Patent Laid-Open No. 10-254901

しかしながら、この特許文献1の画像検索装置は、専用のスタンドアローンシステムであり、入力した画像部分ごとに繰り返し検索操作を行うことが可能であるが、離れた場所からの画像データの入力には適しておらず、遠隔から限られた省手順で手短な画像検索の操作を行えるものではなかった。   However, the image search device of Patent Document 1 is a dedicated stand-alone system, and can repeatedly perform a search operation for each input image portion, but is suitable for inputting image data from a remote place. It was not possible to perform a simple image search operation from a remote location with a limited number of procedures.

本発明は、上記問題に鑑みてなされたものであって、検索対象物を撮影し、その対象物の名称などを簡単な操作で遠隔から検索することができる検索システムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a search system capable of photographing a search object and remotely searching for the name of the object by a simple operation. To do.

上述した課題を解決し、目的を達成するために、本発明にかかる検索システムは、端末とサーバとで構成され、検索対象物に関する情報を検索する検索システムであって、前記端末は、検索対象物を撮像する撮像手段と、検索する際に用いる検索補助データを前記サーバから送信されたメニューを用いて入力する検索補助データ入力手段と、前記撮像手段が撮像した画像情報と共に前記検索補助データ入力手段で入力された検索補助データを前記サーバに対し送信する端末側送信手段と、前記サーバから送信されるメニュー情報および前記サーバで検索した検索結果に関する情報を受信する端末側受信手段と、前記端末側受信手段で受信した検索結果に関する情報を表示する表示手段と、を有し、前記サーバは、前記検索補助データ入力手段が用いるメニュー情報を前記端末に対して送信するメニュー送信手段と、前記端末側送信手段が送信した情報を受信する受信手段と、前記受信手段が受信した画像情報と検索補助データとを用いて検索対象物に関する情報を検索する検索手段と、前記検索手段が検索した検索結果に関する情報を前記端末に対して送信する検索結果送信手段と、を有することを特徴とする。   In order to solve the above-described problems and achieve the object, a search system according to the present invention includes a terminal and a server, and is a search system for searching for information related to a search target, wherein the terminal is a search target. Imaging means for imaging an object, search auxiliary data input means for inputting search auxiliary data used for searching using a menu transmitted from the server, and the search auxiliary data input together with image information captured by the imaging means Terminal-side transmission means for transmitting search auxiliary data input by the means to the server, terminal-side reception means for receiving menu information transmitted from the server and information related to search results searched by the server, and the terminal Display means for displaying information related to the search result received by the side receiving means, and the server includes the search auxiliary data input means. Search target using menu transmitting means for transmitting menu information to be used to the terminal, receiving means for receiving information transmitted by the terminal-side transmitting means, image information and search auxiliary data received by the receiving means Search means for searching for information related to an object, and search result transmitting means for transmitting information related to a search result searched by the search means to the terminal.

また、請求項2の発明にかかる検索システムは、上記発明において、前記メニュー送信手段が送信するメニュー情報は、検索対象物の全体または一部の形状、色、大きさ、数、向き及び全体に対する一部の画像の位置のうち少なくとも1つの検索補助データであることを特徴とする。   In the search system according to a second aspect of the present invention, in the above invention, the menu information transmitted by the menu transmission means corresponds to the shape, color, size, number, orientation, and whole of the whole or part of the search object. It is at least one search auxiliary data among the positions of some images.

また、請求項3の発明にかかる検索システムは、上記発明において、前記検索対象物の全体または一部の大きさを、前記撮像手段が有する撮像レンズのフォーカス距離情報と撮影レンズの画角情報とを用いて算出することを特徴とする。   According to a third aspect of the present invention, there is provided a search system according to the above-mentioned invention, wherein the whole or a part of the search target object is obtained by calculating the focus distance information of the imaging lens and the angle-of-view information of the photographing lens of the imaging means. It is characterized by calculating using.

また、請求項4の発明にかかる検索システムは、上記発明において、前記端末は端末の環境光に係るスペクトル情報を検出するセンサを更に有し、前記メニュー送信手段が送信するメニュー情報が色であった際、前記端末側送信手段は前記センサで検出した前記環境光に係るスペクトル情報も一緒に送信することを特徴とする。   According to a fourth aspect of the present invention, in the search system according to the fourth aspect, the terminal further includes a sensor for detecting spectrum information related to the ambient light of the terminal, and the menu information transmitted by the menu transmission means is color. In this case, the terminal-side transmission means also transmits spectrum information related to the ambient light detected by the sensor.

また、請求項5の発明にかかる検索システムは、上記発明において、前記メニュー情報には、検索対象物の一部の画像の情報を得るためのアプリケーションを含むことを特徴とする。   The search system according to the invention of claim 5 is characterized in that, in the above-mentioned invention, the menu information includes an application for obtaining information of a part of an image of the search object.

また、請求項6の発明にかかる検索システムは、上記発明において、前記メニュー送信手段が送信するメニュー情報は、検索対象物が属するカテゴリーを前記端末の操作者が選択することを可能とする検索カテゴリーメニューであることを特徴とする。   Further, in the search system according to the invention of claim 6, in the above invention, the menu information transmitted by the menu transmission means is a search category that allows an operator of the terminal to select a category to which a search object belongs. It is a menu.

また、請求項7の発明にかかる検索システムは、上記発明において、前記メニュー送信手段は、前記受信手段が受信した前記撮像手段が撮像した画像情報および前記検索補助データ入力手段で入力された検索補助データの少なくとも一方の情報に基づき、検索カテゴリーメニューを送信することを特徴とする。   According to a seventh aspect of the present invention, there is provided the search system according to the above invention, wherein the menu transmission means is a search auxiliary inputted by the image auxiliary means input by the image pickup means received by the reception means and the search auxiliary data input means. A search category menu is transmitted based on information of at least one of the data.

本発明にかかる検索システムは、撮像手段で撮像した検索対象物に関する情報を検索する際、メニュー情報をサーバ側から端末側へ送信し、このメニュー情報を用いて得られた前記検索対象物の画像情報と検索補助データとを端末側からサーバ側へ送信し、受信した前記画像情報および検索補助データを用いて前記サーバが前記検索対象物に関する情報を検索することで、検索対象物を撮影し、その対象物の名称などを簡単な操作で遠隔から検索することができるという効果を奏する。   The search system according to the present invention transmits menu information from the server side to the terminal side when searching for information related to the search target imaged by the imaging means, and an image of the search target object obtained by using this menu information. Information and search auxiliary data are transmitted from the terminal side to the server side, and the server searches for information on the search target using the received image information and search auxiliary data, and the search target is photographed. There is an effect that the name of the object can be searched remotely by a simple operation.

以下に、本発明にかかる検索システムの実施の形態を図1〜図10の図面に基づいて詳細に説明する。なお、本発明は、これらの実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変更実施の形態が可能である。   Hereinafter, an embodiment of a search system according to the present invention will be described in detail with reference to the drawings of FIGS. The present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention.

(実施の形態1)
図1は、本発明にかかる検索システムの実施の形態1の構成を示すブロック図である。図において、この検索システム1は、端末側としてのカメラ10と、検索側としてのサーバ20とから構成されている。このカメラ10とサーバ20間の通信は、たとえばインターネットなどの公共のネットワーク網を介して行うもので、主に無線通信を想定しており、通信プロトコルなどの必要な機能は、このカメラ10およびサーバ20内に含まれている。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a first embodiment of a search system according to the present invention. In the figure, the search system 1 includes a camera 10 as a terminal side and a server 20 as a search side. The communication between the camera 10 and the server 20 is performed via a public network such as the Internet. For example, wireless communication is mainly assumed, and necessary functions such as a communication protocol are used for the camera 10 and the server. 20 is included.

カメラ10は、撮像手段としての撮影部11、表示手段としての表示部12、画像領域指定入力部13、画像処理部および補助情報データ処理部14、検索補助データ入力手段としての検索メニューおよびカテゴリー選択入力部15、端末側送信手段および端末側受信手段としての送受信部16、これらの各部と接続される制御部17から構成されている。   The camera 10 includes an imaging unit 11 as an imaging unit, a display unit 12 as a display unit, an image area designation input unit 13, an image processing unit and an auxiliary information data processing unit 14, and a search menu and category selection as a search auxiliary data input unit. It comprises an input unit 15, a terminal-side transmission unit and a transmission / reception unit 16 as a terminal-side reception unit, and a control unit 17 connected to these units.

撮影部11は、対象物を撮影する機能を有し、表示部12は、撮影部が撮影した画像の表示やユーザへのメニュー表示やアドバイス指示などの文字・アイコン表示や検索出力の文字表示や擬似画像表示などのユーザとのGUI(グラフィック・ユーザ・インターフェース)の機能を有する。この画像領域指定入力部13は、表示部12に設けられるPDA(パーソナル・デジタル・アシスタント)などのタッチパネルからなり、以下に示す検索のための検索モード設定や画像の対象部分指示などの入力を可能にする。画像処理部および補助情報データ処理部14は、検索に必要な画像エリアの切り出し処理や背景マスクや色検出、色変換や画像エリアを指定するときのエリア境界線表示など、必要な一般的な画像処理の機能を有する。   The photographing unit 11 has a function of photographing an object, and the display unit 12 displays an image photographed by the photographing unit, a character / icon display such as a menu display or advice instruction to a user, a character display of search output, It has a GUI (Graphic User Interface) function with the user such as pseudo image display. The image area designation input unit 13 is composed of a touch panel such as a PDA (Personal Digital Assistant) provided on the display unit 12, and can input a search mode setting for searching and an image target portion instruction as shown below. To. The image processing unit and the auxiliary information data processing unit 14 perform necessary general images such as image area clipping processing necessary for search, background mask and color detection, color conversion, and area boundary line display when designating an image area. It has a processing function.

検索メニューおよびカテゴリー選択入力部15は、図示しないキー操作などでメニュー選択、カテゴリー選択を行うときなど、一般にユーザからカメラ10に指示を与えることができる機能を有する。なお、メニュー選択、カテゴリー選択された情報を、検索補助データと呼ぶ。この送受信部16は、たとえば無線通信の機能を有し、データ通信を可能にしているが、公共の通信施設を経由することも想定しているので、それらの物理的な通信環境をも含めている。また、送受信部16は、通信線などを経由して通信を行う有線通信の機能を有していても良い。制御部17は、これらの各部の制御やそれ以外のカメラ10全体の動作制御を行う。   The search menu and category selection input unit 15 generally has a function capable of giving an instruction to the camera 10 from the user when performing menu selection or category selection by a key operation (not shown). Information selected from the menu and category is referred to as search auxiliary data. Although this transmission / reception part 16 has a wireless communication function and enables data communication, for example, it is assumed that the transmission / reception part 16 goes through a public communication facility. Yes. The transmission / reception unit 16 may have a wired communication function for performing communication via a communication line or the like. The control unit 17 performs control of these units and other operation control of the camera 10.

サーバ20は、メニュー送信手段、受信手段および検索結果送信手段としての送受信部21、カテゴリー別画像DB(データベース)部22、検索メニューおよび検索補助指示セット情報DB部23、対象名称情報および関係情報DB部24、検索手段としての検索部25、これらの各部と接続される制御部26から構成されている。   The server 20 includes a transmission / reception unit 21 as a menu transmission unit, a reception unit, and a search result transmission unit, a category-specific image DB (database) unit 22, a search menu and search auxiliary instruction set information DB unit 23, target name information and relation information DB A unit 24, a search unit 25 as search means, and a control unit 26 connected to each of these units.

送受信部21は、上述した送受信部16と同様の通信機能を有しており、たとえば受信した撮影部11が撮影した画像情報もしくは検索メニューおよびカテゴリー選択入力部15で入力された検索補助データの少なくとも一方の情報に基づき、検索カテゴリーメニューを送信する。カテゴリー別画像DB部22は、検索対象となる画像の範囲を規定するためのカテゴリーDBと、それらと関係付けられた画像DBとからなる。検索メニューおよび検索補助指示セット情報DB部23は、カメラ10側で選択されるための検索カテゴリーメニューDBと、検索を確実に行うためのデータ取得を目的としたユーザへの検索用指示セットの情報DBとからなる。この検索カテゴリーメニューDBには、図2に示す検索カテゴリーメニューが記憶されている。すなわち図2において、検索カテゴリーメニューは、たとえば上位が自然界に存在するものを認識するための「自然」、人工的に作られたものを認識するための「もの」、各分野で活躍する人物を認識するための「人名」、色を認識するための「色名」、各種の標識を認識するための「標識」などのカテゴリーからなり、その下に該当する下位のカテゴリーが順次階層状に連結されている。たとえば、「自然」のカテゴリーには、「生物」と「場所」の下位のカテゴリーがあり、この「生物」のカテゴリーの下位には、「動物」と「植物」の下位のカテゴリーがあり、この「動物」のカテゴリーの下位には、「鳥」、「犬」、「ネコ」、「魚」などのカテゴリーがある。また、画像DBには、これらの下位のカテゴリーに関連付けられた画像データが記憶されている。   The transmission / reception unit 21 has a communication function similar to that of the transmission / reception unit 16 described above. For example, the received image information captured by the imaging unit 11 or the search menu and at least search auxiliary data input by the category selection input unit 15 is used. A search category menu is transmitted based on one information. The category-specific image DB unit 22 includes a category DB for defining a range of images to be searched and an image DB associated with them. The search menu and search auxiliary instruction set information DB unit 23 includes information on a search category menu DB for selection on the camera 10 side and a search instruction set for a user for the purpose of data acquisition for reliably performing the search. It consists of DB. In this search category menu DB, the search category menu shown in FIG. 2 is stored. That is, in FIG. 2, the search category menu includes, for example, “nature” for recognizing the higher-order items in the natural world, “things” for recognizing artificially created items, and persons active in each field. It consists of categories such as “person name” for recognizing, “color name” for recognizing color, and “signpost” for recognizing various signs. Has been. For example, the category of “Nature” has subcategories of “living” and “place”, and the subordinate of this “living” category has subcategories of “animal” and “plant”. Below the “animal” category are categories such as “bird”, “dog”, “cat”, and “fish”. The image DB stores image data associated with these lower categories.

また、この検索メニューおよび検索補助指示セット情報DB部23は、検索補助データの作成支援用に、ユーザに実行させるためにディスプレイで表すアクション指示表示用データセットや、さらに絞った検索ができるように検索支援追加キーワードデータセットや、そのためにカメラ本体で画像処理するために使うアプリケーションとしてのプログラムデータセットを記憶している。アクション指示表示用データとしては、検索対象物の全体としての、たとえば図3に示す「鳥全体を線で囲め」やこの対象物の全体に対する一部の画像位置としての、たとえば「嘴を線で囲め」などのカテゴリー別のアクション指示の表示情報が記憶されている。なお、アクション指示表示用データとしては、この他に、検索対象物の全体または一部の形状、色、大きさ、数、向きなどの検索補助データが含まれる。   In addition, the search menu and search auxiliary instruction set information DB unit 23 can perform an action instruction display data set displayed on a display for the user to execute and further narrowed search for assisting the generation of search auxiliary data. A search support additional keyword data set and a program data set as an application used for image processing in the camera body are stored. The action instruction display data includes, for example, “enclose the entire bird with a line” shown in FIG. 3 as an entire search object, or a partial image position with respect to the entire object, for example “ Display information of action instructions for each category such as “enclose” is stored. In addition, the action instruction display data includes search auxiliary data such as the shape, color, size, number, and orientation of the whole or a part of the search object.

また、プログラムデータとしては、上記線で囲んだ画像部分の画像切り出し処理を行うためのプログラムデータや嘴の色抽出処理を行うためのプログラムデータなどの検索対象物の一部の画像の情報を得るためのソフトウェアが記憶されている。また、検索支援追加キーワードデータセットとしては、さらに絞った検索ができるように、たとえば「野鳥」や「家畜」などの追加のキーワードの表示情報が記憶されている。   Further, as the program data, information on a part of the image of the search object such as program data for performing image cutout processing of the image portion surrounded by the above-described line and program data for performing color extraction processing of the eyelid is obtained. Software for storing is stored. Further, as the search support additional keyword data set, display information of additional keywords such as “wild bird” and “livestock” is stored so that the search can be further narrowed down.

対象名称情報および関係情報DB部24は、検索時の画像データと関係付けられた出力に結び付ける対象名称情報DBであり、これらとともに名称以外のそれらと関係ある内容情報や、さらにこれらのサーバ外のDBと通信アクセスして得られる関連情報の一時記憶DBでもある。また、この対象名称情報および関係情報DB部24は、検索上確定しない、曖昧な場合に類似画像を出力するためのDB関連情報なども、このDBに記憶されている。   The target name information and relation information DB unit 24 is a target name information DB linked to the output related to the image data at the time of search. In addition to these, content information related to those other than the name and further information outside these servers It is also a temporary storage DB of related information obtained through communication access to the DB. In addition, the target name information and relation information DB unit 24 also stores DB related information for outputting a similar image when it is ambiguous, which is not fixed in the search.

検索部25は、これらのDB部22〜24を用いて、検索対象物に関する情報を検索している。この検索部25は、たとえば大型の専用CPUなどからなり、ここでの画像検索は、一般的な画像検索手法、たとえば擬似画像検索技術によるものとしているが、上述した擬似画像検索手法以外の画像検索手法も含まれる。この画像検索手法としては、たとえばMPEG7の特徴記述データ(メタデータ)のDBを利用することも考えられ、特徴抽出は、画像の配色、色の分布、輪郭線、模様などの特徴を抽出する。また、検索部25による検索結果が1つに絞りきれない場合には、検索部25は、たとえば2つ以上の類似名称または類似画像を出力するようにすることも可能である。さらに、検索部25が追加の検索補助指示セットを出力して、送受信部21からカメラ10に転送し、たとえば検索補助指示セットの指示として、「別の角度から撮影して繰り返して下さい。」や「大きく撮影して繰り返して下さい。」などの追加の指示を与えて、これに対応する撮影動作を行うことで、検索の絞込みを行うことも可能である。制御部26は、これらの各部の制御やそれ以外のサーバ20全体の動作制御を行う。   The search unit 25 uses these DB units 22 to 24 to search for information related to the search object. The search unit 25 is composed of, for example, a large dedicated CPU, and the image search here is based on a general image search method, for example, a pseudo image search technique, but an image search other than the above-described pseudo image search method is used. Techniques are also included. As this image search method, for example, a database of MPEG7 feature description data (metadata) may be used. Feature extraction extracts features such as image coloration, color distribution, contour lines, and patterns. Further, when the search result by the search unit 25 cannot be narrowed down to one, the search unit 25 can output, for example, two or more similar names or similar images. Further, the search unit 25 outputs an additional search auxiliary instruction set and transfers it to the camera 10 from the transmission / reception unit 21. For example, as an instruction of the search auxiliary instruction set, “shoot from another angle and repeat” or It is also possible to narrow down the search by giving an additional instruction such as “Please take a larger image and repeat” and perform a corresponding shooting operation. The control unit 26 performs control of each of these units and operation control of the entire server 20 other than that.

次に、検索システムによる検索対象物の検索動作を図4のフローチャートに基づいて説明する。図4において、まずカメラ10側の撮影部11によって被写体(検索対象物)の撮影がなされ(ステップ101)、画像領域指定入力部13からの設定で検索モードがオンになると(ステップ102)、送受信部16は、制御部17の動作制御によって、通信要求用のIDデータ(識別情報)をサーバ20側に送信する(ステップ103)。   Next, the search operation of the search object by the search system will be described based on the flowchart of FIG. In FIG. 4, first, a subject (search target) is photographed by the photographing unit 11 on the camera 10 side (step 101), and when the search mode is turned on by setting from the image area designation input unit 13 (step 102), transmission / reception is performed. The unit 16 transmits communication request ID data (identification information) to the server 20 side by the operation control of the control unit 17 (step 103).

サーバ20には、たとえば予め制御部26の図示しない内部メモリなどに通信要求用のIDデータを認識するためのIDデータが登録されており、送受信部21がこの送信要求を受信すると(ステップ201)、制御部26は、内部メモリに登録されているIDデータと照合して、一致する場合には、IDの認証を行い(ステップ202)、通信の許可を示す通信許可信号を送受信部21を介してカメラ10側に送信する(ステップ203)。なお、ステップ203において、IDが一致しない場合には、通信許可信号の送信を停止し、または通信の不許可を示す信号を送信しても良い。   In the server 20, for example, ID data for recognizing communication request ID data is registered in advance in an internal memory (not shown) of the control unit 26, and when the transmission / reception unit 21 receives this transmission request (step 201). The control unit 26 checks the ID data registered in the internal memory and, if they match, authenticates the ID (step 202) and sends a communication permission signal indicating communication permission via the transmission / reception unit 21. To the camera 10 side (step 203). In step 203, if the IDs do not match, transmission of the communication permission signal may be stopped, or a signal indicating that communication is not permitted may be transmitted.

カメラ10側では、送受信部16がデータの受信を行なっており(ステップ104)、通信許可信号を受信すると(ステップ105:Yesの場合)、検索カテゴリーメニューの要求をサーバ20側に送信する(ステップ108)。また、通信許可信号が受信されない場合、あるいは通信の不許可を示す信号が受信された場合(ステップ105:Noの場合)、制御部17は表示部12を制御して、たとえば「通信不可」の表示を表示部12の表示画面に表示させて、撮影者などに知らせる(ステップ106)。次に、画像領域指定入力部13からの設定で検索モードがオフになると(ステップ107)、ステップ101に戻って次の撮影を待つ。   On the camera 10 side, the transmission / reception unit 16 receives data (step 104). When a communication permission signal is received (step 105: Yes), a search category menu request is transmitted to the server 20 side (step 105). 108). When the communication permission signal is not received, or when the signal indicating that communication is not permitted is received (step 105: No), the control unit 17 controls the display unit 12, for example, “communication impossible”. The display is displayed on the display screen of the display unit 12 to notify the photographer or the like (step 106). Next, when the search mode is turned off by the setting from the image area designation input unit 13 (step 107), the process returns to step 101 to wait for the next shooting.

次に、サーバ20側では、カメラ10側から検索カテゴリーメニューの要求を受信すると(ステップ204)、検索部25が検索メニューおよび検索補助指示セット情報DB部23からカメラ10側で選択されるための検索カテゴリーメニューと、ユーザへの検索用指示セットのデータとを検索、取得して、これらのメニューデータを送受信部21からカメラ10側に送信する(ステップ205)。   Next, when the server 20 side receives a request for a search category menu from the camera 10 side (step 204), the search unit 25 is selected on the camera 10 side from the search menu and search auxiliary instruction set information DB unit 23. The search category menu and the data of the search instruction set for the user are searched and acquired, and the menu data is transmitted from the transmission / reception unit 21 to the camera 10 side (step 205).

カメラ10側では、送受信部16がこれらのメニューデータを受信すると(ステップ109)、制御部17は、表示部12の表示画面に検索カテゴリーメニュー(図2参照)を表示させる(ステップ110)。この実施の形態では、まず最初に「自然」、「もの」、「人名」、「色名」、「標識」の表示がなされる。そして、この検索カテゴリーメニューに沿ってカテゴリーの表示およびカメラのユーザ(操作者)によるカテゴリー選択が順々になされ、ユーザによる最下位のカテゴリー選択、たとえばこの実施の形態では、「自然」、「生物」、「動物」の表示順にカテゴリーの選択がなされ、最下位のカテゴリー「鳥」の選択がなされると(ステップ111)、次に検索補助指示セットデータの要求を送受信部16からサーバ20側に送信する(ステップ112)。なお、検索されたカテゴリー「鳥」は、たとえば検索カテゴリー文字データAとして制御部17の内部メモリに一時記録される。   On the camera 10 side, when the transmission / reception unit 16 receives these menu data (step 109), the control unit 17 displays the search category menu (see FIG. 2) on the display screen of the display unit 12 (step 110). In this embodiment, first, “nature”, “thing”, “person name”, “color name”, and “sign” are displayed. Then, according to the search category menu, the category display and the category selection by the camera user (operator) are sequentially performed, and the lowest category selection by the user, for example, in this embodiment, “nature”, “biology” ”And“ animal ”are selected in the order of display, and when the lowest category“ bird ”is selected (step 111), a request for search auxiliary instruction set data is sent from the transmitting / receiving unit 16 to the server 20 side. Transmit (step 112). The searched category “bird” is temporarily recorded in the internal memory of the control unit 17 as, for example, search category character data A.

サーバ20側では、カメラ10側から検索補助指示セットデータの要求を受信すると(ステップ206)、検索部25が検索メニューおよび検索補助指示セット情報DB部23からアクション指示表示用データセットと、カメラ本体で画像処理するために使うプログラムデータセットとを検索、取得して、これらデータセットを送受信部21からカメラ10側に送信する(ステップ207)。   On the server 20 side, when a request for search auxiliary instruction set data is received from the camera 10 side (step 206), the search unit 25 receives the action menu display data set from the search menu and search auxiliary instruction set information DB unit 23, and the camera body. The program data sets to be used for image processing are searched and acquired, and these data sets are transmitted from the transmitting / receiving unit 21 to the camera 10 side (step 207).

カメラ10側では、送受信部16がこれらのデータセットを受信すると(ステップ113)、制御部17は、プログラムデータセットに基づいて、表示部12の表示画面にアクションアドバイス表示を行う(ステップ114)。この実施の形態では、図3に示すように、検索対象物を撮影した画像P0に対して、「鳥全体を線で囲め」のアクションアドバイス表示を行い(ステップ114)、画像P1に示すように、画像領域指定入力部13によって鳥全体を線で囲む対象部分指示入力を行い(ステップ115)、次に画像処理部および補助情報データ処理部14によって、画像前処理としての画像切り出し処理1を行って、画像P2に示す鳥の全体画像を切り出す(ステップ116)。この切り出された鳥全体画像データは、たとえば検索画像データBとして制御部17の内部メモリに一時記録される。   On the camera 10 side, when the transmission / reception unit 16 receives these data sets (step 113), the control unit 17 displays action advice on the display screen of the display unit 12 based on the program data set (step 114). In this embodiment, as shown in FIG. 3, the action advice display “Enclose the whole bird with a line” is displayed on the image P0 obtained by photographing the search object (step 114), as shown in the image P1. Then, the target area instruction input for encircling the whole bird with a line is performed by the image region designation input unit 13 (step 115), and then the image cutout process 1 as the image preprocessing is performed by the image processing unit and the auxiliary information data processing unit 14. Then, the entire bird image shown in the image P2 is cut out (step 116). The extracted whole bird image data is temporarily recorded in the internal memory of the control unit 17 as search image data B, for example.

なお、これらのデータセットを用いたステップ114〜116の検索補助動作は、たとえば検索対象物のカテゴリーなどによって、1回でよい場合と、数回におよぶ場合とがある。この鳥の検索の場合には、図3に示すように、次に「嘴を線で囲め」のアクションアドバイス表示を行い(ステップ114)、画像P3に示すように、画像領域指定入力部13によって嘴を線で囲む対象部分指示入力を行い(ステップ115)、次に画像処理部および補助情報データ処理部14によって、画像前処理としての画像切り出し処理2を行って、画像P4に示す嘴の画像を切り出す(ステップ116)。この切り出された嘴の画像データは、たとえば検索画像データCとして制御部17の内部メモリに一時記録される。   Note that the search assisting operation in steps 114 to 116 using these data sets may be performed once or may be performed several times depending on, for example, the category of the search object. In the case of this bird search, as shown in FIG. 3, next, an action advice display of “enclose the eagle with a line” is performed (step 114), and as shown in an image P3, the image area designation input unit 13 A target part instruction is input to surround the eyelid with a line (step 115), and the image processing unit 14 and the auxiliary information data processing unit 14 then perform image cutout processing 2 as image preprocessing, and the image of the eyelid shown in the image P4 Is cut out (step 116). The cut out image data of the cocoon is temporarily recorded in the internal memory of the control unit 17 as search image data C, for example.

さらに、この実施の形態では、ステップ116において、画像処理部および補助情報データ処理部14によって、画像前処理としての嘴の色抽出処理を行なって、嘴の色データを検索する。この検索された色データは、たとえば検索色データDとして制御部17の内部メモリに一時記録される。制御部17は、全ての画像前処理が終了すると、選択された検索カテゴリー文字データAと、検索対象画像データとしての検索画像データBと、検索補助情報データとしての検索画像データCおよび検索色データDを、送受信部16を制御してサーバ20側に転送させる(ステップ117)。   Furthermore, in this embodiment, in step 116, the image processing unit and the auxiliary information data processing unit 14 perform the color extraction processing of the eyelid as image preprocessing to search for the eyelid color data. The retrieved color data is temporarily recorded in the internal memory of the control unit 17 as, for example, retrieved color data D. When all image preprocessing is completed, the control unit 17 selects the selected search category character data A, search image data B as search target image data, search image data C as search auxiliary information data, and search color data. D is transferred to the server 20 side by controlling the transmission / reception unit 16 (step 117).

サーバ20側では、カメラ10側からこれらの検索対象データを受信すると(ステップ208)、検索部25がカテゴリー別画像データベース部のデータと照合しながら検索処理を行なって、検索時の画像データと関係付けられた出力に結び付ける対象名称情報を対象名称情報および関係情報DB部24から検索し(ステップ209)、名称とともに名称以外のそれらと関係ある内容情報を結果データとしてカメラ10側に配信する。なお、検索部25による検索処理では、たとえばそれぞれの検索結果データに基づいて、検索を行い、それらの検索結果に基づいて、最終的な検索結果(名称)を抽出している。たとえば、検索画像データBに基づいて、名称「カワラヒワ」、「カナリヤ」、「インコ」、「ツグミ」が検索され、検索画像データCに基づいて、「カナリヤ」、「インコ」が検索され、検索色データDに基づいて、「ヤマガラ」、「カナリヤ」が検索された場合、最終的な検索結果としては、全ての検索結果に共通する名称「カナリヤ」が抽出される。   On the server 20 side, when the search object data is received from the camera 10 side (step 208), the search unit 25 performs a search process while comparing with the data in the category-specific image database unit and relates to the image data at the time of the search. The target name information linked to the attached output is searched from the target name information and relation information DB unit 24 (step 209), and the content information related to those other than the name is delivered to the camera 10 side as result data together with the name. In the search processing by the search unit 25, for example, a search is performed based on each search result data, and a final search result (name) is extracted based on the search results. For example, based on the search image data B, the names “Kawarahiwa”, “Canary”, “Inco” and “Tsugumi” are searched, and on the search image data C, “Canary” and “Inco” are searched and searched. When “Yamagara” and “Canary” are searched based on the color data D, the name “Canary” common to all search results is extracted as a final search result.

カメラ10側では、送受信部16がこの結果データを受信すると(ステップ118)、制御部17は、表示部12の表示画面に、結果データである名称などの表示を行って(ステップ119)、上記動作を終了する。なお、サーバ20の検索部25が取得した検索結果データに基づいて、検索結果を1つに絞りきれない場合には、検索部25は、たとえば2つ以上の類似名称または類似画像を出力しても良いし、または追加の検索補助指示セットをカメラ10に転送し、さらに検索の絞込みを行っても良い。   On the camera 10 side, when the transmission / reception unit 16 receives the result data (step 118), the control unit 17 displays the name as the result data on the display screen of the display unit 12 (step 119). End the operation. If the search result cannot be narrowed down to one based on the search result data acquired by the search unit 25 of the server 20, the search unit 25 outputs, for example, two or more similar names or similar images. Alternatively, an additional search auxiliary instruction set may be transferred to the camera 10 to further narrow down the search.

このように、この実施の形態では、撮影部11で撮像した検索対象物に関する情報を検索する際、検索用のメニュー情報をサーバ20側からカメラ10側へ無線送信し、このメニュー情報を用いて得られた検索対象物の検索カテゴリーデータ、検索対象画像データおよび検索補助情報データを、カメラ10側からサーバ20側へ無線送信し、受信した検索カテゴリーデータ、検索対象画像データおよび検索補助情報データを用いて、前記サーバ20が前記検索対象物に関する情報(たとえば名称)を検索するので、検索対象物を撮影し、その対象物の名称などを簡単な操作で遠隔から検索することができる。   As described above, in this embodiment, when searching for information related to the search target imaged by the imaging unit 11, the menu information for search is wirelessly transmitted from the server 20 side to the camera 10 side, and this menu information is used. Search category data, search target image data, and search auxiliary information data of the obtained search target are wirelessly transmitted from the camera 10 side to the server 20 side, and the received search category data, search target image data, and search auxiliary information data are received. The server 20 searches for information (for example, a name) related to the search object, so that the search object can be photographed and the name of the object can be searched remotely by a simple operation.

(実施の形態2)
図5は、本発明にかかるカメラの実施の形態2の構成を示すブロック図であり、図6は、図5に示したカメラで撮影された画像の一例を示す図であり、図7は、図5に示したカメラで撮影された検索対象物のサイズを求めるための図である。なお、図5は、図1に示したカメラ10の構成と異なる構成部分のみを示した図で、その他の構成は図1のカメラ10と同様である。
(Embodiment 2)
FIG. 5 is a block diagram showing a configuration of Embodiment 2 of the camera according to the present invention, FIG. 6 is a diagram showing an example of an image taken by the camera shown in FIG. 5, and FIG. It is a figure for calculating | requiring the size of the search target image | photographed with the camera shown in FIG. FIG. 5 is a diagram showing only components different from the configuration of the camera 10 shown in FIG. 1, and other configurations are the same as those of the camera 10 shown in FIG.

この実施の形態のカメラは、カメラ自体が本来備えているフォーカス機能とズーム機能とを用いて、検索結果データとしての検索対象物のサイズを検索するものである。図5において、カメラ30は、撮像手段としての撮影部31(図1に示した撮影部11と同様)、撮影された画像データを記憶するメモリ部32、検索対象物とのフォーカス距離を検出するフォーカス距離検出部33、撮影部31のズーム倍率の情報を検出するズーム倍率情報検出部34、撮影された検索対象物の画像サイズを指示する対象物画像サイズ指示部35、検索対象物のサイズを演算する対象物サイズ演算部36から構成されている。   The camera of this embodiment searches for the size of the search object as search result data using the focus function and zoom function that the camera itself originally has. In FIG. 5, a camera 30 detects an imaging unit 31 (similar to the imaging unit 11 shown in FIG. 1) as an imaging unit, a memory unit 32 that stores captured image data, and a focus distance with a search target. A focus distance detection unit 33, a zoom magnification information detection unit 34 for detecting zoom magnification information of the photographing unit 31, a target image size instruction unit 35 for instructing an image size of a photographed search target, and a size of the search target The object size calculation unit 36 is configured to calculate.

この実施の形態では、撮影部31で撮影した図6に示す画像P5をメモリ部32に記憶させ、実施の形態1と同様に、検索カテゴリーメニューで検索された鳥に対して、画像処理部および補助情報データ処理部14による全体の画像切り出し処理1を行なって、画像P5に示す鳥の全体画像を切り出す。   In this embodiment, the image P5 shown in FIG. 6 photographed by the photographing unit 31 is stored in the memory unit 32, and as in the first embodiment, the image processing unit and The whole image cutout process 1 is performed by the auxiliary information data processing unit 14 to cut out the whole bird image shown in the image P5.

また、この実施の形態では、図7に示すように、画角情報としての焦点距離135mm(35mm換算、画角約18度)のレンズ31a付きカメラ30を用いて鳥をCCD(撮影素子)31bに撮影した時に、この鳥の画像が表示部12の画面幅の1/10程度のサイズに写った場合を説明する。図5において、ズーム倍率情報検出部34は、この焦点距離の情報を検出して、対象物サイズ演算部36に出力し、フォーカス距離検出部33は、検索対象物とレンズ31a間のフォーカス距離情報としてのフォーカス距離値が8mと検出して、対象物サイズ演算部36に出力する。   Further, in this embodiment, as shown in FIG. 7, a bird is CCD (photographing element) 31b using a camera 30 with a lens 31a having a focal length of 135 mm (35 mm equivalent, angle of view: about 18 degrees) as field angle information. A case will be described in which the image of the bird appears in the size of about 1/10 of the screen width of the display unit 12 when the image is taken. In FIG. 5, the zoom magnification information detection unit 34 detects this focal length information and outputs it to the object size calculation unit 36, and the focus distance detection unit 33 selects the focus distance information between the search object and the lens 31a. The focus distance value is detected as 8 m and is output to the object size calculator 36.

次に、カメラ撮像後の画像表示内で、鳥の嘴先端部分と尻尾先端部分を画像領域指定入力部13によってポイント指示することで、この点間の長さを鳥の長さ情報として対象物サイズ演算部36に与える。カメラ30内では、この場合に画像表示上、鳥の長さは、ディスプレイ幅の1/10として写り、ポイント指示された点間の長さも同じ比率で1/10となり、CCD31bの全横幅が36mmであるので、鳥はその1/10、つまり3.6mm位に写っていることになる。対象物画像サイズ指示部35は、この検索対象物の画像サイズを対象物サイズ演算部36に指示する。   Next, in the image display after imaging by the camera, the image area designation input unit 13 points the bird's heel tip and tail tip so that the length between these points is used as the bird length information. This is given to the size calculator 36. In the camera 30, in this case, on the image display, the length of the bird appears as 1/10 of the display width, the length between the point-indicated points becomes 1/10 at the same ratio, and the total width of the CCD 31b is 36 mm. Therefore, the bird is reflected in 1/10, that is, about 3.6 mm. The object image size instructing unit 35 instructs the object size calculating unit 36 about the image size of the search object.

対象物サイズ演算部36は、これらのデータに基づいて、検索対象物の長さ(サイズ)Xを演算する。すなわち、X=(フォーカス距離値)×(対象物画像サイズ)/(焦点距離)なので、対象物サイズ演算部36は、これらの値をこの式に代入して、X=8×3.6/135=0.213mを求めることができる。これにより、検索対象物の長さが21cm位の鳥であることが得られる。   The object size calculator 36 calculates the length (size) X of the search object based on these data. That is, since X = (focus distance value) × (object image size) / (focal length), the object size calculator 36 substitutes these values into this equation, and X = 8 × 3.6 / 135 = 0.213 m can be obtained. Thereby, it is obtained that the length of the search object is a bird of about 21 cm.

制御部17は、実施の形態1に示した選択された検索カテゴリー文字データA、検索画像データB、検索画像データCおよび検索色データDとともに、この鳥の長さの検索結果データをサーバ20側に転送して、サーバ20で画像検索処理を行うことで、鳥の名称がさらに容易で確実に検索されることとなる。なお、検索されたこの名称データは、カメラ30側に転送されて、カメラ30の表示部12に名称表示される。   The control unit 17 sends the search result data of this bird length along with the selected search category character data A, search image data B, search image data C and search color data D shown in the first embodiment to the server 20 side. , And the image search process is performed by the server 20, whereby the name of the bird is further easily and reliably searched. The searched name data is transferred to the camera 30 and displayed on the display unit 12 of the camera 30.

このように、この実施の形態では、実施の形態1の検索対象物を検索するための各種データのほかに、レンズのフォーカス距離情報とレンズの画角情報とを用いて算出した対象物のサイズのデータを加えたので、検索対象物を撮影し、その対象物の名称などをさらに簡単な操作で遠隔から検索することができる。   As described above, in this embodiment, in addition to the various data for searching for the search object of the first embodiment, the size of the object calculated using the lens focus distance information and the lens angle-of-view information. Therefore, it is possible to take a picture of a search object and search for the name of the object from a remote location with a simpler operation.

(実施の形態3)
図8は、本発明にかかるカメラの実施の形態3の構成を示すブロック図であり、図9は、図8に示したカメラで撮影された画像の一例を示す図であり、図10は、同じく一部が選択された状態の画像の一例を示す図である。なお、図8は、図1に示したカメラ10の構成と異なる構成部分のみを示した図で、その他の構成は図1のカメラ10と同様である。
(Embodiment 3)
FIG. 8 is a block diagram showing a configuration of Embodiment 3 of the camera according to the present invention, FIG. 9 is a diagram showing an example of an image taken by the camera shown in FIG. 8, and FIG. It is a figure which similarly shows an example of the image of the state in which one part was selected. FIG. 8 is a diagram showing only components that are different from the configuration of the camera 10 shown in FIG. 1, and other configurations are the same as those of the camera 10 shown in FIG.

この実施の形態のカメラは、カメラ自体が本来備えているキャリブレーション機能を用いて、検索結果データとしての検索対象物(日本伝統色名)の色情報を検出するものである。図8において、カメラ40は、撮像手段としての撮影部41(図1に示した撮影部11と同様)、撮影された画像データを記憶するメモリ部42(図5に示したメモリ部32と同様)、撮影された画像の色情報、すなわちカメラ40の環境光に係るスペクトル情報を検出するセンサとしての色情報検出部43と、白板部50撮影時の色情報を検出する白板撮影時色検出部44、対象物画像内部分指示入力部、一時メモリ、色バランス検出部および色補正処理部45から構成されている。なお、この対象物画像内部分指示入力部、一時メモリ、色バランス検出部および色補正処理部45は、図1に示した制御部17の機能であり、以下ではそれぞれの機能ごとに説明する。   The camera of this embodiment detects color information of a search object (Japanese traditional color name) as search result data using a calibration function originally provided in the camera itself. In FIG. 8, a camera 40 includes a photographing unit 41 (similar to the photographing unit 11 shown in FIG. 1) as an imaging unit, and a memory unit 42 (similar to the memory unit 32 shown in FIG. 5) for storing photographed image data. ), A color information detection unit 43 as a sensor for detecting color information of the photographed image, that is, spectral information relating to the ambient light of the camera 40, and a white plate photographing color detection unit for detecting color information at the time of photographing the white plate part 50 44, an object image partial instruction input unit, a temporary memory, a color balance detection unit, and a color correction processing unit 45. The object image partial instruction input unit, the temporary memory, the color balance detection unit, and the color correction processing unit 45 are functions of the control unit 17 shown in FIG. 1 and will be described below for each function.

この実施の形態でも、撮影部41で撮影した図9に示す和服の画像P6をメモリ部42に記憶させ、実施の形態1と同様に、検索カテゴリーメニューで検索された日本伝統色名に対して、画像処理部および補助情報データ処理部14による和服全体の画像切り出し処理1を行なって、画像P6に示す和服の全体画像を切り出す。   Also in this embodiment, the image P6 of the kimono shown in FIG. 9 photographed by the photographing unit 41 is stored in the memory unit 42, and in the same way as in the first embodiment, the Japanese traditional color name retrieved by the search category menu is stored. Then, the image cropping process 1 of the entire kimono by the image processing unit and the auxiliary information data processing unit 14 is performed to cut out the entire image of the kimono shown in the image P6.

次に、図10に示すように、画像中の着物部分を対象物画像内部分指示入力部で、たとえば図10中の丸印で指定して、その色情報を色情報検出部43で検出する。この色情報検出部43で検出された着物部分の色情報は、たとえば一時メモリに記憶される。なお、その場合、環境照明による色変化の影響を少なくするために、たとえばカメラキャップなどに設けたキャリブレーション白板部50を撮影して、この白板部撮影画像の色情報を白板撮影時色検出部44で検出するとともに、この色情報に基づいて、白板部撮影画像の色バランスを色バランス検出部で検出し、さらに先の色情報検出部43で検出した着物の色を色補正処理部で補正して、補正後の色情報を得る。   Next, as shown in FIG. 10, the kimono portion in the image is designated by the in-object image portion instruction input unit, for example, by a circle in FIG. 10, and the color information is detected by the color information detection unit 43. . The color information of the kimono portion detected by the color information detection unit 43 is stored in a temporary memory, for example. In this case, in order to reduce the influence of the color change caused by the environmental illumination, for example, the calibration white plate portion 50 provided on the camera cap or the like is photographed, and the color information of the white plate portion photographed image is used as the color detection portion during white plate photographing. 44. At the same time, based on this color information, the color balance of the white board image is detected by the color balance detection unit, and the color of the kimono detected by the previous color information detection unit 43 is corrected by the color correction processing unit. Thus, the corrected color information is obtained.

制御部17は、この補正後の色情報をサーバ20側に転送して、サーバ20で予め色データ値と日本の伝統色名称と関係付けられたDB部から、検索部25が画像検索処理を行うことで、日本の伝統色の名称、たとえば「青朽葉(あおくちば)」や「赤白橡(あかしろつるばみ)」などが検索され、その文字データをカメラ40側に転送し、カメラ40側で制御部17が表示部12に色名称の文字を表示させる。なお、色名称のDB部は、各国での色名称やデザイナーが利用する色名称、子供にも判る色名称なども検索可能にするため、ユーザが各DBの選択ができるようにしておくことが好ましい。   The control unit 17 transfers the corrected color information to the server 20 side, and the search unit 25 performs image search processing from the DB unit previously associated with the color data value and the Japanese traditional color name by the server 20. By doing so, the names of traditional Japanese colors, such as “Aokichiba” and “Akashiro Tsurubami” are searched, and the character data is transferred to the camera 40 side to On the 40 side, the control unit 17 causes the display unit 12 to display characters of color names. Note that the color name DB section can search for color names in each country, color names used by designers, color names that can be understood by children, etc., so that the user can select each DB. preferable.

なお、撮影した検索対象物画像の色を正確に掴むため、上述した手法を使い、画像データとこの色情報を、RGBの三原色からなる検索補助情報データとして精度高い名称検索を行うことも可能である。ここで、たとえば黄土色のような着物の伝統色名称を知ろうとして、この着物を撮影して色情報検出部43で色検出すると、たとえばR:G:B=C1:98:33となり、白板部50を撮影して白板撮影時色検出部44で色検出し、さらに色バランス検出部で色バランス情報を検出し、色補正処理部で色補正すると、R:G:B=BA:9E:3Bに補正された色情報を得たとする。この補正後の色情報をサーバ20側に転送し、サーバ20で予め三原色のデータ値と日本の伝統色名称と関係付けられたDBを検索すると、たとえば「青朽葉」の名称出力を得ることができる。また、着物の柄などをパターンデータとしてDB部で記憶しておくことで、検索対象の着物の柄の名称を検索することも可能である。   In addition, in order to accurately grasp the color of the photographed search object image, it is possible to perform a name search with high accuracy as the search auxiliary information data composed of the three primary colors of RGB by using the above-described method. is there. Here, for example, when trying to know a traditional color name of a kimono such as ocher, when this kimono is photographed and color is detected by the color information detection unit 43, for example, R: G: B = C1: 98: 33 is obtained. When the part 50 is photographed, the color is detected by the color detection part 44 during white board photography, the color balance information is detected by the color balance detection part, and the color correction processing part performs color correction, R: G: B = BA: 9E: Assume that color information corrected to 3B is obtained. When the corrected color information is transferred to the server 20 side and the server 20 retrieves a DB previously associated with the data values of the three primary colors and the Japanese traditional color name, for example, a name output of “Aotsukiha” can be obtained. it can. Further, by storing the kimono pattern and the like as pattern data in the DB unit, it is possible to search for the name of the kimono pattern to be searched.

このように、この実施の形態では、実施の形態1の検索対象物を検索するための各種データのほかに、色情報検出部で検出した環境光に係るスペクトル情報としての検索対象物の色を補正する手段を設け、実際の検索対象物の色に近い色情報をデータに加えたので、検索対象物を撮影し、その対象物の色や名称などをさらに簡単な操作で遠隔から検索することができる。   As described above, in this embodiment, in addition to the various data for searching for the search target object of the first embodiment, the color of the search target object as the spectral information related to the ambient light detected by the color information detection unit is used. Since correction means are provided and color information close to the color of the actual search target is added to the data, the search target is photographed, and the color and name of the target can be searched remotely by a simpler operation. Can do.

なお、本発明は、上述した実施の形態に限らず、たとえばGPS(測位システム)を使って、通信アクセスポイントから建物を撮影した時、この建物の場所を検出して、建物の名称を特定することも可能である。また、カメラ側に方位計測用のコンパスを設けて、計測した方位からたとえば撮影した山の名称を特定することも可能である。また、カメラ側に音声データを録音する録音機能を設け、たとえば撮影した鳥の声を録音し、声紋などから鳥の名前を特定することも可能である。また、カメラ側に赤外線を感知するセンサを設け、検索対象物を赤外線撮影することで、その体温などを検出して動物の名前を特定することも可能である。さらに、カメラ側に動画記録機能を設け、検索対象物の動きなどから対象物の名称を特定することも可能である。   Note that the present invention is not limited to the above-described embodiment. For example, when a building is photographed from a communication access point using GPS (positioning system), the location of the building is detected and the name of the building is specified. It is also possible. It is also possible to provide a compass for measuring the orientation on the camera side and specify the name of the photographed mountain, for example, from the measured orientation. It is also possible to provide a recording function for recording audio data on the camera side, for example, to record a photographed bird's voice and specify a bird's name from a voiceprint or the like. It is also possible to provide a sensor for detecting infrared rays on the camera side and take an infrared image of the search object, thereby detecting the body temperature and the like to specify the name of the animal. Furthermore, a moving image recording function can be provided on the camera side, and the name of the object can be specified from the movement of the search object.

以上の説明において、サーバ20は1台のサーバを想定して説明しているが、これに限るものではなく、たとえば、複数のサーバが連携しあって検索を行なっても良いし、あるいは、端末側としてのカメラ10とサーバ20との間に中継サーバを配置し、この中継サーバが検索機能の一部を受け持っても構わない。さらに、サーバにおける検索は、コンピュータのみによる検索に限らず、たとえばオペレータが介在し検索精度を上げることも可能である。   In the above description, the server 20 is described assuming a single server. However, the present invention is not limited to this. For example, a plurality of servers may cooperate to perform a search, or a terminal may be used. A relay server may be arranged between the camera 10 on the side and the server 20, and this relay server may be responsible for a part of the search function. Furthermore, the search in the server is not limited to a search using only a computer, and for example, an operator can intervene to improve the search accuracy.

本発明にかかる検索システムの実施の形態1の構成を示すブロック図である。It is a block diagram which shows the structure of Embodiment 1 of the search system concerning this invention. 図1に示したカテゴリー別画像DB部に記憶されているカテゴリーの一例を示す図である。It is a figure which shows an example of the category memorize | stored in the image DB part classified by category shown in FIG. 検索対象物を特定するための手順を説明するための図である。It is a figure for demonstrating the procedure for pinpointing a search target object. 図1に示した検索システムによる検索対象物の検索動作を説明するためのフローチャートである。5 is a flowchart for explaining a search target object search operation by the search system shown in FIG. 1. 本発明にかかるカメラの実施の形態2の構成を示すブロック図である。It is a block diagram which shows the structure of Embodiment 2 of the camera concerning this invention. 図5に示したカメラで撮影された画像の一例を示す図である。It is a figure which shows an example of the image image | photographed with the camera shown in FIG. 図5に示したカメラで撮影された検索対象物のサイズを求めるための図である。It is a figure for calculating | requiring the size of the search target image | photographed with the camera shown in FIG. 本発明にかかるカメラの実施の形態3の構成を示すブロック図である。It is a block diagram which shows the structure of Embodiment 3 of the camera concerning this invention. 図8に示したカメラで撮影された画像の一例を示す図である。It is a figure which shows an example of the image image | photographed with the camera shown in FIG. 同じく、一部が選択された状態の画像の一例を示す図である。Similarly, it is a figure which shows an example of the image of the state in which one part was selected.

符号の説明Explanation of symbols

1 検索システム
10,30,40 カメラ
11,31,41 撮影部
12 表示部
13 画像領域指定入力部
14 補助情報データ処理部
15 カテゴリー選択入力部
16,21 送受信部
17,26 制御部
20 サーバ
22 カテゴリー別画像DB部
23 検索メニュー情報および検索補助指示セット情報DB部
24 対象名称情報および関係情報DB部
25 検索部
31a レンズ
31b CCD
32,42 メモリ部
33 フォーカス距離検出部
34 ズーム倍率情報検出部
35 対象物画像サイズ指示部
36 対象物サイズ演算部
43 色情報検出部
44 白板撮影時色検出部
45 対象物画像内部指示入力部、一時メモリ、色バランス検出部および色補正処理部
50 キャリブレーション白板部
P0〜P6 画像
DESCRIPTION OF SYMBOLS 1 Search system 10, 30, 40 Camera 11, 31, 41 Image pick-up part 12 Display part 13 Image area designation | designated input part 14 Auxiliary information data processing part 15 Category selection input part 16, 21 Transmission / reception part 17, 26 Control part 20 Server 22 Category Separate image DB section 23 Search menu information and search auxiliary instruction set information DB section 24 Target name information and relation information DB section 25 Search section 31a Lens 31b CCD
32, 42 Memory unit 33 Focus distance detection unit 34 Zoom magnification information detection unit 35 Object image size instruction unit 36 Object size calculation unit 43 Color information detection unit 44 White plate shooting color detection unit 45 Object image internal instruction input unit, Temporary memory, color balance detection unit and color correction processing unit 50 Calibration white plate part P0 to P6 Image

Claims (7)

端末とサーバとで構成され、検索対象物に関する情報を検索する検索システムであって、
前記端末は、
検索対象物を撮像する撮像手段と、
検索する際に用いる検索補助データを前記サーバから送信されたメニューを用いて入力する検索補助データ入力手段と、
前記撮像手段が撮像した画像情報と共に前記検索補助データ入力手段で入力された検索補助データを前記サーバに対し送信する端末側送信手段と、
前記サーバから送信されるメニュー情報および前記サーバで検索した検索結果に関する情報を受信する端末側受信手段と、
前記端末側受信手段で受信した検索結果に関する情報を表示する表示手段と、
を有し、前記サーバは、
前記検索補助データ入力手段が用いるメニュー情報を前記端末に対して送信するメニュー送信手段と、
前記端末側送信手段が送信した情報を受信する受信手段と、
前記受信手段が受信した画像情報と検索補助データとを用いて検索対象物に関する情報を検索する検索手段と、
前記検索手段が検索した検索結果に関する情報を前記端末に対して送信する検索結果送信手段と、
を有することを特徴とする検索システム。
A search system that includes a terminal and a server and searches for information related to a search object,
The terminal
Imaging means for imaging the search object;
Search auxiliary data input means for inputting search auxiliary data used when searching using the menu transmitted from the server;
Terminal side transmission means for transmitting search auxiliary data input by the search auxiliary data input means together with image information captured by the imaging means to the server;
Terminal-side receiving means for receiving menu information transmitted from the server and information related to search results searched by the server;
Display means for displaying information on the search result received by the terminal-side receiving means;
And the server has
Menu transmission means for transmitting menu information used by the search auxiliary data input means to the terminal;
Receiving means for receiving information transmitted by the terminal-side transmitting means;
Search means for searching for information relating to a search object using image information and search auxiliary data received by the receiving means;
Search result transmission means for transmitting information related to the search results searched by the search means to the terminal;
A search system comprising:
前記メニュー送信手段が送信するメニュー情報は、検索対象物の全体または一部の形状、色、大きさ、数、向き及び全体に対する一部の画像の位置のうち少なくとも1つの検索補助データであることを特徴とする請求項1に記載の検索システム。   The menu information transmitted by the menu transmission means is at least one search auxiliary data among the shape, color, size, number, orientation, and position of a part of the image relative to the whole or part of the search object. The search system according to claim 1. 前記検索対象物の全体または一部の大きさを、前記撮像手段が有する撮像レンズのフォーカス距離情報と撮影レンズの画角情報とを用いて算出することを特徴とする請求項2に記載の検索システム。   The search according to claim 2, wherein the size of the whole or a part of the search object is calculated using focus distance information of an imaging lens included in the imaging unit and field angle information of the photographing lens. system. 前記端末は端末の環境光に係るスペクトル情報を検出するセンサを更に有し、
前記メニュー送信手段が送信するメニュー情報が色であった際、前記端末側送信手段は前記センサで検出した前記環境光に係るスペクトル情報も一緒に送信することを特徴とする請求項2に記載の検索システム。
The terminal further includes a sensor that detects spectrum information related to the ambient light of the terminal;
3. The device according to claim 2, wherein when the menu information transmitted by the menu transmission unit is a color, the terminal-side transmission unit also transmits spectrum information related to the ambient light detected by the sensor. Search system.
前記メニュー情報には、検索対象物の一部の画像の情報を得るためのアプリケーションを含むことを特徴とする請求項2に記載の検索システム。   The search system according to claim 2, wherein the menu information includes an application for obtaining information on a part of an image of the search object. 前記メニュー送信手段が送信するメニュー情報は、検索対象物が属するカテゴリーを前記端末の操作者が選択することを可能とする検索カテゴリーメニューであることを特徴とする請求項1に記載の検索システム。   2. The search system according to claim 1, wherein the menu information transmitted by the menu transmission means is a search category menu that allows an operator of the terminal to select a category to which a search object belongs. 前記メニュー送信手段は、前記受信手段が受信した前記撮像手段が撮像した画像情報および前記検索補助データ入力手段で入力された検索補助データの少なくとも一方の情報に基づき、検索カテゴリーメニューを送信することを特徴とする請求項6に記載の検索システム。   The menu transmission means transmits a search category menu based on at least one information of image information captured by the imaging means received by the reception means and search auxiliary data input by the search auxiliary data input means. The search system according to claim 6, wherein the search system is characterized.
JP2005133229A 2005-04-28 2005-04-28 Retrieval system Withdrawn JP2006309600A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005133229A JP2006309600A (en) 2005-04-28 2005-04-28 Retrieval system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005133229A JP2006309600A (en) 2005-04-28 2005-04-28 Retrieval system

Publications (1)

Publication Number Publication Date
JP2006309600A true JP2006309600A (en) 2006-11-09

Family

ID=37476396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005133229A Withdrawn JP2006309600A (en) 2005-04-28 2005-04-28 Retrieval system

Country Status (1)

Country Link
JP (1) JP2006309600A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157587A (en) * 2007-12-26 2009-07-16 Toppan Printing Co Ltd Information management device, information management method, and program thereof
JP2009224889A (en) * 2008-03-13 2009-10-01 Olympus Corp Personal digital assistant and mobile information system
US8438062B2 (en) 2006-12-29 2013-05-07 Google Inc. Network node ad targeting
JP2013097632A (en) * 2011-11-02 2013-05-20 Zenrin Datacom Co Ltd Object search device, object search method, object search information providing program and object search program
JP2021060630A (en) * 2019-10-02 2021-04-15 キヤノン株式会社 Intermediate server apparatus, information processing apparatus, and communication method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8438062B2 (en) 2006-12-29 2013-05-07 Google Inc. Network node ad targeting
US8744911B2 (en) 2006-12-29 2014-06-03 Google Inc. Network node ad targeting
JP2009157587A (en) * 2007-12-26 2009-07-16 Toppan Printing Co Ltd Information management device, information management method, and program thereof
JP2009224889A (en) * 2008-03-13 2009-10-01 Olympus Corp Personal digital assistant and mobile information system
JP2013097632A (en) * 2011-11-02 2013-05-20 Zenrin Datacom Co Ltd Object search device, object search method, object search information providing program and object search program
JP2021060630A (en) * 2019-10-02 2021-04-15 キヤノン株式会社 Intermediate server apparatus, information processing apparatus, and communication method
JP7379059B2 (en) 2019-10-02 2023-11-14 キヤノン株式会社 Intermediate server device, information processing device, communication method

Similar Documents

Publication Publication Date Title
CN107404598B (en) Imaging device, information acquisition system, program, and recording medium
US8599251B2 (en) Camera
US8725399B2 (en) Map display system and map display method
WO2016199662A1 (en) Image information processing system
US20180197006A1 (en) Imaging support system, device and method, and imaging terminal
KR20110020746A (en) Method for providing object information and image pickup device applying the same
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
JP5868164B2 (en) Imaging apparatus, information processing system, control method, and program
JP2009301485A (en) Information display system and portable information terminal therewith
JP2003150603A (en) Image processor and program
JP2006309600A (en) Retrieval system
CN106233283A (en) Image processing apparatus, communication system and communication means and camera head
US20140247342A1 (en) Photographer&#39;s Tour Guidance Systems
JP2011009916A (en) Device, method and program for displaying object information
JPWO2014184937A1 (en) Image file clustering system and image file clustering program
JP2010049300A (en) Image retrieval system, image retrieval method, and program for image retrieval
JP2006101156A (en) Information processing device and program
JP4752628B2 (en) Drawing search system, drawing search method, and drawing search terminal
JP2014063300A (en) Character recognition device, character recognition processing method, and program
JP2003256838A (en) Image processor and image processing method and its program and storage medium
WO2011136340A1 (en) Information provision device, information provision processing program, recording medium that has recorded information provision processing program, and information provision method
JP7132860B2 (en) VIDEO INFORMATION MANAGEMENT SYSTEM AND VIDEO INFORMATION MANAGEMENT METHOD
JP6591594B2 (en) Information providing system, server device, and information providing method
JP6276375B2 (en) Image search device, image display device, image search method, and image display method
JP2008242712A (en) Image recognition apparatus and image recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080129

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090918