JP6063536B2 - IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD - Google Patents

IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Download PDF

Info

Publication number
JP6063536B2
JP6063536B2 JP2015175505A JP2015175505A JP6063536B2 JP 6063536 B2 JP6063536 B2 JP 6063536B2 JP 2015175505 A JP2015175505 A JP 2015175505A JP 2015175505 A JP2015175505 A JP 2015175505A JP 6063536 B2 JP6063536 B2 JP 6063536B2
Authority
JP
Japan
Prior art keywords
image
unit
search
image data
similar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015175505A
Other languages
Japanese (ja)
Other versions
JP2016026347A (en
Inventor
秀司 清水
秀司 清水
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015175505A priority Critical patent/JP6063536B2/en
Publication of JP2016026347A publication Critical patent/JP2016026347A/en
Application granted granted Critical
Publication of JP6063536B2 publication Critical patent/JP6063536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、類似の画像を幅広く検索し、広く楽しむことのできる撮像装置および撮像装置の制御方法に関する。   The present invention relates to an imaging apparatus and a control method for the imaging apparatus that can search a wide range of similar images and enjoy them widely.

近年、デジタル画像の撮影、取り込みや、画像処理技術が向上してきており、デジタルカメラやビデオカメラの境界が喪失している。また、大量の画像を個人が扱うことが容易になってきている。さらに、デジタル化が進むにつれ、従来単なる撮影のための道具であったカメラは、カメラ同士や、パーソナルコンピュータや、テレビ等の多くの機器との間で画像データの受け渡しが簡単になり、再生装置として機能することも要求されている。   In recent years, taking and capturing of digital images and image processing techniques have been improved, and boundaries between digital cameras and video cameras have been lost. In addition, it has become easier for individuals to handle a large number of images. Furthermore, as digitalization progresses, cameras that have traditionally been used only for photography have become easier to exchange image data with other devices such as cameras, personal computers, and televisions. It is also required to function as.

パーソナルコンピュータやインターネット上のサーバーでは、早くから画像等を検索し、これらの画像を再生し鑑賞することは一般的に行われてきた。このような状況下であっ
ても、検索の主流は自然言語検索であり、画像等のデータに正しいキーワードが付与されている場合には、検索が可能であるが、正しいキーワードが付与されていない場合には、検索することが困難であった。特に、海外のサイトまで検索する場合には、言語の問題があり、相当困難であった。
In personal computers and servers on the Internet, it has been generally performed to search for images and the like from an early stage, and reproduce and view these images. Even under such circumstances, the mainstream of search is natural language search, and if a correct keyword is assigned to data such as an image, the search is possible, but the correct keyword is not assigned. In case it was difficult to search. In particular, when searching to overseas sites, there was a problem of language, which was quite difficult.

そこで、例えば、特許文献1には、インターネット上で、情報の公開・共有するシステムにおいて、ユーザー間の使用言語・閲覧環境の違いを吸収し、幅広く情報の共有を行えるようにするようにした情報公開システムが開示されている。すなわち、この情報公開システムは、閲覧者から公開情報の閲覧要求が発生すると、閲覧者に適した翻訳データで閲覧ページを作成し、閲覧者に返送している。また、特許文献2には、ホームページ情報を効率的に収集するようにしたホームページ情報収集方法が開示されており、単に語句だけではなく、地理的情報等、属性でも検索するようにしている。   Therefore, for example, Patent Document 1 discloses information that allows a user to share a wide range of information by absorbing differences in languages and browsing environments between users in a system for disclosing and sharing information on the Internet. A public system is disclosed. That is, when a browsing request for public information is generated from a viewer, this information disclosure system creates a browsing page with translation data suitable for the viewer and returns it to the viewer. Further, Patent Document 2 discloses a homepage information collecting method that efficiently collects homepage information, and searches are made not only with words but also with attributes such as geographical information.

特開2005−92838号公報Japanese Patent Laying-Open No. 2005-92838 特許3620996号公報Japanese Patent No. 3620996

このように、言語が異なっても情報を収集できるようにするために、種々の提案がなされているが、言語そのものを対象としているものであった。すなわち、特許文献1に開示の情報開示システムでは、全言語の辞書データベースを持つのは困難である。また、特許文献2に開示のホームページ情報収集方法では、情報量の増大と正確さの向上に向けられており、言語数の増加に対応するものではない。したがって、言語そのもので画像を検索しようとする限り限界があり、外国のユーザーが撮影した写真画像を検索して楽しむには、充分ではなかった。また、ユーザーが誤って撮影画像に合わないキーワードを付与してしまった場合や、また他のユーザーから受信した画像であって、キーワードが異なっている場合には、類似する画像を検索するのが困難である。 As described above, various proposals have been made in order to collect information even in different languages, but the language itself is targeted. That is, in the information disclosure system disclosed in Patent Document 1, it is difficult to have a dictionary database for all languages. Further, the homepage information collection method disclosed in Patent Document 2 is aimed at increasing the amount of information and improving the accuracy, and does not correspond to the increase in the number of languages. Therefore, there is a limit as long as an image is searched by the language itself, and it is not enough to search and enjoy a photograph image taken by a foreign user. Also, if the user accidentally assigns a keyword that does not match the captured image, or if the image is received from another user and the keyword is different, a similar image may be searched. Have difficulty.

本発明は、このような事情を鑑みてなされたものであり、撮影画像から類似画像を容易に検索し、楽しむことのできる撮像装置および撮像装置の制御方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an imaging apparatus and a method for controlling the imaging apparatus that can easily search for and enjoy similar images from captured images .

上記目的を達成するため第1の発明に係る撮像装置は、光学像を光電変換し、画像データを出力する撮像部と、上記画像データを用いて、画像の特徴量を数値化して特徴情報を算出する特徴量数値化部と、上記画像データに関連付けて上記特徴情報を記録する記録部と、上記画像データに基づく画像と類似する画像を、上記特徴情報を用いて検し、この検索された類似画像が所定数に達しない場合には、上記特徴情報とは異なる特徴情報を用いて上記所定数に達するまで類似画像を検索する画像検索部と、検索された類似画像を表示する表示部と、を有する。 In order to achieve the above object, an image pickup apparatus according to a first aspect of the present invention uses an image pickup unit that photoelectrically converts an optical image and outputs image data, and uses the image data to quantify the feature amount of the image to obtain feature information. a feature quantity quantifying section for calculating, a recording unit for recording the characteristic information in association with the image data, the image similar to the image based on the image data, and search by using the feature information, is the search and if the similar image does not reach the predetermined number, the table Shimesuru display an image retrieval unit for retrieving a similar image until the predetermined number by using a different characteristic information, the retrieved similar image from the feature information Part.

第2の発明に係る撮像装置は、上記第1の発明において、上記画像データと、上記特徴情報を上記撮像装置の外部に送信する通信部を有する。
第3の発明に係る撮像装置は、上記第1の発明において、上記特徴量数値化部は、画像に含まれる色および輪郭の少なくとも1つの特徴量について数値化する。
第4の発明に係る撮像装置は、上記第1の発明において、画面内の画像の輪郭点のエッジを表す特徴点の離散と色の分布について、該画面を分割して分類して記録する。
An image pickup apparatus according to a second aspect of the present invention includes the communication unit according to the first aspect, wherein the image data and the feature information are transmitted to the outside of the image pickup apparatus.
In the imaging device according to a third invention, in the first invention, the feature value digitizing unit digitizes at least one feature value of a color and a contour included in the image.
According to a fourth aspect of the present invention, in the first aspect of the invention, the screen is divided and recorded with respect to the discrete feature points representing the edges of the contour points of the image in the screen and the color distribution.

第5の発明に係る撮像装置は、上記第1の発明において、撮影動作の指示を行う操作部を有し、上記操作部によって撮影動作の指示がなされた際に、上記撮像部から出力された画像データと、上記特徴量数値化部によって算出された特徴情報を上記画像データに関連付けて、上記記録部に記録する。
第6の発明に係る撮像装置は、上記第1の発明において、文字情報を入力する文字入力部を有し、上記記録部に記録される上記画像データに関連付けて、文字入力部で入力された上記文字情報を記録する。
第7の発明に係る撮像装置は、上記第6の発明において、上記文字情報に基づいて、類似画像を検索する文字検索部を有する。
An imaging apparatus according to a fifth aspect of the present invention is the imaging apparatus according to the first aspect, wherein the imaging unit has an operation unit for instructing a shooting operation, and is output from the imaging unit when the shooting unit is instructed by the operation unit. The image data and the feature information calculated by the feature value digitizing unit are associated with the image data and recorded in the recording unit.
An image pickup apparatus according to a sixth invention has the character input unit for inputting character information in the first invention, and is input at the character input unit in association with the image data recorded in the recording unit. Record the character information.
Imaging device according to the seventh invention, in the sixth invention, based on the character information, that having a character search unit for searching for similar images.

の発明に係る撮像装置は、光学像を光電変換し、画像データを出力する撮像部と、上記画像データを用いて、画像の特徴量を数値化して特徴情報を算出する特徴量数値化部と、上記画像データに関連付けて上記特徴情報を記録する記録部と、上記画像データに基づく画像と類似する画像を、上記特徴情報を用いて検索し、この検索された類似画像が所定数に達しない場合には、上記特徴情報とは異なる特徴情報を用いて上記所定数に達するまで類似画像を検索する画像検索部と、を有する。 An image pickup apparatus according to an eighth aspect of the present invention is an image pickup unit that photoelectrically converts an optical image and outputs image data, and a feature value quantification that calculates feature information by quantifying the feature value of the image using the image data. And a recording unit that records the feature information in association with the image data, and an image similar to the image based on the image data is searched using the feature information, and the searched similar images are in a predetermined number. An image search unit that searches for similar images until the predetermined number is reached using feature information different from the feature information .

の発明に係る撮像装置の制御方法は、光学像を光電変換し、画像データを出力し、上記画像データを用いて、画像の特徴量を数値化して特徴情報を算出し、上記画像データに関連付けて上記特徴情報を記録し、上記画像データに基づく画像と類似する画像を、上記特徴情報を用いて検索し、この検索された類似画像が所定数に達しない場合には、上記特徴情報とは異なる特徴情報を用いて上記所定数に達するまで類似画像を検索し、検索された類似画像を表示する。 According to a ninth aspect of the present invention, there is provided a control method for an image pickup apparatus, photoelectrically converting an optical image, outputting image data, using the image data, quantifying a feature amount of the image, calculating feature information, and calculating the image data. The feature information is recorded in association with the image data, an image similar to the image based on the image data is searched using the feature information, and if the number of similar images searched does not reach a predetermined number, the feature information display the similar image searching similar images until the predetermined number, which is search with different characteristic information from.

本発明によれば、撮影画像から類似画像を容易に検索し、楽しむことのできる撮像装置および撮像装置の制御方法を提供することができる。
According to the present invention, it is possible to provide an imaging apparatus and a method for controlling the imaging apparatus that can easily retrieve and enjoy similar images from captured images .

本発明の第1実施形態に係わるカメラの電気回路を示すブロック図である。It is a block diagram which shows the electric circuit of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラの液晶表示部での表示を示し、(a)は電子キーボードを表示した状態を示す図であり、(b)は画像とコメントが入力された状態を示す図であり、(c)は類似画像を表示した状態を示す図である。2A and 2B show a display on a liquid crystal display unit of a camera according to the first embodiment of the present invention, in which FIG. 1A shows a state in which an electronic keyboard is displayed, and FIG. 2B shows a state in which an image and a comment are input. It is a figure and (c) is a figure which shows the state which displayed the similar image. 本発明の第1実施形態に係わるカメラの記録部の内部のデータ構造を示す図である。It is a figure which shows the data structure inside the recording part of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラのカメラ制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera control of the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラの画像再生の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image reproduction of the camera concerning 1st Embodiment of this invention. 本発明に関連する第1技術に係わる画像検索システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image search system concerning the 1st technique relevant to this invention. 本発明に関連する第1技術に係わる画像検索システムにおいて検索結果を示す図である。It is a figure which shows a search result in the image search system concerning the 1st technique relevant to this invention. 本発明に関連する第1技術に係わる画像検索システムの画像表示の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image display of the image search system concerning the 1st technique relevant to this invention. 本発明に関連する第1技術に係わる画像検索システムの参考画像表示の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the reference image display of the image search system concerning the 1st technique relevant to this invention. 本発明に関連する第1技術に係わる画像検索システムにおいて、画像の特徴点の抽出の仕方を説明する図であり、(a)は抽出対象となる画像を示し、(b)(c)は一部を拡大した図であり、(d)(e)は特徴点を示す図である。In the image search system concerning the 1st technique relevant to the present invention, it is a figure explaining how to extract the feature point of an image, (a) shows the picture used as extraction object, and (b) and (c) are one. It is the figure which expanded the part, (d) (e) is a figure which shows a feature point. 本発明に関連する第1技術に係わる画像検索システムにおいて、抽出された特徴点を示す図である。It is a figure which shows the extracted feature point in the image search system concerning the 1st technique relevant to this invention. 本発明に関連する第1技術に係わる画像検索システムにおいて、抽出された特徴点に基づいて得られた特徴パターンを示す図である。It is a figure which shows the feature pattern obtained based on the extracted feature point in the image search system concerning the 1st technique relevant to this invention. 本発明に関連する第1技術に係わる画像検索システムにおいて、他の画像と特徴パターンを示し、(a)は他の画像を示し、(b)は他の画像の特徴パターンを示す。In the image search system according to the first technique related to the present invention, other images and feature patterns are shown, (a) shows other images, and (b) shows feature patterns of other images. 本発明に関連する第1技術に係わる画像検索システムにおいて、特徴パターンを示し、(a)は2つの画像の特徴パターンを重ねた図であり、(b)は特徴パターンをシフトさせ一致させた状態の図であり、(c)は特徴パターンのシフト方向を示す図である。In the image search system according to the first technique related to the present invention, a feature pattern is shown, (a) is a diagram in which the feature patterns of two images are superimposed, and (b) is a state in which the feature patterns are shifted and matched. (C) is a figure which shows the shift direction of a feature pattern. 本発明に関連する第1技術に係わる画像検索システムにおいて、類似しない画像の例を示し、(a)は更に他の画像を示し、(b)は更に他の画像の特徴パターンを示す。In the image search system according to the first technique related to the present invention, examples of dissimilar images are shown, (a) shows still another image, and (b) shows a feature pattern of the other image. 本発明に関連する第1技術に係わる画像検索システムにおいて、類似する画像の例を示し、(a)は更に他の画像を示し、(b)は更に他の画像の特徴パターンを示す。In the image search system according to the first technique related to the present invention, examples of similar images are shown, (a) shows still another image, and (b) shows a feature pattern of the other image. 本発明に関連する第1技術に係わる画像検索システムにおいて、キーワードの関連性を示す図である。It is a figure which shows the relevance of a keyword in the image search system concerning the 1st technique relevant to this invention. 本発明に関連する第2技術に係わる画像検索システムの表示画像決定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the display image determination of the image search system concerning the 2nd technique relevant to this invention. 本発明に関連する第2技術に係わる画像検索システムにおける検索画面を示す図である。It is a figure which shows the search screen in the image search system concerning the 2nd technique relevant to this invention.

以下、図面に従って本発明を適用した画像検索システムを用いて本発明の第1実施形態及び好ましい実施形態について説明する。本発明の第1実施形態は、カメラ10に適用した例である。このカメラ10は、通信部を介して、外部のサーバー等に記録されている画像の検索が可能である。画像検索にあたっては、まず、キーワード等によって画像を検索し、これによって検索された類似画像の共通の特徴情報を抽出し、抽出された特徴情報を用いてさらに類似画像の検索を行う。特徴情報を用いての類似画像の検索にあたっては、キーワード等を必要としないので、別言語が付与されている画像についても検索を行うことができる。   Hereinafter, a first embodiment and a preferred embodiment of the present invention will be described using an image search system to which the present invention is applied according to the drawings. The first embodiment of the present invention is an example applied to a camera 10. The camera 10 can search for an image recorded in an external server or the like via a communication unit. In the image search, first, an image is searched by a keyword or the like, common feature information of similar images searched by this is extracted, and a similar image is further searched using the extracted feature information. When searching for similar images using feature information, no keyword or the like is required, so that images with a different language can also be searched.

図1は、本発明の第1実施形態に係わるカメラ10の構成を示すブロック図である。カメラ10は、制御部1、撮影部2、顔検出部2b、記録部3、時間・位置判定部3c、文字検索部4、画像検索部5、特徴量数値化部5a、通信部6、再生部7、液晶表示部8、操作部9、文字入力部9aを有している。   FIG. 1 is a block diagram showing a configuration of a camera 10 according to the first embodiment of the present invention. The camera 10 includes a control unit 1, a photographing unit 2, a face detection unit 2 b, a recording unit 3, a time / position determination unit 3 c, a character search unit 4, an image search unit 5, a feature value digitizing unit 5 a, a communication unit 6, and a playback unit. Unit 7, liquid crystal display unit 8, operation unit 9, and character input unit 9a.

制御部1は、CPU(Central Processing Unit)等によって構成され、このカメラ10の各部と接続され、内蔵されたプログラムに従って全体制御を行う。操作部9は、レリーズ釦や、メニュー釦等の操作部材を含み、ユーザーが操作部9を操作すると、制御部1は操作に応じて各部に制御信号を出力する。   The control unit 1 includes a CPU (Central Processing Unit) and the like, is connected to each unit of the camera 10, and performs overall control according to a built-in program. The operation unit 9 includes operation members such as a release button and a menu button. When the user operates the operation unit 9, the control unit 1 outputs a control signal to each unit according to the operation.

撮影部2は、被写体像を結像するための光学系、被写体像を光電変換する撮像素子、撮像素子から出力される画像信号を処理する画像処理部等を含み、画像データを出力する。なお、この撮影部2は静止画、動画(連写も含む)の画像データを出力可能である。   The photographing unit 2 includes an optical system for forming a subject image, an image sensor that photoelectrically converts the subject image, an image processing unit that processes an image signal output from the image sensor, and the like, and outputs image data. The photographing unit 2 can output image data of still images and moving images (including continuous shooting).

顔検出部2bは、撮影部2によって取得された画像データに基づき、その画像データ中に顔が含まれているか否かの検出を行い、また、顔が含まれている場合には、その位置を検出する。なお、顔の検出はパターンマッチング法等によって行う。ここで、検出された顔情報は、記録部3において画像データと共に記録される。   The face detection unit 2b detects whether or not a face is included in the image data based on the image data acquired by the photographing unit 2, and if a face is included, the position is detected. Is detected. Note that face detection is performed by a pattern matching method or the like. Here, the detected face information is recorded together with the image data in the recording unit 3.

記録部3は、撮影部2から出力される静止画や動画の画像データを記録する。再生部7は、記録部3に記録された画像データを再生し、液晶表示部8は、再生部7によって再生された画像を表示する。液晶表示部8は、記録部3に記録された画像データの再生のほか、撮影時に観察用に被写体像を表示する、いわゆるライブビュー表示も行う。また、再生時には、画像検索結果も表示する。   The recording unit 3 records still image and moving image data output from the imaging unit 2. The reproduction unit 7 reproduces the image data recorded in the recording unit 3, and the liquid crystal display unit 8 displays the image reproduced by the reproduction unit 7. The liquid crystal display unit 8 performs not only reproduction of the image data recorded in the recording unit 3 but also so-called live view display for displaying a subject image for observation during shooting. At the time of reproduction, an image search result is also displayed.

時間・位置判定部3cは、日時を測るための時計部と位置を測定するためのGPS(Global Positioning System:全地球測位システム)等を有し、撮影時刻や撮影位置を判定する。前述の記録部3は、画像データを記録する際に、画像データに関連付けて撮影時刻や撮影位置を記録する。   The time / position determination unit 3c includes a clock unit for measuring the date and time, a GPS (Global Positioning System) for measuring the position, and the like, and determines a shooting time and a shooting position. When recording the image data, the recording unit 3 records the shooting time and the shooting position in association with the image data.

文字入力部9aは、液晶表示部8の表示面に配置されたタッチパネル等を有し、タッチパネル上に書かれた文字を読み取り、また、液晶表示部8に図2(a)に示すような電子キーボード21を表示させ、この電子キーボード21にタッチすることによって文字入力を行う。この文字入力部9aによって、撮影写真にキーワードやタイトル等の付与を行う。文字入力部9aによって文字等を入力すると、例えば、図2(b)に示すように、入力表示部25に画像のタイトルやコメントが入る。   The character input unit 9a has a touch panel or the like disposed on the display surface of the liquid crystal display unit 8, reads characters written on the touch panel, and displays electronic data as shown in FIG. The keyboard 21 is displayed, and character input is performed by touching the electronic keyboard 21. This character input unit 9a gives keywords, titles, and the like to the photographed photos. When a character or the like is input by the character input unit 9a, for example, an image title or a comment is input to the input display unit 25 as shown in FIG.

記録部3内には文字情報記録部3bが設けてあり、この文字情報記録部3bは、文字の種類を記録する。すなわち、文字入力部9aから、漢字、ひらがな、カタカナ、英数字等が選択され、文字が入力されるので、この選択された文字の種別が記録される。図2(a)に示す例では、電子キーボード21に数字が0〜9が表示されているが、「切替」部23をタッチすることにより、キーボード表示が数字やアルファベット等に切り替わる。また、「変換」部24をタッチすることにより、漢字等に変換され、入力された文字等は、入力表示部25に表示される。また、文字では分かり難い場合には、テーマを表すアイコン26が表示される。また、このアイコン26はカメラ10が自動的にシーン分類した結果を表示するようにしても良い。図2(b)の例では、ポートレートモードが選択された様子を示している。なお、ユーザーが撮影時に手動設定した撮影モードを反映するようにしても勿論かまわない。   A character information recording unit 3b is provided in the recording unit 3, and the character information recording unit 3b records the type of character. That is, kanji, hiragana, katakana, alphanumeric characters, and the like are selected from the character input unit 9a and characters are input, and the type of the selected character is recorded. In the example shown in FIG. 2A, numerals 0 to 9 are displayed on the electronic keyboard 21, but by touching the “switch” unit 23, the keyboard display is switched to numerals, alphabets, and the like. Further, by touching the “conversion” unit 24, the characters are converted into kanji and the like, and the input characters are displayed on the input display unit 25. If it is difficult to understand with characters, an icon 26 representing the theme is displayed. The icon 26 may display the result of the scene classification automatically performed by the camera 10. In the example of FIG. 2B, the portrait mode is selected. Of course, the shooting mode manually set by the user at the time of shooting may be reflected.

特徴量数値化部5aは、記録部3に記録された画像に含まれる色や輪郭などの特徴量を数値化する。ここで数値化された特徴情報は、画像データと一緒に記録される。通信部6は、外部に画像データ等を送信するための送受信部である。送受信の方式としては、無線通信、赤外通信、無線LAN、USB端子等を利用した有線通信等である。この通信部6を介して、記録部3に記録されている画像データや、前述の撮影日時・撮影時刻情報や、画像の特徴を示す特徴情報等を、外部に送信する。   The feature value digitizing unit 5a digitizes feature values such as colors and contours included in the image recorded in the recording unit 3. The feature information digitized here is recorded together with the image data. The communication unit 6 is a transmission / reception unit for transmitting image data and the like to the outside. Transmission / reception methods include wireless communication, infrared communication, wireless LAN, wired communication using a USB terminal, and the like. Via this communication unit 6, image data recorded in the recording unit 3, the above-described photographing date / time information, characteristic information indicating image characteristics, and the like are transmitted to the outside.

文字検索部4は、記録部3に記録されている画像に付与されている文字データ(キーワードとも称す)に基づいて画像検索を行う。前述したように、文字入力部9aによって文字データが入力され、この文字データを画像データに関連付けて付与し、これを記録部3に記録する。文字検索部4は、この付与された文字データに基づいて画像を検索する。画像検索部5は、記録部3に記録されている画像に付与されている特徴情報に基づいて画像検索を行う。前述したように、特徴量数値化部5aによって、画像の特徴が数値化され、画像データと共に記録されているので、この特徴情報を基づいて画像検索を行う。   The character search unit 4 performs an image search based on character data (also referred to as a keyword) attached to an image recorded in the recording unit 3. As described above, the character data is input by the character input unit 9a, and the character data is associated with the image data and assigned to the image data, and is recorded in the recording unit 3. The character search unit 4 searches for an image based on the assigned character data. The image search unit 5 performs an image search based on feature information given to the image recorded in the recording unit 3. As described above, since the feature of the image is digitized by the feature value digitizing unit 5a and recorded together with the image data, an image search is performed based on this feature information.

検索エリア3aは、文字検索部4および画像検索部5によって画像検索を行う際の検索エリアである。画像内の情報を画像ごとに検索していくと、非常に時間がかかるので、記録部3内に、検索エリア3aを設け、ここに記憶されている一覧表形式のデータから検索を行うようにしている。   The search area 3 a is a search area when the character search unit 4 and the image search unit 5 perform an image search. Since it takes a very long time to search for information in an image for each image, a search area 3a is provided in the recording unit 3, and a search is performed from data in a list format stored therein. ing.

図3は、記録部3の内部のデータ構造を示し、記録部3内には、アドレス31を割り振られた画像ファイル32が記録されている。また、記録部3内には、検索エリア3aと文字情報記録部3bの領域が設けられている。   FIG. 3 shows an internal data structure of the recording unit 3, and an image file 32 to which an address 31 is allocated is recorded in the recording unit 3. In the recording unit 3, there are provided a search area 3a and a character information recording unit 3b.

検索エリア3aには、記録部3内に記録されている画像データについて、画像アドレスとそこに記録されている画像の関連データ、例えば、タイトル、コメント、撮影時の日時や位置などの撮影情報、サムネイル画像、特徴量数値化部によって数値化された特徴情報等が表形式で記憶されている。この検索エリア3aに表形式で記憶されている情報を用いて、画像との関連データを簡単に検索することができる。   In the search area 3a, for the image data recorded in the recording unit 3, an image address and related data of the image recorded therein, for example, shooting information such as a title, a comment, a shooting date and time, a position, Thumbnail images, feature information digitized by the feature value digitizing unit, and the like are stored in a table format. Using the information stored in the search area 3a in the form of a table, the data related to the image can be easily searched.

上述の関連データは、検索などで利用できるので、タグデータと呼ぶ。タグとはモノに付する小さな札のことであり、画像等に付加情報を埋め込む特殊な文字列をタグと称している。   The related data described above is called tag data because it can be used for searching and the like. A tag is a small tag attached to an object, and a special character string in which additional information is embedded in an image or the like is called a tag.

また、文字情報記録部3bには、文字情報が、例えば、電子キーボードに表示されたボタンの位置と、各文字の関係で記憶されている。制御部1は、何れのモードなら何れの文字を入力するかを、文字情報記録部3bに記録された情報に基づいて判定する。なお、文字に限らず、図2(b)に示すようにアイコン26を絵文字風に併用するようにしても良い。   In the character information recording unit 3b, character information is stored in relation to the position of the button displayed on the electronic keyboard and each character, for example. The control unit 1 determines which character is input in which mode based on information recorded in the character information recording unit 3b. In addition, not only a character but the icon 26 may be used together like a pictograph as shown in FIG.

本実施形態においては、後述するように、画像検索が可能であり、例えば、「ばら」というキーワード入力すると、図2(c)に示すように、ばらに関連した画像が液晶表示部8に表示される。このとき、キーワード(文字データ)として「ばら」が付与されている画像27a、27bのみならず、キーワードとしては一致しない画像であっても、類似している画像28を、特徴情報に基づいて検索し、参考画像として表示する。   In this embodiment, as will be described later, an image search is possible. For example, when the keyword “rose” is input, an image related to the rose is displayed on the liquid crystal display unit 8 as shown in FIG. Is done. At this time, not only the images 27a and 27b to which “rose” is assigned as a keyword (character data) but also a similar image 28 is searched based on the feature information even if the images do not match as keywords. And displayed as a reference image.

このように、本実施形態においては、ユーザーが誤って撮影画像に合わないキーワードを付与してしまった場合や、また他のユーザーから受信した画像であって、キーワードが異なっていても、類似する画像なら検索される。このため、忘れてしまっていた記憶が蘇ったり、想定外の画像から更なる画像検索をおこなったり、他のユーザーに連絡をとったりと、様々な楽しみに発展させることができる。   As described above, in the present embodiment, when a user mistakenly assigns a keyword that does not match a captured image, or an image received from another user even if the keyword is different, it is similar. If it is an image, it is searched. For this reason, the memory which has been forgotten can be revived, further image search can be performed from unexpected images, and other users can be contacted.

次に、本実施形態におけるカメラ10の動作について、図4に示すカメラ制御のフローチャートを用いて説明する。   Next, the operation of the camera 10 in the present embodiment will be described with reference to the camera control flowchart shown in FIG.

カメラ制御のフローに入ると、まず、撮影モードか否かの判定を行う(S101)。このカメラ10は、撮影モード、再生モード、受信モードの3つのモードが設定可能である。ステップS101の判定の結果、撮影モードであった場合には、撮影準備に移る。   If the camera control flow is entered, it is first determined whether or not the camera is in shooting mode (S101). The camera 10 can be set in three modes: a shooting mode, a playback mode, and a reception mode. If the result of determination in step S <b> 101 is that it is in shooting mode, the flow proceeds to shooting preparation.

撮影準備に移ると、まず、画像の取り込みを行う(S102)。このステップでは、撮影部2によって画像データを取り込み、この画像データに基づいて、液晶表示部8にライブビュー表示を行う。ライブビュー表示によって、ユーザーは、撮影範囲や構図を確かめることができる。また、顔検出部2bは、取り込まれた画像データを用い、顔の部分が存在するか否か、また存在する場合には画面中のどの位置にあるかについて検出する。ここで検出した顔に関する情報は撮影時に併せて記録する。   When the preparation for photographing is started, first, an image is captured (S102). In this step, image data is captured by the photographing unit 2, and live view display is performed on the liquid crystal display unit 8 based on the image data. The live view display allows the user to check the shooting range and composition. In addition, the face detection unit 2b uses the captured image data to detect whether or not a face portion exists, and if it exists, the position on the screen. Information about the detected face is recorded together with the shooting.

画像の取り込みを行うと、次に、レリーズ操作がなされたか否かの判定を行う(S103)。ユーザーはライブビュー表示を観察しながら、撮影者の意図する被写体像となった際に、操作部9内のレリーズ釦を操作する。したがって、このステップでは、レリーズ釦が操作されたか否かを判定する。ステップS103における判定の結果、レリーズでなかった場合には、ステップS101に戻り、前述の処理を行う。   Once the image has been captured, it is next determined whether or not a release operation has been performed (S103). The user operates the release button in the operation unit 9 when the subject image intended by the photographer is obtained while observing the live view display. Therefore, in this step, it is determined whether or not the release button has been operated. If the result of determination in step S103 is not release, processing returns to step S101 and the above-described processing is performed.

一方、ステップS103における判定の結果、レリーズされた場合には、撮影を行う(S104)。ここで、レリーズ操作されたタイミングにおける撮影部2からの画像データを記録部3に記録する。続いて、画像の特徴を抽出する(S105)。このステップでは、特徴量数値化部5aによって、画像の特徴を数値化し、この特徴情報を画像データに関連付けて記録部3に記録する。   On the other hand, if the result of determination in step S103 is that the shutter has been released, shooting is performed (S104). Here, the image data from the photographing unit 2 at the timing when the release operation is performed is recorded in the recording unit 3. Subsequently, the feature of the image is extracted (S105). In this step, the feature quantity digitizing unit 5a digitizes the image features, and the feature information is associated with the image data and recorded in the recording unit 3.

続いて、コメントが入力され、またはアイコンが設定されているか否かの判定を行う(S106)。被写体を撮影し画像を記録する際に、画像に関するコメントを入力することができる。すなわち、レリーズされ撮影が終わると、図2(a)に示したような電子キーボード21が、液晶表示部8に表示される。ユーザーはこの電子キーボード21を用いて、コメントやキーワードを、あたかもワープロで書き込むように入力することができる。なお、アイコンは、シーン分類や撮影モード等に応じて自動的に設定されるが、手動で設定するようにしても良い。   Subsequently, it is determined whether a comment is input or an icon is set (S106). When shooting a subject and recording an image, a comment regarding the image can be input. In other words, when the release and shooting are finished, the electronic keyboard 21 as shown in FIG. 2A is displayed on the liquid crystal display unit 8. Using this electronic keyboard 21, the user can input comments and keywords as if they were written by a word processor. The icon is automatically set according to the scene classification, shooting mode, etc., but may be set manually.

また、電子キーボード21上の切替部23をタッチすることにより、アイコン画面に切り換えることができる。アイコンとしては、「人物」、「花」、「ペット」等、種々のテーマを用意しておけば、整理が簡単になる。特徴情報に基づいて、自動的にアイコンが選択されるようにしても良いが、選択されなかった場合には、手動入力とすれば良い。   Further, by touching the switching unit 23 on the electronic keyboard 21, it is possible to switch to the icon screen. If various themes such as “person”, “flower”, “pet”, etc. are prepared as icons, the arrangement becomes easy. The icon may be automatically selected based on the feature information, but if it is not selected, manual input may be performed.

ステップS106における判定の結果、コメントやアイコンの入力がなされていない場合には、ステップS118に進み、一方、入力がなされていた場合には、この操作状態に基づいてコメントやアイコンの入力を行う(S107)。続いて、サムネイル作成とコメント等の記録を行う(S108)。このステップでは、ステップS107において入力したコメント(キーワード含む)やアイコンを、画像データに関連付けて記録し、また、サムネイル表示のためのデータを作成し記録する。   As a result of the determination in step S106, if no comment or icon has been input, the process proceeds to step S118. On the other hand, if an input has been made, a comment or icon is input based on this operation state ( S107). Subsequently, thumbnails are created and comments are recorded (S108). In this step, the comments (including keywords) and icons input in step S107 are recorded in association with the image data, and data for thumbnail display is created and recorded.

サムネイル作成・記録を行うと、次に、送信モードか否かの判定を行う(S118)。送信は、通信部6を介して行い、このステップでは、カメラ10が送信モードに手動設定され、送信ボタン等の操作部材が操作されたか否かを判定する。判定の結果、送信を行う場合であれば、送信を行う(S119)。このステップでは、通信部6を介して、記録部3に記録された画像データおよびこれに付随する関連情報を、外部のカメラや他の機器に送信する。ホットスポット等を介して、外部のサーバー等に送信しても勿論かまわない。   Once thumbnail creation / recording has been carried out, it is next determined whether or not it is in transmission mode (S118). Transmission is performed via the communication unit 6. In this step, it is determined whether or not the camera 10 is manually set to the transmission mode and an operation member such as a transmission button is operated. If it is determined that transmission is to be performed, transmission is performed (S119). In this step, the image data recorded in the recording unit 3 and related information associated therewith are transmitted to an external camera or other device via the communication unit 6. Of course, it may be transmitted to an external server via a hot spot.

ステップS118における判定の結果、送信でなかった場合、または、ステップS119における送信を実行すると、このフローを終了し、再び、ステップS101から実行する。   If the result of determination in step S118 is not transmission, or if transmission in step S119 is executed, this flow is terminated, and the process is executed again from step S101.

ステップS101における判定の結果、撮影モードでなかった場合には、再生モードが否かの判定を行う(S111)。この判定の結果、再生モードであった場合には、画像再生を行う(S112)。このステップでは、選択されている画像を表示するが、この通常の再生表示以外にも、選択画像と類似の画像を、キーワードや特徴情報を用いて検索し、図2(c)に示すように、液晶表示部8に表示する。この画像再生のサブルーチンについては、図5を用いて後述する。画像再生が終わると、このフローを終了し、ステップS101から再び実行する。   If the result of determination in step S101 is not shooting mode, it is determined whether or not playback mode is in effect (S111). If the result of this determination is playback mode, image playback is performed (S112). In this step, the selected image is displayed. In addition to this normal reproduction display, an image similar to the selected image is searched using keywords and feature information, and as shown in FIG. Is displayed on the liquid crystal display unit 8. This image reproduction subroutine will be described later with reference to FIG. When the image reproduction is finished, this flow is finished and executed again from step S101.

ステップS111における判定の結果、再生モードでなかった場合には、受信モードか否かの判定を行う(S131)。このカメラ10は、通信部6を介して、他のカメラ等の機器より、画像データを取得することができる。このステップでは、他の機器より画像データを受けているか否かの判定を行う。   If the result of determination in step S111 is not playback mode, it is determined whether or not it is reception mode (S131). This camera 10 can acquire image data from a device such as another camera via the communication unit 6. In this step, it is determined whether or not image data is received from another device.

ステップS131における判定の結果、受信モードでなかった場合には、各種設定を行う(S134)。このステップでは、被写体をきれいに撮影するためのモード等、ユーザーが各種の撮影モード等を設定することができる。なお、撮影モード等を設定すると、選択されたモードに関連するアイコンをタグデータに記録できるようしても良いことは既に述べた通りである。設定を行うと、ステップS101に戻る。   If the result of determination in step S131 is not reception mode, various settings are made (S134). In this step, the user can set various shooting modes, such as a mode for shooting a subject beautifully. As described above, when the shooting mode or the like is set, an icon related to the selected mode may be recorded in the tag data. After setting, the process returns to step S101.

ステップS131における判定の結果、受信モードであった場合には、画像の取得を行う(S132)。すなわち、通信部9にて受信した画像データを、記録部3に記録する。続いて、記録部3に記録した受信画像のデータについて、特徴抽出を行う(S133)。このステップでは、記録部3に記録した受信画像の画像データについて、特徴量数値化部5aによって特徴情報を求める。   If the result of determination in step S131 is that it is in reception mode, image acquisition is performed (S132). That is, the image data received by the communication unit 9 is recorded in the recording unit 3. Subsequently, feature extraction is performed on the received image data recorded in the recording unit 3 (S133). In this step, feature information is obtained by the feature value digitizing unit 5a for the image data of the received image recorded in the recording unit 3.

ステップS133における特徴抽出を行うと、ステップS106に進み、前述したように、コメント(キーワード含む)の入力やアイコンの選択を行い、画像データに関連付けて、記録部3に記録することができる。   When the feature extraction is performed in step S133, the process proceeds to step S106, and as described above, a comment (including a keyword) can be input and an icon can be selected and recorded in the recording unit 3 in association with the image data.

このように、カメラ制御のフローでは、撮影画像や他のユーザーから入手した画像に対して、キーワード等を含むコメントを入力したり、アイコンの選択を行って、これらの情報を画像データに関連付けて記録することができる。また、画像の特徴情報を求め、この特徴情報も画像データに関連付けて記録することができる。   As described above, in the camera control flow, a comment including a keyword or the like is input to a captured image or an image obtained from another user, an icon is selected, and the information is associated with the image data. Can be recorded. Further, image feature information can be obtained, and the feature information can also be recorded in association with image data.

次に、ステップS112における画像再生のサブルーチンについて、図5に示すフローチャートを用いて説明する。   Next, the image reproduction subroutine in step S112 will be described with reference to the flowchart shown in FIG.

まず、撮影画像の表示を行う(S151)。このステップでは、他のユーザーから受信した画像も含め記録部3に記録されている画像をサムネイル形式で液晶表示部8に表示する。続いて、検索モードか否かの判定を行う(S152)。操作部9によるメニュー画面等かにおいて検索モード設定するので、このステップでは検索モードに設定されたか否かの判定を行う。   First, a captured image is displayed (S151). In this step, images recorded in the recording unit 3 including images received from other users are displayed on the liquid crystal display unit 8 in a thumbnail format. Subsequently, it is determined whether or not the search mode is set (S152). Since the search mode is set on the menu screen or the like by the operation unit 9, it is determined in this step whether or not the search mode is set.

ステップS152における判定の結果、検索であった場合には、タグ検索表示を行う(S171)。このステップでは、図2(a)に示すように、タグに対応する言葉や数字、記号等を入力する入力画面を表示する。ユーザーはこの入力画面を用いて、検索したいキーワード、アイコン、特徴情報等を入力することができる。   If the result of determination in step S152 is search, tag search display is performed (S171). In this step, as shown in FIG. 2A, an input screen for inputting words, numbers, symbols and the like corresponding to the tag is displayed. Using this input screen, the user can input keywords, icons, feature information, etc. to be searched.

タグ検索表示画面で検索用のキーワード等が入力されると、続いて、類似タグ有りか否かの判定を行う(S172)。このステップでは、文字検索部4によってキーワード等を用いて、類似タグが付された画像が有るか否か、また画像検索部5によって特徴情報を用いて類似画像が有るか否かを判定する。ステップS172における判定の結果、類似タグの付された画像が存在しなかった場合には、液晶表示部8に警告表示を行う(S181)。警告表示を行うと、元のフローに戻る。   When a search keyword or the like is input on the tag search display screen, it is subsequently determined whether or not there is a similar tag (S172). In this step, the character search unit 4 uses a keyword or the like to determine whether there is an image with a similar tag, and the image search unit 5 uses the feature information to determine whether there is a similar image. If the result of determination in step S172 is that there is no image with a similar tag, a warning is displayed on the liquid crystal display unit 8 (S181). When the warning is displayed, the original flow is restored.

ステップS172における判定の結果、類似タグが有った場合には、検索された画像を、図2(b)に示すように表示する(S173)。続いて、検索された画像が複数あるか否かの判定を行う(S174)。この判定の結果、検索された画像が複数なかった場合には、ステップS176に進む。一方、類似画像があった場合には、元の画像も含めて複数の画像で共通する特徴の抽出を行う(S175)。   If the result of determination in step S172 is that there is a similar tag, the retrieved image is displayed as shown in FIG. 2B (S173). Subsequently, it is determined whether there are a plurality of searched images (S174). As a result of the determination, if there are not a plurality of searched images, the process proceeds to step S176. On the other hand, if there is a similar image, features common to a plurality of images including the original image are extracted (S175).

ステップS175において行う共通する特徴の抽出については、本発明に関連する第1技術において、図10ないし図16を用いて詳細に説明するが、簡単に説明する。図15(a)、図16(a)のような画像が類似画像として検索された場合、図15(b)、図16(b)に示す特徴パターンがあり、画面上半分は両者、類似していることから、重ねた場合に一致度の高いパターン分布(図14(b)参照)を、共通特徴とする。このように、特徴パターンの一致度を判定することにより行う。   The common feature extraction performed in step S175 will be described in detail in the first technique related to the present invention, using FIG. 10 to FIG. When images as shown in FIGS. 15A and 16A are searched as similar images, there are feature patterns shown in FIGS. 15B and 16B, and the upper half of the screen is similar to both. Therefore, a pattern distribution (see FIG. 14B) having a high degree of coincidence when overlapped is a common feature. In this way, the determination is made by determining the matching degree of the feature pattern.

次に、液晶表示部8に検索の結果、所定数の画像を表示できか否かの判定を行う(S176)。この判定の結果、所定数の画像が表示されていた場合には、十分楽しむだけの画像が検索されたことから、ステップS153に進む。一方、所定数の画像が表示できない場合には、表示画像を増やすために、さらに画像を検索する。まず、検索された画像に、ステップS171において検索されたタグとは別のタグが付与されている否かの判定を行う(S177)。   Next, it is determined whether or not a predetermined number of images can be displayed as a result of the search on the liquid crystal display unit 8 (S176). As a result of the determination, if a predetermined number of images are displayed, images that can be enjoyed sufficiently are searched, and the process proceeds to step S153. On the other hand, if a predetermined number of images cannot be displayed, further images are searched to increase the number of displayed images. First, it is determined whether a tag different from the tag searched in step S171 is assigned to the searched image (S177).

ステップS177における判定の結果、別タグの付与された画像が存在しなかった場合には、前述のステップS181に進み、警告表示を行う。一方、別タグが有った場合には、別タグを用いて類似画像を検索する(S178)。このステップでは、ステップS175において、抽出された共通の特徴情報が存在する場合に、この特徴情報を用いて類似画像が存在するか否かを判定する。その他、ステップS174において検出された類似画像に共通するコメントやキーワード等のタグを用いて類似画像を検索しても良い。   If the result of determination in step S177 is that there is no image to which another tag has been added, processing proceeds to step S181 described above and warning display is performed. On the other hand, if there is another tag, a similar image is searched using the other tag (S178). In this step, if the extracted common feature information exists in step S175, it is determined whether or not a similar image exists using this feature information. In addition, similar images may be searched using tags such as comments and keywords common to the similar images detected in step S174.

このステップで検索されて類似画像は、液晶表示部8に表示される(S179)。表示を行うと、ステップS176に戻り、所定数に達するまで、ステップS177〜S179が繰り返される(但し、別タグが存在しなくなるとこれらのステップは終了する)。   The similar image retrieved in this step is displayed on the liquid crystal display unit 8 (S179). When the display is performed, the process returns to step S176, and steps S177 to S179 are repeated until the predetermined number is reached (however, these steps end when another tag does not exist).

ステップS152における判定の結果、検索でなかった場合には、通常の画像再生を行い、また、ステップS176において画像検索の結果、所定数の画像を検索し図2(c)に示すように検索画像を表示すると、次に検索された画像の再生を行う。まず、液晶表示部8に表示されている複数の画像の内の何れかが選択されているか否かの判定を行う(S153)。   If the result of determination in step S152 is not retrieval, normal image reproduction is performed. In step S176, a predetermined number of images are retrieved as a result of image retrieval, and search images are retrieved as shown in FIG. When is displayed, the next searched image is reproduced. First, it is determined whether any of a plurality of images displayed on the liquid crystal display unit 8 is selected (S153).

ステップS153における判定の結果、タッチパネルがタッチされ、何れかの画像が選択された場合には、その画像の拡大表示を行う(S154)。続いて、画像を再度タッチされる等の操作により、戻し操作がなされたかを判定する(S155)。戻し操作がなされた場合には、画像のサイズを元に戻す(S156)。元のサイズに戻し、サムネイル表示にしてから、ステップS153に戻る。   If the result of determination in step S153 is that the touch panel has been touched and any image has been selected, that image is enlarged and displayed (S154). Subsequently, it is determined whether a return operation has been performed by an operation such as touching the image again (S155). If a return operation has been performed, the image size is returned to the original size (S156). After returning to the original size and displaying thumbnails, the process returns to step S153.

ステップS153における判定の結果、何れかの画像が選択されていなかった場合には、次に、ユーザーが別画像を見たいか否かの判定を行う(S161)。この場合には、ユーザーは、次候補のアイコンをタッチする。この判定の結果、別画像(次候補)が選択された場合には、次の候補をサムネイル表示で一覧表示する(S162)。すでに表示された画像の次の候補を表示し、ステップS151に戻り、前述の動作を実行する。   If any image is not selected as a result of the determination in step S153, it is next determined whether or not the user wants to see another image (S161). In this case, the user touches the next candidate icon. If another image (next candidate) is selected as a result of this determination, the next candidate is displayed as a list in thumbnail display (S162). The next candidate for the already displayed image is displayed, and the process returns to step S151 to execute the above-described operation.

以上、説明したように、本実施形態においては、ユーザーが探したい画像を画像に付与されているタグを用いて、文字検索部4や画像検索部5において検索し(S171)、また、検索された複数の画像から共通する特徴を抽出している(S175)。ここで抽出された特徴情報を用いて再度、ユーザーが探したい画像の検索を行っている(S178)。このように、ユーザーが探したい画像をキーワード以外でも検索して表示可能としており、多数の画像が検索され表示され、表示画面は賑やかになる。カメラを利用するのが楽しくなり、また、思わぬ画像も表示され、思い手の喚起やコミュニケーションの促進に寄与することができる。   As described above, in this embodiment, the character search unit 4 or the image search unit 5 searches for an image that the user wants to search using the tag attached to the image (S171). A common feature is extracted from the plurality of images (S175). The feature information extracted here is used to search for an image that the user wants to search again (S178). As described above, the image that the user wants to search can be searched and displayed even other than the keyword, and a large number of images are searched and displayed, and the display screen becomes lively. Using the camera is fun and unexpected images are also displayed, which can contribute to stimulating thoughts and promoting communication.

なお、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、また、携帯電話や携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも構わない。   In the present embodiment, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, and may be a mobile phone or a personal digital assistant (PDA). A camera built in Personal Digital Assist) may be used.

また、本実施形態においては、カメラ10内に、撮影機能と再生・検索表示機能の両方を兼ね備えていた。しかし、このうち、再生・検索表示機能のみをパーソナルコンピュータ等の機器で実行するようにしてもよい。この場合には、カメラ10の記録部3に記録された画像データや関連データを、パーソナルコンピュータ等の機器にインストールし、再生や検索を行えば良い。また、特徴情報の抽出もパーソナルコンピュータ等の機器で行うようにしても良い。   In the present embodiment, the camera 10 has both a photographing function and a playback / search display function. However, among these, only the playback / search display function may be executed by a device such as a personal computer. In this case, the image data and related data recorded in the recording unit 3 of the camera 10 may be installed in a device such as a personal computer and played back or searched. The feature information may also be extracted by a device such as a personal computer.

次に、本発明に関連する第1技術について、図6ないし図17を用いて説明する。本発明の第1実施形態に係る画像検索システムは、カメラ10に適用した例であった。本発明に関連する第1技術に係る画像検索装置は、インターネットを介して複数のサーバーが連携するシステムによって構成される。文化や言語が異なると、同じキーワードでも簡単に画像検索を行うことができないが、本技術の画像検索システムを世界的な規模で構成すると、大きな効果を発揮する。   Next, a first technique related to the present invention will be described with reference to FIGS. The image search system according to the first embodiment of the present invention is an example applied to the camera 10. The image search apparatus according to the first technique related to the present invention is configured by a system in which a plurality of servers cooperate via the Internet. Different cultures and languages cannot be used to easily search for images with the same keyword, but if the image search system of this technology is configured on a global scale, it will be very effective.

図6は、本技術の構成を示し、インターネットによって互いにアクセス可能な複数のサーバー90、100、110から構成されている。サーバー100は、その内部に、制御部101、ネットアクセス部102、画像記録部103、および翻訳部104を有する。   FIG. 6 shows a configuration of the present technology, which includes a plurality of servers 90, 100, and 110 that can be accessed with each other via the Internet. The server 100 includes a control unit 101, a net access unit 102, an image recording unit 103, and a translation unit 104 therein.

制御部101は、サーバー100内の各部に接続され、サーバー100の全体の制御を行う。ネットアクセス部102は、インターネットを介して外部のサーバー90、110等にアクセス可能である。画像記録部103は、ユーザー41等のパーソナルコンピュータ等から送信されてきた画像を記録する。翻訳部104は、画像記録部103や外部のサーバーに記録されている画像の検索を行う際に、タグ等に付与されているキーワードを翻訳する。   The control unit 101 is connected to each unit in the server 100 and controls the entire server 100. The net access unit 102 can access external servers 90 and 110 and the like via the Internet. The image recording unit 103 records an image transmitted from a personal computer such as the user 41. The translation unit 104 translates a keyword assigned to a tag or the like when searching for an image recorded in the image recording unit 103 or an external server.

サーバー110は、その内部に、制御部111、ネットアクセス部112、および画像記録部113を有する。制御部111は制御部101と同様、サーバー110内の制御を行い、ネットアクセス部112はネットアクセス部102と同様、インターネットを介して他のサーバー等にアクセスする。また、画像記録部113は、ユーザー42のパーソナルコンピュータ等から送信されてきた画像を記録する。   The server 110 includes a control unit 111, a net access unit 112, and an image recording unit 113 therein. Similar to the control unit 101, the control unit 111 controls the server 110, and the net access unit 112 accesses other servers and the like via the Internet, like the net access unit 102. The image recording unit 113 records an image transmitted from the personal computer of the user 42 or the like.

サーバー90は、本技術において中核的なサーバーであり、その内部に、制御部91、ネットアクセス部92、タグ検索部93、特徴抽出部94、類似画像検索部95、地域/言語判定部96、および表示画像決定部97を有している。   The server 90 is a core server in the present technology, and includes a control unit 91, a net access unit 92, a tag search unit 93, a feature extraction unit 94, a similar image search unit 95, an area / language determination unit 96, And a display image determination unit 97.

制御部91は、制御部101、111と同様、サーバー90の全体を制御し、ネットアクセス部92は、ネットアクセス部102、112と同様に、インターネットを通じて外部のサーバー等にアクセスし、また、外部のサーバー等からアクセスされた際に通信を行う。なお、画像記録部は図中、明示されていないが、サーバー90内に設けてあり、外部からアクセスしてきた画像データの記録を行う。   The control unit 91 controls the entire server 90 in the same manner as the control units 101 and 111, and the net access unit 92 accesses an external server or the like through the Internet in the same manner as the net access units 102 and 112. Communicates when accessed from other servers. The image recording unit is not explicitly shown in the figure, but is provided in the server 90 and records image data accessed from the outside.

タグ検索部93は、サーバー90内の画像記録部に記録された画像について、画像データに付与されているタグの検索を行う。なお、本発明の第1実施形態と同様に検索エリアを設け、一覧表形式でタグデータを整理し、これを検索するようにしても良い。特徴抽出部94は、画像記録部に記録されている画像について特徴を抽出する。類似画像検索部95は、特徴抽出部94によって抽出された特徴に基づいて、類似の画像を検索する。   The tag search unit 93 searches for a tag attached to the image data for the image recorded in the image recording unit in the server 90. As in the first embodiment of the present invention, a search area may be provided, tag data may be arranged in a list format, and this may be searched. The feature extraction unit 94 extracts features from the image recorded in the image recording unit. The similar image search unit 95 searches for similar images based on the features extracted by the feature extraction unit 94.

表示画像決定部97は、タグ検索部93、特徴抽出部94、および類似画像検索部95等によって検索された画像等の表示画像を決定する。地域/言語判定部96は、他のサーバー100、110が、主に使用している言語や設置地域を判定する。本技術においては、地域/言語判定部96によって言葉による検索ができないと判定された場合には、画像の特徴情報に基づいて類似画像検索部95によって類似画像を検索することができる。   The display image determination unit 97 determines a display image such as an image searched by the tag search unit 93, the feature extraction unit 94, the similar image search unit 95, and the like. The area / language determination unit 96 determines the language and installation area mainly used by the other servers 100 and 110. In the present technology, when the region / language determination unit 96 determines that the search by words is not possible, the similar image search unit 95 can search for a similar image based on the feature information of the image.

サーバー100、110は、ローカルなサーバーであり、その設置国の言語によりサーバー内の画像の検索は可能であるが、外国語での検索は基本的には対応していない。サーバー90は、外部サーバーにある画像について、各種言語で検索することが可能であり、また、特徴抽出部94や類似画像検索部95によって画像自体での検索が可能である。例えば、外国のユーザー42が自国語で画像検索を行い、パーソナルコンピュータに検索画像43を表示する際に、日本のユーザー41がウェブ上に公開した画像44も検索し、表示することができる。この画像44は、勿論、外国のユーザー42の使用言語ではキーワードが付与されておらず(場合によっては、何らキーワードが付与されていない)、このことが分かるようにするために、日の丸(国旗)を画像44の脇に表示するようにしても良い。   The servers 100 and 110 are local servers, and images in the server can be searched according to the language of the country where the servers are installed, but searching in a foreign language is not basically supported. The server 90 can search for images in the external server in various languages, and can search the images themselves by the feature extraction unit 94 and the similar image search unit 95. For example, when a foreign user 42 performs an image search in their own language and displays a search image 43 on a personal computer, an image 44 published on the web by a Japanese user 41 can also be searched and displayed. Of course, the image 44 is not assigned a keyword in the language used by the foreign user 42 (in some cases, no keyword is assigned), and in order to understand this, the Hinomaru (national flag) May be displayed beside the image 44.

図7は、サーバー90で検索された画像表示の例である。世界地図がバックになっており、いずれのサーバーによって記録された画像であるかによって、世界地図上における画像の表示位置を決定している。世界各地域の画像を見ることができると楽しいことから、各地域ごとに少なくとも1枚ずつ画像が表示できるように表示枠を設けておき、そこに順次検索画像を表示する。   FIG. 7 is an example of the image display retrieved by the server 90. The display position of the image on the world map is determined depending on which server is the image recorded by the world map. Since it is fun to see the images of each region in the world, a display frame is provided so that at least one image can be displayed for each region, and the search images are sequentially displayed there.

例えば、日本において薔薇の画像を見たいユーザーが、「薔薇」でキーワード検索を行う。近年、翻訳技術も発達していることから、「Rose」と英訳し、アメリカやオーストラリア等における画像を、キーワードの翻訳によって検索することができる。その他の地域では、言語が錯綜していたり、言語の数も多いことから、サーバーに記録されている画像を、画像の特徴を抽出して検索する。日米豪で検索され表示された画像と、類似の特徴を持つ画像を探すことにより、間違いがなく画面にマッチした画像を表示することが可能となる。   For example, a user who wants to see a rose image in Japan performs a keyword search for “rose”. In recent years, translation technology has also been developed. Therefore, English can be translated as “Rose”, and images in the United States, Australia, etc. can be searched by translating keywords. In other regions, languages are complicated or the number of languages is large. Therefore, images recorded on the server are searched by extracting image features. By searching for images that are similar to the images searched and displayed in Japan, the United States, and Australia, it is possible to display images that match the screen without error.

次に、本発明に関連する第1技術における画像検出と表示を行うためのサーバー90の動作を、図8および図9に示すフローチャートを用いて説明する。   Next, the operation of the server 90 for performing image detection and display in the first technique related to the present invention will be described using the flowcharts shown in FIGS.

図8に示す画像表示のフローに入ると、まず、一覧表示か否かの判定を行う(S201)。画像表示のフローにおいては、ユーザー自身が撮影した画像を、保管一覧表から探すか、キーワード等により検索するかのいずれかを選択できる。この判定の結果、一覧表示であった場合には、次に記録場所の指定を行う(S202)。このステップでは、ユーザーの画像を保管した場所のアドレス等を指定する。   When the flow of image display shown in FIG. 8 is entered, it is first determined whether or not a list is displayed (S201). In the image display flow, it is possible to select either an image captured by the user himself / herself from a storage list or a keyword or the like. If the result of this determination is list display, then the recording location is designated (S202). In this step, the address of the location where the user's image is stored is designated.

続いて、画像の記録場所の指定がなされたか否かを判定する(S203)。この判定の結果、指定がなされていなければ、ステップS202に戻り、一方、指定がなされた場合には、指定の新しい順に画像を順次表示する(S204)。次いで、一覧表示が終了か否かの判定を行い(S205)、この判定の結果、終了でなければ、1枚画像表示を行う(S231)。続いて、画像が人物以外か否かの判定を行い(S232)、判定の結果、人物であれば、そのままステップS204に戻り、一方、判定の結果、人物以外であれば、参考画像の表示を行い(S233)、ステップS204に戻る。   Subsequently, it is determined whether or not an image recording location has been designated (S203). As a result of the determination, if no designation is made, the process returns to step S202. On the other hand, if designation is made, the images are sequentially displayed in the new order of designation (S204). Next, it is determined whether or not the list display is completed (S205). If the result of this determination is not the end, the single image display is performed (S231). Subsequently, it is determined whether or not the image is a person other than the person (S232). If the result of the determination is a person, the process returns to step S204 as it is. Perform (S233), and return to step S204.

すなわち、ステップS202において指定された場所に保管されている画像は、所定の数で画面内を満たすまでは、1枚ずつ表示され(S231)、人物以外の画像であれば、この画像に類似する参考画像を検索し表示する(S233)。参考画像は、花や風景など、類似殿高い画像であり、図6の画像44に示すように、同一画面上にユーザーの撮影した画像43と並置して表示する。   That is, the images stored in the location designated in step S202 are displayed one by one until the predetermined number of images are filled in the screen (S231). If the image is other than a person, it is similar to this image. A reference image is retrieved and displayed (S233). The reference image is a similar image such as a flower or landscape, and is displayed side by side with the image 43 taken by the user on the same screen as shown in an image 44 in FIG.

このステップS233の参考画像表示のサブルーチンについては、図9を用いて後述する。なお、人物の画像の場合には、表示された人物と似た人物を表示することは、表示された人物からみて面白いことではないので、人物の場合には、類似画像検索は行っていない。   The reference image display subroutine in step S233 will be described later with reference to FIG. In the case of a person image, displaying a person similar to the displayed person is not interesting from the viewpoint of the displayed person. Therefore, in the case of a person, a similar image search is not performed.

ステップS205における判定の結果、表示画像の数が所定数に達すると、一覧表示を終了する。一覧表示を終了すると、次に、拡大を行うか否かの判定を行う(S206)。このステップでは、ユーザーによってパーソナルコンピュータで拡大操作がなされてか否かを判定する。この判定の結果、拡大操作がなければ、ステップS202に戻る。一方、判定の結果、拡大操作がなされていれば、選択された画像の拡大表示を行う(S207)。   When the number of display images reaches a predetermined number as a result of the determination in step S205, the list display is terminated. When the list display is completed, it is next determined whether or not to enlarge (S206). In this step, it is determined whether or not an enlargement operation is performed on the personal computer by the user. If the result of this determination is that there is no enlargement operation, processing returns to step S202. On the other hand, if the result of determination is that an enlargement operation has been performed, the selected image is enlarged and displayed (S207).

続いて、画像表示を終了するか否かの判定を行う(S208)。このステップでは、ユーザーによって終了操作がなれたか否かの判定を行う。この判定の結果、終了であれば終了処理を行い、一方、終了でなかった場合には、別候補の表示を行うか、または拡大表示された画像を縮小するかの判定を行う。この判定の結果、縮小することが選択された場合には、画像の縮小を行い(S213)、一方、別候補の選択であれば、別候補の画像の表示を行う(S212)。これらのステップを処理すると、ステップS201に戻る。   Subsequently, it is determined whether or not to end the image display (S208). In this step, it is determined whether or not an end operation has been performed by the user. As a result of this determination, if it is the end, the end process is performed. On the other hand, if it is not the end, it is determined whether another candidate is displayed or the enlarged image is reduced. As a result of this determination, if reduction is selected, the image is reduced (S213). On the other hand, if another candidate is selected, another candidate image is displayed (S212). When these steps are processed, the process returns to step S201.

ステップS201における判定の結果、一覧表示でなかった場合には、次に、検索入力を行う(S221)。このステップで、ユーザーはキーワード等を入力する。この検索入力に基づいて、次に、ステップS233と同様に、参考画像を検索し、表示する(S222)。ここでのサブルーチンは図9を用いて後述する。参考画像の表示を行うと、ステップS201に戻る。   If the result of determination in step S201 is not list display, search input is next carried out (S221). In this step, the user inputs a keyword or the like. Based on this search input, next, a reference image is searched and displayed as in step S233 (S222). The subroutine here will be described later with reference to FIG. When the reference image is displayed, the process returns to step S201.

次に、ステップS222およびS233における参考画像表示のサブルーチンについて、図9を用いて説明する。   Next, the reference image display subroutine in steps S222 and S233 will be described with reference to FIG.

まず、文字情報の読出しを行う(S251)。このステップでは、ステップS221において入力されたキーワード等の文字情報の読出しを行う。この検索にあたっては、図3に示したように、検索用の画像とキーワード等の関係を一覧にした表示を別に有し、この一覧表を用いて検索するようにしても勿論かまわない。次に、このキーワード等の文字情報に基づいて類似画像の選択を行う(S252)。このステップでは、文字データを用いて、画像に添付されているタグ情報を検索し、類似画像を選択する。   First, character information is read (S251). In this step, character information such as a keyword input in step S221 is read. In this search, as shown in FIG. 3, it is of course possible to separately display a list of relationships between search images and keywords, and search using this list. Next, a similar image is selected based on the character information such as the keyword (S252). In this step, tag data attached to the image is searched using character data, and a similar image is selected.

続いて、ステップS252において、類似画像が選択されたか否かを判定する(S253)。この判定の結果、1枚も画像を選択することができなかった場合には、警告表示を行い(S259)、元のフローに戻る。一方、1枚でも類似画像を選択することができた場合には、その類似画像を表示する(S254)。ここでは、入力キーワードと同様のキーワードやコメントを有する画像を表示する。なお、本技術においては、キーワード等でヒットした画像のみならず、これに類似する画像を表示することにより、画面を楽しくするために、画面上に予め定められた数の類似画像が表示されるまで、類似画像の表示を繰り返す。   Subsequently, in step S252, it is determined whether a similar image has been selected (S253). As a result of the determination, if no image can be selected, a warning is displayed (S259), and the process returns to the original flow. On the other hand, if even a single image can be selected, the similar image is displayed (S254). Here, an image having the same keyword and comment as the input keyword is displayed. In the present technology, a predetermined number of similar images are displayed on the screen in order to make the screen more enjoyable by displaying not only images hit by keywords and similar images but also similar images. Until the display of similar images is repeated.

ステップS254において画像を表示すると、次に、所定数再生を行ったかを判定する(S255)。これは、前述したように、所定数まで類似画像が表示されたかを判定するためである。この判定の結果、所定数の表示が終わっていなかった場合には、次に、類似画像があるか否かの判定を行う(S261)。このステップは、ステップS254で複数の類似画像を表示することができか否かの判定行うものである。   If an image is displayed in step S254, it is then determined whether a predetermined number of reproductions have been performed (S255). As described above, this is for determining whether a similar number of similar images have been displayed. If the predetermined number of displays are not finished as a result of this determination, it is next determined whether or not there is a similar image (S261). In this step, it is determined whether or not a plurality of similar images can be displayed in step S254.

このステップS261における判定の結果、複数の類似画像がなかった場合には、ステップS263に進み、一方、判定の結果、複数の類似画像があれば、次に共通特徴の抽出を行う(S262)。この共通特徴の抽出については、図10ないし図17を用いて後述する。共通特徴の抽出を行うと、次に、別言語サーバーを選択できるか否かの判定を行う(S263)。   If the result of determination in step S261 is that there are no plurality of similar images, processing proceeds to step S263. On the other hand, if the result of determination is that there are a plurality of similar images, common features are then extracted (S262). The extraction of the common feature will be described later with reference to FIGS. Once the common features have been extracted, it is next determined whether or not another language server can be selected (S263).

ここで、別言語サーバーを選択するのは、キーワード等の文字データで検索する場合には、同じ言語であるなら既に検索されている可能性があり、二度手間になってしまうおそれがあるのに対して、別言語サーバーを選択することによって、バラエティに富んだ画像を検索し表示することが可能だからである。   Here, another language server is selected when searching with character data such as a keyword. If the same language is used, there is a possibility that it has already been searched and there is a possibility that it will be troublesome twice. On the other hand, a variety of images can be searched and displayed by selecting a different language server.

ステップS263における判定の結果、別言語サーバーが見つからなかった場合には、ステップS255に戻り、一方、別言語サーバーが見つかった場合には、特徴量類似画像検索を行う(S264)。このステップでの検索は、ステップS262において抽出した共通特徴量(特徴情報)を用いて行う。言語が相違していても、画像の特徴情報を用いるので、画像検索を行うことができる。   As a result of the determination in step S263, if another language server is not found, the process returns to step S255. On the other hand, if another language server is found, a feature quantity similar image search is performed (S264). The search in this step is performed using the common feature amount (feature information) extracted in step S262. Even if the languages are different, image feature information is used, so that an image search can be performed.

続いて、ステップS264における検索の結果、類似画像が検索されたかを判定する(S265)。この判定の結果、類似画像が検索された場合には、類似度の高い画像を表示する(S266)。画像表示を行うと、ステップS255に戻り、所定数の類似画像を表示するまでは、前述のステップを実行する。   Subsequently, as a result of the search in step S264, it is determined whether a similar image has been searched (S265). If a similar image is searched as a result of this determination, an image with a high similarity is displayed (S266). When the image display is performed, the process returns to step S255, and the above-described steps are executed until a predetermined number of similar images are displayed.

ステップS255における判定の結果、所定数の類似画像を再生表示すると、NGか否かの判定を行う(S271)。このステップでは、ユーザーは、類似画像を見て気に入らない場合には、NGである旨の操作を行うので、NG操作がなされたか否かの判定を行う。この判定の結果、NGでなければ、所定数の類似画像を表示したことから、元のフローに戻る。   If a predetermined number of similar images are reproduced and displayed as a result of the determination in step S255, it is determined whether or not the image is NG (S271). In this step, if the user does not like the similar image, he / she performs an operation indicating that it is NG, and therefore determines whether or not an NG operation has been performed. If the result of this determination is not NG, a predetermined number of similar images have been displayed, and the flow returns to the original flow.

ステップS271における判定の結果、NGであった場合には、つぎに、NG画像判定を行う(S272)。ここでは、表示した複数の類似画像のうち、いずれの画像がNGであったかを判定する。続いて、検索を文字でやり直すか否かの判定を行う(S273)。このステップでは、ユーザーの操作状態から判定する。この判定の結果、文字で検索をやり直す場合には、類似カテゴリーの文字を入力する(S275)。新たに検索用のキーワードが入力されると、ステップS251に戻り、前述の処理を実行する。   If the result of determination in step S271 is NG, then NG image determination is performed (S272). Here, it is determined which of the plurality of displayed similar images is NG. Subsequently, it is determined whether or not the search is performed again with characters (S273). In this step, the determination is made based on the operation state of the user. As a result of the determination, when the search is performed again with characters, characters of similar categories are input (S275). When a new search keyword is input, the process returns to step S251 to execute the above-described processing.

ステップS273における判定の結果、文字入力がなかった場合には、特徴量の微修正を行う(S274)。この特徴量の微修正は、後述する図14(b)の例では、類似特徴をとる範囲を、図中の円の大きさを変更する等により変更することにより行う。特徴量を微修正すると、ステップS263に進み、特徴量を用いて、再度、別言語サーバーで類似画像の検索を行い、検索画像の再生表示を行う。   If the result of determination in step S273 is that there is no character input, fine correction of the feature quantity is performed (S274). In the example of FIG. 14B, which will be described later, this feature amount is finely corrected by changing the range in which similar features are obtained, for example, by changing the size of a circle in the drawing. If the feature amount is finely corrected, the process proceeds to step S263, and using the feature amount, a similar image is searched again with another language server, and the search image is reproduced and displayed.

このように、本技術においては、検索時には、キーワード等の文字を入力することにより類似画像の検索を行い、検索された類似画像の特徴情報を抽出し、キーワード等とは別言語のサーバーにアクセスし、特徴情報を用いて画像検索を行うようにしている。このため、世界中のサーバーに蓄積されている画像の中から、類似している画像を、精度良く、効率よく検索し、表示することができる。   As described above, in the present technology, at the time of searching, a similar image is searched by inputting characters such as a keyword, feature information of the searched similar image is extracted, and a server in a language different from the keyword is accessed. The image search is performed using the feature information. For this reason, it is possible to search and display a similar image with high accuracy and efficiency from images stored in servers all over the world.

ユーザーは、検索時にはキーワードを入力するだけでよい。なわち、キーワードの方が思いつきやすく、また、入力しやすいことから、検索が簡単で便利である。   The user only has to enter a keyword when searching. In other words, keywords are easier to come up with and easier to enter, making searching easier and more convenient.

また、パーソナルコンピュータやインターネット等のネットも、画像検索等を得意としているが、言語や文化の壁があり、また翻訳の正確さや世界中で検索することは困難である。しかし、本技術によれば、言語が異なる場合には、画像の特徴情報から検索することができ、言語上の問題を解決することができ、よりバラエティに富んだ画像の表示が可能となる。   Internet such as personal computers and the Internet are good at image search, but there are language and culture barriers, and it is difficult to search for accuracy of translation and worldwide. However, according to the present technology, when the languages are different, it is possible to search from the feature information of the image, to solve the language problem, and to display a more variety of images.

次に、図10ないし図17を用いて、本技術における類似画像の特徴情報の抽出と類似画像の検索について説明する。   Next, extraction of feature information of similar images and search of similar images in the present technology will be described with reference to FIGS. 10 to 17.

今、図10(a)に示すバラの画像について、類似画像を検索するために、特徴情報を抽出する。図10(b)(c)は、バラの画像の一部分を拡大し、画素レベルでエッジ強調し二値化した様子を示す。図10(d)(e)は、さらに、所定ピッチで残した黒い部分が、直交する直線に乗る場合、直交した部分(丸く囲んだ直交部分51)を特徴点と考える。   Now, feature information is extracted in order to search for similar images of the rose image shown in FIG. FIGS. 10B and 10C show a state where a part of a rose image is enlarged, edge-enhanced at the pixel level, and binarized. In FIGS. 10D and 10E, when a black portion remaining at a predetermined pitch is on an orthogonal straight line, the orthogonal portion (the orthogonal portion 51 surrounded by a circle) is considered as a feature point.

図11は、図10(a)に示した画像の特徴点の分布を示す。この特徴点の分布図を、密度に従って画面を分割し分類すると、図12のようになる。この例では、隣接する特徴点が近く、その付近の色が例えば赤い部分(△を付した部分)と、隣接する特徴点が遠く、その付近の色が赤い部分(○を付した部分)と、隣接する特徴点が離散的で、その付近の色が例えば、緑の部分(□を付した部分)と、3つの部分に分割することができる。   FIG. 11 shows the distribution of feature points of the image shown in FIG. FIG. 12 shows the distribution of feature points divided into screens according to the density. In this example, an adjacent feature point is close and the color in the vicinity is, for example, a red portion (a portion marked with Δ), and an adjacent feature point is far and the color in the vicinity is a red portion (a portion marked with ○). The adjacent feature points are discrete, and the color in the vicinity can be divided into, for example, a green part (part marked with □) and three parts.

このような特徴点の画面内の分布や色の関係を、前述の図3に示したような特徴情報として、数値化して記録することにより、全ての画像を再生しなくても、数値を比較することにより、画像の一致度を迅速に調べることができる。類似する画像は、これらの各部分の形状や、前述の○部分と△部分の関係や、○部分と□部分の関係が類似している。   By comparing the distribution of the feature points in the screen and the color relationship as the feature information as shown in FIG. 3 described above, the numerical values can be compared without having to reproduce all the images. By doing so, it is possible to quickly check the degree of coincidence of images. Similar images are similar in the shape of each of these portions, the relationship between the above-mentioned ○ portion and the Δ portion, and the relationship between the ○ portion and the □ portion.

次に、図13(a)に示す画像を、特徴点によって分析し画面を分割し分類すると図13(b)のようになる。両図を特徴点に基づいて分析した図12と図13(b)を比較すると、○部が△部を丸く囲んでいる部分が類似していることから、図10(a)の画像と図13(a)の画像を同様の画像と判定することができる。同時に、この○部が△部を丸く囲む点が共通の特徴と考えることができる。また、図13(b)の×で表した部分は、図12の□部とは異なることから、ここは共通の特徴とはみなされない。   Next, the image shown in FIG. 13A is analyzed according to the feature points, and the screen is divided and classified as shown in FIG. 13B. Comparing FIG. 12 and FIG. 13 (b) which analyzed both figures based on the feature points, the portion in which the circled portion circles the portion Δ is similar, and therefore the image of FIG. The image 13 (a) can be determined as a similar image. At the same time, it can be considered that the point where the circle part circles the triangle part is a common feature. Moreover, since the part represented by x of FIG.13 (b) differs from the square part of FIG. 12, this is not regarded as a common feature.

図14(a)は、図12と図13(b)の共通の特徴部を重ねた図であり、図14(b)は両者の平均的なエリアを示す。この特徴的なパターンを図14(c)に示すように、画面内をシフトさせながら一致度を調べ、一致する画像は類似画像といえる。   FIG. 14A is a diagram in which common features of FIG. 12 and FIG. 13B are overlapped, and FIG. 14B shows an average area of both. As shown in FIG. 14C, the characteristic pattern is examined while shifting the screen, and the matching images can be said to be similar images.

図15(a)に示すような人物画像の特徴点の分布や色から得られるパターンは、図15(b)に示すようになる。この図15(b)に示すパターンと、図14(c)に示すパターンとを比較しても一致する部分がない。しかし、図16(a)に示すような花木の画像のパターン(図16(b)参照)は、図14(c)に示すパターンと一致度が高く、類似画像と判定することができる。   A pattern obtained from the distribution and colors of feature points of the person image as shown in FIG. 15A is as shown in FIG. Even if the pattern shown in FIG. 15B is compared with the pattern shown in FIG. 14C, there is no matching portion. However, the pattern of the flower tree image (see FIG. 16B) as shown in FIG. 16A has a high degree of coincidence with the pattern shown in FIG. 14C, and can be determined as a similar image.

また、類似画像の検索にあたって、特徴情報を用いるほかに、キーワードの一致度も調べる。キーワードの一致度を見るにあたっては、各言葉の関連語について、図17に示すように、一致度を数値化したデータベースをネットワーク上のサーバーに用意し、これを参照して一致度の高低を判定すればよい。   In addition, when searching for similar images, in addition to using feature information, the degree of matching of keywords is also examined. When looking at the degree of coincidence of keywords, for each related word of each word, as shown in Fig. 17, a database on which the degree of coincidence is quantified is prepared on a server on the network, and the degree of coincidence is determined by referring to this database do it.

図17に示す例では、「ばら」で検索する場合、「薔薇」は、一致度は「ばら」と同程度の10であり、「Rose」の一致度は少し低く9であり、「花」だと一致度は低く5となる。また、このようなデータベースを用意しなくても、ネット上のサーバーが有する辞書を検索し、その辞書にある言葉であれば、一致度が高い言葉として利用するようにしても良い。例えば、「ばら」を検索する場合、辞書に「バラ科の低木、観賞用に栽培される。高さ1〜3mに達し、とげがあり、花は重弁」と解説があれば、「低木」「とげ」「花」といった単語を拾い出し、これらの単語をキーワードに持つ画像を表示するようにしても良い。   In the example shown in FIG. 17, when searching for “rose”, “rose” has a matching degree of 10 which is the same as “rose”, “Roses” has a slightly lower matching degree of 9, and “flower” Then, the degree of coincidence is low and becomes 5. Further, even if such a database is not prepared, a dictionary possessed by a server on the network may be searched, and if it is a word in the dictionary, it may be used as a word having a high degree of matching. For example, when searching for “roses”, if there is a comment in the dictionary, “Rosaceae shrub, grown for ornamental use. It is also possible to pick up words such as “thorn” and “flower” and display an image having these words as keywords.

このように、本技術においては、画像から輪郭点のエッジを表す特徴点を抽出し、その分布形状とそこでの色情報を利用して、特徴情報を抽出し、この特徴情報を用いて類似画像を検索するようにしている。このため、迅速な類似画像の検索が可能である。   As described above, in the present technology, feature points representing edges of contour points are extracted from an image, feature information is extracted using the distribution shape and color information there, and a similar image is extracted using the feature information. Like to search. Therefore, it is possible to search for similar images quickly.

このように、本発明に関連する第1技術においては、ネット上に配置されたサーバーにおいて、キーワード等の言葉によって類似画像を検索し、この検索された類似画像から特徴情報を抽出することによって、キーワード等の言葉を使用しなくても類似画像を検索するようにしている。このため、最初に入力したキーワード等に基づいて、画像に付与されている言語が異なっている画像からも、類似画像を簡単に検索することができる。   As described above, in the first technique related to the present invention, in a server arranged on the net, a similar image is searched for by words such as a keyword, and feature information is extracted from the searched similar image, Similar images are searched without using words such as keywords. For this reason, based on the keyword etc. which were input initially, a similar image can be easily searched from the image from which the language provided to the image differs.

次に、本発明に関連する第2技術を図18および図19を用いて説明する。本発明の第1実施形態および本発明に関連する第1技術では、地域指定は特に行っていないが、本発明に関連する第2技術においては、検索する地域を指定し、この地域内で類似画像を検索し、これを表示するようにしている。   Next, a second technique related to the present invention will be described with reference to FIGS. In the first embodiment of the present invention and the first technology related to the present invention, the area designation is not particularly performed. However, in the second technique related to the present invention, the area to be searched is designated and similar in this area. It searches for images and displays them.

例えば、ユーザーが撮影した画像と類似画像を選択し、この類似画像にさらに類似する画像を、興味のある地域で検索する場合を考える。この場合、その地域が英語、ポルトガル語、スペイン語など、種々の言語を使用する地域である場合、英語のように多くの国において理解される言語であれば、その言語をキーワードとして検索が可能である。しかし、英語以外のキーワードが付与された画像にユーザーが興味を持つものがあり、英語等のキーワードで検索された画像に興味を持たない場合がある。そこで、本技術においては、指定された地域内で、キーワード等の言葉以外にも画像の特徴情報に応じて検索している。   For example, consider a case where a user selects an image similar to a photographed image and searches for an image more similar to the similar image in an area of interest. In this case, if the region is a region that uses various languages such as English, Portuguese, Spanish, etc., if the language is understood in many countries such as English, it is possible to search using that language as a keyword. It is. However, there are cases where a user is interested in an image assigned with a keyword other than English, and there is a case where the user is not interested in an image searched with a keyword such as English. Therefore, in the present technology, the search is performed in the designated area according to the feature information of the image in addition to the keyword or the like.

本技術も、図6に示すようなサーバー90等によって構成される。このサーバー90における類似画像の検索を、図18に示すフローチャートを用いて説明する。   This technique is also configured by a server 90 or the like as shown in FIG. The search for similar images in the server 90 will be described with reference to the flowchart shown in FIG.

類似画像を検索しこれを表示するための表示画像決定のフローに入ると、まず、画像を指定し(S301)、地域を指定し(S302)、指定画像のタグを判定する(S303)。ここでは、図19に示すように、選択された画像61と、その選択画像を取得した地域62において、その地域特有で、かつ選択画像61に類似した写真を検索するために、選択画像に付与されているタグを判定している。指定画像に日本語でタグが付与されている場合には、サーバーの翻訳機能を利用して、キーワードを英語等に変換する。英語に翻訳しても、前述したように、他言語のキーワードが付与されている画像に興味深い場合があることから、画像検索を行い、キーワード検索で足りない部分を補うようにする。   When a flow for determining a display image for searching for and displaying a similar image is entered, an image is first designated (S301), a region is designated (S302), and a tag of the designated image is determined (S303). Here, as shown in FIG. 19, in the selected image 61 and the region 62 from which the selected image is acquired, the selected image is assigned to the selected image in order to search for a photo that is specific to the region and similar to the selected image 61. The tag that is being used is judged. When a tag is assigned to the designated image in Japanese, the keyword is converted into English or the like using the translation function of the server. Even if it is translated into English, as described above, there are cases where an image to which a keyword in another language is assigned may be interesting. Therefore, an image search is performed to compensate for the lack of the keyword search.

続いて、ステップS301〜S303で得た情報に基づいて検索を開始する(S304)。検索を開始すると、類似画像を所定数検索したか否かの判定を行う(S305)。この判定の結果、所定数検索していなかった場合には、画像の特徴が一致したか否かの判定を行う(S306)。類似画像か否かの判定は、図10ないし図16において説明したようなパターンの一致度で判定する。   Subsequently, the search is started based on the information obtained in steps S301 to S303 (S304). When the search is started, it is determined whether or not a predetermined number of similar images have been searched (S305). As a result of this determination, if a predetermined number of searches have not been made, it is determined whether or not the image features match (S306). Whether or not the images are similar to each other is determined based on the pattern matching degree as described with reference to FIGS.

ステップS306における判定の結果、画像の特徴が一致していなかった場合には、ステップS305に戻る。一方、画像の特徴が一致したと判断されたときには、画像、タグ(キーワード等)、画像の一致度を記録する(S307)。これらを記録すると、ステップS305に戻る。   If the result of determination in step S306 is that the image features do not match, processing returns to step S305. On the other hand, if it is determined that the features of the image match, the image, tag (keyword, etc.), and the matching degree of the image are recorded (S307). When these are recorded, the process returns to step S305.

ステップS305〜S307を繰り返し実行するうちに、ステップS305における判定の結果、類似画像が所定数に達する。この場合には、次に、タグ(キーワード等)の一致度の低い画像を優先して表示する(S311)。すなわち、ステップS303においてタグ判定を行っており、このタグ(キーワード等)とは一致度の低い画像を優先して表示するようにしている。これによって、キーワードでは検索することができないけれども、かつ、類似度の高い画像を見つけることが可能となる。   While steps S305 to S307 are repeatedly executed, the number of similar images reaches a predetermined number as a result of the determination in step S305. In this case, next, an image with a low matching degree of a tag (keyword or the like) is displayed with priority (S311). That is, tag determination is performed in step S303, and an image having a low matching degree with this tag (keyword or the like) is preferentially displayed. As a result, it is possible to find an image that cannot be searched with a keyword but that has a high degree of similarity.

キーワード検索で画像を探す例は多々あるが、むしろ、簡単には見つけられない画像の方が、稀少な画像で、表示して楽しい場合がある。本技術においては、言葉では難しいコミュニケーションの手段として、画像を有効活用でき、しかも、すぐ見て分かるコンテンツによって、様々なイマジネーションを膨らませることが可能となる。つまり、画面の楽しさが増すばかりか、外国に対する興味などがかきたてられるという効果を奏する。   There are many examples of searching for images by keyword search, but rather, images that are not easily found are rare images that may be displayed and enjoyable. In this technology, it is possible to effectively use images as a means of communication difficult in words, and it is possible to inflate various imaginations with contents that can be easily seen. In other words, it not only increases the enjoyment of the screen but also has the effect of creating interest in foreign countries.

以上説明したように、本発明の第1実施形態及び本発明に関連する各技術においては、まず、キーワード等を用いて画像を検索し、検索された類似画像から特徴情報を抽出し、この特徴情報を用いてさらに類似度を求めている。このため、異なった言語でキーワード等が付与されている画像であっても検索することが可能となり、外国のユーザーが撮影した写真画像であっても容易に検索し、楽しむことができる。   As described above, in the first embodiment of the present invention and each technique related to the present invention, first, an image is searched using a keyword or the like, and feature information is extracted from the searched similar images, and this feature is extracted. The similarity is further calculated using the information. For this reason, it is possible to search even an image to which a keyword or the like is assigned in a different language, and even a photographic image taken by a foreign user can be easily searched and enjoyed.

なお、本発明の第1実施形態及び本発明に関連する各技術においては、カメラ10やサーバー90に、画像検索機能を集中していたが、一部や全部をパーソナルコンピュータで実行するようにしても勿論かまわない。   In the first embodiment of the present invention and each technology related to the present invention, the image search function is concentrated on the camera 10 or the server 90. However, a part or all of the functions are executed by a personal computer. Of course it doesn't matter.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態
にわたる構成要素を適宜組み合わせてもよい。
The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・制御部、2・・・撮影部、2a・・・顔検出部、3・・・記録部、3a・・・検索エリア、3b・・・文字情報記録部、3c・・・時間・位置判定部、4・・・文字検索部、5・・・画像検索部、6・・・通信部、7・・・再生部、8・・・液晶表示部、9・・・操作部、9a・・・文字入力部、10・・・カメラ、21・・・電子キーボード、23・・・切替部、24・・・変換部、25・・・入力表示部、26・・・アイコン、27a・27b・・・画像、28・・・参考画像、31・・・アドレス、32・・・画像ファイル、41・・・ユーザー、42・・・ユーザー、43・・・画像、44・・・画像、51・・・直交部分、90・・・サーバー、91・・・制御部、92・・・ネットアクセス部、93・・・タグ検索部、94・・・特徴抽出部、95・・・類似画像検索部、96・・・地域/言語判定部、97・・・表示画像決定部、100・・・サーバー、101・・・制御部、102・・・ネットアクセス部、103・・・画像記録部、104・・・翻訳部、110・・・サーバー、111・・・制御部、112・・・ネットアクセス部、113・・・画像記録部
DESCRIPTION OF SYMBOLS 1 ... Control part, 2 ... Imaging | photography part, 2a ... Face detection part, 3 ... Recording part, 3a ... Search area, 3b ... Character information recording part, 3c ... Time Position determination unit, 4 ... character search unit, 5 ... image search unit, 6 ... communication unit, 7 ... reproduction unit, 8 ... liquid crystal display unit, 9 ... operation unit, 9a ... Character input unit, 10 ... Camera, 21 ... Electronic keyboard, 23 ... Switching unit, 24 ... Conversion unit, 25 ... Input display unit, 26 ... Icon, 27a 27b ... Image, 28 ... Reference image, 31 ... Address, 32 ... Image file, 41 ... User, 42 ... User, 43 ... Image, 44 ... Image 51 ... Orthogonal part, 90 ... Server, 91 ... Control part, 92 ... Net access part, 93 ... Tag search part, DESCRIPTION OF SYMBOLS 4 ... Feature extraction part, 95 ... Similar image search part, 96 ... Area / language determination part, 97 ... Display image determination part, 100 ... Server, 101 ... Control part, 102 ... Net access unit, 103 ... Image recording unit, 104 ... Translation unit, 110 ... Server, 111 ... Control unit, 112 ... Net access unit, 113 ... Image recording unit

Claims (9)

光学像を光電変換し、画像データを出力する撮像部と、
上記画像データを用いて、画像の特徴量を数値化して特徴情報を算出する特徴量数値化部と、
上記画像データに関連付けて上記特徴情報を記録する記録部と、
上記画像データに基づく画像と類似する画像を、上記特徴情報を用いて検し、この検索された類似画像が所定数に達しない場合には、上記特徴情報とは異なる特徴情報を用いて上記所定数に達するまで類似画像を検索する画像検索部と、
検索された類似画像を表示する表示部と、
を有することを特徴とする撮像装置。
An imaging unit that photoelectrically converts an optical image and outputs image data;
Using the image data, a feature value quantification unit that quantifies the feature value of the image and calculates feature information;
A recording unit that records the feature information in association with the image data;
The image similar to the image based on the image data, and search by using the characteristic information, when the retrieved similar image does not reach the predetermined number, using different feature information from the feature information described above An image search unit for searching for similar images until a predetermined number is reached;
The retrieved similar image and table Shimesuru display unit,
An imaging device comprising:
上記画像データと、上記特徴情報を上記撮像装置の外部に送信する通信部を有することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a communication unit that transmits the image data and the feature information to the outside of the imaging apparatus. 上記特徴量数値化部は、画像に含まれる色および輪郭の少なくとも1つの特徴量について数値化することを特徴とすることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the feature value digitizing unit digitizes at least one feature value of a color and a contour included in the image. 画面内の画像の輪郭点のエッジを表す特徴点の離散と色の分布について、該画面を分割して分類して記録することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the screen is divided, classified, and recorded with respect to the discrete feature points representing the edges of the contour points in the screen and the color distribution. 撮影動作の指示を行う操作部を有し、
上記操作部によって撮影動作の指示がなされた際に、上記撮像部から出力された画像データと、上記特徴量数値化部によって算出された特徴情報を上記画像データに関連付けて、上記記録部に記録することを特徴とする請求項1に記載の撮像装置。
It has an operation unit that gives instructions for shooting operations,
When the photographing operation is instructed by the operation unit, the image data output from the imaging unit and the feature information calculated by the feature value digitizing unit are associated with the image data and recorded in the recording unit. The imaging apparatus according to claim 1, wherein:
文字情報を入力する文字入力部を有し、
上記記録部に記録される上記画像データに関連付けて、文字入力部で入力された上記文字情報を記録することを特徴とする請求項1に記載の撮像装置。
It has a character input part for inputting character information,
The imaging apparatus according to claim 1, wherein the character information input by the character input unit is recorded in association with the image data recorded in the recording unit.
上記文字情報に基づいて、類似画像を検索する文字検索部を有することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, further comprising a character search unit that searches for similar images based on the character information. 光学像を光電変換し、画像データを出力する撮像部と、
上記画像データを用いて、画像の特徴量を数値化して特徴情報を算出する特徴量数値化部と、
上記画像データに関連付けて上記特徴情報を記録する記録部と、
上記画像データに基づく画像と類似する画像を、上記特徴情報を用いて検索し、この検索された類似画像が所定数に達しない場合には、上記特徴情報とは異なる特徴情報を用いて上記所定数に達するまで類似画像を検索する画像検索部と、
を有することを特徴とする撮像装置。
An imaging unit that photoelectrically converts an optical image and outputs image data;
Using the image data, a feature value quantification unit that quantifies the feature value of the image and calculates feature information;
A recording unit that records the feature information in association with the image data;
An image similar to the image based on the image data is searched using the feature information. If the searched similar images do not reach a predetermined number, the predetermined information is used using feature information different from the feature information. An image search unit that searches for similar images until the number is reached ,
An imaging device comprising:
光学像を光電変換し、画像データを出力し、
上記画像データを用いて、画像の特徴量を数値化して特徴情報を算出し、
上記画像データに関連付けて上記特徴情報を記録し、
上記画像データに基づく画像と類似する画像を、上記特徴情報を用いて検索し、この検索された類似画像が所定数に達しない場合には、上記特徴情報とは異なる特徴情報を用いて上記所定数に達するまで類似画像を検索し、
索された類似画像を表示する、
ことを特徴とする撮像装置の制御方法。
Photoelectrically convert optical image, output image data,
Using the above image data, the feature amount of the image is digitized to calculate feature information,
Record the feature information in association with the image data,
An image similar to the image based on the image data is searched using the feature information. If the searched similar images do not reach a predetermined number, the predetermined information is used using feature information different from the feature information. Search for similar images until the number is reached,
The search has been similar image table Shimesuru,
And a method of controlling the imaging apparatus.
JP2015175505A 2015-09-07 2015-09-07 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Active JP6063536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015175505A JP6063536B2 (en) 2015-09-07 2015-09-07 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015175505A JP6063536B2 (en) 2015-09-07 2015-09-07 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014108337A Division JP5807090B2 (en) 2014-05-26 2014-05-26 Image search method, image search system, image search device, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016244181A Division JP6276375B2 (en) 2016-12-16 2016-12-16 Image search device, image display device, image search method, and image display method

Publications (2)

Publication Number Publication Date
JP2016026347A JP2016026347A (en) 2016-02-12
JP6063536B2 true JP6063536B2 (en) 2017-01-18

Family

ID=55303623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015175505A Active JP6063536B2 (en) 2015-09-07 2015-09-07 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP6063536B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373351B2 (en) 2019-03-26 2022-06-28 Fujifilm Corporation Image processing method, program, and image processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287998A (en) * 2003-03-24 2004-10-14 Fuji Photo Film Co Ltd Image retrieval method, image retrieval device and program
JP2007241370A (en) * 2006-03-06 2007-09-20 Nikon Corp Portable device and imaging device
JP2008071311A (en) * 2006-09-15 2008-03-27 Ricoh Co Ltd Image retrieval apparatus, image retrieval method, image retrieval program, and information storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11373351B2 (en) 2019-03-26 2022-06-28 Fujifilm Corporation Image processing method, program, and image processing system

Also Published As

Publication number Publication date
JP2016026347A (en) 2016-02-12

Similar Documents

Publication Publication Date Title
TWI361619B (en) Image managing apparatus and image display apparatus
JP5879544B2 (en) Content output device, content output method, program, program recording medium, and content output integrated circuit
JP5667069B2 (en) Content management apparatus, content management method, content management program, and integrated circuit
US9465802B2 (en) Content storage processing system, content storage processing method, and semiconductor integrated circuit
JP4457988B2 (en) Image management apparatus, image management method, and computer program
WO2018171047A1 (en) Photographing guide method, device and system
WO2015107640A1 (en) Album creation program, album creation method, and album creation device
JP5478999B2 (en) Imaging device
JP2008192055A (en) Content search method and content search apparatus
JP2006203574A (en) Image display device
US9973649B2 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
JP5237724B2 (en) Image search system
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
JP2003150617A (en) Image processor and program
Zhang et al. Annotating and navigating tourist videos
JP2003099434A (en) Electronic album device
JP6276375B2 (en) Image search device, image display device, image search method, and image display method
JP2010205121A (en) Information processor and portable terminal
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP6063536B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5807090B2 (en) Image search method, image search system, image search device, and program
JP2018055730A (en) Image search apparatus and image search method
JP5552552B2 (en) Image search system
JP2003330941A (en) Similar image sorting apparatus
US11283945B2 (en) Image processing apparatus, image processing method, program, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161216

R150 Certificate of patent or registration of utility model

Ref document number: 6063536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250