JP2005063465A - Image retrieval device, electronic still camera and image retrieval method - Google Patents
Image retrieval device, electronic still camera and image retrieval method Download PDFInfo
- Publication number
- JP2005063465A JP2005063465A JP2004332647A JP2004332647A JP2005063465A JP 2005063465 A JP2005063465 A JP 2005063465A JP 2004332647 A JP2004332647 A JP 2004332647A JP 2004332647 A JP2004332647 A JP 2004332647A JP 2005063465 A JP2005063465 A JP 2005063465A
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- recorded
- images
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は画像の検索技術に関し、特に、描画入力した画像イメージを基に記録画像を検索する画像検索技術に関する。 The present invention relates to an image search technique, and more particularly to an image search technique for searching a recorded image based on a drawn and input image image.
デジタルカメラで撮像された被写体像は、CCDによる光電変換、信号変換及び信号処理等を経て画像データとして記憶媒体に記録される。この場合、画像データは記録媒体上に撮像した順番に記録されてゆく。 A subject image picked up by a digital camera is recorded in a storage medium as image data through photoelectric conversion, signal conversion, signal processing, and the like by a CCD. In this case, the image data is recorded on the recording medium in the order of imaging.
また、デジタルカメラの多くは液晶ディスプレイ等からなる表示装置を備えており、撮像後に記録媒体から読み出した再生画像を表示することもできる。しかし、このようなデジタルカメラで再生画像を表示する場合には、画像データは撮像した順序で記録媒体から読み出されるので、表示装置の画面上にも撮像順に表示される。 Many digital cameras are provided with a display device such as a liquid crystal display and can display a reproduced image read from a recording medium after imaging. However, when displaying a reproduced image with such a digital camera, the image data is read from the recording medium in the order of imaging, and therefore displayed on the screen of the display device in the order of imaging.
そして、記録画像の中から所望の画像を探し出そうとする場合には所望の画像が現われるまで再生画像をコマ送りしたり、サイズの小さい簡易画像(サムネイル画像)を1画面に複数枚表示(マルチ画面表示)してコマ送りし、所望の簡易画像が表示された場合にそれを指定して元の画像を再生して表示していた。 When trying to find a desired image from the recorded images, the playback image is advanced frame by frame until the desired image appears, or a plurality of simple images (thumbnail images) having a small size are displayed on one screen (multi-screen). When a desired simple image is displayed, the original image is reproduced and displayed when the desired simple image is displayed.
上記従来の検索方法は記録されている画像が少ない場合にはともかく、大量の画像が記録されている場合には所望の画像を探し出すためのコマ送りが煩わしいという問題点があった。また、これに加えて所望の画像を複数枚探し出す場合(所望の画像が記録画像の最後に有った場合)には記録画像を全て再生してコマ送りして探し出さなければならないという問題点があった。 The conventional search method has a problem that frame feeding for searching for a desired image is troublesome when a large number of images are recorded, regardless of whether the number of recorded images is small. In addition to this, when searching for a plurality of desired images (when the desired image is at the end of the recorded image), all the recorded images must be reproduced and frame-by-frame searched. was there.
コマ送りによる画像検索の他に、キーワードによって画像を検索することもできるが、この場合には予め画像に対応させてキーワードを登録する必要があり、画像入力時にキーワードを付加する必要がある他、画像とキーワードの対応付けをユーザが記憶したりメモしたりしておかなければならないという問題点があった。 In addition to image search by frame advance, it is also possible to search for an image by keyword. In this case, it is necessary to register a keyword in advance corresponding to the image, and it is necessary to add a keyword when inputting an image. There was a problem that the user had to memorize and write down the correspondence between images and keywords.
本発明は、上記問題点を解決するためになされたものであり、描画入力した画像イメージを基に所望の記録画像を検索する画像検索方法,画像検索装置および電子スチルカメラの提供を目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an image search method, an image search apparatus, and an electronic still camera that search for a desired recorded image based on a drawn and input image image. .
上記の目的を達成するために、第1の発明の画像検索方法はイメージを描画し、この描画図と画像記録用メモリに記録された各画像とを順次比較して、類似度の高い記録画像を取り出して表示することを特徴とする。 In order to achieve the above object, the image search method of the first invention draws an image, and sequentially compares this drawing with each image recorded in the image recording memory, so that a recorded image with high similarity is obtained. Is extracted and displayed.
また、第2の発明の画像検索方法はイメージを描画し、この描画図と画像記録用メモリに記録された各画像とを順次比較して得た類似画像の一つを検索用画像として、画像記録用メモリに記録された各画像と比較し、類似度の高い記録画像を取り出して表示することを特徴とする。 In the image search method of the second invention, an image is drawn, and one of similar images obtained by sequentially comparing the drawing and each image recorded in the image recording memory is used as a search image. Compared with each image recorded in the recording memory, a recorded image having a high degree of similarity is extracted and displayed.
また、第3の発明の画像検索方法は画像記録用メモリに記録された画像の一つを検索用画像として選び、この検索用画像と画像記録用メモリに記録された各画像とを比較して、類似度の高い記録画像を取り出して表示することを特徴とする。 The image search method of the third invention selects one of the images recorded in the image recording memory as a search image, and compares the search image with each image recorded in the image recording memory. A feature is that a recorded image having a high degree of similarity is taken out and displayed.
また、第4の発明の画像検索方法は撮像装置において、撮影像を検索用画像として前記撮影像と画像記録用メモリに記録された各画像とを順次比較して、類似度の高い記録画像を取り出して表示することを特徴とする。 According to a fourth aspect of the present invention, there is provided an image search method, wherein in the imaging apparatus, the captured image is used as a search image and the captured image is sequentially compared with each image recorded in the image recording memory to obtain a recorded image having a high similarity. It is extracted and displayed.
また、第5の発明は上記第1〜第4の発明のいずれかの画像検索方法において、比較は、下記a〜dのいずれかを比較することにより行なわれることを特徴とする。
a:輪郭
b:輪郭と色彩
c:輪郭とその位置
d:輪郭とその位置および色彩
According to a fifth aspect of the present invention, in the image search method according to any one of the first to fourth aspects, the comparison is performed by comparing any one of the following a to d.
a: Contour b: Contour and color c: Contour and its position d: Contour, its position and color
また、第6の発明は上記第4の発明の画像検索方法において、画像記録用メモリに記録された各画像から前記a〜dのいずれかを抽出した特徴要素を予めメモリに登録することを特徴とする。 According to a sixth aspect of the present invention, in the image search method according to the fourth aspect of the present invention, a feature element obtained by extracting any one of the a to d from each image recorded in the image recording memory is registered in the memory in advance. And
また、第7の発明は上記第1〜第6の発明のいずれかの画像検索方法において、類似度の高い画像は、その数に応じて表示サイズを縮小してマルチ表示することを特徴とする。 According to a seventh aspect of the present invention, in the image search method according to any one of the first to sixth aspects of the present invention, images having a high degree of similarity are reduced in display size in accordance with the number of the images and displayed in multiple displays. .
また、第8の発明は上記第1〜第4の発明のいずれかの画像検索方法において、検索用画像は不要な部分を消去してから順次記録画像と比較することを特徴とする。 According to an eighth aspect of the invention, in the image search method according to any one of the first to fourth aspects of the invention, the search image is sequentially compared with the recorded image after erasing unnecessary portions.
また、第9の発明の画像検索装置は、複数の画像を記録した画像記録手段と、絵または図形を描画入力する描画入力手段と、この描画入力手段により描画入力された絵または図形と画像記録手段に記録されている各画像とを比較して類似度の高い記録画像を得る画像認識手段と、この画像認識手段による比較結果を報知する報知手段と、を有することを特徴とする。 The image search device of the ninth invention is an image recording means for recording a plurality of images, a drawing input means for drawing and inputting a picture or a figure, and a picture or figure drawn and inputted by the drawing input means and an image recording. An image recognizing unit that obtains a recorded image having a high degree of similarity by comparing each image recorded in the unit, and a notifying unit that notifies a comparison result by the image recognizing unit.
また、第10の発明の画像検索装置は、複数の画像を記録した画像記録手段と、絵または図形を描画入力する描画入力手段と、この描画入力手段により描画入力された絵または図形と画像記録手段に記録されている各画像とを比較して類似画像を得る一次画像抽出手段と、この一次画像抽出手段で得た類似画像と画像記録手段に記録されている各画像とを比較して類似度の高い記録画像を得る画像認識手段と、この画像認識手段による比較結果を報知する報知手段と、を有することを特徴とする。 An image search apparatus according to a tenth aspect of the invention includes an image recording means for recording a plurality of images, a drawing input means for drawing and inputting a picture or a figure, and a picture or figure drawn and inputted by the drawing input means and an image recording. The primary image extraction means for comparing each image recorded in the means to obtain a similar image, and the similar image obtained by the primary image extraction means and the respective images recorded in the image recording means are compared and similar. It has an image recognizing means for obtaining a highly recorded image, and a notifying means for notifying a comparison result by the image recognizing means.
また、第11の発明の画像検索装置は、複数の画像を記録した画像記録手段と、この画像記録手段に記録されている画像の一つを検索用画像として選択する画像選択手段と、この画像選択手段により選択された検索用画像と画像記録手段に記録されている各画像とを比較して類似度の高い記録画像を得る画像認識手段と、この画像認識手段による比較結果を報知する報知手段と、を有することを特徴とする。 According to an eleventh aspect of the present invention, there is provided an image search device for recording a plurality of images, an image selection unit for selecting one of the images recorded in the image recording unit as a search image, An image recognizing unit that obtains a recorded image with a high degree of similarity by comparing the search image selected by the selecting unit with each image recorded in the image recording unit, and an informing unit that notifies the comparison result by the image recognizing unit It is characterized by having.
また、第12の発明は上記第9または第10の発明の画像検索装置において、画像入力手段は手書き入力であることを特徴とする。 According to a twelfth aspect of the present invention, in the image search device of the ninth or tenth aspect, the image input means is a handwritten input.
また、第13の発明は上記第9〜第11の発明のいずれかの画像検索装置において、画像認識手段は描画入力手段により描画入力された絵または図形、一次画像抽出手段で得た類似画像、或いは画像選択手段により選択された検索用画像の特徴要素を抽出し、画像記録手段に記録されている各画像から抽出された特徴要素と比較することを特徴とする。 The thirteenth invention is the image search device according to any one of the ninth to eleventh inventions, wherein the image recognition means is a picture or figure drawn and input by the drawing input means, a similar image obtained by the primary image extraction means, Alternatively, the feature element of the search image selected by the image selection means is extracted and compared with the feature element extracted from each image recorded in the image recording means.
また、第14の発明は上記第9〜第11の発明のいずれかの画像検索装置において、報知手段は表示手段であることを特徴とする。 The fourteenth invention is the image search device according to any one of the ninth to eleventh inventions, wherein the notification means is a display means.
また、第15の発明の電子スチルカメラは、画像記録手段と表示手段を備えた電子スチルカメラにおいて、被写体を撮影し、撮影像を出力する撮影手段と、この撮影手段から出力された撮影像と画像記録手段に記録された各画像とを比較して類似度の高い記録画像を得る画像認識手段と、この画像認識手段による認識結果を報知する報知手段と、を有することを特徴とする。 An electronic still camera according to a fifteenth aspect of the present invention is an electronic still camera comprising an image recording means and a display means. The photographing means for photographing a subject and outputting a photographed image; and the photographed image output from the photographing means; An image recognition unit that obtains a recorded image with a high degree of similarity by comparing each image recorded in the image recording unit, and a notification unit that notifies a recognition result by the image recognition unit.
以上説明したように、第1の発明の画像検索方法および第9の発明の画像検索装置によれば、描画したイメージと記録画像を比較していわゆる曖昧検索を行なうので、早送りの手間やキーワード入力の煩わしさなしに画像記録メモリに記録された大量の画像の中からユーザのイメージに合った画像を探し出すことができる。また、色彩や位置を検索要素とした場合には、検索の精度が向上する。 As described above, according to the image search method of the first invention and the image search device of the ninth invention, the so-called fuzzy search is performed by comparing the drawn image and the recorded image, so that it is time-consuming and fast to input keywords. Thus, it is possible to find an image that matches the user's image from a large number of images recorded in the image recording memory. In addition, when the color and position are used as search elements, the search accuracy is improved.
また、第2の発明の画像検索方法および第10の発明の画像検索装置によれば、最初に描画のイメージで記録画像を検索してから、検索で得た画像でさらに検索を行なうので、2枚目以降の検索画像は描画されたイメージ(描画図)よりも明確な像をもとにして検索できるので、検索精度が向上する。また、検索スピードも早くなる。 Further, according to the image search method of the second invention and the image search device of the tenth invention, since the recorded image is first searched with the drawn image, the search is further performed with the image obtained by the search. Since the search image after the first image can be searched based on a clearer image than the drawn image (drawing diagram), the search accuracy is improved. Also, the search speed is increased.
また、第3の発明の画像検索方法および第11の発明の画像検索装置によれば、所望の記録画像を検索用の像として記録画像を検索するので簡単で正確且つ迅速な画像検索が実現できる。 Further, according to the image search method of the third invention and the image search device of the eleventh invention, since a recorded image is searched using a desired recorded image as a search image, a simple, accurate and quick image search can be realized. .
また、第4の発明の画像検索方法および第15の発明の電子スチルカメラによれば、撮影像で記録画像を検索するので簡単で正確且つ撮影現場での迅速な画像検索が実現できる。 In addition, according to the image search method of the fourth invention and the electronic still camera of the fifteenth invention, a recorded image is searched by a photographed image, so that it is possible to realize a simple, accurate and quick image search at the photographing site.
また、第5の発明の画像検索方法によれば、輪郭を比較要素とすることにより画像認識が容易になる。また、色彩および/または位置を比較要素とすることにより認識精度が向上する。 According to the image search method of the fifth invention, image recognition is facilitated by using the contour as a comparison element. Further, the recognition accuracy is improved by using the color and / or position as a comparison element.
また、第6の発明の画像検索方法によれば記録画像の比較要素を予めメモリに登録しておき、検索時にそれを基に画像認識を行なえるので検索精度が向上するだけでなく、より高速な検索が可能となる。 Further, according to the image search method of the sixth aspect of the invention, the comparison element of the recorded image is registered in the memory in advance, and image recognition can be performed based on it, so that not only the search accuracy is improved, but also faster. Search is possible.
また、第7の発明の画像検索方法によれば候補画像が複数ある場合にマルチ表示できるので、ユーザは所望の画像をマルチ表示画面から即時に選ぶことができる。 In addition, according to the image search method of the seventh invention, when there are a plurality of candidate images, multi-display can be performed, so that the user can immediately select a desired image from the multi-display screen.
また、第8の発明の画像検索方法によれば検索用画像のうちの検索に適した部分画像だけで検索を行なえるので検索速度が更に向上するとともに、検索精度がより向上する。 Further, according to the image search method of the eighth invention, the search can be performed only with the partial images suitable for the search among the search images, so that the search speed is further improved and the search accuracy is further improved.
また、第12の発明の画像検索装置によればイメージの入力を手書き入力で行なうのでイメージ入力が簡単でユーザにイメージ入力操作上の負担を与えない。 According to the image search device of the twelfth aspect of the invention, the image is input by handwriting input, so that the image input is simple and does not give the user a burden on the image input operation.
また、第13の発明の画像検索装置によれば入力イメージ或いは画像の特徴要素と記録画像の特徴要素を比較するので、検索精度が高い。 Further, according to the image search device of the thirteenth aspect of the invention, the input image or the image feature element and the recorded image feature element are compared, so the search accuracy is high.
また、第14の発明の画像検索装置によれば認識結果の報知を液晶ディスプレイ等の画面への表示により行なうので、ユーザが一見して認識結果を知ることができる。また、画像検索装置による認識順位が高くてもユーザの所望する結果でない場合や、認識順位が低くてもユーザの所望する結果である場合があるが、認識結果を表示することによりユーザが真に所望する結果を得るチャンスがより増大する。 Further, according to the image search device of the fourteenth aspect, since the recognition result is notified by displaying on the screen such as a liquid crystal display, the user can know the recognition result at a glance. In addition, even if the recognition order by the image search device is high, the result may not be the result desired by the user, or the result may be the result desired by the user even if the recognition order is low. The chance of obtaining the desired result is further increased.
<実施形態(1)>
図1は本発明の描画入力による画像検索方法の概要説明図である。本実施の形態では、画像検索装置100は指やタッチペン3A等で手書きされた検索用描画図(検索したい画像の全体像または部分像を描いた図をいう)501,502,503(図1(a))の特徴要素と記録画像の部分画像501’,502’,503’、・・(図1(b))の特徴要素との比較により特徴要素の一致度の高い記録画像を抽出して、候補画像111,112,113,114,・・として表示し(図1(c))、表示された候補画像の中からユーザがイメージした画像(図1(c)の例では画像111)を選択することにより、キーワード入力やコマ送りなしに所望の画像を容易に検索できる。
<Embodiment (1)>
FIG. 1 is a schematic explanatory diagram of an image search method by drawing input according to the present invention. In the present embodiment, the
ここで、比較する特徴要素の例としては検索用描画図の輪郭特徴と記録画像の輪郭特徴(図8)や、検索用描画図の輪郭内部に施された色彩と部分画像の色彩(図9)、または検索用描画図の配置と部分画像の配置等(図10)を挙げることができるがこれらに限定されない。 Here, examples of feature elements to be compared include the contour feature of the drawing for search and the contour feature of the recorded image (FIG. 8), the color applied to the inside of the contour of the search drawing, and the color of the partial image (FIG. 9). ), Or the arrangement of the drawing for search and the arrangement of the partial images (FIG. 10), but are not limited thereto.
[回路構成例]
図2はデジタルカメラの構成例を示すブロック図であり、画像検索装置100は撮像部1、描画入力部2、操作部3、制御部4、画像認識部5、作業用メモリ6,画像記録用メモリ7、画像再生部8、表示部9および液晶ディスプレイ(LCD)10を備えている。
[Circuit configuration example]
FIG. 2 is a block diagram illustrating a configuration example of a digital camera. The
撮像部1は撮像レンズやレンズ駆動機構、絞り機構等の光学系と撮像レンズを介して集光された光学像を電気信号に変換する撮像素子と、撮像素子駆動部および得られた電気信号をデジタルデータに変換する信号変換部を有している。
The
操作部2は電源スイッチや処理選択ボタン等を備えている。ユーザが操作部2の電源スイッチや処理選択ボタン等を操作すると操作内容に対応した電気信号(コード)が制御部4に送られる。これにより、ユーザは制御部4に画像検索装置100の起動や画像検索動作上必要な指示を与えることができる。
The
描画入力部3はペンまたは指で絵や線を描くとその結果が電気信号に変換される部材から構成されている。
描画入力部3として、本実施例では液晶ディスプレイ10の上に設けた透明な感圧入力板(プラスチック等の材料からなる透明板に圧力を検知して電気信号を出力する複数の圧電素子を配設したもの)、タッチペンや指による描画やポイントがなされると電気信号とタッチ位置の座標値(x,y)を出力するよう構成したが、感圧素子を配設した平板(入力タブレット)を用いてタッチペンや指による描画やポイントがなされると電気信号とタッチ位置の座標値(x,y)を出力するようにしてもよい。
また、液晶ディスプレイ10の上に熱線を検知して電気信号を出力する感熱素子を複数配設した透明板(感熱透明板)を設け、指で描画やポイントがなされるとユーザの指から出る熱線を検知して電気信号とタッチ位置の座標値(x,y)を出力するようにしてもよい。
また、光線を出す入力ペンと液晶ディスプレイ10の上に特定波長の光線を検知して電気信号を出力する光線検知素子を複数配設した透明板を設け、入力ペンでポイントがなされると入力ペンから出る特定波長の光線を検知して電気信号とタッチ位置の座標値(x,y)を出力するようにしてもよい。
なお、描画入力部3を設けずに、例えば、LCD10上にカーソルを表示させ、これをマウス或いはカーソルキー等で任意に移動させることにより描画するようにしてもよい。
The drawing
In the present embodiment, the drawing
In addition, a transparent plate (heat-sensitive transparent plate) provided with a plurality of heat-sensitive elements that detect heat rays and output electrical signals on the
In addition, an input pen that emits light and a transparent plate on which a plurality of light detection elements that detect light of a specific wavelength and output an electric signal are provided on the
Instead of providing the drawing
制御部4はCPU,プログラム格納用メモリおよび一時記憶用メモリ(図示せず)を備え、画像検索装置100の制御および本発明の画像検索処理の実行制御を行なう。プログラム格納用メモリはROM等の不揮発性メモリからなり制御プログラムの他、画像検索処理プログラム群が格納されている。また、一時記憶用メモリはRAMからなり、プログラムやデータを一時的に記憶する。そして、画像検索装置100の起動時にプログラム格納用メモリから作業用メモリに制御プログラムと画像検索プログラム等が一時的に記憶され、CPUにより実行制御されて画像検索処理を実行する。
The
画像認識部5は描画入力した検索用描画図および記録画像の特徴要素の抽出を行なって両者の特徴の一致度を調べて認識処理を行なう。また、予め記録画像の特徴要素を用いて画像検索を行なうようにした場合には図12に示したような特徴リストを記録する領域が確保される。
The
作業用メモリ6はDRAM等からなり、画像認識等の際の画像データの記憶等に用いられる。 The work memory 6 comprises a DRAM or the like, and is used for storing image data at the time of image recognition or the like.
画像記録用メモリ7はフラッシュメモリやメモリカードまたは磁気ディスクや光ディスク等の記録媒体からなり、圧縮処理された撮影画像データが記録される。
The
画像再生部8は、読み出された記録画像データ(圧縮データ)の伸張処理を行なうため圧縮画像データを圧縮前の画像と同じ大きさで且つ同じ密度の画像に伸張する第1の伸張部と、圧縮画像データを圧縮前の画像と同じ大きさで且つ元の画像より密度が粗い画像に伸張する第2の伸張部と、圧縮画像データを元の画像より小さなサイズの画像に伸張し、縮小画像を再生する画像縮小部を有している。
The
上記第1の伸張部では画像は元通りに復元(再生)されるが、記録されている画像の数が多い場合には検索時間がかかるので、本実施例では、後述する画像の特徴抽出時(図3,図4)には第2の伸張部を用いて画素密度を粗にして伸張を行なうようにして、再生速度を迅速化している。 In the first decompression unit, the image is restored (reproduced) to the original state. However, when the number of recorded images is large, it takes a search time. In FIGS. 3 and 4, the second decompression unit is used to roughen the pixel density and perform the decompression, thereby speeding up the reproduction speed.
また、画像縮小部は、画像認識部5で認識処理した画像のうちで一致度が所定範囲の画像が複数枚ある場合にそれらを1画面上に9画像(3×3)、16画像(4×4)といったようにマルチ画像表示する場合に、表示する再生画像のサイズを縮小(1画面上に9画像の場合には1/9のサイズ、16画像の場合には1/16のサイズ、・・)するように伸張する。
In addition, when there are a plurality of images having a predetermined degree of coincidence among the images recognized by the
なお、マルチ画像表示するように構成した場合で、画像検索装置100がメモリ容量が十分に大きい画像記録用メモリを備えている場合には、上述のような画像縮小部を設けることなく画像の記録時に予め画像を複数のサイズに縮小して各画像と関連づけて記憶させておき、表示の際に必要なサイズの縮小画像を抽出できるようにしてもよい。
Note that when the multi-image display is configured and the
表示部9はビデオエンコーダおよびVRAM等の画像メモリを有し、画像データや描画入力されたデータをイメージデータに変換してVRAMにビットマップイメージで展開して、液晶ディスプレイ(LCD)9上に画像表示させる。
The
[実施例1−1] 描画入力による画像検索動作(画像特徴の抽出を伴う例)
図3は本発明の画像検索方法に基づく画像検索装置100の動作例を示すフローチャートであり、図4は図3のステップS6の描画図の特徴抽出処理の一実施例を示すフローチャートであり、図5は図3のステップS8の記録画像の特徴抽出処理の一実施例を示すフローチャートであり、図6は図3のステップS10の画像認識処理の一実施例を示すフローチャートである。また、図7は描画用選択画面の例を示す図であり、図8は輪郭のみの描画入力による画像検索例の説明図であり、図9は色彩付の描画による画像検索例の説明図であり、図10は描画図の位置指定による画像検索例の説明図である。
[Example 1-1] Image search operation by drawing input (example with image feature extraction)
FIG. 3 is a flowchart showing an operation example of the
また、本実施例では描画入力部3として液晶ディスプレイ10上に設けた、感圧素子を配置した透明なパネル(以下、画面110)を用いているが前述したようにこれに限定されない。ユーザはタッチペン3Aを用いて画面110にタッチして輪郭図を入力したり色彩や表示位置を指定できる。
In this embodiment, a transparent panel (hereinafter referred to as a screen 110) provided with a pressure sensitive element provided on the
ステップS1:(描画方法の選択)
図3で、画像検索処理が起動されると液晶ディスプレイ10の画面はクリアされ、白色表示される。また、図7(a)の例に示すように色なし描画指定アイコン91および色彩見本911(白),912(緑),913(黄),914(茶),・・,919(黒)等の複数の色見本指定コマからなる帯状の色標本92(図7(b))が表示される。なお、図7(b)の例では色見本92を9色としたがこれに限定されず混合色を含む多数の色見本としてよい。また、色標本を個々の色見本で区分せずに白→暖色→中間色→寒色→黒色に至る色分布からなる帯としてもよい。また、色見本の形状を円グラフ状にしてもよい。
Step S1: (Drawing method selection)
In FIG. 3, when the image search process is activated, the screen of the
ユーザが色なし描画指定アイコン91を選択(本実施例ではタッチペンでポイント)するとS2に遷移し、色指定アイコン92を選択するとS3に遷移する。また、ポイント結果(どのアイコンを指定したか)はRAMに(例えば、ポイントされた場合にアイコンに対応するフラグをオンにする等の方法により)記憶される。
If the user selects the colorless drawing designation icon 91 (points with the touch pen in this embodiment), the process proceeds to S2, and if the
ステップS2:(描画(色指定なし))
ユーザが画像検索装置100の画面110にタッチペン3Aを接触させながら輪郭図を描くと(図8(a))、描画入力部3によってその接触軌跡が電気信号に変換されて制御部4を介して表示部9のVRAMに送られると共に、画像認識部5に送られる。表示部9では受取った電気信号をラスタデータに変換してVRAMにビットマップイメージで展開し、検索用描画図のイメージを黒色(または黒色以外の単一色)で表示する。図8(a)の例はユーザが大きな山501、小さな山502および家503のイメージを検索用描画図として描いた例であり、描画された大きな山501、小さな山502および家503の検索用描画図が電気信号に変換される。なお、画面には位置指定アイコン93と描画終了アイコン94が表示される。
Step S2: (draw (no color specified))
When the user draws a contour drawing while bringing the
ステップS3:(描画(色彩指定あり))
ユーザが画像検索装置100の画面110にタッチペン3Aを接触させながら検索用描画図を描いたり、輪郭内部を塗り潰したり、斜線を引くと(図9(a))、描画入力部3によってそのイメージが電気信号に変換されて制御部4を介して表示部9のVRAMに送られると共に、画像認識部5に送られる。表示部9では受取った電気信号をR,G,Bのラスタデータに変換してVRAMにビットマップイメージで展開し描画イメージ(輪郭または輪郭および内部色で表現されたイメージ)を指定色で表示する。画面には、色標本92,位置指定アイコン93および描画終了アイコン94が表示される。
Step S3: (drawing (with color designation))
When the user draws a drawing for search while touching the
なお、輪郭と内部の色を別にする場合には画面110に表示されている色標本92をポイントして次の色を選択する。図9(a)の例はユーザが図8の大きな山501、小さな山502および家503のイメージに色彩(山501には緑色912を、山502には茶色914を、家503には黄色913)を施した例である。
また、ポイント結果は制御部4の記憶用メモリ(以下、RAM)に記憶される。また、検索用描画図について指定色データ(コード)と輪郭および輪郭内部との対応づけを行ない、その結果をRAMに記憶する。
When the outline and the internal color are separated, the next color is selected by pointing to the
The point result is stored in a storage memory (hereinafter referred to as RAM) of the
対応付けは、例えば、検索用描画図の番号を「1」、輪郭コードを「1」、内部コードを「2」とし、輪郭および内部の指定色を同じ緑とし、緑の色コードを「08」とした場合には、「1108208」として記憶するようにし、輪郭の指定色を青(コード=「03」)、内部の指定色を青(コード=06)とした場合には、「1103206」として記憶するようにして行なうことができる。 For example, the number of the drawing for search is “1”, the contour code is “1”, the internal code is “2”, the contour and the designated internal color are the same green, and the green color code is “08”. ”Is stored as“ 1108208 ”, and when the contour designated color is blue (code =“ 03 ”) and the internal designated color is blue (code = 06),“ 1103206 ” Can be stored.
ステップS4:(位置指定)
また、画面110に表示されている位置指定アイコン93がポイントされた場合には、RAMに確保された位置指定フラグのうちその検索用描画図に対応する位置指定フラグをオン(=1)とする。なお、画面には描画追加アイコン95と全描画終了アイコン96が表示される。
Step S4: (Position designation)
When the
ステップS5:(追加描画入力判定)
また、画面110に表示されている全描画終了アイコン94(96)がポイントされた場合には、制御部4は描画終了と判定してS6の特徴抽出処理に遷移する。また、検索用描画を追加する場合(図8(a),図9(a))には描画追加アイコン95をポイントすると追加描画入力のために、ステップS1でポイントした結果に応じてS2またはS3に戻る。
Step S5: (Additional drawing input determination)
Further, when the all drawing end icon 94 (96) displayed on the
ステップS6:(描画図の特徴抽出)
画像認識部5は検索用描画図の特徴データを抽出する。なお、特徴データとして本実施例では輪郭特徴、輪郭特徴と色彩特徴、輪郭特徴と配置、輪郭特徴,色彩特徴および配置のいずれかを抽出する(図5:ステップS6−1〜S6−4)がこれらに限定されないことは前述したとおりである。
特徴データとしてどの組合せを抽出するかは、上記ステップS1〜S4でアイコン91〜93のどの組合せが選択されているかによる。以下、本ステップについて図4のフローチャートを基に説明する。なお、検索用描画図が複数描かれている場合(図8(a),図9(a))には各描画図単位に特徴抽出が行なわれる(すなわち、描画毎に切出し、順次特徴抽出を行なう)。
Step S6: (drawing drawing feature extraction)
The
Which combination is extracted as feature data depends on which combination of
・ステップS6−1;
図4で、画像認識部5はDRAM6に展開されたラスタデータからに示すように矩形枠内の検索用描画図の輪郭を切出す。なお、検索用描画図として複数の図を描いた場合には描画単位に切出して記憶する(図8(b),図9(b))。また、切出した検索用描画図の数iをカウントすると共に検索用描画図に大きさの順に番号を付けるか記憶位置を大きさの順に入替える(逆順にソートする)。また、検索用描画図の大きさの比較基準は本実施例では外接枠の大きさ(外接枠の対角線の長さ)としたがこれに限定されない。
-Step S6-1;
In FIG. 4, the
・ステップS6−2;
切出した検索用描画図の特徴ベクトル(方向と線分の始点および長さの組で表される)を抽出し、輪郭特徴データとしてRAMに記憶する。
輪郭特徴は、本実施例では、例えば、山501では山裾a(始点)から頂上bまでの線分の長さとその角度で現わされるベクトルA1と、頂上b(始点)から山裾cまでの線分の長さとその角度で現わされるベクトルA2の組として与えられる。なお、山のピークが幾つもある場合にはそのピークを終点(または始点)としてベクトル成分を抽出する。また、家503のように輪郭が不連続の場合には節点p1,p2,・・を終点(または始点)としてベクトル成分を抽出する。また、輪郭が曲線や円弧を含んでいる場合には曲線を現わす関数の係数と初期値や円弧の曲率半径等を抽出する。
-Step S6-2;
A feature vector (represented by a set of direction, starting point of line segment and length) of the extracted drawing for search is extracted and stored in the RAM as contour feature data.
In this embodiment, for example, in the case of the
・ステップS6−3:ステップS1〜S3でアイコン92が選択された場合(色指定があった場合)には、画像認識部5は検索用描画図(図9(b))の色特徴を抽出する。検索用描画図の色特徴は後述の記録画像の色特徴を抽出する場合と同様に色分布から求めることもできるが、本実施例では上記ステップS3で色彩ありの描画を行なった場合にRAMに記憶した指定色データ(コード)と輪郭および輪郭内部との対応づけの結果(色データ)を色特徴として画像認識部5に与える。なお、本実施例では色特徴を当該検索用描画図に含まれる画素数とそれぞれの色画素R(赤),G(緑),B(青)との比率としているがこれに限定されない。ステップS1〜S3でアイコン92が選択されなかった場合には、S6−4に遷移する。
Step S6-3: When the
・ステップS6−4:RAMに確保された位置指定フラグを調べ、検索用描画図に対応する位置指定フラグがオンの場合には、画像認識部5は画面上での検索用描画図の中心座標を抽出してRAMに記憶する。中心座標は図9(a)の例に示すように切出された検索用描画図に外接する枠の中心点の座標(a,b)として得ることができる。図10(a)の例では検索用描画図701(家)に外接する枠701Aとその中心が示されている。また、検索用描画図に対応する位置指定フラグがオフの場合には、S6−5に遷移する。
Step S6-4: The position designation flag secured in the RAM is checked, and if the position designation flag corresponding to the drawing drawing for search is on, the
・スップS6−5:上記ステップS6−1で切出した検索用描画図について上記ステップS6−2〜S6−4の特徴抽出処理を繰り返し、切出した全ての検索用描画図について特徴抽出処理が終了するとS7に遷移する。 Step S6-5: The feature extraction process in steps S6-2 to S6-4 is repeated for the drawing drawing for retrieval extracted in step S6-1, and the feature extraction process is completed for all the drawing drawings for retrieval. Transition to S7.
ステップS7:(画像データの簡易伸張)
上記ステップS7の検索用描画図の特徴抽出処理が終了したあと、制御部4は画像記録用メモリ7に記録されている1画像分の画像データ(圧縮画像データ)を読み出して画像再生部8の第2の伸張部で圧縮画像データを圧縮前の画像と同じ大きさで且つ元の画像より粗密度の画像に伸張して作業用メモリ(以下、DRAM)5に記憶する。
Step S7: (Simple decompression of image data)
After the feature drawing process for the drawing for retrieval in step S7 is completed, the
ステップS8:(記録画像の特徴抽出)
画像認識部5はDRAM6に記憶された1フレーム分の画像の特徴データを抽出する。なお、抽出する特徴データはステップS6の描画図の特徴抽出の場合と同様の特徴を抽出する。以下、本ステップについて図5のフローチャートを基に説明する。なお、画像中に複数の部分画像が含まれている場合には矩形枠が所定の大きさ以上の部分画像を切出し、大きい順に検索用描画図と同じ数になるまで部分画像単位に特徴抽出を行なう(すなわち、大きな部分画像順に検索用描画図と同じ数になるまで順次切出しおよび特徴抽出を行なう)。
Step S8: (feature extraction of recorded image)
The
・ステップS8−1;
画像認識部5はDRAM6展開されたラスタデータから図8(c)に示すように矩形枠内の画像の輪郭を切出す。
また、1フレームの画像に部分画像が複数含まれている場合には矩形枠が所定の大きさ以上の部分画像を切出してDRAM6に記憶する。なお、切出した部分画像の数がステップ6−1で切出した検索用描画図の数iを超える場合には大きい順にi個記憶する。なお、部分画像の大きさの比較基準は本実施例では外接枠の大きさ(外接枠の対角線の長さ)としたがこれに限定されない。
Step S8-1;
The
When a plurality of partial images are included in one frame image, a partial image whose rectangular frame is a predetermined size or larger is cut out and stored in the DRAM 6. When the number of partial images cut out exceeds the number i of drawing drawings for search cut out in step 6-1, i pieces are stored in descending order. In this embodiment, the size of the circumscribed frame (the length of the diagonal line of the circumscribed frame) is used as a reference for comparing the sizes of the partial images. However, the present invention is not limited to this.
・ステップS8−2;
切出した部分画像501’、502’、503’の特徴ベクトル(方向と線分の始点および長さの組で表される)や曲線を現わす関数の係数と初期値や曲率半径等を抽出して輪郭特徴データとしてRAMに記憶する。なお、輪郭特徴の抽出方法は検索画像の抽出方法と同じでよい。
-Step S8-2;
Extract the feature vectors (represented by a set of direction and line segment start point and length), the coefficient of the function representing the curve, the initial value, the radius of curvature, etc. of the extracted
・ステップS8−3:ステップS1〜S3でアイコン92が選択された場合(色指定があった場合)には、画像認識部5は部分画像の色特徴を抽出してRAMに記憶する。検索用描画図の色特徴は切出した部分画像の色分布から求めることができる。なお、本実施例では色特徴を当該部分画像に含まれる画素数とそれぞれの色画素R,G,Bとの比率としているがこれに限定されない。
Step S8-3: When the
図9(c)の例はカラー画像の部分画像である山501’、502’および家503’の色分布の山501’は緑色成分が80%以上、山502’には茶色成分が90%、家503’には灰色成分70%、黄色成分30%)の例である。また、色特徴の抽出結果はその輪郭特徴データと関連付けられてRAMに記憶される。また、ステップS1〜S3でアイコン92が選択されなかった場合には、S8−4に遷移する。
In the example of FIG. 9 (c), the
・ステップS8−4:RAMに確保された位置指定フラグを調べ、検索用描画図(図10(b))に対応する位置指定フラグがオンの場合には、画像認識部5は画面上での部分画像の中心座標を抽出してRAMに記憶する。中心座標は図10(c),(d)の例に示すように部分画像701’に外接する枠の中心点の座標(c,d)または部分画像701”に外接する枠の中心点の座標(e,f)として得ることができる。また、検索用描画図に対応する位置指定フラグがオフの場合には、S8−5に遷移する。
Step S8-4: The position designation flag secured in the RAM is checked, and if the position designation flag corresponding to the search drawing (FIG. 10B) is on, the
・スップS8−5:上記ステップS8−1で切出した部分画像について上記ステップS8−2〜S8−4の特徴抽出処理を繰り返し、切出した全ての部分画像について特徴抽出処理が終了するとS9に遷移する。 Step S8-5: The feature extraction process in steps S8-2 to S8-4 is repeated for the partial image extracted in step S8-1. When the feature extraction process is completed for all the extracted partial images, the process proceeds to S9. .
ステップS9:(記録画像の特徴抽出繰り返し)
記録画像の全てについて特徴抽出が終るまで上記ステップS7,S8を繰り返す。
Step S9: (Repeated feature extraction of recorded image)
Steps S7 and S8 are repeated until feature extraction is completed for all the recorded images.
ステップS10:(画像認識処理)
記録画像の特徴抽出が終ると制御部4は、検索用描画図の特徴データと各画像の特徴データを順次比較して一致率を算出する。そして、一致率が所定の閾値以上の画像について類似画像として認識し(一致率が100%なら一致)、その画像を候補画像としてその画像番号をRAMに記憶する。なお、検索用描画図が複数ある場合には、大きさの順に順次その特徴データと各部分画像の特徴データを比較し、総合一致率(検索用描画図画1つの場合には一致率と等しい)が所定の閾値以上の画像について類似画像として認識し、その画像を候補画像としてその画像番号をRAMに記憶する。以下、本ステップについて図6のフローチャートを基に説明する。
Step S10: (Image recognition processing)
When the feature extraction of the recorded image is completed, the
・ステップS10−1;
RAMに記憶したj(j=1〜n)番目の検索用描画図(図8(b),図9(b)または図10(b))の輪郭特徴データと、RAMに記憶した1フレーム分の画像の各部分画像(図8(c),図9(c),図10(c)または図10(d)で枠線で囲まれた画像)の輪郭特徴データを比較して輪郭特徴の一致率Γを求める。
Step S10-1;
The contour feature data of the j (j = 1 to n) th drawing for retrieval (FIG. 8B, FIG. 9B, or FIG. 10B) stored in the RAM, and one frame stored in the RAM The contour feature data of each partial image (images surrounded by a frame line in FIG. 8C, FIG. 9C, FIG. 10C, or FIG. 10D) The matching rate Γ is obtained.
輪郭特徴の一致率(以下、輪郭一致率)は本実施例では、切出した検索用描画図と部分画像の線分ベクトルや、曲線を現わす関数の係数と初期値や、円弧の曲率半径の一致率を求め、次に夫々の一致率の自乗平均を計算して輪郭一致率Γとしている。
具体的には、図11に示すように、切出した検索用描画図501の原点を左下とした場合に検索用ベクトルを形成する各部分ベクトル(特徴データ)のうち右廻りにみて原点に最も近い部分ベクトル(図11の例ではベクトルA1)の線分長A1Lと(図11(a))、部分画像501’の原点を左下とした場合に部分画像501’を形成する各部分ベクトルのうち右廻りにみて原点に最も近い部分ベクトル(実施例ではベクトルB1)の線分長B1L(図11(b))との比率Lr1(r1=B1L/A1L)を求め、次に、ベクトルA1とベクトルB1の方向A1θ,B1θの比率θr1を求める。そして、γ1=(1−|1−Lr1|)×(1−|1−θr1|)>ρρとして線分ベクトルA1の一致率γ1を求める。
In this embodiment, the contour feature matching rate (hereinafter referred to as the contour matching rate) is the line vector of the extracted drawing for retrieval and partial image, the coefficient and initial value of the function that expresses the curve, and the radius of curvature of the arc. The matching rate is obtained, and then the mean square of each matching rate is calculated to obtain the contour matching rate Γ.
Specifically, as shown in FIG. 11, when the origin of the extracted drawing for
また、原点に最も近い輪郭成分が曲線或いは円弧の場合には、曲線を現わす関数の係数の比率と初期値の比率、或いは曲率半径の比率を算出し、上述したベクトル成分の一致率算出と同様の方法で一致率γ1を求める。
この場合、一致率が1に近いほど類似度が高くγ1=1で完全一致となる。ここで一致率γが0に近いほど類似度が低い。
When the contour component closest to the origin is a curve or an arc, the ratio of the coefficient of the function representing the curve and the ratio of the initial value or the ratio of the radius of curvature are calculated, and the above-described vector component coincidence ratio calculation is performed. The coincidence rate γ1 is obtained by the same method.
In this case, the closer the match rate is to 1, the higher the degree of similarity is, and γ1 = 1 is a perfect match. Here, the closer the match rate γ is to 0, the lower the similarity.
次に、γ1>ρのとき、検索用描画図501のベクトルA1の右隣の線分ベクトルA2の線分長A2Lと、部分画像501’のベクトルA1の右隣の線分ベクトルB2の線分長B2Lとの比率Lr2(r2=B2L/A2L)を求め、次に、ベクトルA2とベクトルB2の方向A2θ,B2θの比率θr2を求めて線分ベクトルA2の一致率γ2を求める。
Next, when γ1> ρ, the line segment length A2L of the line segment vector A2 on the right side of the vector A1 in the drawing for
また右隣の輪郭成分が曲線或いは円弧の場合には、曲線を現わす関数の係数の比率と初期値の比率、或いは曲率半径の比率等を算出し、上述したベクトル成分の一致率算出と同様の方法で一致率γ2を求める。 When the contour component on the right is a curve or arc, the ratio of the coefficient of the function that expresses the curve and the ratio of the initial value, the ratio of the radius of curvature, and the like are calculated. The coincidence rate γ2 is obtained by the method of
また、図11の例では検索用描画図501を山としたため線分ベクトルがA1,A2の2つしか示されていないが、図8(a)の家503のように線分ベクトルや曲線或いは円弧が多い複雑な検索用描画図の場合には各線分について同様に一致率γ3,γ4,・・・,γm(mは線分ベクトルおよび曲線の数の和)を求める。
In the example of FIG. 11, only two line segments A1 and A2 are shown because the search drawing 501 is a mountain. However, as in the
・ステップS10−2;
次に、部分ベクトルの一致率γ1,γ2,γ3,・・・,γmの自乗平均を求めて部分画像の輪郭一致率Γとし、f番目の部分画像とj番目の検索用描画図との一致率Γfjが閾値ρを超えているか否かを判定し、Γfj≧ρの場合にはS10−3に遷移し、Γfj<ρの場合にはS10−4に遷移する。
-Step S10-2;
Next, the square average of partial vector coincidence rates γ1, γ2, γ3,..., Γm is obtained as the partial image contour coincidence rate Γ, and the coincidence between the f-th partial image and the j-th drawing for search. It is determined whether the rate Γfj exceeds the threshold ρ. If Γfj ≧ ρ, the process proceeds to S10-3, and if Γfj <ρ, the process proceeds to S10-4.
・ステップS10−3;
上記ステップS10−2でΓfj≧ρの場合には輪郭類似と認識して部分画像の部分画像番号f、検索用描画図番号jおよび輪郭一致率ΓfjをRAMに一時記憶する。なお、この場合、輪郭一致率Γ11,Γ12,・・・,Γfj,・・・,Γkjの中から一致率の高い順に所定数の輪郭一致率(但し、輪郭一致率が閾値ρ以上のものが所定数に満たない場合には輪郭一致率が閾値ρ以上のもののみ)を抽出し、対応する部分画像番号および検索用描画図番号jと共にRAMに記憶される(所定数以上の場合には一致率が低いものからリジェクトしていく)。
Step S10-3;
If Γfj ≧ ρ in step S10-2, it is recognized that the contour is similar, and the partial image number f, the drawing drawing number j for search, and the contour matching rate Γfj are temporarily stored in the RAM. In this case, a predetermined number of contour matching rates from the contour matching rates Γ11, Γ12,..., Γfj,. If it is less than the predetermined number, only the contour matching rate with the threshold value ρ or higher is extracted and stored in the RAM together with the corresponding partial image number and the drawing drawing number j for search (if it is higher than the predetermined number, it matches) Reject from the lowest rate).
なお、本実施例では、線分長±80%(=誤差±20%)、方向±80%(=誤差±20%)の範囲を類似とし、閾値ρを0.64(0.8×0.8=0.64)としたがこれに限定されない。 In this embodiment, the line segment length ± 80% (= error ± 20%) and the direction ± 80% (= error ± 20%) are similar, and the threshold ρ is 0.64 (0.8 × 0). .8 = 0.64), but is not limited to this.
・ステップS10−4;
そして、k個の部分画像とj番目の検索用画像の輪郭一致率Γ11,Γ12,・・・,Γfj,・・・,Γkjを得るまで上記S10−1〜S10−3の動作を繰り返し、k個の部分画像について上記処理が終るとS10−5に遷移する。
-Step S10-4;
Then, the operations of S10-1 to S10-3 are repeated until the contour coincidence rates Γ11, Γ12,..., Γfj,. When the above processing is completed for the partial images, the process proceeds to S10-5.
また、本実施例では上述した方法により輪郭一致率を求め類似、非類似を判定(認識)しているがこれに限定されず、検索用描画図と記録画像の部分画像の輪郭イメージそのものを抽出して比較するようにしてもよく、また、公知の輪郭認識方法を用いてもよい。 In this embodiment, the contour matching rate is obtained by the above-described method to determine (recognize) similarity or dissimilarity. However, the present invention is not limited to this, and the contour image itself of the drawing drawing for search and the partial image of the recorded image is extracted. These may be compared, and a known contour recognition method may be used.
・ステップS10−5;
ステップS2でRAMに記憶された指定色データ(コード)と輪郭および輪郭内部との対応づけの結果(アイコン92が選択されたていたか否か(色指定があった場合))を調べ、色指定がされていた場合にはS10−6に遷移し、色指定がされていなかった場合にはS10−11に遷移する。
-Step S10-5;
In step S2, the result of associating the designated color data (code) stored in the RAM with the outline and the inside of the outline is checked (whether or not the
・ステップS10−6;
画像認識部5は上記ステップS10−4でRAMに記憶された部分画像番号の部分画像について、ステップS6−3でRAMに記憶したj番目の検索用描画図の色特徴データとステップS8−3でRAMに記憶した色特徴データとを比較して色彩一致率RGBΓjを求める。
-Step S10-6;
For the partial image having the partial image number stored in the RAM in step S10-4, the
具体的には、本実施例ではステップS6−3およびステップS8−3で述べたようにj番目の検索用描画図の色特徴を当該検索用描画図に含まれる画素数とそれぞれの色画素R,G,Bとの比率(c1j、c2j、c3j):(j=1〜n)とし、各部分画像の色特徴を当該部分画像に含まれる画素数とそれぞれの色画素R,G,Bとの比率(C1f、C2f、C3f:(f=j1〜k))としているので、
f番目の部分画像tとj番目の検索用描画図のR,G,Bの色特徴一致率、
Rγfj=C1f/c1j、Gγ=C2f/c2j、Bγ=C3f/c3j
を求め、Rγfj,GγfjおよびBγfjの最小自乗平均をその部分画像fとj番目の検索用描画図の色彩一致率RGBΓfjとする。
Specifically, in this embodiment, as described in step S6-3 and step S8-3, the color feature of the jth drawing for search is represented by the number of pixels included in the drawing for search and each color pixel R. , G, B ratio (c1j, c2j, c3j): (j = 1 to n), and the color characteristics of each partial image are the number of pixels included in the partial image and the respective color pixels R, G, B (C1f, C2f, C3f: (f = j1 to k))
R, G, B color feature coincidence ratios of the f-th partial image t and the j-th drawing for search,
Rγfj = C1f / c1j, Gγ = C2f / c2j, Bγ = C3f / c3j
And the least mean square of Rγfj, Gγfj and Bγfj is defined as the color matching rate RGBΓfj of the partial image f and the jth drawing for search.
・ステップS10−7;
次に、色彩一致率が極端に低い場合にその部分画像番号等をRAMから削除する(すなわち、部分画像をリジェクトする)ために、色彩一致率RGBΓfjと閾値ρ’を比較し、RGBΓfj<ρ’のときにはS10−8に遷移し、RGBΓfj≧ρ’のときにはS10−8に遷移する。
-Step S10-7;
Next, when the color matching rate is extremely low, the partial image number or the like is deleted from the RAM (that is, the partial image is rejected), and the color matching rate RGBΓfj is compared with the threshold ρ ′, and RGBΓfj <ρ ′. The process transitions to S10-8 at the time of, and the process transitions to S10-8 when RGBΓfj ≧ ρ ′.
・ステップS10−8;
RAMに記憶した輪郭一致率Γのうちからその部分画像番号に対応する輪郭一致率を削除してS10−10に遷移する。
-Step S10-8;
The contour matching rate corresponding to the partial image number is deleted from the contour matching rate Γ stored in the RAM, and the process proceeds to S10-10.
例えば、図9で(b)の検索用描画図503の色彩は茶色成分が多く、(c)の部分画像503’は灰色成分が多くて色彩が異なり色彩一致率RGBγが閾値ρ’以下となるので非類似としてリジェクトされる(この場合、仮に、検索用描画図(部分画像)503と部分画像503’の輪郭一致率が高くても部分画像503’は非類似としてリジェクトされる。なお、本実施例ではρ’=0.5としたがこれに限定されない。
・ステップS10−9;
色彩一致率RGBΓfjをその部分画像番号fと対応づけてRAMに記憶する。
For example, in FIG. 9B, the color of the drawing for
-Step S10-9;
The color matching rate RGBΓfj is stored in the RAM in association with the partial image number f.
・ステップS10−10;
そして、k個の部分画像とj番目の検索用画像の色彩一致率RGBΓ11,RGBΓ12,・・・,RGBΓfj,・・・,RGBΓkjを得るまで上記S10−6〜S10−8またはS10−9の動作を繰り返し、k個の部分画像について上記処理が終るとS10−11に遷移する。
-Step S10-10;
Then, the operations of S10-6 to S10-8 or S10-9 are performed until the color matching rates RGBΓ11, RGBΓ12,..., RGBΓfj,..., RGBΓkj of the k partial images and the jth search image are obtained. When the above processing is completed for k partial images, the process proceeds to S10-11.
・ステップS10−11;
RAMに確保された位置指定フラグを調べ、j番目の検索用描画図に対応する位置指定フラグがオンの場合には位置指定ありとしてS10−12に遷移し、オフの場合には位置指定なしとしてS10−17に遷移する。
Step S10-11;
The position designation flag secured in the RAM is checked. If the position designation flag corresponding to the jth drawing for search is on, the process proceeds to S10-12 with position designation, and if it is off, the position designation is not performed. Transition to S10-17.
・ステップS10−12;
画像認識部5はステップS6−4でRAMに記憶した検索用描画図の中心座標と、ステップS8−4でRAMに記憶した各部分画像の中心座標を比較し、f番目の部分画像との位置一致率XΓfjを求める。
位置一致率は、本実施例では座標値の自乗平均の比率(すなわち、原点からの距離の比率)としている。
-Step S10-12;
The
In this embodiment, the position coincidence rate is a ratio of the mean square of coordinate values (that is, a distance ratio from the origin).
例えば、図10(a)の検索用描画図701の中心座標(a,b)と図10(c)の部分画像701’の位置一致率は、
XΓ701’=(a2 +b2 )1/2/(c2 +d2 )1/2
で与えられ、検索用描画図701の中心座標(a,b)と図10(d)の部分画像701”の位置一致率は、
XΓ701”=(a2 +b2 )1/2/(e2 +f2 )1/2
で与えられる。
For example, the position coincidence rate between the center coordinates (a, b) in the drawing for
XΓ701 ′ = (a 2 + b 2 ) 1/2 / (c 2 + d 2 ) 1/2
The position coincidence ratio between the center coordinates (a, b) in the drawing for
Given in.
・ステップS10−13;
位置一致率XΓfjと閾値ρ”を比較し、XΓfj<ρ”のときにはS10−14に遷移し、XΓfj≧ρ”のときにはS10−15に遷移する。
-Step S10-13;
The position coincidence rate XΓfj is compared with the threshold value ρ ″. When XΓfj <ρ ″, the process proceeds to S10-14, and when XΓfj ≧ ρ ″, the process proceeds to S10-15.
・ステップS10−14;
位置一致率XΓfjが閾値ρ”以下の場合にはその部分画像番号fに関連する輪郭一致率および色彩一致率等をRAMから削除して(すなわち、部分画像をリジェクトして)S10−16に遷移する。
-Step S10-14;
If the position coincidence rate XΓfj is equal to or less than the threshold ρ ″, the contour coincidence rate and the color coincidence rate associated with the partial image number f are deleted from the RAM (that is, the partial image is rejected) and the process proceeds to S10-16. To do.
例えば、図10で閾値をXρ(=0.8)としたとき、図10(c)の部分画像701’は位置がほぼ一致(XΓ701’>ρ”)しているが、図10(d)の部分画像701”は位置が異なる(XΓ701”<ρ”)ので部分画像はリジェクトされる(結果として、部分画像701”を含む記録画像は検索用描画図701の認識対象外となる)。
For example, when the threshold value is Xρ (= 0.8) in FIG. 10, the positions of the
・ステップS10−15;
位置一致率XΓfjが閾値ρ”以上の場合にはその位置一致率XΓfjを部分画像番号fに対応づけてRAMに記憶する。
-Step S10-15;
If the position matching rate XΓfj is equal to or greater than the threshold ρ ″, the position matching rate XΓfj is stored in the RAM in association with the partial image number f.
・ステップS10−16;
k個の部分画像とj番目の検索用画像の位置一致XΓ11,XΓ12,・・・,XΓfj,・・・,XΓkjを得るまで上記S10−12〜S10−14またはS10−15の動作を繰り返し、k個の部分画像について上記処理が終るとS10−17に遷移する。
-Step S10-16;
The operations of S10-12 to S10-14 or S10-15 are repeated until the position matching XΓ11, XΓ12,..., XΓfj,. When the above process is completed for k partial images, the process proceeds to S10-17.
・ステップS10−17;
検索用描画図の全てについて一致率による比較が終るまで上記ステップS10−1〜S10−16を繰り返し、検索用描画図の全てについて比較が終るとS10−17に遷移する。
-Step S10-17;
Steps S10-1 to S10-16 are repeated until the comparison based on the matching rate is completed for all the drawing drawings for search. When the comparison is completed for all the drawing drawings for search, the process proceeds to S10-17.
・ステップS10−18;
ここではRAMに記憶されている部分画像番号の数(=類似部分画像の数)を調べ、それが0の場合にはS10−6に遷移する。
-Step S10-18;
Here, the number of partial image numbers (= number of similar partial images) stored in the RAM is checked, and if it is 0, the process proceeds to S10-6.
・ステップS10−19;
また、RAMに記憶されている部分画像番号の数が1以上の場合には、下記a〜dのいずれかのケースにより総合一致率を求める。
a:色指定および位置指定がない場合にはRAMに記憶されている輪郭一致率の自乗平均値を総合一致率Ξγとする。
b:色指定があった場合にはRAMに記憶されている輪郭一致率および色彩一致率の自乗平均値を総合一致率Ξγとする。
c:位置指定があった場合にはRAMに記憶されている輪郭一致率および位置一致率の自乗平均値を総合一致率Ξγとする。
d:色彩指定および位置指定があった場合にはRAMに記憶されている輪郭一致率,色彩一致率および位置一致率の自乗平均値を総合一致率Ξγとする。
-Step S10-19;
Further, when the number of partial image numbers stored in the RAM is 1 or more, the total matching rate is obtained in any of the following cases a to d.
a: When there is no color designation or position designation, the square average value of the contour coincidence rate stored in the RAM is set as the total coincidence rate Ξγ.
b: When a color is designated, the mean square value of the contour coincidence rate and the color coincidence rate stored in the RAM is set as an overall coincidence rate Ξγ.
c: When the position is designated, the contour coincidence rate and the square mean value of the position coincidence rate stored in the RAM are set as the overall coincidence rate Ξγ.
d: When there is a color designation and a position designation, the mean square value of the contour coincidence rate, the color coincidence rate and the position coincidence rate stored in the RAM is set as the total coincidence rate Ξγ.
・ステップS10−20;
下記a〜dのいずれかのケースにより閾値を決定し、総合一致率Ξγと閾値を比較し、総合一致率Ξγ<閾値の場合にはこの画像をリジェクトしてS10−22に遷移し、総合一致率Ξγ≧閾値の場合にはS10−21に遷移する。
-Step S10-20;
The threshold is determined according to any of the following cases a to d, the overall matching rate Ξγ is compared with the threshold value, and if the total matching rate Ξγ <threshold, this image is rejected and the process proceeds to S10-22. When rate Ξγ ≧ threshold, the process proceeds to S10-21.
a:色指定および位置指定がない場合には閾値=ρ(輪郭一致率の閾値)
b:色指定があった場合には閾値=ρ’(色彩一致率の閾値)
c:位置指定があった場合には閾値=ρ”(位置指定の閾値)
d:色彩指定および位置指定があった場合には閾値ρ,ρ’,ρ”のうちの最大のものを閾値とする。
なお、本実施例では閾値ρ,ρ’,ρ”のうちの最大のものを閾値としたがこれに限定されず、ρ,ρ’,ρ”のいずかかか新たな閾値Ρを閾値としてもよい。
a: When there is no color designation and position designation, threshold = ρ (threshold for contour matching rate)
b: When color is specified, threshold = ρ ′ (threshold of color matching rate)
c: threshold value when position is specified = ρ ″ (position specifying threshold value)
d: When color designation and position designation are made, the maximum one of the threshold values ρ, ρ ′, ρ ″ is set as the threshold value.
In the present embodiment, the maximum of the threshold values ρ, ρ ′, ρ ″ is set as the threshold value. However, the present invention is not limited to this, and any one of ρ, ρ ′, ρ ″ is set as the threshold value. It is good.
・ステップS10−21;
総合一致率Ξγが閾値を超える場合にその画像を候補画像として、その画像番号をRAMに記憶する。
-Step S10-21;
When the overall matching rate Ξγ exceeds the threshold, the image is set as a candidate image, and the image number is stored in the RAM.
ステップS10−22;
RAMに記録されている記録画像の特徴データについて上記ステップS1−1〜S1−5の認識処理を繰り返し、全ての記録画像について認識処理が終了するとS11に遷移する。
Step S10-22;
The recognition process of steps S1-1 to S1-5 is repeated for the feature data of the recorded image recorded in the RAM, and when the recognition process is completed for all the recorded images, the process proceeds to S11.
ステップS11:(候補画像の表示方法決定)
RAMに記憶されている候補画像の画像番号を調べ、それが1個の場合にはS12に遷移する。また、候補画像が複数の場合にはS13に遷移する。候補画像がない場合にはS14に遷移する。
Step S11: (Determination of candidate image display method)
The image number of the candidate image stored in the RAM is checked, and if there is one, the process proceeds to S12. If there are a plurality of candidate images, the process proceeds to S13. If there is no candidate image, the process proceeds to S14.
ステップ12:(1フレームの大きさの検索画像表示)
当該画像番号の画像データを画像記録用メモリ7から読み出して、画像再生部8の第1の伸張部で1フレーム分の画像データに伸張して検索画像イメージを再生して表示部9に送って液晶ディスプレイ10に表示する。この場合、図8(c)の例に示すように検索用描画図による認識対象となった部分画像(501’、502’、503’)を囲む枠線を表示するようにしてもよい。
Step 12: (Search image display of one frame size)
The image data of the image number is read from the
ステップS13:(検索画像マルチ表示)
候補画像が複数個の場合には検索画像番号の画像データを順次画像記録用メモリ7から読み出して、画像再生部8の画像縮小部で画像を縮小して表示部8に送り検索画像イメージを再生して液晶ディスプレイ10にマルチ表示する。この場合、図8(d)に示すように候補画像が2〜4個の場合には縮小サイズを1/4として表示し、5〜9個の場合には縮小サイズを1/9、10〜16個の場合には縮小サイズを1/16、といったように自動的に縮小サイズを選択する。
Step S13: (Search image multi-display)
When there are a plurality of candidate images, the image data of the search image number is sequentially read out from the
また、縮小サイズを1/4(または1/9)に固定し、候補画像が多くて1画面のマルチ表示では間に合わない場合には、次の画面にスクロールできるようにしてもよい。 Further, the reduction size may be fixed to 1/4 (or 1/9), and if there are many candidate images and the single screen multi-display cannot keep up, scrolling to the next screen may be performed.
マルチ表示された画像の中からユーザが所望の画像を指またはタッチペンでポイントするとS12に遷移してその画像を1フレームの大きさの画像として表示する。 When the user points to a desired image from the multi-displayed images with a finger or a touch pen, the process proceeds to S12, and the image is displayed as an image having a size of one frame.
また、候補画像が複数個の場合にマルチ表示せず、1フレーム分のサイズの画像として1つずつ表示するようにしてもよい。この場合は、総合一致率の大きな画像から並べて(総合一致率で逆順ソートして)おき、ユーザのポイントにより順次、スクロール表示可能にすることが望ましい。 In addition, when there are a plurality of candidate images, the images may be displayed one by one as an image having a size for one frame instead of being displayed in multiple. In this case, it is desirable to arrange images that have a large overall match rate (sorted in reverse order based on the overall match rate), and sequentially enable scroll display according to the user's points.
ステップS14:(検索画像なしのメッセージ表示)
候補画像がなかった場合にはその旨のメッセージを表示して検索用描画図の入力(すなわち、描画のやり直し)を促す。
上記画像検索方法によれば、手書きの描画図と記録画像の類似性を認識して画像記録メモリをいわゆる曖昧検索するので、早送りの手間やキーワード入力の煩わしさなしに画像記録メモリに記録された大量の画像の中からユーザのイメージに合った画像を探し出すことができる。また、色彩や位置を検索要素とした場合には、検索の精度が向上する。
Step S14: (message display without search image)
If there is no candidate image, a message to that effect is displayed to prompt the user to input a drawing drawing for search (that is, redo drawing).
According to the above image search method, since the similarity between the handwritten drawing and the recorded image is recognized and the image recording memory is so-called fuzzy search, it is recorded in the image recording memory without the hassle of fast-forwarding and the troublesome keyword input. An image that matches the user's image can be found from a large number of images. In addition, when the color and position are used as search elements, the search accuracy is improved.
なお、図3のフローチャートでは全ての描画図および記録画像の特徴抽出処理(S6〜S8)を行なった後にまとめて画像認識処理(S10)を行なうようにしたが、これに限定されず、例えば、画像認識処理中に順次必要に応じて特徴抽出処理を行なうようにしてもよい(すなわち、図3のフローでS6〜S8を行なわず、S6〜S8の処理をS10の中で行なうようにする。 In the flowchart of FIG. 3, the image recognition process (S10) is performed collectively after performing the feature extraction process (S6 to S8) of all the drawing drawings and the recorded image. However, the present invention is not limited to this. The feature extraction process may be sequentially performed as necessary during the image recognition process (that is, S6 to S8 are not performed in the flow of FIG. 3 and the process of S6 to S8 is performed in S10).
また、図3のフローチャートでは画像認識を描画図および記録画像の特徴要素の比較結果により認識を行なうようにしたが、これ以外の方法(例えば、描画図と記録画像のイメージ同士の比較処理や、公知の方法)により画像認識を行なってもよい(この場合、S6〜S8の特徴抽出処理は行なわない)。 In the flowchart of FIG. 3, the image recognition is performed based on the comparison result of the feature elements of the drawing diagram and the recorded image. However, other methods (for example, the comparison process between the drawing diagram and the image of the recording image, Image recognition may be performed by a known method (in this case, the feature extraction process of S6 to S8 is not performed).
[実施例1−2] 描画入力による画像検索動作(予め抽出した画像の特徴要素を用いた例)
上記実施例1では描画図による検索のたびに描画図と記録画像の特徴を抽出して画像認識を行なったが、本実施例は記録画像の特徴を(記録画像の記録時等に)予め抽出して画像記録用メモリ7に確保した特徴リストに記録しておき、描画検索の際には描画図の特徴だけを抽出して、特徴リストに登録されている記録画像の特徴とを比較して画像認識を行なう例である。
[Example 1-2] Image search operation by drawing input (example using pre-extracted image feature elements)
In the first embodiment, the features of the drawing and the recorded image are extracted for each search by the drawing, and the image recognition is performed. However, in this embodiment, the feature of the recorded image is extracted in advance (when the recorded image is recorded). Then, it is recorded in the feature list secured in the
図12は記録画像の特徴リストの一実施例の構造図であり、記録画像の特徴リスト80は記録画像の画像番号を格納する画像番号欄81と、当該画像の部分画像の特徴データを格納する部分画像特徴欄82−1,82−2,・・・,82−nを備えている。また、各部分画像特徴欄82は複数の輪郭特徴(例えば、線分の長さおよび方向によって規定される特徴ベクトル値,部分曲線の係数等や円弧の曲率半径)や、色彩特徴(例えば、部分画像の画素数に対する色画素(R,G,B)比率)や、部分画像の中心座標(xi,yj)を格納する細分欄を有している。
FIG. 12 is a structural diagram of an embodiment of a recorded image feature list. A recorded
これら特徴値は画像記録用メモリ7への記録画像の入力時(撮像や外部画像処理装置からの受信画像の記録時)に自動的に格納することができる。
図13は特徴リストへの画像の特徴データ登録処理時の動作例を示すフローチャートである。
図13のステップT1では、撮像がなされた場合や(画像検索装置がデジタルカメラのような撮像部を備えている場合)或いは外部画像処理装置からの画像を受信した場合のように画像データ(通常は圧縮されている)の入力があるとそれを画像記録用メモリ7に記録する(画像データが圧縮されていない場合には圧縮処理を施して記録する)。
次に、ステップT2では当該画像の特徴抽出処理を行なう。ここでの特徴抽出処理はDRAM6に記憶されている入力画像データについて行なうが、前述した図3の画像の特徴抽出処理(ステップS8(図5のS8−1〜S8−5))と同様の手順によって行なうことができる。但し、本実施例では色特徴および位置特徴を自動的に特徴リスト80に登録するので、図5のステップS8−3での色指定の有無の判定およびステップS8−4での位置指定の有無の判定動作は行なわない(T2ではこれらの手順を削除する)。
These feature values can be automatically stored when a recorded image is input to the image recording memory 7 (when an image is captured or a received image is recorded from an external image processing apparatus).
FIG. 13 is a flowchart showing an operation example during the process of registering image feature data in the feature list.
In step T1 in FIG. 13, image data (usually when an image is taken (when the image search device includes an image pickup unit such as a digital camera) or when an image is received from an external image processing device) Is input), it is recorded in the image recording memory 7 (when the image data is not compressed, it is compressed and recorded).
Next, in step T2, a feature extraction process for the image is performed. The feature extraction processing here is performed on the input image data stored in the DRAM 6, but the same procedure as the above-described image feature extraction processing in FIG. 3 (steps S8 (S8-1 to S8-5 in FIG. 5)). Can be done. However, in this embodiment, since the color feature and the position feature are automatically registered in the
ステップT3では上記ステップT2で得た特徴データを各部分画像毎に部分画像特徴欄82−1,82−2,・・・,82−iに格納すると共に画像番号欄81に当該画像の画像番号を格納して、1画像分の特徴データを登録する。
In step T3, the feature data obtained in step T2 is stored in the partial image feature columns 82-1, 82-2,..., 82-i for each partial image, and the image number of the image is stored in the
ステップT4では入力画像の数だけ上記ステップT1〜T3を繰り返す。 In step T4, the above steps T1 to T3 are repeated by the number of input images.
図14は特徴リストを備えた画像検索装置の画像検索動作例を示すフローチャートである。
図14のステップU1ではユーザによる描画入力、色指定(任意)、位置指定(任意)等の描画入力処理を行なう。なお、描画入力処理は前述した図3のステップS1〜S5と同様の手順によって行なうことができる。
ステップU2では、ユーザが描いた検索用描画図の特徴抽出処理を行なう。なお、特徴抽出処理は前述した図3の画像のステップS6(=図4のステップS6−1〜S6−5)と同様の手順によって行なうことができる。
ステップU3では、処理速度を向上させるために画像記録用メモリ7の特徴リスト80をRAMに一時記憶する。
ステップU4ではステップU2で抽出した検索用描画図の特徴と特徴リスト80に登録された各画像の特徴とを比較して画像認識処理を行ない、候補画像を求める。なお、画像認識処理は前述した図3の画像のステップS10(=図6のステップS10−1〜S10−22)と同様の手順によって行なうことができる。
FIG. 14 is a flowchart showing an image search operation example of the image search apparatus provided with the feature list.
In step U1 of FIG. 14, drawing input processing such as drawing input by the user, color designation (arbitrary), position designation (arbitrary) and the like is performed. The drawing input process can be performed in the same procedure as steps S1 to S5 in FIG.
In step U2, feature extraction processing is performed on the drawing for search drawn by the user. It should be noted that the feature extraction process can be performed by the same procedure as step S6 (= steps S6-1 to S6-5 in FIG. 4) of the image in FIG.
In step U3, the
In step U4, the feature of the drawing for search extracted in step U2 is compared with the feature of each image registered in the
ステップU5では候補画像の数に応じて画像表示処理を行なう。なお、画像表示処理は前述した図3の画像のステップS11〜S14と同様の手順によって行なうことができる。
上述したように、本実施例では描画図による検索時には記録画像の特徴抽出を行なわないので高速検索が可能となる。また、色彩や位置を検索要素とした場合でも高速検索ができるので、高速且つ精度の高い検索が可能となる。
In step U5, image display processing is performed according to the number of candidate images. Note that the image display process can be performed in the same procedure as steps S11 to S14 of the image shown in FIG.
As described above, according to the present embodiment, the feature extraction of the recorded image is not performed at the time of the search by the drawing diagram, so that the high-speed search is possible. In addition, even when colors and positions are used as search elements, high-speed search can be performed, so that high-speed and high-precision search is possible.
<実施形態(2)> 一次抽出画像による画像検索
本実施形態では、画像検索装置は前述した実施形態1と同様に指やタッチペン3A等で手書き入力した検索用描画図の特徴要素と記録画像の特徴要素との比較により特徴要素の一致度の高い記録画像を候補画像として抽出するが、認識精度の高精度化と検索速度の高速化のために、実施形態1のように全ての画像について特徴要素の認識を行なわず、検索用描画図により検索された画像の一つを用いてその特徴要素と記録画像の特徴要素を比較して、一致率の高い画像を候補画像とし、表示した候補画像の中からユーザがイメージした画像を選択することによりキーワード入力やコマ送りなしに所望の画像を検索する。
<Embodiment (2)> Image Search Using Primary Extracted Image In this embodiment, the image search apparatus, as in
なお、本実施形態では画像検索装置の回路構成は説明上、図2の例と同様とし、比較する特徴要素についても実施形態(1)の例と同様とするがそれらに限定されない。また、その他の説明図(図1,図7〜図10、図12,図13)についても同様とする。 In this embodiment, the circuit configuration of the image search apparatus is the same as that of the example of FIG. 2 for the sake of explanation, and the feature elements to be compared are also the same as those of the example of the embodiment (1), but are not limited thereto. The same applies to other explanatory diagrams (FIGS. 1, 7 to 10, FIG. 12, and FIG. 13).
[実施例2−1]
図15は一次抽出画像による画像検索例の説明図である。
図15で、(a)はユーザによって手書き入力された検索用描画図501、503の例であり、(b)は検索用描画図501、503の特徴要素を基に検索された画像(画像105)の例であり、(c)は画像105はユーザの所望の画像ではなかったが、検索画像に類似した部分像501’、503’があるのでユーザが検索用画像として指定した結果、検索された複数の画像(画像151〜154)をマルチ表示した例である。
[Example 2-1]
FIG. 15 is an explanatory diagram of an image search example using a primary extracted image.
15A is an example of search drawing diagrams 501 and 503 input by handwriting by the user, and FIG. 15B is an image (image 105) searched based on the characteristic elements of the search drawing diagrams 501 and 503. (C) shows that the
図16は一次抽出画像を用いた画像検索装置の動作例を示すフローチャートである。
ステップV1:(描画入力処理)
ここではユーザによる描画入力、色指定(任意)、位置指定(任意)等の描画入力処理を行なう。なお、描画入力処理は前述した図3のステップS1〜S5と同様の手順によって行なうことができる。
ステップV2:(検索用描画図の特徴抽出処理)
次に、ユーザが描いた検索用描画図の特徴抽出処理を行なう。なお、特徴抽出処理は前述した図3の画像のステップS6(=図4のステップS6−1〜S6−5)と同様の手順によって行なうことができる。
ステップV3:(画像データの簡易伸張)
上記ステップV2での検索用描画図の特徴抽出処理が終了したあと、制御部4は画像記録用メモリ7に記録されている1画像分の画像データ(圧縮画像データ)を読み出して画像再生部8の第2の伸張部で圧縮画像データを圧縮前の画像と同じ大きさで且つ元の画像より粗密度の画像に伸張してDRAM6に記憶する。
FIG. 16 is a flowchart illustrating an operation example of the image search apparatus using the primary extracted image.
Step V1: (Drawing input process)
Here, drawing input processing such as drawing input by the user, color designation (arbitrary), position designation (arbitrary), etc. is performed. The drawing input process can be performed in the same procedure as steps S1 to S5 in FIG.
Step V2: (Characteristic extraction process for search drawing)
Next, the feature extraction process of the drawing for search drawn by the user is performed. It should be noted that the feature extraction process can be performed by the same procedure as step S6 (= steps S6-1 to S6-5 in FIG. 4) of the image in FIG.
Step V3: (Simple decompression of image data)
After the feature drawing process of the drawing for search in step V2 is completed, the
ステップV4:(画像データの特徴抽出処理)
次に、DRAM6に記憶された伸張済み画像データについて特徴抽出処理を行なう。この特徴抽出処理は前述した図3の画像の特徴抽出処理(ステップS8(図5のS8−1〜S8−5))と同様の手順によって行なうことができる。
Step V4: (Image data feature extraction processing)
Next, feature extraction processing is performed on the expanded image data stored in the DRAM 6. This feature extraction process can be performed by the same procedure as the feature extraction process (step S8 (S8-1 to S8-5 in FIG. 5)) of FIG.
ステップV5:(記録画像の特徴抽出繰り返し)
記録画像の全てについて特徴抽出が終るまで上記ステップV3,V4を繰り返す。
Step V5: (Repeated feature extraction of recorded image)
Steps V3 and V4 are repeated until feature extraction is completed for all the recorded images.
ステップV6:(一次抽出処理)
ステップV2で抽出した検索用描画図の特徴とステップV4で抽出した画像の特徴とを比較して画像認識処理を行ない、候補画像を求める。なお、画像認識処理は前述した図3の画像のステップS10のうち、図6のステップS10−1〜S10−21までと同様の手順によって行なうことができる(ステップS10−22はこの場合不要)。
Step V6: (Primary extraction process)
The feature of the drawing for search extracted in step V2 is compared with the feature of the image extracted in step V4, image recognition processing is performed, and a candidate image is obtained. The image recognition process can be performed by the same procedure as steps S10-1 to S10-21 in FIG. 6 in step S10 of the image in FIG. 3 described above (step S10-22 is unnecessary in this case).
ステップV7:(画像終了判定)
上記V6で候補画像がみつかった場合にはそれを一次抽出画像としてV9に遷移する。また、候補画像がみつからなかった場合には記録画像の終了判定を行ない、記録画像がまだある場合にはV6に戻ってつぎの候補画像の認識処理を行なう。
Step V7: (Image end determination)
If a candidate image is found in V6, the transition is made to V9 as a primary extracted image. If no candidate image is found, the end of the recorded image is determined. If there is still a recorded image, the process returns to V6 and the next candidate image is recognized.
ステップV8:(一次抽出画像がない場合)
上記ステップV7で記録画像が終了したと判定された場合は一次抽出画像がみつからなかったものと判定して「一次抽出画像がない」旨のメッセージを液晶ディスプレイ10に表示して描画図の再入力を促しV1に戻る。
Step V8: (When there is no primary extraction image)
If it is determined in step V7 that the recorded image has been completed, it is determined that the primary extraction image has not been found, and a message “No primary extraction image” is displayed on the
ステップV9:(一次抽出画像の表示)
ステップV6で抽出した候補画像をユーザに確認させるために、1フレーム分の大きさに伸張して液晶ディスプレイ10に表示する。また、この際画面上に確認用アイコン(OKアイコンとNOアイコン(図示せず))を表示する。
Step V9: (Display of primary extracted image)
In order to make the user confirm the candidate image extracted in step V6, the image is expanded to the size of one frame and displayed on the
ステップV10:(一次抽出画像の確認)
ユーザがOKアイコンをポイントすると、表示された一次抽出画像を検索用画像として用いるものとしてV11に遷移する。また、NOアイコンがポイントされると次の抽出画像をヒットするためにV6に戻る。
Step V10: (Confirmation of primary extracted image)
When the user points to the OK icon, the process proceeds to V11 on the assumption that the displayed primary extracted image is used as a search image. When the NO icon is pointed, the process returns to V6 to hit the next extracted image.
ステップV11:(一次抽出画像による画像認識処理)
ステップV6で抽出した一次抽出画像の特徴データはステップV4で求めてあるので、RAMに記憶されている一次抽出画像の特徴データとステップV4で抽出した画像の特徴とを比較して画像認識処理を行ない、候補画像を求める。
なお、画像認識処理は前述した図3の画像のステップS10(=図6のステップS10−1〜S10−22まで)と同様の手順によって行なうことができる。但し、検索用描画図の特徴データの代りに一次抽出画像の特徴データを用いる。
Step V11: (Image recognition process using primary extracted image)
Since the feature data of the primary extraction image extracted in step V6 is obtained in step V4, the feature data of the primary extraction image stored in the RAM and the feature of the image extracted in step V4 are compared to perform image recognition processing. To find a candidate image.
Note that the image recognition processing can be performed by the same procedure as step S10 (= steps S10-1 to S10-22 in FIG. 6) of the image in FIG. However, the feature data of the primary extracted image is used instead of the feature data of the drawing for search.
ステップV12:(候補画像表示処理)
記録画像の検索が全て終ると、候補画像の数に応じて画像表示処理を行なう。なお、画像表示処理は前述した図3の画像のステップS11〜S14と同様の手順によって行なうことができる。
Step V12: (Candidate image display processing)
When the search for all recorded images is completed, image display processing is performed according to the number of candidate images. Note that the image display process can be performed in the same procedure as steps S11 to S14 of the image shown in FIG.
上記方法によれば、2枚目以降の検索画像は手書きされたイメージ(描画図)よりもあいまいでない(すなわち、より正確な)像をもとにした特徴データを用いて検索できるので、実施形態1(実施例1−1)の場合よりも検索精度が向上する。また、検索スピードも早くなる。なお、上記ステップV9およびV10は省略してもよい。 According to the above method, the second and subsequent search images can be searched using feature data based on an image that is less ambiguous (that is, more accurate) than a handwritten image (drawing diagram). The search accuracy is improved as compared with the case of 1 (Example 1-1). Also, the search speed is increased. The steps V9 and V10 may be omitted.
[実施例2−2]
なお、本実施形態で実施例1−2のように予め抽出した画像特徴を用いて認識処理を行なうようにすることもできる。この場合は予め記録画像の特徴を登録した特徴リスト(図12)を画像記録用メモリ7に記録しておき、上記図16のステップV10を図17のステップV10−1、V10−2で置き換えればよく、さらにステップV3〜V5が不要となるので検索精度が向上するだけでなく、高速検索が可能となる。
[Example 2-2]
In this embodiment, it is also possible to perform recognition processing using image features extracted in advance as in Example 1-2. In this case, if a feature list (FIG. 12) in which features of recorded images are registered in advance is recorded in the
図17に一次抽出画像および予め抽出した画像特徴を用いて認識処理を行う場合のフローチャートを示す。
図17ではステップV10−1で、処理速度を向上させるために画像記録用メモリ7の特徴リストをRAMに一時記憶する。
ステップV10−2ではステップV6で抽出した一次抽出画像の特徴と特徴リストに登録された各画像の特徴とを比較して画像認識処理を行ない、候補画像を求める。なお、画像認識処理は前述した図3の画像のステップS10(=図6のステップS10−1〜S10−22)と同様の手順によって行なうことができる。また、その他のステップの動作は図16の場合と同様である。
FIG. 17 shows a flowchart when the recognition process is performed using the primary extracted image and the image feature extracted in advance.
In FIG. 17, in step V10-1, the feature list of the
In step V10-2, the feature of the primary extraction image extracted in step V6 is compared with the feature of each image registered in the feature list, image recognition processing is performed, and a candidate image is obtained. Note that the image recognition process can be performed by the same procedure as step S10 (= steps S10-1 to S10-22 in FIG. 6) of the image in FIG. The other steps are the same as in FIG.
[実施例2−3]
上記実施例では手書の検索用描画図を用いて記録画像から候補画像を抽出し、それを用いてさらに記録画像から候補画像を検索したが、早送り等の公知の画像検索方法を含む検索方法によって得た画像を用いて記録画像を検索することもできる。すなわち、図16または図17のステップV1で早送り等の公知の検索方法を含む検索を行ない、ステップV2で検索された画像の特徴抽出処理を行なうようにし、ステップV6〜V9を削除する。なお、特徴抽出処理は前述した図3の画像の特徴抽出処理(ステップS8(図5のS8−1〜S8−5))と同様の手順によって行なうことができる。これにより、正確で迅速な画像検索が実現できる。
[Example 2-3]
In the above embodiment, a candidate image is extracted from a recorded image using a drawing for searching for a handwriting, and a candidate image is further searched from the recorded image using the extracted image. A search method including a known image search method such as fast-forwarding is used. The recorded image can be searched using the image obtained by the above. That is, a search including a known search method such as fast-forwarding is performed in step V1 of FIG. 16 or FIG. 17, the feature extraction processing of the image searched in step V2 is performed, and steps V6 to V9 are deleted. Note that the feature extraction processing can be performed by the same procedure as the feature extraction processing (step S8 (S8-1 to S8-5 in FIG. 5)) of FIG. 3 described above. Thereby, an accurate and quick image search can be realized.
[実施例2−4] 不要部分の消去機能の付加
また、図16、図17で検索用に用いる一次抽出画像が人物の場合(例えば、他の記録画像に記録されている人物と同一人物で顔は同じであっても服装や姿勢が異なることが多い、このような場合には認識効率が低下することが予想されるので、変化の少ない特定の部分(人物の場合には顔)だけを検索用画像とすると認識効率が向上し、しかも、検索に不都合な点は生じない。
[Embodiment 2-4] Addition of Erasing Function of Unnecessary Part Further, when the primary extraction image used for search in FIGS. 16 and 17 is a person (for example, the same person as a person recorded in another recorded image) Even if the face is the same, the clothes and posture are often different. In this case, the recognition efficiency is expected to decrease, so only a specific part (face in the case of a person) with little change is expected. The use of the search image improves the recognition efficiency and does not cause any inconvenience in the search.
そこで、上記ステップV8で表示される一次抽出画像のうちの不要な像を消すことができるように、消去選択ボタンを設けて(或いは画面に消去指定アイコンを表示して)、ボタン操作をしたあと(或いはアイコンをポイントしたあと)、カーソルまたは指やタッチペンで消去範囲を指定するとその部分が消去できるようにする。
これにより不要な部分の特徴要素を検索に用いないので、検索速度が更に向上するとともに、検索精度がより向上する。
Therefore, after an erasure selection button is provided (or an erasure designation icon is displayed on the screen) and the button is operated so that an unnecessary image of the primary extracted image displayed in step V8 can be erased. (Or, after pointing the icon), if you specify the erase range with the cursor or your finger or touch pen, you can erase that part.
As a result, unnecessary feature elements are not used for the search, so that the search speed is further improved and the search accuracy is further improved.
<実施形態(3)>
本実施形態では撮像した画像を用いて記録画像を検索する。また、画像検索装置としてデジタルカメラのように撮像部および表示部を有する撮像装置を用いる。
すなわち、撮像の特徴要素と記録画像の特徴要素との比較により特徴要素の一致率の高い記録画像を候補画像とし、表示された候補画像の中からユーザがイメージした画像(図1(c)の例では画像111)を選択することにより、キーワード入力やコマ送りなしに所望の画像を検索可能とする。
なお、本実施形態では比較する特徴要素についても実施形態(1)の例と同様とするが、それらに限定されない。
<Embodiment (3)>
In this embodiment, the recorded image is searched using the captured image. In addition, an image capturing device having an image capturing unit and a display unit, such as a digital camera, is used as the image search device.
That is, a recorded image with a high matching rate of feature elements is set as a candidate image by comparing the characteristic elements of the captured image with the characteristic elements of the recorded image, and an image (FIG. 1C) imaged by the user from among the displayed candidate images. In the example, by selecting an image 111), a desired image can be searched without inputting a keyword or frame advance.
In the present embodiment, the feature elements to be compared are the same as in the example of the embodiment (1), but are not limited thereto.
[回路構成例]
図18は、本発明を適用したデジタルカメラの回路構成例を示すブロック図であり、デジタルカメラ200は、撮像部11、操作部12、制御部13、画像認識部14、DRAM15、画像記録用メモリ16、画像処理部17,表示部18、液晶ディスプレイ(LCD)19を備えている。
[Circuit configuration example]
FIG. 18 is a block diagram illustrating a circuit configuration example of a digital camera to which the present invention is applied. The
撮像部11は撮像レンズやレンズ駆動機構、絞り機構等の光学系と撮像レンズを介して集光された光学像を電気信号に変換する撮像素子と、撮像素子駆動部および得られた電気信号をデジタルデータに変換する信号変換部を有している。
The
操作部12は電源スイッチや処理モード選択ボタン等の他、シャッターボタン等の撮像用ボタンまたスイッチほかを備えている。ユーザが操作部12のスイッチやボタン等を操作すると操作内容に対応した電気信号(コード)が制御部13に送られる。これにより、ユーザは制御部13にデジタルカメラ200の起動や処理動作上必要な指示を与えることができる。
The
制御部13はCPU,プログラム格納用メモリ(ROM)および一時記憶用メモリ(ROM)(図示せず)を備え、デジタルカメラ200全体の動作制御と、各処理モードでの処理の実行制御、例えば、撮像や画像の記録、再生、表示の他、本発明の画像検索処理を含む各種処理モードの実行制御を行なう。なお、画像検索処理モードではプログラム格納用メモリからRAMに画像検索プログラムを一時的にロードし、画像検索処理の実行を制御する。
The
画像認識部14は、画像検索処理モードで撮像した画像の特徴要素の抽出を行なってRAMに記憶し、記録画像の特徴要素との一致度を調べて認識処理を行なう。
The
DRAM15は撮像部11によって取込まれた画像データの一時記憶や、再生された画像データの一時記憶、画像認識等の際の画像データの記憶等の他、処理に作業用バッファとして用いられる。
The
画像記録用メモリ16はフラッシュメモリ或いはメモリカード等の記録媒体からなり、圧縮処理された撮影画像データが記録される。また、撮影画像よりサイズや記録密度の小さな簡易画像(サムネイル画像)データを記録することもできる。また、予め記録画像の特徴要素を用いて画像検索を行なうようにした場合には図12に示したような特徴リストを記録する領域が確保される。また、画像データに画像管理を行なうようにした場合には画像データに加えて画像データをファイル単位に管理する画像ファイル管理リスト領域が確保される。
The
画像処理部17は、画像データ伸張/データ圧縮部、カラープロセッサインターフェイス、通信インターフェイス、表示制御用インターフェイス等の回路で構成され、CPUによって動作制御されてデジタルカメラ200の主要な動作、例えば、画像の取込み、撮像処理、画像データの圧縮、圧縮データの記録、再生(圧縮画像データの取り出し、圧縮画像データの伸張)等の画像処理動作を実行する。
The
また、画像データ伸張/圧縮部は画像データを圧縮する画像圧縮部と、図2の画像再生部と同様に圧縮画像データを圧縮前の画像と同じ大きさで且つ同じ密度の画像に伸張する第1の伸張部と、圧縮画像データを圧縮前の画像と同じ大きさで且つ元の画像より粗密度(密度が粗いことをいう)の画像に伸張する第2の伸張部と、圧縮画像データを元の画像より小さなサイズの画像に伸張且つ縮小して再生する画像縮小部を有している。 Also, the image data expansion / compression unit compresses the image data into an image compression unit that compresses the image data, and expands the compressed image data to an image having the same size and the same density as the image before compression in the same manner as the image reproduction unit in FIG. A first decompression unit, a second decompression unit that decompresses the compressed image data into an image having the same size as the uncompressed image and a coarser density (which means that the density is coarser) than the original image, and the compressed image data It has an image reduction unit that reproduces an image that has been expanded and reduced to a smaller size than the original image.
なお、マルチ表示するように構成した場合で、デジタルカメラ200がメモリ容量が十分に大きい画像記録用メモリを備えている場合には、上述のような画像縮小部を設けることなく画像の記録時に予め画像を複数のサイズに縮小して各画像と関連づけて記憶させておき、表示の際に必要なサイズの縮小画像を抽出することもできる。
If the
表示部18はビデオエンコーダおよびVRAM等の画像メモリを有し、画像データや描画入力されたデータをイメージデータに変換してVRAMにビットマップ展開して、液晶ディスプレイ(LCD)19上に画像表示する。
The
[実施例3−1]
図19は撮影画像による画像検索例の説明図である。図19で、(a)に示す画像191は、1年前にデジタルカメラ200で撮影した子供(幼児)の画像を記録画像の中から検索するために、検索用画像として撮像した幼児の画像である。
[Example 3-1]
FIG. 19 is an explanatory diagram of an image search example based on a photographed image. In FIG. 19, an
デジタルカメラ200で幼児を撮像した後、処理モードを画像検索処理モードにすると、いま撮った乳児の画像191の特徴要素を抽出して記録画像の特徴要素と比較し、認識処理する。(b)に示す子供の画像192と(c)に示す母親と一緒の画像193は乳児の画像191の特徴要素をもとに検索され、表示された画像の例である。
After the infant is imaged by the
図20は撮影画像によるデジタルカメラの画像検索動作例を示すフローチャートである。 FIG. 20 is a flowchart showing an example of an image search operation of the digital camera based on a photographed image.
ステップW1:(撮像)
RECモード(撮像/記録モード)で検索に用いる画像としたい被写体を撮像する。すなわち、ユーザが操作部2のシャッターボタンを押すと、被写体像が撮像部11によって電気信号に変換され、被写体像が画像データとしてDRAM15に取込まれる。DRAM15に取込まれた画像データは画像処理部17でカラー処理の画像処理を施されて映像信号として表示部18に送られて液晶ディスプレイ19に静止画表示される。
Step W1: (Imaging)
A subject to be used as an image to be used for search in the REC mode (imaging / recording mode) is captured. That is, when the user presses the shutter button of the
ステップW2:(画像検索処理モードの選択)
ここで、ユーザが操作部12の機能選択ボタンに割当てられた画像検索処理モード選択ボタン(画面に画像検索処理モード選択アイコンを表示してもよい)を操作すると、画像検索処理モードとなりステップW3に遷移する(所定時間内に画像検索処理モード選択がなされない場合には画像記録処理に移行する)。なお、画像検索処理モードの選択をステップW1で行ない、撮像をステップW2で行なうようにしてもよい。この場合、ステップW2で撮像を行なった後に直ちにステップW3に移行してもよいが、撮像後、所定キーを操作するとステップW4に移行するようにしてもよい。
Step W2: (Selection of image search processing mode)
Here, when the user operates an image search processing mode selection button (an image search processing mode selection icon may be displayed on the screen) assigned to the function selection button of the
ステップW3:(撮像の特徴抽出処理)
次に、今撮像した画像の特徴抽出処理を行なう。なお、撮像した画像の特徴抽出処理は前述した図3の画像のステップS10(=図5のステップS8−1〜S8−5)までと同様の手順によって行なうことができる。但し、ステップS8−3での色指定の判定およびステップ8−4での位置指定の判定を行なわない。
Step W3: (Imaging feature extraction processing)
Next, a feature extraction process is performed on the image that has just been captured. Note that the feature extraction processing of the captured image can be performed by the same procedure as the above-described step S10 (= steps S8-1 to S8-5 in FIG. 5) of FIG. However, the color designation determination in step S8-3 and the position designation determination in step 8-4 are not performed.
ステップW4:(画像データの簡易伸張)
上記ステップW3での撮像の特徴抽出処理が終了したあと、制御部13は画像記録用メモリ16に記録されている1画像分の画像データ(圧縮画像データ)を読み出して画像処理部17の第2の伸張部で圧縮画像データを圧縮前の画像と同じ大きさで且つ元の画像より粗密度の画像に伸張してDRAM15に記憶する。
Step W4: (Simple decompression of image data)
After the imaging feature extraction process in step W3 is completed, the
ステップW5:(画像データの特徴抽出処理)
次に、DRAM15に記憶された伸張済み画像データについて特徴抽出処理を行なう。この特徴抽出処理は前述した図3の画像の特徴抽出処理(ステップS8(図5のS8−1〜S8−5))と同様の手順によって行なうことができる。但し、ステップS8−3での色指定の判定およびステップ8−4での位置の判定確認を行なわない。
Step W5: (Image data feature extraction processing)
Next, a feature extraction process is performed on the expanded image data stored in the
ステップW6:(記録画像の特徴抽出繰り返し)
記録画像の全てについて特徴抽出が終るまで上記ステップW4,W5を繰り返す。
Step W6: (Repeated feature extraction of recorded image)
Steps W4 and W5 are repeated until feature extraction is completed for all the recorded images.
ステップW7:(撮像画像による画像認識処理)
ステップW3で抽出してRAMに記憶した撮像画像の特徴データとステップW5で抽出した記録画像の特徴とを比較して画像認識処理を行ない、候補画像を求める。なお、画像認識処理は前述した図3の画像のステップS10(=図6のステップS10−1〜S10−22まで)と同様の手順によって行なうことができる。但し、検索用描画図の特徴データの代りに撮像画像の特徴データを用いるものとし、また、ステップS10−5〜S10−10での色指定の判定およびステップ10−11〜S10−16での位置指定の判定を行なわない。
Step W7: (Image recognition process using captured image)
The feature data of the captured image extracted in step W3 and stored in the RAM is compared with the feature of the recorded image extracted in step W5, and image recognition processing is performed to obtain a candidate image. Note that the image recognition processing can be performed by the same procedure as step S10 (= steps S10-1 to S10-22 in FIG. 6) of the image in FIG. However, the feature data of the picked-up image is used instead of the feature data of the drawing for search, and the color designation determination in steps S10-5 to S10-10 and the positions in steps 10-11 to S10-16 are used. Do not make the specified judgment.
ステップW8:(検索画像表示処理)
記録画像の検索が全て終ると、検索された候補画像の数に応じて画像表示処理を行なう。なお、画像表示処理は前述した図3の画像のステップS11〜S14と同様の手順によって行なうことができる。上記画像検索方式により、実施形態1,2の場合と比較してより正確な検索ができる。また、迅速な画像検索が可能となる。
Step W8: (Search image display process)
When the search for all recorded images is completed, an image display process is performed in accordance with the number of searched candidate images. Note that the image display process can be performed in the same procedure as steps S11 to S14 of the image shown in FIG. By the above image search method, more accurate search can be performed as compared with the first and second embodiments. In addition, a quick image search is possible.
[実施例3−2] 特徴リストを用いた例
また、本実施形態で実施例1−2のように予め抽出した画像特徴を用いて認識処理を行なうようにすることもできる。この場合は予め記録画像の特徴を登録した特徴リスト(図12)を画像記録用メモリ16に記録しておき、上記図20のステップW7を図21のステップW7−1、W7−2で置き換えればよく、ステップW4〜W6が不要となるので検索精度が向上するだけでなく、更に高速検索が可能となる。
[Example 3-2] An example using a feature list In addition, it is possible to perform recognition processing using image features extracted in advance as in Example 1-2 in this embodiment. In this case, if a feature list (FIG. 12) in which features of recorded images are registered in advance is recorded in the
図21に撮像画像および予め抽出した画像特徴を用いて認識処理を行う場合のフローチャートを示す。
図21ではステップW7−1で、処理速度を向上させるために画像記録用メモリ16の特徴リストをRAMに一時記憶する。
ステップW7−2ではステップW3で抽出した一次抽出画像の特徴と特徴リストに登録された各記録画像の特徴とを比較して画像認識処理を行ない、検索候補画像を求める。なお、画像認識処理は前述した図3の画像のステップS10(=図6のステップS10−1〜S10−22)と同様の手順によって行なうことができる。また、その他のステップの動作は図20の場合と同様である。
FIG. 21 shows a flowchart in the case of performing recognition processing using a captured image and image features extracted in advance.
In FIG. 21, in step W7-1, the feature list of the
In step W7-2, the feature of the primary extraction image extracted in step W3 is compared with the feature of each recorded image registered in the feature list, and image recognition processing is performed to obtain a search candidate image. Note that the image recognition process can be performed by the same procedure as step S10 (= steps S10-1 to S10-22 in FIG. 6) of the image in FIG. The other steps are the same as in FIG.
[実施例3−3] 不要部分の消去機能の付加
また、図20、図21で検索用に用いる被写体が人物の場合(例えば、図19(a)の幼児191)は記録画像に記録されている人物(例えば、図19(b)の乳児192)と同一人物で顔は同じであっても服装や姿勢が異なることが多い。このような場合には認識効率が低下することが予想されるので、変化の少ない特定の部分(人物の場合には顔)だけを検索用画像とすると認識効率が向上し、しかも、検索に不都合な点は生じない。
[Embodiment 3-3] Addition of Unnecessary Part Erasing Function When the subject used for searching in FIGS. 20 and 21 is a person (for example, the
そこで、上記ステップW1で表示される撮像画像のうち不要部分を消すことができるように、消去選択ボタンを設けて(或いは画面に消去指定アイコンを表示して)、ボタン操作がなされると(或いはアイコンがポイントされる)、カーソルまたは指やタッチペンで消去範囲を指定するとその部分が消去できるようにし、上記ステップW2での撮像からの特徴抽出を消去後の特定部分(例えば、顔)から行なう。
これにより不要な部分の特徴要素を検索に用いないので、検索速度が更に向上するとともに、検索精度がより向上する。
Therefore, an erasure selection button is provided (or an erasure designation icon is displayed on the screen) so that an unnecessary portion of the captured image displayed in step W1 can be erased, and a button operation is performed (or When an erasing range is designated with a cursor or a finger or a touch pen, the portion can be erased, and feature extraction from the imaging in step W2 is performed from a specific portion (for example, a face) after erasure.
As a result, unnecessary feature elements are not used for the search, so that the search speed is further improved and the search accuracy is further improved.
以上本発明のいくつかの実施例について説明したが、本発明は上記実施例に限定されるものではなく種々の変形実施が可能であることはいうまでもない。 Although several embodiments of the present invention have been described above, it is needless to say that the present invention is not limited to the above-described embodiments and various modifications can be made.
3 描画入力部(描画入力手段)
5,14 画像認識部(描画特徴抽出手段、一次画像抽出手段、画像特徴抽出手段、画像認識手段、一次画像抽出手段)
7,16 画像記録用メモリ(画像記録手段)
9,18 表示部(報知手段)
10,19 液晶ディスプレイ(報知手段)
100,200 デジタルカメラ(電子スチルカメラ;画像検索装置)
191 撮影像
501,502,503,701 検索用描画図(描画図;イメージ)
3 Drawing input section (drawing input means)
5,14 Image recognition unit (drawing feature extraction means, primary image extraction means, image feature extraction means, image recognition means, primary image extraction means)
7,16 Image recording memory (image recording means)
9, 18 Display section (notification means)
10, 19 Liquid crystal display (notification means)
100,200 Digital camera (electronic still camera; image search device)
191 Photographed
Claims (15)
a:輪郭
b:輪郭と色彩
c:輪郭とその位置
d:輪郭とその位置および色彩 5. The image search method according to claim 1, wherein the comparison is performed by comparing any of the following a to d.
a: Contour b: Contour and color c: Contour and its position d: Contour, its position and color
この描画入力手段により描画入力された前記絵または図形と前記画像記録手段に記録されている前記各画像とを比較して類似度の高い記録画像を得る画像認識手段と、
この画像認識手段による比較結果を報知する報知手段と、を有することを特徴とする画像検索装置。 An image recording means for recording a plurality of images, a drawing input means for drawing and inputting a picture or a figure,
Image recognition means for obtaining a recorded image having a high degree of similarity by comparing the picture or figure drawn and inputted by the drawing input means with the images recorded in the image recording means;
An image search apparatus comprising: notification means for notifying a comparison result by the image recognition means.
この描画入力手段により描画入力された前記絵または図形と前記画像記録手段に記録されている前記各画像とを比較して類似画像を得る一次画像抽出手段と、
この一次画像抽出手段で得た前記類似画像と前記画像記録手段に記録されている前記各画像とを比較して類似度の高い記録画像を得る画像認識手段と、
この画像認識手段による比較結果を報知する報知手段と、を有することを特徴とする画像検索装置。 An image recording means for recording a plurality of images, a drawing input means for drawing and inputting a picture or a figure,
Primary image extraction means for comparing the picture or figure drawn and input by the drawing input means with each image recorded in the image recording means to obtain a similar image;
An image recognition means for comparing the similar image obtained by the primary image extraction means with the images recorded in the image recording means to obtain a recorded image having a high degree of similarity;
An image search apparatus comprising: notification means for notifying a comparison result by the image recognition means.
この画像選択手段により選択された前記検索用画像と前記画像記録手段に記録されている各画像とを比較して類似度の高い記録画像を得る画像認識手段と、
この画像認識手段による比較結果を報知する報知手段と、を有することを特徴とする画像検索装置。 Image recording means for recording a plurality of images, image selecting means for selecting one of the images recorded in the image recording means as a search image,
An image recognition means for comparing the search image selected by the image selection means with each image recorded in the image recording means to obtain a recorded image having a high degree of similarity;
An image search apparatus comprising: notification means for notifying a comparison result by the image recognition means.
この撮影手段から出力された前記撮影像と前記画像記録手段に記録された各画像とを比較して類似度の高い記録画像を得る画像認識手段と、
この画像認識手段による認識結果を報知する報知手段と、を有することを特徴とする電子スチルカメラ。 In an electronic still camera provided with an image recording means and a display means, a photographing means for photographing a subject and outputting a photographed image;
An image recognizing unit that compares the captured image output from the image capturing unit with each image recorded in the image recording unit to obtain a recorded image having a high degree of similarity;
An electronic still camera comprising: an informing means for informing a recognition result by the image recognition means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004332647A JP3674633B2 (en) | 2004-11-17 | 2004-11-17 | Image search device, electronic still camera, and image search method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004332647A JP3674633B2 (en) | 2004-11-17 | 2004-11-17 | Image search device, electronic still camera, and image search method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25607898A Division JP3660943B2 (en) | 1998-08-27 | 1998-08-27 | Image search apparatus and image search method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005063465A true JP2005063465A (en) | 2005-03-10 |
JP3674633B2 JP3674633B2 (en) | 2005-07-20 |
Family
ID=34373903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004332647A Expired - Fee Related JP3674633B2 (en) | 2004-11-17 | 2004-11-17 | Image search device, electronic still camera, and image search method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3674633B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006338313A (en) * | 2005-06-01 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium |
JP2007122694A (en) * | 2005-09-30 | 2007-05-17 | Fujifilm Corp | Apparatus, method and program for image search |
JP2007328406A (en) * | 2006-06-06 | 2007-12-20 | Nec Corp | Drawing retrieval system, drawing retrieval method, and drawing retrieval terminal |
JP2009020689A (en) * | 2007-07-11 | 2009-01-29 | Canon Inc | Data retrieval method and data retrieval device |
JP2010509668A (en) * | 2006-11-14 | 2010-03-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and apparatus for identifying an object acquired by a digital image |
US8718444B2 (en) | 2010-06-16 | 2014-05-06 | Panasonic Corporation | Video search device, video search method, recording medium, program, and integrated circuit |
CN104463092A (en) * | 2013-09-23 | 2015-03-25 | Lg电子株式会社 | Mobile terminal and method for controlling the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05274356A (en) * | 1991-03-07 | 1993-10-22 | Electron Maaketeingu:Kk | Object retrieving system |
JPH0721198A (en) * | 1993-06-17 | 1995-01-24 | Nippon Telegr & Teleph Corp <Ntt> | Image retrieving method |
JPH08194716A (en) * | 1995-01-17 | 1996-07-30 | Canon Inc | Picture processing method and its device |
-
2004
- 2004-11-17 JP JP2004332647A patent/JP3674633B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05274356A (en) * | 1991-03-07 | 1993-10-22 | Electron Maaketeingu:Kk | Object retrieving system |
JPH0721198A (en) * | 1993-06-17 | 1995-01-24 | Nippon Telegr & Teleph Corp <Ntt> | Image retrieving method |
JPH08194716A (en) * | 1995-01-17 | 1996-07-30 | Canon Inc | Picture processing method and its device |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006338313A (en) * | 2005-06-01 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium |
JP4545641B2 (en) * | 2005-06-01 | 2010-09-15 | 日本電信電話株式会社 | Similar image retrieval method, similar image retrieval system, similar image retrieval program, and recording medium |
US9245195B2 (en) | 2005-09-30 | 2016-01-26 | Facebook, Inc. | Apparatus, method and program for image search |
JP2007122694A (en) * | 2005-09-30 | 2007-05-17 | Fujifilm Corp | Apparatus, method and program for image search |
US10810454B2 (en) | 2005-09-30 | 2020-10-20 | Facebook, Inc. | Apparatus, method and program for image search |
US8358902B2 (en) | 2005-09-30 | 2013-01-22 | Fujifilm Corporation | Apparatus, method and program for image search |
US9881229B2 (en) | 2005-09-30 | 2018-01-30 | Facebook, Inc. | Apparatus, method and program for image search |
JP2007328406A (en) * | 2006-06-06 | 2007-12-20 | Nec Corp | Drawing retrieval system, drawing retrieval method, and drawing retrieval terminal |
JP2010509668A (en) * | 2006-11-14 | 2010-03-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and apparatus for identifying an object acquired by a digital image |
JP2009020689A (en) * | 2007-07-11 | 2009-01-29 | Canon Inc | Data retrieval method and data retrieval device |
US8718444B2 (en) | 2010-06-16 | 2014-05-06 | Panasonic Corporation | Video search device, video search method, recording medium, program, and integrated circuit |
EP2851778A1 (en) * | 2013-09-23 | 2015-03-25 | Lg Electronics Inc. | Image based search mobile terminal and method for searching |
KR20150033202A (en) * | 2013-09-23 | 2015-04-01 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
CN104463092A (en) * | 2013-09-23 | 2015-03-25 | Lg电子株式会社 | Mobile terminal and method for controlling the same |
CN104463092B (en) * | 2013-09-23 | 2019-07-16 | Lg电子株式会社 | Mobile terminal and its control method |
KR102065416B1 (en) | 2013-09-23 | 2020-01-13 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
JP3674633B2 (en) | 2005-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3660943B2 (en) | Image search apparatus and image search method | |
US8983229B2 (en) | Method, medium, and system with a combinational photograph thumbnail | |
JP3982605B2 (en) | Captured image management apparatus, captured image management method, and captured image management program | |
EP2219372B1 (en) | Image processing device, dynamic image reproduction device, and processing method and program used in the devices | |
US7643742B2 (en) | Electronic camera, image processing apparatus, image processing method and image processing computer program | |
EP1912432B1 (en) | Digital camera | |
US7098939B2 (en) | Image display device and method for displaying thumbnail based on three-dimensional image data | |
JP2006157878A (en) | Image search apparatus for images to be detected and method of controlling same | |
US20060227384A1 (en) | Image processing apparatus and image processing program | |
KR100862939B1 (en) | Image recording and playing system and image recording and playing method | |
JP6203188B2 (en) | Similar image search device | |
US8405754B2 (en) | Image processing apparatus and control method for image processing apparatus | |
JP3674633B2 (en) | Image search device, electronic still camera, and image search method | |
JP3332166B2 (en) | Video search device | |
JP2006303707A (en) | Image processing apparatus and image processing method | |
CN112822394B (en) | Display control method, display control device, electronic equipment and readable storage medium | |
CN113225451B (en) | Image processing method and device and electronic equipment | |
JP5181841B2 (en) | Imaging apparatus, imaging control program, image reproducing apparatus, and image reproducing program | |
JP4603569B2 (en) | Image processing apparatus and program | |
JPH104533A (en) | Information processor | |
JP4371219B2 (en) | Digital camera | |
JP2004272314A (en) | Image display device, image display method, computer program, and computer readable recording medium | |
JP2010097449A (en) | Image composition device, image composition method and image composition program | |
JP5181935B2 (en) | Image processing apparatus, program, and subject detection method | |
JP2007241370A (en) | Portable device and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050418 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080513 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090513 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090513 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100513 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110513 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110513 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120513 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120513 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130513 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130513 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |