JP5315935B2 - Image search apparatus, image search method, control program, and recording medium - Google Patents

Image search apparatus, image search method, control program, and recording medium Download PDF

Info

Publication number
JP5315935B2
JP5315935B2 JP2008283745A JP2008283745A JP5315935B2 JP 5315935 B2 JP5315935 B2 JP 5315935B2 JP 2008283745 A JP2008283745 A JP 2008283745A JP 2008283745 A JP2008283745 A JP 2008283745A JP 5315935 B2 JP5315935 B2 JP 5315935B2
Authority
JP
Japan
Prior art keywords
image
search
information
character string
string information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008283745A
Other languages
Japanese (ja)
Other versions
JP2010113428A (en
Inventor
盈輝 徐
秀夫 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008283745A priority Critical patent/JP5315935B2/en
Publication of JP2010113428A publication Critical patent/JP2010113428A/en
Application granted granted Critical
Publication of JP5315935B2 publication Critical patent/JP5315935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像検索装置、画像検索方法、制御プログラム及び記録媒体に関し、特に画像検索における検索の方法に関する。   The present invention relates to an image search device, an image search method, a control program, and a recording medium, and more particularly to a search method in image search.

電子データに対する検索技術、あるいは検索結果の表示技術は、検索対象の情報量の増大による検索結果数の増大のため、ますます重要な技術となっている。なぜなら、求める情報が大量の検索結果に埋もれてしまい、見つけることが困難になっているからである。このような検索技術として、画像を検索用画像として入力し、既に格納されている検索用画像から上記入力された画像に類似する画像を抽出する画像検索方法が提案されている(例えば、特許文献1参照)。   Search technology for electronic data or search result display technology has become an increasingly important technology because of the increase in the number of search results due to an increase in the amount of information to be searched. This is because the information that is sought is buried in a large amount of search results, making it difficult to find. As such a search technique, an image search method for inputting an image as a search image and extracting an image similar to the input image from an already stored search image has been proposed (for example, Patent Documents). 1).

特許文献1に示されるような画像検索技術は、例えば、公開特許公報の検索等に用いられる。例えば、公開特許公報等の文献に含まれる図面を検索する場合、図面を検索キーとして設定し、その図面に類似する図面を含む文献を抽出することが行なわれる。この他、商標検索等、複数の画像情報が格納されたデータベースにおいて、画像情報を検索キーとして画像情報を検索する場合であれば、同様に用いられ得る。
特開2002−245087号公報
An image search technique such as that disclosed in Patent Document 1 is used, for example, for searching published patent publications. For example, when searching for a drawing included in a document such as a published patent publication, the drawing is set as a search key, and a document including a drawing similar to the drawing is extracted. In addition, in the case of searching for image information using image information as a search key in a database storing a plurality of image information such as trademark search, it can be used in the same manner.
JP 2002-245087 A

特許文献1に示されるような従来の画像検索においては、検索キーとして設定された画像(以降、キー画像とする)全体と検索対象となる画像(以降、検索対象画像とする)全体との類似度の判定を前提としている。そのため、キー画像に類似する画像を含む検索対象画像であっても、全体との関係では類似度が高く算出されなかった。   In a conventional image search as disclosed in Patent Document 1, the entire image set as a search key (hereinafter referred to as a key image) and the entire image to be searched (hereinafter referred to as a search target image) are similar. It is assumed that the degree is judged. For this reason, even if the search target image includes an image similar to the key image, the degree of similarity is not calculated high in relation to the whole image.

これに対して、本願発明者は、画像から文書領域、写真領域、表領域等の複数の領域を抽出し、夫々の領域毎に画像のマッチングを行なう方法を発明し、出願を行なった(特願2007−022108)。上記の方法においては、抽出した夫々の領域毎にヒストグラム等の数値列データを生成し、その数値列データに基づいて画像のマッチングを行なう。これにより、キー画像及び検索対象画像の一部についての画像検索が可能となる。このような画像の一部によるマッチングは、商標検索等において特に有効である。   On the other hand, the inventor of the present application invented a method for extracting a plurality of regions such as a document region, a photographic region, a table region, and the like from an image and matching the images for each region, and filed an application (special feature). Application No. 2007-022108). In the above method, numerical sequence data such as a histogram is generated for each extracted region, and image matching is performed based on the numerical sequence data. Thereby, an image search can be performed for a part of the key image and the search target image. Such matching by a part of an image is particularly effective in trademark search or the like.

しかしながら、画像検索においては、形状が類似する画像であっても、回転している場合は類似する画像として抽出されない可能性がある。このような課題を解決するために、検索対象及び抽出対象の画像の向きを判断した上で類似度を算出することが行われているが、画像の形状によっては向きの判断が困難であり、類似画像の抽出を正確に実行できない場合がある。   However, in the image search, even images having similar shapes may not be extracted as similar images if they are rotated. In order to solve such a problem, it is performed to calculate the similarity after determining the orientation of the image to be searched and extracted, but depending on the shape of the image, it is difficult to determine the orientation, There are cases where extraction of similar images cannot be performed accurately.

本発明は、上記実情を考慮してなされたものであり、回転した画像であっても正確に類似画像として抽出可能な画像検索システムを提供することを目的とする。   The present invention has been made in consideration of the above circumstances, and an object thereof is to provide an image search system that can accurately extract a rotated image as a similar image.

上記課題を解決するため、請求項1に記載の発明は、検索対象の画像と検索条件の画像との類似度を算出して画像検索を実行する画像検索装置であって、前記検索条件の画像である条件画像を取得する画像取得部と、前記取得された条件画像の輪郭を抽出する輪郭抽出部と、前記抽出された輪郭の中心を計算する中心計算部と、前記計算された中心から前記輪郭までの距離を、前記中心の周囲一周に渡って0°から359°の一度毎に算出して前記距離の数値列情報を生成する距離算出部と、前記生成された数値列情報に基づいて文字列情報を生成する文字列情報生成部と、前記生成された文字列情報と検索対象の画像について生成された検索対象文字列情報とに基づいて文字列検索を実行することにより前記類似度を算出する類似度算出部とを有し、前記類似度算出部は、前記中心の周囲を反時計回りに359°から0°の一度毎に算出された数値列情報に相当する逆文字列情報と、時計回りに算出された数値列情報に相当する文字列情報と、に基づいて前記文字列検索を実行することを特徴とする、 In order to solve the above-described problem, the invention according to claim 1 is an image search device that performs an image search by calculating a similarity between an image to be searched and an image of the search condition. an image acquisition unit for acquiring condition image is, the a contour extraction unit for extracting a contour of the obtained condition image, and the central calculation unit for calculating a center of the extracted contour, from the calculated center Based on the distance calculation unit that calculates the distance to the contour every time from 0 ° to 359 ° over the entire circumference of the center and generates the numerical value string information of the distance, and the generated numerical value string information The similarity is obtained by performing a character string search based on the character string information generating unit that generates character string information, and the generated character string information and the search target character string information generated for the search target image. Similarity calculation unit to calculate and Have a, the similarity calculation unit, the reverse character string information corresponding to the periphery of the center numerical sequence information calculated for each one time of 0 ° from 359 ° counterclockwise, is calculated clockwise Character string information corresponding to numerical string information, and performing the character string search based on,

また、請求項2に記載の発明は、請求項1に記載の画像検索装置において、前記文字情報生成部は、前記数値列情報に対応する数値と前記文字列情報を構成する文字とが関連付けられた変換対応情報を参照して前記数値列情報を文字列情報に変換することにより前記文字列情報を生成することを特徴とする。 In the image search device according to claim 1, the character string information generation unit associates a numerical value corresponding to the numerical value string information with a character constituting the character string information. The character string information is generated by converting the numerical string information into character string information with reference to the converted correspondence information.

また、請求項3に記載の発明は、請求項1または2に記載の画像検索装置において、前記取得された条件画像の輪郭を強調する輪郭強調部を更に有し、前記輪郭抽出部は、前記輪郭強調部によって強調された輪郭を抽出することを特徴とする。   The invention described in claim 3 is the image search device according to claim 1 or 2, further comprising a contour emphasizing unit that emphasizes the contour of the acquired condition image, wherein the contour extracting unit includes the contour extracting unit, The contour emphasized by the contour emphasizing unit is extracted.

また、請求項4に記載の発明は、請求項1乃至3いずれかに記載の画像検索装置において、前記輪郭抽出部は、前記条件画像の輪郭のうち最外部の輪郭を抽出することを特徴とする。   According to a fourth aspect of the present invention, in the image search device according to any one of the first to third aspects, the contour extracting unit extracts an outermost contour from the contours of the condition image. To do.

また、請求項に記載の発明は、請求項1乃至いずれかに記載の画像検索装置において、前記文字列情報生成部は、前記生成された数値列情報を元として平滑化された平滑化数値列情報に基づいて前記文字列情報を生成することを特徴とする。 The invention according to claim 5 is the image search device according to any one of claims 1 to 4 , wherein the character string information generation unit is smoothed based on the generated numerical string information. The character string information is generated based on numeric string information.

また、請求項に記載の発明は、請求項1乃至いずれかに記載の画像検索装置において、前記文字列情報生成部は、前記生成された数値列情報を元として正規化された正規化数値列情報に基づいて前記文字列情報を生成することを特徴とする。 According to a sixth aspect of the present invention, in the image search device according to any one of the first to fifth aspects, the character string information generation unit is normalized based on the generated numerical string information The character string information is generated based on numeric string information.

また、請求項に記載の発明は、請求項1乃至いずれかに記載の画像検索装置において、前記類似度算出部は、N−gramにより前記文字列検索を実行することを特徴とする。 The invention described in claim 7 is the image search device according to any one of claims 1 to 6 , wherein the similarity calculation unit executes the character string search by N-gram.

また、請求項に記載の発明は、請求項1乃至いずれかに記載の画像検索装置において、前記類似度算出部は、接尾辞配列により前記文字列検索を実行することを特徴とする。 According to an eighth aspect of the present invention, in the image search device according to any one of the first to sixth aspects, the similarity calculation unit executes the character string search using a suffix array.

また、請求項に記載の発明は、請求項1乃至いずれかに記載の画像検索装置において、前記検索対象の画像を記憶している検索対象画像記憶部を更に有し、前記検索対象画像記憶部は、前記検索対象の画像について生成された検索対象文字列情報を記憶していることを特徴とする。 The invention according to claim 9 is the image search device according to any one of claims 1 to 8 , further comprising a search target image storage unit storing the search target image, and the search target image. The storage unit stores search target character string information generated for the search target image.

また、請求項10に記載の発明は、検索対象の画像と検索条件の画像との類似度を算出して画像検索を実行する画像検索方法であって、画像取得部が、前記検索条件の画像である条件画像を取得し、輪郭抽出部が、前記取得された条件画像の輪郭を抽出し、中心計算部が、前記抽出された輪郭の中心を計算し、距離算出部が、前記計算された中心から前記輪郭までの距離を、前記中心の周囲一周に渡って0°から359°の一度毎に算出して前記距離の数値列情報を生成し、文字列情報生成部が、前記生成された数値列情報に基づいて文字列情報を生成し、類似度算出部が、前記生成された文字列情報と検索対象の画像について生成された検索対象文字列情報とに基づいて文字列検索を実行することにより前記類似度を算出し、前記類似度算出部が、前記中心の周囲を反時計回りに359°から0°の一度毎に算出された数値列情報に相当する逆文字列情報と、時計回りに算出された数値列情報に相当する文字列情報と、に基づいて前記文字列検索を実行するThe invention according to claim 10 is an image search method for executing an image search by calculating a similarity between an image to be searched and an image of the search condition, wherein the image acquisition unit includes an image of the search condition. get the condition image is, the contour extraction unit extracts the outline of the obtained condition image, the center calculation unit, a center of the extracted contour is calculated, the distance calculation unit were the calculated The distance from the center to the contour is calculated every time from 0 ° to 359 ° around the circumference of the center to generate the numerical value string information of the distance, and the character string information generation unit Character string information is generated based on the numerical string information, and the similarity calculation unit performs a character string search based on the generated character string information and the search target character string information generated for the search target image. To calculate the similarity and calculate the similarity Is a reverse character string information corresponding to numerical value string information calculated every time from 359 ° to 0 ° counterclockwise around the center, and a character string corresponding to the numerical value string information calculated clockwise. The character string search is executed based on the information .

また、請求項11に記載の発明は、情報処理装置を、検索対象の画像と検索条件の画像との類似度を算出して画像検索を実行する画像装置として動作させるための制御プログラムであって、前記検索条件の画像である条件画像を取得するステップと、前記取得された条件画像の輪郭を抽出するステップと、前記抽出された輪郭の中心を計算するステップと、前記計算された中心から前記輪郭までの距離を、前記中心の周囲一周に渡って0°から359°の一度毎に算出して前記距離の数値列情報を生成するステップと、前記生成された数値列情報に基づいて文字列情報を生成するステップと、前記生成された文字列情報と検索対象の画像について生成された検索対象文字列情報とに基づいて文字列検索を実行することにより前記類似度を算出するとともに、前記中心の周囲を反時計回りに359°から0°の一度毎に算出された数値列情報に相当する逆文字列情報と、時計回りに算出された数値列情報に相当する文字列情報と、に基づいて前記文字列検索を実行するステップとを前記情報処理装置に実行させることを特徴とする。 The invention according to claim 11 is a control program for causing an information processing apparatus to operate as an image apparatus that calculates a similarity between an image to be searched and an image of a search condition and executes an image search. , acquiring a condition image is an image of the search condition, extracting the contour of the obtained condition image, calculating a center of the extracted contour, said from the calculated center A step of calculating a distance to the contour every time from 0 ° to 359 ° around the circumference of the center to generate numerical sequence information of the distance; and a character string based on the generated numerical sequence information The similarity is calculated by performing a character string search based on the step of generating information and the generated character string information and the search target character string information generated for the search target image. With that, the opposite character string information corresponding to the periphery of the center numerical sequence information calculated for each one time of 0 ° from 359 ° counterclockwise, the string corresponding to the numeric string information calculated clockwise And causing the information processing apparatus to execute the step of executing the character string search based on the information.

また、請求項12に記載の発明は、記録媒体であって、請求項11に記載の制御プログラムを情報処理装置が読取可能な形式で記録したことを特徴とする。 The invention according to claim 12 is a recording medium, wherein the control program according to claim 11 is recorded in a format readable by the information processing apparatus.

本発明の一態様によれば、回転した画像であっても正確に類似画像として抽出可能な画像検索システムを提供することができる。   According to one embodiment of the present invention, it is possible to provide an image search system that can accurately extract even a rotated image as a similar image.

以下、図面を参照して、本発明の実施形態を詳細に説明する。本実施形態においては、画像検索装置の例として、入力された画像に基づいて予め格納されている検索対象画像情報を検索し、入力された画像に類似する画像を抽出する装置を例として説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, as an example of an image search apparatus, an apparatus that searches search target image information stored in advance based on an input image and extracts an image similar to the input image will be described as an example. .

図1は、本実施の形態に係る画像検索システムの運用形態の例を示す図である。図1に示すように、本実施形態に係る画像検索システムは、画像検索装置1、クライアント装置2及び画像情報DB200を含む。画像検索装置1、クライアント装置2及び画像情報DB200は、ネットワーク3を介して接続されている。   FIG. 1 is a diagram illustrating an example of an operation mode of an image search system according to the present embodiment. As shown in FIG. 1, the image search system according to the present embodiment includes an image search device 1, a client device 2, and an image information DB 200. The image search device 1, the client device 2, and the image information DB 200 are connected via the network 3.

クライアント装置2は、PC(Personal Computer)等の一般的な情報処理装置によって構成される。また、クライアント装置2は、携帯電話等の移動通信端末や、MFP(MultiFunction Peripheral)等によって構成することができる。画像検索装置1は、ネットワークを介してクライアント装置2と接続されており、クライアント装置2からの検索要求を受けて画像情報DB200に格納されている画像情報を検索する。画像情報DB200は、検索対象の情報として複数の画像情報を記憶している。即ち、画像情報DB200は、検索対象画像記憶部である。画像情報DB200は、HDD(Hard Disk Drive)等の不揮発性記憶媒体によって構成される。   The client device 2 is configured by a general information processing device such as a PC (Personal Computer). The client device 2 can be configured by a mobile communication terminal such as a mobile phone, an MFP (Multi Function Peripheral), or the like. The image search device 1 is connected to the client device 2 via a network, and searches for image information stored in the image information DB 200 in response to a search request from the client device 2. The image information DB 200 stores a plurality of pieces of image information as search target information. That is, the image information DB 200 is a search target image storage unit. The image information DB 200 is configured by a nonvolatile storage medium such as an HDD (Hard Disk Drive).

尚、図1に示すように、本実施形態においては、画像情報DB200が画像検索装置1とは別に設けられている例を説明するが、画像情報DB200を画像検索装置1内部に構成することも可能である。更に、画像情報DB200、画像検索装置1及びクライアント装置2が1体の装置として構成されても良い。   As shown in FIG. 1, in this embodiment, an example in which the image information DB 200 is provided separately from the image search device 1 will be described. However, the image information DB 200 may be configured inside the image search device 1. Is possible. Furthermore, the image information DB 200, the image search device 1, and the client device 2 may be configured as a single device.

次に、本実施形態に係る画像検索装置1、クライアント装置2等の情報処理端末のハードウェア構成について説明する。図2は、本実施形態に係情報処理端末のハードウェア構成を示すブロック図である。以下の説明においては、画像検索装置1のハードウェア構成として説明する。図2に示すように、本実施形態に係る画像検索装置1は、一般的なサーバやPC(Personal Computer)等の情報処理端末と同様の構成を有する。   Next, a hardware configuration of an information processing terminal such as the image search device 1 or the client device 2 according to the present embodiment will be described. FIG. 2 is a block diagram illustrating a hardware configuration of the information processing terminal according to the present embodiment. In the following description, the hardware configuration of the image search apparatus 1 will be described. As shown in FIG. 2, the image search apparatus 1 according to the present embodiment has the same configuration as an information processing terminal such as a general server or a PC (Personal Computer).

即ち、本実施形態に係る画像検索装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)20、ROM(Read Only Memory)30、HDD40及びI/F50がバス80を介して接続されている。また、I/F50にはLCD(Liquid Crystal Display)60及び操作部70が接続されている。   That is, in the image search apparatus 1 according to the present embodiment, a CPU (Central Processing Unit) 10, a RAM (Random Access Memory) 20, a ROM (Read Only Memory) 30, an HDD 40, and an I / F 50 are connected via a bus 80. ing. Further, an LCD (Liquid Crystal Display) 60 and an operation unit 70 are connected to the I / F 50.

CPU10は演算手段であり、画像検索装置1全体の動作を制御する。RAM20は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU10が情報を処理する際の作業領域として用いられる。ROM30は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。HDD40は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム等が格納される。   The CPU 10 is a calculation means and controls the operation of the entire image search apparatus 1. The RAM 20 is a volatile storage medium capable of reading and writing information at high speed, and is used as a work area when the CPU 10 processes information. The ROM 30 is a read-only nonvolatile storage medium and stores a program such as firmware. The HDD 40 is a non-volatile storage medium that can read and write information, and stores an OS (Operating System), various control programs, application programs, and the like.

I/F50は、バス80と各種のハードウェアやネットワーク等を接続し制御する。LCD60は、ユーザが画像検索装置1の状態を確認するための視覚的ユーザインタフェースである。操作部70は、キーボードやマウス等、ユーザが画像検索装置1に情報を入力するためのユーザインタフェースである。   The I / F 50 connects and controls the bus 80 and various hardware and networks. The LCD 60 is a visual user interface for the user to check the state of the image search device 1. The operation unit 70 is a user interface for the user to input information to the image search apparatus 1 such as a keyboard and a mouse.

尚、図1において説明したように、本実施形態に係る画像検索装置1は、サーバとして運用される。従って、LCD60及び操作部70等のユーザインタフェースは省略可能である。この他、画像検索装置1は、情報処理機能を有する端末であれば、どのような実現態様であっても良い。例えば、一般的なPC、MFP等が考えられる。   As described with reference to FIG. 1, the image search apparatus 1 according to the present embodiment is operated as a server. Therefore, user interfaces such as the LCD 60 and the operation unit 70 can be omitted. In addition, as long as the image search device 1 is a terminal having an information processing function, any realization mode may be used. For example, a general PC, MFP, etc. can be considered.

このようなハードウェア構成において、ROM30やHDD40若しくは図示しない光学ディスク等の記憶媒体に格納されたプログラムがRAM20に読み出され、CPU10の制御に従って動作することにより、ソフトウェア制御部が構成される。このようにして構成されたソフトウェア制御部と、ハードウェアとの組み合わせによって、本実施形態に係る画像検索装置1の機能を実現する機能ブロックが構成される。   In such a hardware configuration, a program stored in a storage medium such as the ROM 30, the HDD 40, or an optical disk (not shown) is read into the RAM 20, and operates according to the control of the CPU 10, thereby configuring a software control unit. A functional block for realizing the functions of the image search apparatus 1 according to the present embodiment is configured by a combination of the software control unit configured in this way and hardware.

次に、本実施形態に係る画像検索装置1の機能ブロックについて、図3を参照して説明する。図3は、本実施形態に係る画像検索装置1の機能ブロックを示すブロック図である。図3に示すように、本実施形態に係る画像検索装置1は、検索制御部100、情報入力部110、ネットワークI/F120及び表示部130を有する。   Next, functional blocks of the image search device 1 according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing functional blocks of the image search apparatus 1 according to the present embodiment. As illustrated in FIG. 3, the image search apparatus 1 according to the present embodiment includes a search control unit 100, an information input unit 110, a network I / F 120, and a display unit 130.

情報入力部110は、ユーザが画像検索装置1を操作して検索制御部100に情報を入力するための構成であり、図2に示すI/F50及び操作部70によって実現される。ネットワークI/F120は、画像検索装置1がネットワークを介して情報を取得し、若しくはネットワークを介して情報を送信するためのインタフェースであり、図2に示すI/F50によって実現される。具体的な例としては、ネットワークI/F120は、Ethernet(登録商標)接続のインタフェースや、USB(Universal Serial Bus)接続のインタフェースによって実現される。   The information input unit 110 is configured to allow a user to operate the image search apparatus 1 and input information to the search control unit 100, and is realized by the I / F 50 and the operation unit 70 illustrated in FIG. The network I / F 120 is an interface for the image search apparatus 1 to acquire information via the network or transmit information via the network, and is realized by the I / F 50 illustrated in FIG. As a specific example, the network I / F 120 is realized by an Ethernet (registered trademark) connection interface or a USB (Universal Serial Bus) connection interface.

表示部130は、画像検索装置1の動作状態や、検索結果等が表示される構成であり、図2に示すI/F50及びLCD60によって実現される。検索制御部100は、本実施形態に係る画像検索装置1の検索機能を担う画像検索実行部であり、入力画像情報取得部101、画像処理部102、文字情報変換部103、類似度算出部104及び抽出結果処理部105を有する。   The display unit 130 is configured to display the operation state of the image search apparatus 1, search results, and the like, and is realized by the I / F 50 and the LCD 60 shown in FIG. The search control unit 100 is an image search execution unit that performs a search function of the image search apparatus 1 according to the present embodiment, and includes an input image information acquisition unit 101, an image processing unit 102, a character information conversion unit 103, and a similarity calculation unit 104. And an extraction result processing unit 105.

入力画像情報取得部101は、ユーザによって情報入力部110を介して入力された画像情報若しくはネットワークI/F120を介してネットワーク経由で入力された画像情報を入力画像情報、即ち検索条件となる条件画像として取得する画像取得部として機能する。画像取得部は、図2に示すRAM20にロードされたプログラムがCPU10の制御に従って動作することにより構成される。   The input image information acquisition unit 101 uses the image information input by the user via the information input unit 110 or the image information input via the network via the network I / F 120 as input image information, that is, a condition image that serves as a search condition. Functions as an image acquisition unit. The image acquisition unit is configured by a program loaded in the RAM 20 shown in FIG.

画像処理部102は、入力画像情報取得部101が取得した条件画像に対して所定の処理を実行し、数値列情報を生成する。画像処理部102が実行する処理については、後に詳述する。文字情報変換部103は、画像処理部102が生成した数値列情報を文字列情報に変換して文字列情報を生成する。   The image processing unit 102 performs predetermined processing on the condition image acquired by the input image information acquisition unit 101, and generates numerical string information. The processing executed by the image processing unit 102 will be described in detail later. The character information conversion unit 103 converts the numerical string information generated by the image processing unit 102 into character string information and generates character string information.

類似度算出部104は、文字情報変換部103によって生成された文字情報に基づき、条件画像と検索対象画像との類似度を算出する。そして、類似度算出部104は、検索対象画像とその画像の条件画像に対する類似度とが関連付けられた情報(以降、類似度一覧情報とする)を生成する。類似度算出部104は、図2に示すRAM20にロードされたプログラムがCPU10の制御に従って動作することにより構成される。類似度算出部104による類似度の算出方法としては既存の画像検索技術を用いることができる。   The similarity calculation unit 104 calculates the similarity between the condition image and the search target image based on the character information generated by the character information conversion unit 103. Then, the similarity calculation unit 104 generates information (hereinafter referred to as similarity list information) in which the search target image and the similarity of the image to the condition image are associated with each other. The similarity calculation unit 104 is configured by a program loaded in the RAM 20 illustrated in FIG. 2 operating according to the control of the CPU 10. An existing image search technique can be used as the similarity calculation method by the similarity calculation unit 104.

抽出結果処理部105は、類似度算出部104によって生成された類似度一覧情報を表示部130に表示し、若しくはクライアント装置2の表示部に表示させるための表示情報を生成して出力する。即ち、抽出結果処理部105は、類似度の算出結果を表示させるための表示情報を生成する表示情報生成部として機能する。表示情報生成部は、図2に示すRAM20にロードされたプログラムがCPU10の制御に従って動作することにより構成される。   The extraction result processing unit 105 displays the similarity list information generated by the similarity calculation unit 104 on the display unit 130 or generates and outputs display information for display on the display unit of the client device 2. That is, the extraction result processing unit 105 functions as a display information generation unit that generates display information for displaying the calculation result of the similarity. The display information generation unit is configured by a program loaded in the RAM 20 shown in FIG.

次に、画像情報DB200に格納されている情報について説明する。図4に、画像情報DB200が記憶している情報の例を示す。上述したように、画像情報DB200は、検索対象の画像情報を記憶している。そして、図4に示すように、画像情報DB200は、検索対象の画像のID、画像タイトル及び文字列情報を記憶している。画像のIDとは、検索対象の画像を一意に識別する情報である。また、画像タイトルは、検索対象の画像の名称である。そして、文字列情報とは、夫々の画像情報について、上述した画像処理部102及び文字情報変換部103による処理と同様の処理により生成された文字列情報である。この文字列情報が、画像検索において用いられる検索対象文字列情報である。   Next, information stored in the image information DB 200 will be described. FIG. 4 shows an example of information stored in the image information DB 200. As described above, the image information DB 200 stores image information to be searched. As shown in FIG. 4, the image information DB 200 stores the ID, image title, and character string information of the search target image. The image ID is information for uniquely identifying an image to be searched. The image title is the name of the image to be searched. The character string information is character string information generated by processing similar to the processing by the image processing unit 102 and the character information conversion unit 103 described above for each image information. This character string information is search target character string information used in image search.

このような画像検索装置1において、本実施形態は、画像処理部102及び文字情報変換部103による処理が要旨となる。以下、本実施形態に係る画像検索装置1の動作について図を参照して説明する。図5は、本実施形態に係る画像検索システムにおける検索動作を示すシーケンス図である。   In such an image search apparatus 1, the main point of the present embodiment is processing by the image processing unit 102 and the character information conversion unit 103. Hereinafter, the operation of the image search apparatus 1 according to the present embodiment will be described with reference to the drawings. FIG. 5 is a sequence diagram showing a search operation in the image search system according to the present embodiment.

図5に示すように、画像情報DB200に登録されている画像情報を検索する際、先ず、ユーザはクライアント装置2を操作して検索用画像入力画面を表示するための情報を画像検索装置1に要求する(S501)。画像検索装置1は、クライアント装置2からの要求に応じて、検索用画像入力画面を表示するための情報を送信する(S502)。   As shown in FIG. 5, when searching for image information registered in the image information DB 200, first, the user operates the client device 2 to display information for displaying a search image input screen in the image search device 1. A request is made (S501). In response to a request from the client device 2, the image search device 1 transmits information for displaying a search image input screen (S502).

クライアント装置2は、画像検索装置1から検索用画像入力画面を取得すると、検索用画像入力画面を表示する(S503)。ここで、検索用画像入力画面とは、検索用画像情報を入力するための画面である。以下、本実施形態の説明においては、ユーザがクライアント装置2を操作して画像検索装置1の機能を利用する場合を例として説明する。   Upon acquiring the search image input screen from the image search device 1, the client device 2 displays the search image input screen (S503). Here, the search image input screen is a screen for inputting search image information. Hereinafter, in the description of the present embodiment, a case where the user operates the client device 2 and uses the function of the image search device 1 will be described as an example.

クライアント装置2は、ユーザによる操作に従い、検索用画像入力画面を介して入力された入力画像の情報(以降、入力画像情報とする)を画像検索装置1に送信する(S504)。本実施形態において入力される入力画像情報の例を図6に示す。画像検索装置1に送信された入力画像情報は、ネットワークI/F120から画像検索装置1に入力され、検索制御部100の入力画像情報取得部101が取得する(S505)。S505において画像検索装置1が取得した入力画像情報が、条件画像として用いられる。即ち、入力画像情報取得部101が、条件画像を取得する画像取得部として機能する。入力画像情報取得部101は、取得した入力画像情報を画像処理部102に入力する。   The client device 2 transmits information on the input image (hereinafter referred to as input image information) input via the search image input screen to the image search device 1 according to the operation by the user (S504). An example of input image information input in the present embodiment is shown in FIG. The input image information transmitted to the image search device 1 is input from the network I / F 120 to the image search device 1 and acquired by the input image information acquisition unit 101 of the search control unit 100 (S505). The input image information acquired by the image search device 1 in S505 is used as a condition image. That is, the input image information acquisition unit 101 functions as an image acquisition unit that acquires a condition image. The input image information acquisition unit 101 inputs the acquired input image information to the image processing unit 102.

画像処理部102は、条件画像としての入力画像情報を取得すると、取得した画像情報に対して所定の画像処理を実行する(S506)。S506における画像処理部102による処理について、図7を参照して詳細に説明する。図7は、S506における画像処理部102の処理を示すフローチャートである。   When acquiring the input image information as the condition image, the image processing unit 102 executes predetermined image processing on the acquired image information (S506). The processing by the image processing unit 102 in S506 will be described in detail with reference to FIG. FIG. 7 is a flowchart showing the processing of the image processing unit 102 in S506.

図7に示すように、画像処理部102、は条件画像を取得すると(S701)、条件画像の輪郭を強調する処理を実行する(S702)。即ち、画像処理部102が輪郭強調部として機能する。S702の輪郭強調処理については、既存の方法を用いることが可能であり、詳細な説明を省略する。S702の輪郭強調処理の結果生成される画像の例を図8(a)に示す。図8(a)に示すように、S702の輪郭強調処理の結果、図6の画像の輪郭が強調された画像が生成される。   As shown in FIG. 7, when the image processing unit 102 acquires the condition image (S701), the image processing unit 102 executes a process of enhancing the contour of the condition image (S702). That is, the image processing unit 102 functions as an outline emphasizing unit. For the contour enhancement processing in S702, an existing method can be used, and detailed description thereof is omitted. An example of an image generated as a result of the contour enhancement processing in S702 is shown in FIG. As shown in FIG. 8A, as a result of the contour enhancement processing in S702, an image in which the contour of the image in FIG. 6 is enhanced is generated.

そして、画像処理部102は、輪郭が強調された画像の最も外側の輪郭(以降、最外輪郭とする)を抽出する(S703)。即ち、画像処理部102が、輪郭抽出部として機能する。S703の最外輪郭抽出処理については、既存の方法を用いることが可能であり、詳細な説明を省略する。S703の最外輪郭抽出処理の結果生成される画像の例を図8(b)に示す。   Then, the image processing unit 102 extracts the outermost contour (hereinafter referred to as the outermost contour) of the image whose contour is emphasized (S703). That is, the image processing unit 102 functions as a contour extraction unit. For the outermost contour extraction process of S703, an existing method can be used, and detailed description thereof is omitted. FIG. 8B shows an example of an image generated as a result of the outermost contour extraction process in S703.

図8(b)に示すように、S703の処理の結果、図8(a)の画像における最も外側の輪郭が抽出される。S703の最外輪郭抽出処理においては、元の画像の輪郭がかすれている場合等、輪郭が正確に抽出できない場合がある。これに対して、S702の輪郭強調処理を実行することにより、輪郭がかすれた図面であっても最外輪郭抽出処理を正確に実行することが可能となる。   As shown in FIG. 8B, the outermost contour in the image of FIG. 8A is extracted as a result of the processing of S703. In the outermost contour extraction process of S703, there are cases where the contour cannot be accurately extracted, for example, when the contour of the original image is faint. On the other hand, by executing the contour emphasis process of S702, the outermost contour extraction process can be accurately executed even for a drawing with a faint outline.

そして、画像処理部102は、図8(b)に示すように最外輪郭として生成された画像の中心点及び画像の方向(以降、画像方向とする)を計算により抽出する(S704)。即ち、画像処理部102が、中心計算部として機能する。本実施形態に係るS704の処理において、画像処理部102は、図8(b)に示す画像の重心を計算することにより、中心点を抽出する。重心の計算方法については、公知の方法を用いることが可能であるため、詳細な説明を省略する。   Then, the image processing unit 102 extracts the center point of the image generated as the outermost contour and the image direction (hereinafter referred to as image direction) by calculation as shown in FIG. 8B (S704). That is, the image processing unit 102 functions as a center calculation unit. In the processing of S704 according to the present embodiment, the image processing unit 102 extracts the center point by calculating the center of gravity of the image shown in FIG. Since a known method can be used for the calculation method of the center of gravity, detailed description is omitted.

また、画像処理部102は、図8(b)に示す画像の幅が最も広い方向を縦方向とし、縦方向に直行する方向を横方向として画像の方向を抽出する(S704)。S704の処理の結果、図8(c)に示すように中心点及び画像の方向が抽出される。   Further, the image processing unit 102 extracts the direction of the image with the widest image direction shown in FIG. 8B as the vertical direction and the direction orthogonal to the vertical direction as the horizontal direction (S704). As a result of the processing of S704, the center point and the image direction are extracted as shown in FIG.

中心点及び画像方向を抽出すると、画像処理部102は、抽出した中心点から最外輪郭までの距離(以降、輪郭距離とする)を、中心点の周囲一周に渡って、即ち360度に亘って算出する(S705)。即ち、画像処理部102が、距離算出部として機能する。S705における輪郭距離の算出態様を図8(d)に示す。図8(d)に破線で示すように、S705においては、中心点からの任意の方向において、中心点と最外輪郭との距離を算出する。輪郭距離の算出に際しては、中心点から任意の方向に引いた直線と最外輪郭とが交差する点の座標と、中心点の座標との距離を計算する。   When the center point and the image direction are extracted, the image processing unit 102 sets the distance from the extracted center point to the outermost contour (hereinafter referred to as the contour distance) over the entire circumference of the center point, that is, 360 degrees. (S705). That is, the image processing unit 102 functions as a distance calculation unit. FIG. 8D shows how the contour distance is calculated in S705. As indicated by a broken line in FIG. 8D, in S705, the distance between the center point and the outermost contour is calculated in an arbitrary direction from the center point. When calculating the contour distance, the distance between the coordinates of the point where the straight line drawn in an arbitrary direction from the center point and the outermost contour intersect with the coordinates of the center point is calculated.

本実施形態に係るS705において、画像処理部102は、図8(d)に示すように、画像の縦方向を0°及び180°の方向とし、0°から359°まで、1°毎に輪郭距離を算出する。全角度について輪郭距離の算出が完了すると、画像処理部102は、図9に示すように、角度と輪郭距離とが関連付けられた数値列情報を生成する(S706)。   In S705 according to the present embodiment, as illustrated in FIG. 8D, the image processing unit 102 sets the vertical direction of the image to 0 ° and 180 °, and contours every 0 ° from 0 ° to 359 °. Calculate the distance. When the calculation of the contour distance is completed for all angles, the image processing unit 102 generates numerical value string information in which the angle and the contour distance are associated as shown in FIG. 9 (S706).

尚、図9の例においては、角度と輪郭距離とが関連付けられた情報を数値列情報としているが、“○○”、“▽▽”、“◇◇”・・・、“××”のように、輪郭距離のみが角度順に並べられた情報を数値列情報としても良い。この数値列情報は、図6に示す画像、即ち条件画像の形状を数値化した情報と言うことができる。   In the example of FIG. 9, the information in which the angle and the contour distance are associated is the numerical string information. However, “XX”, “▽▽”, “◇◇”... In this way, information in which only the contour distances are arranged in the order of angles may be used as the numerical string information. This numeric string information can be said to be information obtained by digitizing the shape of the image shown in FIG. 6, that is, the condition image.

S706の処理により数値列情報が生成されると、画像処理部102は、数値列情報の高周波成分を除去、即ち、ダウン・サンプリングする(S707)。換言すると、画像処理部102は、数値列情報を平滑化する。本実施形態においては、上述したように、S706の結果生成された数値列情報は、0°から359°までの360個の数値を含むため、1°につき1個の値を有する。本実施形態においては、S707の処理により、数値列情報を、4°につき1個の値を有し、合計で90個の値によって構成されるようにダウン・サンプリングする。   When the numerical sequence information is generated by the processing of S706, the image processing unit 102 removes, that is, down-samples, high-frequency components of the numerical sequence information (S707). In other words, the image processing unit 102 smoothes the numerical value string information. In the present embodiment, as described above, the numerical value string information generated as a result of S706 includes 360 numerical values from 0 ° to 359 °, and thus has one value per 1 °. In the present embodiment, the numerical value string information is down-sampled so as to have one value per 4 ° and to be composed of a total of 90 values by the processing of S707.

図10に、S707における画像処理部102による処理の態様を示す。図10に示すように、S707の処理において、画像処理部102は、数値列情報に含まれる夫々の数値を4つ毎にグループ化し、その数値の平均値を算出して新たな数値列情報とする。尚、ダウン・サンプリングに際しては、図10に示す態様の他、公知の様々な方法を用いることが可能である。このような処理により高周波成分の除去が完了し、ダウン・サンプリングされた数値列情報(以降、ダウン・サンプリング情報とする)が生成される。尚、上記ダウン・サンプリング情報は、平滑化数値列情報と言うこともできる。   FIG. 10 shows a mode of processing by the image processing unit 102 in S707. As shown in FIG. 10, in the processing of S707, the image processing unit 102 groups each numerical value included in the numerical value string information every four, calculates an average value of the numerical values, and sets new numerical value string information and To do. In downsampling, various known methods can be used in addition to the embodiment shown in FIG. By such processing, the removal of the high-frequency component is completed, and down-sampled numerical sequence information (hereinafter referred to as down-sampling information) is generated. The down-sampling information can also be referred to as smoothed numerical value string information.

高周波成分の除去が完了すると、画像処理部102は、生成されたダウン・サンプリング情報の数値を正規化する(S708)。本実施形態に係るS708の処理において、画像処理部102は、図10に示すように生成されたダウン・サンプリング情報に含まれる夫々の数値を、含まれる数値のうち最も大きい数値で割り、その結果算出された数値を量子化することにより正規化を行う。この他、S708の正規化処理においては、公知の様々な方法を用いることが可能である。本実施形態においては、上記量子化により、ダウン・サンプリング情報に含まれる各数値を8段階の数値に変換する。正規化による効果については後述する。   When the removal of the high frequency component is completed, the image processing unit 102 normalizes the numerical value of the generated down-sampling information (S708). In the processing of S708 according to the present embodiment, the image processing unit 102 divides each numerical value included in the down-sampling information generated as shown in FIG. 10 by the largest numerical value among the included numerical values, and the result Normalization is performed by quantizing the calculated numerical value. In addition, various known methods can be used in the normalization process of S708. In the present embodiment, the numerical values included in the down-sampling information are converted into 8-level numerical values by the quantization. The effect of normalization will be described later.

S708の処理により、ダウン・サンプリング情報に含まれる各数値は正規化された正規化数値となる。このように生成された情報(以降、正規化数値列情報とする)は、ヒストグラムとして視覚的に表示することが可能である。図11は、図7の処理の結果生成された正規化数値列情報のヒストグラムを示す図である。図11に示すヒストグラムは、図6に示す画像、即ち条件画像の形状を示すヒストグラムである。尚、図11に示すヒストグラムは正規化されているため無次元であり、条件画像の大きさに関わらず条件画像の形状を示すヒストグラムである。このような処理により、図5のS506における画像処理が完了する。   By the processing of S708, each numerical value included in the down-sampling information becomes a normalized normalized numerical value. Information generated in this way (hereinafter referred to as normalized numerical sequence information) can be visually displayed as a histogram. FIG. 11 is a diagram showing a histogram of normalized numerical sequence information generated as a result of the processing of FIG. The histogram shown in FIG. 11 is a histogram showing the shape of the image shown in FIG. 6, that is, the condition image. Since the histogram shown in FIG. 11 is normalized, it is dimensionless and is a histogram showing the shape of the condition image regardless of the size of the condition image. By such processing, the image processing in S506 of FIG. 5 is completed.

S506において画像処理が完了すると、文字情報変換部103が、上記生成された正規化数値列情報を変換して文字列情報を生成する(S507)。即ち、文字情報変換部103が、文字列情報生成部として機能する。S507において、文字情報変換部103は、正規化された数値と文字とが関連付けられた情報(以降、変換対応情報とする)を参照して文字情報変換を実行する。図12に、変換対応情報の例を示す。   When the image processing is completed in S506, the character information conversion unit 103 converts the generated normalized numerical string information to generate character string information (S507). That is, the character information conversion unit 103 functions as a character string information generation unit. In step S507, the character information conversion unit 103 performs character information conversion with reference to information (hereinafter referred to as conversion correspondence information) in which the normalized numerical value and the character are associated with each other. FIG. 12 shows an example of conversion correspondence information.

上述したように、本実施形態に係る正規化数値列情報は、 “1”〜“8”の8段階の数値によって構成されている。そして、図12に示すように、変換対応情報は、“1”〜“8”の数値夫々が“a”〜“h”夫々の文字と関連付けられた情報である。文字情報変換部103は、図12に示すような変換対応情報を参照し、正規化数値を対応する文字に変換し、数値列情報から文字列情報を生成する。尚、本実施形態において、変換対応情報は文字情報変換部103が保持している。   As described above, the normalized numerical value string information according to the present embodiment is configured by numerical values in eight stages from “1” to “8”. As shown in FIG. 12, the conversion correspondence information is information in which the numerical values “1” to “8” are associated with the characters “a” to “h”, respectively. The character information conversion unit 103 refers to the conversion correspondence information as shown in FIG. 12, converts the normalized numerical value into a corresponding character, and generates character string information from the numerical string information. In the present embodiment, the conversion correspondence information is held by the character information conversion unit 103.

S507の処理により生成される文字列情報の例を図13に示す。図13に示すように、S507の処理により夫々の文字情報は連結され、連続した文字列の情報が生成される。   An example of character string information generated by the processing of S507 is shown in FIG. As shown in FIG. 13, the pieces of character information are connected by the processing of S507, and continuous character string information is generated.

尚、図4において説明した文字列情報(以降、蓄積文字列情報とする)は、図13に示す文字列情報(以上、条件文字列情報とする)に対応する情報である。即ち、蓄積文字列情報も、条件文字列情報と同様に、夫々の画像に基づき、図7において説明した処理を経て生成された文字列情報である。   Note that the character string information described in FIG. 4 (hereinafter referred to as accumulated character string information) is information corresponding to the character string information illustrated in FIG. 13 (hereinafter referred to as conditional character string information). That is, the stored character string information is also character string information generated through the processing described in FIG. 7 based on each image, similarly to the conditional character string information.

図14(a)〜図14(d)は、蓄積文字列情報の生成態様を示す図であり、図8に対応する図面である。図14(a)〜図14(d)の例においては、図6の画像に表示された図形を傾けて表示した画像を例としている。   FIG. 14A to FIG. 14D are diagrams showing how the accumulated character string information is generated, and correspond to FIG. In the example of FIG. 14A to FIG. 14D, an image displayed by tilting the graphic displayed in the image of FIG. 6 is taken as an example.

図14(a)に示されるように、蓄積文字列情報の生成に際しても、まず輪郭強調が実行される。そして、図14(b)に示されるように、最外輪郭が抽出される。そして、図14(c)に示されるように、中心点及び画像の向きが抽出される。そして、図14(d)に示されるように、輪郭距離が算出される。   As shown in FIG. 14 (a), contour emphasis is first performed when the accumulated character string information is generated. Then, as shown in FIG. 14B, the outermost contour is extracted. Then, as shown in FIG. 14C, the center point and the orientation of the image are extracted. Then, as shown in FIG. 14D, the contour distance is calculated.

図14(d)の処理によって数値列情報が生成され、図7において説明した処理と同様にダウン・サンプリング及び数値の正規化を経て正規化数値列情報が生成される。更に、図12において説明した変換対応情報に基づき、図15に示すような文字情報が蓄積文字列情報として生成される。   Numerical value string information is generated by the process of FIG. 14D, and normalized numerical value string information is generated through down-sampling and numerical value normalization in the same manner as the process described in FIG. Further, based on the conversion correspondence information described in FIG. 12, character information as shown in FIG. 15 is generated as accumulated character string information.

S507の処理が完了すると、類似度算出部104は、S507の処理において生成された文字列情報に基づき、条件画像と画像情報DB200に格納されている画像との類似度を算出する(S508)。S508の処理において、類似度算出部104は、ネットワークI/F120を介して画像情報DB200から蓄積画像の蓄積文字列情報を取得し、条件文字列情報との一致度を計算する。   When the process of S507 is completed, the similarity calculation unit 104 calculates the similarity between the condition image and the image stored in the image information DB 200 based on the character string information generated in the process of S507 (S508). In the processing of S508, the similarity calculation unit 104 acquires the stored character string information of the stored image from the image information DB 200 via the network I / F 120, and calculates the degree of coincidence with the conditional character string information.

条件文字列情報と蓄積文字列情報との一致度の算出に際して、本実施形態に係る類似度算出部104は、N−gramによる文字検索を実行する。本実施形態に係るN−gramによる文字検索の態様を図16に示す。図16は、図13の文字列と図15の文字列において、N−gramによる文字検索として3(tri)−gramによる文字検索を実行する場合を示す図である。   When calculating the degree of coincidence between the conditional character string information and the accumulated character string information, the similarity calculation unit 104 according to the present embodiment performs a character search by N-gram. FIG. 16 shows a character search mode by N-gram according to the present embodiment. FIG. 16 is a diagram illustrating a case where a character search by 3 (tri) -gram is executed as a character search by N-gram in the character string of FIG. 13 and the character string of FIG.

3−gramは、正規化された数値3つ分に該当する最外輪郭の形状、即ち、図8(c)に示す中心点の所定の角度から12°分の最外輪郭の形状を示す文字列である。即ち、3−gramによる文字列検索を実行する場合は、図17に太線で示すように、中心点の所定の角度から12°分の最外輪郭の形状について、図14(a)〜(d)に示すような検索対象の画像の最外輪郭全体の形状とのマッチングを実行することとなる。   3-gram is a character indicating the shape of the outermost contour corresponding to three normalized numerical values, that is, the shape of the outermost contour of 12 ° from the predetermined angle of the center point shown in FIG. Is a column. That is, when a character string search by 3-gram is executed, as shown by a thick line in FIG. 17, the outermost contour shape of 12 ° from a predetermined angle of the center point is shown in FIGS. Matching with the shape of the entire outermost contour of the image to be searched as shown in FIG.

尚、上述したように、文字列情報への変換に際しては、ダウン・サンプリングされた数値列情報を用いるため、N−gramは入力された画像そのものの形状を大まかにした形状を示す。これにより、画像のノイズを除去することができる他、形状が大まかに一致する画像を類似画像として抽出することができる。   Note that, as described above, since the down-sampled numerical string information is used in the conversion to the character string information, N-gram indicates the shape of the input image itself. As a result, image noise can be removed, and an image whose shape roughly matches can be extracted as a similar image.

上述したように、図14(a)〜(d)の元の画像は、図6に示す画像が回転した画像であり、その形状は同一である。従って、図16に示すように、図13の文字列と図15の文字列とは多くの文字列が一致し、高い類似度が算出される。尚、S508における類似度の算出処理においては、N−gramによる文字検索の他、サフィックス・アレイ(接尾辞配列)を用いたlcp(longest common prefix)による文字検索方法など、公知の様々な文字検索方法を用いることが可能である。   As described above, the original images in FIGS. 14A to 14D are images obtained by rotating the image shown in FIG. 6 and have the same shape. Therefore, as shown in FIG. 16, the character string of FIG. 13 and the character string of FIG. 15 match many character strings, and a high similarity is calculated. In addition, in the similarity calculation processing in S508, various known character searches such as a character search method by lcp (longest common prefix) using a suffix array (suffix array) in addition to character search by N-gram. It is possible to use a method.

類似度算出部104は、画像情報DB200に格納されている全画像情報に対して図16に示すような文字検索を実行し、図4に示す画像IDとその画像について算出された類似度とが関連付けられた類似度一覧情報を生成する。   The similarity calculation unit 104 performs a character search as shown in FIG. 16 for all the image information stored in the image information DB 200, and the image ID shown in FIG. 4 and the similarity calculated for the image are obtained. Generate related similarity list information.

類似度算出部104は、S508の処理により類似度一覧情報を生成すると、類似度が所定の閾値を超える画像を類似画像として抽出する(S509)。尚、この閾値とは、算出された類似度に基づいて、検索対象の画像、即ち画像情報DB200に格納されている蓄積画像が類似画像であるか否かを判断するために設定される値である。即ち、画像情報DB200に格納されている画像が類似画像に該当するか否かを判断するための情報である。換言すると、条件画像と特徴の一致しない画像を抽出結果から除くために設定される値である。   When the similarity calculation unit 104 generates the similarity list information through the process of S508, the similarity calculation unit 104 extracts an image having a similarity exceeding a predetermined threshold as a similar image (S509). The threshold value is a value set to determine whether the image to be searched, that is, the accumulated image stored in the image information DB 200, is a similar image based on the calculated similarity. is there. That is, this is information for determining whether or not an image stored in the image information DB 200 corresponds to a similar image. In other words, the value is set to exclude an image whose characteristics do not match the condition image from the extraction result.

上記閾値は、S508における類似度の算出態様に応じて設定される。例えば、S508における類似度の算出処理において、形状が一致しない画像は類似度が“0%”として算出され、形状が少しでも一致する画像は“0%”ではない類似度が算出されるような算出態様を用いる場合、上記の閾値は“0%”として設定される。   The threshold is set according to the similarity calculation method in S508. For example, in the similarity calculation processing in step S508, an image whose shape does not match is calculated as “0%”, and an image whose shape matches even a little is calculated as “0%”. When the calculation mode is used, the threshold value is set as “0%”.

この他、S508における類似度の算出態様によっては、上記の閾値は“0%”以外の値に設定され得る。また、上記の閾値を、条件画像と形状の一致しない画像を抽出結果から除くために設定する他、条件画像と形状の一致度が高い画像を抽出するために設定しても良い。この場合、上記の閾値はより高い値に設定される。類似度算出部104は、S509の処理により抽出した画像、即ち類似画像を含む類似度一覧情報(以降、抽出結果情報とする)を抽出結果処理部105に入力する。   In addition, the threshold value may be set to a value other than “0%” depending on the similarity calculation method in S508. Further, the threshold value may be set in order to extract an image having a high degree of coincidence between the condition image and the shape, in addition to setting an image whose shape does not match the condition image from the extraction result. In this case, the above threshold is set to a higher value. The similarity calculation unit 104 inputs the image extracted by the processing of S509, that is, similarity list information including similar images (hereinafter referred to as extraction result information) to the extraction result processing unit 105.

抽出結果処理部105は、抽出結果情報を取得すると、抽出された類似画像の表示順序を決定する。そして、抽出結果処理部105は、抽出結果を表示するための表示情報を生成し、ネットワークI/F120を介してクライアント装置2に送信する(S510)。S510において、画像検索装置1は、算出された類似度の順に類似画像を表示する順序を決定する。クライアント装置2は、画像検索装置1から受信した表示情報に基づいて、表示部に抽出結果を表示し(S511)、処理を終了する。   When obtaining the extraction result information, the extraction result processing unit 105 determines the display order of the extracted similar images. Then, the extraction result processing unit 105 generates display information for displaying the extraction result, and transmits the display information to the client device 2 via the network I / F 120 (S510). In S510, the image search device 1 determines the order in which similar images are displayed in the order of the calculated similarity. The client device 2 displays the extraction result on the display unit based on the display information received from the image search device 1 (S511), and ends the process.

このように、本実施形態に係る画像検索装置1は、画像の中心点から最外輪郭までの距離を全方向に亘って求めることにより数値列情報を生成し、生成された数値列情報を正規化して文字列情報に変換し、変換された文字列情報に基づいて文字検索を行うことにより類似画像を検索する。従って、図17において説明したように、N−gramやlcpによる文字検索を実行することにより、画像の輪郭形状の部分毎に形状の類似度を判断することができる。その結果、図8(c)や図14(c)に示す画像の方向の抽出が誤っていた場合であっても、画像の形状に基づいて適切な類似度を算出することが可能となる。即ち、回転した画像であっても正確に類似画像として抽出可能な画像検索装置を提供することが可能となる。   As described above, the image search device 1 according to the present embodiment generates the numerical sequence information by obtaining the distance from the center point of the image to the outermost contour in all directions, and the generated numerical sequence information is normalized. The character string information is converted into character string information, and a similar image is searched by performing a character search based on the converted character string information. Therefore, as described with reference to FIG. 17, by performing a character search using N-gram or lcp, it is possible to determine the similarity of the shape for each portion of the contour shape of the image. As a result, it is possible to calculate an appropriate similarity based on the shape of the image even when the image direction extraction shown in FIGS. 8C and 14C is incorrect. That is, it is possible to provide an image search device that can extract a rotated image accurately as a similar image.

尚、上記実施形態においては、図9において説明したように、0°〜359°の順に輪郭距離を並べて数値列情報を生成し、ダウン・サンプリング処理、正規化処理及び文字変換処理を経て図13に示すような条件文字列情報を生成する例を説明した。換言すると、上記実施形態においては、算出された中心の周囲を時計回りに算出された数値列情報相当する文字列情報に基づいて文字検索を実行する例を説明した。   In the above-described embodiment, as described with reference to FIG. 9, numerical sequence information is generated by arranging the contour distances in the order of 0 ° to 359 °, and after down sampling processing, normalization processing, and character conversion processing, FIG. An example of generating conditional character string information as shown in FIG. In other words, in the above-described embodiment, the example in which the character search is executed based on the character string information corresponding to the numerical value string information calculated clockwise around the calculated center has been described.

この他、359°〜0°の順に輪郭距離を並べて生成された数値列情報についても、条件文字列情報を生成し、検索条件として用いることが好ましい。換言すると、算出された中心の周囲を反時計回りに算出された数値列情報に相当する文字列情報に基づいて文字検索を実行することが好ましい。これにより、左右非対称(asymmetry)である画像であって左右反転している画像についても高い類似度が算出され、類似画像として容易に抽出することが可能となる。   In addition, it is also preferable to generate conditional character string information and use it as a search condition for numerical value string information generated by arranging contour distances in the order of 359 ° to 0 °. In other words, it is preferable to perform a character search based on character string information corresponding to numerical value string information calculated counterclockwise around the calculated center. As a result, a high similarity is also calculated for an image that is asymmetric and that is horizontally reversed, and can be easily extracted as a similar image.

尚、上述した359°〜0°の順に輪郭距離を並べて生成された数値列情報についての条件文字列情報は、図13に示すように生成された文字列情報の文字順序を逆にすることによっても生成することが可能である。このように、文字順を逆にすることによって生成された文字列情報は、逆文字列情報と言うことができる。この他、S706において生成された数値列情報とその数値列情報の数値の並び順を逆にした数値列情報(以降、逆数値列情報とする)とに基づいて夫々文字列情報を生成しても良い。   The conditional character string information for the numerical string information generated by arranging the contour distances in the order of 359 ° to 0 ° described above is obtained by reversing the character order of the generated character string information as shown in FIG. Can also be generated. Thus, the character string information generated by reversing the character order can be referred to as reverse character string information. In addition, character string information is generated based on the numerical string information generated in S706 and the numerical string information obtained by reversing the numerical order of the numerical string information (hereinafter referred to as inverse numerical string information). Also good.

次に、S511においてクライアント装置2に表示される画面、即ち、本実施形態に係る画像検索システムのGUI(Graphical User Interface)について説明する。図18は、S511においてクライアント装置2のLCD60等の表示部に表示されるGUIのうち、検索結果表示画面を示す図である。図18に示すように、本実施形態に係る検索結果表示画面は、検索対象指定部181、条件画像表示部182、再検索指示部183、画像編集画面表示指示部184、類似画像表示部185を有する。また、類似画像表示部185には複数の類似画像が表示され、夫々の画像毎にフィードバック画像指定部186が設けられている。   Next, a screen displayed on the client device 2 in S511, that is, a GUI (Graphical User Interface) of the image search system according to the present embodiment will be described. FIG. 18 is a diagram showing a search result display screen in the GUI displayed on the display unit such as the LCD 60 of the client apparatus 2 in S511. As shown in FIG. 18, the search result display screen according to the present embodiment includes a search target designation unit 181, a condition image display unit 182, a re-search instruction unit 183, an image editing screen display instruction unit 184, and a similar image display unit 185. Have. The similar image display unit 185 displays a plurality of similar images, and a feedback image designating unit 186 is provided for each image.

検索対象指定部181は、画像情報DB200に記憶されている夫々の蓄積画像の全体を検索対象とするか、若しくは蓄積画像の一部分を検索対象とするかを指定する部位である。ユーザはマウスなどのユーザI/Fを操作し、“全体検索”、“部分検索”の文字の横に表示されたトグルを操作することによって全体検索と部分検索とを切り替える。   The search target designation unit 181 is a part that designates whether each of the accumulated images stored in the image information DB 200 is a search target or a part of the stored image is a search target. The user operates the user I / F such as a mouse, and switches between the entire search and the partial search by operating the toggle displayed next to the characters “overall search” and “partial search”.

条件画像表示部182は、S504において入力された入力画像情報を条件画像として表示する表示部である。図18の例においては、図6に示す画像が表示されている。尚、条件画像の左上に表示されているチェックボックスについては後述する。再検索指示部183は、検索条件を変更した上で再度の検索の実行を指示する部位であり、主にフィードバック検索の実行に用いられる。ユーザは、マウス等を操作して再検索指示部183をクリックすることにより、再検索が実行する。   The condition image display unit 182 is a display unit that displays the input image information input in S504 as a condition image. In the example of FIG. 18, the image shown in FIG. 6 is displayed. The check box displayed on the upper left of the condition image will be described later. The re-search instruction unit 183 is a part for instructing execution of another search after changing the search condition, and is mainly used for executing the feedback search. The user operates the mouse or the like and clicks the re-search instruction unit 183 to execute the re-search.

画像編集画面表示指示部184は、条件画像を編集するためのGUIである画像編集画面の表示をユーザが要求するための部位である。画像編集画面については後に詳述する。類似画像表示部185は、S509の処理の結果抽出された類似画像が表示される部位である。上述したように、本実施形態において、類似画像は、S508において算出された類似度の順に表示される。また、類似画像表示部185には、夫々の類似画像の類似度が数字及びバーの長さによって表示されている。   The image editing screen display instruction unit 184 is a part for the user to request display of an image editing screen which is a GUI for editing a condition image. The image editing screen will be described in detail later. The similar image display unit 185 is a part where a similar image extracted as a result of the processing of S509 is displayed. As described above, in the present embodiment, the similar images are displayed in the order of the similarity calculated in S508. In the similar image display unit 185, the similarity of each similar image is displayed by a number and a bar length.

フィードバック画像指定部186は、再検索指示部183をクリックしてフィードバック検索を実行する際のフィードバック画像を指定するためのチェックボックスである。類似画像として抽出された画像を検索条件に追加して更に検索を実行する場合、検索条件に追加したい画像のフィードバック画像指定部168をチェックし、再検索指示部183をクリックすることにより、フィードバック検索が実行される。   The feedback image designating unit 186 is a check box for designating a feedback image when the re-search instruction unit 183 is clicked to perform a feedback search. When an image extracted as a similar image is added to the search condition and further search is performed, a feedback search is performed by checking the feedback image specifying unit 168 of the image to be added to the search condition and clicking the re-search instruction unit 183. Is executed.

例えば、図18に示す“B”、“F”の画像をフィードバック画像として指定し、フィードバック検索を実行した場合の検索結果表示画面を図19に示す。図19に示すように、フィードバック検索を実行した場合、フィードバック画像として指定された画像が条件画像表示部182に追加される。図19に示す画面において、各条件画像の左上に表示されているチェックボックスのチェックを解除して再検索を実行することにより、チェックを解除した画像を条件画像から削除することができる。   For example, FIG. 19 shows a search result display screen when the images “B” and “F” shown in FIG. 18 are designated as feedback images and a feedback search is executed. As shown in FIG. 19, when a feedback search is executed, an image designated as a feedback image is added to the condition image display unit 182. In the screen shown in FIG. 19, by clearing the check box displayed at the upper left of each condition image and executing a re-search, the image with the check removed can be deleted from the condition image.

尚、フィードバック検索の実行に際して、まずクライアント装置2がネットワークを介してフィードバック画像として指定された画像のIDを画像検索装置1に送信する。フィードバック画像として指定された画像のIDを取得すると、指定されたIDの画像情報を画像情報DB200から条件画像として取得する。そして、元の画像及びフィードバック画像を条件画像として、図5のS506以降の処理を実行する。この他、フィードバック検索の実行に際しては公知の様々な方法を用いることが可能である。   When executing the feedback search, the client device 2 first transmits the image ID designated as the feedback image to the image search device 1 via the network. When the ID of the image specified as the feedback image is acquired, the image information of the specified ID is acquired as a condition image from the image information DB 200. Then, the processing after S506 in FIG. 5 is executed using the original image and the feedback image as condition images. In addition, various known methods can be used for executing the feedback search.

次に、検索対象指定部181を指定して部分画像検索を実行した場合の検索結果表示画面の例を図20に示す。図20に示すように、部分画像検索を実行した場合、類似画像として抽出された画像のうち、類似と判断された部分(以降、類似部分とする)がハイライトされて表示される。本実施形態においては、類似部分が破線により囲まれて示されているが、赤線の枠で囲むなど、他の方法であっても良い。尚、類似画像検索の実行に際しては、公知の様々な方法を用いることが可能であり、詳細な説明を省略する。このように、類似部分をハイライトして表示することにより、条件画像に類似する部分として判断された部分をユーザが容易に把握することが可能となる。   Next, FIG. 20 shows an example of a search result display screen when a partial image search is executed by specifying the search target specifying unit 181. As shown in FIG. 20, when a partial image search is executed, a portion determined to be similar (hereinafter referred to as a similar portion) among images extracted as similar images is highlighted and displayed. In the present embodiment, the similar part is shown surrounded by a broken line, but other methods such as a red line frame may be used. It should be noted that various known methods can be used when executing a similar image search, and detailed description thereof is omitted. As described above, by highlighting and displaying the similar portion, the user can easily grasp the portion determined as the portion similar to the condition image.

次に、画像編集画面表示指示部184を操作して画像編集画面を表示した場合の例を図21に示す。図21に示す画像編集画面は、図19の状態において画像編集画面の表示を指示した場合を例とする図である。図21に示すように、画像編集画面は、条件画像表示部211及び編集画像表示部212を有し、条件画像表示部211に表示された画像を用いて編集画像表示部212に新規に画像を作り出す画面である。   Next, an example in which the image editing screen is displayed by operating the image editing screen display instruction unit 184 is shown in FIG. The image editing screen shown in FIG. 21 is a diagram illustrating an example in which display of the image editing screen is instructed in the state of FIG. As shown in FIG. 21, the image editing screen includes a condition image display unit 211 and an edited image display unit 212, and a new image is displayed on the edited image display unit 212 using the image displayed on the condition image display unit 211. It is a screen to create.

条件画像表示部211には、図19に示すように条件画像として選択されている画像が表示される。尚、条件画像として条件画像表示部182に表示される前であっても、フィードバック画像指定部186がチェックされた状態で画像編集画面表示指示部184を操作した場合に、図21に示すように条件画像表示部211に表示させても良い。   The condition image display unit 211 displays an image selected as a condition image as shown in FIG. As shown in FIG. 21, when the image editing screen display instruction unit 184 is operated with the feedback image designation unit 186 checked even before being displayed on the condition image display unit 182 as a condition image. You may display on the condition image display part 211. FIG.

編集画像表示部212は、ユーザの編集によって生成された画像を表示する表示部である。図21に示すように、ユーザが、条件画像のいずれかの一部分を選択して横に表示された矢印をクリックすることにより、選択した部分が編集画像表示部212に表示される。また、画像編集画面において、図20に示すように類似部分として囲まれた部分を切り取る操作ボタンを設けても良い。これにより、ユーザの操作を好適に補助することが可能である。   The edited image display unit 212 is a display unit that displays an image generated by user editing. As shown in FIG. 21, when the user selects any part of the condition image and clicks an arrow displayed beside it, the selected part is displayed on the edited image display unit 212. Further, on the image editing screen, an operation button for cutting out a portion surrounded as a similar portion as shown in FIG. 20 may be provided. Thereby, it is possible to assist a user's operation suitably.

また、ユーザは、マウス等を用いて操作することにより、編集画像表示部212に表示された画像を編集することが可能である。編集画像表示部212に表示された画像の編集態様としては、例えば拡大、縮小、回転、反転等を行うことができる。   The user can edit the image displayed on the edited image display unit 212 by operating with a mouse or the like. As an editing mode of an image displayed on the edited image display unit 212, for example, enlargement, reduction, rotation, inversion, and the like can be performed.

また、画像編集画面において、ユーザは、条件画像表示部211に表示された複数の画像を組み合わせて新規に画像を生成することも可能である。そのような場合の例を図22に示す。図22は、条件画像表示部211に表示されている画像のうち、最も上に表示されている画像と最も下に表示されている画像の一部とを組み合わせた画像を生成した場合の例である。   On the image editing screen, the user can also generate a new image by combining a plurality of images displayed on the condition image display unit 211. An example of such a case is shown in FIG. FIG. 22 shows an example in which an image combining the image displayed at the top and a part of the image displayed at the bottom among the images displayed on the condition image display unit 211 is generated. is there.

ユーザは、図22に示すように、画像編集画面においてマウス等のユーザI/Fを操作することにより、条件画像表示部211に表示されている画像の全部若しくは一部を選択して編集画像表示部212に表示させる。条件画像表示部211に表示されている画像の複数に対して同様の操作を実行することにより、図22に示すように複数の画像を組み合わせて新たな画像を表示することができる。   As shown in FIG. 22, the user operates the user I / F such as a mouse on the image editing screen to select all or part of the image displayed on the condition image display unit 211 to display the edited image. This is displayed on the unit 212. By performing the same operation on a plurality of images displayed on the condition image display unit 211, it is possible to display a new image by combining a plurality of images as shown in FIG.

そして、ユーザは、画像編集画面の右下に表示された“OK”ボタンを操作することにより、図21、図22において説明した方法により編集画像表示部212に生成した画像を、検索結果表示画面の条件画像表示部182に追加することができる。   Then, the user operates the “OK” button displayed at the lower right of the image editing screen, and the image generated in the edited image display unit 212 by the method described in FIGS. 21 and 22 is displayed on the search result display screen. The condition image display unit 182 can be added.

このように本実施形態に係る画像検索システムのGUIにおいては、図6に示すようなユーザが入力した画像や、図18に示す“B”、“F”の画像のような検索の結果類似画像として抽出された画像を組み合わせて新しい画像を生成する機能(以降、画像組み合わせ編集機能とする)を有する。これにより、検索用画像の入力を補助することが可能な画像検索システムを提供することができる。   As described above, in the GUI of the image search system according to the present embodiment, a similar image as a result of the search such as the image input by the user as shown in FIG. 6 or the images “B” and “F” shown in FIG. And a function of generating a new image by combining the extracted images (hereinafter referred to as an image combination editing function). Thereby, the image search system which can assist the input of the image for a search can be provided.

また、本実施形態に係る画像検索システムのGUIにおいては、図21において説明したように、条件画像表示部211に表示された各画像の一部を切り取って編集画像表示部212に挿入する機能(以降、画像切り取り機能とする)を有する。これにより、ユーザが検索用画像を生成する差異の利便性を更に向上することが可能となる。   Further, in the GUI of the image search system according to the present embodiment, as described with reference to FIG. 21, a function of cutting a part of each image displayed on the condition image display unit 211 and inserting it into the edited image display unit 212 ( Hereinafter, the image cutting function is used. Thereby, it is possible to further improve the convenience of the difference in which the user generates the search image.

また、本実施形態に係る画像検索システムのGUIにおいては、部分検索を実行した場合、図20において説明したように、条件画像に類似すると判断された類似部分を囲むことにより明示して表示する機能(以降、類似部分ハイライト機能)を有する。これにより、類似部分をユーザが容易に把握することが可能となる。また、この類似部分ハイライト機能により、図21に示すように、画像編集画面において画像の一部を切り取る際のユーザの操作を補助することが可能となる。即ち、類似部分ハイライト機能と画像切り取り機能若しくは画像組み合わせ機能とを組み合わせることにより、ユーザの利便性を更に向上することができる。   Further, in the GUI of the image search system according to the present embodiment, when a partial search is executed, as described with reference to FIG. 20, a function that explicitly displays a frame by enclosing a similar part determined to be similar to the condition image. (Hereinafter, similar part highlight function). As a result, the user can easily grasp the similar part. Further, the similar part highlight function can assist the user's operation when cutting out a part of the image on the image editing screen as shown in FIG. That is, the convenience of the user can be further improved by combining the similar part highlight function with the image cropping function or the image combination function.

また、本実施形態に係る画像検索システムにおいては、上述したように、フィードバック検索を実行する機能(以降、フィードバック検索機能とする)を有する。これにより、検索結果の適合度を向上することが可能である。また、フィードバック検索の実行に際して、上述した画像組み合わせ編集機能、画像切り取り機能及び類似部分ハイライト機能を用いることにより、フィードバック検索における条件画像の追加が容易になるため、ユーザの利便性を向上することが可能となる。   In addition, as described above, the image search system according to the present embodiment has a function of executing a feedback search (hereinafter referred to as a feedback search function). Thereby, it is possible to improve the fitness of the search result. In addition, when executing the feedback search, by using the above-described image combination editing function, the image cropping function, and the similar partial highlight function, it becomes easy to add a condition image in the feedback search, thereby improving user convenience. Is possible.

尚、図18〜図22に示す画面は、上述したように、クライアント装置2が画像検索装置1から取得した表示情報に基づいて表示する。画像検索装置1においては、上述したように、抽出結果処理部105が、類似度算出部104から取得した抽出結果情報に基づいて表示情報を生成する。即ち、抽出結果処理部105は、図18〜図22において説明したような機能を有するGUIを表示するための表示情報を生成する。   Note that the screens shown in FIGS. 18 to 22 are displayed based on the display information acquired by the client device 2 from the image search device 1 as described above. In the image search device 1, as described above, the extraction result processing unit 105 generates display information based on the extraction result information acquired from the similarity calculation unit 104. That is, the extraction result processing unit 105 generates display information for displaying a GUI having the functions described with reference to FIGS.

また、図5のS503において表示される検索用画像入力画面及び図18〜図22において説明したようなGUI等の画像検索システムのGUIは、例えば、ウェブブラウザによって提供される。即ち、ユーザは、クライアント装置2においてウェブブラウザを介して画像検索システムのGUIを閲覧する。従って、抽出結果処理部105は、図18〜図22において説明したような画面を表示するための表示情報として、ウェブブラウザで閲覧するための情報を生成する。これにより、クライアント装置2は、特別な機能を有する必要がなく、一般的なウェブブラウザがインストールされているPC等の情報処理装置があれば、本実施形態に係る画像検索システムを利用することが可能である。   Further, the search image input screen displayed in S503 of FIG. 5 and the GUI of the image search system such as the GUI described in FIGS. 18 to 22 are provided by, for example, a web browser. That is, the user browses the GUI of the image search system via the web browser on the client device 2. Therefore, the extraction result processing unit 105 generates information for browsing with a web browser as display information for displaying the screen as described with reference to FIGS. Thus, the client device 2 does not need to have a special function, and if there is an information processing device such as a PC in which a general web browser is installed, the image search system according to the present embodiment can be used. Is possible.

図23を参照して、本実施形態に係る画像検索システムのGUIの機能構成について説明する。図23に示すように、本実施形態に係るGUIは、操作情報取得部231、画像情報取得部232、表示情報出力部233、検索実行指示部234及び画像情報編集部235を有する。図23に示す機能構成は、クライアント装置2において、RAM20にロードされたプログラムがCPU10の制御に従って動作することにより構成される。RAM20にロードされるプログラムとは、ウェブブラウザを構成するアプリケーション・プログラム及び上述した表示情報である。   With reference to FIG. 23, the functional configuration of the GUI of the image search system according to the present embodiment will be described. As illustrated in FIG. 23, the GUI according to the present embodiment includes an operation information acquisition unit 231, an image information acquisition unit 232, a display information output unit 233, a search execution instruction unit 234, and an image information editing unit 235. The functional configuration shown in FIG. 23 is configured in the client device 2 by a program loaded in the RAM 20 operating under the control of the CPU 10. The program loaded into the RAM 20 is an application program constituting the web browser and the display information described above.

操作情報取得部231は、ユーザがクライアント装置2の操作部70を操作して入力した操作情報を取得する。例えば、操作情報取得部231は、図18の検索対象指定部181、再検索指示部183、画像編集画面表示指示部184、フィードバック画像指定部186への操作や、図21の画像編集画面における画像編集の操作情報を取得する。   The operation information acquisition unit 231 acquires operation information input by the user operating the operation unit 70 of the client device 2. For example, the operation information acquisition unit 231 operates the search target designation unit 181, the re-search instruction unit 183, the image edit screen display instruction unit 184, and the feedback image designation unit 186 in FIG. 18, and the image on the image edit screen in FIG. 21. Get editing operation information.

画像情報取得部232は、ユーザによって入力された画像情報や類似画像として抽出された画像情報を取得する。例えば、画像情報取得部232は、図5のS504においてユーザによって入力された画像を条件画像として取得する。また、画像情報取得部232は、図5におけるS509の処理の結果、類似画像として抽出された画像の情報を取得する。また、画像情報取得部232が取得した画像は、図21に示す画像編集画面における条件画像表示部211に表示される画像となる。即ち、画像情報取得部232が、画像編集画面において編集され若しくは組み合わされる複数の画像を取得する。   The image information acquisition unit 232 acquires image information input by the user or image information extracted as a similar image. For example, the image information acquisition unit 232 acquires the image input by the user in S504 of FIG. 5 as a condition image. Further, the image information acquisition unit 232 acquires information on an image extracted as a similar image as a result of the processing of S509 in FIG. Further, the image acquired by the image information acquisition unit 232 is an image displayed on the condition image display unit 211 in the image editing screen shown in FIG. That is, the image information acquisition unit 232 acquires a plurality of images that are edited or combined on the image editing screen.

表示情報出力部233は、図5のS503において表示される検索用画像入力画面及び図18〜図22において説明したようなGUIを表示するための情報(以降、画面描画情報とする)を出力する。この画面描画情報は、I/50を介してLCD60に入力され、LCD60に夫々のGUIが表示される。   The display information output unit 233 outputs the search image input screen displayed in S503 of FIG. 5 and information for displaying the GUI as described in FIGS. 18 to 22 (hereinafter referred to as screen drawing information). . This screen drawing information is input to the LCD 60 via the I / 50, and each GUI is displayed on the LCD 60.

表示情報出力部233は、操作情報取得部231が取得した操作情報に応じて表示を切り替える。例えば、操作情報取得部231が、図18の検索対象指定部181を“全体検索”から“部分検索”に切り替える操作の情報を取得した場合、表示情報出力部233は、検索対象指定部181のトグルを切り替えるように表示情報を出力する。   The display information output unit 233 switches display according to the operation information acquired by the operation information acquisition unit 231. For example, when the operation information acquisition unit 231 acquires information on an operation for switching the search target designation unit 181 in FIG. 18 from “overall search” to “partial search”, the display information output unit 233 displays the search target designation unit 181. Output display information to toggle toggle.

検索実行指示部234は8、ユーザによる操作、即ち、操作情報取得部231が取得した情報に応じて、画像検索装置1に画像検索の実行を指示するコマンドを送信する。例えば、検索実行指示部234は、図5のS504において、入力された画像を条件画像として検索を実行するコマンドを出力する。また、操作情報取得部231が、再検索指示部183を押下する操作の情報を取得した場合、検索実行指示部234は、フィードバック画像指定部186のチェック等により検索条件として指定されている画像を条件画像として検索を実行するコマンドを出力する。即ち、検索実行指示部234は、画像検索の実行を指示する画像検索実行指示部として機能する。   The search execution instructing unit 234 8 transmits a command for instructing the image search apparatus 1 to execute an image search according to the operation by the user, that is, the information acquired by the operation information acquiring unit 231. For example, the search execution instruction unit 234 outputs a command for executing a search using the input image as a condition image in S504 of FIG. When the operation information acquisition unit 231 acquires information on an operation of pressing the re-search instruction unit 183, the search execution instruction unit 234 selects an image specified as a search condition by a check of the feedback image specification unit 186 or the like. A command for executing a search as a condition image is output. That is, the search execution instruction unit 234 functions as an image search execution instruction unit that instructs execution of an image search.

画像情報編集部235は、図21、図22において説明した機能を担う構成であり、ユーザの操作、即ち、操作情報取得部231が取得した情報に応じて、画像情報を編集し、編集後の画像情報を生成する。即ち、画像情報編集部235が、画像情報取得部232によって取得された画像を編集し若しくは複数の画像を組み合わせて条件画像を生成する条件画像生成部として機能する。   The image information editing unit 235 is configured to perform the functions described with reference to FIGS. 21 and 22. The image information editing unit 235 edits the image information in accordance with the user operation, that is, the information acquired by the operation information acquisition unit 231. Generate image information. That is, the image information editing unit 235 functions as a condition image generation unit that edits the image acquired by the image information acquisition unit 232 or generates a condition image by combining a plurality of images.

この他、クライアント装置2に専用のアプリケーション・ソフトウェアをインストールすることによっても、上記と同様の効果を得ることが可能である。この場合であっても、抽出結果処理部105は、抽出結果情報に基づき、クライアント装置2にインストールされている専用のアプリケーション・ソフトウェアが図18〜図22に示すGUIを表示するための情報をクライアント装置2に送信する。この場合、クライアント装置2にインストールされたアプリケーション・ソフトウェアと抽出結果処理部105とが連動して図18〜図22に示すGUIを生成する。   In addition, the same effect as described above can be obtained by installing dedicated application software in the client device 2. Even in this case, the extraction result processing unit 105 uses the extraction result information to display information for displaying the GUI shown in FIGS. 18 to 22 by the dedicated application software installed in the client device 2. Transmit to device 2. In this case, the application software installed in the client device 2 and the extraction result processing unit 105 work together to generate the GUI shown in FIGS.

この場合において抽出結果処理部105が送信する情報は、例えば、類似画像として抽出された画像の情報若しくは、画像情報DB200において類似画像として抽出された画像が格納されている格納先を示す情報である。上記格納先を示す情報は、例えばURL(Uniform Resource Locator)情報である。他方、クライアント装置2にインストールされたアプリケーション・ソフトウェアは、図18〜図22において説明した夫々の機能を担う。   In this case, the information transmitted by the extraction result processing unit 105 is, for example, information on an image extracted as a similar image or information indicating a storage location in which an image extracted as a similar image in the image information DB 200 is stored. . The information indicating the storage location is, for example, URL (Uniform Resource Locator) information. On the other hand, the application software installed in the client device 2 has the respective functions described with reference to FIGS.

本実施形態に係る画像検索システムは、例えば、商標検索システムとして使用することができる。即ち、画像情報DB200は、商標の情報を記憶しているデータベースである。特に、商標として公開される画像は、背景が白色であり、輪郭が明確な画像が多い。従って、画像の輪郭を抽出する本実施形態を商標検索に適用することにより、高い効果を得ることができる。この他、検索対象である画像情報DB200に格納されている画像情報の例として、公開特許公報等の特許文献に含まれる図面の情報等が考えられる。   The image search system according to the present embodiment can be used as a trademark search system, for example. That is, the image information DB 200 is a database that stores trademark information. In particular, many images disclosed as trademarks have a white background and a clear outline. Therefore, a high effect can be obtained by applying the present embodiment for extracting the contour of an image to trademark search. In addition, as an example of the image information stored in the image information DB 200 to be searched, information on a drawing included in a patent document such as a published patent publication can be considered.

また、上記の説明においては、図4に示すように、画像情報DB200に検索対象の画像の文字列情報が格納されている例を説明した。これにより、ユーザからの検索要求に対するレスポンスにおいて必要となる処理量を低減することが可能となる。この他、検索対象の画像の文字列情報は、画像処理部102及び文字情報変換部103によって図5のS508に示す処理の中で算出するようにしても良い。これにより、画像情報DB200に格納する情報量を低減することが可能となる。   In the above description, as illustrated in FIG. 4, the example in which the character string information of the search target image is stored in the image information DB 200 has been described. Thereby, it becomes possible to reduce the processing amount required in the response to the search request from the user. In addition, the character string information of the search target image may be calculated by the image processing unit 102 and the character information conversion unit 103 in the process shown in S508 of FIG. Thereby, the amount of information stored in the image information DB 200 can be reduced.

本発明の実施形態に係る画像検索システムの運用形態を示す図である。It is a figure which shows the operation | use form of the image search system which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索装置のハードウェア構成を模式的に示すブロック図である。It is a block diagram which shows typically the hardware constitutions of the image search device which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image search device which concerns on embodiment of this invention. 本発明の実施形態に係る画像情報DBに記憶されている情報の例を示す図である。It is a figure which shows the example of the information memorize | stored in image information DB which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索システムの動作を示すシーケンス図である。条件画像の例を示す図である。It is a sequence diagram which shows operation | movement of the image search system which concerns on embodiment of this invention. It is a figure which shows the example of a condition image. 本発明の実施形態に係る検索条件としての画像を示す図である。It is a figure which shows the image as a search condition which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image process part which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理部による画像処理の態様を示す図である。It is a figure which shows the aspect of the image process by the image process part which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理部によって生成される情報の例を示す図である。It is a figure which shows the example of the information produced | generated by the image process part which concerns on embodiment of this invention. 本発明の実施形態に係るダウン・サンプリングの例を示す図である。It is a figure which shows the example of the down sampling which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理部によって生成された数値列情報をヒストグラムとして示す図である。It is a figure which shows the numerical sequence information produced | generated by the image processing part which concerns on embodiment of this invention as a histogram. 本発明の実施形態に係る変換対応情報の例を示す図である。It is a figure which shows the example of the conversion corresponding | compatible information which concerns on embodiment of this invention. 本発明の実施形態に係る文字情報変換部103によって生成された文字列情報の例を示す図である。It is a figure which shows the example of the character string information produced | generated by the character information conversion part 103 which concerns on embodiment of this invention. 本発明の実施形態に係る検索対象の画像の画像処理態様の例を示す図である。It is a figure which shows the example of the image processing aspect of the image of the search object which concerns on embodiment of this invention. 本発明の実施形態に係る検索対象の画像の文字列情報の例を示す図である。It is a figure which shows the example of the character string information of the image of the search object which concerns on embodiment of this invention. 本発明の実施形態に係る類似度算出処理における文字検索の実行態様を示す図である。It is a figure which shows the execution aspect of the character search in the similarity calculation process which concerns on embodiment of this invention. 本発明の実施形態に係るN−gramに対応する画像の部分の例を示す図である。It is a figure which shows the example of the part of the image corresponding to N-gram which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索システムのGUIの例を示す図である。It is a figure which shows the example of GUI of the image search system which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索システムのGUIの例を示す図である。It is a figure which shows the example of GUI of the image search system which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索システムのGUIの例を示す図である。It is a figure which shows the example of GUI of the image search system which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索システムのGUIの例を示す図である。It is a figure which shows the example of GUI of the image search system which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索システムのGUIの例を示す図である。It is a figure which shows the example of GUI of the image search system which concerns on embodiment of this invention. 本発明の実施形態に係る画像検索システムのGUIの機能構成を示す図である。It is a figure which shows the function structure of GUI of the image search system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 画像検索装置
2 クライアント装置
10 CPU
20 RAM
30 ROM
40 HDD
50 I/F
60 LCD
70 操作部
80 バス
100 検索制御部
101 入力画像情報取得部
102 画像処理部
103 文字情報変換部
104 類似度算出部
105 抽出結果処理部
110 情報入力部
120 ネットワークI/F
130 表示部
181 検索対象指定部
182 条件画像表示部
183 再検索指示部
184 画像編集画面表示指示部
185 類似画像表示部
200 画像情報DB
211 条件画像表示部
212 編集画像表示部
231 操作情報取得部
232 画像情報取得部
233 表示情報出力部
234 検索実行指示部
235 画像情報編集部
1 Image Retrieval Device 2 Client Device 10 CPU
20 RAM
30 ROM
40 HDD
50 I / F
60 LCD
70 Operation unit 80 Bus 100 Search control unit 101 Input image information acquisition unit 102 Image processing unit 103 Character information conversion unit 104 Similarity calculation unit 105 Extraction result processing unit 110 Information input unit 120 Network I / F
130 Display Unit 181 Search Target Specification Unit 182 Condition Image Display Unit 183 Re-Search Instruction Unit 184 Image Editing Screen Display Instruction Unit 185 Similar Image Display Unit 200 Image Information DB
211 Conditional image display unit 212 Edited image display unit 231 Operation information acquisition unit 232 Image information acquisition unit 233 Display information output unit 234 Search execution instruction unit 235 Image information editing unit

Claims (12)

検索対象の画像と検索条件の画像との類似度を算出して画像検索を実行する画像検索装置であって、
前記検索条件の画像である条件画像を取得する画像取得部と、
前記取得された条件画像の輪郭を抽出する輪郭抽出部と、
前記抽出された輪郭の中心を計算する中心計算部と、
前記計算された中心から前記輪郭までの距離を、前記中心の周囲一周に渡って0°から359°の一度毎に算出して前記距離の数値列情報を生成する距離算出部と、
前記生成された数値列情報に基づいて文字列情報を生成する文字列情報生成部と、
前記生成された文字列情報と検索対象の画像について生成された検索対象文字列情報とに基づいて文字列検索を実行することにより前記類似度を算出する類似度算出部とを有し、
前記類似度算出部は、
前記中心の周囲を反時計回りに359°から0°の一度毎に算出された数値列情報に相当する逆文字列情報と、時計回りに算出された数値列情報に相当する文字列情報と、に基づいて前記文字列検索を実行することを特徴とする、画像検索装置。
An image search device that calculates a similarity between an image to be searched and an image of a search condition and executes an image search,
An image acquisition unit that acquires a condition image that is an image of the search condition;
An outline extraction unit for extracting an outline of the acquired condition image;
A center calculator for calculating the center of the extracted contour;
A distance calculating unit that generates a numeric sequence information of the calculated the distance to the contour from the center, the distance is calculated for each one time of 359 ° from 0 ° over the periphery around the center,
A character string information generating unit that generates character string information based on the generated numerical string information;
Possess a similarity calculation section for calculating the degree of similarity by performing a text search on the basis of the search object character string information generated for the search target image and the generated character string information,
The similarity calculation unit includes:
Reverse character string information corresponding to numerical value string information calculated every time from 359 ° to 0 ° counterclockwise around the center, character string information corresponding to numerical value string information calculated clockwise, An image search apparatus that performs the character string search based on
前記文字情報生成部は、前記数値列情報に対応する数値と前記文字列情報を構成する文字とが関連付けられた変換対応情報を参照して前記数値列情報を文字列情報に変換することにより前記文字列情報を生成することを特徴とする、請求項1に記載の画像検索装置。 The character string information generating unit refers to conversion correspondence information in which a numerical value corresponding to the numerical string information and a character constituting the character string information are associated with each other, and converts the numerical string information into character string information. The image search apparatus according to claim 1, wherein the character string information is generated. 前記取得された条件画像の輪郭を強調する輪郭強調部を更に有し、
前記輪郭抽出部は、前記輪郭強調部によって強調された輪郭を抽出することを特徴とする、請求項1または2に記載の画像検索装置。
A contour emphasizing unit for emphasizing the contour of the acquired condition image;
The image search device according to claim 1, wherein the contour extraction unit extracts a contour emphasized by the contour enhancement unit.
前記輪郭抽出部は、前記条件画像の輪郭のうち最外部の輪郭を抽出することを特徴とする、請求項1乃至3いずれかに記載の画像検索装置。   The image search device according to claim 1, wherein the contour extracting unit extracts an outermost contour from the contours of the condition image. 前記文字列情報生成部は、前記生成された数値列情報を元として平滑化された平滑化数値列情報に基づいて前記文字列情報を生成することを特徴とする、請求項1乃至いずれかに記載の画像検索装置。 The said character string information generation part produces | generates the said character string information based on the smoothed numerical sequence information smoothed based on the said generated numerical sequence information, The one of the Claims 1 thru | or 4 characterized by the above-mentioned. The image search device described in 1. 前記文字列情報生成部は、前記生成された数値列情報を元として正規化された正規化数値列情報に基づいて前記文字列情報を生成することを特徴とする、請求項1乃至いずれかに記載の画像検索装置。 The said character string information generation part produces | generates the said character string information based on the normalized numerical sequence information normalized based on the produced | generated numerical sequence information, The one of Claims 1 thru | or 5 characterized by the above-mentioned. The image search device described in 1. 前記類似度算出部は、N−gramにより前記文字列検索を実行することを特徴とする、請求項1乃至いずれかに記載の画像検索装置。 The similarity calculation unit, and executes the character string retrieved by the N-gram, the image retrieval apparatus according to any one of claims 1 to 6. 前記類似度算出部は、接尾辞配列により前記文字列検索を実行することを特徴とする、請求項1乃至いずれかに記載の画像検索装置。 The similarity calculation unit, and executes the character string retrieved by the suffix array, the image retrieval apparatus according to any one of claims 1 to 6. 前記検索対象の画像を記憶している検索対象画像記憶部を更に有し、
前記検索対象画像記憶部は、前記検索対象の画像について生成された検索対象文字列情報を記憶していることを特徴とする、請求項1乃至いずれかに記載の画像検索装置。
A search target image storage unit storing the search target image;
The search target image storing unit is characterized by storing a search object character string information the generated search target image, the image retrieval apparatus according to any one of claims 1 to 8.
検索対象の画像と検索条件の画像との類似度を算出して画像検索を実行する画像検索方法であって、
画像取得部が、前記検索条件の画像である条件画像を取得し、
輪郭抽出部が、前記取得された条件画像の輪郭を抽出し、
中心計算部が、前記抽出された輪郭の中心を計算し、
距離算出部が、前記計算された中心から前記輪郭までの距離を、前記中心の周囲一周に渡って0°から359°の一度毎に算出して前記距離の数値列情報を生成し、
文字列情報生成部が、前記生成された数値列情報に基づいて文字列情報を生成し、
類似度算出部が、前記生成された文字列情報と検索対象の画像について生成された検索対象文字列情報とに基づいて文字列検索を実行することにより前記類似度を算出し、
前記類似度算出部が、前記中心の周囲を反時計回りに359°から0°の一度毎に算出された数値列情報に相当する逆文字列情報と、時計回りに算出された数値列情報に相当する文字列情報と、に基づいて前記文字列検索を実行する、画像検索方法。
An image search method for performing image search by calculating a similarity between an image to be searched and an image of a search condition,
The image acquisition unit acquires a condition image that is an image of the search condition,
The contour extraction unit extracts the contour of the acquired condition image,
A center calculation unit calculates the center of the extracted contour,
Distance calculating unit, the distance from the calculated center to the contour, calculates and generates a numerical sequence information of the distance to each one time of 359 ° from 0 ° over the periphery around the center,
A character string information generation unit generates character string information based on the generated numerical string information,
The similarity calculation unit calculates the similarity by executing a character string search based on the generated character string information and the search target character string information generated for the search target image ,
The similarity calculation unit converts the reverse character string information corresponding to the numerical string information calculated every time from 359 ° to 0 ° counterclockwise around the center, and the numerical string information calculated clockwise. An image search method for executing the character string search based on corresponding character string information .
情報処理装置を、検索対象の画像と検索条件の画像との類似度を算出して画像検索を実行する画像装置として動作させるための制御プログラムであって、
前記検索条件の画像である条件画像を取得するステップと、
前記取得された条件画像の輪郭を抽出するステップと、
前記抽出された輪郭の中心を計算するステップと、
前記計算された中心から前記輪郭までの距離を、前記中心の周囲一周に渡って0°から359°の一度毎に算出して前記距離の数値列情報を生成するステップと、
前記生成された数値列情報に基づいて文字列情報を生成するステップと、
前記生成された文字列情報と検索対象の画像について生成された検索対象文字列情報とに基づいて文字列検索を実行することにより前記類似度を算出するとともに、前記中心の周囲を反時計回りに359°から0°の一度毎に算出された数値列情報に相当する逆文字列情報と、時計回りに算出された数値列情報に相当する文字列情報と、に基づいて前記文字列検索を実行するステップとを前記情報処理装置に実行させることを特徴とする、制御プログラム。
A control program for causing an information processing apparatus to operate as an image apparatus that calculates a similarity between an image to be searched and an image of a search condition, and executes an image search,
Obtaining a condition image that is an image of the search condition;
Extracting an outline of the acquired condition image;
Calculating the center of the extracted contour;
Calculating the distance from the calculated center to the contour every time from 0 ° to 359 ° around the circumference of the center to generate numerical sequence information of the distance;
Generating character string information based on the generated numerical string information;
The similarity is calculated by performing a character string search based on the generated character string information and the search target character string information generated for the search target image, and the periphery of the center is counterclockwise. The character string search is executed based on the reverse character string information corresponding to the numerical value string information calculated every time from 359 ° to 0 ° and the character string information corresponding to the numerical value string information calculated clockwise. A control program that causes the information processing apparatus to execute the step of:
請求項11に記載の制御プログラムを情報処理装置が読取可能な形式で記録したことを特徴とする、記録媒体。 12. A recording medium in which the control program according to claim 11 is recorded in a format readable by an information processing apparatus.
JP2008283745A 2008-11-04 2008-11-04 Image search apparatus, image search method, control program, and recording medium Active JP5315935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008283745A JP5315935B2 (en) 2008-11-04 2008-11-04 Image search apparatus, image search method, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008283745A JP5315935B2 (en) 2008-11-04 2008-11-04 Image search apparatus, image search method, control program, and recording medium

Publications (2)

Publication Number Publication Date
JP2010113428A JP2010113428A (en) 2010-05-20
JP5315935B2 true JP5315935B2 (en) 2013-10-16

Family

ID=42301956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008283745A Active JP5315935B2 (en) 2008-11-04 2008-11-04 Image search apparatus, image search method, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP5315935B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299307A (en) * 2018-08-30 2019-02-01 广州企图腾科技有限公司 A kind of trade mark retrieval method for early warning and device based on structural analysis

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108897747A (en) * 2018-04-03 2018-11-27 南昌奇眸科技有限公司 A kind of brand logo similarity comparison method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3918143B2 (en) * 2000-12-28 2007-05-23 独立行政法人科学技術振興機構 Plant recognition system
JP4307877B2 (en) * 2003-03-20 2009-08-05 富士フイルム株式会社 Image processing apparatus and image processing method
JP4851353B2 (en) * 2007-01-31 2012-01-11 株式会社リコー Image processing apparatus and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299307A (en) * 2018-08-30 2019-02-01 广州企图腾科技有限公司 A kind of trade mark retrieval method for early warning and device based on structural analysis
CN109299307B (en) * 2018-08-30 2022-04-05 广州企图腾科技有限公司 Trademark retrieval early warning method and device based on structural analysis

Also Published As

Publication number Publication date
JP2010113428A (en) 2010-05-20

Similar Documents

Publication Publication Date Title
US11017034B1 (en) System and method for search with the aid of images associated with product categories
CN102520843B (en) A kind of image that gathers is as the input method of candidate item and system
JP5199939B2 (en) Image search apparatus, image search method and program
JP5802292B2 (en) Shared language model
JP5270027B1 (en) Information processing apparatus and handwritten document search method
US9594736B2 (en) Display and selection of bidirectional text
JP6895030B2 (en) Display control device, display control method and display control program
JP2008192055A (en) Content search method and content search apparatus
US10694071B2 (en) Techniques for viewing and searching documents from collections of documents
JP2009200699A (en) Image processor and image processing method
JP2006146628A (en) Method and apparatus for retrieving document by content image
JP2007149018A (en) Graphic retrieval program, recording medium recorded with the same, graphic retrieval device and graphic retrieval method
JP5315935B2 (en) Image search apparatus, image search method, control program, and recording medium
JP2008040753A (en) Image processor and method, program and recording medium
JP2022091686A (en) Data annotation method, device, electronic apparatus and storage medium
JP2010113429A (en) Image retrieval device, image retrieval method, information processing program, and recording medium
JP5835224B2 (en) Input support program, input support apparatus, and input support method
KR20140134154A (en) Method and Terminal for Extracting a Object from Image
JP2004240751A (en) Picture retrieval device
JP5880637B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2005275979A (en) Image retrieving program
JP4344207B2 (en) Document search device, document search method, document search program, and recording medium
JP5223293B2 (en) POSITION EXPRESSION EXTRACTION DEVICE, METHOD, AND PROGRAM
JP5418329B2 (en) Information processing program and information processing apparatus
JP2007164555A (en) Retrieval information display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111011

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130624

R151 Written notification of patent or utility model registration

Ref document number: 5315935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151