JP2020091828A - Information processing device and similar image search program - Google Patents

Information processing device and similar image search program Download PDF

Info

Publication number
JP2020091828A
JP2020091828A JP2019100718A JP2019100718A JP2020091828A JP 2020091828 A JP2020091828 A JP 2020091828A JP 2019100718 A JP2019100718 A JP 2019100718A JP 2019100718 A JP2019100718 A JP 2019100718A JP 2020091828 A JP2020091828 A JP 2020091828A
Authority
JP
Japan
Prior art keywords
image data
information
data
search
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019100718A
Other languages
Japanese (ja)
Other versions
JP7097329B2 (en
Inventor
豪洋 石崎
Takehiro Ishizaki
豪洋 石崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2020091828A publication Critical patent/JP2020091828A/en
Application granted granted Critical
Publication of JP7097329B2 publication Critical patent/JP7097329B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing device capable of reducing computational load, and to provide a similar image search program.SOLUTION: An information processing device provided herein is configured to: retain a plurality of data patterns obtained through machine learning; upon reception of input of data to be processed, count the number of portions of the entered data determined to be similar to each of the data patterns; generate feature vector information based on a counting result; and perform a predetermined process associated with the data using the feature vector information.SELECTED DRAWING: Figure 1

Description

本発明は、類似画像の検索等の処理を行う情報処理装置及び類似画像検索プログラムに関する。 The present invention relates to an information processing apparatus and a similar image search program that perform processing such as searching for similar images.

近年ではディープラーニングを用いた情報処理が広く研究されている。例えば画像の分類を行うため、対象物が撮像されている位置が変化しても同じ画像と認識可能な、畳み込みニューラルネットワーク(CNN)を用いたディープラーニングがある。 In recent years, information processing using deep learning has been widely studied. For example, in order to classify images, there is deep learning using a convolutional neural network (CNN) that can recognize the same image even if the position where the object is imaged changes.

特許文献1には、このCNNの中間層が抽出した複数種類の特徴量を用いて、決定木により画像を分類するという技術が開示されている。 Patent Document 1 discloses a technique of classifying images by a decision tree using a plurality of types of feature quantities extracted by the CNN intermediate layer.

特開2018−5639号公報JP, 2018-5639, A

しかしながら、上記従来の技術では、第一に、ニューラルネットワークによって得られた機械学習の結果を利用するために、ニューラルネットワークの演算が必要となるため、演算負荷が軽減できないという問題点があった。 However, in the above-mentioned conventional technique, firstly, the calculation load of the neural network cannot be reduced because the calculation of the neural network is required in order to use the result of the machine learning obtained by the neural network.

本発明は上記実情等に鑑みて為されたもので、その目的の一つは、演算負荷の軽減ができる情報処理装置及び類似画像検索プログラムを提供することである。 The present invention has been made in view of the above circumstances, and one of the objects thereof is to provide an information processing apparatus and a similar image search program capable of reducing the calculation load.

上記従来例の問題点を解決するための本発明は、情報処理装置であって、機械学習により獲得された複数のデータのパターンを保持する保持手段と、処理対象となるデータの入力を受けて、前記複数のデータのパターンごとに、前記処理対象データのうち、前記データのパターンのそれぞれと類似すると判定される部分の数をカウントして、当該カウントの結果に基づく特徴ベクトル情報を生成する特徴量生成手段と、前記特徴ベクトル情報を用いて、前記処理対象データに関わる所定の処理を実行する実行手段と、を含むこととしたものである。 The present invention for solving the above-mentioned problems of the conventional example is an information processing apparatus, which holds a pattern of a plurality of data acquired by machine learning, and an input of data to be processed. A feature that counts the number of portions of the processing target data that are determined to be similar to each of the data patterns for each pattern of the plurality of data and generates feature vector information based on the result of the count. A quantity generation means and an execution means for executing a predetermined process relating to the processing target data by using the feature vector information are included.

本発明の実施の形態に係る情報処理装置の構成例を表すブロック図である。It is a block diagram showing the example of composition of the information processor concerning an embodiment of the invention. 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。It is a functional block diagram showing the example of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置が保持する基底画像データの例を表す説明図である。It is explanatory drawing showing the example of the base image data which the information processing apparatus which concerns on embodiment of this invention hold|maintains. 本発明の実施の形態に係る情報処理装置が保持する検索データベースの内容例を表す説明図である。It is explanatory drawing showing the example of the content of the search database which the information processing apparatus which concerns on embodiment of this invention hold|maintains.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理装置1は、例えば図1に例示するように、制御部11、記憶部12、操作部13、表示部14、及び通信部15を含んで構成されている。またこの情報処理装置1は、インターネット等の通信手段を介して、種々のウェブサーバ等のサーバ装置2a,b…との間で通信可能に接続されている。 Embodiments of the present invention will be described with reference to the drawings. The information processing apparatus 1 according to the embodiment of the present invention is configured to include a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and a communication unit 15, as illustrated in FIG. 1, for example. .. Further, the information processing apparatus 1 is communicably connected to server devices 2a, 2b, etc. such as various web servers via communication means such as the Internet.

制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態の一例では、この制御部11は、複数の画像パターンを機械学習により獲得して、記憶部12に格納する機械学習処理を実行する。また制御部11は、処理対象となる画像データの入力を受けて、上記の複数の画像パターンごとに、当該処理対象となった画像データに含まれる領域のうち、画像パターンと類似すると判定される領域の数をカウントして、当該カウントの結果に基づく特徴ベクトル情報を生成する。そして制御部11は、当該特徴ベクトル情報を用いて、処理の対象となった画像データに関わる所定の処理を実行する。 The control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. In the example of the present embodiment, the control unit 11 executes a machine learning process of acquiring a plurality of image patterns by machine learning and storing the acquired image patterns in the storage unit 12. Further, the control unit 11 receives the input of the image data to be processed, and for each of the plurality of image patterns, it is determined that the region included in the image data to be processed is similar to the image pattern. The number of regions is counted, and feature vector information based on the result of the count is generated. Then, the control unit 11 uses the feature vector information to execute a predetermined process related to the image data to be processed.

本実施の形態のある例では、制御部11は、各ウェブサーバ2a,2b…が提供するウェブページをクローリングして、当該ウェブページで提供される画像データを処理の対象として上記の複数の画像パターンごとに、当該処理対象となった画像データに含まれる領域のうち、画像パターンと類似すると判定される領域の数をカウントして、当該カウントの結果に基づく特徴ベクトル情報を生成し、当該生成した特徴ベクトルと、処理対象となった画像データを提供するウェブページを特定する情報(当該ウェブページのURLでよい)とを関連付けて、検索用データベースとして記憶部12に格納しておく。 In an example of the present embodiment, the control unit 11 crawls the web pages provided by the respective web servers 2a, 2b,... And the image data provided by the web pages is used as a processing target of the plurality of images. For each pattern, the number of regions that are determined to be similar to the image pattern among the regions included in the image data that is the processing target is counted, feature vector information based on the result of the count is generated, and the generation is performed. The feature vector described above is associated with the information (which may be the URL of the web page) that specifies the web page that provides the image data to be processed, and is stored in the storage unit 12 as a search database.

そして制御部11は、利用者から検索の対象となる画像データの入力を受けて、当該入力された画像データを処理の対象として上記の複数の画像パターンごとに、当該処理対象となった画像データに含まれる領域のうち、画像パターンと類似すると判定される領域の数をカウントして、当該カウントの結果に基づく特徴ベクトル情報(検索用データベースに既に保持されているものと区別するため、検索対象特徴ベクトル情報と呼ぶ)を生成する。制御部11はここで生成した検索対象特徴ベクトル情報と、検索用データベースに保持された特徴ベクトル情報とを比較し、検索データベースに保持された特徴ベクトルを、検索対象特徴ベクトル情報に近い順(関連度順)に所定の数だけ抽出する。制御部11は、抽出した特徴ベクトルに関連付けて検索データベースに保持されている、ウェブページを特定する情報の一覧を、上記関連度順に表示出力する。 Then, the control unit 11 receives the input of the image data to be searched from the user, and sets the input image data as the processing target for each of the above-described plurality of image patterns. Among the areas included in, the number of areas that are determined to be similar to the image pattern is counted, and feature vector information based on the result of the count (in order to distinguish from the one already held in the search database, the search target (Called feature vector information). The control unit 11 compares the search target feature vector information generated here with the feature vector information held in the search database, and sets the feature vectors held in the search database in the order close to the search target feature vector information (related Extract a predetermined number in order. The control unit 11 displays and outputs a list of information identifying web pages, which is held in the search database in association with the extracted feature vector, in the order of the relevance.

もっともこの例は、処理の一例であり、本実施の形態の制御部11は他の処理を行ってもよい。この制御部11の詳しい処理の内容は、後に説明する。 However, this example is an example of processing, and the control unit 11 of the present embodiment may perform other processing. The details of the processing of the control unit 11 will be described later.

記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持している。このプログラムは、コンピュータ可読かつ非一時的な記憶媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また本実施の形態の一例では、この記憶部12は、検索用データベースを保持しているものとする。またこの記憶部12は、制御部11のワークメモリとしても動作する。 The storage unit 12 is a memory device, a disk device, or the like, and holds a program executed by the control unit 11. The program may be stored in a computer-readable non-transitory storage medium, provided, and stored in the storage unit 12. In addition, in the example of the present embodiment, the storage unit 12 holds a search database. The storage unit 12 also operates as a work memory for the control unit 11.

操作部13は、キーボードやマウス等であり、利用者の指示操作を受けて、当該指示操作の内容を表す情報を制御部11に対して出力する。表示部14は、ディスプレイ等であり、制御部11から入力される指示に従って、指示された情報を表示出力する。 The operation unit 13 is a keyboard, a mouse, or the like, and in response to a user's instruction operation, outputs information indicating the content of the instruction operation to the control unit 11. The display unit 14 is a display or the like, and displays and outputs the instructed information according to an instruction input from the control unit 11.

通信部15は、ネットワークインタフェース等であり、制御部11から入力される指示に従って、指示された情報を、指示されたあて先に宛てて送信出力する。またこの通信部15は、ウェブサーバ2等から情報を受信して、制御部11に対して出力する。 The communication unit 15 is a network interface or the like, and transmits and outputs the instructed information to the instructed destination according to the instruction input from the control unit 11. The communication unit 15 also receives information from the web server 2 or the like and outputs it to the control unit 11.

次に本実施の形態の一例に係る制御部11の動作について説明する。ここではまず、一例として、制御部11が、ウェブサーバ2が提供する画像データを検索する動作を行う例について説明する。 Next, the operation of the control unit 11 according to the example of the present embodiment will be described. Here, first, as an example, an example in which the control unit 11 performs an operation of searching for image data provided by the web server 2 will be described.

この例の制御部11は、記憶部12に格納された機械学習処理プログラムを実行することで、図2に例示するように、機械学習処理部20及び検索処理部30として機能する。図2は、本実施の形態の一例に係る制御部11の機能ブロック図である。 By executing the machine learning processing program stored in the storage unit 12, the control unit 11 in this example functions as the machine learning processing unit 20 and the search processing unit 30 as illustrated in FIG. 2. FIG. 2 is a functional block diagram of the control unit 11 according to an example of the present embodiment.

機械学習処理プログラムを実行する制御部11は、図2に例示するように、機械学習処理部20としての動作を行う。このとき制御部11は、機能的には受入部21と、機械学習部22と、中間層抽出部23とを含んで構成される。 The control unit 11 that executes the machine learning processing program operates as the machine learning processing unit 20 as illustrated in FIG. At this time, the control unit 11 is functionally configured to include a reception unit 21, a machine learning unit 22, and an intermediate layer extraction unit 23.

また検索処理部30として動作する制御部11は、機能的に、パターン保持部31と、情報収集部32と、特徴量演算部33と、特徴量保持部34と、受入部35と、検索部36と、情報出力部37とを含んで構成される。 Further, the control unit 11 that operates as the search processing unit 30 functionally includes a pattern holding unit 31, an information collecting unit 32, a feature amount calculating unit 33, a feature amount holding unit 34, a receiving unit 35, and a searching unit. 36 and an information output unit 37.

受入部21は、機械学習の対象となるデータの入力を受け入れる。本実施の形態の例では、画像データを検索する動作を行うので、ここで受入部21が受け入れるデータは画像データとなる。本実施の形態の一例では、画像データは、ウェブサイトをクローリングして得ることとすればよい。あるいは、この画像データは検索の目的となる画像を含むもの、例えば日本の風景の検索に用いるのであれば、日本国内を撮影した画像データを集積したものを用いてもよい。 The receiving unit 21 receives input of data to be machine-learned. In the example of the present embodiment, since the operation of searching for image data is performed, the data received by the receiving unit 21 here is image data. In an example of the present embodiment, the image data may be obtained by crawling a website. Alternatively, this image data may include an image to be searched, for example, if it is used for searching a Japanese landscape, a collection of image data obtained by photographing Japan.

機械学習部22は、例えばオートエンコーダであり、中間層を少なくとも一つ含むニューラルネットワークの機械学習処理を実行する。この機械学習部22は、受入部21が受け入れた画像データを、所定のサイズにリサイズしてニューラルネットワークの入力層に入力する。また機械学習部22は、当該画像データを入力したときのニューラルネットワークの出力が、元の(所定のサイズにリサイズした)画像データとなるように、ニューラルネットワークの出力と入力した画像データとの差に基づいて、ニューラルネットワーク内の入力層と中間層との間の重みの情報、及び中間層と出力層との間の重みの情報を設定する。この処理は、一般的なニューラルネットワークの機械学習処理と同じものであるので、ここでの詳しい説明は省略する。 The machine learning unit 22 is, for example, an auto encoder, and executes machine learning processing of a neural network including at least one intermediate layer. The machine learning unit 22 resizes the image data received by the receiving unit 21 to a predetermined size and inputs the resized image data to the input layer of the neural network. Further, the machine learning unit 22 sets the difference between the output of the neural network and the input image data so that the output of the neural network when the image data is input becomes the original (resized to a predetermined size) image data. Based on the above, the weight information between the input layer and the intermediate layer and the weight information between the intermediate layer and the output layer in the neural network are set. Since this processing is the same as the machine learning processing of a general neural network, detailed description thereof is omitted here.

中間層抽出部23は、機械学習部22によって機械学習されたニューラルネットワークの中間層の情報を抽出して出力する。具体的に中間層にN個のノードがあり、入力層にM個のノードがある(入力する画像データのサイズが横xピクセル、縦yピクセルであるとするとM=x×y)とき、中間層の一つのノードjに着目すると、M個の重みwij(i=1,2,…,M)が存在する。そこで中間層抽出部23は、中間層の各ノード(j=1,2,…,N)についてのこのM個の重みを、画像データのサイズ(横xピクセル、縦yピクセル)に配列した基底画像データ(N個の画像データ)を生成し、中間層の情報として出力する。 The intermediate layer extraction unit 23 extracts and outputs the information of the intermediate layer of the neural network machine-learned by the machine learning unit 22. Specifically, when there are N nodes in the intermediate layer and M nodes in the input layer (assuming that the size of the input image data is x pixels in the horizontal direction and y pixels in the vertical direction, M=x×y), the intermediate Focusing on one node j in the layer, there are M weights wij (i=1, 2,..., M). Therefore, the intermediate layer extraction unit 23 arranges these M weights for each node (j=1, 2,..., N) of the intermediate layer in the image data size (horizontal x pixel, vertical y pixel). Image data (N pieces of image data) is generated and output as information of the intermediate layer.

なお、ここでは中間層抽出部23は、入力層と中間層との間の重みの情報から中間層の情報を抽出することとしたが、これに代えてあるいはこれとともに、中間層と出力層との重みの情報から中間層の情報を抽出してもよい。すなわち情報を抽出する中間層は、例えば機械学習部22によって機械学習されるニューラルネットワークがオートエンコーダである場合、エンコーダ側の最後の層(デコーダ側の最初の層に接続される、最も深い中間層、いわゆる潜在変数を表す層)であってもよい。また中間層抽出部23は、任意の互いに隣接する中間層間の重みの情報から中間層の情報を抽出してもよい。さらに中間層抽出部23は、各中間層の各ノードのうちから、当該ノードに係る重み(隣接する層の各ノードとの間の重み)の情報が所定の基準に合致するノード(あるいは人為的に指定されたノード)を選択し、当該ノードに係る重みの情報に基づいて基底画像データを生成することとしてもよい。つまり、上記の最も深い中間層など、特定の中間層から中間層の情報を抽出してもよいし、複数の中間層から中間層の情報が抽出されてもよい。 Although the intermediate layer extraction unit 23 extracts the information of the intermediate layer from the information of the weight between the input layer and the intermediate layer here, instead of or together with this, the intermediate layer and the output layer are extracted. The information of the intermediate layer may be extracted from the information of the weight of. That is, for example, when the neural network machine-learned by the machine learning unit 22 is an auto encoder, the intermediate layer for extracting information is the last layer on the encoder side (the deepest intermediate layer connected to the first layer on the decoder side). , A layer that represents a so-called latent variable). Further, the intermediate layer extracting unit 23 may extract the information of the intermediate layer from the information of the weight between arbitrary adjacent intermediate layers. Further, the intermediate layer extraction unit 23 selects a node (or an artificial node) from among the nodes in each intermediate layer, the information of the weight (the weight between each node in the adjacent layer) related to the node matches a predetermined criterion. It is also possible to select (the node designated by the above) and generate the base image data based on the information of the weight related to the node. That is, the information of the intermediate layer may be extracted from a specific intermediate layer such as the deepest intermediate layer described above, or the information of the intermediate layer may be extracted from a plurality of intermediate layers.

この場合、出力層にL個のノードがあるとき、中間層の一つのノードjに着目すると、L個の重みwij(i=1,2,…,L)が存在することとなる。そこで中間層抽出部23は、中間層の各ノード(j=1,2,…,N)についてのこのL個の重みをx×yのマトリクスに最も近い比率のマトリクスに配列した仮基底画像データを生成し、さらに各ノードについての仮基底画像データを、所定の方法でx×y画素の画像データにリサイズして、基底画像データとする。そして中間層抽出部23は、この基底画像データ(N個の画像データ)を、中間層の情報として出力する。 In this case, when there are L nodes in the output layer, focusing on one node j in the intermediate layer, there are L weights wij (i=1, 2,..., L). Therefore, the intermediate layer extracting unit 23 arranges the L weights for each node (j=1, 2,..., N) of the intermediate layer in a matrix having a ratio closest to the matrix of x×y. Is generated, and the temporary base image data for each node is resized into image data of x×y pixels by a predetermined method to obtain base image data. Then, the intermediate layer extraction unit 23 outputs this base image data (N pieces of image data) as intermediate layer information.

この基底画像データ(N個の画像データ)には、例えば図3に例示するように、機械学習の過程で入力された画像データ内のパターン(線分的なパターンや色彩のパターン等)が含まれるようになることが知られている(例えば、Dumitru Erhan, et.al., “Understanding Representations Leaned in Deep Architectures”, inet: https://www.researchgate.net/publication/265745969_Understanding_Representations_Learned_in_Deep_Architectures(平成30年10月10日検索))。本実施の形態では、この基底画像データを画像パターンとして用いることとする。 The base image data (N pieces of image data) includes, for example, as shown in FIG. 3, patterns (line segment patterns, color patterns, etc.) in the image data input in the machine learning process. (For example, Dumitru Erhan, et.al., “Understanding Representations Leaned in Deep Architectures”, inet: https://www.researchgate.net/publication/265745969_Understanding_Representations_Learned_in_Deep_Architectures (2018 Search on the 10th of the month)). In this embodiment, this base image data is used as an image pattern.

検索処理部30のパターン保持部31は、機械学習処理部20の中間層抽出部23が出力した基底画像データを保持する。このパターン保持部31は、中間層抽出部23が出力した基底画像データのすべてを画像パターンとして保持してもよいし、中間層抽出部23が出力した基底画像データのうちから予め定めた条件を満足する基底画像データのみを画像パターンとして保持してもよい。ここでの条件としては例えば、線分の画像を画像パターンとする場合、ハフ変換やRANSAC等の広く知られた線分検出処理を行い、検出された線分の数が予め定めた数以上となっていることを条件としてもよい。この例によると、線分としての特徴を有する基底画像データのみを選択的に画像パターンとして保持することとなる。 The pattern holding unit 31 of the search processing unit 30 holds the base image data output by the intermediate layer extraction unit 23 of the machine learning processing unit 20. The pattern holding unit 31 may hold all of the base image data output by the intermediate layer extraction unit 23 as an image pattern, or may set a predetermined condition among the base image data output by the intermediate layer extraction unit 23. Only satisfying base image data may be held as an image pattern. As a condition here, for example, when an image of a line segment is used as an image pattern, well-known line segment detection processing such as Hough transform and RANSAC is performed, and the number of detected line segments is equal to or more than a predetermined number. It may be on condition that it has become. According to this example, only the base image data having the feature as a line segment is selectively held as an image pattern.

また別の例では、パターン保持部31は、基底画像データのうち、所定の特徴量が予め定めた条件を満足するものを画像パターンとして選択して保持してもよい。ここで特徴量及び上記条件は例えば、ハール・ライク(Haar-Like)特徴量を用い、ハール・ライク特徴量の演算に用いる演算用パターン(エッジパターン、線分パターン、周辺パターンなど広く知られたものを用いればよい)との一致度が予め定めた閾値より高いとの条件であってもよい。 In another example, the pattern holding unit 31 may select and hold, as the image pattern, one of the base image data whose predetermined feature amount satisfies a predetermined condition. Here, the characteristic amount and the above-mentioned condition are, for example, widely known using a Haar-Like characteristic amount and a calculation pattern (edge pattern, line segment pattern, peripheral pattern, etc.) used for calculating the Haar-like characteristic amount. May be used)), and the condition that the degree of coincidence with the value is higher than a predetermined threshold value.

ここで一致度は、上記演算用パターンが有意画素(例えば黒色)となっている領域に対応する基底画像データ内の領域で、画素値の明度が予め定めた閾値より低くなっている画素の数PBNと、上記演算用パターンが有意画素でない(例えば白色)となっている領域に対応する基底画像データ内の領域で、画素値の明度が予め定めた閾値より高くなっている画素の数PWNとの和PBN+PWNなどとする。なお、領域の対応付けは、上記演算用パターンを、基底画像データのサイズに拡大または縮小(比率が一致しない場合は、演算用パターンの外接矩形を基底画像データのサイズに一致するよう拡大または縮小)して、画素を対応付けることにより行えばよい。 Here, the degree of coincidence is the number of pixels in which the brightness of the pixel value is lower than a predetermined threshold value in the region in the base image data corresponding to the region in which the calculation pattern is significant pixels (for example, black). PBN and the number of pixels PWN in which the brightness of the pixel value is higher than a predetermined threshold value in the region in the base image data corresponding to the region in which the calculation pattern is not a significant pixel (for example, white) Sum of PBN+PWN, etc. The areas are associated with each other by enlarging or reducing the calculation pattern to the size of the base image data (if the ratios do not match, enlarging or reducing the circumscribed rectangle of the calculation pattern to match the size of the base image data. ), and the pixels are associated with each other.

さらに、上記特徴量としてはHOG(Histograms of Oriented Gradients)特徴量を用いてもよい。この場合は、基底画像データからHOG特徴量を取り出し、取り出された輝度変化の境界線に対応する画素の数が予め定めたしきい値を超えるとの条件を満足する場合に、当該基底画像データを選択して画像パターンとして保持することとしてもよい。 Further, as the above feature amount, a HOG (Histograms of Oriented Gradients) feature amount may be used. In this case, when the HOG feature amount is extracted from the base image data and the condition that the number of pixels corresponding to the extracted boundary line of the brightness change exceeds a predetermined threshold value is satisfied, the base image data is extracted. May be selected and held as an image pattern.

この基底画像データのうちから画像パターンを選択する方法としては、このほかにも、ユーザの選択による方法など、種々の方法を採用し得る。 As a method for selecting an image pattern from the base image data, various methods such as a method selected by the user can be adopted in addition to this.

情報収集部32は、予め定めた規則に基づいてウェブページをクローリングし、取得したウェブページにて提供されている画像データを処理対象画像データとして特徴量演算部33に出力する。ここでクローリングの規則はリンクを辿る方法や、その他種々の方法が広く知られているので、ここでの詳しい説明は省略する。また、この情報収集部32は、特徴量演算部33により特徴量が演算された画像データの参照情報(当該画像データを取得したURL)を、特徴量保持部34に出力して、検索データベースへの記録を指示する。 The information collecting unit 32 crawls the web page based on a predetermined rule, and outputs the image data provided on the acquired web page to the feature amount computing unit 33 as the processing target image data. Here, as a crawling rule, a method of following a link and various other methods are widely known, and therefore a detailed description thereof will be omitted here. In addition, the information collecting unit 32 outputs the reference information of the image data (the URL from which the image data is acquired) of which the feature amount is calculated by the feature amount calculating unit 33 to the feature amount holding unit 34, and outputs it to the search database. Instruct to record.

特徴量演算部33は、処理の対象となる画像データの入力を受けて、当該画像データ(処理対象画像データ)と複数の基底画像データのそれぞれとの類似度を演算する。具体的にここでの類似度の演算は、処理対象画像データ内で、基底画像データと同じサイズのウィンドウを例えば所定ドット数ずつラスタスキャンしつつ、当該ウィンドウ内の部分画像を抽出し、基底画像データと当該部分画像との相互相関を演算する等の広く知られた方法で、パターンマッチング等の処理を行うことで実現できる。 The feature amount calculator 33 receives input of image data to be processed, and calculates the degree of similarity between the image data (image data to be processed) and each of the plurality of base image data. Specifically, the calculation of the similarity here is performed by raster-scanning a window having the same size as the base image data in the processing target image data by a predetermined number of dots, for example, and extracting a partial image in the window to obtain the base image. This can be realized by performing processing such as pattern matching by a widely known method such as calculating the cross-correlation between the data and the partial image.

ここで部分画像を抽出するためのウィンドウは、縦あるいは横方向の少なくとも一方に重複を許してスキャンすることとするのも好ましい。すなわち、基底画像データとの相互層間等を演算する部分画像は、処理対象画像データから重複を許して抽出されたものであってよい。このように重複を許して抽出すると、基底画像データとの対比の対象となるパターンが縦あるいは横方向にシフトしていても検出可能となる。 Here, it is preferable that the window for extracting the partial image is scanned while allowing overlap in at least one of the vertical and horizontal directions. That is, the partial image for calculating the mutual layer and the like with the base image data may be extracted from the processing target image data while allowing duplication. When extraction is performed while allowing overlap, it is possible to detect even if the pattern to be compared with the base image data is vertically or horizontally shifted.

また類似度は、例えば次のようにしても求められる。すなわち特徴量演算部33は、部分画像ごとの方向線素特徴量を得る。具体的に特徴量演算部33は、部分画像をさらに所定サイズのブロックに分割し、ブロックごとに方向線素特徴量を得る。ここでの方向線素特徴量は、4方向のものに限られない。4を超える多方向とする場合の方向線素特徴量の例については、ストロークを構成する特徴点間の線分の単位方向ベクトルと予め定めた種々の方向の単位ベクトル(線素パターン)との内積を得て方向線素特徴量とする例など、広く知られた方法を採用できるので、ここでの詳細な説明は省略する。 Further, the degree of similarity can be obtained, for example, as follows. That is, the feature amount calculation unit 33 obtains the direction line element feature amount for each partial image. Specifically, the feature amount calculation unit 33 further divides the partial image into blocks of a predetermined size, and obtains a directional line element feature amount for each block. The direction line element feature amounts here are not limited to those in four directions. For an example of the direction line element feature amount in the case of multiple directions exceeding 4, the unit direction vector of the line segment between the feature points forming the stroke and the unit vectors (line element patterns) of various predetermined directions are used. A widely known method such as an example in which the inner product is obtained and used as the directional line element feature amount can be adopted, and thus detailed description thereof is omitted here.

特徴量演算部33は、ブロックごとに得た方向線素特徴量を参照し、予め定められた各線素パターンが表わす線分の角度ごとに、対応する角度の線素パターンに関連する方向線素特徴量となっているブロックを特定する情報のリストを関連づけたデータを生成する。このデータを、以下、比較対象位相順データと呼ぶ。 The feature amount calculation unit 33 refers to the direction line element feature amount obtained for each block, and for each angle of the line segment represented by each predetermined line element pattern, the direction line element associated with the line element pattern of the corresponding angle. Data that associates a list of information that identifies blocks that are feature quantities is generated. Hereinafter, this data will be referred to as comparison target phase sequence data.

特徴量演算部33は、基底画像データの各々についても、予め、この例と同様に上記所定サイズのブロックに分割し、各ブロックの方向線素特徴量を得て、上記予め定められた各線素パターンが表わす線分の角度ごとに、対応する角度の線素パターンに関連する方向線素特徴量となっているブロックを特定する情報のリストを関連づけたデータを生成して記憶しておく。このデータを以下、検索用位相順データと呼ぶ。 The feature amount calculation unit 33 also divides each of the base image data into blocks of the above-described predetermined size in advance as in this example, obtains the directional line element feature amount of each block, and determines each of the predetermined line elements. For each angle of the line segment represented by the pattern, data is generated and stored in association with a list of information that identifies blocks that are directional line element feature amounts related to the line element pattern of the corresponding angle. Hereinafter, this data is referred to as search phase sequence data.

特徴量演算部33は、比較対象位相順データの角度ごとのリスト(ブロックを特定する情報の各々)と、基底画像データごとの検索位相順用データに含まれるリストとの差を演算する。具体的な例として、角度θについての比較対象位相順データにおいて、ブロックを特定する情報(dxi,dyi)(ここでi=0,1,2…)が含まれ、ある基底画像データの検索用位相順データにおいてブロックを特定する情報(xj,yj)(ここでj=0,1,2…)が含まれているときには、
ΣiΣj|(xj,yj)−(dxi,dyi)|
を演算して、この演算結果を、さらに角度θについて総和したものを、部分画像と、当該基底画像データとの距離dであるとする。なお、Σiは、iについて和をとることを意味し、Σjはjについて和をとることを意味する。また(dxi,dyi)または(xj,yj)は、リストのi(またはj)番目が、x軸方向にdx番目、y軸方向にdy番目(またはx軸方向にx番目、y軸方向にy番目)の位置のブロックを特定する情報であることを意味する。
The feature amount calculation unit 33 calculates the difference between the list (each piece of information specifying blocks) of the comparison target phase order data and the list included in the search phase order data for each base image data. As a specific example, the comparison target phase order data for the angle θ includes information (dxi, dyi) (here, i=0, 1, 2,...) That identifies a block, and is used for searching certain base image data. When information (xj, yj) (here, j=0, 1,...) Which specifies a block is included in the phase sequence data,
ΣiΣj|(xj, yj)-(dxi, dyi)|
Is calculated, and the sum of these calculation results for the angle θ is taken as the distance d between the partial image and the base image data. It should be noted that Σi means to take the sum for i, and Σj means to take the sum for j. Further, in (dxi, dyi) or (xj, yj), the i (or j)th of the list is dxth in the x-axis direction, dy-th in the y-axis direction (or x-th in the x-axis direction, in the y-axis direction). It means that it is the information that identifies the block at the y-th position.

また、特徴量演算部33は、抽出した部分画像に含まれる各画素と、それに隣接する画素との色の情報を用いて、距離dに対して重みを与えてもよい。 Further, the feature amount calculation unit 33 may give a weight to the distance d by using the color information of each pixel included in the extracted partial image and the pixel adjacent thereto.

例えば、特徴量演算部33は、部分画像(基底画像データと同じサイズ)内の画素と、基底画像データの対応する画素との差に基づく重みを与えてもよい。この場合、部分画像と、基底画像データとの対応する各画素について画素値の差の絶対値を総和したもの|e|を用い、この|e|を、先に演算した、部分画像と当該基底画像データとの距離dに加重して加算して補正距離D=α|e|+βdを求める(α、βは実験的に定められる正の重みの値)こととしてもよい。 For example, the feature amount calculation unit 33 may give a weight based on the difference between the pixel in the partial image (the same size as the base image data) and the corresponding pixel in the base image data. In this case, |e|, which is the sum of the absolute values of the pixel value differences for each of the corresponding pixels of the partial image and the base image data, is used, and this |e| The correction distance D=α|e|+βd may be obtained by weighting and adding to the distance d with the image data (α and β are positive weight values experimentally determined).

また、画素値の差ではなく、画素値の差の差を用いてもよい。この例では、特徴量演算部33は、抽出した部分画像に含まれる画素を順次、注目画素として選択する。そして特徴量演算部33は、注目画素に隣接する画素と、注目画素との色の差の絶対値(色空間上の距離)を演算する。この色の差は、例えば注目画素をラスタスキャン順(映像データの左上の画素から順に、左から右へ1ライン走査し、次に一つ下のラインへ移行して左から右へ…と、順次走査する順)に走査して選択する場合、直前の注目画素の画素値と、現在の注目画素の画素値との差としてもよいし、4近傍の各画素との差の平均などとしてもよい。 Further, the difference in the pixel values may be used instead of the difference in the pixel values. In this example, the feature amount calculation unit 33 sequentially selects the pixels included in the extracted partial image as the target pixel. Then, the feature amount calculation unit 33 calculates the absolute value (distance in the color space) of the color difference between the pixel adjacent to the target pixel and the target pixel. This color difference may be due to, for example, the pixel of interest in the raster scan order (from the pixel on the upper left of the video data, one line is scanned from left to right, then to the next lower line, and from left to right... When scanning and selecting in the sequential scanning order), the difference between the pixel value of the immediately preceding target pixel and the pixel value of the current target pixel may be used, or the average of the differences between the four neighboring pixels may be used. Good.

なお、特徴量演算部33は、距離dに対して、先に求めた部分画像内の画素の値(色)の差(色差)と、基底画像データの画素の値(色)の差(色差;部分画像と同様の方法で予め求めておく)との差を求める。具体的に部分画像と、ある基底画像データとにおける各対応画素の、それぞれの周辺画素との色差の値をcpz、cpdzとしたとき、特徴量演算部33は、その差f=cpz−cpdzを算出する。 Note that the feature amount calculation unit 33 determines the difference (color difference) between the pixel value (color) of the pixel in the partial image and the pixel value (color difference) of the base image data with respect to the distance d (color difference). ; Preliminarily obtained by the same method as for the partial image). Specifically, when the value of the color difference between each corresponding pixel in the partial image and certain base image data with respect to each peripheral pixel is cpz and cpdz, the feature amount calculation unit 33 determines the difference f=cpz-cpdz. calculate.

特徴量演算部33は、この値fの絶対値|f|を用いて、補正距離Dを、画素値の差の絶対値|e|とともに距離dに加重して加算し、
D=α|e|+βd+γ|f|
としてもよい(α、β,γは実験的に定められる正の重みの値)。
Using the absolute value |f| of this value f, the feature amount calculation unit 33 weights and adds the correction distance D to the distance d together with the absolute value |e| of the difference in pixel value,
D=α|e|+βd+γ|f|
(Α, β, γ are positive weight values determined experimentally).

これによると、色差が著しい部分が一致する場合とそうでない場合とを補正距離Dに影響させることができるようになり、例えば背景など色差が一般に大きくない部分の影響を軽減できる。 According to this, it becomes possible to influence the correction distance D when the portions where the color difference is significant coincide with each other, and it is possible to reduce the influence of the portion where the color difference is not generally large such as the background.

これらの例では、特徴量演算部33は、ここで求められる距離d(あるいは補正距離D)の逆数(dまたはDに所定の正の定数を加えて逆数をとってもよい)を、部分画像と基底画像データとの類似度とする。 In these examples, the feature amount calculation unit 33 uses the reciprocal of the distance d (or the corrected distance D) obtained here (or the reciprocal may be obtained by adding a predetermined positive constant to d or D) to the partial image and the base. The degree of similarity with the image data.

本実施の形態のこの例によると、ディープラーニングにおいて広く利用される畳み込みを採用した場合を超える効果を示す。 According to this example of the present embodiment, an effect that exceeds the case where the convolution widely used in deep learning is adopted is shown.

特徴量演算部33は、基底画像データごとに、処理対象画像データ中に、当該基底画像データとの間の類似度が予め定めたしきい値を超える(基底画像データのパターンに一致するパターンを有する)部分画像がいくつ見いだされたかをカウントする。 The feature amount calculation unit 33, for each base image data, the similarity between the target image data and the base image data exceeds a predetermined threshold value (a pattern that matches the pattern of the base image data Count) how many partial images were found.

そして特徴量演算部33は、基底画像データごとの上記カウント値を得て、所定の基底画像データの順(基底画像データを追加した順でよい)に当該カウント値を配列したヒストグラムの情報(ベクトル情報)を、処理対象画像データの特徴量として出力する。 Then, the feature amount calculation unit 33 obtains the count value for each base image data, and the histogram information (vectors) in which the count values are arranged in the order of the predetermined base image data (the order in which the base image data is added may be sufficient). Information) is output as the feature amount of the image data to be processed.

特徴量保持部34は、情報収集部32から特徴量の記録が指示されると、情報収集部32が出力する参照情報と、当該参照情報で特定されるアドレス等から情報収集部32が取得して出力した画像データについて特徴量演算部33が出力する特徴量とを関連付けて検索データベースに追加して記録する(図4)。なお、以下の説明で、検索データベースに格納された特徴量を検索コードと呼ぶ。 When the feature amount storage unit 34 is instructed by the information gathering unit 32 to record the feature amount, the feature amount holding unit 34 obtains from the reference information output by the information gathering unit 32, the address specified by the reference information, and the like. The image data thus output is added to the search database and recorded in association with the feature amount output by the feature amount calculation unit 33 (FIG. 4). In the following description, the feature amount stored in the search database will be called a search code.

本実施の形態において特徴的なことの一つは、このとき、検索データベースには処理対象画像データ(ウェブサイトから取得された画像データ)自体を記録する必要がないことである。これにより、画像データを保持するための記憶容量を削減でき、また、画像データに関わる著作権等の問題が生じることがない。 One of the features of the present embodiment is that at this time, it is not necessary to record the processing target image data (image data acquired from the website) in the search database. As a result, the storage capacity for holding the image data can be reduced, and there is no problem of copyright related to the image data.

受入部35は、ユーザから検索の対象となる画像データの入力を受け入れて、当該画像データを特徴量演算部33に対して、処理対象画像データとして出力する。 The acceptance unit 35 accepts an input of image data to be searched from the user, and outputs the image data to the feature amount calculation unit 33 as processing target image data.

検索部36は、受入部35が出力した画像データについて特徴量演算部33が演算した特徴量(検索対象特徴量と呼ぶ)の情報を受けて、当該検索対象特徴量に類似する検索コードを、検索データベースから検索する。ここで特徴量間の類似度は例えば次のように演算できる。 The search unit 36 receives the information of the feature amount (referred to as a search target feature amount) calculated by the feature amount calculation unit 33 for the image data output by the reception unit 35, and outputs a search code similar to the search target feature amount. Search from the search database. Here, the similarity between the feature amounts can be calculated as follows, for example.

本実施の形態のここでの例では、特徴量は、基底画像データごとのヒストグラムの情報であり、従って基底画像データの数だけの次元を有するベクトル量となっている。そこで、例えば正規化した(大きさを「1」とした)特徴量間(検索対象特徴量と検索コードとの間)の内積により特徴量の類似度を求めることができる(いわゆるコサイン類似度)。 In this example of the present embodiment, the feature amount is information of the histogram for each base image data, and is therefore a vector amount having dimensions as many as the number of base image data. Therefore, for example, the similarity of the feature amounts can be obtained by the inner product between the normalized feature amounts (the size is “1”) (between the search target feature amount and the search code) (so-called cosine similarity). ..

検索部36は、検索データベースに格納された検索コードの各々と、検索対象特徴量との間の類似度を演算し、類似度の高い検索コードの順に所定の数だけ、当該検索コードに関連付けられている参照情報を取得して出力する。なお、検索部36は、類似度が予め定めたしきい値を超える場合にのみ、当該類似度に係る検索コードに関連付けられた参照情報を取得することとしてもよい。 The search unit 36 calculates the degree of similarity between each of the search codes stored in the search database and the search target feature amount, and associates a predetermined number of search codes with the highest degree of similarity with the search codes. Get the reference information and output it. Note that the search unit 36 may acquire the reference information associated with the search code related to the similarity only when the similarity exceeds a predetermined threshold value.

情報出力部37は、検索部36が出力する参照情報のリスト(関連付けられた検索コードと検索対象特徴量との類似度が高い順に参照情報を配列したリスト)を、入力された画像データの検索結果として出力する。なお、類似度が予め定めたしきい値を超える場合に限ってこのリストに参照情報が含まれることとした場合、リストに参照情報が含まれない場合もある。この場合、情報出力部37は、入力された画像データに類似する画像データが見いだせなかった旨の情報を出力してもよい。 The information output unit 37 searches the input image data for a list of reference information output by the search unit 36 (a list in which reference information is arranged in descending order of similarity between the associated search code and the search target feature amount). Output as a result. If the reference information is included in this list only when the similarity exceeds a predetermined threshold value, the list may not include the reference information. In this case, the information output unit 37 may output information indicating that image data similar to the input image data could not be found.

[動作]
本実施の形態は基本的に以上の構成を備えており、次のように動作する。本実施の形態の情報処理装置1では、まず画像パターンを得るために、機械学習の処理が行われる。
[motion]
The present embodiment basically has the above configuration and operates as follows. In the information processing device 1 according to the present embodiment, first, a machine learning process is performed to obtain an image pattern.

すなわち情報処理装置1の制御部11は、機械学習の対象となるデータの入力を受け入れる。ここでは機械学習の対象となるデータは画像データであるとする。制御部11は、オートエンコーダ等、中間層を少なくとも一つ含むニューラルネットワークの機械学習処理を実行する。このニューラルネットワークは必ずしもオートエンコーダのように教師なし学習でなくてもよく、CNN(畳み込みネットワーク)を用いた画像分類の機械学習処理が実行されてもよい。教師付きの機械学習を行う場合は、入力する画像データに対応する教師データが用意されているものとする。またこの機械学習の対象とするニューラルネットワークは、複数の中間層を有するものであってもよい。 That is, the control unit 11 of the information processing device 1 accepts input of data to be machine-learned. Here, it is assumed that the data to be machine-learned is image data. The control unit 11 executes machine learning processing of a neural network including at least one intermediate layer such as an auto encoder. This neural network does not necessarily have to be unsupervised learning like an automatic encoder, and machine learning processing for image classification using CNN (convolutional network) may be executed. When performing machine learning with a teacher, it is assumed that teacher data corresponding to input image data is prepared. The neural network that is the target of this machine learning may have a plurality of intermediate layers.

情報処理装置1は、受け入れた画像データを、所定のサイズにリサイズしてニューラルネットワークの入力層に入力し、ニューラルネットワークの出力が目的のデータとなるように、当該目的のデータと出力との差に基づいて、ニューラルネットワーク内の入力層と中間層との間の重みの情報、及び中間層と出力層との間の重みの情報(複数の中間層が含まれる場合はさらに中間層の間の重みの情報)を設定する。この処理は、一般的なニューラルネットワークの機械学習処理と同じものであるので、ここでの詳しい説明は省略する。 The information processing apparatus 1 resizes the received image data to a predetermined size and inputs the resized image data to the input layer of the neural network, so that the output of the neural network becomes the target data and the difference between the target data and the output is obtained. Based on, the weight information between the input layer and the intermediate layer in the neural network, and the weight information between the intermediate layer and the output layer (if multiple intermediate layers are included, further between the intermediate layers). Weight information). Since this processing is the same as the machine learning processing of a general neural network, detailed description thereof is omitted here.

なお、オートエンコーダを用いる場合は、ここでの目的のデータは入力する画像データそのものとなる。 When the auto encoder is used, the target data here is the input image data itself.

情報処理装置1は、複数の画像データに基づく機械学習を行った後、機械学習されたニューラルネットワークの中間層の情報を抽出して出力する。既に述べたように、ここでの例では中間層の各ノードについて、当該ノードに入力される、あるいは当該ノードが出力する複数個の重みの情報を、所定のサイズ(横xピクセル、縦yピクセル)に配列して基底画像データを生成し、このノードごとに得られる基底画像データを中間層の情報として出力する。 The information processing apparatus 1 performs machine learning based on a plurality of image data and then extracts and outputs the machine learned information of the intermediate layer of the neural network. As described above, in this example, for each node of the intermediate layer, information of a plurality of weights input to or output from the node is set to a predetermined size (horizontal x pixel, vertical y pixel). ) To generate base image data, and output the base image data obtained for each node as information of the intermediate layer.

また検索の処理を行う情報処理装置1は、次のように動作する。本実施の形態において特徴的なことの一つは、検索の処理を行う情報処理装置1では、ニューラルネットワークを用いる必要がなく、ニューラルネットワークを保持する必要も、その重みを更新したり、ニューラルネットワークに情報を入力してその出力を演算したりする必要もないことである。 Further, the information processing device 1 that performs the search process operates as follows. One of the characteristic features of the present embodiment is that the information processing apparatus 1 that performs a search process does not need to use a neural network, needs to hold a neural network, updates its weight, or has a neural network. It is not necessary to input information into and to calculate the output.

本実施の形態の例に係る、検索の処理を行う情報処理装置1は、基底画像データを保持する。そして検索データベースの生成処理と、検索データベースからの検索処理とを実行する。 The information processing device 1 that performs the search process according to the example of the present embodiment holds the base image data. Then, a search database generation process and a search database search process are executed.

まず検索データベースの生成処理を行う情報処理装置1は、予め定めた規則に基づいてウェブページをクローリングし、取得したウェブページにて提供されている画像データを処理対象画像データとする。 First, the information processing apparatus 1 that performs the process of generating the search database crawls the web page based on a predetermined rule, and sets the image data provided on the acquired web page as the processing target image data.

そして情報処理装置1は、処理の対象となる画像データ(基底画像データより縦横のサイズが大きいものとする)の入力を受けて、当該画像データ(処理対象画像データ)と複数の基底画像データのそれぞれとの類似度を演算する。本実施の形態の一例では、類似度の演算は、処理対象画像データ内で、基底画像データと同じサイズのウィンドウをラスタスキャンしつつ、当該ウィンドウ内の部分画像を抽出し、基底画像データと当該部分画像との相互相関を演算する等の広く知られた方法で、パターンマッチング等の処理を行って実行する。 Then, the information processing device 1 receives the input of the image data to be processed (the vertical and horizontal sizes are larger than the basic image data), and receives the image data (processing target image data) and the plurality of basic image data. The degree of similarity with each is calculated. In the example of the present embodiment, the similarity calculation is performed by raster-scanning a window having the same size as the base image data in the processing target image data, extracting a partial image in the window, and extracting the partial image in the window. A widely known method such as calculating a cross-correlation with a partial image is used to perform processing such as pattern matching.

既に述べたように、ここで部分画像を抽出するためのウィンドウは、縦あるいは横方向の少なくとも一方に重複を許してスキャンすることとしてよい。 As described above, the window for extracting the partial image may be scanned while allowing overlap in at least one of the vertical and horizontal directions.

情報処理装置1は、基底画像データごとに、処理対象画像データ中に、当該基底画像データとの間の類似度が予め定めたしきい値を超える(基底画像データのパターンに一致するパターンを有する)部分画像がいくつ見いだされたかをカウントする。 The information processing apparatus 1 has, for each piece of base image data, the similarity with the base image data in the processing target image data exceeds a predetermined threshold value (has a pattern that matches the pattern of the base image data). ) Count how many partial images were found.

情報処理装置1は、基底画像データごとの上記カウント値を得て、所定の基底画像データの順(基底画像データを追加した順でよい)に当該カウント値を配列したヒストグラムの情報(ベクトル情報)を、処理対象画像データの特徴量として、処理の対象として入力された画像データの取得元となったURL(参照情報)に関連付けて、検索データベースとして蓄積して格納する。 The information processing apparatus 1 obtains the count value for each piece of base image data, and histogram information (vector information) in which the count values are arranged in the order of predetermined base image data (the order in which the base image data is added may be used). Is stored as a search database in association with the URL (reference information) from which the image data input as the processing target is acquired, as the feature amount of the processing target image data.

情報処理装置1のこの処理により、図4に例示したように、画像データの参照情報(URL)と、当該画像データに含まれる基底画像データである各画像パターンの数を列挙したベクトル情報(検索コード)とが関連付けて検索データベースとして、記憶部12に格納された状態となる。 By this processing of the information processing apparatus 1, as shown in FIG. 4, reference information (URL) of image data and vector information enumerating the number of each image pattern which is the base image data included in the image data (search) And a code) are stored in the storage unit 12 as a search database.

情報処理装置1は、この検索データベースの生成の処理を所定のタイミングごとに繰り返して実行してもよい。 The information processing device 1 may repeatedly execute the process of generating the search database at every predetermined timing.

次に検索処理を実行する情報処理装置1は、検索の対象となる画像データの入力をユーザから受け入れて次のように動作する。 Next, the information processing apparatus 1 that executes the search process receives the input of the image data to be searched from the user and operates as follows.

情報処理装置1は、検索の対象となる画像データについて当該画像データと複数の基底画像データのそれぞれとの類似度を演算する。そして情報処理装置1は、基底画像データごとに、処理対象画像データ中に、当該基底画像データとの間の類似度が予め定めたしきい値を超える(基底画像データのパターンに一致するパターンを有する)部分画像がいくつ見いだされたかをカウントする。 The information processing apparatus 1 calculates the similarity between the image data to be searched and each of the plurality of base image data. Then, the information processing apparatus 1 has, for each base image data, the similarity between the target image data and the base image data exceeds a predetermined threshold value (a pattern that matches the pattern of the base image data is Count) how many partial images were found.

情報処理装置1は、基底画像データごとの上記カウント値を得て、所定の基底画像データの順(検索コードと同じ順)に当該カウント値を配列したヒストグラムの情報(ベクトル情報)を、検索の対象となった画像データの特徴量(検索対象特徴量)とする。 The information processing device 1 obtains the count value for each base image data and retrieves the information (vector information) of the histogram in which the count values are arranged in a predetermined base image data order (the same order as the search code). The feature amount of the target image data (search target feature amount) is set.

そして情報処理装置1は、この検索対象特徴量に類似する検索コードを、検索データベースから検索する。ここで特徴量間の類似度は正規化した(大きさを「1」とした)特徴量間(検索対象特徴量と検索コードとの間)の内積でよい。 Then, the information processing device 1 searches the search database for a search code similar to the search target feature amount. Here, the similarity between the feature amounts may be an inner product of the normalized feature amounts (the size is “1”) (between the search target feature amount and the search code).

情報処理装置1は、検索データベースに格納された検索コードの各々と、検索対象特徴量との間の類似度を演算し、類似度の高い検索コードの順に所定の数だけ、当該検索コードに関連付けられている参照情報を取得する。そして情報処理装置1は、当該取得した参照情報のリスト(関連付けられた検索コードと検索対象特徴量との類似度が高い順に参照情報を配列したリスト)を、入力された画像データの検索結果として出力する。 The information processing apparatus 1 calculates the degree of similarity between each of the search codes stored in the search database and the search target characteristic amount, and associates a predetermined number of search codes with the highest degree of similarity with the search code. Get the reference information. Then, the information processing apparatus 1 uses the acquired list of reference information (a list in which reference information is arranged in descending order of similarity between the associated search code and the search target feature amount) as the search result of the input image data. Output.

なお、ここまでの説明において一つの情報処理装置1が、機械学習の処理と、検索データベースの生成の処理と、検索の処理とを行う例について説明したが、本実施の形態はこれに限られず、例えば機械学習の処理を行う情報処理装置1と、その他の処理を行う情報処理装置1とは別のものであってもよい。この場合、検索データベースの生成処理や検索の処理を行う情報処理装置1は、基底画像データの情報を、機械学習の処理を行う情報処理装置1から取得する。既に述べたように、このとき検索データベースの生成処理や検索の処理を行う情報処理装置1は、基底画像データを生成するもととなったニューラルネットワークの情報(ニューラルネットワークを再現するための、全ての重みの情報等)は必ずしも必要でなく、基底画像データを保持するだけでよい。 Note that, in the above description, an example in which one information processing device 1 performs a machine learning process, a search database generation process, and a search process has been described, but the present embodiment is not limited to this. For example, the information processing device 1 that performs the machine learning process and the information processing device 1 that performs other processes may be different. In this case, the information processing device 1 that performs the search database generation process and the search process acquires the information of the base image data from the information processing device 1 that performs the machine learning process. As described above, the information processing apparatus 1 that performs the process of generating the search database and the process of searching at this time has information on the neural network that is the source of the base image data. Information on the weights of 1) is not always necessary, and only the base image data need be held.

また、検索データベースの生成処理を行う情報処理装置1と、検索の処理を行う情報処理装置1も別体のものであってもよい。この場合、検索の処理を行う情報処理装置1は、検索データベースの生成処理を行う情報処理装置1から検索データベースの入力を受けて保持する。 Further, the information processing device 1 that performs the search database generation process and the information processing device 1 that performs the search process may be separate entities. In this case, the information processing apparatus 1 that performs the search process receives the input of the search database from the information processing apparatus 1 that performs the process of generating the search database, and holds the search database.

本実施の形態によると、検索データベースの生成や検索の処理において、画像パターンである基底画像データを用いるために、ニューラルネットワークの演算の必要がなく、パターンマッチング等の比較的軽量な処理によって各処理を実行できる。 According to the present embodiment, since the base image data that is the image pattern is used in the process of generating the search database and the process of the search, there is no need for the calculation of the neural network, and each process is performed by a relatively lightweight process such as pattern matching. Can be executed.

[既知のデータとの照合]
また、本実施の形態の一例では、既知のデータ、例えばタイヤ、ヘッドライト、窓、などといった、何が撮影されているかが分かっている画像データとの照合が行われてもよい。
[Match with known data]
Further, in the example of the present embodiment, matching may be performed with known data, for example, image data such as tires, headlights, windows, etc., in which what is captured is known.

この例では予め、既知の物体(上記のタイヤ等)が撮像されている画像データを処理対象画像データとして入力し、特徴量演算部33の動作を行わせて検索コードとなる特徴量を得ておく。以下、この既知の物体の画像データに基づく検索コードを、既知コードと呼ぶ。本実施の形態では、この既知コードを撮像されている物体の名称(既知の物体を特定する情報)に関連付けて記憶部12に格納して保持しておく。 In this example, image data of a known object (such as the tire) is input in advance as image data to be processed, and the operation of the characteristic amount calculation unit 33 is performed to obtain the characteristic amount as a search code. deep. Hereinafter, the search code based on the image data of this known object will be referred to as a known code. In the present embodiment, this known code is stored and held in the storage unit 12 in association with the name of the imaged object (information for identifying the known object).

そしてこの例ではさらに、制御部11は、特徴量演算部33が処理の対象とする画像データ(処理対象画像データ)に対し、当該処理対象画像データのうち予め定めた方法で決定される部分領域を少なくとも一つ抽出する。この部分領域は例えば画像データを32×32のマトリクスに分割したそれぞれとしてもよいし、画像データの4つの隅をそれぞれ含む、所定サイズの領域(この場合、各部分領域は互いに重なり合う部分が含まれてもよい)であってもよい。 Then, in this example, the control unit 11 further determines, for the image data (processing target image data) to be processed by the feature amount calculating unit 33, a partial region of the processing target image data that is determined by a predetermined method. At least one is extracted. This partial area may be, for example, image data divided into a matrix of 32×32, or may be an area of a predetermined size including four corners of the image data (in this case, each partial area includes overlapping portions). It may be).

制御部11は、ここで抽出した部分領域ごとに当該部分領域内の特徴量(部分特徴量と呼ぶ)を特徴量演算部33に演算させる。そして記憶部12に格納した既知コードと当該部分特徴量とを比較し、当該部分特徴量との類似度が予め定めたしきい値を超える既知コードがあれば、当該既知コードに関連付けられた物体の名称の情報を取得する。 The control unit 11 causes the feature amount calculation unit 33 to calculate the feature amount (referred to as a partial feature amount) in each partial region extracted here. Then, the known code stored in the storage unit 12 is compared with the partial feature quantity, and if there is a known code whose similarity to the partial feature quantity exceeds a predetermined threshold value, the object associated with the known code Gets the name information of.

制御部11は、各部分領域について得られた物体の名称の一覧、処理対象画像データに係る物体リストとして、処理対象画像データについて情報収集部32から特徴量の記録が指示されているときには、情報収集部32が出力する参照情報と、当該参照情報で特定されるアドレス等から情報収集部32が取得して出力した画像データについて特徴量演算部33が出力する特徴量とともに、さらにここで得た物体リストを関連付けて検索データベースに追加して記録する。なお、どの部分領域からも物体の名称が得られなかったときには、物体リストとして空のリストを記録する。 When the information collection unit 32 gives an instruction to record the feature amount for the processing target image data as a list of object names obtained for each partial area and an object list related to the processing target image data, the control unit 11 returns the information The reference information output by the collection unit 32 and the feature amount output by the feature amount calculation unit 33 for the image data acquired and output by the information collection unit 32 from the address specified by the reference information and the like are obtained here. The object list is associated and added to the search database and recorded. If no object name is obtained from any of the partial areas, an empty list is recorded as the object list.

また制御部11は、検索部36の処理として、受け入れた画像データについて特徴量演算部33が演算した検索対象特徴量を取得するとともに、当該受け入れた画像データに基づいて物体リストを生成する。この検索の対象となる物体リストを、以下検索対象リストと呼ぶ。 Further, as the processing of the search unit 36, the control unit 11 acquires the search target feature amount calculated by the feature amount calculation unit 33 for the received image data, and generates the object list based on the received image data. The object list that is the target of this search is hereinafter referred to as the search target list.

制御部11は、ここで取得した検索対象特徴量に類似する検索コードを、検索データベースから検索し、類似度の高い順に、検索コードとともに参照情報に関連付けられている物体リストを取得し、検索対象リストと比較する。 The control unit 11 searches the search database for a search code that is similar to the acquired search target feature amount, acquires the object list associated with the reference information together with the search code in descending order of similarity, and searches for the search target. Compare with list.

そして制御部11は、検索対象特徴量に類似する検索コード(検索対象特徴量との間で特徴量間の内積が予め定めたしきい値を超える検索コード)のそれぞれについて、当該検索コードに関連付けられている物体リストに含まれる物体の名称のうち、検索対象リストにも含まれる物体の名称の数をカウントした値nを検索コードに関連付けられている物体リストに含まれる物体の名称の数Nで除した値n/Nを、対象一致度として求める。 Then, the control unit 11 associates each of the search codes similar to the search target feature quantity (search code in which the inner product between the feature quantities with the search target feature quantity exceeds a predetermined threshold value) to the search code. The number n of object names included in the object list associated with the search code is a value n obtained by counting the number of object names included in the search target list among the object names included in the object list. The value n/N divided by is obtained as the target degree of coincidence.

制御部11は、検索対象特徴量に類似する検索コードのうち、対象一致度が所定のしきい値を超える検索コードについて、検索対象特徴量に対する類似度の高い順に、所定の数以下の数だけ、当該検索コードに関連付けられた参照情報を取得して出力する。 Among the search codes similar to the search target feature amount, the control unit 11 determines, for the search codes whose target matching degree exceeds a predetermined threshold value, a predetermined number or less in descending order of similarity to the search target feature amount. , Obtains and outputs the reference information associated with the search code.

本実施の形態のこの例によると、例えば自動車のタイヤが撮像されている画像データを検索の対象として入力したときに、タイヤと同様の円形である(分類パターンは一致する)が、タイヤとは異なる物体が含まれる画像データの参照情報が検索の結果として出力される機会を低減できる。 According to this example of the present embodiment, for example, when image data in which a tire of an automobile is imaged is input as a search target, it has a circular shape similar to the tire (the classification patterns match), but the tire is It is possible to reduce the chance that the reference information of the image data including different objects is output as a result of the search.

[変形例]
またここまでの説明では、処理の対象となるデータは画像データとしていたが本実施の形態はこれに限られず、文字列やその他のデータであってもよい。この場合も、機械学習により学習されたニューラルネットワークの中間層の重みの情報をデータパターンとして、処理の対象とするデータについて、当該データに含まれる各データパターンの数をカウントする。
[Modification]
In the above description, the data to be processed is image data, but the present embodiment is not limited to this, and may be a character string or other data. Also in this case, the number of each data pattern included in the data to be processed is counted for the data to be processed using the information of the weight of the intermediate layer of the neural network learned by machine learning as the data pattern.

そして、このデータパターンごとのカウント値を、所定の順(データパターンについて予め定められた順)に配列してヒストグラムを表すベクトル情報を生成し、このベクトル情報を特徴量(特徴ベクトル情報)として、所定の処理を実行することとしてもよい。 Then, the count values for each data pattern are arranged in a predetermined order (predetermined order for the data pattern) to generate vector information representing a histogram, and this vector information is used as a feature amount (feature vector information), The predetermined process may be executed.

[色成分ごとの処理を行う変形例]
またここまでに説明した本実施の形態の情報処理装置1は、画像データを色成分ごとに分けて機械学習や検索の処理を行うこととしてもよい。
[Modified example in which processing is performed for each color component]
Further, the information processing apparatus 1 according to the present embodiment described so far may divide image data into color components and perform machine learning and search processing.

具体的に制御部11は、機械学習の対象となる画像データの入力を受け入れると、この画像データを所定のサイズにリサイズし、さらに例えばRGBの各成分の画像データ(以下、区別のため、成分画像データと呼ぶ)に分割する。ここで、画像データをR成分、G成分、B成分など、色成分ごとの成分画像データに分割する方法は、広く知られているので、詳しい説明を省略する。また、以下では、RGBに分解する例について説明するが、RGBの成分でなくても、HSV(色相、彩度、明度)に分解してもよいし、その他の色空間の各成分に分解してもよい。 Specifically, when the control unit 11 receives an input of image data to be machine-learned, the control unit 11 resizes this image data to a predetermined size, and further, for example, image data of each component of RGB (hereinafter, for the sake of distinction, (Called image data). Here, a method of dividing image data into component image data for each color component such as R component, G component, and B component is widely known, and therefore detailed description thereof will be omitted. Also, although an example of separating into RGB will be described below, it may be decomposed into HSV (hue, saturation, lightness) instead of RGB components, or into other color space components. May be.

制御部11は、色成分ごとのニューラルネットワークのモデルの情報を保持し、これらのニューラルネットワークを機械学習する。すなわち制御部11は、分解して得られた成分画像データを、当該成分画像データの色成分に対応するニューラルネットワークの入力層に入力し、このニューラルネットワークの出力が目的のデータとなるように、当該目的のデータと出力との差に基づいて、ニューラルネットワーク内の入力層と中間層との間の重みの情報、及び中間層と出力層との間の重みの情報(複数の中間層が含まれる場合はさらに中間層の間の重みの情報)を設定する。 The control unit 11 holds information on the model of the neural network for each color component, and machine-learns these neural networks. That is, the control unit 11 inputs the component image data obtained by the decomposition into the input layer of the neural network corresponding to the color components of the component image data, so that the output of this neural network becomes the target data. Based on the difference between the target data and the output, information on the weight between the input layer and the intermediate layer in the neural network, and information on the weight between the intermediate layer and the output layer (including multiple intermediate layers) If it is set, the weight information between the intermediate layers is set.

情報処理装置1は、複数の画像データのそれぞれの成分画像データに基づいて、各成分に対応するニューラルネットワークの機械学習を行った後、機械学習された各ニューラルネットワークの中間層の情報を抽出して出力する。既に述べたように、ここでの例では中間層の各ノードについて、当該ノードに入力される、あるいは当該ノードが出力する複数個の重みの情報を、所定のサイズに配列して基底画像データを生成し、このノードごとに得られる基底画像データを中間層の情報として出力することとなる。 The information processing apparatus 1 performs machine learning of a neural network corresponding to each component based on each component image data of a plurality of image data, and then extracts information on the intermediate layer of each neural network subjected to machine learning. Output. As described above, in this example, for each node in the intermediate layer, information on a plurality of weights input to or output from the node is arranged in a predetermined size to obtain base image data. The base image data generated and obtained for each node is output as information of the intermediate layer.

本実施の形態のここでの例では、上記中間層の情報が色成分ごとに得られることとなるので、基底画像データも色成分ごとに得られることとなる。 In this example of the present embodiment, since the information of the intermediate layer is obtained for each color component, the base image data is also obtained for each color component.

そして検索の処理を行う情報処理装置1では、上述のようにして得られる、色成分ごとの(各色成分に対応する)基底画像データを保持する。そして検索データベースの生成処理と、検索データベースからの検索処理とを実行する。 Then, the information processing apparatus 1 that performs the search process holds the base image data for each color component (corresponding to each color component) obtained as described above. Then, a search database generation process and a search database search process are executed.

まず検索データベースの生成処理を行う情報処理装置1は、予め定めた規則に基づいてウェブページをクローリングし、取得したウェブページにて提供されている画像データを処理対象画像データとする。 First, the information processing apparatus 1 that performs the process of generating the search database crawls the web page based on a predetermined rule, and sets the image data provided on the acquired web page as the processing target image data.

そして情報処理装置1は、処理の対象となる画像データ(基底画像データより縦横のサイズが大きいものとする)の入力を受けて、当該画像データ(処理対象画像データ)を色成分(基底画像データの各色成分と同じ色成分)に分解して、処理対象成分画像データを得る。 Then, the information processing apparatus 1 receives the image data to be processed (the vertical and horizontal sizes are larger than the basic image data), and receives the image data (processing target image data) as a color component (basic image data). (The same color component as each color component of) is obtained to obtain the processing target component image data.

情報処理装置1は、色成分のそれぞれに対応して得られた処理対象成分画像データと、対応する色成分に係る複数の基底画像データのそれぞれとの類似度を演算する。本実施の形態の一例では、類似度の演算は、色成分ごとの処理対象成分画像データ内で、基底画像データと同じサイズのウィンドウをラスタスキャンしつつ、当該ウィンドウ内の部分画像を抽出し、当該処理対象成分画像データの色成分に対応する基底画像データと当該部分画像との相互相関を演算する等の広く知られた方法で、パターンマッチング等の処理を行って実行する。 The information processing apparatus 1 calculates the degree of similarity between the processing target component image data obtained corresponding to each color component and each of the plurality of base image data relating to the corresponding color component. In the example of the present embodiment, the similarity calculation is performed by raster-scanning a window having the same size as the base image data in the processing target component image data for each color component, and extracting a partial image in the window, Processing such as pattern matching is performed and executed by a widely known method such as calculating the cross-correlation between the base image data corresponding to the color component of the processing target component image data and the partial image.

ここでも部分画像を抽出するためのウィンドウは、縦あるいは横方向の少なくとも一方に重複を許してスキャンすることとしてよい。つまり、基底画像データとの相互層間等を演算する部分画像は、処理対象画像データから重複を許して抽出されたものであってよい。このように重複を許して抽出すると、基底画像データとの対比の対象となるパターンが縦あるいは横方向にシフトしていても検出可能となる。 Also in this case, the window for extracting the partial image may be scanned while allowing overlap in at least one of the vertical and horizontal directions. That is, the partial image for calculating the inter-layer and the like with the base image data may be extracted from the processing target image data while allowing duplication. When extraction is performed while allowing overlap, it is possible to detect even if the pattern to be compared with the base image data is vertically or horizontally shifted.

情報処理装置1は、対応する色成分に係る基底画像データごとに、処理対象成分画像データ中に、当該基底画像データとの間の類似度が予め定めたしきい値を超える(基底画像データのパターンに一致するパターンを有する)部分画像がいくつ見いだされたかをカウントする。 The information processing apparatus 1 includes, for each piece of base image data relating to the corresponding color component, the similarity with the base image data in the processing target component image data exceeds a predetermined threshold value (the base image data Count how many partial images were found (having a pattern that matches the pattern).

情報処理装置1は、色成分ごと、かつ、基底画像データごとの上記カウント値を得て、予め定めた各色成分の基底画像データの順に当該カウント値を配列したヒストグラムの情報(ベクトル情報)を、処理対象画像データの特徴量として、処理の対象として入力された画像データの取得元となったURL(参照情報)に関連付けて、検索データベースとして蓄積して格納する。 The information processing apparatus 1 obtains the count value for each color component and for each base image data, and obtains information (vector information) of a histogram in which the count values are arranged in order of the base image data of each predetermined color component, As the feature amount of the image data to be processed, it is accumulated and stored as a search database in association with the URL (reference information) from which the image data input as the process target is acquired.

情報処理装置1のこの処理により、図4に例示したものと同様に、画像データの参照情報(URL)と、当該画像データに含まれる基底画像データである各画像パターンの数を列挙したベクトル情報(検索コード)とが関連付けて検索データベースとして、記憶部12に格納された状態となる。 By this processing of the information processing device 1, similar to the example illustrated in FIG. 4, reference information (URL) of the image data and vector information listing the number of each image pattern that is the base image data included in the image data. (Search code) is associated and stored as a search database in the storage unit 12.

この例でも情報処理装置1は、この検索データベースの生成の処理を所定のタイミングごとに繰り返して実行してもよい。 Also in this example, the information processing apparatus 1 may repeatedly execute the process of generating the search database at every predetermined timing.

またこの例において検索処理を実行する情報処理装置1は、検索の対象となる画像データの入力をユーザから受け入れて次のように動作する。 Further, in this example, the information processing apparatus 1 that executes the search process receives the input of the image data to be searched from the user and operates as follows.

情報処理装置1は、検索の対象となる画像データを、機械学習に用いた色空間の成分と同じ色成分の画像データ(例えばRGBの各成分の成分画像データ)に分割する。 The information processing device 1 divides the image data to be searched into image data of the same color components as the components of the color space used for machine learning (for example, component image data of RGB components).

そして情報処理装置1は、分割して得られた成分画像データと、対応する色成分に係る複数の基底画像データのそれぞれとの類似度を演算する。本実施の形態の一例では、類似度の演算は、成分画像データ内で、基底画像データと同じサイズのウィンドウをラスタスキャンしつつ、当該ウィンドウ内の部分画像を抽出し、当該成分画像データの色成分に対応する基底画像データと当該部分画像との相互相関を演算する等の広く知られた方法で、パターンマッチング等の処理を行って実行する。 Then, the information processing device 1 calculates the degree of similarity between the component image data obtained by division and each of the plurality of base image data relating to the corresponding color component. In the example of the present embodiment, the similarity calculation is performed by raster-scanning a window having the same size as the base image data in the component image data, extracting a partial image in the window, and calculating the color of the component image data. Processing such as pattern matching is performed and executed by a widely known method such as calculating the cross-correlation between the base image data corresponding to the component and the partial image.

情報処理装置1は、対応する色成分に係る基底画像データごとに、成分画像データ中に、当該基底画像データとの間の類似度が予め定めたしきい値を超える(基底画像データのパターンに一致するパターンを有する)部分画像がいくつ見いだされたかをカウントする。 The information processing device 1 includes, for each of the base image data relating to the corresponding color component, the similarity between the component image data and the base image data exceeds a predetermined threshold value (in the pattern of the base image data, Count how many sub-images (with matching patterns) were found.

情報処理装置1は、基底画像データごとの上記カウント値を得て、所定の基底画像データの順(検索コードと同じ順)に当該カウント値を配列したヒストグラムの情報(ベクトル情報)を、検索の対象となった画像データの特徴量(検索対象特徴量)とする。 The information processing device 1 obtains the count value for each base image data and retrieves the information (vector information) of the histogram in which the count values are arranged in a predetermined base image data order (the same order as the search code). The feature amount of the target image data (search target feature amount) is set.

そして情報処理装置1は、この検索対象特徴量に類似する検索コードを、検索データベースから検索する。ここで特徴量間の類似度は正規化した(大きさを「1」とした)特徴量間(検索対象特徴量と検索コードとの間)の内積でよい。 Then, the information processing device 1 searches the search database for a search code similar to the search target feature amount. Here, the similarity between the feature amounts may be an inner product of the normalized feature amounts (the size is “1”) (between the search target feature amount and the search code).

情報処理装置1は、検索データベースに格納された検索コードの各々と、検索対象特徴量との間の類似度を演算し、類似度の高い検索コードの順に所定の数だけ、当該検索コードに関連付けられている参照情報を取得する。そして情報処理装置1は、当該取得した参照情報のリスト(関連付けられた検索コードと検索対象特徴量との類似度が高い順に参照情報を配列したリスト)を、入力された画像データの検索結果として出力する。 The information processing apparatus 1 calculates the degree of similarity between each of the search codes stored in the search database and the search target characteristic amount, and associates a predetermined number of search codes with the highest degree of similarity with the search code. Get the reference information. Then, the information processing apparatus 1 uses the acquired list of reference information (a list in which reference information is arranged in descending order of similarity between the associated search code and the search target feature amount) as the search result of the input image data. Output.

1 情報処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 通信部、20 機械学習処理部、21 受入部、22 機械学習部、23 中間層抽出部、30 検索処理部、31 パターン保持部、32 情報収集部、33 特徴量演算部、34 特徴量保持部、35 受入部、36 検索部、37 情報出力部。
DESCRIPTION OF SYMBOLS 1 information processing device, 11 control part, 12 memory part, 13 operation part, 14 display part, 15 communication part, 20 machine learning processing part, 21 acceptance part, 22 machine learning part, 23 middle class extraction part, 30 search processing part , 31 pattern holding unit, 32 information collecting unit, 33 feature amount calculating unit, 34 feature amount holding unit, 35 receiving unit, 36 searching unit, 37 information output unit.

Claims (4)

機械学習により獲得された複数のデータのパターンを保持する保持手段と、
処理対象となるデータの入力を受けて、前記複数のデータのパターンごとに、前記処理対象データのうち、前記データのパターンのそれぞれと類似すると判定される部分の数をカウントして、当該カウントの結果に基づく特徴ベクトル情報を生成する特徴量生成手段と、
前記特徴ベクトル情報を用いて、前記処理対象データに関わる所定の処理を実行する実行手段と、
を含む情報処理装置。
Holding means for holding a pattern of a plurality of data acquired by machine learning,
In response to the input of the data to be processed, for each of the plurality of data patterns, the number of portions of the data to be processed that are determined to be similar to each of the data patterns is counted, and Feature amount generating means for generating feature vector information based on the result,
An execution unit that executes a predetermined process relating to the process target data by using the feature vector information;
Information processing device including.
請求項1記載の情報処理装置であって、前記データは、画像データであり、
前記保持手段は、機械学習により獲得された複数の画像パターンを保持し、
前記特徴量生成手段は、処理対象となる画像データの入力を受けて、前記複数の画像パターンごとに、前記画像データに含まれる領域のうち、画像パターンと類似すると判定される領域の数をカウントして、当該カウントの結果に基づく特徴ベクトル情報を生成し、
前記実行手段は、前記特徴ベクトル情報を用いて、前記画像データに関わる所定の処理を実行する情報処理装置。
The information processing apparatus according to claim 1, wherein the data is image data,
The holding unit holds a plurality of image patterns acquired by machine learning,
The feature amount generation means receives the input of the image data to be processed, and counts the number of regions determined to be similar to the image pattern among the regions included in the image data for each of the plurality of image patterns. Then, the feature vector information based on the result of the count is generated,
The information processing apparatus, wherein the execution unit uses the feature vector information to execute a predetermined process related to the image data.
請求項2に記載の情報処理装置であって、
ネットワークを介し、それぞれに固有なネットワークアドレスを用いてアクセス可能な複数の画像データについて、当該画像データのネットワークアドレスと、前記特徴量生成手段により生成した特徴ベクトル情報とを関連付けて保持するデータベースを保持し、
前記実行手段は、検索の対象となる画像データの入力を受けて、当該検索の対象となった画像データについて前記特徴量生成手段により生成した特徴ベクトル情報と、前記データベースに含まれる特徴ベクトル情報とを比較して、当該比較の結果に基づき、検索の結果となる画像データのネットワークアドレスを抽出する情報処理装置。
The information processing apparatus according to claim 2, wherein
For a plurality of image data accessible via a network using unique network addresses, holds a database that holds the network address of the image data and the feature vector information generated by the feature amount generating means in association with each other. Then
The executing means receives the input of the image data to be searched, and the characteristic vector information generated by the characteristic amount generating means for the image data to be searched, and the characteristic vector information included in the database. And an information processing apparatus that extracts the network address of the image data that is the search result based on the comparison result.
機械学習により獲得された複数の画像パターンを保持するコンピュータを、
処理対象となる画像データの入力を受けて、前記複数の画像パターンごとに、前記画像データに含まれる領域のうち、画像パターンと類似すると判定される領域の数をカウントして、当該カウントの結果に基づく特徴ベクトル情報を生成する特徴量生成手段と、
前記特徴ベクトル情報を用いて、前記画像データに関わる所定の処理を実行する実行手段と、
として機能させる類似画像検索プログラム。
A computer that holds multiple image patterns acquired by machine learning
Upon receiving the input of the image data to be processed, for each of the plurality of image patterns, the number of regions determined to be similar to the image pattern among the regions included in the image data is counted, and the result of the count is calculated. Feature amount generating means for generating feature vector information based on
Executing means for executing a predetermined process relating to the image data by using the feature vector information;
Similar image search program to function as.
JP2019100718A 2018-11-27 2019-05-29 Information processing equipment and similar image search program Active JP7097329B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018221554 2018-11-27
JP2018221554 2018-11-27

Publications (2)

Publication Number Publication Date
JP2020091828A true JP2020091828A (en) 2020-06-11
JP7097329B2 JP7097329B2 (en) 2022-07-07

Family

ID=71013829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019100718A Active JP7097329B2 (en) 2018-11-27 2019-05-29 Information processing equipment and similar image search program

Country Status (1)

Country Link
JP (1) JP7097329B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03286392A (en) * 1990-04-02 1991-12-17 Sharp Corp Character recognizing device
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
JP2006285570A (en) * 2005-03-31 2006-10-19 Univ Waseda Similar image retrieval method, and similar image retrieval device
JP2008219825A (en) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03286392A (en) * 1990-04-02 1991-12-17 Sharp Corp Character recognizing device
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
JP2006285570A (en) * 2005-03-31 2006-10-19 Univ Waseda Similar image retrieval method, and similar image retrieval device
JP2008219825A (en) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program

Also Published As

Publication number Publication date
JP7097329B2 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
CN110738207B (en) Character detection method for fusing character area edge information in character image
KR102554724B1 (en) Method for identifying an object in an image and mobile device for practicing the method
RU2659745C1 (en) Reconstruction of the document from document image series
CN112036395B (en) Text classification recognition method and device based on target detection
Kumar et al. A dataset for quality assessment of camera captured document images
WO2017059576A1 (en) Apparatus and method for pedestrian detection
CN108702449B (en) Image searching method and system
JP2006338313A (en) Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium
CN108960260B (en) Classification model generation method, medical image classification method and medical image classification device
JP4993615B2 (en) Image recognition method and apparatus
CN103995864B (en) A kind of image search method and device
CN107704509B (en) Reordering method combining stable region and deep learning
US20050223313A1 (en) Model of documents and method for automatically classifying a document
EP2782065A1 (en) Image-processing device removing encircling lines for identifying sub-regions of image
CN113705673A (en) Character detection method, device, equipment and storage medium
CN110516731B (en) Visual odometer feature point detection method and system based on deep learning
CN108876776B (en) Classification model generation method, fundus image classification method and device
Mesquita et al. Object recognition using saliency guided searching
JP2004021430A (en) Image searching device, image searching method, and image searching program
EP2966613A1 (en) Method and apparatus for generating a super-resolved image from an input image
JP7097329B2 (en) Information processing equipment and similar image search program
JP6778625B2 (en) Image search system, image search method and image search program
CN116467476A (en) Image retrieval method based on key local information
JP2002183732A (en) Pattern recognition method and computer-readable storage medium stored with program executing pattern recognition
CN115409938A (en) Three-dimensional model construction method, device, equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7097329

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150