JP7018408B2 - Image search device and teacher data extraction method - Google Patents

Image search device and teacher data extraction method Download PDF

Info

Publication number
JP7018408B2
JP7018408B2 JP2019028920A JP2019028920A JP7018408B2 JP 7018408 B2 JP7018408 B2 JP 7018408B2 JP 2019028920 A JP2019028920 A JP 2019028920A JP 2019028920 A JP2019028920 A JP 2019028920A JP 7018408 B2 JP7018408 B2 JP 7018408B2
Authority
JP
Japan
Prior art keywords
image
feature amount
teacher data
search
classification item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019028920A
Other languages
Japanese (ja)
Other versions
JP2020135494A (en
Inventor
留以 三井
弘典 小味
躍一 五十嵐
将央 篠本
賢司 関村
博幸 菊池
直人 瀧
泰裕 村井
洋介 徳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2019028920A priority Critical patent/JP7018408B2/en
Priority to PCT/JP2020/006286 priority patent/WO2020171066A1/en
Priority to CN202080015638.6A priority patent/CN113474769A/en
Publication of JP2020135494A publication Critical patent/JP2020135494A/en
Application granted granted Critical
Publication of JP7018408B2 publication Critical patent/JP7018408B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、機械学習技術を用いた画像検索を行う画像検索装置と教師データ抽出方法とに関するものである。 The present invention relates to an image search device that performs image search using machine learning technology and a teacher data extraction method.

近年、画像認識、画像分類などの技術領域において深層学習(Deep Learning)に代表される機械学習技術の活用が進んでいる。機械学習による画像認識や画像分類では、従来のように開発者がアルゴリズムを設計してプログラミングするのではなく、機械学習モデル自身が、入力データに基づいて学習して、分類できるようになる。詳しくは、画像データとその正しい分類結果(正解タグ)のペアが複数入力されると、機械学習モデル自身が、入力された画像データに対して正しく分類結果を出力できるように、機械学習モデル内のパラメータを調整する。なお、入力される画像データとその分類結果のペアのデータは、教師データ(学習データ)と呼ばれ、教師データを用いた機械学習のことは、教師あり機械学習と呼ばれる。 In recent years, the utilization of machine learning technology represented by deep learning has been progressing in the technical fields such as image recognition and image classification. In image recognition and image classification by machine learning, the machine learning model itself can learn and classify based on the input data, instead of the developer designing and programming the algorithm as in the past. Specifically, when multiple pairs of image data and its correct classification result (correct answer tag) are input, the machine learning model itself can output the classification result correctly for the input image data in the machine learning model. Adjust the parameters of. The data of the pair of the input image data and the classification result is called teacher data (learning data), and the machine learning using the teacher data is called supervised machine learning.

教師あり機械学習では、大量の教師データが機械学習モデルに投入され、学習させることで、機械学習モデルの精度を向上させる。一般的に、学習に用いる教師データが多い程、機械学習モデルの精度が向上し、正確な分類結果を得ることが可能になる。
しかし、教師あり機械学習では大量の教師データを準備する必要があるために、画像データの収集と、収集した個々の画像データに対する正しい分類結果(正解タグ)を対応付けるという、教師データの準備作業が膨大となり、コストがかかるという問題がある。また、一度、実運用を開始した機械学習モデルも100%の正解率を得ることは困難であり、精度向上のための追加学習を行うことが望ましい。しかしながら、システムの日々の運用のなかで、追加学習用の教師データを収集することや正解タグを付与すると、システムのダウンタイムの増加や、日々の作業における保守コストが増加するという課題がある。
In supervised machine learning, a large amount of teacher data is input to the machine learning model and trained to improve the accuracy of the machine learning model. In general, the more teacher data used for learning, the better the accuracy of the machine learning model and the more accurate classification results can be obtained.
However, since it is necessary to prepare a large amount of teacher data in supervised machine learning, the preparation work of teacher data is to collect image data and associate the correct classification result (correct answer tag) with each collected image data. There is a problem that it becomes enormous and costly. In addition, it is difficult to obtain a 100% correct answer rate even for a machine learning model that has started actual operation once, so it is desirable to perform additional learning to improve accuracy. However, in the day-to-day operation of the system, collecting teacher data for additional learning and adding correct answer tags have problems such as an increase in system downtime and an increase in maintenance cost in daily work.

特許文献1の追加学習では、あらかじめ用意しておいた正解ラベル(分類結果、正解タグ)が付与されている正解ラベル付き画像データの特徴ベクトルである第1の特徴ベクトルと、正解ラベル付き画像を分割して生成したラベルが付与されていない画像(未ラベル画像)の特徴ベクトルである第2の特徴ベクトルとの距離情報を求める。距離情報に基づいて、利用者に提示する未ラベル画像データを選択し、利用者がラベル付けを行い、第2の正解ラベル付き画像として追加学習に利用する。 In the additional learning of Patent Document 1, the first feature vector, which is the feature vector of the image data with the correct answer label to which the correct answer label (classification result, the correct answer tag) prepared in advance, and the image with the correct answer label are attached. The distance information from the second feature vector, which is the feature vector of the unlabeled image (unlabeled image) generated by division, is obtained. Based on the distance information, unlabeled image data to be presented to the user is selected, labeled by the user, and used for additional learning as a second correct labeled image.

こうすることにより、第1の正解ラベル付き画像から、元の第1の正解ラベル付き画像と映っている内容が異なる新たな学習用画像を生成することが可能になる。例えば、元の第1の正解ラベル付き画像と最も似ていない未ラベル画像を、ユーザに提示する画像として選択することが可能になる。この結果、1学習用画像あたりの分類モデルの精度の改善率を大きくし、学習効率を向上させることなどが可能となることが記載されている。 By doing so, it becomes possible to generate a new learning image from the first image with the correct answer label, which has different contents from the original image with the correct answer label. For example, an unlabeled image that is least similar to the original first correct labeled image can be selected as the image to be presented to the user. As a result, it is described that it is possible to increase the improvement rate of the accuracy of the classification model per image for learning and improve the learning efficiency.

特開2013-125322号公報Japanese Unexamined Patent Publication No. 2013-125322

利用者の環境によって追加学習の対象は様々である。個々の機械学習モデルの動作環境に合った適切な機械学習を行うための、大量の画像が蓄積された画像データベースから必要なデータを効率よく収集する技術については、特許文献1では言及されていない。また、学習用の画像の収集は可能であるとしても、分類(正解タグ付け)が必要であり、コストがかかるという問題は解決されていない。 The target of additional learning varies depending on the user's environment. Patent Document 1 does not mention a technique for efficiently collecting necessary data from an image database in which a large amount of images are stored in order to perform appropriate machine learning suitable for the operating environment of each machine learning model. .. Further, even if it is possible to collect images for learning, the problem that classification (correct tagging) is required and cost is not solved has not been solved.

本発明は、このような背景を鑑みてなされたものであり、教師データの収集や作成のコストを削減し、追加学習の容易化を可能とする画像検索装置および教師データ抽出方法を提供することを課題とする。 The present invention has been made in view of such a background, and provides an image search device and a teacher data extraction method that can reduce the cost of collecting and creating teacher data and facilitate additional learning. Is the subject.

上記課題を解決するため、本発明の画像検索装置は、取得した画像から機械学習モデルを用いて特徴量を抽出する特徴抽出部と、前記特徴量を用いて前記画像を検索して検索結果を出力する画像検索部と、前記検索結果の個々の画像が分類されて、付与された分類結果を示す分類項目を取得する分類項目取得部と、前記特徴量と前記分類項目との相関に基づいて、前記機械学習モデルを追加学習するための教師データとなる画像を抽出する教師データ抽出部と、を備える。 In order to solve the above problems, the image search device of the present invention has a feature extraction unit that extracts a feature amount from an acquired image using a machine learning model, and a feature extraction unit that searches the image using the feature amount and searches for a search result. Based on the correlation between the feature amount and the classification item, the output image search unit, the classification item acquisition unit that classifies the individual images of the search result and acquires the classification item indicating the given classification result, and the classification item acquisition unit. , A teacher data extraction unit for extracting an image to be teacher data for additional learning of the machine learning model.

本発明によれば、教師データの収集や作成のコストを削減し、追加学習の容易化を可能とする画像検索装置および教師データ抽出方法を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an image search device and a teacher data extraction method that can reduce the cost of collecting and creating teacher data and facilitate additional learning.

本実施形態に係る画像検索装置を含む画像検索システムの全体構成を示す図である。It is a figure which shows the whole structure of the image search system including the image search apparatus which concerns on this embodiment. 本実施形態に係る画像検索装置の端末に表示される画像検索画面の構成図である。It is a block diagram of the image search screen displayed on the terminal of the image search apparatus which concerns on this embodiment. 本実施形態に係る画像検索装置の機能ブロックの構成図である。It is a block diagram of the functional block of the image search apparatus which concerns on this embodiment. 本実施形態に係る画像取込部、人物検出部および特徴抽出部の動作を説明するための図である。It is a figure for demonstrating the operation of the image acquisition part, the person detection part, and the feature extraction part which concerns on this embodiment. 本実施形態に係る特徴量データベースに含まれる特徴量テーブルのデータ構成を説明するための図である。It is a figure for demonstrating the data structure of the feature amount table included in the feature amount database which concerns on this embodiment. 本実施形態に係る検索結果データベースに含まれる検索条件テーブルのデータ構成を示す図である。It is a figure which shows the data structure of the search condition table included in the search result database which concerns on this embodiment. 本実施形態に係る検索結果データベースに含まれる検索結果テーブルのデータ構成を示す図である。It is a figure which shows the data structure of the search result table included in the search result database which concerns on this embodiment. 本実施形態に係る教師データ抽出条件テーブルのデータ構成を示す図である。It is a figure which shows the data structure of the teacher data extraction condition table which concerns on this embodiment. 本実施形態に係り、抽出対象データの分類項目、閾値A、閾値Bおよび追加学習要否を説明するためのグラフである。It is a graph for demonstrating the classification item of the extraction target data, the threshold value A, the threshold value B, and the necessity of additional learning according to this embodiment. 本実施形態に係る教師データ抽出結果テーブルのデータ構成を示す図である。It is a figure which shows the data structure of the teacher data extraction result table which concerns on this embodiment. 本実施形態に係る教師データ抽出部が実行する教師データ抽出処理のフローチャートである。It is a flowchart of the teacher data extraction process executed by the teacher data extraction unit which concerns on this embodiment. 本実施形態の変型例に係る画像検索装置の端末に表示される教師データ抽出条件設定画面の構成図である。It is a block diagram of the teacher data extraction condition setting screen displayed on the terminal of the image search apparatus which concerns on the modification of this embodiment. 本実施形態の変型例に係る特徴量と分類項目との相関を示したグラフである。It is a graph which showed the correlation between the feature amount and the classification item which concerns on the modified example of this embodiment. 本実施形態の変型例に係る特徴量と分類項目との相関を示したグラフである。It is a graph which showed the correlation between the feature amount and the classification item which concerns on the modified example of this embodiment.

以下に、本発明を実施するための形態(実施形態)における画像検索装置について説明する。詳しくは、ショッピングモールやオフィスビルなどの施設に設置されるカメラが撮影した画像から、所定の条件に合致する人物の画像を検索するシステムにおける画像検索装置について説明する。画像検索装置は、蓄積した画像データから追加学習用の教師データとなる画像データを抽出する。なお、本システムは、施設内での迷子の探索といった用途や、施設で発生した問題に関わった人物を通報などで得られた情報を元に当該人物を探索するといった用途を想定しているが、これらの用途に限らず、幅広い用途に適用可能である。 Hereinafter, an image search device according to an embodiment (embodiment) for carrying out the present invention will be described. More specifically, an image search device in a system for searching an image of a person who meets a predetermined condition from an image taken by a camera installed in a facility such as a shopping mall or an office building will be described. The image search device extracts image data to be teacher data for additional learning from the accumulated image data. In addition, this system is supposed to be used for searching for lost children in the facility, and for searching for the person who was involved in the problem that occurred in the facility based on the information obtained by reporting. , Not limited to these applications, it can be applied to a wide range of applications.

≪画像検索システムの全体構成≫
図1は、本実施形態に係る画像検索装置100を含む画像検索システム10の全体構成を示す図である。画像検索システム10は、画像検索装置100、カメラ310、カメラ310が撮影した映像を画像検索装置100に転送するネットワーク330、追加学習装置300および端末320を含んで構成される。
≪Overall configuration of image search system≫
FIG. 1 is a diagram showing an overall configuration of an image search system 10 including an image search device 100 according to the present embodiment. The image search system 10 includes an image search device 100, a camera 310, a network 330 that transfers images captured by the camera 310 to the image search device 100, an additional learning device 300, and a terminal 320.

カメラ310は、施設に設置されるカメラであり、ネットワーク330を経由して撮影した映像を画像検索装置100に送信する。端末320は、画像検索システム10を用いて施設内を監視する人(以下、利用者とも記す)が利用する端末である。利用者の端末320における操作方法や表示画面については、後記する図2を参照して説明する。画像検索装置100は、端末320から入力された人物の特徴(検索条件)に合致する人物を、カメラ310の画像から抽出して、端末320に出力する。
なお、画像検索システム10を用いて施設内を監視する人を利用者と記すのに対して、画像検索装置100の機械学習モデル114(後記する図3参照)を保守し、追加学習を管理する人を管理者と記す。管理者も端末320を利用してもよい。
The camera 310 is a camera installed in the facility, and transmits images taken via the network 330 to the image search device 100. The terminal 320 is a terminal used by a person (hereinafter, also referred to as a user) who monitors the inside of the facility using the image search system 10. The operation method and the display screen of the user's terminal 320 will be described with reference to FIG. 2 described later. The image search device 100 extracts a person who matches the characteristics (search conditions) of the person input from the terminal 320 from the image of the camera 310 and outputs the person to the terminal 320.
The person who monitors the inside of the facility using the image search system 10 is described as a user, whereas the machine learning model 114 (see FIG. 3 described later) of the image search device 100 is maintained to manage additional learning. Write a person as an administrator. The administrator may also use the terminal 320.

追加学習装置300は、人物の特徴を抽出する際に用いられる機械学習モデル114と置き換わる新機械学習モデル420を生成する追加学習を実行する。追加学習装置300は、画像検索装置100から追加学習データ410(教師データ)を取得し、追加学習を実行して新機械学習モデル420を生成する。 The additional learning device 300 executes additional learning to generate a new machine learning model 420 that replaces the machine learning model 114 used when extracting the characteristics of a person. The additional learning device 300 acquires additional learning data 410 (teacher data) from the image search device 100, executes additional learning, and generates a new machine learning model 420.

≪画像検索装置の画像検索画面≫
図2は、本実施形態に係る画像検索装置100の端末320に表示される画像検索画面500の構成図である。本実施形態では、利用者は、Webブラウザを用いて画像検索装置100を操作する。画像検索画面500は、検索セット領域510、検索条件領域520および検索結果領域530を含んで構成される。
≪Image search screen of image search device≫
FIG. 2 is a configuration diagram of an image search screen 500 displayed on the terminal 320 of the image search device 100 according to the present embodiment. In the present embodiment, the user operates the image search device 100 using a Web browser. The image search screen 500 includes a search set area 510, a search condition area 520, and a search result area 530.

利用者は、検索する人物(探索対象となる人物)の特徴(検索条件)を検索条件領域520に設定する。詳しくは、人物の頭部の色(頭部色)をリストボックス521から選択して設定する。本実施形態では、頭部色は黒、グレーおよび白から選択するものとする。同様にして、上半身の服の色および下半身の服の色を黒、グレーおよび青から選択する。条件クリアボタン522が押下されると、選択された頭部色、上半身の服の色および下半身の服の色の色がクリアされ、何も選択されていない状態になる。検索ボタン523が押下されると、設定した条件に合う人物の画像が検索され、検索結果領域530に表示される。 The user sets the characteristics (search conditions) of the person to be searched (the person to be searched) in the search condition area 520. Specifically, the color of the head of the person (head color) is selected from the list box 521 and set. In this embodiment, the head color is selected from black, gray and white. Similarly, the color of the upper body clothing and the color of the lower body clothing are selected from black, gray and blue. When the condition clear button 522 is pressed, the selected head color, upper body clothing color, and lower body clothing color are cleared, and nothing is selected. When the search button 523 is pressed, an image of a person who meets the set conditions is searched and displayed in the search result area 530.

検索セット領域510の検索識別情報511は、検索条件および検索結果に割り当てられた識別情報であって、画像検索装置100が自動的に割り振る。保存ボタン512が押下されると、検索条件領域520に設定された検索条件、および検索結果領域530に表示された検索結果が画像検索装置100に保存される。利用者が検索識別情報511を入力してロードボタン513を押下すると、検索識別情報511に対応し保存されていた検索条件が、検索条件領域520に、検索結果が、検索結果領域530に表示される。 The search identification information 511 of the search set area 510 is the identification information assigned to the search conditions and the search results, and is automatically allocated by the image search device 100. When the save button 512 is pressed, the search conditions set in the search condition area 520 and the search results displayed in the search result area 530 are saved in the image search device 100. When the user inputs the search identification information 511 and presses the load button 513, the search conditions stored corresponding to the search identification information 511 are displayed in the search condition area 520, and the search results are displayed in the search result area 530. To.

検索結果領域530は、検索結果531が検索条件との合致度(平均類似度とも記す)の降順に表示される領域である。図2では、6つの検索結果が表示されている。個々の検索結果531は、画像確認領域532、平均類似度バー533および分類項目設定領域534の3つの領域からなる。
画像確認領域532には、人物が含まれる映像のサンプル画像が表示される。サンプル画像には、画像検索装置100により割り振られた画像識別情報が表示される。また、人物が検出された領域は、矩形で囲われて表示される。画像確認領域532には、撮影時刻や撮影したカメラ、カメラが設置されているエリアの識別情報が含まれてもよい。
平均類似度バー533は、頭部色、上半身の服の色および下半身の服の色の類似度(後記する特徴量)の平均値を、棒グラフの形式で表示している。バー(ハッチングされている矩形)が右側にのびているほど(面積が大きいほど)平均類似度が高く、左端で平均類似度が0、右端で平均類似度が100を示す。
The search result area 530 is an area in which the search result 531 is displayed in descending order of the degree of matching with the search condition (also referred to as the average similarity). In FIG. 2, six search results are displayed. The individual search result 531 consists of three areas: an image confirmation area 532, an average similarity bar 533, and a classification item setting area 534.
In the image confirmation area 532, a sample image of a video including a person is displayed. The image identification information allocated by the image search device 100 is displayed on the sample image. In addition, the area where a person is detected is displayed surrounded by a rectangle. The image confirmation area 532 may include the shooting time, the camera that shot the image, and the identification information of the area where the camera is installed.
The average similarity bar 533 displays the average value of the similarity (feature amount described later) of the head color, the color of the upper body clothes, and the color of the lower body clothes in the form of a bar graph. The more the bar (hatched rectangle) extends to the right (the larger the area), the higher the average similarity, 0 at the left end and 100 at the right end.

分類項目設定領域534は、利用者が、画像中の矩形で囲われた人物(以下、画像の人物、または単に画像とも記す)が探索対象の人物に当たるか否かを判定した結果(以下、分類項目とも記す)を入力する領域である。利用者は、画像が探索対象の人物であると判断すれば、該当を選択する。利用者は、画像が探索対象の人物ではないと判断すれば、非該当を選択する。利用者は、判断を保留すれば、保留を選択する。該当、保留および非該当の何れも選択しない場合には、利用者は何も選択せず、未分類となる。 The classification item setting area 534 is a result of the user determining whether or not a person surrounded by a rectangle in the image (hereinafter, also referred to as a person in the image, or simply referred to as an image) corresponds to a person to be searched (hereinafter, classification). This is the area for inputting items). If the user determines that the image is the person to be searched, he / she selects the corresponding person. If the user determines that the image is not the person to be searched, he / she selects non-applicability. If the user withholds the judgment, he / she selects the withholding. If none of applicable, pending, and non-applicable is selected, the user does not select anything and is uncategorized.

なお、保留の意味としては、画像が不鮮明で判断できない、探索対象人物か否か特定できない、目視確認するまで判断を保留する、利用者が判定結果を忘れないようにマークしたいなどの使い方を想定している。
本実施例では、該当や非該当という用語を用いて説明しているが、探索対象に該当または非該当という意味で、対象者/非対象者、要確認/確認不要、要注意/注意不要など別の用語を用いてもよい。
The meaning of the hold is assumed to be usage such as the image is unclear and cannot be judged, it cannot be specified whether it is the person to be searched, the judgment is held until it is visually confirmed, and the user wants to mark the judgment result so as not to be forgotten. is doing.
In this embodiment, the terms applicable and non-applicable are used to explain, but in the sense that the search target is applicable or non-applicable, the target person / non-target person, confirmation / confirmation not required, caution / attention not required, etc. Other terms may be used.

表示フィルタ536において、該当、保留、非該当、未分類の検索結果を検索結果領域530に表示するか否かを設定できる。図2においては、該当、保留、非該当、未分類が全て選択されており、すべての検索結果が検索結果領域530に表示される。利用者は、画像を該当、保留、非該当および未分類の分類項目に分類し、表示フィルタによってどの分類項目を表示するかを選択することができる。利用者は、検索結果の表示数を削減あるいは確認したい画像のみを表示することでき、画像間で人物を詳細に比較することや、判定や探索対象人物の確定が容易になる。 In the display filter 536, it is possible to set whether or not to display the applicable, pending, non-applicable, and uncategorized search results in the search result area 530. In FIG. 2, applicable, pending, non-applicable, and uncategorized are all selected, and all search results are displayed in the search result area 530. The user can classify the image into applicable, pending, non-applicable, and unclassified classification items, and select which classification item to display by the display filter. The user can reduce the number of displayed search results or display only the images to be confirmed, which makes it easy to compare people in detail between the images, and to make a judgment or determine the person to be searched.

検索結果領域530の左上にある検索結果の画像識別情報は「I3483」であり、平均類似度バーに示されるように平均類似度は約90%であって、利用者は該当を選択している。画像確認領域の画像には2人の人物が含まれているが、検索結果となっている人物は右側の矩形で囲われた人物である。
検索結果領域530の右側には、スクロールバー535が備えられている。利用者は、スクロールバー535のノブ(つまみ)や上下にあるアロー(矢印)を操作することで、表示されていない検索結果531を閲覧できる。
The image identification information of the search result in the upper left of the search result area 530 is "I3483", the average similarity is about 90% as shown in the average similarity bar, and the user has selected the corresponding. .. The image in the image confirmation area contains two people, but the person that is the search result is the person surrounded by the rectangle on the right side.
A scroll bar 535 is provided on the right side of the search result area 530. The user can browse the search result 531 that is not displayed by operating the knob (knob) of the scroll bar 535 and the arrows (arrows) at the top and bottom.

≪画像検索装置の全体構成≫
図3は、本実施形態に係る画像検索装置100の機能ブロックの構成図である。画像検索装置100は、コンピュータであって、後記する特徴抽出部113や画像検索部115などの機能部として動作するCPU(Central Processing Unit)、データベースや一時的処理データ、CPUを機能部として動作させるプログラムを記憶する記憶部(ハードディスクやSSD(Solid State Drive)など)、および通信部などを含むが図示していない。
≪Overall configuration of image search device≫
FIG. 3 is a block diagram of a functional block of the image search device 100 according to the present embodiment. The image search device 100 is a computer, and operates a CPU (Central Processing Unit) that operates as a functional unit such as a feature extraction unit 113 and an image search unit 115 described later, a database, temporary processing data, and a CPU as functional units. It includes a storage unit (hard disk, SSD (Solid State Drive), etc.) for storing programs, a communication unit, and the like, but is not shown.

≪画像取込部、人物検出部、特徴抽出部≫
画像取込部111は、カメラ310が撮影した映像を取得し、映像の各フレーム画像を人物検出部112に出力する。
人物検出部112は、フレーム画像(単に画像、画像データとも記す)のなかの人物を検出して、検出した領域や撮影時刻情報、撮影したカメラの識別情報、画像識別情報とともに画像データベース(図3では画像DB(Database)と記載)120に格納する。また、人物検出部112は、人物を検出した領域の画像を画像識別情報とともに特徴抽出部113に出力する。
既存の人物検出技術としてFaster-RCNNなどがありUS9858496(B2)などにDNN(Deep Neural Networks)を用いた人物検出アルゴリズムなどが記載されている。
≪Image capture part, person detection part, feature extraction part≫
The image capture unit 111 acquires the image captured by the camera 310 and outputs each frame image of the image to the person detection unit 112.
The person detection unit 112 detects a person in a frame image (simply referred to as an image or image data), and together with the detected area, shooting time information, shooting camera identification information, and image identification information, an image database (FIG. 3). Then, it is stored in the image DB (Database)) 120. Further, the person detection unit 112 outputs an image of the region where the person is detected to the feature extraction unit 113 together with the image identification information.
There is Faster-RCNN as an existing person detection technology, and a person detection algorithm using DNN (Deep Neural Networks) is described in US9858496 (B2) and the like.

特徴抽出部113は、機械学習モデル114を用いて人物の領域の画像から複数の特徴量を抽出して、特徴量データベース130(後記する図5参照)に格納する。複数の特徴量を抽出するDNNは、マルチラベル式のDNNと呼ばれ、例えば特表2018-503161号公報に、複数特徴量を解析し、その検出結果を出力するDNNの技術が開示されている。機械学習モデル114は、DNNに限らず、SVM(Support Vector Machine)など他の機械学習技術の機械学習モデルであってもよい。 The feature extraction unit 113 extracts a plurality of feature quantities from an image of a person's region using a machine learning model 114 and stores them in a feature quantity database 130 (see FIG. 5 described later). A DNN that extracts a plurality of feature quantities is called a multi-label type DNN. For example, Japanese Patent Publication No. 2018-503161 discloses a DNN technology that analyzes a plurality of feature quantities and outputs the detection result. .. The machine learning model 114 is not limited to DNN, and may be a machine learning model of another machine learning technique such as SVM (Support Vector Machine).

図4は、本実施形態に係る画像取込部111、人物検出部112および特徴抽出部113の動作を説明するための図である。図4を参照して、画像取込部111、人物検出部112および特徴抽出部113が出力するデータについて補足して説明する。
画像431は、画像取込部111が出力した映像のフレーム画像であり、3人の人物が含まれている。画像432~434は、人物検出部112が出力した、画像431のなかで人物を検出した領域の画像であり、画像431に含まれる3人の人物それぞれを切り出した画像である。
FIG. 4 is a diagram for explaining the operation of the image acquisition unit 111, the person detection unit 112, and the feature extraction unit 113 according to the present embodiment. With reference to FIG. 4, the data output by the image acquisition unit 111, the person detection unit 112, and the feature extraction unit 113 will be supplementarily described.
The image 431 is a frame image of the image output by the image capturing unit 111, and includes three people. The images 432 to 434 are images of a region in which a person is detected in the image 431 output by the person detection unit 112, and are images obtained by cutting out each of the three people included in the image 431.

特徴量データ435は、特徴抽出部113が出力したデータであって、画像432~434それぞれの特徴量を機械学習モデル114により解析した結果のデータである。機械学習モデル114は、複数の特徴量を抽出するマルチラベル式のDNNである。 特徴量は、頭部色が黒である度合、頭部色がグレーである度合、頭部色が白である度合、上半身の服の色が黒である度合、上半身の服の色がグレーである度合、上半身の服の色が青である度合、下半身の服の色が黒である度合、下半身の服の色がグレーである度合および下半身の服の色が青である度合の9つであり、9次元のベクトルで表される。各特徴量は、最大で100、最小で0となるよう正規化して出力される。例えば、画像識別情報が「I0014」である画像432の頭部色が黒である度合(特徴量)は80である。 The feature amount data 435 is the data output by the feature extraction unit 113, and is the data obtained by analyzing the feature amounts of the images 432 to 434 by the machine learning model 114. The machine learning model 114 is a multi-label DNN that extracts a plurality of features. The features are black in the head color, gray in the head color, white in the head color, black in the upper body clothes, and gray in the upper body clothes. There are nine degrees: the color of the upper body clothes is blue, the color of the lower body clothes is black, the color of the lower body clothes is gray, and the color of the lower body clothes is blue. Yes, it is represented by a 9-dimensional vector. Each feature amount is normalized and output so that the maximum is 100 and the minimum is 0. For example, the degree (feature amount) that the head color of the image 432 whose image identification information is "I0014" is black is 80.

≪特徴量データベース≫
図5は、本実施形態に係る特徴量データベース130に含まれる特徴量テーブル131のデータ構成を説明するための図である。特徴量データベース130は、1つ以上の特徴量テーブル131から構成される。特徴量テーブル131は、特徴量テーブル識別情報132、機械学習モデルバージョン133および1つ以上の画像レコードを含む。特徴量テーブル識別情報132は、特徴量テーブル131の識別情報である。機械学習モデルバージョン133は、特徴量テーブル131に含まれる特徴量を算出したときの機械学習モデル114のバージョンである。
≪Feature database≫
FIG. 5 is a diagram for explaining the data structure of the feature amount table 131 included in the feature amount database 130 according to the present embodiment. The feature amount database 130 is composed of one or more feature amount tables 131. The feature table 131 includes feature table identification information 132, machine learning model version 133, and one or more image records. The feature amount table identification information 132 is the identification information of the feature amount table 131. The machine learning model version 133 is a version of the machine learning model 114 when the feature amount included in the feature amount table 131 is calculated.

画像レコードは、画像識別情報(図5では画像IDと記載)134、頭部色が黒である度合の特徴量135、頭部色がグレーである度合の特徴量136、頭部色が白である度合の特徴量137、上半身の服の色が黒である度合の特徴量138、上半身の服の色がグレーである度合の特徴量139、上半身の服の色が青である度合の特徴量140、下半身の服の色が黒である度合の特徴量141、下半身の服の色がグレーである度合の特徴量142および下半身の服の色が青である度合の特徴量143の属性を含む。 The image record has image identification information (described as an image ID in FIG. 5) 134, a feature amount 135 to the extent that the head color is black, a feature amount 136 to the degree that the head color is gray, and a white head color. The characteristic amount of a certain degree is 137, the characteristic amount of the degree that the color of the upper body clothes is black 138, the characteristic amount of the degree that the color of the upper body clothes is gray 139, and the characteristic amount of the degree that the color of the upper body clothes is blue. 140, the characteristic amount 141 of the degree that the color of the lower body clothes is black, the characteristic amount 142 of the degree that the color of the lower body clothes is gray, and the characteristic amount 143 of the degree that the color of the lower body clothes is blue. ..

特徴量テーブル131は、機械学習モデル114ごとに存在する。即ち、機械学習モデル114が新機械学習モデル420(図1参照)に更新されると、新しい特徴量テーブルに切り替えられる。このため、特徴量テーブル識別情報132と機械学習モデルバージョン133とは、1対1に対応する。同一の機械学習モデル114を用いて特徴抽出部113が特徴量を抽出している期間は、同一の特徴量テーブル131に画像レコードが追加されていく。
なお、特徴量テーブル131は、日ごとやカメラごと、施設のエリアごとに分割するようにしてもよい。この場合、特徴量テーブル識別情報132と機械学習モデルバージョン133とは、N対1の対応となる。
The feature amount table 131 exists for each machine learning model 114. That is, when the machine learning model 114 is updated to the new machine learning model 420 (see FIG. 1), it is switched to the new feature amount table. Therefore, the feature amount table identification information 132 and the machine learning model version 133 have a one-to-one correspondence. Image records are added to the same feature amount table 131 during the period when the feature extraction unit 113 is extracting the feature amount using the same machine learning model 114.
The feature amount table 131 may be divided by day, by camera, or by facility area. In this case, the feature amount table identification information 132 and the machine learning model version 133 have an N to 1 correspondence.

≪画像検索部:検索時の動作≫
図3の説明に戻る。Webサーバ116は、端末320の利用者からの指示を受信したり、指示された処理の結果を端末320に送信したりする。利用者が検索条件領域520(図2参照)に検索条件を設定して検索ボタン523を押下して検索を指示すると、Webサーバ116が検索条件を受信して、画像検索部115に出力する。画像検索部115は、検索条件を検索結果データベース150の検索条件テーブル151(後記する図6参照)に格納する。
≪Image search section: Operation during search≫
Returning to the description of FIG. The Web server 116 receives an instruction from the user of the terminal 320, and transmits the result of the instructed process to the terminal 320. When the user sets the search condition in the search condition area 520 (see FIG. 2) and presses the search button 523 to instruct the search, the Web server 116 receives the search condition and outputs the search condition to the image search unit 115. The image search unit 115 stores the search conditions in the search condition table 151 (see FIG. 6 described later) of the search result database 150.

続いて、画像検索部115は、特徴量テーブル131の画像レコードのなかで、指定された検索条件に含まれる特徴量の平均値(平均類似度)が所定の値以上のレコードを検索した結果を、検索結果データベース150の検索結果テーブル164(後記する図7参照)に格納する。続いて、画像検索部115は、検索結果を平均類似度の降順でソートする。さらに、画像検索部115は、このソートした結果の各レコードに対応する画像データを画像データベース120から取得して、画像データ、平均値および分類項目設定領域534の表示用データと合わせたデータを検索条件に対する検索結果として、Webサーバ116に出力する。Webサーバ116は、検索結果を端末320に送信する。端末320のWebブラウザは、受信した検索結果を検索結果領域530(図2参照)に表示する。 Subsequently, the image search unit 115 searches the image records in the feature amount table 131 for records in which the average value (mean similarity) of the feature amounts included in the specified search conditions is equal to or greater than a predetermined value. , It is stored in the search result table 164 of the search result database 150 (see FIG. 7 described later). Subsequently, the image search unit 115 sorts the search results in descending order of average similarity. Further, the image search unit 115 acquires the image data corresponding to each record of the sorted result from the image database 120, and searches for the data combined with the image data, the average value, and the display data of the classification item setting area 534. It is output to the Web server 116 as a search result for the condition. The Web server 116 transmits the search result to the terminal 320. The Web browser of the terminal 320 displays the received search result in the search result area 530 (see FIG. 2).

≪検索結果データベース:検索条件テーブル≫
図6は、本実施形態に係る検索結果データベース150に含まれる検索条件テーブル151のデータ構成を示す図である。検索結果データベース150は、検索条件テーブル151および検索結果テーブル164(後記する図7参照)を含む。
≪Search result database: Search condition table≫
FIG. 6 is a diagram showing a data structure of the search condition table 151 included in the search result database 150 according to the present embodiment. The search result database 150 includes a search condition table 151 and a search result table 164 (see FIG. 7 described later).

検索条件テーブル151は、例えば、表形式のデータであって、1つのレコード(行)は、1つの検索条件を示し、検索識別情報(図6では検索IDと記載)152、検索条件に頭部色が黒・グレー・白を含むか否かを示すフラグ153~155、検索条件に上半身の服の色が黒・グレー・青を含むか否かを示すフラグ156~158、検索条件に下半身の服の色が黒・グレー・青を含むか否かを示すフラグ159~161、特徴量テーブル識別情報162および機械学習モデルバージョン163(図6ではMLM(Machine Learning Model)バージョンと記載)の属性を含む。 The search condition table 151 is, for example, tabular data, one record (row) indicates one search condition, search identification information (described as a search ID in FIG. 6) 152, and the head of the search condition. Flags 153 to 155 indicating whether the color includes black, gray, and white, flags 156 to 158 indicating whether the color of the upper body clothes include black, gray, and blue in the search conditions, and the lower body in the search conditions. The attributes of flags 159 to 161 indicating whether or not the color of clothes includes black, gray, and blue, feature amount table identification information 162, and machine learning model version 163 (described as MLM (Machine Learning Model) version in FIG. 6) are set. include.

フラグ153~161は、検索条件に含まれれば「1」であり、含まなければ「0」である。例えば、検索識別情報152が「S018」であるレコードは、頭部色がグレー、上半身の服の色が青、下半身の服の色が黒である検索条件を示している。特徴量テーブル識別情報162および機械学習モデルバージョン163は、特徴量テーブル131(図5参照)の特徴量テーブル識別情報132および機械学習モデルバージョン133にそれぞれ対応し、検索対象となる特徴量テーブル131や特徴量が算出されたときの機械学習モデル114のバージョンを示す。 Flags 153 to 161 are "1" if they are included in the search condition, and "0" if they are not included. For example, the record in which the search identification information 152 is "S018" indicates a search condition in which the head color is gray, the upper body clothes color is blue, and the lower body clothes color is black. The feature amount table identification information 162 and the machine learning model version 163 correspond to the feature amount table identification information 132 and the machine learning model version 133 of the feature amount table 131 (see FIG. 5), respectively, and the feature amount table 131 to be searched and the feature amount table 131 and the machine learning model version 133. The version of the machine learning model 114 when the feature quantity is calculated is shown.

≪検索結果データベース:検索結果テーブル≫
図7は、本実施形態に係る検索結果データベース150に含まれる検索結果テーブル164のデータ構成を示す図である。検索結果テーブル164は、例えば表形式のデータであって、検索結果である検索結果レコードから構成される。検索結果レコードは、検索条件テーブル151の検索識別情報152に対応する検索識別情報165、特徴量テーブル131の画像識別情報134に対応する画像識別情報166、特徴量テーブル131の特徴量135~143にそれぞれ対応する特徴量167~175、平均類似度176、分類項目177および検索条件テーブル151の機械学習モデルバージョン163に対応する機械学習モデルバージョン178の属性を含む。
≪Search result database: Search result table≫
FIG. 7 is a diagram showing a data structure of the search result table 164 included in the search result database 150 according to the present embodiment. The search result table 164 is, for example, tabular data, and is composed of search result records which are search results. The search result record includes the search identification information 165 corresponding to the search identification information 152 of the search condition table 151, the image identification information 166 corresponding to the image identification information 134 of the feature amount table 131, and the feature amounts 135 to 143 of the feature amount table 131. It includes the attributes of the machine learning model version 178 corresponding to the corresponding feature quantities 167 to 175, the average similarity 176, the classification item 177, and the machine learning model version 163 of the search condition table 151, respectively.

分類項目177は、利用者が設定した個々の検索結果に対する分類項目(図2の分類項目設定領域534参照)を格納する属性であって、分類項目が該当ならば「1」、保留ならば「2」、非該当ならば「3」、未分類ならば「0」である。利用者が分類項目を設定する前の初期状態では、分類項目は設定されていないので、分類項目177は「0」となる。 The classification item 177 is an attribute for storing the classification item (see the classification item setting area 534 in FIG. 2) for each search result set by the user, and is "1" if the classification item is applicable and "1" if the classification item is on hold. 2 ”,“ 3 ”if not applicable, and“ 0 ”if not classified. In the initial state before the user sets the classification item, the classification item 177 is set to "0" because the classification item is not set.

検索結果テーブル164のなかで画像識別情報166が「I0014」である検索結果レコードについて説明する。この検索結果レコードの検索識別情報165は、「S018」であり、検索条件テーブル151のなかの検索識別情報152が「S018」であるレコードである検索条件によって検索された結果であることを示している。特徴量167~175は、特徴量テーブル131にある画像識別情報134が「I0014」であるレコードの特徴量135~143にそれぞれ対応する。
検索識別情報152が「S018」であるレコードである検索条件は、頭部色がグレー、上半身の服の色が青、下半身の服の色が黒である。対応する特徴量は、それぞれ20、30、30であり、平均類似度176は、27となる。
The search result record in which the image identification information 166 is "I0014" in the search result table 164 will be described. The search identification information 165 of this search result record is "S018", and indicates that the search identification information 152 in the search condition table 151 is the result of being searched by the search condition which is a record of "S018". There is. The feature amounts 167 to 175 correspond to the feature amounts 135 to 143 of the record in which the image identification information 134 in the feature amount table 131 is "I0014", respectively.
The search condition for the record in which the search identification information 152 is "S018" is that the head color is gray, the upper body clothes color is blue, and the lower body clothes color is black. The corresponding feature quantities are 20, 30, and 30, respectively, and the average similarity 176 is 27.

≪分類項目登録部:検索保存時の動作≫
図3の説明に戻る。利用者が分類項目設定領域534(図2参照)において分類項目を入力して、保存ボタン512を押下すると、端末320のWebブラウザは、個々の検索結果に対する分類項目(該当、保留、非該当または未分類)をWebサーバ116に送信し、Webサーバ116は、分類項目を分類項目登録部117に出力する。分類項目登録部117は、検索結果に対応する利用者による判定結果である分類項目を、検索結果データベース150の検索結果テーブル164の分類項目177に格納する。
≪Category item registration unit: Operation when searching and saving≫
Returning to the description of FIG. When the user inputs a classification item in the classification item setting area 534 (see FIG. 2) and presses the save button 512, the Web browser of the terminal 320 displays the classification item (applicable, hold, non-applicable, or applicable) for each search result. (Uncategorized) is transmitted to the Web server 116, and the Web server 116 outputs the classified items to the classified item registration unit 117. The classification item registration unit 117 stores the classification item, which is the determination result by the user corresponding to the search result, in the classification item 177 of the search result table 164 of the search result database 150.

≪画像検索部:検索結果ロード時の動作≫
利用者が検索識別情報511(図2参照)を入力してロードボタン513を押下すると、端末320のWebブラウザは、検索識別情報をWebサーバ116に送信し、Webサーバ116は、検索識別情報を画像検索部115に出力する。画像検索部115は、検索結果データベース150の検索条件テーブル151のレコードのなかで、検索識別情報152が、Webサーバ116が出力した検索識別情報に一致する検索条件のレコードを取得する。
≪Image search section: Operation when loading search results≫
When the user inputs the search identification information 511 (see FIG. 2) and presses the load button 513, the Web browser of the terminal 320 transmits the search identification information to the Web server 116, and the Web server 116 transmits the search identification information. Output to the image search unit 115. The image search unit 115 acquires a record of the search condition in which the search identification information 152 matches the search identification information output by the Web server 116 in the records of the search condition table 151 of the search result database 150.

また、画像検索部115は、検索結果データベース150の検索結果テーブル164の検索レコードのなかで、検索識別情報165が、Webサーバ116が出力した検索識別情報に一致する検索結果レコードを取得する。画像検索部115は、検索条件のレコードと、検索結果レコードをWebサーバ116に出力し、Webサーバ116は、端末320に送信する。端末320のWebブラウザは、受信した検索条件のレコードを検索条件領域520(図2参照)に、検索結果レコードを検索結果領域530に表示する。 Further, the image search unit 115 acquires a search result record in which the search identification information 165 matches the search identification information output by the Web server 116 in the search records of the search result table 164 of the search result database 150. The image search unit 115 outputs the search condition record and the search result record to the Web server 116, and the Web server 116 transmits the record to the terminal 320. The Web browser of the terminal 320 displays the received search condition record in the search condition area 520 (see FIG. 2) and the search result record in the search result area 530.

≪教師データ抽出結果データベース≫
教師データ抽出部118の動作を説明する前に、教師データ抽出結果データベース180を説明する。教師データ抽出結果データベース180は、教師データ抽出条件テーブル181(後記する図8参照)と教師データ抽出結果テーブル191(後記する図10参照)を含む。
≪Teacher data extraction result database≫
Before explaining the operation of the teacher data extraction unit 118, the teacher data extraction result database 180 will be described. The teacher data extraction result database 180 includes a teacher data extraction condition table 181 (see FIG. 8 described later) and a teacher data extraction result table 191 (see FIG. 10 described later).

≪教師データ抽出結果データベース:教師データ抽出条件テーブル≫
図8は、本実施形態に係る教師データ抽出条件テーブル181のデータ構成を示す図である。教師データ抽出条件テーブル181は、例えば表形式のデータであって、1つのレコード(行)は、1つの抽出条件を示し、抽出条件識別情報182、特徴量183、正非フラグ184、閾値A185、閾値B186、追加学習要否187、収集データ数188および機械学習モデルバージョン189を含む。抽出条件は、検索結果テーブル164(図7参照)の画像データに相当する検索結果レコードを検索するときの検索条件である。機械学習モデルバージョン189は、抽出対象となる検索結果テーブル164の検索結果レコードの機械学習モデルバージョン178を示す。
≪Teacher data extraction result database: Teacher data extraction condition table≫
FIG. 8 is a diagram showing a data structure of the teacher data extraction condition table 181 according to the present embodiment. The teacher data extraction condition table 181 is, for example, tabular data, one record (row) indicates one extraction condition, extraction condition identification information 182, feature amount 183, positive / non-flag 184, threshold A185, Includes threshold B186, additional learning requirement 187, number of collected data 188 and machine learning model version 189. The extraction condition is a search condition when searching for a search result record corresponding to the image data in the search result table 164 (see FIG. 7). The machine learning model version 189 shows the machine learning model version 178 of the search result record of the search result table 164 to be extracted.

抽出条件識別情報182は、抽出条件の識別情報である。
特徴量183は、抽出条件のキーとなる特徴量を示し、頭部色が黒・グレー・白である特徴量、上半身の服の色が黒・グレー・青である特徴量および下半身の服の色が黒・グレー・青である特徴量の何れかである。
正非フラグ184は、正解、不正解または両方である。正解とは、分類項目177を該当に設定した検索結果を正解とみなすデータのこと、不正解とは、分類項目177を非該当に設定した検索結果を不正解とみなすデータのこと、両方は、正解と不正解の両方のデータのことを指す。
The extraction condition identification information 182 is the identification information of the extraction condition.
The feature amount 183 indicates a feature amount that is a key to the extraction conditions, and is a feature amount in which the head color is black, gray, and white, a feature amount in which the color of the upper body clothes is black, gray, and blue, and a feature amount of the lower body clothes. It is one of the feature quantities whose color is black, gray, or blue.
The correct / non-flag 184 is a correct answer, an incorrect answer, or both. The correct answer is the data that regards the search result in which the classification item 177 is set as the correct answer, and the incorrect answer is the data in which the search result in which the classification item 177 is set as the non-applicable is regarded as the incorrect answer. Refers to both correct and incorrect data.

追加学習要否187は、追加学習が要のデータを抽出するか、追加学習が否のデータを抽出するか、追加学習が要と否の両方のデータを抽出するかを示す。追加学習が要とは、利用者の判断結果(分類項目)が該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値B186以下である場合か、利用者の判断結果が非該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値A185以上である場合である。また、追加学習が否とは、利用者の判断結果が該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値A185以上である場合か、利用者の判断結果が非該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値B186以下である場合である。抽出対象データの特徴量が閾値A185と閾値B186の間にある場合や、分類項目が保留または未分類ならば、要でも否でもない。
追加学習要否187は、後記する図9を参照して再度説明する。
The additional learning necessity 187 indicates whether the additional learning extracts the required data, the additional learning extracts the negative data, or the additional learning extracts both the required and negative data. Additional learning is required when the judgment result (classification item) of the user is applicable and the value of the feature amount shown in the feature amount 183 of the extraction target data is equal to or less than the threshold value B186, or the judgment result of the user. Is not applicable, and the value of the feature amount shown in the feature amount 183 of the extraction target data is the threshold value A185 or more. Further, "No additional learning" means that the judgment result of the user is applicable and the value of the feature amount shown in the feature amount 183 of the extraction target data is the threshold value A185 or more, or the judgment result of the user is not. This is the case where the value of the feature amount shown in the feature amount 183 of the extraction target data is the threshold value B186 or less. If the feature amount of the extraction target data is between the threshold value A185 and the threshold value B186, or if the classification item is reserved or unclassified, it is not necessary or not.
The necessity of additional learning 187 will be described again with reference to FIG. 9 described later.

収集データ数188は、追加学習の教師データとして望ましい、抽出条件に合致する検索結果テーブル164(図7参照)の検索結果レコードの件数である。
抽出条件識別情報182が「SC01」であるレコードは、キーとなる特徴量183が「頭部色が黒」であって、正非フラグ184が正解と不正解の両方であり、閾値A185が80、閾値B186が30として追加学習が要となる抽出条件を示している。
The number of collected data 188 is the number of search result records in the search result table 164 (see FIG. 7) that match the extraction conditions, which is desirable as teacher data for additional learning.
In the record in which the extraction condition identification information 182 is "SC01", the key feature amount 183 is "head color is black", the positive / negative flag 184 is both a correct answer and an incorrect answer, and the threshold value A185 is 80. , The threshold value B186 is set to 30, and the extraction conditions that require additional learning are shown.

図9は、本実施形態に係り、抽出対象データ(検索結果レコード)の正非フラグ184、閾値A185、閾値B186および追加学習要否187を説明するためのグラフ450である。グラフ450の縦軸は特徴量であり、横軸は分類項目である。点線横線455は、閾値A185に示される閾値であり、点線横線456は、閾値B186に示される閾値である。 FIG. 9 is a graph 450 for explaining the positive / negative flags 184, the threshold value A185, the threshold value B186, and the necessity of additional learning 187 of the extraction target data (search result record) according to the present embodiment. The vertical axis of the graph 450 is the feature amount, and the horizontal axis is the classification item. The dotted horizontal line 455 is the threshold value shown in the threshold value A185, and the dotted horizontal line 456 is the threshold value shown in the threshold value B186.

利用者により該当と判定され、特徴量が閾値A185以上の抽出対象データは、領域451にプロットされる。利用者により該当と判定され、特徴量が閾値B186以下の抽出対象データは、領域452にプロットされる。利用者により非該当と判定され、特徴量が閾値A185以上の抽出対象データは、領域454にプロットされる。利用者により非該当と判定され、特徴量が閾値B186以下の抽出対象データは、領域453にプロットされる。 The extraction target data that is determined to be applicable by the user and whose feature amount is the threshold value A185 or more is plotted in the area 451. The extraction target data that is determined to be applicable by the user and whose feature amount is the threshold value B186 or less is plotted in the area 452. The extraction target data that is determined to be non-applicable by the user and whose feature amount is the threshold value A185 or more is plotted in the area 454. The extraction target data that is determined to be non-applicable by the user and whose feature amount is the threshold value B186 or less is plotted in the area 453.

追加学習が要となる抽出対象データは、特徴量と分類項目(該当、非該当)が食い違っている(特徴量と分類項目との逆相関がある)領域452または領域454にプロットされる抽出対象データである。追加学習が否となる抽出対象データは、特徴量と分類項目が一致している(特徴量と分類項目との相関がある)領域451または領域453にプロットされる抽出対象データである。 The extraction target data that requires additional learning is an extraction target plotted in region 452 or region 454 in which the feature amount and the classification item (applicable or not applicable) are different (there is an inverse correlation between the feature amount and the classification item). It is data. The extraction target data for which additional learning is rejected is the extraction target data plotted in the region 451 or the region 453 in which the feature amount and the classification item match (there is a correlation between the feature amount and the classification item).

正非フラグが正解となる抽出対象データは、分類項目が該当であるデータであって、領域451、領域452、または領域451と領域452との間にプロットされる抽出対象データである。不正解となる抽出対象データは、分類項目が非該当であるデータであって、領域453、領域454、または領域453と領域454との間にプロットされる抽出対象データである。 The extraction target data for which the correct / non-flag is the correct answer is the data to which the classification item corresponds, and is the extraction target data plotted between the area 451 or the area 452, or between the area 451 and the area 452. The extraction target data that is an incorrect answer is data for which the classification item is not applicable, and is the extraction target data plotted between the area 453, the area 454, or the area 453 and the area 454.

≪教師データ抽出結果データベース:教師データ抽出結果テーブル≫
図10は、本実施形態に係る教師データ抽出結果テーブル191のデータ構成を示す図である。教師データ抽出結果テーブル191は、例えば表形式のデータであって、1つのレコード(行)は、教師データ抽出条件テーブル181の何れかの抽出条件に合致して抽出された検索結果テーブル164(図7参照)の検索結果レコード(画像データ)を示し、教師データ識別情報192、特徴量193、分類項目194、追加学習要否195、画像識別情報196、類似度197および機械学習モデルバージョン198の属性を含む。
≪Teacher data extraction result database: Teacher data extraction result table≫
FIG. 10 is a diagram showing a data structure of the teacher data extraction result table 191 according to the present embodiment. The teacher data extraction result table 191 is, for example, tabular data, and one record (row) is a search result table 164 (FIG.) extracted according to any of the extraction conditions of the teacher data extraction condition table 181. 7) Search result record (image data) is shown, teacher data identification information 192, feature amount 193, classification item 194, additional learning required 195, image identification information 196, similarity 197 and machine learning model version 198 attributes. including.

教師データ識別情報192は、教師データとして抽出された画像データの識別情報である。
特徴量193は、教師データ抽出条件テーブル181の検索条件にある特徴量183に対応し、どの特徴量がキーとなっているかを示す。
分類項目194は、教師データとして抽出された画像データに対する利用者の判定結果である分類項目あり、該当か非該当である。
The teacher data identification information 192 is identification information of image data extracted as teacher data.
The feature amount 193 corresponds to the feature amount 183 in the search condition of the teacher data extraction condition table 181 and indicates which feature amount is the key.
The classification item 194 has a classification item which is a judgment result of the user with respect to the image data extracted as the teacher data, and is applicable or not applicable.

追加学習要否195は、教師データとして抽出された画像データに対する追加学習の要否を示す。
画像識別情報196は、教師データとして抽出された画像データの識別情報であり、画像識別情報166(図7参照)に対応する。
類似度197は、画像データの特徴量193に示される特徴量の値である。
機械学習モデルバージョン198は、教師データとして抽出された画像データの機械学習モデルバージョン178を示す。
The necessity of additional learning 195 indicates the necessity of additional learning for the image data extracted as the teacher data.
The image identification information 196 is the identification information of the image data extracted as the teacher data, and corresponds to the image identification information 166 (see FIG. 7).
The similarity 197 is a value of the feature amount shown in the feature amount 193 of the image data.
Machine learning model version 198 shows machine learning model version 178 of image data extracted as teacher data.

教師データ識別情報192が「LD01」および「LD02」のレコードは、抽出条件識別情報が「SC01」の抽出条件で合致したデータである。教師データ識別情報192が「LD01」であるレコードに示される画像データは、頭部色が黒である度合の特徴量が15であって特徴量の値が閾値B186以下であると判断されているのに対して、利用者から該当と判定されており、追加学習が要である画像データである。教師データ識別情報192が「LD02」であるレコードに示される画像データは、頭部色が黒である度合の特徴量が85であって特徴量の値が閾値A185以上であると判断されているのに対して、利用者から非該当と判定されており、追加学習が要である画像データである。 The records in which the teacher data identification information 192 is "LD01" and "LD02" are the data in which the extraction condition identification information matches the extraction condition of "SC01". In the image data shown in the record in which the teacher data identification information 192 is "LD01", it is determined that the feature amount of the degree to which the head color is black is 15 and the feature amount value is the threshold value B186 or less. On the other hand, it is image data that is judged to be applicable by the user and requires additional learning. The image data shown in the record in which the teacher data identification information 192 is "LD02" is determined to have a feature amount of 85 to the extent that the head color is black and a feature amount value of the threshold value A185 or more. On the other hand, it is image data that is judged not to be applicable by the user and requires additional learning.

≪教師データ抽出部≫
図3の説明に戻る。管理者が端末320において教師データ抽出を指示すると、Webサーバ116が教師データ抽出部118に通知する。教師データ抽出部118は、検索結果テーブル164(図7参照)の検索結果レコード(画像データ)のなかで、教師データ抽出条件テーブル181にある何れかの検索条件に合う検索結果レコードを抽出して、教師データ抽出結果テーブル191を生成する。抽出された教師データは、追加学習データとして、画像データベース120に格納されていて画像識別情報196に対応する画像データとともに追加学習装置300に送信される(図1参照)。抽出処理の詳細については、後記する図11を参照して説明する。
≪Teacher data extraction department≫
Returning to the description of FIG. When the administrator instructs the terminal 320 to extract the teacher data, the Web server 116 notifies the teacher data extraction unit 118. The teacher data extraction unit 118 extracts a search result record that matches any of the search conditions in the teacher data extraction condition table 181 from the search result records (image data) of the search result table 164 (see FIG. 7). , The teacher data extraction result table 191 is generated. The extracted teacher data is stored in the image database 120 as additional learning data and is transmitted to the additional learning device 300 together with the image data corresponding to the image identification information 196 (see FIG. 1). The details of the extraction process will be described with reference to FIG. 11 described later.

≪機械学習モデル更新部≫
図3の説明に戻る。機械学習モデル更新部119は、追加学習装置300が生成した新機械学習モデル420(図1参照)を受け取り、特徴抽出部113の機械学習モデル114と置き換える(機械学習モデル114を新機械学習モデル420で更新する)。
≪Machine learning model update department≫
Returning to the description of FIG. The machine learning model update unit 119 receives the new machine learning model 420 (see FIG. 1) generated by the additional learning device 300, and replaces the machine learning model 114 of the feature extraction unit 113 (the machine learning model 114 is replaced with the new machine learning model 420). Update with).

≪教師データ抽出処理≫
図11は、本実施形態に係る教師データ抽出部118が実行する教師データ抽出処理のフローチャートである。図11を参照しながら、教師データ抽出処理の詳細を説明する。
ステップS101において教師データ抽出部118は、教師データ抽出結果テーブル191を初期化して、レコード件数を0件とする。
ステップS102において教師データ抽出部118は、教師データ抽出条件テーブル181の各レコードが示す抽出条件について、ステップS103~S109を繰り返す。以下では、ステップS102で選択したレコードが示す抽出条件を本抽出条件と記す。
≪Teacher data extraction process≫
FIG. 11 is a flowchart of the teacher data extraction process executed by the teacher data extraction unit 118 according to the present embodiment. The details of the teacher data extraction process will be described with reference to FIG.
In step S101, the teacher data extraction unit 118 initializes the teacher data extraction result table 191 and sets the number of records to 0.
In step S102, the teacher data extraction unit 118 repeats steps S103 to S109 for the extraction conditions indicated by each record in the teacher data extraction condition table 181. In the following, the extraction condition indicated by the record selected in step S102 will be referred to as the present extraction condition.

ステップS103において教師データ抽出部118は、最新の検索結果テーブル164(図7参照)に含まれる各検索結果レコード(画像データ)について、ステップS104~S108を繰り返す。以下では、ステップS103で選択した検索結果レコードが示す画像データを抽出対象データと記す。 In step S103, the teacher data extraction unit 118 repeats steps S104 to S108 for each search result record (image data) included in the latest search result table 164 (see FIG. 7). In the following, the image data indicated by the search result record selected in step S103 will be referred to as extraction target data.

ステップS104において教師データ抽出部118は、抽出対象データの機械学習モデルバージョン178が本抽出条件の機械学習モデルバージョン189に合致するか判定し、合致すれば(ステップS104→Y)ステップS105に進み、合致しなければ(ステップS104→N)ステップS109に進む。 In step S104, the teacher data extraction unit 118 determines whether the machine learning model version 178 of the data to be extracted matches the machine learning model version 189 of the present extraction condition, and if so, proceeds to step S105 (step S104 → Y). If they do not match (step S104 → N), the process proceeds to step S109.

ステップS105において教師データ抽出部118は、抽出対象データが本抽出条件の正非フラグ184に合致するか判定し、合致すれば(ステップS105→Y)ステップS106に進み、合致しなければ(ステップS105→N)ステップS109に進む。
正非フラグ184が正解で合致するとは、抽出対象データの分類項目177(図7参照)が該当であることである。正非フラグ184が不正解で合致するとは、抽出対象データの分類項目177が非該当であることである。正非フラグ184が両方で合致するとは、抽出対象データの分類項目177が該当または非該当であることである。
In step S105, the teacher data extraction unit 118 determines whether the extraction target data matches the positive / negative flag 184 of the present extraction condition, and if it matches (step S105 → Y), proceeds to step S106, and if it does not match (step S105). → N) Proceed to step S109.
When the correct / non-flag 184 matches with the correct answer, it means that the classification item 177 (see FIG. 7) of the extraction target data is applicable. If the correct / non-flag 184 matches with an incorrect answer, it means that the classification item 177 of the extraction target data is not applicable. When the positive / negative flags 184 match in both cases, it means that the classification item 177 of the extraction target data is applicable or not applicable.

ステップS106において教師データ抽出部118は、抽出対象データの特徴と分類項目の相関から追加判定の要否を判定する。詳しくは、教師データ抽出部118は、特徴量の値が閾値A185以上であって分類項目が該当ならば、相関ありで、追加学習不要(追加学習否)と判定する。教師データ抽出部118は、特徴量の値が閾値A185以上でであって分類項目が非該当ならば、逆相関ありで、追加学習要と判定する。教師データ抽出部118は、特徴量の値が閾値B186以下であって分類項目が該当ならば、逆相関ありで、追加学習要と判定する。教師データ抽出部118は、特徴量の値が閾値B186以下であって分類項目が非該当ならば、相関ありで、追加学習不要と判定する。 In step S106, the teacher data extraction unit 118 determines the necessity of additional determination from the correlation between the characteristics of the extraction target data and the classification items. Specifically, if the value of the feature amount is the threshold value A185 or more and the classification item is applicable, the teacher data extraction unit 118 determines that there is a correlation and that additional learning is unnecessary (additional learning is not necessary). If the value of the feature amount is the threshold value A185 or more and the classification item is not applicable, the teacher data extraction unit 118 determines that there is an inverse correlation and additional learning is required. If the value of the feature amount is equal to or less than the threshold value B186 and the classification item is applicable, the teacher data extraction unit 118 determines that there is an inverse correlation and additional learning is required. If the value of the feature amount is equal to or less than the threshold value B186 and the classification item is not applicable, the teacher data extraction unit 118 determines that there is a correlation and no additional learning is required.

ステップS107において教師データ抽出部118は、抽出対象データが本抽出条件の追加学習要否187に合致するか判定し、合致すれば(ステップS107→Y)ステップS108に進み、合致しなければ(ステップS107→N)ステップS109に進む。抽出対象データが本抽出条件の追加学習要否187に合致するとは、ステップS106で判定した追加学習の要否(要または不要)が本抽出条件の追加学習要否187に示す条件(要、否、両方(要と否の何れか))に合致するということである。 In step S107, the teacher data extraction unit 118 determines whether the extraction target data matches the additional learning necessity 187 of the present extraction condition, and if it matches, proceeds to step S108 (step S107 → Y), and if it does not match (step S107). S107 → N) Proceed to step S109. The fact that the extraction target data matches the additional learning necessity 187 of the present extraction condition means that the necessity (necessary or unnecessary) of the additional learning determined in step S106 is the condition (necessary, no need) shown in the additional learning necessity 187 of the present extraction condition. , Both (either necessary or not) are met.

ステップS108において教師データ抽出部118は、抽出対象データを教師データ抽出結果テーブル191に追加する。追加するには、教師データ抽出結果テーブル191にレコードを追加して、教師データ識別情報192に新しい識別情報を格納し、特徴量193には本抽出条件の特徴量183を格納して、分類項目194には抽出対象データの分類項目177を格納し、追加学習要否195にはステップS106で判定した追加要否の判定結果を格納し、画像識別情報196には抽出対象データの画像識別情報166を格納して、類似度197には本抽出条件の特徴量183に対応する抽出対象データの特徴量を格納し、機械学習モデルバージョン198には、抽出対象データの機械学習モデルバージョン178を格納する。 In step S108, the teacher data extraction unit 118 adds the extraction target data to the teacher data extraction result table 191. To add, a record is added to the teacher data extraction result table 191, new identification information is stored in the teacher data identification information 192, and the feature amount 183 of this extraction condition is stored in the feature amount 193, and the classification item. The classification item 177 of the extraction target data is stored in 194, the determination result of the addition necessity determined in step S106 is stored in the additional learning necessity 195, and the image identification information 166 of the extraction target data is stored in the image identification information 196. Is stored, the feature amount of the extraction target data corresponding to the feature amount 183 of this extraction condition is stored in the similarity 197, and the machine learning model version 178 of the extraction target data is stored in the machine learning model version 198. ..

ステップS109において教師データ抽出部118は、最新の検索結果テーブル164に含まれる全ての検索結果レコードについてステップS104~S108を実行したならば、ステップS110に進む。残りがあるならば、次の検索結果レコードを抽出対象データとして、ステップS104~S108を実行する。
ステップS110において教師データ抽出部118は、教師データ抽出条件テーブル181に含まれる全ての抽出条件についてステップS103~S109を実行したならば、教師データ抽出処理を終える。残りがあるならば、次の抽出条件を本抽出条件として、ステップS103~S109を実行する。
In step S109, the teacher data extraction unit 118 proceeds to step S110 if steps S104 to S108 are executed for all the search result records included in the latest search result table 164. If there is a remainder, steps S104 to S108 are executed with the next search result record as the extraction target data.
In step S110, the teacher data extraction unit 118 ends the teacher data extraction process when steps S103 to S109 are executed for all the extraction conditions included in the teacher data extraction condition table 181. If there is a remainder, steps S103 to S109 are executed with the next extraction condition as the main extraction condition.

≪教師データ抽出処理の特徴≫
教師データ抽出の対象となる画像データは、探索する人物の条件を設定して検索した結果に、利用者が探索対象の人物に該当するか否かを判定した結果(分類項目)を付与したデータである。分類項目が付与済みであるため、教師データとして、改めて正解タグを付与することなく教師データとして利用可能である。例えば、図10に示す教師データ識別情報192が「LD01」のデータは、「頭部色が黒」という特徴量193に該当するデータとして、追加学習に使うことができる。従来技術にあるように、データを収集したり、新たに正解タグを付与したりする必要がなく、教師データを収集して正解タグを付与するコストを削減することができる。
≪Characteristics of teacher data extraction processing≫
The image data to be extracted from the teacher data is data obtained by adding the result (classification item) of determining whether or not the user corresponds to the person to be searched to the result of searching by setting the conditions of the person to be searched. Is. Since the classification items have already been added, it can be used as teacher data as teacher data without adding a correct answer tag again. For example, the data in which the teacher data identification information 192 shown in FIG. 10 is “LD01” can be used for additional learning as the data corresponding to the feature amount 193 that the head color is black. It is not necessary to collect data or add a new correct answer tag as in the prior art, and it is possible to reduce the cost of collecting teacher data and attaching a correct answer tag.

抽出された教師データは、画像検索装置100の外部に出力される。このように正解タグを付与する作業が効率化されることで、追加学習の期間を短縮することが可能となる。なお、追加学習を画像検索装置100内部で実行してもよい。 The extracted teacher data is output to the outside of the image search device 100. By streamlining the work of assigning correct answer tags in this way, it is possible to shorten the period of additional learning. In addition, additional learning may be executed inside the image search device 100.

深層学習の追加学習については、多くの文献で既に開示されているものであり、Caffeなどの機械学習フレームワークで様々な学習が可能である。本実施形態の効果は、特定のフレームワークに限定されるものではない。特に追加学習の必要性が高い特徴量を集中的に追加学習したい場合には、収集されたデータから、追加学習要否187を要(特徴量と分類項目が逆相関)として教師データを抽出して学習することで効率的に追加学習を進めることができる。また、全般的な学習により精度アップを図りたい場合は、収集されたデータから、正非フラグ184を両方として教師データを抽出して学習することで効率的に追加学習を進めることができる。 Additional learning of deep learning has already been disclosed in many literatures, and various learning is possible with machine learning frameworks such as Caffe. The effects of this embodiment are not limited to a specific framework. In particular, when it is desired to intensively perform additional learning of features that are highly necessary for additional learning, teacher data is extracted from the collected data with additional learning required or not 187 required (features and classification items are inversely correlated). It is possible to efficiently proceed with additional learning by learning. Further, when it is desired to improve the accuracy by general learning, additional learning can be efficiently advanced by extracting and learning the teacher data with both the positive and negative flags 184 from the collected data.

≪変形例1:機械学習モデルバージョン≫
画像検索装置100は、検索結果テーブル164(図7参照)や教師データ抽出結果テーブル191(図10参照)に付与された機械学習モデルバージョン178,198を参照して、古いバージョンの機械学習モデル114による特徴量を含む検索結果テーブル164をロードして参照する利用者や、教師データ抽出をする管理者に警告を送るようにしてもよい。こうすることで、異なるバージョンの検索結果レコードからの教師データ抽出を防ぐことができ、整合性のある追加学習が可能となる。
<< Modification 1: Machine learning model version >>
The image search device 100 refers to the machine learning model versions 178 and 198 assigned to the search result table 164 (see FIG. 7) and the teacher data extraction result table 191 (see FIG. 10), and refers to the old version of the machine learning model 114. A warning may be sent to a user who loads and refers to the search result table 164 including the feature amount according to the above, or an administrator who extracts teacher data. This prevents the extraction of teacher data from different versions of search result records and enables consistent additional learning.

≪変形例2:教師データ抽出条件≫
上記した実施形態では、教師データ抽出条件テーブル181(図8参照)に格納される抽出条件は、設定済みの条件として説明した。画像検索装置100の管理者により、抽出条件を変更できるようにしてもよい。このようにすることで、例えば、全ての特徴量について教師データを抽出するのではなく、精度が低いと考えられる特徴量(例えば頭部色、上半身の服の色がグレー)に絞って追加学習が可能となる。または、正非フラグ184や閾値A185、閾値B186を調整して、教師データ件数を加減することが可能となる。
<< Modification 2: Teacher data extraction conditions >>
In the above-described embodiment, the extraction conditions stored in the teacher data extraction condition table 181 (see FIG. 8) have been described as set conditions. The administrator of the image search device 100 may be able to change the extraction conditions. By doing so, for example, instead of extracting teacher data for all features, additional learning is focused on features that are considered to have low accuracy (for example, head color and upper body clothes are gray). Is possible. Alternatively, the number of teacher data can be adjusted by adjusting the positive / non-flag 184, the threshold value A185, and the threshold value B186.

図12は、本実施形態の変型例に係る画像検索装置100の端末320に表示される教師データ抽出条件設定画面600の構成図である。教師データ抽出条件設定画面600は、抽出セット領域610および抽出条件領域620を含んで構成される。
管理者は、教師データ抽出条件テーブル181(図8参照)に反映する内容を抽出条件領域620に設定する。詳しくは、教師データ抽出条件テーブル181の特徴量183、正非フラグ184、閾値A185、閾値B186および追加学習要否187に設定する値を、それぞれリストボックス621、リストボックス622、テキストボックス623、テキストボックス624およびリストボックス625に設定する。例えば、正非フラグ184については、リストボックス622の「正解」、「不正解」および「両方」から選択する。
FIG. 12 is a configuration diagram of a teacher data extraction condition setting screen 600 displayed on the terminal 320 of the image search device 100 according to the modified example of the present embodiment. The teacher data extraction condition setting screen 600 includes an extraction set area 610 and an extraction condition area 620.
The administrator sets the content to be reflected in the teacher data extraction condition table 181 (see FIG. 8) in the extraction condition area 620. Specifically, the values set in the feature amount 183, the positive / negative flag 184, the threshold value A185, the threshold value B186, and the additional learning necessity 187 of the teacher data extraction condition table 181 are set in the list box 621, the list box 622, the text box 623, and the text, respectively. Set to box 624 and list box 625. For example, the correct / non-flag 184 is selected from "correct answer", "incorrect answer", and "both" in the list box 622.

抽出セット領域610の抽出条件識別情報611は、教師データ抽出条件テーブル181の抽出条件識別情報182に対応する。管理者が抽出条件識別情報611を入力してロードボタン613を押下すると、教師データ抽出条件テーブル181のレコードのなかで抽出条件識別情報182が、管理者が入力した抽出条件識別情報611に一致するレコードの内容が抽出条件領域620に表示される。 The extraction condition identification information 611 of the extraction set area 610 corresponds to the extraction condition identification information 182 of the teacher data extraction condition table 181. When the administrator inputs the extraction condition identification information 611 and presses the load button 613, the extraction condition identification information 182 in the record of the teacher data extraction condition table 181 matches the extraction condition identification information 611 input by the administrator. The contents of the record are displayed in the extraction condition area 620.

管理者が抽出条件識別情報611を入力して保存ボタン612を押下すると、教師データ抽出条件テーブル181のレコードのなかで抽出条件識別情報182が、管理者が入力した抽出条件識別情報611に一致するレコードに、抽出条件領域620に設定された内容が反映される。管理者が入力した抽出条件識別情報611に一致するレコードがない場合には、教師データ抽出条件テーブル181にレコードが追加され、抽出条件領域620に設定された内容が反映される。 When the administrator inputs the extraction condition identification information 611 and presses the save button 612, the extraction condition identification information 182 in the record of the teacher data extraction condition table 181 matches the extraction condition identification information 611 input by the administrator. The contents set in the extraction condition area 620 are reflected in the record. If there is no record that matches the extraction condition identification information 611 input by the administrator, the record is added to the teacher data extraction condition table 181 and the contents set in the extraction condition area 620 are reflected.

≪変型例3:追加学習の必要性≫
特徴量と分類項目との相関を可視化することで、何れの特徴量について追加学習が必要かを判断することができる。図13および図14は、本実施形態の変型例に係る特徴量と分類項目との相関を示したグラフ470,480である。グラフ470は、ある特徴量、例えば上半身の服の色が青という検索条件における、検索結果レコード(図7参照)をプロットしたグラフである。また、グラフ480は、ある特徴量、例えば上半身の服の色が黒という検索条件における、検索結果レコードをプロットしたグラフである。グラフの右上にある「r = .8」や「r = -.8」は、相関係数を示している。
≪Variation example 3: Necessity of additional learning≫
By visualizing the correlation between the feature amount and the classification item, it is possible to determine which feature amount requires additional learning. 13 and 14 are graphs 470 and 480 showing the correlation between the feature amount and the classification item according to the modified example of the present embodiment. Graph 470 is a graph in which search result records (see FIG. 7) are plotted under a search condition in which a certain feature amount, for example, the color of the upper body clothes is blue. Further, the graph 480 is a graph in which search result records are plotted under a search condition that a certain feature amount, for example, the color of the upper body clothes is black. “R = .8” and “r = −.8” in the upper right of the graph indicate the correlation coefficient.

グラフ470では、分類項目が該当で特徴量が大きい領域471、および分類項目が非該当委で特徴量が小さい領域472にプロットされる検索結果レコードが多く、特徴量と分類項目の相関がある。このため、「上半身の服の色が青」という特徴量についての追加学習の必要性は、比較的低いといえる。
一方、グラフ480では、分類項目が該当で特徴量が小さい領域481、および分類項目が非該当で特徴量が大きい領域482にプロットされる検索結果レコードが多く、特徴量と分類項目の逆相関がある。このため、「上半身の服の色が黒」という特徴量についての追加学習の必要性は、比較的高いといえる。
In graph 470, there are many search result records plotted in the area 471 where the classification item is applicable and the feature amount is large, and the area 472 where the classification item is not applicable and the feature amount is small, and there is a correlation between the feature amount and the classification item. Therefore, it can be said that the need for additional learning about the feature amount that "the color of the clothes of the upper body is blue" is relatively low.
On the other hand, in Graph 480, there are many search result records plotted in the area 481 where the classification item is applicable and the feature amount is small, and the area 482 where the classification item is not applicable and the feature amount is large, and the inverse correlation between the feature amount and the classification item is large. be. Therefore, it can be said that the need for additional learning about the feature amount that "the color of the upper body clothes is black" is relatively high.

画像検索装置100が、グラフ470,480に示すような特徴量と分類項目との相関を示すグラフを管理者に提示するグラフ生成部を備えるようにしてもよい。管理者は、グラフ上で相関が低い(逆相関(負の相関)または弱い相関)特徴量について、優先的に追加学習することができる。
また、グラフ生成部は、グラフを管理者に提示すると同時に、相関係数を算出して表示するようにしてもよい。このようにすることで、管理者が追加学習の判断をしやすくなる。
さらに、グラフ生成部は、相関係数のほかに、該当と非該当とのそれぞれの検索結果レコードの特徴量について、平均値と標準偏差を算出して表示してもよい。管理者は、該当の平均値が低い、非該当の平均値が高い、該当または非該当の標準偏差が大きい特徴量について、優先的に追加学習するなど、相関係数、平均値、標準偏差を参照して追加学習する特徴量を判断することができる。
The image search device 100 may include a graph generation unit that presents a graph showing the correlation between the feature amount and the classification item as shown in the graphs 470 and 480 to the administrator. The administrator can preferentially perform additional learning for features with low correlation (inverse correlation (negative correlation) or weak correlation) on the graph.
Further, the graph generation unit may present the graph to the administrator and at the same time calculate and display the correlation coefficient. By doing so, it becomes easier for the administrator to make a decision on additional learning.
Further, in addition to the correlation coefficient, the graph generation unit may calculate and display an average value and a standard deviation for the feature quantities of the corresponding and non-applicable search result records. The administrator preferentially additionally learns the feature quantities with low applicable mean value, high non-applicable average value, and large applicable or non-applicable standard deviation, and to obtain the correlation coefficient, average value, and standard deviation. It is possible to judge the feature amount to be additionally learned by referring to it.

追加学習に用いる教師データについては、教師データ抽出条件設定画面600(図12参照)で抽出条件を設定して抽出する他に、グラフ上で管理者が指定した検索結果レコードを教師データとして抽出するようにしてもよい。画像検索装置100は、例えば、グラフ上で管理者が指定した領域にある検索結果レコードを抽出して教師データとしてもよい。 Regarding the teacher data used for additional learning, in addition to setting the extraction conditions on the teacher data extraction condition setting screen 600 (see FIG. 12) and extracting, the search result record specified by the administrator on the graph is extracted as teacher data. You may do so. The image search device 100 may, for example, extract a search result record in an area designated by the administrator on the graph and use it as teacher data.

≪変型例4:教師データ抽出のタイミング≫
上記した実施形態では、画像検索装置100は、管理者の指示があったときに追加学習用の教師データを抽出している。画像検索装置100は、例えば所定の周期で抽出して、追加学習装置300に出力するようにしてもよい。また、画像検索装置100は、定期的に抽出を繰り返し、抽出結果の件数が収集データ数188(図8参照)以上になったときに追加学習装置300に出力するようにしてもよい。
≪Variation example 4: Timing of teacher data extraction≫
In the above-described embodiment, the image search device 100 extracts teacher data for additional learning when instructed by the administrator. The image search device 100 may be extracted at a predetermined cycle, for example, and output to the additional learning device 300. Further, the image search device 100 may periodically repeat the extraction and output the extraction result to the additional learning device 300 when the number of collected data is 188 or more (see FIG. 8).

教師データは、利用者が分類項目設定領域534の分類項目を設定するたびに抽出するようにしてもよい。詳しくは、利用者が分類項目を設定するたびに、端末320上のWebブラウザは、画像識別情報および分類項目とをWebサーバ116に送信する。Webサーバ116は、画像識別情報および分類項目を分類項目登録部117および教師データ抽出部118に出力する。
分類項目登録部117は、検索結果データベース150の検索結果テーブル164(図7参照)のなかのレコードであって、画像識別情報に対応する検索結果レコードの分類項目177をWebサーバ116が出力した分類項目に変更する。
The teacher data may be extracted every time the user sets the classification item in the classification item setting area 534. Specifically, every time the user sets a classification item, the Web browser on the terminal 320 transmits the image identification information and the classification item to the Web server 116. The Web server 116 outputs the image identification information and the classification item to the classification item registration unit 117 and the teacher data extraction unit 118.
The classification item registration unit 117 is a record in the search result table 164 (see FIG. 7) of the search result database 150, and the classification item 177 of the search result record corresponding to the image identification information is output by the Web server 116. Change to an item.

教師データ抽出部118は、検索結果テーブル164のなかのレコードであって、画像識別情報に対応する検索結果レコードが、教師データ抽出条件テーブル181(図8参照)の何れかの抽出条件に合致するならば、検索結果レコードを教師データ抽出結果テーブル191(図10参照)に格納する。利用者が、分類項目を変更した場合には、分類項目177を変更したり、変更により教師データ抽出条件テーブル181(図8参照)の何れの抽出条件に合致しない場合にはレコードを削除したりする。
このようにすることで、利用者が設定した分類項目に応じて即座に教師データが抽出されるようになる。また、抽出結果の件数が収集データ数188に達したときに即座に教師データが抽出されて追加学習装置300(図1参照)に出力できるようになる。結果として、システムのダウンタイムの減少や日々の作業における保守コストの減少となり、機械学習モデル114の更新が早くなる。
The teacher data extraction unit 118 is a record in the search result table 164, and the search result record corresponding to the image identification information matches any of the extraction conditions in the teacher data extraction condition table 181 (see FIG. 8). If so, the search result record is stored in the teacher data extraction result table 191 (see FIG. 10). When the user changes the classification item, the classification item 177 is changed, or when the change does not meet any of the extraction conditions of the teacher data extraction condition table 181 (see FIG. 8), the record is deleted. do.
By doing so, the teacher data can be immediately extracted according to the classification item set by the user. Further, when the number of extraction results reaches the number of collected data 188, the teacher data is immediately extracted and can be output to the additional learning device 300 (see FIG. 1). As a result, system downtime is reduced, maintenance costs in daily work are reduced, and machine learning model 114 is updated faster.

他にも、画像検索装置100は、定期的に検索結果レコードにおける特徴と分類項目の相関係数や平均値、標準偏差を算出し、所定の条件を満たしたときに追加学習装置300に出力するようにしてもよい。例えば、画像検索装置100は、相関係数が所定値より小さいときに出力するようにしてもよい。
このようにすることで、管理者の指示がなくても、画像検索装置100は、必要に応じて追加学習を行うことができるようになる。または、画像検索装置100は、管理者に追加学習を促すことができるようになる。
In addition, the image search device 100 periodically calculates the correlation coefficient, the average value, and the standard deviation of the feature and the classification item in the search result record, and outputs the correlation coefficient, the average value, and the standard deviation to the additional learning device 300 when a predetermined condition is satisfied. You may do so. For example, the image search device 100 may output when the correlation coefficient is smaller than a predetermined value.
By doing so, the image search device 100 can perform additional learning as needed without the instruction of the administrator. Alternatively, the image search device 100 can encourage the administrator to perform additional learning.

≪変型例5:判定対象データや特徴量≫
上記した実施形態における機械学習モデル114は、人物の画像データから、頭部色や上半身の服の色、下半身の服の色の特徴量を抽出して分類している。色については、黒・グレー・白・青に限定する必要はない。色に限らず、メガネや帽子など身に着けているもの、かばんやスマートフォンなど携帯しているもの、背丈などを特徴量して抽出して分類するようにしてもよい。このような人物に対する様々な特徴量に対応することで、画像検索装置100が実行する検索の精度をあげることができる。
≪Variation example 5: Judgment target data and features≫
The machine learning model 114 in the above-described embodiment extracts and classifies the feature quantities of the head color, the color of the upper body clothes, and the color of the lower body clothes from the image data of the person. The colors do not have to be limited to black, gray, white and blue. Not limited to colors, items worn such as glasses and hats, items carried such as bags and smartphones, and height may be extracted and classified by feature quantity. By corresponding to various feature quantities for such a person, the accuracy of the search performed by the image search device 100 can be improved.

また、上記した実施形態における機械学習モデル114の対象(入力データ)は、人物の画像であるが、これに限定するものではなく、物品であってもよい。また、画像の検索に限らず、例えば、文書の検索であってもよい。種別やカテゴリなどで文書を検索する装置において、種別やカテゴリを特徴量として、機械学習モデルの教師データを抽出するようにしてもよい。機械学習モデルは、深層学習に限らず、SVMなどの機械学習モデルであってもよい。 Further, the target (input data) of the machine learning model 114 in the above-described embodiment is an image of a person, but the object is not limited to this, and may be an article. Further, the search is not limited to the image search, and may be, for example, a document search. In a device that searches for documents by type or category, the teacher data of the machine learning model may be extracted using the type or category as a feature quantity. The machine learning model is not limited to deep learning, and may be a machine learning model such as SVM.

≪変型例6:検索条件≫
上記した実施形態においての人物の検索条件は、頭部色、上半身の服の色および下半身の服の色である。この他に、カメラ310の撮影時刻や撮影したカメラ310、撮影エリアなどの条件を加えて、検索できるようにしてもよい。
または、検索条件として、頭部色、上半身の服の色および下半身の服の色の替わりに、探索対象人物の画像データを用いてもよい。画像検索部115は、検索条件となる画像データから頭部色、上半身の服の色および下半身の服の色を抽出して、抽出した色を条件に特徴量データベース130の特徴量テーブル131(図5参照)を検索する。このようにすることで、利用者は、頭部色や上半身の服の色、下半身の服の色を指定しなくても、対象人物の画像があれば検索可能となる。
≪Variation example 6: Search condition≫
The search conditions for a person in the above-described embodiment are the color of the head, the color of the upper body clothes, and the color of the lower body clothes. In addition to this, conditions such as the shooting time of the camera 310, the shooting camera 310, and the shooting area may be added so that the search can be performed.
Alternatively, as the search condition, image data of the person to be searched may be used instead of the color of the head, the color of the clothes of the upper body, and the color of the clothes of the lower body. The image search unit 115 extracts the head color, the color of the upper body clothes, and the color of the lower body clothes from the image data that is the search condition, and the feature amount table 131 of the feature amount database 130 (FIG. 5) is searched. By doing so, the user can search if there is an image of the target person without specifying the color of the head, the color of the clothes of the upper body, and the color of the clothes of the lower body.

≪変型例7:検索結果の表示順序≫
上記した実施形態において検索結果領域530には、検索結果531が検索条件との合致度(平均類似度)の降順で表示される。カメラやその設置エリア、撮影時刻など他の情報に基づいて順序で表示されてもよい。
≪Variation example 7: Display order of search results≫
In the above-described embodiment, the search result 531 is displayed in the search result area 530 in descending order of the degree of matching with the search condition (average similarity). It may be displayed in order based on other information such as the camera, its installation area, and the shooting time.

≪その他の変型例≫
本発明は、上記した実施形態に限定されることなく、その趣旨を逸脱しない範囲で変更することができる。画像検索装置100は、画像の取り込み、探索対象人物の検索、教師データの抽出を1台のコンピュータで実行していたが、複数のコンピュータで実行するようにしてもよい。また、ユーザインタフェースは、端末320上のWebブラウザであったが、これに限る必要はない。
≪Other variants≫
The present invention is not limited to the above-described embodiment, and can be modified without departing from the spirit of the present invention. The image search device 100 has executed the image acquisition, the search of the search target person, and the extraction of the teacher data on one computer, but it may be executed on a plurality of computers. Further, the user interface is a Web browser on the terminal 320, but the user interface is not limited to this.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。また、処理の順序を入れ替えたり、並列に処理してもよい。
例えば、特徴量テーブル131(図5参照)や検索結果テーブル164(図7参照)、教師データ抽出結果テーブル191(図10参照)は、画像識別情報134,166,196を含むが、これに替わり画像そのものを含めるようにしてもよい。また、画像検索部115、分類項目登録部117および教師データ抽出部118を1つの機能部としてもよい。他にも、ステップS104,S105を入れ替えてもよい。
これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and further, various modifications such as omission and substitution can be made without departing from the gist of the present invention. Further, the order of processing may be changed or processing may be performed in parallel.
For example, the feature amount table 131 (see FIG. 5), the search result table 164 (see FIG. 7), and the teacher data extraction result table 191 (see FIG. 10) include image identification information 134, 166, 196, but instead. The image itself may be included. Further, the image search unit 115, the classification item registration unit 117, and the teacher data extraction unit 118 may be used as one functional unit. Alternatively, steps S104 and S105 may be replaced.
These embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

100 画像検索装置
111 画像取込部
112 人物検出部
113 特徴抽出部
114 機械学習モデル
115 画像検索部
117 分類項目登録部(分類項目取得部)
118 教師データ抽出部
119 機械学習モデル更新部
300 追加学習装置
510 検索セット領域
520 検索条件領域
530 検索結果領域
531 検索結果
532 画像確認領域
533 平均類似度バー
534 分類項目設定領域
100 Image search device 111 Image capture unit 112 Person detection unit 113 Feature extraction unit 114 Machine learning model 115 Image search unit 117 Classification item registration unit (classification item acquisition unit)
118 Teacher data extraction unit 119 Machine learning model update unit 300 Additional learning device 510 Search set area 520 Search condition area 530 Search result area 531 Search result 532 Image confirmation area 533 Average similarity bar 534 Classification item setting area

Claims (12)

取得した画像から機械学習モデルを用いて特徴量を抽出する特徴抽出部と、
前記特徴量を用いて前記画像を検索して検索結果を出力する画像検索部と、
前記検索結果の個々の画像が分類されて、付与された分類結果を示す分類項目を取得する分類項目取得部と、
前記特徴量と前記分類項目との相関に基づいて、前記機械学習モデルを追加学習するための教師データとなる画像を抽出する教師データ抽出部と、を備える
ことを特徴とする画像検索装置。
A feature extractor that extracts features from the acquired image using a machine learning model,
An image search unit that searches for the image using the feature amount and outputs the search result,
A classification item acquisition unit that classifies individual images of the search results and acquires classification items indicating the assigned classification results.
An image search device including a teacher data extraction unit that extracts an image as teacher data for additional learning of the machine learning model based on the correlation between the feature amount and the classification item.
前記画像検索部は、目標とする対象の特徴を取得して、前記対象の特徴と前記画像から抽出された特徴量とを照合することで前記画像を検索して検索結果を出力し、
前記分類項目は、前記目標とする対象を前記画像が含むことを示す該当および前記目標とする対象を前記画像が含まないことを示す非該当を含む
ことを特徴とする請求項1に記載の画像検索装置。
The image search unit acquires the feature of the target target, collates the feature of the target with the feature amount extracted from the image, searches the image, and outputs the search result.
The image according to claim 1, wherein the classification item includes a hit indicating that the target object is included in the image and a non-applicability indicating that the target object is not included in the image. Search device.
前記教師データ抽出部は、抽出した画像とともに、当該画像の分類項目および特徴量の何れかを前記画像検索装置の外部に出力する
ことを特徴とする請求項1または2に記載の画像検索装置。
The image search device according to claim 1 or 2, wherein the teacher data extraction unit outputs any of a classification item and a feature amount of the image together with the extracted image to the outside of the image search device.
前記教師データ抽出部は、前記特徴量と前記分類項目とが逆相関である画像、および前記特徴量と前記分類項目とが相関している画像の何れかを抽出する
ことを特徴とする請求項1~3の何れか1項に記載の画像検索装置。
The claim is characterized in that the teacher data extraction unit extracts either an image in which the feature amount and the classification item are inversely correlated, or an image in which the feature amount and the classification item are correlated. The image search device according to any one of 1 to 3.
前記教師データ抽出部は、前記特徴量が所定値より低く前記分類項目が該当である画像、前記特徴量が所定値より高く前記分類項目が非該当である画像、前記特徴量が所定値より低く前記分類項目が非該当である画像、および前記特徴量が所定値より高く前記分類項目が該当である画像の何れかを抽出する
ことを特徴とする請求項4に記載の画像検索装置。
In the teacher data extraction unit, an image in which the feature amount is lower than a predetermined value and the classification item is applicable, an image in which the feature amount is higher than the predetermined value and the classification item is not applicable, and the feature amount is lower than the predetermined value. The image search device according to claim 4, wherein any of an image to which the classification item is not applicable and an image whose feature amount is higher than a predetermined value and the classification item is applicable is extracted.
前記特徴量と前記分類項目を軸とし、前記画像をプロットしたグラフを生成するグラフ生成部を備える
ことを特徴とする請求項1に記載の画像検索装置。
The image search apparatus according to claim 1, further comprising a graph generation unit that generates a graph in which the image is plotted with the feature amount and the classification item as axes.
前記グラフ生成部は、前記グラフにプロットされた画像の特徴量および分類項目の相関係数と、分類項目ごとの特徴量の平均および標準偏差との何れかを算出して表示する
ことを特徴とする請求項6に記載の画像検索装置。
The graph generator is characterized in that it calculates and displays one of the correlation coefficient of the feature amount and the classification item of the image plotted on the graph and the average and the standard deviation of the feature amount for each classification item. The image search device according to claim 6.
前記教師データ抽出部は、前回の抽出から所定時間が経過したとき、抽出件数が所定の条件を満たすとき、前記画像の特徴量と分類項目の相関が所定の条件を満たすとき、前記画像の分類項目ごとの特徴量の平均が所定の条件を満たすとき、前記画像の分類項目ごとの特徴量の標準偏差が所定の条件を満たすときの何れかのタイミングで、教師データとなる画像を抽出する、教師データとなる画像を抽出して前記画像検索装置の外部に出力する、および条件が満たされたことを報知するの何れかを実行する
ことを特徴とする請求項1に記載の画像検索装置。
The teacher data extraction unit classifies the images when a predetermined time has elapsed from the previous extraction, when the number of extracted images satisfies a predetermined condition, and when the correlation between the feature amount of the image and the classification item satisfies a predetermined condition. When the average of the feature amounts for each item satisfies a predetermined condition, the image to be the teacher data is extracted at any timing when the standard deviation of the feature amount for each classification item of the image satisfies the predetermined condition. The image search device according to claim 1, wherein the image to be the teacher data is extracted and output to the outside of the image search device, and the condition is notified that the condition is satisfied.
前記機械学習モデルには、前記追加学習の結果、前記機械学習モデルが更新されると変更されるバージョンが付与されており、
前記教師データ抽出部は、現行バージョンの機械学習モデルによって抽出された特徴量と、当該特徴量に基づいて検索されて付与された分類項目との相関に基づいて、教師データとなる画像を抽出する
ことを特徴とする請求項1に記載の画像検索装置。
The machine learning model is given a version that changes when the machine learning model is updated as a result of the additional learning.
The teacher data extraction unit extracts an image as teacher data based on the correlation between the feature amount extracted by the current version of the machine learning model and the classification item searched and assigned based on the feature amount. The image search device according to claim 1, wherein the image search device is characterized by the above.
前記教師データ抽出部は、現行バージョンとは異なるバージョンの機械学習モデルによって抽出された特徴量に基づいて検索されて付与された分類項目との相関に基づいて、教師データとなる画像の抽出を指示されると、警告を報知する
ことを特徴とする請求項9に記載の画像検索装置。
The teacher data extraction unit instructs to extract an image to be teacher data based on the correlation with the classification items searched and assigned based on the features extracted by the machine learning model of a version different from the current version. The image search device according to claim 9, further comprising notifying a warning when the image is searched.
前記画像は、人物を含む画像であり、
前記特徴量は、前記人物の頭部の色、上半身の服の色、下半身の服の色、前記人物が携帯しているもの、前記人物が身に着けているものにかかわる特徴量の何れかである
ことを特徴とする請求項1に記載の画像検索装置。
The image is an image including a person.
The feature amount is any one of the color of the head of the person, the color of the clothes of the upper body, the color of the clothes of the lower body, the feature amount related to what the person carries, and the feature amount related to what the person wears. The image search device according to claim 1, wherein the image search device is characterized by the above.
画像検索装置の教師データ抽出方法であって、
取得した画像から機械学習モデルを用いて特徴量を抽出するステップと、
前記特徴量を用いて前記画像を検索して検索結果を出力するステップと、
前記検索結果の個々の画像が分類されて、付与された分類結果を示す分類項目を取得するステップと、
前記特徴量と前記分類項目との相関に基づいて、前記機械学習モデルを追加学習するための教師データとなる画像を抽出するステップとを
実行することを特徴とする教師データ抽出方法。
It is a teacher data extraction method for image search devices.
Steps to extract features from the acquired image using a machine learning model,
A step of searching for the image using the feature amount and outputting a search result,
A step of classifying each image of the search result and acquiring a classification item indicating the given classification result, and
A teacher data extraction method characterized by executing a step of extracting an image as teacher data for additional learning of the machine learning model based on the correlation between the feature amount and the classification item.
JP2019028920A 2019-02-20 2019-02-20 Image search device and teacher data extraction method Active JP7018408B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019028920A JP7018408B2 (en) 2019-02-20 2019-02-20 Image search device and teacher data extraction method
PCT/JP2020/006286 WO2020171066A1 (en) 2019-02-20 2020-02-18 Image search device and training data extraction method
CN202080015638.6A CN113474769A (en) 2019-02-20 2020-02-18 Image retrieval device and supervised data extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028920A JP7018408B2 (en) 2019-02-20 2019-02-20 Image search device and teacher data extraction method

Publications (2)

Publication Number Publication Date
JP2020135494A JP2020135494A (en) 2020-08-31
JP7018408B2 true JP7018408B2 (en) 2022-02-10

Family

ID=72144325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028920A Active JP7018408B2 (en) 2019-02-20 2019-02-20 Image search device and teacher data extraction method

Country Status (3)

Country Link
JP (1) JP7018408B2 (en)
CN (1) CN113474769A (en)
WO (1) WO2020171066A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023007956A1 (en) * 2021-07-30 2023-02-02 富士フイルム株式会社 Data creation device, storage device, data processing system, data creation method, program, and imaging device
JP2023163443A (en) * 2022-04-28 2023-11-10 キヤノン株式会社 Image processing device, imaging device, and control method thereof
WO2024111429A1 (en) * 2022-11-25 2024-05-30 日本電気株式会社 Posture evaluation device, posture evaluation system, posture evaluation method, and program
JP7465025B1 (en) 2023-06-14 2024-04-10 株式会社Revox Information processing device, inference device, machine learning device, information processing method, inference method, and machine learning method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132554A (en) 1998-10-21 2000-05-12 Sharp Corp Image retrieval device and method
JP2017224184A (en) 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101059844A (en) * 2006-04-19 2007-10-24 索尼株式会社 Learning apparatus and method
CN101561805B (en) * 2008-04-18 2014-06-25 日电(中国)有限公司 Document classifier generation method and system
CN103955462B (en) * 2014-03-21 2017-03-15 南京邮电大学 A kind of based on multi views and the image labeling method of semi-supervised learning mechanism
CN104794489B (en) * 2015-04-23 2019-03-08 苏州大学 A kind of induction type image classification method and system based on deep tag prediction
JP6618735B2 (en) * 2015-08-31 2019-12-11 国立研究開発法人情報通信研究機構 Question answering system training apparatus and computer program therefor
CN108229526B (en) * 2017-06-16 2020-09-29 北京市商汤科技开发有限公司 Network training method, network training device, image processing method, image processing device, storage medium and electronic equipment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132554A (en) 1998-10-21 2000-05-12 Sharp Corp Image retrieval device and method
JP2017224184A (en) 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device

Also Published As

Publication number Publication date
CN113474769A (en) 2021-10-01
WO2020171066A1 (en) 2020-08-27
JP2020135494A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
JP7018408B2 (en) Image search device and teacher data extraction method
US10817749B2 (en) Dynamically identifying object attributes via image analysis
US10846554B2 (en) Hash-based appearance search
CN108829764B (en) Recommendation information acquisition method, device, system, server and storage medium
Wah et al. Similarity comparisons for interactive fine-grained categorization
JP5621897B2 (en) Processing method, computer program, and processing apparatus
US8416997B2 (en) Method of person identification using social connections
JP5934653B2 (en) Image classification device, image classification method, program, recording medium, integrated circuit, model creation device
Wu et al. Optimizing mean reciprocal rank for person re-identification
WO2017212813A1 (en) Image search device, image search system, and image search method
Hall et al. Fine-grained classification of pedestrians in video: Benchmark and state of the art
CN110569918B (en) Sample classification method and related device
KR102517961B1 (en) Method for providing clothing recommendation information based on user-selected clothing, and server and program using the same
JP6787831B2 (en) Target detection device, detection model generation device, program and method that can be learned by search results
JPWO2020026643A1 (en) Information processing equipment, information processing methods and information processing programs
Sun et al. Opinion spam detection based on heterogeneous information network
CN113051324A (en) User portrait construction method and device based on big data and storage medium
US20220075804A1 (en) Method and device for providing guide information for enhancement of artist&#39;s reputation
CN111767880B (en) Living body identity recognition method and device based on facial features and storage medium
JP6314071B2 (en) Information processing apparatus, information processing method, and program
CA3011713A1 (en) Hash-based appearance search
AU2019303730B2 (en) Hash-based appearance search
CN114746882A (en) Systems and methods for interaction awareness and content presentation
JP6573233B2 (en) Recognizability index calculation apparatus, method, and program
JP2019020820A (en) Video recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R150 Certificate of patent or registration of utility model

Ref document number: 7018408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150