JP7018408B2 - Image search device and teacher data extraction method - Google Patents
Image search device and teacher data extraction method Download PDFInfo
- Publication number
- JP7018408B2 JP7018408B2 JP2019028920A JP2019028920A JP7018408B2 JP 7018408 B2 JP7018408 B2 JP 7018408B2 JP 2019028920 A JP2019028920 A JP 2019028920A JP 2019028920 A JP2019028920 A JP 2019028920A JP 7018408 B2 JP7018408 B2 JP 7018408B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- teacher data
- search
- classification item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
本発明は、機械学習技術を用いた画像検索を行う画像検索装置と教師データ抽出方法とに関するものである。 The present invention relates to an image search device that performs image search using machine learning technology and a teacher data extraction method.
近年、画像認識、画像分類などの技術領域において深層学習(Deep Learning)に代表される機械学習技術の活用が進んでいる。機械学習による画像認識や画像分類では、従来のように開発者がアルゴリズムを設計してプログラミングするのではなく、機械学習モデル自身が、入力データに基づいて学習して、分類できるようになる。詳しくは、画像データとその正しい分類結果(正解タグ)のペアが複数入力されると、機械学習モデル自身が、入力された画像データに対して正しく分類結果を出力できるように、機械学習モデル内のパラメータを調整する。なお、入力される画像データとその分類結果のペアのデータは、教師データ(学習データ)と呼ばれ、教師データを用いた機械学習のことは、教師あり機械学習と呼ばれる。 In recent years, the utilization of machine learning technology represented by deep learning has been progressing in the technical fields such as image recognition and image classification. In image recognition and image classification by machine learning, the machine learning model itself can learn and classify based on the input data, instead of the developer designing and programming the algorithm as in the past. Specifically, when multiple pairs of image data and its correct classification result (correct answer tag) are input, the machine learning model itself can output the classification result correctly for the input image data in the machine learning model. Adjust the parameters of. The data of the pair of the input image data and the classification result is called teacher data (learning data), and the machine learning using the teacher data is called supervised machine learning.
教師あり機械学習では、大量の教師データが機械学習モデルに投入され、学習させることで、機械学習モデルの精度を向上させる。一般的に、学習に用いる教師データが多い程、機械学習モデルの精度が向上し、正確な分類結果を得ることが可能になる。
しかし、教師あり機械学習では大量の教師データを準備する必要があるために、画像データの収集と、収集した個々の画像データに対する正しい分類結果(正解タグ)を対応付けるという、教師データの準備作業が膨大となり、コストがかかるという問題がある。また、一度、実運用を開始した機械学習モデルも100%の正解率を得ることは困難であり、精度向上のための追加学習を行うことが望ましい。しかしながら、システムの日々の運用のなかで、追加学習用の教師データを収集することや正解タグを付与すると、システムのダウンタイムの増加や、日々の作業における保守コストが増加するという課題がある。
In supervised machine learning, a large amount of teacher data is input to the machine learning model and trained to improve the accuracy of the machine learning model. In general, the more teacher data used for learning, the better the accuracy of the machine learning model and the more accurate classification results can be obtained.
However, since it is necessary to prepare a large amount of teacher data in supervised machine learning, the preparation work of teacher data is to collect image data and associate the correct classification result (correct answer tag) with each collected image data. There is a problem that it becomes enormous and costly. In addition, it is difficult to obtain a 100% correct answer rate even for a machine learning model that has started actual operation once, so it is desirable to perform additional learning to improve accuracy. However, in the day-to-day operation of the system, collecting teacher data for additional learning and adding correct answer tags have problems such as an increase in system downtime and an increase in maintenance cost in daily work.
特許文献1の追加学習では、あらかじめ用意しておいた正解ラベル(分類結果、正解タグ)が付与されている正解ラベル付き画像データの特徴ベクトルである第1の特徴ベクトルと、正解ラベル付き画像を分割して生成したラベルが付与されていない画像(未ラベル画像)の特徴ベクトルである第2の特徴ベクトルとの距離情報を求める。距離情報に基づいて、利用者に提示する未ラベル画像データを選択し、利用者がラベル付けを行い、第2の正解ラベル付き画像として追加学習に利用する。
In the additional learning of
こうすることにより、第1の正解ラベル付き画像から、元の第1の正解ラベル付き画像と映っている内容が異なる新たな学習用画像を生成することが可能になる。例えば、元の第1の正解ラベル付き画像と最も似ていない未ラベル画像を、ユーザに提示する画像として選択することが可能になる。この結果、1学習用画像あたりの分類モデルの精度の改善率を大きくし、学習効率を向上させることなどが可能となることが記載されている。 By doing so, it becomes possible to generate a new learning image from the first image with the correct answer label, which has different contents from the original image with the correct answer label. For example, an unlabeled image that is least similar to the original first correct labeled image can be selected as the image to be presented to the user. As a result, it is described that it is possible to increase the improvement rate of the accuracy of the classification model per image for learning and improve the learning efficiency.
利用者の環境によって追加学習の対象は様々である。個々の機械学習モデルの動作環境に合った適切な機械学習を行うための、大量の画像が蓄積された画像データベースから必要なデータを効率よく収集する技術については、特許文献1では言及されていない。また、学習用の画像の収集は可能であるとしても、分類(正解タグ付け)が必要であり、コストがかかるという問題は解決されていない。
The target of additional learning varies depending on the user's environment.
本発明は、このような背景を鑑みてなされたものであり、教師データの収集や作成のコストを削減し、追加学習の容易化を可能とする画像検索装置および教師データ抽出方法を提供することを課題とする。 The present invention has been made in view of such a background, and provides an image search device and a teacher data extraction method that can reduce the cost of collecting and creating teacher data and facilitate additional learning. Is the subject.
上記課題を解決するため、本発明の画像検索装置は、取得した画像から機械学習モデルを用いて特徴量を抽出する特徴抽出部と、前記特徴量を用いて前記画像を検索して検索結果を出力する画像検索部と、前記検索結果の個々の画像が分類されて、付与された分類結果を示す分類項目を取得する分類項目取得部と、前記特徴量と前記分類項目との相関に基づいて、前記機械学習モデルを追加学習するための教師データとなる画像を抽出する教師データ抽出部と、を備える。 In order to solve the above problems, the image search device of the present invention has a feature extraction unit that extracts a feature amount from an acquired image using a machine learning model, and a feature extraction unit that searches the image using the feature amount and searches for a search result. Based on the correlation between the feature amount and the classification item, the output image search unit, the classification item acquisition unit that classifies the individual images of the search result and acquires the classification item indicating the given classification result, and the classification item acquisition unit. , A teacher data extraction unit for extracting an image to be teacher data for additional learning of the machine learning model.
本発明によれば、教師データの収集や作成のコストを削減し、追加学習の容易化を可能とする画像検索装置および教師データ抽出方法を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an image search device and a teacher data extraction method that can reduce the cost of collecting and creating teacher data and facilitate additional learning.
以下に、本発明を実施するための形態(実施形態)における画像検索装置について説明する。詳しくは、ショッピングモールやオフィスビルなどの施設に設置されるカメラが撮影した画像から、所定の条件に合致する人物の画像を検索するシステムにおける画像検索装置について説明する。画像検索装置は、蓄積した画像データから追加学習用の教師データとなる画像データを抽出する。なお、本システムは、施設内での迷子の探索といった用途や、施設で発生した問題に関わった人物を通報などで得られた情報を元に当該人物を探索するといった用途を想定しているが、これらの用途に限らず、幅広い用途に適用可能である。 Hereinafter, an image search device according to an embodiment (embodiment) for carrying out the present invention will be described. More specifically, an image search device in a system for searching an image of a person who meets a predetermined condition from an image taken by a camera installed in a facility such as a shopping mall or an office building will be described. The image search device extracts image data to be teacher data for additional learning from the accumulated image data. In addition, this system is supposed to be used for searching for lost children in the facility, and for searching for the person who was involved in the problem that occurred in the facility based on the information obtained by reporting. , Not limited to these applications, it can be applied to a wide range of applications.
≪画像検索システムの全体構成≫
図1は、本実施形態に係る画像検索装置100を含む画像検索システム10の全体構成を示す図である。画像検索システム10は、画像検索装置100、カメラ310、カメラ310が撮影した映像を画像検索装置100に転送するネットワーク330、追加学習装置300および端末320を含んで構成される。
≪Overall configuration of image search system≫
FIG. 1 is a diagram showing an overall configuration of an
カメラ310は、施設に設置されるカメラであり、ネットワーク330を経由して撮影した映像を画像検索装置100に送信する。端末320は、画像検索システム10を用いて施設内を監視する人(以下、利用者とも記す)が利用する端末である。利用者の端末320における操作方法や表示画面については、後記する図2を参照して説明する。画像検索装置100は、端末320から入力された人物の特徴(検索条件)に合致する人物を、カメラ310の画像から抽出して、端末320に出力する。
なお、画像検索システム10を用いて施設内を監視する人を利用者と記すのに対して、画像検索装置100の機械学習モデル114(後記する図3参照)を保守し、追加学習を管理する人を管理者と記す。管理者も端末320を利用してもよい。
The
The person who monitors the inside of the facility using the
追加学習装置300は、人物の特徴を抽出する際に用いられる機械学習モデル114と置き換わる新機械学習モデル420を生成する追加学習を実行する。追加学習装置300は、画像検索装置100から追加学習データ410(教師データ)を取得し、追加学習を実行して新機械学習モデル420を生成する。
The
≪画像検索装置の画像検索画面≫
図2は、本実施形態に係る画像検索装置100の端末320に表示される画像検索画面500の構成図である。本実施形態では、利用者は、Webブラウザを用いて画像検索装置100を操作する。画像検索画面500は、検索セット領域510、検索条件領域520および検索結果領域530を含んで構成される。
≪Image search screen of image search device≫
FIG. 2 is a configuration diagram of an
利用者は、検索する人物(探索対象となる人物)の特徴(検索条件)を検索条件領域520に設定する。詳しくは、人物の頭部の色(頭部色)をリストボックス521から選択して設定する。本実施形態では、頭部色は黒、グレーおよび白から選択するものとする。同様にして、上半身の服の色および下半身の服の色を黒、グレーおよび青から選択する。条件クリアボタン522が押下されると、選択された頭部色、上半身の服の色および下半身の服の色の色がクリアされ、何も選択されていない状態になる。検索ボタン523が押下されると、設定した条件に合う人物の画像が検索され、検索結果領域530に表示される。
The user sets the characteristics (search conditions) of the person to be searched (the person to be searched) in the
検索セット領域510の検索識別情報511は、検索条件および検索結果に割り当てられた識別情報であって、画像検索装置100が自動的に割り振る。保存ボタン512が押下されると、検索条件領域520に設定された検索条件、および検索結果領域530に表示された検索結果が画像検索装置100に保存される。利用者が検索識別情報511を入力してロードボタン513を押下すると、検索識別情報511に対応し保存されていた検索条件が、検索条件領域520に、検索結果が、検索結果領域530に表示される。
The
検索結果領域530は、検索結果531が検索条件との合致度(平均類似度とも記す)の降順に表示される領域である。図2では、6つの検索結果が表示されている。個々の検索結果531は、画像確認領域532、平均類似度バー533および分類項目設定領域534の3つの領域からなる。
画像確認領域532には、人物が含まれる映像のサンプル画像が表示される。サンプル画像には、画像検索装置100により割り振られた画像識別情報が表示される。また、人物が検出された領域は、矩形で囲われて表示される。画像確認領域532には、撮影時刻や撮影したカメラ、カメラが設置されているエリアの識別情報が含まれてもよい。
平均類似度バー533は、頭部色、上半身の服の色および下半身の服の色の類似度(後記する特徴量)の平均値を、棒グラフの形式で表示している。バー(ハッチングされている矩形)が右側にのびているほど(面積が大きいほど)平均類似度が高く、左端で平均類似度が0、右端で平均類似度が100を示す。
The
In the
The
分類項目設定領域534は、利用者が、画像中の矩形で囲われた人物(以下、画像の人物、または単に画像とも記す)が探索対象の人物に当たるか否かを判定した結果(以下、分類項目とも記す)を入力する領域である。利用者は、画像が探索対象の人物であると判断すれば、該当を選択する。利用者は、画像が探索対象の人物ではないと判断すれば、非該当を選択する。利用者は、判断を保留すれば、保留を選択する。該当、保留および非該当の何れも選択しない場合には、利用者は何も選択せず、未分類となる。
The classification
なお、保留の意味としては、画像が不鮮明で判断できない、探索対象人物か否か特定できない、目視確認するまで判断を保留する、利用者が判定結果を忘れないようにマークしたいなどの使い方を想定している。
本実施例では、該当や非該当という用語を用いて説明しているが、探索対象に該当または非該当という意味で、対象者/非対象者、要確認/確認不要、要注意/注意不要など別の用語を用いてもよい。
The meaning of the hold is assumed to be usage such as the image is unclear and cannot be judged, it cannot be specified whether it is the person to be searched, the judgment is held until it is visually confirmed, and the user wants to mark the judgment result so as not to be forgotten. is doing.
In this embodiment, the terms applicable and non-applicable are used to explain, but in the sense that the search target is applicable or non-applicable, the target person / non-target person, confirmation / confirmation not required, caution / attention not required, etc. Other terms may be used.
表示フィルタ536において、該当、保留、非該当、未分類の検索結果を検索結果領域530に表示するか否かを設定できる。図2においては、該当、保留、非該当、未分類が全て選択されており、すべての検索結果が検索結果領域530に表示される。利用者は、画像を該当、保留、非該当および未分類の分類項目に分類し、表示フィルタによってどの分類項目を表示するかを選択することができる。利用者は、検索結果の表示数を削減あるいは確認したい画像のみを表示することでき、画像間で人物を詳細に比較することや、判定や探索対象人物の確定が容易になる。
In the
検索結果領域530の左上にある検索結果の画像識別情報は「I3483」であり、平均類似度バーに示されるように平均類似度は約90%であって、利用者は該当を選択している。画像確認領域の画像には2人の人物が含まれているが、検索結果となっている人物は右側の矩形で囲われた人物である。
検索結果領域530の右側には、スクロールバー535が備えられている。利用者は、スクロールバー535のノブ(つまみ)や上下にあるアロー(矢印)を操作することで、表示されていない検索結果531を閲覧できる。
The image identification information of the search result in the upper left of the
A
≪画像検索装置の全体構成≫
図3は、本実施形態に係る画像検索装置100の機能ブロックの構成図である。画像検索装置100は、コンピュータであって、後記する特徴抽出部113や画像検索部115などの機能部として動作するCPU(Central Processing Unit)、データベースや一時的処理データ、CPUを機能部として動作させるプログラムを記憶する記憶部(ハードディスクやSSD(Solid State Drive)など)、および通信部などを含むが図示していない。
≪Overall configuration of image search device≫
FIG. 3 is a block diagram of a functional block of the
≪画像取込部、人物検出部、特徴抽出部≫
画像取込部111は、カメラ310が撮影した映像を取得し、映像の各フレーム画像を人物検出部112に出力する。
人物検出部112は、フレーム画像(単に画像、画像データとも記す)のなかの人物を検出して、検出した領域や撮影時刻情報、撮影したカメラの識別情報、画像識別情報とともに画像データベース(図3では画像DB(Database)と記載)120に格納する。また、人物検出部112は、人物を検出した領域の画像を画像識別情報とともに特徴抽出部113に出力する。
既存の人物検出技術としてFaster-RCNNなどがありUS9858496(B2)などにDNN(Deep Neural Networks)を用いた人物検出アルゴリズムなどが記載されている。
≪Image capture part, person detection part, feature extraction part≫
The
The
There is Faster-RCNN as an existing person detection technology, and a person detection algorithm using DNN (Deep Neural Networks) is described in US9858496 (B2) and the like.
特徴抽出部113は、機械学習モデル114を用いて人物の領域の画像から複数の特徴量を抽出して、特徴量データベース130(後記する図5参照)に格納する。複数の特徴量を抽出するDNNは、マルチラベル式のDNNと呼ばれ、例えば特表2018-503161号公報に、複数特徴量を解析し、その検出結果を出力するDNNの技術が開示されている。機械学習モデル114は、DNNに限らず、SVM(Support Vector Machine)など他の機械学習技術の機械学習モデルであってもよい。
The
図4は、本実施形態に係る画像取込部111、人物検出部112および特徴抽出部113の動作を説明するための図である。図4を参照して、画像取込部111、人物検出部112および特徴抽出部113が出力するデータについて補足して説明する。
画像431は、画像取込部111が出力した映像のフレーム画像であり、3人の人物が含まれている。画像432~434は、人物検出部112が出力した、画像431のなかで人物を検出した領域の画像であり、画像431に含まれる3人の人物それぞれを切り出した画像である。
FIG. 4 is a diagram for explaining the operation of the
The
特徴量データ435は、特徴抽出部113が出力したデータであって、画像432~434それぞれの特徴量を機械学習モデル114により解析した結果のデータである。機械学習モデル114は、複数の特徴量を抽出するマルチラベル式のDNNである。 特徴量は、頭部色が黒である度合、頭部色がグレーである度合、頭部色が白である度合、上半身の服の色が黒である度合、上半身の服の色がグレーである度合、上半身の服の色が青である度合、下半身の服の色が黒である度合、下半身の服の色がグレーである度合および下半身の服の色が青である度合の9つであり、9次元のベクトルで表される。各特徴量は、最大で100、最小で0となるよう正規化して出力される。例えば、画像識別情報が「I0014」である画像432の頭部色が黒である度合(特徴量)は80である。
The
≪特徴量データベース≫
図5は、本実施形態に係る特徴量データベース130に含まれる特徴量テーブル131のデータ構成を説明するための図である。特徴量データベース130は、1つ以上の特徴量テーブル131から構成される。特徴量テーブル131は、特徴量テーブル識別情報132、機械学習モデルバージョン133および1つ以上の画像レコードを含む。特徴量テーブル識別情報132は、特徴量テーブル131の識別情報である。機械学習モデルバージョン133は、特徴量テーブル131に含まれる特徴量を算出したときの機械学習モデル114のバージョンである。
≪Feature database≫
FIG. 5 is a diagram for explaining the data structure of the feature amount table 131 included in the
画像レコードは、画像識別情報(図5では画像IDと記載)134、頭部色が黒である度合の特徴量135、頭部色がグレーである度合の特徴量136、頭部色が白である度合の特徴量137、上半身の服の色が黒である度合の特徴量138、上半身の服の色がグレーである度合の特徴量139、上半身の服の色が青である度合の特徴量140、下半身の服の色が黒である度合の特徴量141、下半身の服の色がグレーである度合の特徴量142および下半身の服の色が青である度合の特徴量143の属性を含む。
The image record has image identification information (described as an image ID in FIG. 5) 134, a
特徴量テーブル131は、機械学習モデル114ごとに存在する。即ち、機械学習モデル114が新機械学習モデル420(図1参照)に更新されると、新しい特徴量テーブルに切り替えられる。このため、特徴量テーブル識別情報132と機械学習モデルバージョン133とは、1対1に対応する。同一の機械学習モデル114を用いて特徴抽出部113が特徴量を抽出している期間は、同一の特徴量テーブル131に画像レコードが追加されていく。
なお、特徴量テーブル131は、日ごとやカメラごと、施設のエリアごとに分割するようにしてもよい。この場合、特徴量テーブル識別情報132と機械学習モデルバージョン133とは、N対1の対応となる。
The feature amount table 131 exists for each
The feature amount table 131 may be divided by day, by camera, or by facility area. In this case, the feature amount
≪画像検索部:検索時の動作≫
図3の説明に戻る。Webサーバ116は、端末320の利用者からの指示を受信したり、指示された処理の結果を端末320に送信したりする。利用者が検索条件領域520(図2参照)に検索条件を設定して検索ボタン523を押下して検索を指示すると、Webサーバ116が検索条件を受信して、画像検索部115に出力する。画像検索部115は、検索条件を検索結果データベース150の検索条件テーブル151(後記する図6参照)に格納する。
≪Image search section: Operation during search≫
Returning to the description of FIG. The
続いて、画像検索部115は、特徴量テーブル131の画像レコードのなかで、指定された検索条件に含まれる特徴量の平均値(平均類似度)が所定の値以上のレコードを検索した結果を、検索結果データベース150の検索結果テーブル164(後記する図7参照)に格納する。続いて、画像検索部115は、検索結果を平均類似度の降順でソートする。さらに、画像検索部115は、このソートした結果の各レコードに対応する画像データを画像データベース120から取得して、画像データ、平均値および分類項目設定領域534の表示用データと合わせたデータを検索条件に対する検索結果として、Webサーバ116に出力する。Webサーバ116は、検索結果を端末320に送信する。端末320のWebブラウザは、受信した検索結果を検索結果領域530(図2参照)に表示する。
Subsequently, the
≪検索結果データベース:検索条件テーブル≫
図6は、本実施形態に係る検索結果データベース150に含まれる検索条件テーブル151のデータ構成を示す図である。検索結果データベース150は、検索条件テーブル151および検索結果テーブル164(後記する図7参照)を含む。
≪Search result database: Search condition table≫
FIG. 6 is a diagram showing a data structure of the search condition table 151 included in the
検索条件テーブル151は、例えば、表形式のデータであって、1つのレコード(行)は、1つの検索条件を示し、検索識別情報(図6では検索IDと記載)152、検索条件に頭部色が黒・グレー・白を含むか否かを示すフラグ153~155、検索条件に上半身の服の色が黒・グレー・青を含むか否かを示すフラグ156~158、検索条件に下半身の服の色が黒・グレー・青を含むか否かを示すフラグ159~161、特徴量テーブル識別情報162および機械学習モデルバージョン163(図6ではMLM(Machine Learning Model)バージョンと記載)の属性を含む。
The search condition table 151 is, for example, tabular data, one record (row) indicates one search condition, search identification information (described as a search ID in FIG. 6) 152, and the head of the search condition.
フラグ153~161は、検索条件に含まれれば「1」であり、含まなければ「0」である。例えば、検索識別情報152が「S018」であるレコードは、頭部色がグレー、上半身の服の色が青、下半身の服の色が黒である検索条件を示している。特徴量テーブル識別情報162および機械学習モデルバージョン163は、特徴量テーブル131(図5参照)の特徴量テーブル識別情報132および機械学習モデルバージョン133にそれぞれ対応し、検索対象となる特徴量テーブル131や特徴量が算出されたときの機械学習モデル114のバージョンを示す。
≪検索結果データベース:検索結果テーブル≫
図7は、本実施形態に係る検索結果データベース150に含まれる検索結果テーブル164のデータ構成を示す図である。検索結果テーブル164は、例えば表形式のデータであって、検索結果である検索結果レコードから構成される。検索結果レコードは、検索条件テーブル151の検索識別情報152に対応する検索識別情報165、特徴量テーブル131の画像識別情報134に対応する画像識別情報166、特徴量テーブル131の特徴量135~143にそれぞれ対応する特徴量167~175、平均類似度176、分類項目177および検索条件テーブル151の機械学習モデルバージョン163に対応する機械学習モデルバージョン178の属性を含む。
≪Search result database: Search result table≫
FIG. 7 is a diagram showing a data structure of the search result table 164 included in the
分類項目177は、利用者が設定した個々の検索結果に対する分類項目(図2の分類項目設定領域534参照)を格納する属性であって、分類項目が該当ならば「1」、保留ならば「2」、非該当ならば「3」、未分類ならば「0」である。利用者が分類項目を設定する前の初期状態では、分類項目は設定されていないので、分類項目177は「0」となる。
The
検索結果テーブル164のなかで画像識別情報166が「I0014」である検索結果レコードについて説明する。この検索結果レコードの検索識別情報165は、「S018」であり、検索条件テーブル151のなかの検索識別情報152が「S018」であるレコードである検索条件によって検索された結果であることを示している。特徴量167~175は、特徴量テーブル131にある画像識別情報134が「I0014」であるレコードの特徴量135~143にそれぞれ対応する。
検索識別情報152が「S018」であるレコードである検索条件は、頭部色がグレー、上半身の服の色が青、下半身の服の色が黒である。対応する特徴量は、それぞれ20、30、30であり、平均類似度176は、27となる。
The search result record in which the
The search condition for the record in which the
≪分類項目登録部:検索保存時の動作≫
図3の説明に戻る。利用者が分類項目設定領域534(図2参照)において分類項目を入力して、保存ボタン512を押下すると、端末320のWebブラウザは、個々の検索結果に対する分類項目(該当、保留、非該当または未分類)をWebサーバ116に送信し、Webサーバ116は、分類項目を分類項目登録部117に出力する。分類項目登録部117は、検索結果に対応する利用者による判定結果である分類項目を、検索結果データベース150の検索結果テーブル164の分類項目177に格納する。
≪Category item registration unit: Operation when searching and saving≫
Returning to the description of FIG. When the user inputs a classification item in the classification item setting area 534 (see FIG. 2) and presses the
≪画像検索部:検索結果ロード時の動作≫
利用者が検索識別情報511(図2参照)を入力してロードボタン513を押下すると、端末320のWebブラウザは、検索識別情報をWebサーバ116に送信し、Webサーバ116は、検索識別情報を画像検索部115に出力する。画像検索部115は、検索結果データベース150の検索条件テーブル151のレコードのなかで、検索識別情報152が、Webサーバ116が出力した検索識別情報に一致する検索条件のレコードを取得する。
≪Image search section: Operation when loading search results≫
When the user inputs the search identification information 511 (see FIG. 2) and presses the
また、画像検索部115は、検索結果データベース150の検索結果テーブル164の検索レコードのなかで、検索識別情報165が、Webサーバ116が出力した検索識別情報に一致する検索結果レコードを取得する。画像検索部115は、検索条件のレコードと、検索結果レコードをWebサーバ116に出力し、Webサーバ116は、端末320に送信する。端末320のWebブラウザは、受信した検索条件のレコードを検索条件領域520(図2参照)に、検索結果レコードを検索結果領域530に表示する。
Further, the
≪教師データ抽出結果データベース≫
教師データ抽出部118の動作を説明する前に、教師データ抽出結果データベース180を説明する。教師データ抽出結果データベース180は、教師データ抽出条件テーブル181(後記する図8参照)と教師データ抽出結果テーブル191(後記する図10参照)を含む。
≪Teacher data extraction result database≫
Before explaining the operation of the teacher
≪教師データ抽出結果データベース:教師データ抽出条件テーブル≫
図8は、本実施形態に係る教師データ抽出条件テーブル181のデータ構成を示す図である。教師データ抽出条件テーブル181は、例えば表形式のデータであって、1つのレコード(行)は、1つの抽出条件を示し、抽出条件識別情報182、特徴量183、正非フラグ184、閾値A185、閾値B186、追加学習要否187、収集データ数188および機械学習モデルバージョン189を含む。抽出条件は、検索結果テーブル164(図7参照)の画像データに相当する検索結果レコードを検索するときの検索条件である。機械学習モデルバージョン189は、抽出対象となる検索結果テーブル164の検索結果レコードの機械学習モデルバージョン178を示す。
≪Teacher data extraction result database: Teacher data extraction condition table≫
FIG. 8 is a diagram showing a data structure of the teacher data extraction condition table 181 according to the present embodiment. The teacher data extraction condition table 181 is, for example, tabular data, one record (row) indicates one extraction condition, extraction
抽出条件識別情報182は、抽出条件の識別情報である。
特徴量183は、抽出条件のキーとなる特徴量を示し、頭部色が黒・グレー・白である特徴量、上半身の服の色が黒・グレー・青である特徴量および下半身の服の色が黒・グレー・青である特徴量の何れかである。
正非フラグ184は、正解、不正解または両方である。正解とは、分類項目177を該当に設定した検索結果を正解とみなすデータのこと、不正解とは、分類項目177を非該当に設定した検索結果を不正解とみなすデータのこと、両方は、正解と不正解の両方のデータのことを指す。
The extraction
The
The correct /
追加学習要否187は、追加学習が要のデータを抽出するか、追加学習が否のデータを抽出するか、追加学習が要と否の両方のデータを抽出するかを示す。追加学習が要とは、利用者の判断結果(分類項目)が該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値B186以下である場合か、利用者の判断結果が非該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値A185以上である場合である。また、追加学習が否とは、利用者の判断結果が該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値A185以上である場合か、利用者の判断結果が非該当であって、抽出対象データの特徴量183に示される特徴量の値が閾値B186以下である場合である。抽出対象データの特徴量が閾値A185と閾値B186の間にある場合や、分類項目が保留または未分類ならば、要でも否でもない。
追加学習要否187は、後記する図9を参照して再度説明する。
The
The necessity of
収集データ数188は、追加学習の教師データとして望ましい、抽出条件に合致する検索結果テーブル164(図7参照)の検索結果レコードの件数である。
抽出条件識別情報182が「SC01」であるレコードは、キーとなる特徴量183が「頭部色が黒」であって、正非フラグ184が正解と不正解の両方であり、閾値A185が80、閾値B186が30として追加学習が要となる抽出条件を示している。
The number of collected
In the record in which the extraction
図9は、本実施形態に係り、抽出対象データ(検索結果レコード)の正非フラグ184、閾値A185、閾値B186および追加学習要否187を説明するためのグラフ450である。グラフ450の縦軸は特徴量であり、横軸は分類項目である。点線横線455は、閾値A185に示される閾値であり、点線横線456は、閾値B186に示される閾値である。
FIG. 9 is a
利用者により該当と判定され、特徴量が閾値A185以上の抽出対象データは、領域451にプロットされる。利用者により該当と判定され、特徴量が閾値B186以下の抽出対象データは、領域452にプロットされる。利用者により非該当と判定され、特徴量が閾値A185以上の抽出対象データは、領域454にプロットされる。利用者により非該当と判定され、特徴量が閾値B186以下の抽出対象データは、領域453にプロットされる。
The extraction target data that is determined to be applicable by the user and whose feature amount is the threshold value A185 or more is plotted in the
追加学習が要となる抽出対象データは、特徴量と分類項目(該当、非該当)が食い違っている(特徴量と分類項目との逆相関がある)領域452または領域454にプロットされる抽出対象データである。追加学習が否となる抽出対象データは、特徴量と分類項目が一致している(特徴量と分類項目との相関がある)領域451または領域453にプロットされる抽出対象データである。
The extraction target data that requires additional learning is an extraction target plotted in
正非フラグが正解となる抽出対象データは、分類項目が該当であるデータであって、領域451、領域452、または領域451と領域452との間にプロットされる抽出対象データである。不正解となる抽出対象データは、分類項目が非該当であるデータであって、領域453、領域454、または領域453と領域454との間にプロットされる抽出対象データである。
The extraction target data for which the correct / non-flag is the correct answer is the data to which the classification item corresponds, and is the extraction target data plotted between the
≪教師データ抽出結果データベース:教師データ抽出結果テーブル≫
図10は、本実施形態に係る教師データ抽出結果テーブル191のデータ構成を示す図である。教師データ抽出結果テーブル191は、例えば表形式のデータであって、1つのレコード(行)は、教師データ抽出条件テーブル181の何れかの抽出条件に合致して抽出された検索結果テーブル164(図7参照)の検索結果レコード(画像データ)を示し、教師データ識別情報192、特徴量193、分類項目194、追加学習要否195、画像識別情報196、類似度197および機械学習モデルバージョン198の属性を含む。
≪Teacher data extraction result database: Teacher data extraction result table≫
FIG. 10 is a diagram showing a data structure of the teacher data extraction result table 191 according to the present embodiment. The teacher data extraction result table 191 is, for example, tabular data, and one record (row) is a search result table 164 (FIG.) extracted according to any of the extraction conditions of the teacher data extraction condition table 181. 7) Search result record (image data) is shown, teacher
教師データ識別情報192は、教師データとして抽出された画像データの識別情報である。
特徴量193は、教師データ抽出条件テーブル181の検索条件にある特徴量183に対応し、どの特徴量がキーとなっているかを示す。
分類項目194は、教師データとして抽出された画像データに対する利用者の判定結果である分類項目あり、該当か非該当である。
The teacher
The
The
追加学習要否195は、教師データとして抽出された画像データに対する追加学習の要否を示す。
画像識別情報196は、教師データとして抽出された画像データの識別情報であり、画像識別情報166(図7参照)に対応する。
類似度197は、画像データの特徴量193に示される特徴量の値である。
機械学習モデルバージョン198は、教師データとして抽出された画像データの機械学習モデルバージョン178を示す。
The necessity of
The
The
Machine
教師データ識別情報192が「LD01」および「LD02」のレコードは、抽出条件識別情報が「SC01」の抽出条件で合致したデータである。教師データ識別情報192が「LD01」であるレコードに示される画像データは、頭部色が黒である度合の特徴量が15であって特徴量の値が閾値B186以下であると判断されているのに対して、利用者から該当と判定されており、追加学習が要である画像データである。教師データ識別情報192が「LD02」であるレコードに示される画像データは、頭部色が黒である度合の特徴量が85であって特徴量の値が閾値A185以上であると判断されているのに対して、利用者から非該当と判定されており、追加学習が要である画像データである。
The records in which the teacher
≪教師データ抽出部≫
図3の説明に戻る。管理者が端末320において教師データ抽出を指示すると、Webサーバ116が教師データ抽出部118に通知する。教師データ抽出部118は、検索結果テーブル164(図7参照)の検索結果レコード(画像データ)のなかで、教師データ抽出条件テーブル181にある何れかの検索条件に合う検索結果レコードを抽出して、教師データ抽出結果テーブル191を生成する。抽出された教師データは、追加学習データとして、画像データベース120に格納されていて画像識別情報196に対応する画像データとともに追加学習装置300に送信される(図1参照)。抽出処理の詳細については、後記する図11を参照して説明する。
≪Teacher data extraction department≫
Returning to the description of FIG. When the administrator instructs the terminal 320 to extract the teacher data, the
≪機械学習モデル更新部≫
図3の説明に戻る。機械学習モデル更新部119は、追加学習装置300が生成した新機械学習モデル420(図1参照)を受け取り、特徴抽出部113の機械学習モデル114と置き換える(機械学習モデル114を新機械学習モデル420で更新する)。
≪Machine learning model update department≫
Returning to the description of FIG. The machine learning
≪教師データ抽出処理≫
図11は、本実施形態に係る教師データ抽出部118が実行する教師データ抽出処理のフローチャートである。図11を参照しながら、教師データ抽出処理の詳細を説明する。
ステップS101において教師データ抽出部118は、教師データ抽出結果テーブル191を初期化して、レコード件数を0件とする。
ステップS102において教師データ抽出部118は、教師データ抽出条件テーブル181の各レコードが示す抽出条件について、ステップS103~S109を繰り返す。以下では、ステップS102で選択したレコードが示す抽出条件を本抽出条件と記す。
≪Teacher data extraction process≫
FIG. 11 is a flowchart of the teacher data extraction process executed by the teacher
In step S101, the teacher
In step S102, the teacher
ステップS103において教師データ抽出部118は、最新の検索結果テーブル164(図7参照)に含まれる各検索結果レコード(画像データ)について、ステップS104~S108を繰り返す。以下では、ステップS103で選択した検索結果レコードが示す画像データを抽出対象データと記す。
In step S103, the teacher
ステップS104において教師データ抽出部118は、抽出対象データの機械学習モデルバージョン178が本抽出条件の機械学習モデルバージョン189に合致するか判定し、合致すれば(ステップS104→Y)ステップS105に進み、合致しなければ(ステップS104→N)ステップS109に進む。
In step S104, the teacher
ステップS105において教師データ抽出部118は、抽出対象データが本抽出条件の正非フラグ184に合致するか判定し、合致すれば(ステップS105→Y)ステップS106に進み、合致しなければ(ステップS105→N)ステップS109に進む。
正非フラグ184が正解で合致するとは、抽出対象データの分類項目177(図7参照)が該当であることである。正非フラグ184が不正解で合致するとは、抽出対象データの分類項目177が非該当であることである。正非フラグ184が両方で合致するとは、抽出対象データの分類項目177が該当または非該当であることである。
In step S105, the teacher
When the correct / non-flag 184 matches with the correct answer, it means that the classification item 177 (see FIG. 7) of the extraction target data is applicable. If the correct / non-flag 184 matches with an incorrect answer, it means that the
ステップS106において教師データ抽出部118は、抽出対象データの特徴と分類項目の相関から追加判定の要否を判定する。詳しくは、教師データ抽出部118は、特徴量の値が閾値A185以上であって分類項目が該当ならば、相関ありで、追加学習不要(追加学習否)と判定する。教師データ抽出部118は、特徴量の値が閾値A185以上でであって分類項目が非該当ならば、逆相関ありで、追加学習要と判定する。教師データ抽出部118は、特徴量の値が閾値B186以下であって分類項目が該当ならば、逆相関ありで、追加学習要と判定する。教師データ抽出部118は、特徴量の値が閾値B186以下であって分類項目が非該当ならば、相関ありで、追加学習不要と判定する。
In step S106, the teacher
ステップS107において教師データ抽出部118は、抽出対象データが本抽出条件の追加学習要否187に合致するか判定し、合致すれば(ステップS107→Y)ステップS108に進み、合致しなければ(ステップS107→N)ステップS109に進む。抽出対象データが本抽出条件の追加学習要否187に合致するとは、ステップS106で判定した追加学習の要否(要または不要)が本抽出条件の追加学習要否187に示す条件(要、否、両方(要と否の何れか))に合致するということである。
In step S107, the teacher
ステップS108において教師データ抽出部118は、抽出対象データを教師データ抽出結果テーブル191に追加する。追加するには、教師データ抽出結果テーブル191にレコードを追加して、教師データ識別情報192に新しい識別情報を格納し、特徴量193には本抽出条件の特徴量183を格納して、分類項目194には抽出対象データの分類項目177を格納し、追加学習要否195にはステップS106で判定した追加要否の判定結果を格納し、画像識別情報196には抽出対象データの画像識別情報166を格納して、類似度197には本抽出条件の特徴量183に対応する抽出対象データの特徴量を格納し、機械学習モデルバージョン198には、抽出対象データの機械学習モデルバージョン178を格納する。
In step S108, the teacher
ステップS109において教師データ抽出部118は、最新の検索結果テーブル164に含まれる全ての検索結果レコードについてステップS104~S108を実行したならば、ステップS110に進む。残りがあるならば、次の検索結果レコードを抽出対象データとして、ステップS104~S108を実行する。
ステップS110において教師データ抽出部118は、教師データ抽出条件テーブル181に含まれる全ての抽出条件についてステップS103~S109を実行したならば、教師データ抽出処理を終える。残りがあるならば、次の抽出条件を本抽出条件として、ステップS103~S109を実行する。
In step S109, the teacher
In step S110, the teacher
≪教師データ抽出処理の特徴≫
教師データ抽出の対象となる画像データは、探索する人物の条件を設定して検索した結果に、利用者が探索対象の人物に該当するか否かを判定した結果(分類項目)を付与したデータである。分類項目が付与済みであるため、教師データとして、改めて正解タグを付与することなく教師データとして利用可能である。例えば、図10に示す教師データ識別情報192が「LD01」のデータは、「頭部色が黒」という特徴量193に該当するデータとして、追加学習に使うことができる。従来技術にあるように、データを収集したり、新たに正解タグを付与したりする必要がなく、教師データを収集して正解タグを付与するコストを削減することができる。
≪Characteristics of teacher data extraction processing≫
The image data to be extracted from the teacher data is data obtained by adding the result (classification item) of determining whether or not the user corresponds to the person to be searched to the result of searching by setting the conditions of the person to be searched. Is. Since the classification items have already been added, it can be used as teacher data as teacher data without adding a correct answer tag again. For example, the data in which the teacher
抽出された教師データは、画像検索装置100の外部に出力される。このように正解タグを付与する作業が効率化されることで、追加学習の期間を短縮することが可能となる。なお、追加学習を画像検索装置100内部で実行してもよい。
The extracted teacher data is output to the outside of the
深層学習の追加学習については、多くの文献で既に開示されているものであり、Caffeなどの機械学習フレームワークで様々な学習が可能である。本実施形態の効果は、特定のフレームワークに限定されるものではない。特に追加学習の必要性が高い特徴量を集中的に追加学習したい場合には、収集されたデータから、追加学習要否187を要(特徴量と分類項目が逆相関)として教師データを抽出して学習することで効率的に追加学習を進めることができる。また、全般的な学習により精度アップを図りたい場合は、収集されたデータから、正非フラグ184を両方として教師データを抽出して学習することで効率的に追加学習を進めることができる。
Additional learning of deep learning has already been disclosed in many literatures, and various learning is possible with machine learning frameworks such as Caffe. The effects of this embodiment are not limited to a specific framework. In particular, when it is desired to intensively perform additional learning of features that are highly necessary for additional learning, teacher data is extracted from the collected data with additional learning required or not 187 required (features and classification items are inversely correlated). It is possible to efficiently proceed with additional learning by learning. Further, when it is desired to improve the accuracy by general learning, additional learning can be efficiently advanced by extracting and learning the teacher data with both the positive and
≪変形例1:機械学習モデルバージョン≫
画像検索装置100は、検索結果テーブル164(図7参照)や教師データ抽出結果テーブル191(図10参照)に付与された機械学習モデルバージョン178,198を参照して、古いバージョンの機械学習モデル114による特徴量を含む検索結果テーブル164をロードして参照する利用者や、教師データ抽出をする管理者に警告を送るようにしてもよい。こうすることで、異なるバージョンの検索結果レコードからの教師データ抽出を防ぐことができ、整合性のある追加学習が可能となる。
<< Modification 1: Machine learning model version >>
The
≪変形例2:教師データ抽出条件≫
上記した実施形態では、教師データ抽出条件テーブル181(図8参照)に格納される抽出条件は、設定済みの条件として説明した。画像検索装置100の管理者により、抽出条件を変更できるようにしてもよい。このようにすることで、例えば、全ての特徴量について教師データを抽出するのではなく、精度が低いと考えられる特徴量(例えば頭部色、上半身の服の色がグレー)に絞って追加学習が可能となる。または、正非フラグ184や閾値A185、閾値B186を調整して、教師データ件数を加減することが可能となる。
<< Modification 2: Teacher data extraction conditions >>
In the above-described embodiment, the extraction conditions stored in the teacher data extraction condition table 181 (see FIG. 8) have been described as set conditions. The administrator of the
図12は、本実施形態の変型例に係る画像検索装置100の端末320に表示される教師データ抽出条件設定画面600の構成図である。教師データ抽出条件設定画面600は、抽出セット領域610および抽出条件領域620を含んで構成される。
管理者は、教師データ抽出条件テーブル181(図8参照)に反映する内容を抽出条件領域620に設定する。詳しくは、教師データ抽出条件テーブル181の特徴量183、正非フラグ184、閾値A185、閾値B186および追加学習要否187に設定する値を、それぞれリストボックス621、リストボックス622、テキストボックス623、テキストボックス624およびリストボックス625に設定する。例えば、正非フラグ184については、リストボックス622の「正解」、「不正解」および「両方」から選択する。
FIG. 12 is a configuration diagram of a teacher data extraction
The administrator sets the content to be reflected in the teacher data extraction condition table 181 (see FIG. 8) in the
抽出セット領域610の抽出条件識別情報611は、教師データ抽出条件テーブル181の抽出条件識別情報182に対応する。管理者が抽出条件識別情報611を入力してロードボタン613を押下すると、教師データ抽出条件テーブル181のレコードのなかで抽出条件識別情報182が、管理者が入力した抽出条件識別情報611に一致するレコードの内容が抽出条件領域620に表示される。
The extraction
管理者が抽出条件識別情報611を入力して保存ボタン612を押下すると、教師データ抽出条件テーブル181のレコードのなかで抽出条件識別情報182が、管理者が入力した抽出条件識別情報611に一致するレコードに、抽出条件領域620に設定された内容が反映される。管理者が入力した抽出条件識別情報611に一致するレコードがない場合には、教師データ抽出条件テーブル181にレコードが追加され、抽出条件領域620に設定された内容が反映される。
When the administrator inputs the extraction
≪変型例3:追加学習の必要性≫
特徴量と分類項目との相関を可視化することで、何れの特徴量について追加学習が必要かを判断することができる。図13および図14は、本実施形態の変型例に係る特徴量と分類項目との相関を示したグラフ470,480である。グラフ470は、ある特徴量、例えば上半身の服の色が青という検索条件における、検索結果レコード(図7参照)をプロットしたグラフである。また、グラフ480は、ある特徴量、例えば上半身の服の色が黒という検索条件における、検索結果レコードをプロットしたグラフである。グラフの右上にある「r = .8」や「r = -.8」は、相関係数を示している。
≪Variation example 3: Necessity of additional learning≫
By visualizing the correlation between the feature amount and the classification item, it is possible to determine which feature amount requires additional learning. 13 and 14 are
グラフ470では、分類項目が該当で特徴量が大きい領域471、および分類項目が非該当委で特徴量が小さい領域472にプロットされる検索結果レコードが多く、特徴量と分類項目の相関がある。このため、「上半身の服の色が青」という特徴量についての追加学習の必要性は、比較的低いといえる。
一方、グラフ480では、分類項目が該当で特徴量が小さい領域481、および分類項目が非該当で特徴量が大きい領域482にプロットされる検索結果レコードが多く、特徴量と分類項目の逆相関がある。このため、「上半身の服の色が黒」という特徴量についての追加学習の必要性は、比較的高いといえる。
In
On the other hand, in
画像検索装置100が、グラフ470,480に示すような特徴量と分類項目との相関を示すグラフを管理者に提示するグラフ生成部を備えるようにしてもよい。管理者は、グラフ上で相関が低い(逆相関(負の相関)または弱い相関)特徴量について、優先的に追加学習することができる。
また、グラフ生成部は、グラフを管理者に提示すると同時に、相関係数を算出して表示するようにしてもよい。このようにすることで、管理者が追加学習の判断をしやすくなる。
さらに、グラフ生成部は、相関係数のほかに、該当と非該当とのそれぞれの検索結果レコードの特徴量について、平均値と標準偏差を算出して表示してもよい。管理者は、該当の平均値が低い、非該当の平均値が高い、該当または非該当の標準偏差が大きい特徴量について、優先的に追加学習するなど、相関係数、平均値、標準偏差を参照して追加学習する特徴量を判断することができる。
The
Further, the graph generation unit may present the graph to the administrator and at the same time calculate and display the correlation coefficient. By doing so, it becomes easier for the administrator to make a decision on additional learning.
Further, in addition to the correlation coefficient, the graph generation unit may calculate and display an average value and a standard deviation for the feature quantities of the corresponding and non-applicable search result records. The administrator preferentially additionally learns the feature quantities with low applicable mean value, high non-applicable average value, and large applicable or non-applicable standard deviation, and to obtain the correlation coefficient, average value, and standard deviation. It is possible to judge the feature amount to be additionally learned by referring to it.
追加学習に用いる教師データについては、教師データ抽出条件設定画面600(図12参照)で抽出条件を設定して抽出する他に、グラフ上で管理者が指定した検索結果レコードを教師データとして抽出するようにしてもよい。画像検索装置100は、例えば、グラフ上で管理者が指定した領域にある検索結果レコードを抽出して教師データとしてもよい。
Regarding the teacher data used for additional learning, in addition to setting the extraction conditions on the teacher data extraction condition setting screen 600 (see FIG. 12) and extracting, the search result record specified by the administrator on the graph is extracted as teacher data. You may do so. The
≪変型例4:教師データ抽出のタイミング≫
上記した実施形態では、画像検索装置100は、管理者の指示があったときに追加学習用の教師データを抽出している。画像検索装置100は、例えば所定の周期で抽出して、追加学習装置300に出力するようにしてもよい。また、画像検索装置100は、定期的に抽出を繰り返し、抽出結果の件数が収集データ数188(図8参照)以上になったときに追加学習装置300に出力するようにしてもよい。
≪Variation example 4: Timing of teacher data extraction≫
In the above-described embodiment, the
教師データは、利用者が分類項目設定領域534の分類項目を設定するたびに抽出するようにしてもよい。詳しくは、利用者が分類項目を設定するたびに、端末320上のWebブラウザは、画像識別情報および分類項目とをWebサーバ116に送信する。Webサーバ116は、画像識別情報および分類項目を分類項目登録部117および教師データ抽出部118に出力する。
分類項目登録部117は、検索結果データベース150の検索結果テーブル164(図7参照)のなかのレコードであって、画像識別情報に対応する検索結果レコードの分類項目177をWebサーバ116が出力した分類項目に変更する。
The teacher data may be extracted every time the user sets the classification item in the classification
The classification
教師データ抽出部118は、検索結果テーブル164のなかのレコードであって、画像識別情報に対応する検索結果レコードが、教師データ抽出条件テーブル181(図8参照)の何れかの抽出条件に合致するならば、検索結果レコードを教師データ抽出結果テーブル191(図10参照)に格納する。利用者が、分類項目を変更した場合には、分類項目177を変更したり、変更により教師データ抽出条件テーブル181(図8参照)の何れの抽出条件に合致しない場合にはレコードを削除したりする。
このようにすることで、利用者が設定した分類項目に応じて即座に教師データが抽出されるようになる。また、抽出結果の件数が収集データ数188に達したときに即座に教師データが抽出されて追加学習装置300(図1参照)に出力できるようになる。結果として、システムのダウンタイムの減少や日々の作業における保守コストの減少となり、機械学習モデル114の更新が早くなる。
The teacher
By doing so, the teacher data can be immediately extracted according to the classification item set by the user. Further, when the number of extraction results reaches the number of collected
他にも、画像検索装置100は、定期的に検索結果レコードにおける特徴と分類項目の相関係数や平均値、標準偏差を算出し、所定の条件を満たしたときに追加学習装置300に出力するようにしてもよい。例えば、画像検索装置100は、相関係数が所定値より小さいときに出力するようにしてもよい。
このようにすることで、管理者の指示がなくても、画像検索装置100は、必要に応じて追加学習を行うことができるようになる。または、画像検索装置100は、管理者に追加学習を促すことができるようになる。
In addition, the
By doing so, the
≪変型例5:判定対象データや特徴量≫
上記した実施形態における機械学習モデル114は、人物の画像データから、頭部色や上半身の服の色、下半身の服の色の特徴量を抽出して分類している。色については、黒・グレー・白・青に限定する必要はない。色に限らず、メガネや帽子など身に着けているもの、かばんやスマートフォンなど携帯しているもの、背丈などを特徴量して抽出して分類するようにしてもよい。このような人物に対する様々な特徴量に対応することで、画像検索装置100が実行する検索の精度をあげることができる。
≪Variation example 5: Judgment target data and features≫
The
また、上記した実施形態における機械学習モデル114の対象(入力データ)は、人物の画像であるが、これに限定するものではなく、物品であってもよい。また、画像の検索に限らず、例えば、文書の検索であってもよい。種別やカテゴリなどで文書を検索する装置において、種別やカテゴリを特徴量として、機械学習モデルの教師データを抽出するようにしてもよい。機械学習モデルは、深層学習に限らず、SVMなどの機械学習モデルであってもよい。
Further, the target (input data) of the
≪変型例6:検索条件≫
上記した実施形態においての人物の検索条件は、頭部色、上半身の服の色および下半身の服の色である。この他に、カメラ310の撮影時刻や撮影したカメラ310、撮影エリアなどの条件を加えて、検索できるようにしてもよい。
または、検索条件として、頭部色、上半身の服の色および下半身の服の色の替わりに、探索対象人物の画像データを用いてもよい。画像検索部115は、検索条件となる画像データから頭部色、上半身の服の色および下半身の服の色を抽出して、抽出した色を条件に特徴量データベース130の特徴量テーブル131(図5参照)を検索する。このようにすることで、利用者は、頭部色や上半身の服の色、下半身の服の色を指定しなくても、対象人物の画像があれば検索可能となる。
≪Variation example 6: Search condition≫
The search conditions for a person in the above-described embodiment are the color of the head, the color of the upper body clothes, and the color of the lower body clothes. In addition to this, conditions such as the shooting time of the
Alternatively, as the search condition, image data of the person to be searched may be used instead of the color of the head, the color of the clothes of the upper body, and the color of the clothes of the lower body. The
≪変型例7:検索結果の表示順序≫
上記した実施形態において検索結果領域530には、検索結果531が検索条件との合致度(平均類似度)の降順で表示される。カメラやその設置エリア、撮影時刻など他の情報に基づいて順序で表示されてもよい。
≪Variation example 7: Display order of search results≫
In the above-described embodiment, the
≪その他の変型例≫
本発明は、上記した実施形態に限定されることなく、その趣旨を逸脱しない範囲で変更することができる。画像検索装置100は、画像の取り込み、探索対象人物の検索、教師データの抽出を1台のコンピュータで実行していたが、複数のコンピュータで実行するようにしてもよい。また、ユーザインタフェースは、端末320上のWebブラウザであったが、これに限る必要はない。
≪Other variants≫
The present invention is not limited to the above-described embodiment, and can be modified without departing from the spirit of the present invention. The
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。また、処理の順序を入れ替えたり、並列に処理してもよい。
例えば、特徴量テーブル131(図5参照)や検索結果テーブル164(図7参照)、教師データ抽出結果テーブル191(図10参照)は、画像識別情報134,166,196を含むが、これに替わり画像そのものを含めるようにしてもよい。また、画像検索部115、分類項目登録部117および教師データ抽出部118を1つの機能部としてもよい。他にも、ステップS104,S105を入れ替えてもよい。
これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and further, various modifications such as omission and substitution can be made without departing from the gist of the present invention. Further, the order of processing may be changed or processing may be performed in parallel.
For example, the feature amount table 131 (see FIG. 5), the search result table 164 (see FIG. 7), and the teacher data extraction result table 191 (see FIG. 10) include
These embodiments and variations thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
100 画像検索装置
111 画像取込部
112 人物検出部
113 特徴抽出部
114 機械学習モデル
115 画像検索部
117 分類項目登録部(分類項目取得部)
118 教師データ抽出部
119 機械学習モデル更新部
300 追加学習装置
510 検索セット領域
520 検索条件領域
530 検索結果領域
531 検索結果
532 画像確認領域
533 平均類似度バー
534 分類項目設定領域
100
118 Teacher
Claims (12)
前記特徴量を用いて前記画像を検索して検索結果を出力する画像検索部と、
前記検索結果の個々の画像が分類されて、付与された分類結果を示す分類項目を取得する分類項目取得部と、
前記特徴量と前記分類項目との相関に基づいて、前記機械学習モデルを追加学習するための教師データとなる画像を抽出する教師データ抽出部と、を備える
ことを特徴とする画像検索装置。 A feature extractor that extracts features from the acquired image using a machine learning model,
An image search unit that searches for the image using the feature amount and outputs the search result,
A classification item acquisition unit that classifies individual images of the search results and acquires classification items indicating the assigned classification results.
An image search device including a teacher data extraction unit that extracts an image as teacher data for additional learning of the machine learning model based on the correlation between the feature amount and the classification item.
前記分類項目は、前記目標とする対象を前記画像が含むことを示す該当および前記目標とする対象を前記画像が含まないことを示す非該当を含む
ことを特徴とする請求項1に記載の画像検索装置。 The image search unit acquires the feature of the target target, collates the feature of the target with the feature amount extracted from the image, searches the image, and outputs the search result.
The image according to claim 1, wherein the classification item includes a hit indicating that the target object is included in the image and a non-applicability indicating that the target object is not included in the image. Search device.
ことを特徴とする請求項1または2に記載の画像検索装置。 The image search device according to claim 1 or 2, wherein the teacher data extraction unit outputs any of a classification item and a feature amount of the image together with the extracted image to the outside of the image search device.
ことを特徴とする請求項1~3の何れか1項に記載の画像検索装置。 The claim is characterized in that the teacher data extraction unit extracts either an image in which the feature amount and the classification item are inversely correlated, or an image in which the feature amount and the classification item are correlated. The image search device according to any one of 1 to 3.
ことを特徴とする請求項4に記載の画像検索装置。 In the teacher data extraction unit, an image in which the feature amount is lower than a predetermined value and the classification item is applicable, an image in which the feature amount is higher than the predetermined value and the classification item is not applicable, and the feature amount is lower than the predetermined value. The image search device according to claim 4, wherein any of an image to which the classification item is not applicable and an image whose feature amount is higher than a predetermined value and the classification item is applicable is extracted.
ことを特徴とする請求項1に記載の画像検索装置。 The image search apparatus according to claim 1, further comprising a graph generation unit that generates a graph in which the image is plotted with the feature amount and the classification item as axes.
ことを特徴とする請求項6に記載の画像検索装置。 The graph generator is characterized in that it calculates and displays one of the correlation coefficient of the feature amount and the classification item of the image plotted on the graph and the average and the standard deviation of the feature amount for each classification item. The image search device according to claim 6.
ことを特徴とする請求項1に記載の画像検索装置。 The teacher data extraction unit classifies the images when a predetermined time has elapsed from the previous extraction, when the number of extracted images satisfies a predetermined condition, and when the correlation between the feature amount of the image and the classification item satisfies a predetermined condition. When the average of the feature amounts for each item satisfies a predetermined condition, the image to be the teacher data is extracted at any timing when the standard deviation of the feature amount for each classification item of the image satisfies the predetermined condition. The image search device according to claim 1, wherein the image to be the teacher data is extracted and output to the outside of the image search device, and the condition is notified that the condition is satisfied.
前記教師データ抽出部は、現行バージョンの機械学習モデルによって抽出された特徴量と、当該特徴量に基づいて検索されて付与された分類項目との相関に基づいて、教師データとなる画像を抽出する
ことを特徴とする請求項1に記載の画像検索装置。 The machine learning model is given a version that changes when the machine learning model is updated as a result of the additional learning.
The teacher data extraction unit extracts an image as teacher data based on the correlation between the feature amount extracted by the current version of the machine learning model and the classification item searched and assigned based on the feature amount. The image search device according to claim 1, wherein the image search device is characterized by the above.
ことを特徴とする請求項9に記載の画像検索装置。 The teacher data extraction unit instructs to extract an image to be teacher data based on the correlation with the classification items searched and assigned based on the features extracted by the machine learning model of a version different from the current version. The image search device according to claim 9, further comprising notifying a warning when the image is searched.
前記特徴量は、前記人物の頭部の色、上半身の服の色、下半身の服の色、前記人物が携帯しているもの、前記人物が身に着けているものにかかわる特徴量の何れかである
ことを特徴とする請求項1に記載の画像検索装置。 The image is an image including a person.
The feature amount is any one of the color of the head of the person, the color of the clothes of the upper body, the color of the clothes of the lower body, the feature amount related to what the person carries, and the feature amount related to what the person wears. The image search device according to claim 1, wherein the image search device is characterized by the above.
取得した画像から機械学習モデルを用いて特徴量を抽出するステップと、
前記特徴量を用いて前記画像を検索して検索結果を出力するステップと、
前記検索結果の個々の画像が分類されて、付与された分類結果を示す分類項目を取得するステップと、
前記特徴量と前記分類項目との相関に基づいて、前記機械学習モデルを追加学習するための教師データとなる画像を抽出するステップとを
実行することを特徴とする教師データ抽出方法。 It is a teacher data extraction method for image search devices.
Steps to extract features from the acquired image using a machine learning model,
A step of searching for the image using the feature amount and outputting a search result,
A step of classifying each image of the search result and acquiring a classification item indicating the given classification result, and
A teacher data extraction method characterized by executing a step of extracting an image as teacher data for additional learning of the machine learning model based on the correlation between the feature amount and the classification item.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019028920A JP7018408B2 (en) | 2019-02-20 | 2019-02-20 | Image search device and teacher data extraction method |
PCT/JP2020/006286 WO2020171066A1 (en) | 2019-02-20 | 2020-02-18 | Image search device and training data extraction method |
CN202080015638.6A CN113474769A (en) | 2019-02-20 | 2020-02-18 | Image retrieval device and supervised data extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019028920A JP7018408B2 (en) | 2019-02-20 | 2019-02-20 | Image search device and teacher data extraction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135494A JP2020135494A (en) | 2020-08-31 |
JP7018408B2 true JP7018408B2 (en) | 2022-02-10 |
Family
ID=72144325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019028920A Active JP7018408B2 (en) | 2019-02-20 | 2019-02-20 | Image search device and teacher data extraction method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7018408B2 (en) |
CN (1) | CN113474769A (en) |
WO (1) | WO2020171066A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023007956A1 (en) * | 2021-07-30 | 2023-02-02 | 富士フイルム株式会社 | Data creation device, storage device, data processing system, data creation method, program, and imaging device |
JP2023163443A (en) * | 2022-04-28 | 2023-11-10 | キヤノン株式会社 | Image processing device, imaging device, and control method thereof |
WO2024111429A1 (en) * | 2022-11-25 | 2024-05-30 | 日本電気株式会社 | Posture evaluation device, posture evaluation system, posture evaluation method, and program |
JP7465025B1 (en) | 2023-06-14 | 2024-04-10 | 株式会社Revox | Information processing device, inference device, machine learning device, information processing method, inference method, and machine learning method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000132554A (en) | 1998-10-21 | 2000-05-12 | Sharp Corp | Image retrieval device and method |
JP2017224184A (en) | 2016-06-16 | 2017-12-21 | 株式会社日立製作所 | Machine learning device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101059844A (en) * | 2006-04-19 | 2007-10-24 | 索尼株式会社 | Learning apparatus and method |
CN101561805B (en) * | 2008-04-18 | 2014-06-25 | 日电(中国)有限公司 | Document classifier generation method and system |
CN103955462B (en) * | 2014-03-21 | 2017-03-15 | 南京邮电大学 | A kind of based on multi views and the image labeling method of semi-supervised learning mechanism |
CN104794489B (en) * | 2015-04-23 | 2019-03-08 | 苏州大学 | A kind of induction type image classification method and system based on deep tag prediction |
JP6618735B2 (en) * | 2015-08-31 | 2019-12-11 | 国立研究開発法人情報通信研究機構 | Question answering system training apparatus and computer program therefor |
CN108229526B (en) * | 2017-06-16 | 2020-09-29 | 北京市商汤科技开发有限公司 | Network training method, network training device, image processing method, image processing device, storage medium and electronic equipment |
-
2019
- 2019-02-20 JP JP2019028920A patent/JP7018408B2/en active Active
-
2020
- 2020-02-18 CN CN202080015638.6A patent/CN113474769A/en active Pending
- 2020-02-18 WO PCT/JP2020/006286 patent/WO2020171066A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000132554A (en) | 1998-10-21 | 2000-05-12 | Sharp Corp | Image retrieval device and method |
JP2017224184A (en) | 2016-06-16 | 2017-12-21 | 株式会社日立製作所 | Machine learning device |
Also Published As
Publication number | Publication date |
---|---|
CN113474769A (en) | 2021-10-01 |
WO2020171066A1 (en) | 2020-08-27 |
JP2020135494A (en) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7018408B2 (en) | Image search device and teacher data extraction method | |
US10817749B2 (en) | Dynamically identifying object attributes via image analysis | |
US10846554B2 (en) | Hash-based appearance search | |
CN108829764B (en) | Recommendation information acquisition method, device, system, server and storage medium | |
Wah et al. | Similarity comparisons for interactive fine-grained categorization | |
JP5621897B2 (en) | Processing method, computer program, and processing apparatus | |
US8416997B2 (en) | Method of person identification using social connections | |
JP5934653B2 (en) | Image classification device, image classification method, program, recording medium, integrated circuit, model creation device | |
Wu et al. | Optimizing mean reciprocal rank for person re-identification | |
WO2017212813A1 (en) | Image search device, image search system, and image search method | |
Hall et al. | Fine-grained classification of pedestrians in video: Benchmark and state of the art | |
CN110569918B (en) | Sample classification method and related device | |
KR102517961B1 (en) | Method for providing clothing recommendation information based on user-selected clothing, and server and program using the same | |
JP6787831B2 (en) | Target detection device, detection model generation device, program and method that can be learned by search results | |
JPWO2020026643A1 (en) | Information processing equipment, information processing methods and information processing programs | |
Sun et al. | Opinion spam detection based on heterogeneous information network | |
CN113051324A (en) | User portrait construction method and device based on big data and storage medium | |
US20220075804A1 (en) | Method and device for providing guide information for enhancement of artist's reputation | |
CN111767880B (en) | Living body identity recognition method and device based on facial features and storage medium | |
JP6314071B2 (en) | Information processing apparatus, information processing method, and program | |
CA3011713A1 (en) | Hash-based appearance search | |
AU2019303730B2 (en) | Hash-based appearance search | |
CN114746882A (en) | Systems and methods for interaction awareness and content presentation | |
JP6573233B2 (en) | Recognizability index calculation apparatus, method, and program | |
JP2019020820A (en) | Video recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7018408 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |