JP6784039B2 - Data estimation device, data estimation method, and data estimation program - Google Patents

Data estimation device, data estimation method, and data estimation program Download PDF

Info

Publication number
JP6784039B2
JP6784039B2 JP2016049912A JP2016049912A JP6784039B2 JP 6784039 B2 JP6784039 B2 JP 6784039B2 JP 2016049912 A JP2016049912 A JP 2016049912A JP 2016049912 A JP2016049912 A JP 2016049912A JP 6784039 B2 JP6784039 B2 JP 6784039B2
Authority
JP
Japan
Prior art keywords
model
label
search condition
data
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016049912A
Other languages
Japanese (ja)
Other versions
JP2017167649A (en
Inventor
匡人 結城
匡人 結城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2016049912A priority Critical patent/JP6784039B2/en
Publication of JP2017167649A publication Critical patent/JP2017167649A/en
Application granted granted Critical
Publication of JP6784039B2 publication Critical patent/JP6784039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、データに関する情報を推定するデータ推定装置等に関する。 The present invention relates to a data estimation device or the like that estimates information about data.

ディープラーニング法は、実用的な精度を実現した機械学習の一例であり、様々な分野にて活用(または、検討、実施)されている。機械学習のうち、教師あり学習法は、説明変数の値と、目的変数の値(ラベル)とが関連付けされた教師データに関して、説明変数の値と目的変数の値との関係を表す学習モデルを作成する。教師データは、たとえば、蓄積された情報、または、収集された情報等に基づき、ユーザによって作成される。 The deep learning method is an example of machine learning that achieves practical accuracy, and is utilized (or examined and implemented) in various fields. Among machine learning, the supervised learning method provides a learning model that expresses the relationship between the value of the explanatory variable and the value of the objective variable with respect to the teacher data in which the value of the explanatory variable and the value (label) of the objective variable are associated with each other. create. The teacher data is created by the user based on, for example, the accumulated information or the collected information.

機械学習は、たとえば、画像データや、テキストデータ等のデータに関して、学習モデルを作成することができ、あるエリアにおける人物や、ある物体を検知する場合に用いられる。画像データは、たとえば、あるエリアを撮像する監視カメラによって作成される。一般に、あるエリアが複数の監視カメラによって常に撮像されるので、作成される画像データは、膨大な量が蓄積されている。 Machine learning can create a learning model for data such as image data and text data, and is used when detecting a person or an object in a certain area. Image data is created, for example, by a surveillance camera that captures an area. In general, since a certain area is constantly imaged by a plurality of surveillance cameras, a huge amount of image data to be created is accumulated.

たとえば、機械学習の一例は、特許文献1、及び、特許文献2に開示されている。 For example, an example of machine learning is disclosed in Patent Document 1 and Patent Document 2.

特許文献1に開示された分類モデル学習装置は、予測対象である予測データと、各教師データとの距離を算出し、各予測データに関して、算出された距離が所定の範囲内にある教師データを特定する。次に、該分類モデル学習装置は、特定した教師データに関する目的変数の値(ラベル)に基づき、該予測データに関するラベルを予測する。 The classification model learning device disclosed in Patent Document 1 calculates the distance between the prediction data to be predicted and each teacher data, and for each prediction data, the teacher data in which the calculated distance is within a predetermined range is obtained. Identify. Next, the classification model learning device predicts the label related to the predicted data based on the value (label) of the objective variable related to the specified teacher data.

特許文献2に開示された因果関係モデル生成装置は、観測対象に関して注目する事象と、該事象を生じた原因である原因事象との因果関係を表す因果関係モデルを作成する。該因果関係モデル生成装置においては、観測対象を構成している構成要素のうち、原因事象(または、注目する事象)に関連している構成要素と、他との包含関係が階層的に表現された属性を持つデータとして表現されている。該因果関係モデル生成装置は、該データに基づき、観測対象に関して注目する事象と、該原因事象との間の因果関係を表す因果関係モデルを作成する。 The causal relationship model generator disclosed in Patent Document 2 creates a causal relationship model that represents a causal relationship between an event of interest with respect to an observation target and a causal event that is the cause of the event. In the causal relationship model generator, among the components constituting the observation target, the components related to the causal event (or the event of interest) and the inclusion relationship with others are hierarchically expressed. It is expressed as data with the above attributes. Based on the data, the causal relationship model generator creates a causal relationship model representing a causal relationship between an event of interest with respect to an observation target and the causal event.

特開2009−282686号公報JP-A-2009-228686 特開2004−126641号公報Japanese Unexamined Patent Publication No. 2004-126641

しかし、特許文献1、または、特許文献2に開示されたいずれの装置を用いたとしても、対象データに関して識別する条件を表す対象検索条件が厳しい条件である場合には、高精度に対象データを判定することができるとは限らない。この理由は、対象検索条件が厳しい条件である場合に、一般に、対象検索条件が成り立つか否かを高精度に推定するモデルを作成することが難しいからである。 However, regardless of whether the apparatus disclosed in Patent Document 1 or Patent Document 2 is used, if the target search condition representing the condition for identifying the target data is strict, the target data can be obtained with high accuracy. It is not always possible to judge. The reason for this is that when the target search condition is a strict condition, it is generally difficult to create a model that estimates with high accuracy whether or not the target search condition is satisfied.

そこで、本発明の主たる目的は、対象検索条件が厳しい条件であっても、対象データを正しく判定することができるデータ推定装置等を提供することである。 Therefore, a main object of the present invention is to provide a data estimation device or the like capable of correctly determining target data even if the target search conditions are strict.

前述の目的を達成するために、本発明の一態様において、データ推定装置は、
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出する第1演算手段と、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算手段と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに、成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算手段と
を備える。
In order to achieve the above object, in one aspect of the invention, the data estimation device
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. A first calculation means for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation means for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not both of the second search conditions are satisfied, whether the first search condition and the second search condition are satisfied with respect to the certain data. It is provided with a third calculation means for estimating whether or not it is.

また、本発明の他の見地として、データ推定方法は、
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出し、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出し、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する。
In addition, as another viewpoint of the present invention, the data estimation method is
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. Calculate the first calculation result calculated by the predetermined first processing procedure,
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, the second calculation result calculated by the predetermined second processing procedure is calculated.
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. Estimate.

また、本発明の他の見地として、データ推定プログラムは、
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出する第1演算機能と、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算機能と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算機能と
をコンピュータに実現させる。
Also, from another point of view of the present invention, the data estimation program
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. The first calculation function for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation function for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. The computer is provided with a third calculation function for estimating the data.

さらに、同目的は、係るプログラムを記録するコンピュータが読み取り可能な記録媒体によっても実現される。 Further, the same purpose is realized by a computer-readable recording medium for recording the program.

本発明に係るデータ推定装置等によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。 According to the data estimation device or the like according to the present invention, the target data can be correctly determined even if the target search condition is strict.

本発明の第1の実施形態に係るデータ推定装置が有する構成を示すブロック図である。It is a block diagram which shows the structure which the data estimation apparatus which concerns on 1st Embodiment of this invention has. 第1の実施形態に係るデータ推定装置における処理の流れの概略を示すフローチャートである。It is a flowchart which shows the outline of the processing flow in the data estimation apparatus which concerns on 1st Embodiment. 図2に示されたステップS101、及び、ステップS102における処理の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of the process in step S101 and step S102 shown in FIG. 図2に示されたステップS103、及び、ステップS104における処理の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of the process in step S103 and step S104 shown in FIG. 図2に示されたステップS104、及び、ステップS105における処理の詳細な流れを示すフローチャートである。It is a flowchart which shows the detailed flow of the process in step S104 and step S105 shown in FIG. 対象検索条件が成り立つデータに関する包含関係を概念的に表す図である。It is a figure which conceptually represents the inclusion relation about the data for which a target search condition is satisfied. 学習画像情報記憶部に格納されている学習画像情報を概念的に表す図である。It is a figure which conceptually represents the learning image information stored in the learning image information storage part. 表示画像情報記憶部に格納されている表示画像情報を概念的に表す図である。It is a figure which conceptually represents the display image information stored in the display image information storage part. 未処理画像情報記憶部に格納されている未処理画像情報を概念的に表す図である。It is a figure which conceptually represents the unprocessed image information stored in the unprocessed image information storage part. ユーザインターフェースが有する構成の一例を概念的に表す図である。It is a figure which conceptually represents an example of the structure which a user interface has. ラベル情報記憶部に格納されているラベル情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the label information stored in the label information storage part. 画像ラベル記憶部に格納されている画像ラベル情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the image label information stored in the image label storage part. モデル情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of model information. 特徴情報記憶部に格納されている特徴情報を概念的に表す図である。It is a figure which conceptually represents the feature information stored in the feature information storage part. 特徴情報記憶部に格納されている特徴情報を概念的に表す図である。It is a figure which conceptually represents the feature information stored in the feature information storage part. CNNが有する構成の一例を概念的に表す図である。It is a figure which conceptually represents an example of the structure which CNN has. 画像ラベル記憶部に格納されている画像ラベル情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the image label information stored in the image label storage part. 適合度学習情報記憶部に格納されている適合度学習情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the goodness-of-fit learning information stored in the goodness-of-fit learning information storage part. 適合度モデル情報記憶部に格納されている適合度モデル情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the goodness-of-fit model information stored in the goodness-of-fit model information storage part. 適合度判定情報記憶部に格納されている適合度判定情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the goodness-of-fit determination information stored in the goodness-of-fit determination information storage part. 適合度情報記憶部に格納されている適合度情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the goodness-of-fit information stored in the goodness-of-fit information storage part. 予測ラベル情報記憶部に格納されている予想ラベル情報の一例を概念的に表す図である。It is a figure which conceptually represents an example of the prediction label information stored in the prediction label information storage part. 本発明の第2の実施形態に係るデータ推定装置が有する構成を示すブロック図である。It is a block diagram which shows the structure which the data estimation apparatus which concerns on 2nd Embodiment of this invention has. 本発明の各実施形態に係るデータ推定装置を実現可能な計算処理装置のハードウェア構成例を概略的に示すブロック図である。It is a block diagram which shows schematic the hardware configuration example of the calculation processing apparatus which can realize the data estimation apparatus which concerns on each embodiment of this invention.

次に、本発明を実施する実施形態について図面を参照しながら詳細に説明する。 Next, an embodiment of the present invention will be described in detail with reference to the drawings.

<第1の実施形態>
図1を参照しながら、本発明の第1の実施形態に係るデータ推定装置600が有する構成について詳細に説明する。図1は、本発明の第1の実施形態に係るデータ推定装置600が有する構成を示すブロック図である。
<First Embodiment>
The configuration of the data estimation device 600 according to the first embodiment of the present invention will be described in detail with reference to FIG. FIG. 1 is a block diagram showing a configuration of the data estimation device 600 according to the first embodiment of the present invention.

本発明の第1の実施形態に係るデータ推定装置600は、大別して、画像情報記憶部100と、ラベル入力部200と、特徴量作成部310と、適合度作成部320と、フレーム情報作成部410と、適合度特徴量作成部420と、ラベル選択部500とを有する。 The data estimation device 600 according to the first embodiment of the present invention is roughly classified into an image information storage unit 100, a label input unit 200, a feature amount creation unit 310, a conformity degree creation unit 320, and a frame information creation unit. It has a 410, a conformity feature amount creating unit 420, and a label selection unit 500.

画像情報記憶部100は、学習画像情報記憶部101と、表示画像情報記憶部102と、未処理画像情報記憶部103とを有する。ラベル入力部200は、制御部201と、ラベル情報記憶部202と、画像ラベル記憶部203とを有する。特徴量作成部310は、特徴量モデル作成部311と、モデル情報記憶部312と、特徴量算出部313と、特徴情報記憶部314とを有する。適合度作成部320は、適合度学習情報作成部321と、適合度学習情報記憶部322と、適合度モデル作成部323と、適合度モデル情報記憶部324と、適合度算出部325と、適合度情報記憶部326とを有する。フレーム情報作成部410は、フレーム作成部411と、フレーム情報記憶部412とを有する。適合度特徴量作成部420は、特徴量作成部421と、適合度判定情報記憶部422とを有する。ラベル選択部500は、ラベル判定部501と、予測ラベル情報記憶部502とを有する。 The image information storage unit 100 includes a learning image information storage unit 101, a display image information storage unit 102, and an unprocessed image information storage unit 103. The label input unit 200 includes a control unit 201, a label information storage unit 202, and an image label storage unit 203. The feature amount creation unit 310 includes a feature amount model creation unit 311, a model information storage unit 312, a feature amount calculation unit 313, and a feature amount information storage unit 314. The goodness-of-fit creation unit 320 is compatible with the goodness-of-fit learning information creation unit 321, the goodness-of-fit learning information storage unit 322, the goodness-of-fit model creation unit 323, the goodness-of-fit model information storage unit 324, and the goodness-of-fit calculation unit 325. It has a goodness-of-fit information storage unit 326. The frame information creation unit 410 includes a frame creation unit 411 and a frame information storage unit 412. The goodness-of-fit feature amount creating unit 420 has a goodness-of-fit feature amount creating unit 421 and a goodness-of-fit determination information storage unit 422. The label selection unit 500 includes a label determination unit 501 and a prediction label information storage unit 502.

次に、図7乃至図9を参照しながら、第1の実施形態に係るデータ推定装置600に入力される情報の例について説明する。図7は、学習画像情報記憶部101に格納されている学習画像情報を概念的に表す図である。図8は、表示画像情報記憶部102に格納されている表示画像情報を概念的に表す図である。図9は、未処理画像情報記憶部103に格納されている未処理画像情報を概念的に表す図である。 Next, an example of information input to the data estimation device 600 according to the first embodiment will be described with reference to FIGS. 7 to 9. FIG. 7 is a diagram conceptually representing the learning image information stored in the learning image information storage unit 101. FIG. 8 is a diagram conceptually representing the display image information stored in the display image information storage unit 102. FIG. 9 is a diagram conceptually representing the unprocessed image information stored in the unprocessed image information storage unit 103.

図7に例示された学習画像情報を参照すると、学習画像情報は、動画データを識別可能な動画データ識別子(以降、識別子を「ID」と表す)と、動画データに関して推定(予測、判定)する内容を表す属性とが関連付けされている。学習画像情報は、動画データIDに、さらに、該動画データIDが表す動画データが関連付けされていてもよい。 With reference to the training image information illustrated in FIG. 7, the training image information is estimated (predicted, determined) with respect to the moving image data identifier (hereinafter, the identifier is referred to as “ID”) capable of identifying the moving image data and the moving image data. It is associated with an attribute that represents the content. As the learning image information, the moving image data ID may be further associated with the moving image data represented by the moving image data ID.

たとえば、図7に例示された学習画像情報においては、動画データID「V1002」と、属性「帽子をかぶった人がいるか否かが判定される」とが関連付けされている。これは、動画データID「V1002」が表す動画データに対して、図10を参照しながら後述するように、検索条件「帽子をかぶった人がいるか」が成り立つか否かを表すラベルが入力される場合に制御部201が表示する動画データであることを表す。 For example, in the learning image information illustrated in FIG. 7, the moving image data ID “V1002” and the attribute “determines whether or not there is a person wearing a hat” are associated with each other. For the video data represented by the video data ID "V1002", a label indicating whether or not the search condition "whether there is a person wearing a hat" is satisfied is input as described later with reference to FIG. In this case, it indicates that the moving image data is displayed by the control unit 201.

学習画像情報記憶部101には、検索対象に対して成り立つ検索条件(以降、「対象検索条件」と表す)に関してフレーム(画像データ)が検索される場合に、該対象検索条件が緩和された検索条件に関するラベルを推定可能なモデルを作成する基となる動画データが格納されている。学習画像情報に、「帽子をかぶった人がいるか否か」を表すラベルが付与されることによって、たとえば、図14、または、図15を参照しながら説明するような算出値を算出する基となるデータが算出される。 When a frame (image data) is searched for a search condition (hereinafter, referred to as "target search condition") that holds for the search target in the learning image information storage unit 101, the search condition is relaxed. It contains video data that is the basis for creating a model that can estimate labels related to conditions. By adding a label indicating "whether or not there is a person wearing a hat" to the learning image information, for example, as a basis for calculating a calculated value as described with reference to FIG. 14 or FIG. Data is calculated.

尚、学習画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。また、学習画像情報は、図11に例示されたラベル情報におけるラベルIDを含んでいてもよく、この場合には、ラベル情報記憶部202に格納されているラベルIDに関するラベルが入力される。以降、説明の便宜上、学習画像情報には、動画データが含まれているとする。また、検索条件が成り立っているかが判定される対象は、動画データはではなく、動画データに含まれているフレーム(画像データ)であるとする。 The learning image information may be further associated with different items, and is not limited to the above-mentioned example. Further, the learning image information may include the label ID in the label information illustrated in FIG. 11, and in this case, the label related to the label ID stored in the label information storage unit 202 is input. Hereinafter, for convenience of explanation, it is assumed that the learning image information includes moving image data. Further, it is assumed that the target for which the search condition is satisfied is not the moving image data but the frame (image data) included in the moving image data.

図8に例示された表示画像情報を参照すると、表示画像情報は、動画データを識別可能な動画データIDと、対象検索条件が成り立つか否かを表すラベルが付与される予定であるものの、まだ付与されていないことを表す属性とが関連付けされている。さらに、表示画像情報は、動画データIDに、該動画データIDが表す動画データが関連付けされていてもよい。 With reference to the display image information illustrated in FIG. 8, the display image information will be given a video data ID that can identify the video data and a label indicating whether or not the target search condition is satisfied, but still It is associated with an attribute that indicates that it has not been granted. Further, as the display image information, the moving image data ID may be associated with the moving image data represented by the moving image data ID.

たとえば、図8に例示された表示画像情報においては、動画データID「V3002」と、属性「対象検索条件が成り立つか否かが判定される」とが関連付けされている。これは、動画データID「V3002」が表す動画データに対して、図10を参照しながら後述するように、対象検索条件が成り立つか否かを表すラベルが入力される場合に、動画データID「V3002」に関する画像情報が、制御部201が表示する画像データを含んでいることを表す。 For example, in the display image information illustrated in FIG. 8, the moving image data ID “V3002” and the attribute “determine whether or not the target search condition is satisfied” are associated with each other. This is because the video data ID "V3002" is represented by the video data ID "V3002" when a label indicating whether or not the target search condition is satisfied is input as described later with reference to FIG. Indicates that the image information related to "V3002" includes the image data displayed by the control unit 201.

尚、表示画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。また、表示画像情報は、図11に例示されたラベル情報におけるラベルIDを含んでいてもよく、この場合には、ラベル情報記憶部202に格納されているラベルIDに関するラベルが入力される。以降、説明の便宜上、表示画像情報には、動画データが含まれているとする。 The displayed image information may be further associated with different items, and is not limited to the above-mentioned example. Further, the display image information may include the label ID in the label information illustrated in FIG. 11, and in this case, the label related to the label ID stored in the label information storage unit 202 is input. Hereinafter, for convenience of explanation, it is assumed that the displayed image information includes moving image data.

図9に例示された未処理画像情報を参照すると、未処理画像情報は、画像データを識別可能な動画データIDと、ラベルが付与されていないことを表す属性とが関連付けされている。さらに、表示画像情報は、動画データIDに、該動画データIDが表す動画データが関連付けされていてもよい。 With reference to the unprocessed image information illustrated in FIG. 9, the unprocessed image information is associated with a moving image data ID that can identify the image data and an attribute indicating that no label is attached. Further, as the display image information, the moving image data ID may be associated with the moving image data represented by the moving image data ID.

たとえば、図9に例示された未処理画像情報においては、動画データID「V4002」と、属性「ラベル付けされていない画像データ」とが関連付けされている。これは、動画データID「V4002」が表す動画データに対して、図5を参照しながら後述するように、ラベルが推定(予測)されていない状態を表す。 For example, in the unprocessed image information illustrated in FIG. 9, the moving image data ID “V4002” and the attribute “unlabeled image data” are associated with each other. This represents a state in which the label is not estimated (predicted) with respect to the moving image data represented by the moving image data ID “V4002”, as will be described later with reference to FIG.

尚、未処理画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。未処理画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。また、未処理画像情報は、図11に示されたラベル情報におけるラベルIDを含んでいてもよく、この場合には、ラベル情報記憶部202に格納されているラベルIDに関するラベルが入力される。以降、説明の便宜上、未処理画像情報には、動画データが含まれているとする。 The unprocessed image information may be further associated with different items, and is not limited to the above-mentioned example. The unprocessed image information may be further associated with different items and is not limited to the examples described above. Further, the unprocessed image information may include the label ID in the label information shown in FIG. 11, and in this case, the label related to the label ID stored in the label information storage unit 202 is input. Hereinafter, for convenience of explanation, it is assumed that the unprocessed image information includes moving image data.

次に、図6を参照しながら、対象検索条件について説明する。図6は、対象検索条件が成り立つデータに関する包含関係を概念的に表す図である。 Next, the target search condition will be described with reference to FIG. FIG. 6 is a diagram conceptually showing the inclusion relationship regarding the data for which the target search condition is satisfied.

たとえば、対象検索条件が「サングラスをかけ、さらに、赤い服を着た人がいるか」であるとする。この場合に、次に示す、検索条件A乃至検索条件Cは、対象検索条件を緩和することによって算出される検索条件である。すなわち、
○検索条件A:人がいるか、
○検索条件B:赤い服を着た人がいるか、
○検索条件C:サングラスをかけた人がいるか。
For example, suppose that the target search condition is "Are there people wearing sunglasses and red clothes?" In this case, the search conditions A to C shown below are search conditions calculated by relaxing the target search conditions. That is,
○ Search condition A: Is there a person?
○ Search condition B: Is there anyone wearing red clothes?
○ Search condition C: Is there anyone wearing sunglasses?

図6を参照すると、対象検索条件が成り立つデータは、検索条件Bが成り立つデータと、検索条件Cが成り立つデータとの積集合である。また、検索条件Aが成り立つデータは、検索条件Bが成り立つデータ、及び、検索条件Cが成り立つデータを含んでいる。したがって、
○検索条件Bが成り立つデータ、検索条件Cが成り立つデータ、及び、対象検索条件が成り立つデータは、検索条件Aが成り立つデータのサブセットである、
○対象検索条件が成り立つデータは、検索条件Bが成り立つデータ、及び、検索条件Cが成り立つデータ、それぞれのサブセットである、
○検索条件Bが成り立つデータと、検索条件Cが成り立つデータとの間に、包含関係は無い。
Referring to FIG. 6, the data for which the target search condition is satisfied is an intersection of the data for which the search condition B is satisfied and the data for which the search condition C is satisfied. Further, the data for which the search condition A is satisfied includes data for which the search condition B is satisfied and data for which the search condition C is satisfied. Therefore,
○ The data for which the search condition B is satisfied, the data for which the search condition C is satisfied, and the data for which the target search condition is satisfied are a subset of the data for which the search condition A is satisfied.
○ The data for which the target search condition is satisfied is a subset of the data for which the search condition B is satisfied and the data for which the search condition C is satisfied.
○ There is no inclusion relationship between the data for which the search condition B is satisfied and the data for which the search condition C is satisfied.

以降、対象検索条件が緩和された検索条件を「第1検索条件」(たとえば、上述した検索条件B)、及び、「第2検索条件」(たとえば、検索条件C)と表す。尚、対象検索条件が緩和された検索条件は、必ずしも2つである必要はなく、さらに、多くの検索条件であってもよい。対象検索条件が「帽子をかぶり、ジャンパーを着た人がいるか」である場合に、第1検索条件は、たとえば、「帽子をかぶった人がいるか」であり、第2検索条件は、たとえば、「ジャンパーを着た人がいるか」である。この場合に、対象検索条件は、第1検索条件と、第2検索条件とに論理積演算が適用された条件である。 Hereinafter, the search conditions in which the target search conditions are relaxed are referred to as "first search condition" (for example, the above-mentioned search condition B) and "second search condition" (for example, search condition C). The search conditions for which the target search conditions are relaxed do not necessarily have to be two, and may be many search conditions. When the target search condition is "is there a person wearing a hat and a jumper?", The first search condition is, for example, "is there a person wearing a hat?", And the second search condition is, for example, "Is there anyone wearing a jumper?" In this case, the target search condition is a condition to which the logical product operation is applied to the first search condition and the second search condition.

次に、図2を参照しながら、第1の実施形態に係るデータ推定装置600における処理の流れの概略について説明する。図2は、第1の実施形態に係るデータ推定装置600における処理の流れの概略を示すフローチャートである。 Next, with reference to FIG. 2, the outline of the processing flow in the data estimation device 600 according to the first embodiment will be described. FIG. 2 is a flowchart showing an outline of a processing flow in the data estimation device 600 according to the first embodiment.

第1の実施形態に係るデータ推定装置600における処理は、大別して、ステップS101乃至ステップS105に示された処理が実行される。 The process in the data estimation device 600 according to the first embodiment is roughly classified into the processes shown in steps S101 to S105.

○ステップS101:第1検索条件が成り立つか否かを表すラベル、及び、第2検索条件が成り立つか否かを表すラベルを入力する、
○ステップS102:第1検索条件に関するラベルと、フレームとの関係性を表すモデル(説明の便宜上、「第1モデル」と表す)、及び、第2検索条件に関するラベルと、フレームとの関係性を表すモデル(説明の便宜上、「第2モデル」と表す)を作成する、
○ステップS103:対象検索条件が成り立つか否かを表すラベルを入力する、
○ステップS104:対象検索条件に関するラベルと、第1モデルに従い算出される算出値(図14を参照しながら後述する)、及び、第2モデルに従い算出される算出値(図15を参照しながら後述する)の関係性を表すモデル(説明の便宜上、「適合度モデル」と表す)を作成する、
○ステップS105:作成した適合度モデルに基づき、未処理画像情報に含まれている画像データに関してラベルを推定(予測、判定)する。
○ Step S101: Input a label indicating whether or not the first search condition is satisfied and a label indicating whether or not the second search condition is satisfied.
-Step S102: The relationship between the label related to the first search condition and the frame (referred to as "first model" for convenience of explanation) and the label related to the second search condition and the frame. Create a model to represent (referred to as "second model" for convenience of explanation),
○ Step S103: Enter a label indicating whether or not the target search condition is satisfied.
○ Step S104: A label relating to the target search condition, a calculated value calculated according to the first model (described later with reference to FIG. 14), and a calculated value calculated according to the second model (described later with reference to FIG. 15). Create a model (referred to as "goodness-of-fit model" for convenience of explanation) that represents the relationship between
-Step S105: Based on the created goodness-of-fit model, the label is estimated (predicted, determined) with respect to the image data included in the unprocessed image information.

以降、ステップS101乃至ステップS105に示された各処理について、図3乃至図5を参照しながら詳細に説明する。 Hereinafter, each process shown in steps S101 to S105 will be described in detail with reference to FIGS. 3 to 5.

まず、図10を参照しながら、制御部201によって入出力される場合に介するユーザインターフェース2010について説明し、次に、図11を参照しながら制御部201が入力するラベル情報について説明する。その後、図3乃至図5を参照しながら、ステップS101乃至ステップS105における処理について説明する。図10は、ユーザインターフェース2010が有する構成の一例を概念的に表す図である。 First, the user interface 2010 through the input / output by the control unit 201 will be described with reference to FIG. 10, and then the label information input by the control unit 201 will be described with reference to FIG. After that, the processing in steps S101 to S105 will be described with reference to FIGS. 3 to 5. FIG. 10 is a diagram conceptually showing an example of the configuration of the user interface 2010.

ユーザインターフェース2010は、動画データを表示可能な領域2011と、表示している動画データを操作可能な領域2012と、動画データに含まれている画像データに対して割り当てられたラベルを表す領域2013と、表示している動画データを操作可能な領域2014とを含む。さらに、ユーザインターフェース2010は、動画データに含まれている画像データに対して、各ラベルを入力することが可能な領域2015を含んでいる。 The user interface 2010 includes an area 2011 in which the moving image data can be displayed, an area 2012 in which the displayed moving image data can be operated, and an area 2013 representing a label assigned to the image data included in the moving image data. , The area 2014 in which the displayed moving image data can be operated is included. Further, the user interface 2010 includes an area 2015 in which each label can be input to the image data included in the moving image data.

矩形2016は、動画データに含まれているすべてのフレーム(画像データ)のうち、領域2011に示されているフレームに関する位置を表している。領域2011に表示される動画データは、矩形2016を横方向にスライドされるのに応じて変化することとする。領域2013には、すべてのフレームのうち、領域2011に示されている動画データに含まれている画像データに対して、領域2015を介して入力されたラベルが表示されている。領域2012における横方向と、領域2013における横方向とは対応しており、それぞれ、動画データに含まれているすべてのフレーム(画像データ)のうち、領域2011に示されているフレームの位置を表している。たとえば、図10に示された例においては、領域2012に対する矩形2016の位置によって、領域2011には帽子をかぶった人が表示され、さらに、領域2013には、当該フレームに関するラベルが「C01」であることが表示されている。 The rectangle 2016 represents a position related to the frame shown in the area 2011 among all the frames (image data) included in the moving image data. The moving image data displayed in the area 2011 changes as the rectangle 2016 is slid laterally. In the area 2013, labels input via the area 2015 are displayed for the image data included in the moving image data shown in the area 2011 among all the frames. The horizontal direction in the area 2012 and the horizontal direction in the area 2013 correspond to each other, and each represents the position of the frame shown in the area 2011 among all the frames (image data) included in the moving image data. ing. For example, in the example shown in FIG. 10, depending on the position of the rectangle 2016 with respect to the area 2012, a person wearing a hat is displayed in the area 2011, and further, the label related to the frame is “C01” in the area 2013. It is displayed that there is.

領域2014には、左から順に、動画データを戻す操作、動画データを再生する操作、動画データを停止する操作、及び、動画データを早送りする操作を入力することができる領域が配置されている。 In the area 2014, in order from the left, an area in which an operation of returning the moving image data, an operation of playing the moving image data, an operation of stopping the moving image data, and an operation of fast-forwarding the moving image data can be input is arranged.

次に、図11を参照しながら制御部201が入力するラベル情報について説明する。図11は、ラベル情報記憶部202に格納されているラベル情報の一例を概念的に表す図である。 Next, the label information input by the control unit 201 will be described with reference to FIG. FIG. 11 is a diagram conceptually showing an example of label information stored in the label information storage unit 202.

ラベル情報記憶部202には、たとえば、動画データに含まれている画像データに関して、ある検索条件が成り立つか否かを表すラベルと、該ラベルを識別可能なラベルIDとが関連付けされたラベル情報が格納されている。ラベル情報記憶部202には、たとえば、第1検索条件「帽子をかぶった人がいるか」に関して、第1検索条件が成り立つ場合を表すラベル「帽子をかぶった人がいる」と、該ラベルを表すラベルID「C01」とが関連付けされたラベル情報が格納されている。さらに、ラベル情報記憶部202には、たとえば、第1検索条件「帽子をかぶった人がいるか」に関して、第1検索条件が成立しなかった場合を表すラベル「帽子をかぶった人がいない」と、該ラベルを表すラベルID「C02」とが関連付けされたラベル情報が格納されている。 In the label information storage unit 202, for example, with respect to the image data included in the moving image data, label information in which a label indicating whether or not a certain search condition is satisfied and a label ID capable of identifying the label are associated with each other is provided. It is stored. In the label information storage unit 202, for example, regarding the first search condition "is there a person wearing a hat", the label "there is a person wearing a hat" indicating the case where the first search condition is satisfied is expressed. The label information associated with the label ID "C01" is stored. Further, in the label information storage unit 202, for example, regarding the first search condition "whether there is a person wearing a hat", the label "no person wearing a hat" indicating the case where the first search condition is not satisfied is stated. , Label information associated with the label ID "C02" representing the label is stored.

ラベル情報記憶部202には、さらに、第2検索条件「ジャンパーを着た人がいるか」に関しても、ラベル「ジャンパーを着た人がいる」、及び、ラベル「ジャンパーを着た人がいない」が格納されている。図11に示されたラベル情報において、ラベル「ジャンパーを着た人がいる」は、ラベルID「C03」に関連付けされている。また、ラベル「ジャンパーを着た人がいない」は、ラベルID「C04」に関連付けされている。 In the label information storage unit 202, the label "There is a person who wears a jumper" and the label "No person who wears a jumper" are further related to the second search condition "Is there a person who wears a jumper?" It is stored. In the label information shown in FIG. 11, the label "There is a person wearing a jumper" is associated with the label ID "C03". Further, the label "No one wears a jumper" is associated with the label ID "C04".

次に、図3を参照しながら、図2に示されたステップS101、及び、ステップS102における処理について説明する。図3は、図2に示されたステップS101、及び、ステップS102における処理の詳細な流れを示すフローチャートである。 Next, the processes in steps S101 and S102 shown in FIG. 2 will be described with reference to FIG. FIG. 3 is a flowchart showing a detailed flow of processing in step S101 and step S102 shown in FIG.

ラベル入力部200において、制御部201は、学習画像情報記憶部101(図7に例示)に格納されている1つの学習画像情報を読み取り、読み取った学習画像情報に含まれている動画データを、図10に例示されているようなユーザインターフェース2010を介して、表示装置(不図示)に表示する(ステップS201)。さらに、制御部201は、ラベル情報(図11に例示)に基づき、読み取った学習画像情報(図7に例示)に関するラベルを特定し、特定したラベルを、たとえば、ユーザインターフェース2010における領域2015に表示する。 In the label input unit 200, the control unit 201 reads one learning image information stored in the learning image information storage unit 101 (exemplified in FIG. 7), and reads the moving image data included in the read learning image information. Displayed on a display device (not shown) via a user interface 2010 as illustrated in FIG. 10 (step S201). Further, the control unit 201 identifies a label related to the read learning image information (exemplified in FIG. 7) based on the label information (exemplified in FIG. 11), and displays the identified label in, for example, the area 2015 in the user interface 2010. To do.

制御部201は、たとえば、ユーザインターフェース2010を介して、画像データに関するラベルを入力する(ステップS202)。この場合に、制御部201は、第1検索条件に関するラベルと、第2検索条件に関するラベルとを、それぞれ入力する。 The control unit 201 inputs a label relating to the image data, for example, via the user interface 2010 (step S202). In this case, the control unit 201 inputs the label related to the first search condition and the label related to the second search condition, respectively.

制御部201は、該動画データIDと、該動画データIDが表す動画データにおけるフレームを表すフレームIDと、入力されたラベル(すなわち、当該フレームに対して入力されたラベル)とが関連付けされた画像ラベル情報(図12に例示)を作成する(ステップS203)。図12は、画像ラベル記憶部203に格納されている画像ラベル情報の一例を概念的に表す図である。制御部201は、作成した画像ラベル情報を画像ラベル記憶部203に格納する。すなわち、制御部201は、対象検索条件が緩和された第1検索条件に関するラベル(たとえば、ラベル「C01」及びラベル「C02」)と、第2検索条件に関するラベル(たとえば、ラベル「C03」及びラベル「C04」)とを含む画像ラベル情報を作成する。 The control unit 201 is an image in which the moving image data ID, the frame ID representing the frame in the moving image data represented by the moving image data ID, and the input label (that is, the label input for the frame) are associated with each other. Label information (exemplified in FIG. 12) is created (step S203). FIG. 12 is a diagram conceptually representing an example of image label information stored in the image label storage unit 203. The control unit 201 stores the created image label information in the image label storage unit 203. That is, the control unit 201 has a label related to the first search condition (for example, label “C01” and label “C02”) in which the target search condition is relaxed, and a label related to the second search condition (for example, label “C03” and label). Create image label information including "C04").

特徴量作成部310において、特徴量モデル作成部311は、画像ラベル記憶部203に格納されている画像ラベル情報(図12に例示)に基づき、第1検索条件に関するラベルと、該ラベルが割り当てられたフレームとの関係性を表すモデルに含まれている重みを算出する(ステップS204)。同様に、特徴量モデル作成部311は、画像ラベル記憶部203に格納されている画像ラベル情報(図12に例示)に基づき、第2検索条件に関するラベルと、該ラベルが割り当てられたフレーム(画像データ)との関係性を表すモデルに含まれている重みを算出する(ステップS205)。 In the feature amount creation unit 310, the feature amount model creation unit 311 is assigned a label relating to the first search condition and the label based on the image label information (exemplified in FIG. 12) stored in the image label storage unit 203. The weight included in the model representing the relationship with the label is calculated (step S204). Similarly, the feature amount model creation unit 311 has a label related to the second search condition and a frame to which the label is assigned (image) based on the image label information (exemplified in FIG. 12) stored in the image label storage unit 203. The weight included in the model representing the relationship with the data) is calculated (step S205).

ステップS204にて、特徴量モデル作成部311は、所定の手順に従い、フレームが有する特徴を表す特徴量(たとえば、HOG特徴量)を算出し、算出した特徴量と、第1検索条件に関するラベルとの関係性を表すモデルを構成している重みを、CNN法等の機械学習法によって算出する(ステップS204)。尚、HOG特徴量は、Histograms_of_Oriented_Gradientsの略称を表す。CNNは、Convolutional_Neural_Networkの略称を表す。特徴量モデル作成部311は、同様な手法によって、算出した特徴量と、第2検索条件に関するラベルとの関係性を表すモデルに含まれている重みを算出する(ステップS205)。すなわち、特徴量モデル作成部311は、第1検索条件に関するラベルを推定可能な第1モデルと、第2検索条件に関するラベルを推定可能な第2モデルとを作成する。 In step S204, the feature amount model creation unit 311 calculates a feature amount (for example, a HOG feature amount) representing the feature of the frame according to a predetermined procedure, and the calculated feature amount and a label relating to the first search condition are used. The weights constituting the model representing the relationship between the above are calculated by a machine learning method such as the CNN method (step S204). The HOG feature amount represents an abbreviation for Histograms_of_Oriented_Gradients. CNN represents an abbreviation for Convolutional_Neural_Newwork. The feature amount model creating unit 311 calculates the weight included in the model representing the relationship between the calculated feature amount and the label related to the second search condition by the same method (step S205). That is, the feature amount model creation unit 311 creates a first model in which the label related to the first search condition can be estimated and a second model in which the label related to the second search condition can be estimated.

次に、特徴量モデル作成部311は、作成したモデルを表すモデルIDと、該モデルに従い推定されるラベルとが関連付けされたモデル情報を作成し(ステップS206)、作成したモデル情報(図13に例示)をモデル情報記憶部312に格納する。図13は、モデル情報の一例を概念的に表す図である。モデル情報は、さらに、モデルを表す情報、または、モデルに関連付けされていてもよい。 Next, the feature quantity model creation unit 311 creates model information in which the model ID representing the created model and the label estimated according to the model are associated with each other (step S206), and the created model information (FIG. 13). (Example) is stored in the model information storage unit 312. FIG. 13 is a diagram conceptually representing an example of model information. The model information may also be information that represents the model or may be associated with the model.

図13に例示されたモデル情報を参照すると、モデルID「M101」と、モデル「帽子をかぶった人がいる」と、ラベルID「C01、C02」とが関連付けされている。これは、第1検索条件「帽子をかぶった人がいるか」に関するラベル(ラベルID「C01」が表すラベル、及び、ラベルID「C02」が表すラベル)に関して、モデルID「M101」が表すモデルを特徴量モデル作成部311が作成したことを表す。図13に例示されたモデル情報を参照すると、モデルID「M102」と、モデル「ジャンパーを着た人がいる」と、ラベルID「C03、C04」とが関連付けされている。これは、第2検索条件「ジャンパーを着た人がいるか」に関するラベル(ラベルID「C03」が表すラベル、及び、ラベルID「C04」が表すラベル)に関して、モデルID「M102」が表すモデルを特徴量モデル作成部311が作成したことを表す。 With reference to the model information illustrated in FIG. 13, the model ID “M101”, the model “there is a person wearing a hat”, and the label IDs “C01, C02” are associated with each other. This refers to the model represented by the model ID "M101" with respect to the label relating to the first search condition "whether there is a person wearing a hat" (the label represented by the label ID "C01" and the label represented by the label ID "C02"). Indicates that the feature quantity model creation unit 311 has created the label. With reference to the model information illustrated in FIG. 13, the model ID “M102”, the model “someone wearing a jumper”, and the label IDs “C03, C04” are associated with each other. This refers to the model represented by the model ID "M102" with respect to the label relating to the second search condition "whether there is a person wearing a jumper" (the label represented by the label ID "C03" and the label represented by the label ID "C04"). Indicates that the feature quantity model creation unit 311 has created the label.

次に、図16を参照しながら、CNNによって作成されるモデルの一例について説明する。該モデルは、図3に示されたステップS306、及び、図4に示されたステップS404における処理にて作成される特徴量を算出する基となる重みを含んでいる。図16は、CNNが有する構成の一例を概念的に表す図である。CNNは、後述する所定の第1処理手順、及び、所定の第2処理手順の一例である。 Next, an example of the model created by CNN will be described with reference to FIG. The model includes weights that are the basis for calculating the features created by the processes in step S306 shown in FIG. 3 and step S404 shown in FIG. FIG. 16 is a diagram conceptually showing an example of the configuration of CNN. CNN is an example of a predetermined first processing procedure and a predetermined second processing procedure described later.

CNNは、入力層71と、中間層72と、出力層73とを有する。入力層71と、中間層72と、出力層73とは、それぞれ、ある処理を表すノード74を複数含む。入力層71におけるノード74は、たとえば、上述したHOG特徴量等の特徴量を入力する処理を表す。中間層72、及び、出力層73におけるノード76は、入力された値に対して、ある演算を実行する処理を表す。また、エッジ75は、矢印の方向に、重みを掛け算する処理を表す。各エッジに関する重みは、たとえば、畳み込み処理、Pooling処理等の処理が繰り返し実行されることによって、入力層71に入力された特徴量と、ラベルとの関係から求められる。CNNは、さらに多くのノードを含んでいてもよい。すなわち、CNNは、図16に示された例に限定されない。 The CNN has an input layer 71, an intermediate layer 72, and an output layer 73. The input layer 71, the intermediate layer 72, and the output layer 73 each include a plurality of nodes 74 representing a certain process. The node 74 in the input layer 71 represents, for example, a process of inputting a feature amount such as the above-mentioned HOG feature amount. The node 76 in the intermediate layer 72 and the output layer 73 represents a process of executing a certain operation on the input value. Further, the edge 75 represents a process of multiplying the weight in the direction of the arrow. The weight for each edge is obtained from the relationship between the feature amount input to the input layer 71 and the label by repeatedly executing the convolution process, the polling process, and the like. The CNN may include more nodes. That is, CNN is not limited to the example shown in FIG.

所定の第1処理手順、及び、所定の第2処理手順は、必ずしも、1つの手法である必要はなく、上述した例に限定されない。 The predetermined first processing procedure and the predetermined second processing procedure do not necessarily have to be one method, and are not limited to the above-mentioned examples.

次に、図4を参照しながら、図2に示されたステップS103、及び、ステップS104における処理について説明する。図4は、図2に示されたステップS103、及び、ステップS104における処理の詳細な流れを示すフローチャートである。 Next, the processes in steps S103 and S104 shown in FIG. 2 will be described with reference to FIG. FIG. 4 is a flowchart showing a detailed flow of processing in step S103 and step S104 shown in FIG.

制御部201は、表示画像情報記憶部102から、対象検索条件に関するラベルを付与する対象である表示画像情報(図8に例示)を読み取り、読み取った表示画像情報に関する動画データを、たとえば、図10に例示されたユーザインターフェース2010を介して、表示装置(不図示)に表示する(ステップS301)。制御部201は、たとえば、図10に例示されたユーザインターフェース2010を介して入力されたラベル(すなわち、対象検索条件が成り立つか否かを表すラベル)を入力する(ステップS302)。 The control unit 201 reads the display image information (exemplified in FIG. 8) to which the label related to the target search condition is given from the display image information storage unit 102, and obtains moving image data related to the read display image information, for example, FIG. Display on a display device (not shown) via the user interface 2010 exemplified in (step S301). The control unit 201 inputs, for example, a label input via the user interface 2010 illustrated in FIG. 10 (that is, a label indicating whether or not the target search condition is satisfied) (step S302).

フレーム作成部411は、表示画像情報記憶部102に格納されている表示画像情報(図8に例示)における動画データを読み取り、読み取った動画データに関するフレームを作成する(ステップS303)。フレーム作成部411は、たとえば、動画データIDがV3000番台の動画データに対して、それぞれ、フレーム(画像データ)を作成する。フレーム作成部411は、該動画データIDに関して、フレームを識別可能なフレームIDを算出し、作成したフレームと、算出したフレームIDとが関連付けされたフレーム情報を作成し、作成したフレーム情報をフレーム情報記憶部412に格納する。この場合に、フレーム作成部411は、作成したフレームに対するラベルを、入力されたラベルに基づき選択する。 The frame creation unit 411 reads the moving image data in the display image information (exemplified in FIG. 8) stored in the display image information storage unit 102, and creates a frame related to the read moving image data (step S303). For example, the frame creation unit 411 creates a frame (image data) for each moving image data whose moving image data ID is in the V3000 series. The frame creation unit 411 calculates a frame ID that can identify the frame with respect to the moving image data ID, creates frame information in which the created frame is associated with the calculated frame ID, and uses the created frame information as frame information. It is stored in the storage unit 412. In this case, the frame creation unit 411 selects a label for the created frame based on the input label.

制御部201は、該動画データIDと、該動画データIDが表す動画データにおけるフレームを表すフレームIDと、入力されたラベル(すなわち、当該フレームに対して入力されたラベル)とが関連付けされた画像ラベル情報(図17に例示)を作成し(ステップS304)、作成した画像ラベル情報を画像ラベル記憶部203に格納する。図17は、画像ラベル記憶部203に格納されている画像ラベル情報の一例を概念的に表す図である。 The control unit 201 is an image in which the moving image data ID, the frame ID representing the frame in the moving image data represented by the moving image data ID, and the input label (that is, the label input for the frame) are associated with each other. Label information (exemplified in FIG. 17) is created (step S304), and the created image label information is stored in the image label storage unit 203. FIG. 17 is a diagram conceptually representing an example of image label information stored in the image label storage unit 203.

特徴量算出部313は、対象検索条件に関連している第1検索条件に関するラベルを推定可能なモデル、及び、該対象検索条件に関連している第2検索条件に関するラベルを推定可能なモデルを、モデル情報記憶部312に格納されているモデル情報(図13に例示)に基づき特定する(ステップS305)。たとえば、第1検索条件に関するラベルを表すラベルIDが、ラベルID「C01」、及び、ラベルID「C02」であるので、特徴量算出部313は、モデル情報記憶部312に格納されているモデル情報(図13に例示)に基づき、該ラベルIDに関連付けされたモデルID「M101」を特定する。同様に、第2検索条件に関するラベルを表すラベルIDが、ラベルID「C03」、及び、ラベルID「C04」であるので、特徴量算出部313は、モデル情報記憶部312に格納されているモデル情報(図13に例示)に基づき、該ラベルIDに関連付けされたモデルID「M102」を特定する。 The feature amount calculation unit 313 can estimate a model related to the first search condition related to the target search condition and a model capable of estimating the label related to the second search condition related to the target search condition. , Is specified based on the model information (exemplified in FIG. 13) stored in the model information storage unit 312 (step S305). For example, since the label IDs representing the labels related to the first search condition are the label ID “C01” and the label ID “C02”, the feature amount calculation unit 313 uses the model information stored in the model information storage unit 312. Based on (exemplified in FIG. 13), the model ID “M101” associated with the label ID is specified. Similarly, since the label IDs representing the labels related to the second search condition are the label ID “C03” and the label ID “C04”, the feature amount calculation unit 313 is a model stored in the model information storage unit 312. Based on the information (exemplified in FIG. 13), the model ID "M102" associated with the label ID is specified.

次に、特徴量算出部313は、特定したモデルをフレーム情報記憶部412に格納されているフレームに対して適用する。この処理によって、たとえば、図16に例示された中間層72における各ノード74にて、該ノードに対して入力されたデータが重み付けされた値に関する総和が算出される。 Next, the feature amount calculation unit 313 applies the specified model to the frame stored in the frame information storage unit 412. By this processing, for example, at each node 74 in the intermediate layer 72 illustrated in FIG. 16, the sum of the values in which the data input to the node is weighted is calculated.

たとえば、特徴量算出部313は、図13に例示されたモデル情報に基づき、第1検索条件に関するラベルを推定可能なモデルを表すモデルID「M101」を特定する。さらに、特徴量算出部313は、図17に例示された画像ラベル情報に基づき、ラベルが入力された動画データID「V3001」が表す動画データに含まれているフレームを表すフレームID「1」を特定する。次に、特徴量算出部313は、フレームID「1」が表すフレームに対して、モデルID「M101」が表すモデルを適用する。これによって、図16に例示された中間層72における各ノード74にて、該ノードに入力されたデータに対する処理が実行され、該処理の結果、算出値が算出される。たとえば、適合度学習情報作成部321は、動画データID「V3001」が表す動画データに含まれているフレームID「1」に、モデルID「M101」が表すモデルを適用する。この処理によって、適合度学習情報作成部321は、たとえば、図16に例示された中間層72におけるノード74にて算出された値を含む算出値「2、10、182、128、・・・」(図14に例示)を算出する。同様に、適合度学習情報作成部321は、動画データID「V3001」が表す動画データに含まれているフレームID「1」に、モデルID「M102」が表すモデルを適用する。この処理によって、適合度学習情報作成部321は、たとえば、図16に例示された中間層72におけるノード74にて算出された値を含む算出値「10、10、175、131、・・・」(図15に例示)を算出する。図14、及び、図15は、特徴情報記憶部314に格納されている特徴情報を概念的に表す図である。適合度学習情報作成部321は、算出した算出値と、該算出値に関するフレームIDと、動画データIDと、モデルIDとが関連付けされた特徴情報を作成し、作成した特徴情報を、特徴情報記憶部314(図14、及び、図15に例示)に格納する。 For example, the feature amount calculation unit 313 identifies the model ID “M101” representing a model in which the label related to the first search condition can be estimated based on the model information exemplified in FIG. Further, the feature amount calculation unit 313 generates a frame ID “1” representing a frame included in the moving image data represented by the moving image data ID “V3001” in which the label is input, based on the image label information illustrated in FIG. Identify. Next, the feature amount calculation unit 313 applies the model represented by the model ID “M101” to the frame represented by the frame ID “1”. As a result, each node 74 in the intermediate layer 72 illustrated in FIG. 16 executes a process for the data input to the node, and as a result of the process, a calculated value is calculated. For example, the goodness-of-fit learning information creation unit 321 applies the model represented by the model ID “M101” to the frame ID “1” included in the moving image data represented by the moving image data ID “V3001”. By this processing, the goodness-of-fit learning information creation unit 321 is, for example, calculated values “2, 10, 182, 128, ...” Including the values calculated at the node 74 in the intermediate layer 72 illustrated in FIG. (Example in FIG. 14) is calculated. Similarly, the goodness-of-fit learning information creation unit 321 applies the model represented by the model ID “M102” to the frame ID “1” included in the moving image data represented by the moving image data ID “V3001”. By this process, the goodness-of-fit learning information creation unit 321 is, for example, calculated values “10, 10, 175, 131, ...” Including the values calculated at the node 74 in the intermediate layer 72 illustrated in FIG. (Example in FIG. 15) is calculated. 14 and 15 are diagrams conceptually representing the feature information stored in the feature information storage unit 314. The conformity learning information creation unit 321 creates feature information in which the calculated calculated value, the frame ID related to the calculated value, the moving image data ID, and the model ID are associated with each other, and stores the created feature information in the feature information storage. It is stored in the unit 314 (exemplified in FIGS. 14 and 15).

適合度学習情報作成部321は、特徴情報記憶部314に格納されている特徴情報のうち、ある動画データIDと、あるフレームIDとに関連付けされた算出値に関して、所定の手順に従い、特徴ベクトルを作成する(ステップS306)。次に、適合度学習情報作成部321は、画像ラベル記憶部203に格納されている画像ラベル情報(図17に例示)にて、該動画データID、及び、該フレームIDに関連付けされたラベルIDを特定する(ステップS307)。適合度学習情報作成部321は、該動画データIDと、該フレームIDと、作成した特徴ベクトルと、特定したラベルIDと、当該ラベルIDを表すラベルが正しいことを表す正解情報(たとえば、「1」)とが関連付けされた適合度学習情報(図18に例示)を作成し(ステップS308)、作成した適合度学習情報を適合度学習情報記憶部322に格納する。同様に、適合度学習情報作成部321は、対象検索条件に関するラベルであって、特定した当該ラベルと異なるラベルを表すラベルIDと、該動画データIDと、該フレームIDと、作成した特徴ベクトルと、当該ラベルIDを表すラベルが正しくないことを表す正解情報(たとえば、「0」)とが関連付けされた適合度学習情報(図18に例示)を作成する(ステップS308)。適合度学習情報作成部321は、作成した適合度学習情報を適合度学習情報記憶部322に格納する。図18は、適合度学習情報記憶部322に格納されている適合度学習情報の一例を概念的に表す図である。 The goodness-of-fit learning information creation unit 321 sets the feature vector in accordance with a predetermined procedure with respect to a certain moving image data ID and a calculated value associated with a certain frame ID among the feature information stored in the feature information storage unit 314. Create (step S306). Next, the conformity learning information creation unit 321 uses the image label information (exemplified in FIG. 17) stored in the image label storage unit 203 to display the moving image data ID and the label ID associated with the frame ID. Is specified (step S307). The conformity learning information creation unit 321 has correct answer information (for example, "1" indicating that the moving image data ID, the frame ID, the created feature vector, the specified label ID, and the label representing the label ID are correct. The conformity learning information (exemplified in FIG. 18) associated with) is created (step S308), and the created conformity learning information is stored in the conformity learning information storage unit 322. Similarly, the conformity learning information creation unit 321 has a label ID relating to the target search condition and representing a label different from the specified label, the moving image data ID, the frame ID, and the created feature vector. , Creates conformity learning information (exemplified in FIG. 18) associated with correct answer information (for example, “0”) indicating that the label representing the label ID is incorrect (step S308). The goodness-of-fit learning information creation unit 321 stores the created goodness-of-fit learning information in the goodness-of-fit learning information storage unit 322. FIG. 18 is a diagram conceptually representing an example of the goodness-of-fit learning information stored in the goodness-of-fit learning information storage unit 322.

適合度学習情報作成部321は、たとえば、動画データID「V3001」に関する画像情報においてフレームID「1」に関して、特徴情報(図14に例示)に基づき、モデルID「M101」に関連付けされた算出値「2、10、183、128、・・・」を特定する。モデルID「101」が表すモデルは、たとえば、第1検索条件「帽子をかぶった人がいるか」を推定可能なモデルである。同様に、適合度学習情報作成部321は、たとえば、動画データID「V3001」に関する画像情報において、フレームID「1」が表すフレームに関して、特徴情報(図15に例示)に基づき、モデルID「M102」に関連付けされた算出値「10、10、175、131、・・・」を算出する。 The goodness-of-fit learning information creation unit 321 is, for example, a calculated value associated with the model ID “M101” based on the feature information (exemplified in FIG. 14) with respect to the frame ID “1” in the image information related to the video data ID “V3001”. Identify "2, 10, 183, 128, ...". The model represented by the model ID "101" is, for example, a model capable of estimating the first search condition "whether there is a person wearing a hat". Similarly, the goodness-of-fit learning information creation unit 321 has, for example, in the image information related to the moving image data ID “V3001”, regarding the frame represented by the frame ID “1”, based on the feature information (exemplified in FIG. 15), the model ID “M102”. The calculated values "10, 10, 175, 131, ..." Associated with "" are calculated.

また、モデルID「102」が表すモデルは、たとえば、第2検索条件「ジャンパーを着た人がいるか」を推定可能なモデルである。適合度学習情報作成部321は、読み取った2つの算出値を含む特徴ベクトル「2、10、183、128、・・・、10、10、175、131、・・・」を作成する。図18に例示されているように、適合度学習情報作成部321は、作成した特徴ベクトルと、動画データID「V3001」と、フレームID「1」と、ラベルID「C05」とが関連付けされた適合度学習情報を作成する(ステップS308)。 Further, the model represented by the model ID "102" is, for example, a model capable of estimating the second search condition "whether there is a person wearing a jumper". The goodness-of-fit learning information creation unit 321 creates a feature vector "2, 10, 183, 128, ..., 10, 10, 175, 131, ..." Containing the two read calculated values. As illustrated in FIG. 18, the goodness-of-fit learning information creation unit 321 associates the created feature vector with the moving image data ID “V3001”, the frame ID “1”, and the label ID “C05”. The goodness-of-fit learning information is created (step S308).

所定の手順に関して、算出値に含まれている値を並べる順序は、所定の順序であればよく、たとえば、モデルID「M101」が表すモデルに関して算出された算出値の次に、モデルID「M102」が表すモデルに関して算出された算出値が並べられた順序であってもよい。または、該順序は、たとえば、モデルID「M102」が表すモデルに関して算出された算出値の次に、モデルID「M101」が表すモデルに関して算出された算出値が並べられていた順序であってもよい。また、所定の手順は、必ずしも、図16に例示された中間層72に含まれているすべてのノード74にて処理された値をすべて含んでいる必要はなく、一部の値であってもよい。すなわち、所定の手順は、上述した例に限定されない。 The order in which the values included in the calculated values are arranged with respect to the predetermined procedure may be any predetermined order. For example, the model ID "M102" is next to the calculated values calculated for the model represented by the model ID "M101". The calculated values calculated for the model represented by "" may be arranged in an order. Alternatively, the order may be, for example, an order in which the calculated values calculated for the model represented by the model ID "M102" are arranged next to the calculated values calculated for the model represented by the model ID "M101". Good. Further, the predetermined procedure does not necessarily include all the values processed by all the nodes 74 included in the intermediate layer 72 illustrated in FIG. 16, even if it is a part of the values. Good. That is, the predetermined procedure is not limited to the above-mentioned example.

適合度学習情報作成部321は、画像ラベル記憶部203(図17に例示)から、動画データID「V3001」、及び、フレームID「1」に関連付けされたラベルID「C05」を特定する。この場合に、適合度学習情報作成部321は、ラベルID「C05」に関して、正解であることを表す正解情報「1」を作成する。これに対して、適合度学習情報作成部321は、ラベルID「C05」が表すラベルと対を成すラベルID「C06」に関して、正解でないことを表す正解情報「0」を作成する。 The goodness-of-fit learning information creation unit 321 identifies the moving image data ID “V3001” and the label ID “C05” associated with the frame ID “1” from the image label storage unit 203 (exemplified in FIG. 17). In this case, the goodness-of-fit learning information creation unit 321 creates correct answer information "1" indicating that the answer is correct with respect to the label ID "C05". On the other hand, the goodness-of-fit learning information creation unit 321 creates correct answer information "0" indicating that the answer is not correct with respect to the label ID "C06" paired with the label represented by the label ID "C05".

適合度学習情報作成部321は、上述した処理を、各画像データに関して実行する。 The goodness-of-fit learning information creation unit 321 executes the above-described processing for each image data.

次に、適合度モデル作成部323は、適合度学習情報記憶部322に格納されている情報に基づき、たとえば、SSI法に従い、特徴ベクトルと対象検索条件に関するラベルとの間の関係性を表すモデルを作成する(ステップS309)。尚、SSIは、Supervised_Semantic_Indexingの略称を表す。SSIは、後述する所定の第3処理手順の一例である。所定の第3処理手順は、必ずしも、SSIである必要はなく、所定の第1処理手順、または、所定の第2処理手順と同様な処理手順であってもよい。 Next, the goodness-of-fit model creation unit 323 is a model that represents the relationship between the feature vector and the label related to the target search condition based on the information stored in the goodness-of-fit learning information storage unit 322, for example, according to the SSI method. Is created (step S309). In addition, SSI represents an abbreviation for Supervised_Semantic_Indexing. SSI is an example of a predetermined third processing procedure described later. The predetermined third processing procedure does not necessarily have to be SSI, and may be a predetermined first processing procedure or a processing procedure similar to the predetermined second processing procedure.

次に、適合度学習情報作成部321は、作成したモデルを表すモデルIDと、ラベルIDとが関連付けされた適合度モデル情報(図19に例示)を作成し(ステップS310)、作成した適合度モデル情報を適合度モデル情報記憶部324に格納する。適合度モデル情報は、さらに、該ラベル、または、作成したモデルに関連付けされていてもよい。図19は、適合度モデル情報記憶部324に格納されている適合度モデル情報の一例を概念的に表す図である。 Next, the goodness-of-fit learning information creation unit 321 creates goodness-of-fit model information (exemplified in FIG. 19) in which the model ID representing the created model and the label ID are associated with each other (step S310), and the created goodness-of-fit degree. The model information is stored in the goodness-of-fit model information storage unit 324. The goodness-of-fit model information may be further associated with the label or the model created. FIG. 19 is a diagram conceptually representing an example of goodness-of-fit model information stored in the goodness-of-fit model information storage unit 324.

たとえば、適合度学習情報作成部321は、対象検索条件に関する第1検索条件「帽子をかぶった人がいるか」と、対象検索条件に関する第2検索条件「ジャンパーを着た人がいるか」とが、ともに成立するラベルを推定可能なモデルを作成する。 For example, the goodness-of-fit learning information creation unit 321 determines that the first search condition "is there a person wearing a hat" regarding the target search condition and the second search condition "is there a person wearing a jumper" regarding the target search condition? Create a model that can estimate the labels that hold both.

次に、図5を参照しながら、図2に示されたステップS104、及び、ステップS105における処理について詳細に説明する。図5は、図2に示されたステップS104、及び、ステップS105における処理の詳細な流れを示すフローチャートである。 Next, with reference to FIG. 5, the processing in step S104 and step S105 shown in FIG. 2 will be described in detail. FIG. 5 is a flowchart showing a detailed flow of processing in step S104 and step S105 shown in FIG.

フレーム作成部411は、未処理画像情報記憶部103に格納されている未処理画像情報(図9に例示)を読み取り、読み取った未処理画像情報に含まれている動画データに関してフレームを作成し(ステップS401)、作成したフレームをフレーム情報記憶部412に格納する。たとえば、フレーム作成部411は、未処理画像情報記憶部103(図9に例示)に格納されている、すべての未処理画像情報に関してフレームを作成し、作成したフレームをフレーム情報記憶部412に格納する。 The frame creation unit 411 reads the unprocessed image information (exemplified in FIG. 9) stored in the unprocessed image information storage unit 103, and creates a frame for the moving image data included in the read unprocessed image information (exemplified in FIG. 9). Step S401), the created frame is stored in the frame information storage unit 412. For example, the frame creation unit 411 creates a frame for all the unprocessed image information stored in the unprocessed image information storage unit 103 (exemplified in FIG. 9), and stores the created frame in the frame information storage unit 412. To do.

特徴量算出部313は、モデル情報記憶部312(図13に例示)に格納されているモデル情報に基づき、第1検索条件に関するラベルを推定可能なモデル、及び、第2検索条件に関するラベルを推定可能なモデルを特定する(ステップS402)。次に、特徴量算出部313は、フレーム情報記憶部412に格納されているフレームに対して、特定したモデルを、それぞれ、適用する(ステップS403)。この処理によって、図16に例示されているような中間層72にて算出値が算出される。たとえば、算出値「93、72、112、165、・・・」は、モデルID「M101」が表すモデル(すなわち、第1検索条件に関するラベルを推定可能なモデル)に従って算出される。たとえば、算出値「32、43、112、87、・・・」は、モデルID「M102」が表すモデル(すなわち、第2検索条件に関するラベルを推定可能なモデル)に従って算出される。 The feature amount calculation unit 313 estimates a model capable of estimating a label related to the first search condition and a label related to the second search condition based on the model information stored in the model information storage unit 312 (exemplified in FIG. 13). Identify a possible model (step S402). Next, the feature amount calculation unit 313 applies the specified model to each frame stored in the frame information storage unit 412 (step S403). By this process, the calculated value is calculated in the intermediate layer 72 as illustrated in FIG. For example, the calculated values "93, 72, 112, 165, ..." Are calculated according to the model represented by the model ID "M101" (that is, the model in which the label related to the first search condition can be estimated). For example, the calculated values "32, 43, 112, 87, ..." Are calculated according to the model represented by the model ID "M102" (that is, the model in which the label related to the second search condition can be estimated).

特徴量作成部421は、所定の手順に従い処理を実行することによって、該算出値に関する特徴ベクトルを算出し(ステップS404)、算出した特徴ベクトルと、該特徴ベクトルを算出する基であるフレームに関する動画データIDと、フレームIDとが関連付けされた適合度判定情報(図20に例示)を作成する(ステップS405)。図20は、適合度判定情報記憶部422に格納されている適合度判定情報の一例を概念的に表す図である。 The feature amount creation unit 421 calculates the feature vector related to the calculated value by executing the process according to a predetermined procedure (step S404), and the calculated feature vector and the moving image related to the frame which is the basis for calculating the feature vector. The goodness-of-fit determination information (exemplified in FIG. 20) in which the data ID and the frame ID are associated is created (step S405). FIG. 20 is a diagram conceptually representing an example of goodness-of-fit determination information stored in the goodness-of-fit determination information storage unit 422.

特徴量作成部421は、作成した適合度判定情報を特徴情報記憶部314に格納する。たとえば、特徴量算出部313は、動画データID「V4001」に関する画像情報に含まれているフレーム「1」に関して、特徴ベクトル「(93、72、112、165、・・・、32、43、112、87、・・・)」を算出する。 The feature amount creation unit 421 stores the created goodness-of-fit determination information in the feature information storage unit 314. For example, the feature amount calculation unit 313 refers to the feature vector "(93, 72, 112, 165, ..., 32, 43, 112" with respect to the frame "1" included in the image information regarding the moving image data ID "V4001". , 87, ...) ”Is calculated.

適合度算出部325は、適合度判定情報記憶部422に格納されている各特徴ベクトルに対して、対象検索条件に関するラベルを推定可能なモデルを適用することによって、該特徴ベクトルに関して、該ラベルに適合している程度(度合い)を表すラベル適合度を算出する(ステップS406)。適合度算出部325は、算出したラベル適合度と、該ラベル適合度に関する動画データIDと、フレームIDと、モデルIDと、該ラベル適合度に関するラベルIDとが関連付けされた適合度情報(図21に例示)を作成し、作成した適合度情報を適合度情報記憶部326に格納する。図21は、適合度情報記憶部326に格納されている適合度情報の一例を概念的に表す図である。具体的に、適合度算出部325は、入力した特徴ベクトルに対して、モデルID「M201」が表すモデルを適用することによって、ラベルID「C05」が表すラベル、及び、ラベルID「C06」が表すラベルに適合している程度を表すラベル適合度を算出する。ラベル適合度は、たとえば、あるラベルである確率を表し、0から1までのいずれかの値である。 The goodness-of-fit calculation unit 325 applies a model capable of estimating a label related to the target search condition to each feature vector stored in the goodness-of-fit determination information storage unit 422, thereby applying the label to the label with respect to the feature vector. The label goodness of fit, which indicates the degree of conformity (degree), is calculated (step S406). The goodness-of-fit calculation unit 325 has a goodness-of-fit information (FIG. 21) in which the calculated label goodness of fit, the moving image data ID related to the label goodness of fit, the frame ID, the model ID, and the label ID related to the label goodness of fit are associated. (Example) is created, and the created goodness-of-fit information is stored in the goodness-of-fit information storage unit 326. FIG. 21 is a diagram conceptually representing an example of goodness-of-fit information stored in the goodness-of-fit information storage unit 326. Specifically, the goodness-of-fit calculation unit 325 applies the model represented by the model ID “M201” to the input feature vector, so that the label represented by the label ID “C05” and the label ID “C06” are generated. Calculate the label conformity that indicates the degree of conformity with the label. The label goodness of fit represents, for example, the probability of being a label and is any value from 0 to 1.

ラベル判定部501は、適合度情報記憶部326に格納されている適合度情報(図21に例示)に基づき、あるフレームに関するラベルを選択する(ステップS407)。ラベル判定部501は、選択したラベルと、該あるフレームを表すフレームIDと、該フレームを含む動画データを表す動画データIDとが関連付けされた予想ラベル情報(図22に例示)を作成し(ステップS408)、作成した予想ラベル情報を予測ラベル情報記憶部502に格納する。図22は、予測ラベル情報記憶部502に格納されている予想ラベル情報の一例を概念的に表す図である。 The label determination unit 501 selects a label related to a certain frame based on the goodness of fit information (exemplified in FIG. 21) stored in the goodness of fit information storage unit 326 (step S407). The label determination unit 501 creates expected label information (exemplified in FIG. 22) in which the selected label, the frame ID representing the certain frame, and the moving image data ID representing the moving image data including the frame are associated (exemplified in FIG. 22). S408), the created expected label information is stored in the predicted label information storage unit 502. FIG. 22 is a diagram conceptually representing an example of the predicted label information stored in the predicted label information storage unit 502.

たとえば、ラベル判定部501は、あるフレームを表すフレームIDに関して、ラベルID「C05」に関して算出されたラベル適合度と、ラベルID「C06」に関して算出されたラベル適合度とを比較し、大きなラベル適合度であるラベルを、該あるフレームに対して付与する。図21に例示された適合度情報の場合に、動画データID「V4001」、及び、フレームID「1」に関連付けされたデータのうち、ラベルID「C05」に関連付けされたラベル適合度が0.85であり、ラベルID「C06」に関連付けされたラベル適合度が0.15である。したがって、ラベルID「C05」に関するラベル適合度がラベルID「C06」に関するラベル適合度よりも大きな値であるので、ラベル判定部501は、動画データID「V4001」が表す動画データに関するフレームID「1」が表すフレームに対して、ラベルID「C05」が表すラベルを割り当てる。同様に、ラベル判定部501は、適合度情報に含まれている他のフレームに関しても、ラベルを割り当てる処理を実行する。 For example, the label determination unit 501 compares the label conformity calculated for the label ID “C05” with the label conformity calculated for the label ID “C06” with respect to the frame ID representing a certain frame, and performs a large label conformity. A label of goodness of fit is given to the frame. In the case of the goodness-of-fit information illustrated in FIG. 21, among the data associated with the moving image data ID “V4001” and the frame ID “1”, the label goodness of fit associated with the label ID “C05” is 0. It is 85, and the label goodness of fit associated with the label ID “C06” is 0.15. Therefore, since the label conformity with respect to the label ID "C05" is a value larger than the label conformity with respect to the label ID "C06", the label determination unit 501 has the frame ID "1" regarding the video data represented by the video data ID "V4001". The label represented by the label ID “C05” is assigned to the frame represented by “”. Similarly, the label determination unit 501 also executes a process of assigning labels to other frames included in the goodness-of-fit information.

次に、第1の実施形態に係るデータ推定装置600に関する効果について説明する。 Next, the effect of the data estimation device 600 according to the first embodiment will be described.

第1の実施形態に係るデータ推定装置600によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。 According to the data estimation device 600 according to the first embodiment, the target data can be correctly determined even if the target search condition is strict.

この理由は、本願発明者が見出した傾向に従い、データ推定装置600が処理を実行するからである。詳細に説明すると、本願発明者は、以下に示す第1観点よりも、第2観点の方が、分類精度が高いことが多いという傾向を見出した。 The reason for this is that the data estimation device 600 executes the process according to the tendency found by the inventor of the present application. More specifically, the inventor of the present application has found that the second viewpoint tends to have higher classification accuracy than the first viewpoint shown below.

○第1観点:第1検索条件、及び、第2検索条件(すなわち、対象検索条件)が成り立つか否かを判定するモデルに基づき、ラベルを判定する、
○第2観点:第1検索条件が成り立つか否かを推定可能な第1モデルと、第2検索条件が成り立つか否かを推定可能な第2モデルとを作成する。次に、第1モデルに基づき算出される値と、第2モデルに基づき算出される値とに基づき、第1検索条件、及び、第2検索条件が成り立つか否かを推定可能なモデルを作成する。次に、該作成したモデルに基づきラベルを判定する。
○ First viewpoint: The label is determined based on the model for determining whether or not the first search condition and the second search condition (that is, the target search condition) are satisfied.
○ Second viewpoint: A first model that can estimate whether or not the first search condition is satisfied and a second model that can estimate whether or not the second search condition is satisfied are created. Next, a model capable of estimating whether or not the first search condition and the second search condition are satisfied is created based on the value calculated based on the first model and the value calculated based on the second model. To do. Next, the label is determined based on the created model.

データ推定装置600が、第2観点に従い作成されたモデルに基づき処理を行うので、本実施形態に係るデータ推定装置600によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。 Since the data estimation device 600 performs processing based on the model created according to the second viewpoint, the data estimation device 600 according to the present embodiment correctly determines the target data even if the target search condition is strict. can do.

すなわち、第1の実施形態に係るデータ推定装置600によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。 That is, according to the data estimation device 600 according to the first embodiment, the target data can be correctly determined even if the target search condition is strict.

第1の実施形態に係るデータ推定装置600によれば、さらに、対象検索条件が厳しい条件であっても、ユーザが、容易に、ラベルを入力することができるという効果を奏する。この理由は、対象検索条件が緩和された条件である第1検索条件、及び、第2検索条件に関するラベルに関して入力し、入力されたラベルに基づき作成されたモデルに従い、対象検索条件に関するラベルを入力するからである。すなわち、ユーザは、比較的、検知しやすい第1検索条件、及び、第2検索条件に関するラベルを入力し、次に、対象検索条件に関するラベルを段階的に入力する。この結果、ユーザがラベル付けする負荷は低減する。 According to the data estimation device 600 according to the first embodiment, there is an effect that the user can easily input the label even if the target search condition is strict. The reason for this is to enter the labels related to the first search condition and the second search condition, which are the conditions for which the target search condition is relaxed, and enter the label related to the target search condition according to the model created based on the entered label. Because it does. That is, the user inputs the label relating to the first search condition and the second search condition, which are relatively easy to detect, and then inputs the label relating to the target search condition step by step. As a result, the user-labeling load is reduced.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described.

図23を参照しながら、本発明の第2の実施形態に係るデータ推定装置801が有する構成について詳細に説明する。図23は、本発明の第2の実施形態に係るデータ推定装置801が有する構成を示すブロック図である。 The configuration of the data estimation device 801 according to the second embodiment of the present invention will be described in detail with reference to FIG. 23. FIG. 23 is a block diagram showing a configuration of the data estimation device 801 according to the second embodiment of the present invention.

第2の実施形態に係るデータ推定装置801は、第1演算部802と、第2演算部803と、第3演算部804とを有する。 The data estimation device 801 according to the second embodiment includes a first calculation unit 802, a second calculation unit 803, and a third calculation unit 804.

データ推定装置801は、以下に示すような第1モデル乃至第3モデルが格納されているモデル記憶部805と接続されている。 The data estimation device 801 is connected to a model storage unit 805 in which the first model to the third model as shown below are stored.

○第1モデル:第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立つか否かを推定可能なモデル、
○第2モデル:第2対象データに関して所定の第2処理手順に従い演算することによって第2検索条件が成り立つか否かを推定可能なモデル、
○第3モデル:第3対象データに対して適用された該第1モデルにおいて算出される演算結果と、第3対象データに対して適用された該第2モデルにおいて算出される演算結果とに関して、所定の第3処理手順に従い演算することによって、第3対象データに関して、第1検索条件、及び、第2検索条件が成り立つか否かを推定可能なモデル。
○ First model: A model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure.
○ Second model: A model that can estimate whether or not the second search condition is satisfied by performing calculations on the second target data according to a predetermined second processing procedure.
○ Third model: Regarding the calculation result calculated in the first model applied to the third target data and the calculation result calculated in the second model applied to the third target data. A model capable of estimating whether or not the first search condition and the second search condition are satisfied with respect to the third target data by performing an operation according to a predetermined third processing procedure.

第1の実施形態に示された対象検索条件は、たとえば、第1検索条件と、第2検索条件との論理積である。第3モデルは、たとえば、第1の実施形態に示された対象検索条件に関するラベルを推定可能なモデルを表す。所定の第1処理手順、及び、所定の第2処理手順は、たとえば、図16に例示されたCNNである。所定の第3処理手順は、たとえば、第1の実施形態に示されたSSI法である。 The target search condition shown in the first embodiment is, for example, a logical product of the first search condition and the second search condition. The third model represents, for example, a model in which the label relating to the target search condition shown in the first embodiment can be estimated. The predetermined first processing procedure and the predetermined second processing procedure are, for example, the CNN illustrated in FIG. The predetermined third processing procedure is, for example, the SSI method shown in the first embodiment.

次に、第2の実施形態に係るデータ推定装置801における処理について説明する。 Next, the processing in the data estimation device 801 according to the second embodiment will be described.

第1演算部802は、モデル記憶部805から第1モデルを読み取り、読み取った第1モデルをあるデータに対して適用する。すなわち、第1演算部802は、あるデータに対して、所定の第1処理手順に従い処理を実行することによって、該処理にて算出される第1演算結果を算出する。 The first calculation unit 802 reads the first model from the model storage unit 805 and applies the read first model to a certain data. That is, the first calculation unit 802 calculates the first calculation result calculated by the processing by executing the processing on the certain data according to the predetermined first processing procedure.

第2演算部803は、モデル記憶部805から第2モデルを読み取り、読み取った第2モデルをあるデータに対して適用する。すなわち、第2演算部803は、あるデータに対して、所定の第2処理手順に従い処理を実行することによって、該処理にて算出される第2演算結果を算出する。 The second calculation unit 803 reads the second model from the model storage unit 805, and applies the read second model to a certain data. That is, the second calculation unit 803 calculates the second calculation result calculated by the processing by executing the processing on the certain data according to the predetermined second processing procedure.

次に、第3演算部804は、モデル記憶部805から第3モデルを読み取る。第3演算部804は、該あるデータに対して第1演算部802が算出した第1演算結果と、該あるデータに対して第2演算部803が算出した第2演算結果とに関して、読み取った第3モデルを適用する。すなわち、第3演算部804は、該あるデータに関する第1演算結果と、該あるデータに関する第2演算結果とに対して、所定の第3処理手順に従い処理を実行することによって、第1検索条件、及び、第2検索条件が成り立つ程度を算出する。 Next, the third calculation unit 804 reads the third model from the model storage unit 805. The third calculation unit 804 has read about the first calculation result calculated by the first calculation unit 802 for the certain data and the second calculation result calculated by the second calculation unit 803 for the certain data. The third model is applied. That is, the third calculation unit 804 executes the processing of the first calculation result related to the certain data and the second calculation result related to the certain data according to a predetermined third processing procedure, thereby performing the first search condition. , And the degree to which the second search condition is satisfied is calculated.

第1演算部802は、図1に示された特徴量作成部310等が有する機能を用いて実現することができる。第2演算部803は、図1に示された特徴量作成部310等が有する機能を用いて実現することができる。第3演算部804は、図1に示された適合度特徴量作成部420、及び、適合度作成部320等が有する機能を用いて実現することができる。すなわち、データ推定装置801は、図1に示されたデータ推定装置600が有する機能を用いて実現することができる。 The first calculation unit 802 can be realized by using the functions of the feature amount creation unit 310 and the like shown in FIG. The second calculation unit 803 can be realized by using the functions of the feature amount creation unit 310 and the like shown in FIG. The third calculation unit 804 can be realized by using the functions of the goodness-of-fit feature amount creating unit 420, the goodness-of-fit creating unit 320, and the like shown in FIG. That is, the data estimation device 801 can be realized by using the function of the data estimation device 600 shown in FIG.

次に、第2の実施形態に係るデータ推定装置801に関する効果について説明する。 Next, the effect of the data estimation device 801 according to the second embodiment will be described.

第2の実施形態に係るデータ推定装置801によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。 According to the data estimation device 801 according to the second embodiment, the target data can be correctly determined even if the target search condition is strict.

この理由は、本願発明者が見出した傾向に従い、データ推定装置801が処理を実行するからである。この理由を詳細に説明すると、本願発明者は、前述した第1観点よりも、第2観点の方が、分類精度が高いことが多いという傾向を見出すことができたからである。データ推定装置801が、第2観点に従い作成されたモデルに基づき処理を行うので、そして、本実施形態に係るデータ推定装置801によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。 The reason for this is that the data estimation device 801 executes the process according to the tendency found by the inventor of the present application. Explaining the reason in detail, the inventor of the present application has found a tendency that the classification accuracy is often higher in the second viewpoint than in the first viewpoint described above. Since the data estimation device 801 performs processing based on the model created according to the second viewpoint, and according to the data estimation device 801 according to the present embodiment, the target data can be obtained even if the target search condition is strict. It can be judged correctly.

(ハードウェア構成例)
上述した本発明の各実施形態におけるデータ推定装置を、1つの計算処理装置(情報処理装置、コンピュータ)を用いて実現するハードウェア資源の構成例について説明する。但し、係るデータ推定装置は、物理的または機能的に少なくとも2つの計算処理装置を用いて実現してもよい。また、係るデータ推定装置は、専用の装置として実現してもよい。
(Hardware configuration example)
An example of a configuration of hardware resources in which the data estimation device according to each embodiment of the present invention described above is realized by using one calculation processing device (information processing device, computer) will be described. However, such a data estimation device may be physically or functionally realized by using at least two calculation processing devices. Further, the data estimation device may be realized as a dedicated device.

図24は、第1の実施形態、または、第2の実施形態に係るデータ推定装置を実現可能な計算処理装置のハードウェア構成例を概略的に示すブロック図である。計算処理装置20は、中央処理演算装置(Central_ProceSSIng_Unit、以降「CPU」と表す)21、メモリ22、ディスク23、不揮発性記録媒体24、通信インターフェース(以降、「通信IF」と表す)27、及び、ディスプレー28を有する。計算処理装置20は、入力装置25、出力装置26に接続可能であってもよい。計算処理装置20は、通信IF27を介して、他の計算処理装置、及び、通信装置と情報を送受信することができる。 FIG. 24 is a block diagram schematically showing a hardware configuration example of a calculation processing device capable of realizing the data estimation device according to the first embodiment or the second embodiment. The calculation processing device 20 includes a central processing unit (Central_ProceSSIng_Unit, hereinafter referred to as “CPU”) 21, a memory 22, a disk 23, a non-volatile recording medium 24, a communication interface (hereinafter referred to as “communication IF”) 27, and It has a display 28. The calculation processing device 20 may be connectable to the input device 25 and the output device 26. The calculation processing device 20 can transmit / receive information to / from other calculation processing devices and the communication device via the communication IF 27.

不揮発性記録媒体24は、コンピュータが読み取り可能な、たとえば、コンパクトディスク(Compact_Disc)、デジタルバーサタイルディスク(Digital_Versatile_Disc)である。また、不揮発性記録媒体24は、ユニバーサルシリアルバスメモリ(USBメモリ)、ソリッドステートドライブ(Solid_State_Drive)等であってもよい。不揮発性記録媒体24は、電源を供給しなくても係るプログラムを保持し、持ち運びを可能にする。不揮発性記録媒体24は、上述した媒体に限定されない。また、不揮発性記録媒体24の代わりに、通信IF27、及び、通信ネットワークを介して、係るプログラムを持ち運びしてもよい。 The non-volatile recording medium 24 is, for example, a computer-readable compact disc (Compact_Disc) or a digital versatile disc (Digital_Versail_Disc). Further, the non-volatile recording medium 24 may be a universal serial bus memory (USB memory), a solid state drive (Solid_State_Drive), or the like. The non-volatile recording medium 24 holds the program and makes it portable without supplying power. The non-volatile recording medium 24 is not limited to the above-mentioned medium. Further, instead of the non-volatile recording medium 24, the program may be carried via the communication IF27 and the communication network.

すなわち、CPU21は、ディスク23に記憶されているソフトウェア・プログラム(コンピュータ・プログラム:以下、単に「プログラム」と称する)を、実行する際にメモリ22にコピーし、演算処理を実行する。CPU21は、プログラム実行に必要なデータをメモリ22から読み取る。表示が必要な場合には、CPU21は、たとえば、図10に例示されたユーザインターフェース等をディスプレー28に出力結果を表示する。外部への出力が必要な場合には、CPU21は、出力装置26に出力結果を出力する。外部からプログラムを入力する場合、CPU21は、入力装置25からプログラムを読み取る。CPU21は、上述した図1、または、図23に示す各部が表す機能(処理)に対応するところのメモリ22にあるデータ推定プログラム(図2乃至図5)を解釈し実行する。CPU21は、上述した本発明の各実施形態において説明した処理を順次実行する。 That is, the CPU 21 copies the software program (computer program: hereinafter, simply referred to as "program") stored in the disk 23 to the memory 22 when executing the software program, and executes the arithmetic processing. The CPU 21 reads the data required for program execution from the memory 22. When display is required, the CPU 21 displays the output result on the display 28, for example, the user interface illustrated in FIG. 10. When output to the outside is required, the CPU 21 outputs the output result to the output device 26. When the program is input from the outside, the CPU 21 reads the program from the input device 25. The CPU 21 interprets and executes a data estimation program (FIGS. 2 to 5) in the memory 22 corresponding to the function (process) represented by each part shown in FIG. 1 or FIG. 23 described above. The CPU 21 sequentially executes the processes described in the above-described embodiments of the present invention.

すなわち、このような場合、本発明は、係るデータ推定プログラムによっても成し得ると捉えることができる。さらに、係るデータ推定プログラムが記録されたコンピュータが読み取り可能な不揮発性の記録媒体によっても、本発明は成し得ると捉えることができる。 That is, in such a case, it can be considered that the present invention can also be achieved by the data estimation program. Further, it can be considered that the present invention can be achieved by using a non-volatile recording medium in which the data estimation program is recorded and which can be read by a computer.

以上、上述した実施形態を模範的な例として本発明を説明した。しかし、本発明は、上述した実施形態には限定されない。すなわち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present invention has been described above using the above-described embodiment as a model example. However, the present invention is not limited to the above-described embodiments. That is, the present invention can apply various aspects that can be understood by those skilled in the art within the scope of the present invention.

100 画像情報記憶部
101 学習画像情報記憶部
102 表示画像情報記憶部
103 未処理画像情報記憶部
200 ラベル入力部
201 制御部
202 ラベル情報記憶部
203 画像ラベル記憶部
310 特徴量作成部
311 特徴量モデル作成部
312 モデル情報記憶部
313 特徴量算出部
314 特徴情報記憶部
320 適合度作成部
321 適合度学習情報作成部
322 適合度学習情報記憶部
323 適合度モデル作成部
324 適合度モデル情報記憶部
325 適合度算出部
326 適合度情報記憶部
410 フレーム情報作成部
411 フレーム作成部
412 フレーム情報記憶部
420 適合度特徴量作成部
421 特徴量作成部
422 適合度判定情報記憶部
500 ラベル選択部
501 ラベル判定部
502 予測ラベル情報記憶部
600 データ推定装置
2010 ユーザインターフェース
2011 領域
2012 領域
2013 領域
2014 領域
2015 領域
2016 矩形
71 入力層
72 中間層
73 出力層
74 ノード
75 エッジ
76 ノード
801 データ推定装置
802 第1演算部
803 第2演算部
804 第3演算部
805 モデル記憶部
20 計算処理装置
21 CPU
22 メモリ
23 ディスク
24 不揮発性記録媒体
25 入力装置
26 出力装置
27 通信IF
28 ディスプレー
100 Image information storage unit 101 Learning image information storage unit 102 Display image information storage unit 103 Unprocessed image information storage unit 200 Label input unit 201 Control unit 202 Label information storage unit 203 Image label storage unit 310 Feature quantity creation unit 311 Feature quantity model Creation unit 312 Model information storage unit 313 Feature amount calculation unit 314 Feature information storage unit 320 Conformity level creation unit 321 Conformity learning information creation unit 322 Conformity learning information storage unit 323 Conformity model creation unit 324 Conformity model information storage unit 325 Conformity calculation unit 326 Conformity information storage unit 410 Frame information creation unit 411 Frame creation unit 412 Frame information storage unit 420 Conformity feature amount creation unit 421 Feature amount creation unit 422 Conformity judgment information storage unit 500 Label selection unit 501 Label judgment Part 502 Prediction Label Information Storage 600 Data Estimator 2010 User Interface 2011 Area 2012 Area 2013 Area 2014 Area 2015 Area 2016 Rectangular 71 Input Layer 72 Intermediate Layer 73 Output Layer 74 Nodes 75 Edge 76 Nodes 801 Data Estimator 802 1st Calculation Unit 803 Second calculation unit 804 Third calculation unit 805 Model storage unit 20 Calculation processing device 21 CPU
22 Memory 23 Disk 24 Non-volatile recording medium 25 Input device 26 Output device 27 Communication IF
28 display

Claims (10)

第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出する第1演算手段と、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算手段と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに、成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算手段と
を備え
前記所定の第1処理手順、及び、前記所定の第2処理手順は、Convolutional Neural Networkであり、
前記所定の第3処理手順は、Supervised Semantic Indexingである
データ推定装置。
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. A first calculation means for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation means for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not both of the second search conditions are satisfied, whether the first search condition and the second search condition are satisfied with respect to the certain data. Equipped with a third calculation means for estimating whether or not
The predetermined first processing procedure and the predetermined second processing procedure are Convolutional Neural Networks.
The predetermined third processing procedure is a data estimation device that is Supervised Semantic Indexing .
前記第1演算結果及び前記第2演算結果と、前記第1検索条件及び前記第2検索条件が成り立っているか否かを表す第3ラベルとの間の関係性を推定可能な前記第3モデルを作成する適合度モデル算出手段
をさらに備える請求項1に記載のデータ推定装置。
The third model capable of estimating the relationship between the first calculation result and the second calculation result and the third label indicating whether or not the first search condition and the second search condition are satisfied. The data estimation device according to claim 1, further comprising a goodness-of-fit model calculating means to be created.
前記第1対象データと、前記第1検索条件が成り立つか否かを表す第1ラベルとの間の関係性を推定可能な前記第1モデルを作成する第1特徴量作成手段
をさらに備える請求項2に記載のデータ推定装置。
A claim further comprising a first feature quantity creating means for creating the first model capable of estimating the relationship between the first target data and the first label indicating whether or not the first search condition is satisfied. 2. The data estimation device according to 2.
前記第2対象データと、前記第2検索条件が成り立つか否かを表す第2ラベルとの間の関係性を推定可能な前記第2モデルを作成する第2特徴量作成手段
をさらに備える請求項3に記載のデータ推定装置。
A claim further comprising a second feature quantity creating means for creating the second model capable of estimating the relationship between the second target data and the second label indicating whether or not the second search condition is satisfied. The data estimation device according to 3.
前記第1ラベル、前記第2ラベル、及び、前記第3ラベルを入力するラベル入力手段
をさらに備え、
前記第1特徴量作成手段は、入力された前記第1ラベルに関して、前記第1モデルを作成し、
前記第2特徴量作成手段は、入力された前記第2ラベルに関して、前記第2モデルを作成し、
前記適合度モデル算出手段は、前記第3対象データに対して前記第1特徴量作成手段が作成した前記第1モデルに関して算出された前記第1演算結果、及び、前記第3対象データに対して前記第2特徴量作成手段が作成した前記第2モデルに関して算出された前記第2演算結果と、前記第3ラベルと間の関係性を表す前記第3モデルを作成する
請求項4に記載のデータ推定装置。
A label input means for inputting the first label, the second label, and the third label is further provided.
The first feature quantity creating means creates the first model with respect to the input first label.
The second feature quantity creating means creates the second model with respect to the input second label.
The goodness-of-fit model calculating means refers to the first calculation result calculated for the first model created by the first feature quantity creating means for the third target data and the third target data. The data according to claim 4, wherein the third model representing the relationship between the second calculation result calculated for the second model created by the second feature amount creating means and the third label is created. Estimator.
前記第1対象データ、前記第2対象データ、及び、前記第3対象データは、いずれも、画像データであり、
前記ラベル入力手段は、前記第1ラベル、前記第2ラベル、または、前記第3ラベルが入力可能な領域を含むユーザインターフェースを含む
請求項5に記載のデータ推定装置。
The first target data, the second target data, and the third target data are all image data.
The data estimation device according to claim 5, wherein the label input means includes a user interface including the first label, the second label, or an area in which the third label can be input.
動画データに含まれているフレームを表す前記画像データを作成するフレーム作成手段
をさらに備え、
前記ユーザインターフェースは、
前記動画データを表示可能な表示領域と、
前記第1ラベル、前記第2ラベル、または、前記第3ラベルが入力される入力領域と
を含み、
前記ラベル入力手段は、前記表示領域に前記動画データを表示し、前記動画データのうち、前記入力領域に入力されたときに前記表示領域に表示されている前記画像データに対して、入力された前記入力領域に応じたラベル情報を入力する
請求項6に記載のデータ推定装置。
Further provided with a frame creation means for creating the image data representing the frame included in the moving image data,
The user interface is
A display area capable of displaying the moving image data and
Includes the first label, the second label, or an input area into which the third label is input.
The label input means displays the moving image data in the display area, and is input to the image data displayed in the display area when the moving image data is input to the input area. The data estimation device according to claim 6, wherein label information corresponding to the input area is input.
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出し、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出し、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定し、
前記所定の第1処理手順、及び、前記所定の第2処理手順は、Convolutional Neural Networkであり、
前記所定の第3処理手順は、Supervised Semantic Indexingである
データ推定方法。
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. Calculate the first calculation result calculated by the predetermined first processing procedure,
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, the second calculation result calculated by the predetermined second processing procedure is calculated.
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. Estimate and
The predetermined first processing procedure and the predetermined second processing procedure are Convolutional Neural Networks.
The predetermined third processing procedure is a data estimation method, which is Supervised Semantic Indexing .
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出する第1演算機能と、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算機能と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算機能と
をコンピュータに実現させ
前記所定の第1処理手順、及び、前記所定の第2処理手順は、Convolutional Neural Networkであり、
前記所定の第3処理手順は、Supervised Semantic Indexingである
データ推定プログラム。
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. The first calculation function for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation function for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. The third calculation function to estimate the data is realized in the computer ,
The predetermined first processing procedure and the predetermined second processing procedure are Convolutional Neural Networks.
The predetermined third processing procedure is a data estimation program that is Supervised Semantic Indexing .
前記第1演算結果及び前記第2演算結果と、前記第1検索条件及び前記第2検索条件が成り立っているか否かを表す第3ラベルとの間の関係性を推定可能な前記第3モデルを作成する適合度モデル算出機能
をさらに備える請求項9に記載のデータ推定プログラム。
The third model capable of estimating the relationship between the first calculation result and the second calculation result and the third label indicating whether or not the first search condition and the second search condition are satisfied. The data estimation program according to claim 9, further comprising a goodness-of-fit model calculation function to be created.
JP2016049912A 2016-03-14 2016-03-14 Data estimation device, data estimation method, and data estimation program Active JP6784039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016049912A JP6784039B2 (en) 2016-03-14 2016-03-14 Data estimation device, data estimation method, and data estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016049912A JP6784039B2 (en) 2016-03-14 2016-03-14 Data estimation device, data estimation method, and data estimation program

Publications (2)

Publication Number Publication Date
JP2017167649A JP2017167649A (en) 2017-09-21
JP6784039B2 true JP6784039B2 (en) 2020-11-11

Family

ID=59913393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016049912A Active JP6784039B2 (en) 2016-03-14 2016-03-14 Data estimation device, data estimation method, and data estimation program

Country Status (1)

Country Link
JP (1) JP6784039B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4993678B2 (en) * 2006-10-04 2012-08-08 一般財団法人電力中央研究所 Interactive moving image monitoring method, interactive moving image monitoring apparatus, and interactive moving image monitoring program
JP2015225413A (en) * 2014-05-26 2015-12-14 日本電信電話株式会社 Profile estimation model learning method, profile estimation method, device and program
JP6231944B2 (en) * 2014-06-04 2017-11-15 日本電信電話株式会社 Learning model creation device, determination system, and learning model creation method

Also Published As

Publication number Publication date
JP2017167649A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
US10438077B2 (en) Face liveness detection method, terminal, server and storage medium
US11551134B2 (en) Information processing apparatus, information processing method, and storage medium
JP2018533805A (en) Face position tracking method, device and electronic device
US20180005106A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP2019003299A (en) Image recognition device and image recognition method
CN111666922A (en) Video matching method and device, computer equipment and storage medium
CN110956646B (en) Target tracking method, device, equipment and storage medium
US20200019820A1 (en) Learning device, learning method, and learning program
CN112200131A (en) Vision-based vehicle collision detection method, intelligent terminal and storage medium
JP2011133984A (en) Motion feature extraction device and motion feature extraction method
EP3706068A1 (en) Land use determination system, land use determination method and program
JP4496992B2 (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
JPWO2017154655A1 (en) Crowd type identification system, crowd type identification method, and crowd type identification program
CN112329762A (en) Image processing method, model training method, device, computer device and medium
WO2020039559A1 (en) Information processing device, information processing method, and work evaluation system
CN109086725A (en) Hand tracking and machine readable storage medium
JP2020170252A (en) Image processing device, image processing method, and program
US20220300774A1 (en) Methods, apparatuses, devices and storage media for detecting correlated objects involved in image
JP6713422B2 (en) Learning device, event detection device, learning method, event detection method, program
JP6784039B2 (en) Data estimation device, data estimation method, and data estimation program
JP7428769B2 (en) Human-robot collaboration for flexible and adaptive robot learning
US11373313B2 (en) Image processing apparatus and image processing method
JP4997179B2 (en) Image processing apparatus, method, and program
CN114550062A (en) Method and device for determining moving object in image, electronic equipment and storage medium
CN110662106B (en) Video playback method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200923

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201006

R150 Certificate of patent or registration of utility model

Ref document number: 6784039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150