JP6784039B2 - Data estimation device, data estimation method, and data estimation program - Google Patents
Data estimation device, data estimation method, and data estimation program Download PDFInfo
- Publication number
- JP6784039B2 JP6784039B2 JP2016049912A JP2016049912A JP6784039B2 JP 6784039 B2 JP6784039 B2 JP 6784039B2 JP 2016049912 A JP2016049912 A JP 2016049912A JP 2016049912 A JP2016049912 A JP 2016049912A JP 6784039 B2 JP6784039 B2 JP 6784039B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- label
- search condition
- data
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、データに関する情報を推定するデータ推定装置等に関する。 The present invention relates to a data estimation device or the like that estimates information about data.
ディープラーニング法は、実用的な精度を実現した機械学習の一例であり、様々な分野にて活用(または、検討、実施)されている。機械学習のうち、教師あり学習法は、説明変数の値と、目的変数の値(ラベル)とが関連付けされた教師データに関して、説明変数の値と目的変数の値との関係を表す学習モデルを作成する。教師データは、たとえば、蓄積された情報、または、収集された情報等に基づき、ユーザによって作成される。 The deep learning method is an example of machine learning that achieves practical accuracy, and is utilized (or examined and implemented) in various fields. Among machine learning, the supervised learning method provides a learning model that expresses the relationship between the value of the explanatory variable and the value of the objective variable with respect to the teacher data in which the value of the explanatory variable and the value (label) of the objective variable are associated with each other. create. The teacher data is created by the user based on, for example, the accumulated information or the collected information.
機械学習は、たとえば、画像データや、テキストデータ等のデータに関して、学習モデルを作成することができ、あるエリアにおける人物や、ある物体を検知する場合に用いられる。画像データは、たとえば、あるエリアを撮像する監視カメラによって作成される。一般に、あるエリアが複数の監視カメラによって常に撮像されるので、作成される画像データは、膨大な量が蓄積されている。 Machine learning can create a learning model for data such as image data and text data, and is used when detecting a person or an object in a certain area. Image data is created, for example, by a surveillance camera that captures an area. In general, since a certain area is constantly imaged by a plurality of surveillance cameras, a huge amount of image data to be created is accumulated.
たとえば、機械学習の一例は、特許文献1、及び、特許文献2に開示されている。
For example, an example of machine learning is disclosed in
特許文献1に開示された分類モデル学習装置は、予測対象である予測データと、各教師データとの距離を算出し、各予測データに関して、算出された距離が所定の範囲内にある教師データを特定する。次に、該分類モデル学習装置は、特定した教師データに関する目的変数の値(ラベル)に基づき、該予測データに関するラベルを予測する。
The classification model learning device disclosed in
特許文献2に開示された因果関係モデル生成装置は、観測対象に関して注目する事象と、該事象を生じた原因である原因事象との因果関係を表す因果関係モデルを作成する。該因果関係モデル生成装置においては、観測対象を構成している構成要素のうち、原因事象(または、注目する事象)に関連している構成要素と、他との包含関係が階層的に表現された属性を持つデータとして表現されている。該因果関係モデル生成装置は、該データに基づき、観測対象に関して注目する事象と、該原因事象との間の因果関係を表す因果関係モデルを作成する。
The causal relationship model generator disclosed in
しかし、特許文献1、または、特許文献2に開示されたいずれの装置を用いたとしても、対象データに関して識別する条件を表す対象検索条件が厳しい条件である場合には、高精度に対象データを判定することができるとは限らない。この理由は、対象検索条件が厳しい条件である場合に、一般に、対象検索条件が成り立つか否かを高精度に推定するモデルを作成することが難しいからである。
However, regardless of whether the apparatus disclosed in
そこで、本発明の主たる目的は、対象検索条件が厳しい条件であっても、対象データを正しく判定することができるデータ推定装置等を提供することである。 Therefore, a main object of the present invention is to provide a data estimation device or the like capable of correctly determining target data even if the target search conditions are strict.
前述の目的を達成するために、本発明の一態様において、データ推定装置は、
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出する第1演算手段と、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算手段と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに、成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算手段と
を備える。
In order to achieve the above object, in one aspect of the invention, the data estimation device
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. A first calculation means for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation means for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not both of the second search conditions are satisfied, whether the first search condition and the second search condition are satisfied with respect to the certain data. It is provided with a third calculation means for estimating whether or not it is.
また、本発明の他の見地として、データ推定方法は、
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出し、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出し、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する。
In addition, as another viewpoint of the present invention, the data estimation method is
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. Calculate the first calculation result calculated by the predetermined first processing procedure,
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, the second calculation result calculated by the predetermined second processing procedure is calculated.
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. Estimate.
また、本発明の他の見地として、データ推定プログラムは、
第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立っているか否かを推定可能な第1モデルに従い、あるデータに対して前記第1モデルを適用することによって、前記所定の第1処理手順にて算出される第1演算結果を算出する第1演算機能と、
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算機能と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算機能と
をコンピュータに実現させる。
Also, from another point of view of the present invention, the data estimation program
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. The first calculation function for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation function for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. The computer is provided with a third calculation function for estimating the data.
さらに、同目的は、係るプログラムを記録するコンピュータが読み取り可能な記録媒体によっても実現される。 Further, the same purpose is realized by a computer-readable recording medium for recording the program.
本発明に係るデータ推定装置等によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。 According to the data estimation device or the like according to the present invention, the target data can be correctly determined even if the target search condition is strict.
次に、本発明を実施する実施形態について図面を参照しながら詳細に説明する。 Next, an embodiment of the present invention will be described in detail with reference to the drawings.
<第1の実施形態>
図1を参照しながら、本発明の第1の実施形態に係るデータ推定装置600が有する構成について詳細に説明する。図1は、本発明の第1の実施形態に係るデータ推定装置600が有する構成を示すブロック図である。
<First Embodiment>
The configuration of the
本発明の第1の実施形態に係るデータ推定装置600は、大別して、画像情報記憶部100と、ラベル入力部200と、特徴量作成部310と、適合度作成部320と、フレーム情報作成部410と、適合度特徴量作成部420と、ラベル選択部500とを有する。
The
画像情報記憶部100は、学習画像情報記憶部101と、表示画像情報記憶部102と、未処理画像情報記憶部103とを有する。ラベル入力部200は、制御部201と、ラベル情報記憶部202と、画像ラベル記憶部203とを有する。特徴量作成部310は、特徴量モデル作成部311と、モデル情報記憶部312と、特徴量算出部313と、特徴情報記憶部314とを有する。適合度作成部320は、適合度学習情報作成部321と、適合度学習情報記憶部322と、適合度モデル作成部323と、適合度モデル情報記憶部324と、適合度算出部325と、適合度情報記憶部326とを有する。フレーム情報作成部410は、フレーム作成部411と、フレーム情報記憶部412とを有する。適合度特徴量作成部420は、特徴量作成部421と、適合度判定情報記憶部422とを有する。ラベル選択部500は、ラベル判定部501と、予測ラベル情報記憶部502とを有する。
The image
次に、図7乃至図9を参照しながら、第1の実施形態に係るデータ推定装置600に入力される情報の例について説明する。図7は、学習画像情報記憶部101に格納されている学習画像情報を概念的に表す図である。図8は、表示画像情報記憶部102に格納されている表示画像情報を概念的に表す図である。図9は、未処理画像情報記憶部103に格納されている未処理画像情報を概念的に表す図である。
Next, an example of information input to the
図7に例示された学習画像情報を参照すると、学習画像情報は、動画データを識別可能な動画データ識別子(以降、識別子を「ID」と表す)と、動画データに関して推定(予測、判定)する内容を表す属性とが関連付けされている。学習画像情報は、動画データIDに、さらに、該動画データIDが表す動画データが関連付けされていてもよい。 With reference to the training image information illustrated in FIG. 7, the training image information is estimated (predicted, determined) with respect to the moving image data identifier (hereinafter, the identifier is referred to as “ID”) capable of identifying the moving image data and the moving image data. It is associated with an attribute that represents the content. As the learning image information, the moving image data ID may be further associated with the moving image data represented by the moving image data ID.
たとえば、図7に例示された学習画像情報においては、動画データID「V1002」と、属性「帽子をかぶった人がいるか否かが判定される」とが関連付けされている。これは、動画データID「V1002」が表す動画データに対して、図10を参照しながら後述するように、検索条件「帽子をかぶった人がいるか」が成り立つか否かを表すラベルが入力される場合に制御部201が表示する動画データであることを表す。
For example, in the learning image information illustrated in FIG. 7, the moving image data ID “V1002” and the attribute “determines whether or not there is a person wearing a hat” are associated with each other. For the video data represented by the video data ID "V1002", a label indicating whether or not the search condition "whether there is a person wearing a hat" is satisfied is input as described later with reference to FIG. In this case, it indicates that the moving image data is displayed by the
学習画像情報記憶部101には、検索対象に対して成り立つ検索条件(以降、「対象検索条件」と表す)に関してフレーム(画像データ)が検索される場合に、該対象検索条件が緩和された検索条件に関するラベルを推定可能なモデルを作成する基となる動画データが格納されている。学習画像情報に、「帽子をかぶった人がいるか否か」を表すラベルが付与されることによって、たとえば、図14、または、図15を参照しながら説明するような算出値を算出する基となるデータが算出される。
When a frame (image data) is searched for a search condition (hereinafter, referred to as "target search condition") that holds for the search target in the learning image
尚、学習画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。また、学習画像情報は、図11に例示されたラベル情報におけるラベルIDを含んでいてもよく、この場合には、ラベル情報記憶部202に格納されているラベルIDに関するラベルが入力される。以降、説明の便宜上、学習画像情報には、動画データが含まれているとする。また、検索条件が成り立っているかが判定される対象は、動画データはではなく、動画データに含まれているフレーム(画像データ)であるとする。
The learning image information may be further associated with different items, and is not limited to the above-mentioned example. Further, the learning image information may include the label ID in the label information illustrated in FIG. 11, and in this case, the label related to the label ID stored in the label
図8に例示された表示画像情報を参照すると、表示画像情報は、動画データを識別可能な動画データIDと、対象検索条件が成り立つか否かを表すラベルが付与される予定であるものの、まだ付与されていないことを表す属性とが関連付けされている。さらに、表示画像情報は、動画データIDに、該動画データIDが表す動画データが関連付けされていてもよい。 With reference to the display image information illustrated in FIG. 8, the display image information will be given a video data ID that can identify the video data and a label indicating whether or not the target search condition is satisfied, but still It is associated with an attribute that indicates that it has not been granted. Further, as the display image information, the moving image data ID may be associated with the moving image data represented by the moving image data ID.
たとえば、図8に例示された表示画像情報においては、動画データID「V3002」と、属性「対象検索条件が成り立つか否かが判定される」とが関連付けされている。これは、動画データID「V3002」が表す動画データに対して、図10を参照しながら後述するように、対象検索条件が成り立つか否かを表すラベルが入力される場合に、動画データID「V3002」に関する画像情報が、制御部201が表示する画像データを含んでいることを表す。
For example, in the display image information illustrated in FIG. 8, the moving image data ID “V3002” and the attribute “determine whether or not the target search condition is satisfied” are associated with each other. This is because the video data ID "V3002" is represented by the video data ID "V3002" when a label indicating whether or not the target search condition is satisfied is input as described later with reference to FIG. Indicates that the image information related to "V3002" includes the image data displayed by the
尚、表示画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。また、表示画像情報は、図11に例示されたラベル情報におけるラベルIDを含んでいてもよく、この場合には、ラベル情報記憶部202に格納されているラベルIDに関するラベルが入力される。以降、説明の便宜上、表示画像情報には、動画データが含まれているとする。
The displayed image information may be further associated with different items, and is not limited to the above-mentioned example. Further, the display image information may include the label ID in the label information illustrated in FIG. 11, and in this case, the label related to the label ID stored in the label
図9に例示された未処理画像情報を参照すると、未処理画像情報は、画像データを識別可能な動画データIDと、ラベルが付与されていないことを表す属性とが関連付けされている。さらに、表示画像情報は、動画データIDに、該動画データIDが表す動画データが関連付けされていてもよい。 With reference to the unprocessed image information illustrated in FIG. 9, the unprocessed image information is associated with a moving image data ID that can identify the image data and an attribute indicating that no label is attached. Further, as the display image information, the moving image data ID may be associated with the moving image data represented by the moving image data ID.
たとえば、図9に例示された未処理画像情報においては、動画データID「V4002」と、属性「ラベル付けされていない画像データ」とが関連付けされている。これは、動画データID「V4002」が表す動画データに対して、図5を参照しながら後述するように、ラベルが推定(予測)されていない状態を表す。 For example, in the unprocessed image information illustrated in FIG. 9, the moving image data ID “V4002” and the attribute “unlabeled image data” are associated with each other. This represents a state in which the label is not estimated (predicted) with respect to the moving image data represented by the moving image data ID “V4002”, as will be described later with reference to FIG.
尚、未処理画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。未処理画像情報は、さらに、異なる項目に関連付けされていてもよく、上述した例に限定されない。また、未処理画像情報は、図11に示されたラベル情報におけるラベルIDを含んでいてもよく、この場合には、ラベル情報記憶部202に格納されているラベルIDに関するラベルが入力される。以降、説明の便宜上、未処理画像情報には、動画データが含まれているとする。
The unprocessed image information may be further associated with different items, and is not limited to the above-mentioned example. The unprocessed image information may be further associated with different items and is not limited to the examples described above. Further, the unprocessed image information may include the label ID in the label information shown in FIG. 11, and in this case, the label related to the label ID stored in the label
次に、図6を参照しながら、対象検索条件について説明する。図6は、対象検索条件が成り立つデータに関する包含関係を概念的に表す図である。 Next, the target search condition will be described with reference to FIG. FIG. 6 is a diagram conceptually showing the inclusion relationship regarding the data for which the target search condition is satisfied.
たとえば、対象検索条件が「サングラスをかけ、さらに、赤い服を着た人がいるか」であるとする。この場合に、次に示す、検索条件A乃至検索条件Cは、対象検索条件を緩和することによって算出される検索条件である。すなわち、
○検索条件A:人がいるか、
○検索条件B:赤い服を着た人がいるか、
○検索条件C:サングラスをかけた人がいるか。
For example, suppose that the target search condition is "Are there people wearing sunglasses and red clothes?" In this case, the search conditions A to C shown below are search conditions calculated by relaxing the target search conditions. That is,
○ Search condition A: Is there a person?
○ Search condition B: Is there anyone wearing red clothes?
○ Search condition C: Is there anyone wearing sunglasses?
図6を参照すると、対象検索条件が成り立つデータは、検索条件Bが成り立つデータと、検索条件Cが成り立つデータとの積集合である。また、検索条件Aが成り立つデータは、検索条件Bが成り立つデータ、及び、検索条件Cが成り立つデータを含んでいる。したがって、
○検索条件Bが成り立つデータ、検索条件Cが成り立つデータ、及び、対象検索条件が成り立つデータは、検索条件Aが成り立つデータのサブセットである、
○対象検索条件が成り立つデータは、検索条件Bが成り立つデータ、及び、検索条件Cが成り立つデータ、それぞれのサブセットである、
○検索条件Bが成り立つデータと、検索条件Cが成り立つデータとの間に、包含関係は無い。
Referring to FIG. 6, the data for which the target search condition is satisfied is an intersection of the data for which the search condition B is satisfied and the data for which the search condition C is satisfied. Further, the data for which the search condition A is satisfied includes data for which the search condition B is satisfied and data for which the search condition C is satisfied. Therefore,
○ The data for which the search condition B is satisfied, the data for which the search condition C is satisfied, and the data for which the target search condition is satisfied are a subset of the data for which the search condition A is satisfied.
○ The data for which the target search condition is satisfied is a subset of the data for which the search condition B is satisfied and the data for which the search condition C is satisfied.
○ There is no inclusion relationship between the data for which the search condition B is satisfied and the data for which the search condition C is satisfied.
以降、対象検索条件が緩和された検索条件を「第1検索条件」(たとえば、上述した検索条件B)、及び、「第2検索条件」(たとえば、検索条件C)と表す。尚、対象検索条件が緩和された検索条件は、必ずしも2つである必要はなく、さらに、多くの検索条件であってもよい。対象検索条件が「帽子をかぶり、ジャンパーを着た人がいるか」である場合に、第1検索条件は、たとえば、「帽子をかぶった人がいるか」であり、第2検索条件は、たとえば、「ジャンパーを着た人がいるか」である。この場合に、対象検索条件は、第1検索条件と、第2検索条件とに論理積演算が適用された条件である。 Hereinafter, the search conditions in which the target search conditions are relaxed are referred to as "first search condition" (for example, the above-mentioned search condition B) and "second search condition" (for example, search condition C). The search conditions for which the target search conditions are relaxed do not necessarily have to be two, and may be many search conditions. When the target search condition is "is there a person wearing a hat and a jumper?", The first search condition is, for example, "is there a person wearing a hat?", And the second search condition is, for example, "Is there anyone wearing a jumper?" In this case, the target search condition is a condition to which the logical product operation is applied to the first search condition and the second search condition.
次に、図2を参照しながら、第1の実施形態に係るデータ推定装置600における処理の流れの概略について説明する。図2は、第1の実施形態に係るデータ推定装置600における処理の流れの概略を示すフローチャートである。
Next, with reference to FIG. 2, the outline of the processing flow in the
第1の実施形態に係るデータ推定装置600における処理は、大別して、ステップS101乃至ステップS105に示された処理が実行される。
The process in the
○ステップS101:第1検索条件が成り立つか否かを表すラベル、及び、第2検索条件が成り立つか否かを表すラベルを入力する、
○ステップS102:第1検索条件に関するラベルと、フレームとの関係性を表すモデル(説明の便宜上、「第1モデル」と表す)、及び、第2検索条件に関するラベルと、フレームとの関係性を表すモデル(説明の便宜上、「第2モデル」と表す)を作成する、
○ステップS103:対象検索条件が成り立つか否かを表すラベルを入力する、
○ステップS104:対象検索条件に関するラベルと、第1モデルに従い算出される算出値(図14を参照しながら後述する)、及び、第2モデルに従い算出される算出値(図15を参照しながら後述する)の関係性を表すモデル(説明の便宜上、「適合度モデル」と表す)を作成する、
○ステップS105:作成した適合度モデルに基づき、未処理画像情報に含まれている画像データに関してラベルを推定(予測、判定)する。
○ Step S101: Input a label indicating whether or not the first search condition is satisfied and a label indicating whether or not the second search condition is satisfied.
-Step S102: The relationship between the label related to the first search condition and the frame (referred to as "first model" for convenience of explanation) and the label related to the second search condition and the frame. Create a model to represent (referred to as "second model" for convenience of explanation),
○ Step S103: Enter a label indicating whether or not the target search condition is satisfied.
○ Step S104: A label relating to the target search condition, a calculated value calculated according to the first model (described later with reference to FIG. 14), and a calculated value calculated according to the second model (described later with reference to FIG. 15). Create a model (referred to as "goodness-of-fit model" for convenience of explanation) that represents the relationship between
-Step S105: Based on the created goodness-of-fit model, the label is estimated (predicted, determined) with respect to the image data included in the unprocessed image information.
以降、ステップS101乃至ステップS105に示された各処理について、図3乃至図5を参照しながら詳細に説明する。 Hereinafter, each process shown in steps S101 to S105 will be described in detail with reference to FIGS. 3 to 5.
まず、図10を参照しながら、制御部201によって入出力される場合に介するユーザインターフェース2010について説明し、次に、図11を参照しながら制御部201が入力するラベル情報について説明する。その後、図3乃至図5を参照しながら、ステップS101乃至ステップS105における処理について説明する。図10は、ユーザインターフェース2010が有する構成の一例を概念的に表す図である。
First, the
ユーザインターフェース2010は、動画データを表示可能な領域2011と、表示している動画データを操作可能な領域2012と、動画データに含まれている画像データに対して割り当てられたラベルを表す領域2013と、表示している動画データを操作可能な領域2014とを含む。さらに、ユーザインターフェース2010は、動画データに含まれている画像データに対して、各ラベルを入力することが可能な領域2015を含んでいる。
The
矩形2016は、動画データに含まれているすべてのフレーム(画像データ)のうち、領域2011に示されているフレームに関する位置を表している。領域2011に表示される動画データは、矩形2016を横方向にスライドされるのに応じて変化することとする。領域2013には、すべてのフレームのうち、領域2011に示されている動画データに含まれている画像データに対して、領域2015を介して入力されたラベルが表示されている。領域2012における横方向と、領域2013における横方向とは対応しており、それぞれ、動画データに含まれているすべてのフレーム(画像データ)のうち、領域2011に示されているフレームの位置を表している。たとえば、図10に示された例においては、領域2012に対する矩形2016の位置によって、領域2011には帽子をかぶった人が表示され、さらに、領域2013には、当該フレームに関するラベルが「C01」であることが表示されている。
The
領域2014には、左から順に、動画データを戻す操作、動画データを再生する操作、動画データを停止する操作、及び、動画データを早送りする操作を入力することができる領域が配置されている。
In the
次に、図11を参照しながら制御部201が入力するラベル情報について説明する。図11は、ラベル情報記憶部202に格納されているラベル情報の一例を概念的に表す図である。
Next, the label information input by the
ラベル情報記憶部202には、たとえば、動画データに含まれている画像データに関して、ある検索条件が成り立つか否かを表すラベルと、該ラベルを識別可能なラベルIDとが関連付けされたラベル情報が格納されている。ラベル情報記憶部202には、たとえば、第1検索条件「帽子をかぶった人がいるか」に関して、第1検索条件が成り立つ場合を表すラベル「帽子をかぶった人がいる」と、該ラベルを表すラベルID「C01」とが関連付けされたラベル情報が格納されている。さらに、ラベル情報記憶部202には、たとえば、第1検索条件「帽子をかぶった人がいるか」に関して、第1検索条件が成立しなかった場合を表すラベル「帽子をかぶった人がいない」と、該ラベルを表すラベルID「C02」とが関連付けされたラベル情報が格納されている。
In the label
ラベル情報記憶部202には、さらに、第2検索条件「ジャンパーを着た人がいるか」に関しても、ラベル「ジャンパーを着た人がいる」、及び、ラベル「ジャンパーを着た人がいない」が格納されている。図11に示されたラベル情報において、ラベル「ジャンパーを着た人がいる」は、ラベルID「C03」に関連付けされている。また、ラベル「ジャンパーを着た人がいない」は、ラベルID「C04」に関連付けされている。
In the label
次に、図3を参照しながら、図2に示されたステップS101、及び、ステップS102における処理について説明する。図3は、図2に示されたステップS101、及び、ステップS102における処理の詳細な流れを示すフローチャートである。 Next, the processes in steps S101 and S102 shown in FIG. 2 will be described with reference to FIG. FIG. 3 is a flowchart showing a detailed flow of processing in step S101 and step S102 shown in FIG.
ラベル入力部200において、制御部201は、学習画像情報記憶部101(図7に例示)に格納されている1つの学習画像情報を読み取り、読み取った学習画像情報に含まれている動画データを、図10に例示されているようなユーザインターフェース2010を介して、表示装置(不図示)に表示する(ステップS201)。さらに、制御部201は、ラベル情報(図11に例示)に基づき、読み取った学習画像情報(図7に例示)に関するラベルを特定し、特定したラベルを、たとえば、ユーザインターフェース2010における領域2015に表示する。
In the
制御部201は、たとえば、ユーザインターフェース2010を介して、画像データに関するラベルを入力する(ステップS202)。この場合に、制御部201は、第1検索条件に関するラベルと、第2検索条件に関するラベルとを、それぞれ入力する。
The
制御部201は、該動画データIDと、該動画データIDが表す動画データにおけるフレームを表すフレームIDと、入力されたラベル(すなわち、当該フレームに対して入力されたラベル)とが関連付けされた画像ラベル情報(図12に例示)を作成する(ステップS203)。図12は、画像ラベル記憶部203に格納されている画像ラベル情報の一例を概念的に表す図である。制御部201は、作成した画像ラベル情報を画像ラベル記憶部203に格納する。すなわち、制御部201は、対象検索条件が緩和された第1検索条件に関するラベル(たとえば、ラベル「C01」及びラベル「C02」)と、第2検索条件に関するラベル(たとえば、ラベル「C03」及びラベル「C04」)とを含む画像ラベル情報を作成する。
The
特徴量作成部310において、特徴量モデル作成部311は、画像ラベル記憶部203に格納されている画像ラベル情報(図12に例示)に基づき、第1検索条件に関するラベルと、該ラベルが割り当てられたフレームとの関係性を表すモデルに含まれている重みを算出する(ステップS204)。同様に、特徴量モデル作成部311は、画像ラベル記憶部203に格納されている画像ラベル情報(図12に例示)に基づき、第2検索条件に関するラベルと、該ラベルが割り当てられたフレーム(画像データ)との関係性を表すモデルに含まれている重みを算出する(ステップS205)。
In the feature
ステップS204にて、特徴量モデル作成部311は、所定の手順に従い、フレームが有する特徴を表す特徴量(たとえば、HOG特徴量)を算出し、算出した特徴量と、第1検索条件に関するラベルとの関係性を表すモデルを構成している重みを、CNN法等の機械学習法によって算出する(ステップS204)。尚、HOG特徴量は、Histograms_of_Oriented_Gradientsの略称を表す。CNNは、Convolutional_Neural_Networkの略称を表す。特徴量モデル作成部311は、同様な手法によって、算出した特徴量と、第2検索条件に関するラベルとの関係性を表すモデルに含まれている重みを算出する(ステップS205)。すなわち、特徴量モデル作成部311は、第1検索条件に関するラベルを推定可能な第1モデルと、第2検索条件に関するラベルを推定可能な第2モデルとを作成する。
In step S204, the feature amount
次に、特徴量モデル作成部311は、作成したモデルを表すモデルIDと、該モデルに従い推定されるラベルとが関連付けされたモデル情報を作成し(ステップS206)、作成したモデル情報(図13に例示)をモデル情報記憶部312に格納する。図13は、モデル情報の一例を概念的に表す図である。モデル情報は、さらに、モデルを表す情報、または、モデルに関連付けされていてもよい。
Next, the feature quantity
図13に例示されたモデル情報を参照すると、モデルID「M101」と、モデル「帽子をかぶった人がいる」と、ラベルID「C01、C02」とが関連付けされている。これは、第1検索条件「帽子をかぶった人がいるか」に関するラベル(ラベルID「C01」が表すラベル、及び、ラベルID「C02」が表すラベル)に関して、モデルID「M101」が表すモデルを特徴量モデル作成部311が作成したことを表す。図13に例示されたモデル情報を参照すると、モデルID「M102」と、モデル「ジャンパーを着た人がいる」と、ラベルID「C03、C04」とが関連付けされている。これは、第2検索条件「ジャンパーを着た人がいるか」に関するラベル(ラベルID「C03」が表すラベル、及び、ラベルID「C04」が表すラベル)に関して、モデルID「M102」が表すモデルを特徴量モデル作成部311が作成したことを表す。
With reference to the model information illustrated in FIG. 13, the model ID “M101”, the model “there is a person wearing a hat”, and the label IDs “C01, C02” are associated with each other. This refers to the model represented by the model ID "M101" with respect to the label relating to the first search condition "whether there is a person wearing a hat" (the label represented by the label ID "C01" and the label represented by the label ID "C02"). Indicates that the feature quantity
次に、図16を参照しながら、CNNによって作成されるモデルの一例について説明する。該モデルは、図3に示されたステップS306、及び、図4に示されたステップS404における処理にて作成される特徴量を算出する基となる重みを含んでいる。図16は、CNNが有する構成の一例を概念的に表す図である。CNNは、後述する所定の第1処理手順、及び、所定の第2処理手順の一例である。 Next, an example of the model created by CNN will be described with reference to FIG. The model includes weights that are the basis for calculating the features created by the processes in step S306 shown in FIG. 3 and step S404 shown in FIG. FIG. 16 is a diagram conceptually showing an example of the configuration of CNN. CNN is an example of a predetermined first processing procedure and a predetermined second processing procedure described later.
CNNは、入力層71と、中間層72と、出力層73とを有する。入力層71と、中間層72と、出力層73とは、それぞれ、ある処理を表すノード74を複数含む。入力層71におけるノード74は、たとえば、上述したHOG特徴量等の特徴量を入力する処理を表す。中間層72、及び、出力層73におけるノード76は、入力された値に対して、ある演算を実行する処理を表す。また、エッジ75は、矢印の方向に、重みを掛け算する処理を表す。各エッジに関する重みは、たとえば、畳み込み処理、Pooling処理等の処理が繰り返し実行されることによって、入力層71に入力された特徴量と、ラベルとの関係から求められる。CNNは、さらに多くのノードを含んでいてもよい。すなわち、CNNは、図16に示された例に限定されない。
The CNN has an
所定の第1処理手順、及び、所定の第2処理手順は、必ずしも、1つの手法である必要はなく、上述した例に限定されない。 The predetermined first processing procedure and the predetermined second processing procedure do not necessarily have to be one method, and are not limited to the above-mentioned examples.
次に、図4を参照しながら、図2に示されたステップS103、及び、ステップS104における処理について説明する。図4は、図2に示されたステップS103、及び、ステップS104における処理の詳細な流れを示すフローチャートである。 Next, the processes in steps S103 and S104 shown in FIG. 2 will be described with reference to FIG. FIG. 4 is a flowchart showing a detailed flow of processing in step S103 and step S104 shown in FIG.
制御部201は、表示画像情報記憶部102から、対象検索条件に関するラベルを付与する対象である表示画像情報(図8に例示)を読み取り、読み取った表示画像情報に関する動画データを、たとえば、図10に例示されたユーザインターフェース2010を介して、表示装置(不図示)に表示する(ステップS301)。制御部201は、たとえば、図10に例示されたユーザインターフェース2010を介して入力されたラベル(すなわち、対象検索条件が成り立つか否かを表すラベル)を入力する(ステップS302)。
The
フレーム作成部411は、表示画像情報記憶部102に格納されている表示画像情報(図8に例示)における動画データを読み取り、読み取った動画データに関するフレームを作成する(ステップS303)。フレーム作成部411は、たとえば、動画データIDがV3000番台の動画データに対して、それぞれ、フレーム(画像データ)を作成する。フレーム作成部411は、該動画データIDに関して、フレームを識別可能なフレームIDを算出し、作成したフレームと、算出したフレームIDとが関連付けされたフレーム情報を作成し、作成したフレーム情報をフレーム情報記憶部412に格納する。この場合に、フレーム作成部411は、作成したフレームに対するラベルを、入力されたラベルに基づき選択する。
The
制御部201は、該動画データIDと、該動画データIDが表す動画データにおけるフレームを表すフレームIDと、入力されたラベル(すなわち、当該フレームに対して入力されたラベル)とが関連付けされた画像ラベル情報(図17に例示)を作成し(ステップS304)、作成した画像ラベル情報を画像ラベル記憶部203に格納する。図17は、画像ラベル記憶部203に格納されている画像ラベル情報の一例を概念的に表す図である。
The
特徴量算出部313は、対象検索条件に関連している第1検索条件に関するラベルを推定可能なモデル、及び、該対象検索条件に関連している第2検索条件に関するラベルを推定可能なモデルを、モデル情報記憶部312に格納されているモデル情報(図13に例示)に基づき特定する(ステップS305)。たとえば、第1検索条件に関するラベルを表すラベルIDが、ラベルID「C01」、及び、ラベルID「C02」であるので、特徴量算出部313は、モデル情報記憶部312に格納されているモデル情報(図13に例示)に基づき、該ラベルIDに関連付けされたモデルID「M101」を特定する。同様に、第2検索条件に関するラベルを表すラベルIDが、ラベルID「C03」、及び、ラベルID「C04」であるので、特徴量算出部313は、モデル情報記憶部312に格納されているモデル情報(図13に例示)に基づき、該ラベルIDに関連付けされたモデルID「M102」を特定する。
The feature
次に、特徴量算出部313は、特定したモデルをフレーム情報記憶部412に格納されているフレームに対して適用する。この処理によって、たとえば、図16に例示された中間層72における各ノード74にて、該ノードに対して入力されたデータが重み付けされた値に関する総和が算出される。
Next, the feature
たとえば、特徴量算出部313は、図13に例示されたモデル情報に基づき、第1検索条件に関するラベルを推定可能なモデルを表すモデルID「M101」を特定する。さらに、特徴量算出部313は、図17に例示された画像ラベル情報に基づき、ラベルが入力された動画データID「V3001」が表す動画データに含まれているフレームを表すフレームID「1」を特定する。次に、特徴量算出部313は、フレームID「1」が表すフレームに対して、モデルID「M101」が表すモデルを適用する。これによって、図16に例示された中間層72における各ノード74にて、該ノードに入力されたデータに対する処理が実行され、該処理の結果、算出値が算出される。たとえば、適合度学習情報作成部321は、動画データID「V3001」が表す動画データに含まれているフレームID「1」に、モデルID「M101」が表すモデルを適用する。この処理によって、適合度学習情報作成部321は、たとえば、図16に例示された中間層72におけるノード74にて算出された値を含む算出値「2、10、182、128、・・・」(図14に例示)を算出する。同様に、適合度学習情報作成部321は、動画データID「V3001」が表す動画データに含まれているフレームID「1」に、モデルID「M102」が表すモデルを適用する。この処理によって、適合度学習情報作成部321は、たとえば、図16に例示された中間層72におけるノード74にて算出された値を含む算出値「10、10、175、131、・・・」(図15に例示)を算出する。図14、及び、図15は、特徴情報記憶部314に格納されている特徴情報を概念的に表す図である。適合度学習情報作成部321は、算出した算出値と、該算出値に関するフレームIDと、動画データIDと、モデルIDとが関連付けされた特徴情報を作成し、作成した特徴情報を、特徴情報記憶部314(図14、及び、図15に例示)に格納する。
For example, the feature
適合度学習情報作成部321は、特徴情報記憶部314に格納されている特徴情報のうち、ある動画データIDと、あるフレームIDとに関連付けされた算出値に関して、所定の手順に従い、特徴ベクトルを作成する(ステップS306)。次に、適合度学習情報作成部321は、画像ラベル記憶部203に格納されている画像ラベル情報(図17に例示)にて、該動画データID、及び、該フレームIDに関連付けされたラベルIDを特定する(ステップS307)。適合度学習情報作成部321は、該動画データIDと、該フレームIDと、作成した特徴ベクトルと、特定したラベルIDと、当該ラベルIDを表すラベルが正しいことを表す正解情報(たとえば、「1」)とが関連付けされた適合度学習情報(図18に例示)を作成し(ステップS308)、作成した適合度学習情報を適合度学習情報記憶部322に格納する。同様に、適合度学習情報作成部321は、対象検索条件に関するラベルであって、特定した当該ラベルと異なるラベルを表すラベルIDと、該動画データIDと、該フレームIDと、作成した特徴ベクトルと、当該ラベルIDを表すラベルが正しくないことを表す正解情報(たとえば、「0」)とが関連付けされた適合度学習情報(図18に例示)を作成する(ステップS308)。適合度学習情報作成部321は、作成した適合度学習情報を適合度学習情報記憶部322に格納する。図18は、適合度学習情報記憶部322に格納されている適合度学習情報の一例を概念的に表す図である。
The goodness-of-fit learning
適合度学習情報作成部321は、たとえば、動画データID「V3001」に関する画像情報においてフレームID「1」に関して、特徴情報(図14に例示)に基づき、モデルID「M101」に関連付けされた算出値「2、10、183、128、・・・」を特定する。モデルID「101」が表すモデルは、たとえば、第1検索条件「帽子をかぶった人がいるか」を推定可能なモデルである。同様に、適合度学習情報作成部321は、たとえば、動画データID「V3001」に関する画像情報において、フレームID「1」が表すフレームに関して、特徴情報(図15に例示)に基づき、モデルID「M102」に関連付けされた算出値「10、10、175、131、・・・」を算出する。
The goodness-of-fit learning
また、モデルID「102」が表すモデルは、たとえば、第2検索条件「ジャンパーを着た人がいるか」を推定可能なモデルである。適合度学習情報作成部321は、読み取った2つの算出値を含む特徴ベクトル「2、10、183、128、・・・、10、10、175、131、・・・」を作成する。図18に例示されているように、適合度学習情報作成部321は、作成した特徴ベクトルと、動画データID「V3001」と、フレームID「1」と、ラベルID「C05」とが関連付けされた適合度学習情報を作成する(ステップS308)。
Further, the model represented by the model ID "102" is, for example, a model capable of estimating the second search condition "whether there is a person wearing a jumper". The goodness-of-fit learning
所定の手順に関して、算出値に含まれている値を並べる順序は、所定の順序であればよく、たとえば、モデルID「M101」が表すモデルに関して算出された算出値の次に、モデルID「M102」が表すモデルに関して算出された算出値が並べられた順序であってもよい。または、該順序は、たとえば、モデルID「M102」が表すモデルに関して算出された算出値の次に、モデルID「M101」が表すモデルに関して算出された算出値が並べられていた順序であってもよい。また、所定の手順は、必ずしも、図16に例示された中間層72に含まれているすべてのノード74にて処理された値をすべて含んでいる必要はなく、一部の値であってもよい。すなわち、所定の手順は、上述した例に限定されない。
The order in which the values included in the calculated values are arranged with respect to the predetermined procedure may be any predetermined order. For example, the model ID "M102" is next to the calculated values calculated for the model represented by the model ID "M101". The calculated values calculated for the model represented by "" may be arranged in an order. Alternatively, the order may be, for example, an order in which the calculated values calculated for the model represented by the model ID "M102" are arranged next to the calculated values calculated for the model represented by the model ID "M101". Good. Further, the predetermined procedure does not necessarily include all the values processed by all the
適合度学習情報作成部321は、画像ラベル記憶部203(図17に例示)から、動画データID「V3001」、及び、フレームID「1」に関連付けされたラベルID「C05」を特定する。この場合に、適合度学習情報作成部321は、ラベルID「C05」に関して、正解であることを表す正解情報「1」を作成する。これに対して、適合度学習情報作成部321は、ラベルID「C05」が表すラベルと対を成すラベルID「C06」に関して、正解でないことを表す正解情報「0」を作成する。
The goodness-of-fit learning
適合度学習情報作成部321は、上述した処理を、各画像データに関して実行する。
The goodness-of-fit learning
次に、適合度モデル作成部323は、適合度学習情報記憶部322に格納されている情報に基づき、たとえば、SSI法に従い、特徴ベクトルと対象検索条件に関するラベルとの間の関係性を表すモデルを作成する(ステップS309)。尚、SSIは、Supervised_Semantic_Indexingの略称を表す。SSIは、後述する所定の第3処理手順の一例である。所定の第3処理手順は、必ずしも、SSIである必要はなく、所定の第1処理手順、または、所定の第2処理手順と同様な処理手順であってもよい。
Next, the goodness-of-fit
次に、適合度学習情報作成部321は、作成したモデルを表すモデルIDと、ラベルIDとが関連付けされた適合度モデル情報(図19に例示)を作成し(ステップS310)、作成した適合度モデル情報を適合度モデル情報記憶部324に格納する。適合度モデル情報は、さらに、該ラベル、または、作成したモデルに関連付けされていてもよい。図19は、適合度モデル情報記憶部324に格納されている適合度モデル情報の一例を概念的に表す図である。
Next, the goodness-of-fit learning
たとえば、適合度学習情報作成部321は、対象検索条件に関する第1検索条件「帽子をかぶった人がいるか」と、対象検索条件に関する第2検索条件「ジャンパーを着た人がいるか」とが、ともに成立するラベルを推定可能なモデルを作成する。
For example, the goodness-of-fit learning
次に、図5を参照しながら、図2に示されたステップS104、及び、ステップS105における処理について詳細に説明する。図5は、図2に示されたステップS104、及び、ステップS105における処理の詳細な流れを示すフローチャートである。 Next, with reference to FIG. 5, the processing in step S104 and step S105 shown in FIG. 2 will be described in detail. FIG. 5 is a flowchart showing a detailed flow of processing in step S104 and step S105 shown in FIG.
フレーム作成部411は、未処理画像情報記憶部103に格納されている未処理画像情報(図9に例示)を読み取り、読み取った未処理画像情報に含まれている動画データに関してフレームを作成し(ステップS401)、作成したフレームをフレーム情報記憶部412に格納する。たとえば、フレーム作成部411は、未処理画像情報記憶部103(図9に例示)に格納されている、すべての未処理画像情報に関してフレームを作成し、作成したフレームをフレーム情報記憶部412に格納する。
The
特徴量算出部313は、モデル情報記憶部312(図13に例示)に格納されているモデル情報に基づき、第1検索条件に関するラベルを推定可能なモデル、及び、第2検索条件に関するラベルを推定可能なモデルを特定する(ステップS402)。次に、特徴量算出部313は、フレーム情報記憶部412に格納されているフレームに対して、特定したモデルを、それぞれ、適用する(ステップS403)。この処理によって、図16に例示されているような中間層72にて算出値が算出される。たとえば、算出値「93、72、112、165、・・・」は、モデルID「M101」が表すモデル(すなわち、第1検索条件に関するラベルを推定可能なモデル)に従って算出される。たとえば、算出値「32、43、112、87、・・・」は、モデルID「M102」が表すモデル(すなわち、第2検索条件に関するラベルを推定可能なモデル)に従って算出される。
The feature
特徴量作成部421は、所定の手順に従い処理を実行することによって、該算出値に関する特徴ベクトルを算出し(ステップS404)、算出した特徴ベクトルと、該特徴ベクトルを算出する基であるフレームに関する動画データIDと、フレームIDとが関連付けされた適合度判定情報(図20に例示)を作成する(ステップS405)。図20は、適合度判定情報記憶部422に格納されている適合度判定情報の一例を概念的に表す図である。
The feature
特徴量作成部421は、作成した適合度判定情報を特徴情報記憶部314に格納する。たとえば、特徴量算出部313は、動画データID「V4001」に関する画像情報に含まれているフレーム「1」に関して、特徴ベクトル「(93、72、112、165、・・・、32、43、112、87、・・・)」を算出する。
The feature
適合度算出部325は、適合度判定情報記憶部422に格納されている各特徴ベクトルに対して、対象検索条件に関するラベルを推定可能なモデルを適用することによって、該特徴ベクトルに関して、該ラベルに適合している程度(度合い)を表すラベル適合度を算出する(ステップS406)。適合度算出部325は、算出したラベル適合度と、該ラベル適合度に関する動画データIDと、フレームIDと、モデルIDと、該ラベル適合度に関するラベルIDとが関連付けされた適合度情報(図21に例示)を作成し、作成した適合度情報を適合度情報記憶部326に格納する。図21は、適合度情報記憶部326に格納されている適合度情報の一例を概念的に表す図である。具体的に、適合度算出部325は、入力した特徴ベクトルに対して、モデルID「M201」が表すモデルを適用することによって、ラベルID「C05」が表すラベル、及び、ラベルID「C06」が表すラベルに適合している程度を表すラベル適合度を算出する。ラベル適合度は、たとえば、あるラベルである確率を表し、0から1までのいずれかの値である。
The goodness-of-
ラベル判定部501は、適合度情報記憶部326に格納されている適合度情報(図21に例示)に基づき、あるフレームに関するラベルを選択する(ステップS407)。ラベル判定部501は、選択したラベルと、該あるフレームを表すフレームIDと、該フレームを含む動画データを表す動画データIDとが関連付けされた予想ラベル情報(図22に例示)を作成し(ステップS408)、作成した予想ラベル情報を予測ラベル情報記憶部502に格納する。図22は、予測ラベル情報記憶部502に格納されている予想ラベル情報の一例を概念的に表す図である。
The
たとえば、ラベル判定部501は、あるフレームを表すフレームIDに関して、ラベルID「C05」に関して算出されたラベル適合度と、ラベルID「C06」に関して算出されたラベル適合度とを比較し、大きなラベル適合度であるラベルを、該あるフレームに対して付与する。図21に例示された適合度情報の場合に、動画データID「V4001」、及び、フレームID「1」に関連付けされたデータのうち、ラベルID「C05」に関連付けされたラベル適合度が0.85であり、ラベルID「C06」に関連付けされたラベル適合度が0.15である。したがって、ラベルID「C05」に関するラベル適合度がラベルID「C06」に関するラベル適合度よりも大きな値であるので、ラベル判定部501は、動画データID「V4001」が表す動画データに関するフレームID「1」が表すフレームに対して、ラベルID「C05」が表すラベルを割り当てる。同様に、ラベル判定部501は、適合度情報に含まれている他のフレームに関しても、ラベルを割り当てる処理を実行する。
For example, the
次に、第1の実施形態に係るデータ推定装置600に関する効果について説明する。
Next, the effect of the
第1の実施形態に係るデータ推定装置600によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。
According to the
この理由は、本願発明者が見出した傾向に従い、データ推定装置600が処理を実行するからである。詳細に説明すると、本願発明者は、以下に示す第1観点よりも、第2観点の方が、分類精度が高いことが多いという傾向を見出した。
The reason for this is that the
○第1観点:第1検索条件、及び、第2検索条件(すなわち、対象検索条件)が成り立つか否かを判定するモデルに基づき、ラベルを判定する、
○第2観点:第1検索条件が成り立つか否かを推定可能な第1モデルと、第2検索条件が成り立つか否かを推定可能な第2モデルとを作成する。次に、第1モデルに基づき算出される値と、第2モデルに基づき算出される値とに基づき、第1検索条件、及び、第2検索条件が成り立つか否かを推定可能なモデルを作成する。次に、該作成したモデルに基づきラベルを判定する。
○ First viewpoint: The label is determined based on the model for determining whether or not the first search condition and the second search condition (that is, the target search condition) are satisfied.
○ Second viewpoint: A first model that can estimate whether or not the first search condition is satisfied and a second model that can estimate whether or not the second search condition is satisfied are created. Next, a model capable of estimating whether or not the first search condition and the second search condition are satisfied is created based on the value calculated based on the first model and the value calculated based on the second model. To do. Next, the label is determined based on the created model.
データ推定装置600が、第2観点に従い作成されたモデルに基づき処理を行うので、本実施形態に係るデータ推定装置600によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。
Since the
すなわち、第1の実施形態に係るデータ推定装置600によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。
That is, according to the
第1の実施形態に係るデータ推定装置600によれば、さらに、対象検索条件が厳しい条件であっても、ユーザが、容易に、ラベルを入力することができるという効果を奏する。この理由は、対象検索条件が緩和された条件である第1検索条件、及び、第2検索条件に関するラベルに関して入力し、入力されたラベルに基づき作成されたモデルに従い、対象検索条件に関するラベルを入力するからである。すなわち、ユーザは、比較的、検知しやすい第1検索条件、及び、第2検索条件に関するラベルを入力し、次に、対象検索条件に関するラベルを段階的に入力する。この結果、ユーザがラベル付けする負荷は低減する。
According to the
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described.
図23を参照しながら、本発明の第2の実施形態に係るデータ推定装置801が有する構成について詳細に説明する。図23は、本発明の第2の実施形態に係るデータ推定装置801が有する構成を示すブロック図である。
The configuration of the
第2の実施形態に係るデータ推定装置801は、第1演算部802と、第2演算部803と、第3演算部804とを有する。
The
データ推定装置801は、以下に示すような第1モデル乃至第3モデルが格納されているモデル記憶部805と接続されている。
The
○第1モデル:第1対象データに関して所定の第1処理手順に従い演算することによって第1検索条件が成り立つか否かを推定可能なモデル、
○第2モデル:第2対象データに関して所定の第2処理手順に従い演算することによって第2検索条件が成り立つか否かを推定可能なモデル、
○第3モデル:第3対象データに対して適用された該第1モデルにおいて算出される演算結果と、第3対象データに対して適用された該第2モデルにおいて算出される演算結果とに関して、所定の第3処理手順に従い演算することによって、第3対象データに関して、第1検索条件、及び、第2検索条件が成り立つか否かを推定可能なモデル。
○ First model: A model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure.
○ Second model: A model that can estimate whether or not the second search condition is satisfied by performing calculations on the second target data according to a predetermined second processing procedure.
○ Third model: Regarding the calculation result calculated in the first model applied to the third target data and the calculation result calculated in the second model applied to the third target data. A model capable of estimating whether or not the first search condition and the second search condition are satisfied with respect to the third target data by performing an operation according to a predetermined third processing procedure.
第1の実施形態に示された対象検索条件は、たとえば、第1検索条件と、第2検索条件との論理積である。第3モデルは、たとえば、第1の実施形態に示された対象検索条件に関するラベルを推定可能なモデルを表す。所定の第1処理手順、及び、所定の第2処理手順は、たとえば、図16に例示されたCNNである。所定の第3処理手順は、たとえば、第1の実施形態に示されたSSI法である。 The target search condition shown in the first embodiment is, for example, a logical product of the first search condition and the second search condition. The third model represents, for example, a model in which the label relating to the target search condition shown in the first embodiment can be estimated. The predetermined first processing procedure and the predetermined second processing procedure are, for example, the CNN illustrated in FIG. The predetermined third processing procedure is, for example, the SSI method shown in the first embodiment.
次に、第2の実施形態に係るデータ推定装置801における処理について説明する。
Next, the processing in the
第1演算部802は、モデル記憶部805から第1モデルを読み取り、読み取った第1モデルをあるデータに対して適用する。すなわち、第1演算部802は、あるデータに対して、所定の第1処理手順に従い処理を実行することによって、該処理にて算出される第1演算結果を算出する。
The
第2演算部803は、モデル記憶部805から第2モデルを読み取り、読み取った第2モデルをあるデータに対して適用する。すなわち、第2演算部803は、あるデータに対して、所定の第2処理手順に従い処理を実行することによって、該処理にて算出される第2演算結果を算出する。
The
次に、第3演算部804は、モデル記憶部805から第3モデルを読み取る。第3演算部804は、該あるデータに対して第1演算部802が算出した第1演算結果と、該あるデータに対して第2演算部803が算出した第2演算結果とに関して、読み取った第3モデルを適用する。すなわち、第3演算部804は、該あるデータに関する第1演算結果と、該あるデータに関する第2演算結果とに対して、所定の第3処理手順に従い処理を実行することによって、第1検索条件、及び、第2検索条件が成り立つ程度を算出する。
Next, the
第1演算部802は、図1に示された特徴量作成部310等が有する機能を用いて実現することができる。第2演算部803は、図1に示された特徴量作成部310等が有する機能を用いて実現することができる。第3演算部804は、図1に示された適合度特徴量作成部420、及び、適合度作成部320等が有する機能を用いて実現することができる。すなわち、データ推定装置801は、図1に示されたデータ推定装置600が有する機能を用いて実現することができる。
The
次に、第2の実施形態に係るデータ推定装置801に関する効果について説明する。
Next, the effect of the
第2の実施形態に係るデータ推定装置801によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。
According to the
この理由は、本願発明者が見出した傾向に従い、データ推定装置801が処理を実行するからである。この理由を詳細に説明すると、本願発明者は、前述した第1観点よりも、第2観点の方が、分類精度が高いことが多いという傾向を見出すことができたからである。データ推定装置801が、第2観点に従い作成されたモデルに基づき処理を行うので、そして、本実施形態に係るデータ推定装置801によれば、対象検索条件が厳しい条件であっても、対象データを正しく判定することができる。
The reason for this is that the
(ハードウェア構成例)
上述した本発明の各実施形態におけるデータ推定装置を、1つの計算処理装置(情報処理装置、コンピュータ)を用いて実現するハードウェア資源の構成例について説明する。但し、係るデータ推定装置は、物理的または機能的に少なくとも2つの計算処理装置を用いて実現してもよい。また、係るデータ推定装置は、専用の装置として実現してもよい。
(Hardware configuration example)
An example of a configuration of hardware resources in which the data estimation device according to each embodiment of the present invention described above is realized by using one calculation processing device (information processing device, computer) will be described. However, such a data estimation device may be physically or functionally realized by using at least two calculation processing devices. Further, the data estimation device may be realized as a dedicated device.
図24は、第1の実施形態、または、第2の実施形態に係るデータ推定装置を実現可能な計算処理装置のハードウェア構成例を概略的に示すブロック図である。計算処理装置20は、中央処理演算装置(Central_ProceSSIng_Unit、以降「CPU」と表す)21、メモリ22、ディスク23、不揮発性記録媒体24、通信インターフェース(以降、「通信IF」と表す)27、及び、ディスプレー28を有する。計算処理装置20は、入力装置25、出力装置26に接続可能であってもよい。計算処理装置20は、通信IF27を介して、他の計算処理装置、及び、通信装置と情報を送受信することができる。
FIG. 24 is a block diagram schematically showing a hardware configuration example of a calculation processing device capable of realizing the data estimation device according to the first embodiment or the second embodiment. The
不揮発性記録媒体24は、コンピュータが読み取り可能な、たとえば、コンパクトディスク(Compact_Disc)、デジタルバーサタイルディスク(Digital_Versatile_Disc)である。また、不揮発性記録媒体24は、ユニバーサルシリアルバスメモリ(USBメモリ)、ソリッドステートドライブ(Solid_State_Drive)等であってもよい。不揮発性記録媒体24は、電源を供給しなくても係るプログラムを保持し、持ち運びを可能にする。不揮発性記録媒体24は、上述した媒体に限定されない。また、不揮発性記録媒体24の代わりに、通信IF27、及び、通信ネットワークを介して、係るプログラムを持ち運びしてもよい。
The
すなわち、CPU21は、ディスク23に記憶されているソフトウェア・プログラム(コンピュータ・プログラム:以下、単に「プログラム」と称する)を、実行する際にメモリ22にコピーし、演算処理を実行する。CPU21は、プログラム実行に必要なデータをメモリ22から読み取る。表示が必要な場合には、CPU21は、たとえば、図10に例示されたユーザインターフェース等をディスプレー28に出力結果を表示する。外部への出力が必要な場合には、CPU21は、出力装置26に出力結果を出力する。外部からプログラムを入力する場合、CPU21は、入力装置25からプログラムを読み取る。CPU21は、上述した図1、または、図23に示す各部が表す機能(処理)に対応するところのメモリ22にあるデータ推定プログラム(図2乃至図5)を解釈し実行する。CPU21は、上述した本発明の各実施形態において説明した処理を順次実行する。
That is, the
すなわち、このような場合、本発明は、係るデータ推定プログラムによっても成し得ると捉えることができる。さらに、係るデータ推定プログラムが記録されたコンピュータが読み取り可能な不揮発性の記録媒体によっても、本発明は成し得ると捉えることができる。 That is, in such a case, it can be considered that the present invention can also be achieved by the data estimation program. Further, it can be considered that the present invention can be achieved by using a non-volatile recording medium in which the data estimation program is recorded and which can be read by a computer.
以上、上述した実施形態を模範的な例として本発明を説明した。しかし、本発明は、上述した実施形態には限定されない。すなわち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present invention has been described above using the above-described embodiment as a model example. However, the present invention is not limited to the above-described embodiments. That is, the present invention can apply various aspects that can be understood by those skilled in the art within the scope of the present invention.
100 画像情報記憶部
101 学習画像情報記憶部
102 表示画像情報記憶部
103 未処理画像情報記憶部
200 ラベル入力部
201 制御部
202 ラベル情報記憶部
203 画像ラベル記憶部
310 特徴量作成部
311 特徴量モデル作成部
312 モデル情報記憶部
313 特徴量算出部
314 特徴情報記憶部
320 適合度作成部
321 適合度学習情報作成部
322 適合度学習情報記憶部
323 適合度モデル作成部
324 適合度モデル情報記憶部
325 適合度算出部
326 適合度情報記憶部
410 フレーム情報作成部
411 フレーム作成部
412 フレーム情報記憶部
420 適合度特徴量作成部
421 特徴量作成部
422 適合度判定情報記憶部
500 ラベル選択部
501 ラベル判定部
502 予測ラベル情報記憶部
600 データ推定装置
2010 ユーザインターフェース
2011 領域
2012 領域
2013 領域
2014 領域
2015 領域
2016 矩形
71 入力層
72 中間層
73 出力層
74 ノード
75 エッジ
76 ノード
801 データ推定装置
802 第1演算部
803 第2演算部
804 第3演算部
805 モデル記憶部
20 計算処理装置
21 CPU
22 メモリ
23 ディスク
24 不揮発性記録媒体
25 入力装置
26 出力装置
27 通信IF
28 ディスプレー
100 Image
22
28 display
Claims (10)
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算手段と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに、成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算手段と
を備え、
前記所定の第1処理手順、及び、前記所定の第2処理手順は、Convolutional Neural Networkであり、
前記所定の第3処理手順は、Supervised Semantic Indexingである
データ推定装置。 By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. A first calculation means for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation means for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not both of the second search conditions are satisfied, whether the first search condition and the second search condition are satisfied with respect to the certain data. Equipped with a third calculation means for estimating whether or not
The predetermined first processing procedure and the predetermined second processing procedure are Convolutional Neural Networks.
The predetermined third processing procedure is a data estimation device that is Supervised Semantic Indexing .
をさらに備える請求項1に記載のデータ推定装置。 The third model capable of estimating the relationship between the first calculation result and the second calculation result and the third label indicating whether or not the first search condition and the second search condition are satisfied. The data estimation device according to claim 1, further comprising a goodness-of-fit model calculating means to be created.
をさらに備える請求項2に記載のデータ推定装置。 A claim further comprising a first feature quantity creating means for creating the first model capable of estimating the relationship between the first target data and the first label indicating whether or not the first search condition is satisfied. 2. The data estimation device according to 2.
をさらに備える請求項3に記載のデータ推定装置。 A claim further comprising a second feature quantity creating means for creating the second model capable of estimating the relationship between the second target data and the second label indicating whether or not the second search condition is satisfied. The data estimation device according to 3.
をさらに備え、
前記第1特徴量作成手段は、入力された前記第1ラベルに関して、前記第1モデルを作成し、
前記第2特徴量作成手段は、入力された前記第2ラベルに関して、前記第2モデルを作成し、
前記適合度モデル算出手段は、前記第3対象データに対して前記第1特徴量作成手段が作成した前記第1モデルに関して算出された前記第1演算結果、及び、前記第3対象データに対して前記第2特徴量作成手段が作成した前記第2モデルに関して算出された前記第2演算結果と、前記第3ラベルと間の関係性を表す前記第3モデルを作成する
請求項4に記載のデータ推定装置。 A label input means for inputting the first label, the second label, and the third label is further provided.
The first feature quantity creating means creates the first model with respect to the input first label.
The second feature quantity creating means creates the second model with respect to the input second label.
The goodness-of-fit model calculating means refers to the first calculation result calculated for the first model created by the first feature quantity creating means for the third target data and the third target data. The data according to claim 4, wherein the third model representing the relationship between the second calculation result calculated for the second model created by the second feature amount creating means and the third label is created. Estimator.
前記ラベル入力手段は、前記第1ラベル、前記第2ラベル、または、前記第3ラベルが入力可能な領域を含むユーザインターフェースを含む
請求項5に記載のデータ推定装置。 The first target data, the second target data, and the third target data are all image data.
The data estimation device according to claim 5, wherein the label input means includes a user interface including the first label, the second label, or an area in which the third label can be input.
をさらに備え、
前記ユーザインターフェースは、
前記動画データを表示可能な表示領域と、
前記第1ラベル、前記第2ラベル、または、前記第3ラベルが入力される入力領域と
を含み、
前記ラベル入力手段は、前記表示領域に前記動画データを表示し、前記動画データのうち、前記入力領域に入力されたときに前記表示領域に表示されている前記画像データに対して、入力された前記入力領域に応じたラベル情報を入力する
請求項6に記載のデータ推定装置。 Further provided with a frame creation means for creating the image data representing the frame included in the moving image data,
The user interface is
A display area capable of displaying the moving image data and
Includes the first label, the second label, or an input area into which the third label is input.
The label input means displays the moving image data in the display area, and is input to the image data displayed in the display area when the moving image data is input to the input area. The data estimation device according to claim 6, wherein label information corresponding to the input area is input.
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出し、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定し、
前記所定の第1処理手順、及び、前記所定の第2処理手順は、Convolutional Neural Networkであり、
前記所定の第3処理手順は、Supervised Semantic Indexingである
データ推定方法。 By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. Calculate the first calculation result calculated by the predetermined first processing procedure,
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, the second calculation result calculated by the predetermined second processing procedure is calculated.
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. Estimate and
The predetermined first processing procedure and the predetermined second processing procedure are Convolutional Neural Networks.
The predetermined third processing procedure is a data estimation method, which is Supervised Semantic Indexing .
第2対象データに関して所定の第2処理手順に従い演算することによって、前記第1検索条件とは異なる第2検索条件が成り立っているか否かを推定可能な第2モデルに従い、前記あるデータに対して前記第2モデルを適用することによって、前記所定の第2処理手順にて算出される第2演算結果を算出する第2演算機能と、
第3対象データに前記第1モデルが適用された場合に前記第1モデルにおいて算出される演算結果と、前記第3対象データに前記第2モデルが適用された場合に前記第2モデルにおいて算出される演算結果とに対して、所定の第3処理手順に従い演算することによって、前記第3対象データに関して、前記第1演算結果と、前記第2演算結果とに対して、前記第1検索条件、及び、前記第2検索条件が、ともに成り立っているか否かを推定可能な第3モデルを適用することによって、前記あるデータに関して、前記第1検索条件、及び、前記第2検索条件が成り立つか否かを推定する第3演算機能と
をコンピュータに実現させ、
前記所定の第1処理手順、及び、前記所定の第2処理手順は、Convolutional Neural Networkであり、
前記所定の第3処理手順は、Supervised Semantic Indexingである
データ推定プログラム。
By applying the first model to a certain data according to the first model that can estimate whether or not the first search condition is satisfied by calculating the first target data according to a predetermined first processing procedure. The first calculation function for calculating the first calculation result calculated by the predetermined first processing procedure, and
According to a second model in which it is possible to estimate whether or not a second search condition different from the first search condition is satisfied by performing an operation on the second target data according to a predetermined second processing procedure, for the certain data. By applying the second model, a second calculation function for calculating the second calculation result calculated in the predetermined second processing procedure, and
The calculation result calculated in the first model when the first model is applied to the third target data, and calculated in the second model when the second model is applied to the third target data. By performing a calculation on the calculation result according to a predetermined third processing procedure, the first search condition for the first calculation result and the second calculation result for the third target data. And, by applying the third model that can estimate whether or not the second search condition is satisfied, whether or not the first search condition and the second search condition are satisfied with respect to the certain data. The third calculation function to estimate the data is realized in the computer ,
The predetermined first processing procedure and the predetermined second processing procedure are Convolutional Neural Networks.
The predetermined third processing procedure is a data estimation program that is Supervised Semantic Indexing .
をさらに備える請求項9に記載のデータ推定プログラム。 The third model capable of estimating the relationship between the first calculation result and the second calculation result and the third label indicating whether or not the first search condition and the second search condition are satisfied. The data estimation program according to claim 9, further comprising a goodness-of-fit model calculation function to be created.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049912A JP6784039B2 (en) | 2016-03-14 | 2016-03-14 | Data estimation device, data estimation method, and data estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049912A JP6784039B2 (en) | 2016-03-14 | 2016-03-14 | Data estimation device, data estimation method, and data estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167649A JP2017167649A (en) | 2017-09-21 |
JP6784039B2 true JP6784039B2 (en) | 2020-11-11 |
Family
ID=59913393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016049912A Active JP6784039B2 (en) | 2016-03-14 | 2016-03-14 | Data estimation device, data estimation method, and data estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6784039B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4993678B2 (en) * | 2006-10-04 | 2012-08-08 | 一般財団法人電力中央研究所 | Interactive moving image monitoring method, interactive moving image monitoring apparatus, and interactive moving image monitoring program |
JP2015225413A (en) * | 2014-05-26 | 2015-12-14 | 日本電信電話株式会社 | Profile estimation model learning method, profile estimation method, device and program |
JP6231944B2 (en) * | 2014-06-04 | 2017-11-15 | 日本電信電話株式会社 | Learning model creation device, determination system, and learning model creation method |
-
2016
- 2016-03-14 JP JP2016049912A patent/JP6784039B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017167649A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10438077B2 (en) | Face liveness detection method, terminal, server and storage medium | |
US11551134B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2018533805A (en) | Face position tracking method, device and electronic device | |
US20180005106A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
JP2019003299A (en) | Image recognition device and image recognition method | |
CN111666922A (en) | Video matching method and device, computer equipment and storage medium | |
CN110956646B (en) | Target tracking method, device, equipment and storage medium | |
US20200019820A1 (en) | Learning device, learning method, and learning program | |
CN112200131A (en) | Vision-based vehicle collision detection method, intelligent terminal and storage medium | |
JP2011133984A (en) | Motion feature extraction device and motion feature extraction method | |
EP3706068A1 (en) | Land use determination system, land use determination method and program | |
JP4496992B2 (en) | Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium | |
JPWO2017154655A1 (en) | Crowd type identification system, crowd type identification method, and crowd type identification program | |
CN112329762A (en) | Image processing method, model training method, device, computer device and medium | |
WO2020039559A1 (en) | Information processing device, information processing method, and work evaluation system | |
CN109086725A (en) | Hand tracking and machine readable storage medium | |
JP2020170252A (en) | Image processing device, image processing method, and program | |
US20220300774A1 (en) | Methods, apparatuses, devices and storage media for detecting correlated objects involved in image | |
JP6713422B2 (en) | Learning device, event detection device, learning method, event detection method, program | |
JP6784039B2 (en) | Data estimation device, data estimation method, and data estimation program | |
JP7428769B2 (en) | Human-robot collaboration for flexible and adaptive robot learning | |
US11373313B2 (en) | Image processing apparatus and image processing method | |
JP4997179B2 (en) | Image processing apparatus, method, and program | |
CN114550062A (en) | Method and device for determining moving object in image, electronic equipment and storage medium | |
CN110662106B (en) | Video playback method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200923 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6784039 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |