JP7259322B2 - Information processing device, learning model generation program, and learning model generation method - Google Patents
Information processing device, learning model generation program, and learning model generation method Download PDFInfo
- Publication number
- JP7259322B2 JP7259322B2 JP2018243074A JP2018243074A JP7259322B2 JP 7259322 B2 JP7259322 B2 JP 7259322B2 JP 2018243074 A JP2018243074 A JP 2018243074A JP 2018243074 A JP2018243074 A JP 2018243074A JP 7259322 B2 JP7259322 B2 JP 7259322B2
- Authority
- JP
- Japan
- Prior art keywords
- weighting
- unit
- information
- input
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置、学習モデル生成プログラム及び学習モデル生成方法に関する。 The present invention relates to an information processing device, a learning model generation program, and a learning model generation method.
近年、Artificial Intelligence(AI)の利用が活発になっている。また、様々な業務に適切に対応するアルゴリズムが開発されている。 In recent years, the use of artificial intelligence (AI) has become active. Algorithms have also been developed to appropriately handle various tasks.
業務における人の動きは複雑で、作業や行動の状態の分類(別言すれば、「ラベル付け」)は観察者からは判別しにくい。そこで、人の動きを考慮したラベル付けや質の良い教師データが作成される。 Human movements in work are complicated, and it is difficult for an observer to distinguish the classification of work and action states (in other words, "labeling"). Therefore, labeling that considers human movements and high-quality training data are created.
しかしながら、観察者(別言すれば、「タグ付けする人」)による行動や動作のタグ付けが、該当行動であるか、該当行動でないかの二値である場合には、取得データの特徴量とタグ付け結果との間に差異が生じても、差異が教師データに反映されないおそれがある。 However, when the action or motion is tagged by an observer (in other words, "a person who tags") is a binary value indicating whether the action is the relevant action or not, the feature value of the acquired data Even if there is a difference between the training data and the tagging result, the difference may not be reflected in the training data.
1つの側面では、少ない教師データによって行動分析のための学習を可能にすることを目的とする。 One aspect aims at enabling learning for behavior analysis with less teacher data.
情報処理装置は、センサデータを取得する取得部と、前記取得部によって取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する重み付け部と、を備える。 The information processing apparatus includes an acquisition unit that acquires sensor data, and weighting information indicating whether the motion of an observation target object is closer before or after the transition to the sensor data acquired by the acquisition unit. and a weighting unit that records by receiving a stepwise input about the state of .
1つの側面では、少ない教師データによって行動分析のための学習ができる。 In one aspect, learning for behavior analysis is possible with less training data.
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。 An embodiment will be described below with reference to the drawings. However, the embodiments shown below are merely examples, and are not intended to exclude the application of various modifications and techniques not explicitly described in the embodiments. In other words, the present embodiment can be modified in various ways without departing from the spirit of the embodiment.
また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。 Also, each drawing does not mean that it has only the constituent elements shown in the drawing, but can include other functions and the like.
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。 In the following figures, the same reference numerals denote the same parts, so the description thereof will be omitted.
〔A〕関連例
図1は、関連例における教師データの取得処理を説明する図である。
[A] Related Example FIG. 1 is a diagram for explaining a teacher data acquisition process in a related example.
図1に示す例において、例えば、動作A及び動作Bに対して観察者によるタグ付けを行なう際に、センサ状態は動作Aから動作Bへの特徴を表わしている(符号A1参照)。 In the example shown in FIG. 1, the sensor state characterizes from action A to action B, for example, when action A and action B are tagged by an observer (see A1).
しかしながら、確実に動作Bが確認できてからタグ付けが行なわれる場合には(符号A2参照)、特徴量の発現が埋もれてしまい、教師データとしての精度が不十分になる。 However, if the tagging is performed after the movement B is definitely confirmed (see symbol A2), the expression of the feature amount is buried, and the accuracy as teacher data is insufficient.
そして、図1に示すように、データセット#1とデータセット#2とが存在する場合には、観察者がタグ付けする際に、観察者の主観によって、データセット毎に、実際の特徴量の変動タイミングとタグ付けタイミングとの間でずれが生じるおそれがある。
Then, as shown in FIG. 1, when
〔B〕実施形態の一例
〔B-1〕システム構成例
図2は、実施形態の一例における計算機1のハードウェア構成例を模式的に示すブロック図である。
[B] Example of Embodiment [B-1] Example of System Configuration FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the
計算機1は、Central Processing Unit(CPU)11,メモリ12,表示制御部13,記憶装置14,入力Interface(I/F)15,読み書き処理部16及び通信I/F17を備える。
The
メモリ12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。メモリ12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ12のRAMは、一次記録メモリあるいはワーキングメモリとして利用されてよい。
The
表示制御部13は、表示装置130と接続され、表示装置130を制御する。表示装置130は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置130は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。
The
記憶装置14は、例示的に、データを読み書き可能に記憶する装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。
The
入力I/F15は、マウス151やキーボード152,センサ群153等の入力装置と接続され、マウス151やキーボード152,センサ群153等の入力装置を制御する。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行なう。センサ群153は、観察対象物である人や動物,ロボット等の動作に関する情報を取得する。
The input I/
読み書き処理部16は、記録媒体160が装着可能に構成される。読み書き処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
The read/
通信I/F17は、外部装置との通信を可能にするためのインタフェースである。
Communication I/
CPU11は、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
The
計算機1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、WMS1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
A device for controlling the operation of the
図3は、図2に示した計算機1の機能構成例を模式的に示すブロック図である。
FIG. 3 is a block diagram schematically showing a functional configuration example of the
計算機1は、図3に示すように、特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能する。
なお、これらの特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能を実現するためのプログラムは、例えば前述した記録媒体160に記録された形態で提供される。そして、コンピュータは読み書き処理部16を介してその記録媒体160からプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。また、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供してもよい。
Programs for realizing the functions of the feature
特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114としての機能を実現する際には、内部記憶装置に格納されたプログラムがコンピュータのマイクロプロセッサによって実行される。このとき、記録媒体160に記録されたプログラムをコンピュータが読み取って実行してもよい。なお、本実施形態において、内部記憶装置はメモリ12であり、マイクロプロセッサはCPU11である。
When realizing the functions of the feature
図3に示すように、センサ群153は、センサ入力部1530として機能する。センサ入力部1530は、観察対象物である人や動物,ロボット等の動作に関する情報を取得して、教師データとしてInterface(I/F)を介して計算機1に入力する。
As shown in FIG. 3 ,
図3に示すように、マウス151やキーボード152等の入力装置は、タグ情報入力部1520として機能する。タグ情報入力部1520は、観察対象物の観察者からのタグ情報(「重み付け情報」と称してもよい。)入力を受け付け、受け付けたタグ情報をI/Fを介して計算機1に入力する。
As shown in FIG. 3, the input device such as
特徴量計算部111は、センサ入力部1530から入力された教師データから特徴量を計算する。すなわち、特徴量計算部111は、教師データを取得する取得部として機能する。
The feature
タグ情報重み付け部112は、タグ情報入力部1520から入力されたタグ情報に基づき、特徴量計算部111によって計算された特徴量に対して重み付けする。すなわち、タグ情報重み付け部112は、取得された教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部として機能する。
The tag
特徴量出力部113は、タグ情報重み付け部112によって重み付けされた特徴量を出力する。
The feature
学習モデル生成部114は、特徴量出力部113によって出力された特徴量に基づき、学習モデルを生成する。
The learning
図4は、図2に示した計算機1における重み付け処理の詳細を説明する図である。
FIG. 4 is a diagram for explaining the details of weighting processing in
図4に示すように、センサ群153からの加速度や気圧についての生データに基づいて特徴量が時系列に教師データとして取得される(符号B1参照)。 As shown in FIG. 4, feature amounts are acquired as teacher data in time series based on raw data about acceleration and atmospheric pressure from the sensor group 153 (see symbol B1).
取得された教師データは、フィルタ特徴量計算により、特徴量#1及び#2とし計算される(符号B2参照)。フィルタ特徴量計算は、例えば、一定区間の平均値や最大値の計算によって行なわれる。計算される特徴量は、フィルタ設計に応じて3つ以上であってもよい。
The acquired teacher data are calculated as
観察者は、被験者(別言すれば、「観察対象物」)の行動を観察して、動作のタグ付けを行なう(符号B3参照)。図示する例では、動作Aの場合にはJ1のタグ付けがされ、動作Bの場合にはJ2のタグ付けがされる。J1からJ2へ遷移する際には、観察者は、スライドバー131を用いて、動作がJ1よりかJ2よりかをアナログ的にタグ付けしてよい。
The observer observes the behavior of the subject (in other words, the “object to be observed”) and tags the behavior (see symbol B3). In the example shown, action A is tagged J1 and action B is tagged J2. When transitioning from J1 to J2, the observer may use
すなわち、図3に示したタグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する重み付け部として機能する。
That is, the tag
図4の符号B3に示す例において、観察者は、J1からJ2へ迷いながらスライドバー131を左右に動かし、最終的にはJ2に移行したことを入力している。
In the example indicated by reference numeral B3 in FIG. 4, the observer moves the
符号B2において計算された特徴量#1及び#2と、符号B3において取得されたタグ情報とに基づき、遷移特徴量#1及び#2が生成される(符号B4参照)。それぞれの特徴量に対し、このように遷移状態をアナログ的に重み付けすることで、J1からJ2への特徴量がタグとして記録され、特徴量を厳密に教師データに反映できる。
Transition
図5は、図2に示した計算機1における重み付け処理の第1の例を説明する図である。図6は、図2に示した計算機1における重み付け処理の第2の例を説明する図である。
FIG. 5 is a diagram for explaining a first example of weighting processing in
図5及び図6に示すように、観察者によるアナログ的なタグ付け領域(図5及び図6の符号C1参照)においてスライドバー131を用いたタグ付けが行なわれることにより、他の動きに紛れている特徴量についても、教師データとして反映できる。
As shown in FIGS. 5 and 6, tagging using the
学習の際のコスト関数は、特徴量が
であり、正解ラベルが
であるとき、下記の数式1で表わされる。
The cost function for learning is
and the correct label is
is expressed by
は、本実施形態の一例において計算できるサンプルの重み付けである。
は、学習対象の特徴量重みである。
は、ロス関数であり、例えはhinge-loss関数
である。ここで、
である。
is the sample weighting that can be calculated in one example of this embodiment.
is the feature weight to be learned.
is the loss function, for example the hinge-loss function
is. here,
is.
ここで、全てのデータで
であり、各々の時刻サンプルに対して全て等化となり、サンプルへのアノテーションの確からしさがモデル化できない。
where all the data
, and all are equalized for each time sample, and the likelihood of annotation to the sample cannot be modeled.
図7は、図2に示した計算機1における重み付け情報へのアノテーションの確からしさの反映処理を説明する図である。
FIG. 7 is a diagram for explaining the process of reflecting the probability of annotation to the weighting information in the
サンプルへのアノテーションの確からしさをモデル化するために、図7に示すように、
をスライドバー131の入力値として使用する。
To model the likelihood of annotations to samples, as shown in Figure 7,
is used as the input value for the
これにより、サンプルへのアノテーションの確からしさをタグ付けに反映できる。 This makes it possible to reflect the likelihood of annotations to samples in tagging.
図8は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさのフィルタリング処理を説明する図である。
FIG. 8 is a diagram for explaining the filtering processing of annotation certainty for weighting information in
図8に示す例では、サンプルの重み付け
において、前後のサンプルの変動が大きい区間を無視する。すなわち、
は、以下の数式2によって表わされる。
, we ignore sections where the fluctuations between the preceding and succeeding samples are large. i.e.
is represented by
すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする重み付け部の一例として機能する。
That is, the tag
これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。 As a result, it is possible to exclude uncertain feature amounts that cause the observer to hesitate in making a decision, so that learning is possible only for certain information.
図9は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさに応じた学習の変更処理を説明する図である。
FIG. 9 is a diagram for explaining learning change processing according to the certainty of annotations for weighting information in
図9に示す例においては、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させることで、より複雑な特徴量を含めて学習を加速できる。 In the example shown in FIG. 9, by learning easy-to-determine feature amounts in the early stage of learning and learning difficult feature amounts in the latter stage of learning, learning including more complex feature amounts can be accelerated.
すなわち、図9に示すように初期には
を小さい
に設定(別言すれば、「特徴量を判断しやすく設定」)して、後半には大きい
に設定(別言すれば、「特徴量を判断しにくく設定」)して学習を繰り返す。
That is, initially as shown in FIG.
the small
(in other words, "set features so that they are easy to judge"), and in the latter half
(in other words, “set to make it difficult to judge the feature quantity”) and repeat the learning.
1回目の学習は、以下の数式3によって表わされる。
2回目の学習は、以下の数式4によって表わされる。
すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう重み付け部の一例として機能する。
In other words, the tag
〔B-2〕動作例
図2に示した計算機1における重み付け処理を、図10に示すフローチャート(ステップS1~S10)に従って説明する。
[B-2] Operation Example The weighting process in the
特徴量計算部111は、センサ入力部1530からの観察対象物によるタグ情報J1で示される動作Aに関する情報の入力を受け付け、特徴量を計算する(ステップS1)。
The feature
タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J1としてのタグ付けを示す重み“J1:1.0, J2:0.0”を付加する(ステップS2)。
The tag
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J1で示される動作Aが終了したかを判定する(ステップS3)。
The tag
タグ情報J1で示される動作Aが終了していない場合には(ステップS3のNoルート参照)、処理はステップS2へ戻る。 If the operation A indicated by the tag information J1 has not ended (see No route in step S3), the process returns to step S2.
一方、タグ情報J1で示される動作Aが終了している場合には(ステップS3のYesルート参照)、処理はステップS4へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS4)。
On the other hand, if the action A indicated by the tag information J1 has been completed (see Yes route of step S3), the process proceeds to step S4. Then, the tag
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bが開始されたかを判定する(ステップS5)。
The tag
タグ情報J2で示される動作Bが開始されていない場合には(ステップS5のNoルート参照)、処理はステップS6へ進む。タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131のスライドが停止されたことを示す情報、又は、スライドバー131がJ2側からJ1側へスライドされたことを示す情報の入力を受け付ける(ステップS6)。そして、処理はステップS5へ戻る。
If the operation B indicated by the tag information J2 has not started (see No route in step S5), the process proceeds to step S6. The tag
一方、タグ情報J2で示される動作Bが開始されている場合には(ステップS5のYesルート参照)、処理はステップS7へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS7)。
On the other hand, if the operation B indicated by the tag information J2 has started (see Yes route in step S5), the process proceeds to step S7. Then, the tag
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bの開始が確定したかを判定する(ステップS8)。
The tag
タグ情報J2で示される動作Bの開始が確定していない場合には(ステップS8のNoルート参照)、処理はステップS7へ戻る。 If the start of the action B indicated by the tag information J2 has not been determined (see No route in step S8), the process returns to step S7.
一方、タグ情報J2で示される動作Bの開始が確定した場合には(ステップS8のYesルート参照)、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ2側で確定したことを示す情報の入力を受け付ける(ステップS9)。
On the other hand, when the start of the action B indicated by the tag information J2 has been confirmed (see Yes route in step S8), the tag
タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J2としてのタグ付けを示す重み“J1:0.0, J2:1.0”を付加する(ステップS10)。そして、重み付け処理は終了する。
The tag
〔B-3〕効果
上述した実施形態の一例における計算機1によれば、例えば、以下の作用効果を奏することができる。
[B-3] Effects According to the
特徴量計算部111は、教師データを取得する。タグ情報重み付け部112は、取得された教師データに対して、動作A又は動作B等の二値でのタグ付けでなく、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する。
The feature
これにより、少ない教師データによって行動分析のための学習ができる。 As a result, learning for behavior analysis can be performed with a small amount of teacher data.
タグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する。
The tag
これにより、動作の遷移に対してアナログ的にきめ細やかなタグ付けができる。 This allows fine-grained analog tagging of motion transitions.
タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする。
The tag
これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。 As a result, it is possible to exclude uncertain feature amounts that cause the observer to hesitate in making a decision, so that learning is possible only for certain information.
タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう。
The tag
これにより、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させるカリキュラム学習を実施することで、より複雑な特徴量を含めて学習を加速できる。 As a result, it is possible to accelerate learning including more complex feature values by implementing curriculum learning in which easy-to-determine feature values are learned in the early stage of learning, and difficult feature values are learned in the latter stage of learning.
〔C〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
[C] Others The technology disclosed herein is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the embodiments. Each configuration and each process of the present embodiment can be selected as necessary, or may be combined as appropriate.
上述した実施形態の一例においては、観察者がスライドバー131によってアナログ的な重み付けを入力することとしたが、これに限定されるものではない。観察者によりアナログ的な重み付けの入力は、例えば、表示装置130に表示される入力ボックスに対して数値が入力されることにより行なわれてもよい。また、観察者によりアナログ的な重み付けの入力は、入力I/F15に接続されたダイヤルやつまみ等の多段階式のハードウェアスイッチにより行なわれてもよい。
In the above-described example of the embodiment, the observer inputs analog weighting using the
〔D〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
[D] Supplementary Notes Regarding the above embodiment, the following supplementary notes are disclosed.
(付記1)
教師データを取得する取得部と、
前記取得部によって取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部と、
を備える、情報処理装置。
(Appendix 1)
an acquisition unit that acquires teacher data;
a weighting unit that records weighting information indicating whether the motion of the observation target is closer to before or after the transition for the teacher data acquired by the acquisition unit;
An information processing device.
(付記2)
前記重み付け部は、表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記1に記載の情報処理装置。
(Appendix 2)
The weighting unit acquires the weighting information by accepting stepwise input regarding the state before and after the transition using a slide bar displayed on a display device.
The information processing device according to
(付記3)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記1又は2に記載の情報処理装置。
(Appendix 3)
The weighting unit filters the input of the weighting information based on likelihood.
The information processing device according to
(付記4)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
付記1又は2に記載の情報処理装置。
(Appendix 4)
The weighting unit changes the learning based on the likelihood of inputting the weighting information.
The information processing device according to
(付記5)
コンピュータに、
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
処理を実行させる、学習モデル生成プログラム。
(Appendix 5)
to the computer,
get teacher data,
recording weighting information indicating whether the movement of the observed object is closer to before or after the transition in the acquired teacher data;
A learning model generation program that executes processing.
(付記6)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
処理を前記コンピュータに実行させる、付記5に記載の学習モデル生成プログラム。
(Appendix 6)
Acquiring the weighting information by accepting stepwise input about the state before and after the transition using a slide bar displayed on the display device;
The learning model generation program according to appendix 5, causing the computer to execute processing.
(付記7)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
(Appendix 7)
filtering the input of the weighting information by probability;
7. The learning model generation program according to appendix 5 or 6, causing the computer to execute processing.
(付記8)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
(Appendix 8)
changing the learning based on the likelihood of inputting the weighting information;
7. The learning model generation program according to appendix 5 or 6, causing the computer to execute processing.
(付記9)
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
学習モデル生成方法。
(Appendix 9)
get teacher data,
recording weighting information indicating whether the movement of the observed object is closer to before or after the transition in the acquired teacher data;
Learning model generation method.
(付記10)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記9に記載の学習モデル生成方法。
(Appendix 10)
Acquiring the weighting information by accepting stepwise input about the state before and after the transition using a slide bar displayed on the display device;
The learning model generation method according to
(付記11)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記9又は10に記載の学習モデル生成方法。
(Appendix 11)
filtering the input of the weighting information by probability;
The learning model generation method according to
(付記12)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記9又は10に記載の学習モデル生成方法。
(Appendix 12)
changing the learning based on the likelihood of inputting the weighting information;
11. The learning model generation method according to
1 :計算機
11 :CPU
111 :特徴量計算部
112 :タグ情報重み付け部
113 :特徴量出力部
114 :学習モデル生成部
12 :メモリ
13 :表示制御部
130 :表示装置
131 :スライドバー
14 :記憶装置
15 :入力I/F
151 :マウス
152 :キーボード
153 :センサ群
1520 :タグ情報入力部
1530 :センサ入力部
16 :読み書き処理部
160 :記録媒体
17 :通信I/F
1: computer 11: CPU
111: feature amount calculation unit 112: tag information weighting unit 113: feature amount output unit 114: learning model generation unit 12: memory 13: display control unit 130: display device 131: slide bar 14: storage device 15: input I/F
151: Mouse 152: Keyboard 153: Sensor group 1520: Tag information input unit 1530: Sensor input unit 16: Read/write processing unit 160: Recording medium 17: Communication I/F
Claims (6)
前記取得部によって取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する重み付け部と、
を備える、情報処理装置。 an acquisition unit that acquires sensor data;
For the sensor data acquired by the acquisition unit, weighting information indicating whether the motion of the observation target is closer to before or after the transition is recorded by accepting stepwise input regarding the state before and after the transition. a weighting unit;
An information processing device.
請求項1に記載の情報処理装置。 The weighting unit receives the stepwise input by a slide bar displayed on a display device ;
The information processing device according to claim 1 .
請求項1又は2に記載の情報処理装置。 The weighting unit filters the input of the weighting information based on likelihood.
The information processing apparatus according to claim 1 or 2.
請求項1又は2に記載の情報処理装置。 The weighting unit changes the learning based on the likelihood of inputting the weighting information.
The information processing apparatus according to claim 1 or 2.
センサデータを取得し、
取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する、
処理を実行させる、学習モデル生成プログラム。 to the computer,
get sensor data,
For the acquired sensor data, weighting information indicating whether the motion of the observation target is closer before or after the transition is recorded by receiving stepwise input regarding the state before and after the transition.
A learning model generation program that executes processing.
取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する、
学習モデル生成方法。 get sensor data,
For the acquired sensor data, weighting information indicating whether the motion of the observation target is closer before or after the transition is recorded by receiving stepwise input regarding the state before and after the transition.
Learning model generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018243074A JP7259322B2 (en) | 2018-12-26 | 2018-12-26 | Information processing device, learning model generation program, and learning model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018243074A JP7259322B2 (en) | 2018-12-26 | 2018-12-26 | Information processing device, learning model generation program, and learning model generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020106945A JP2020106945A (en) | 2020-07-09 |
JP7259322B2 true JP7259322B2 (en) | 2023-04-18 |
Family
ID=71449114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018243074A Active JP7259322B2 (en) | 2018-12-26 | 2018-12-26 | Information processing device, learning model generation program, and learning model generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7259322B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010191556A (en) | 2009-02-17 | 2010-09-02 | Hitachi Ltd | Abnormality detecting method and abnormality detecting system |
US20160125307A1 (en) | 2013-06-05 | 2016-05-05 | Yu Zheng | Air quality inference using multiple data sources |
US20160171377A1 (en) | 2013-08-05 | 2016-06-16 | Movea | Method, device and system for annotated capture of sensor data and crowd modelling of activities |
JP2019159819A (en) | 2018-03-13 | 2019-09-19 | オムロン株式会社 | Annotation method, annotation device, annotation program, and identification system |
-
2018
- 2018-12-26 JP JP2018243074A patent/JP7259322B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010191556A (en) | 2009-02-17 | 2010-09-02 | Hitachi Ltd | Abnormality detecting method and abnormality detecting system |
US20160125307A1 (en) | 2013-06-05 | 2016-05-05 | Yu Zheng | Air quality inference using multiple data sources |
US20160171377A1 (en) | 2013-08-05 | 2016-06-16 | Movea | Method, device and system for annotated capture of sensor data and crowd modelling of activities |
JP2019159819A (en) | 2018-03-13 | 2019-09-19 | オムロン株式会社 | Annotation method, annotation device, annotation program, and identification system |
Also Published As
Publication number | Publication date |
---|---|
JP2020106945A (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nithya et al. | Predictive analytics in health care using machine learning tools and techniques | |
Lu et al. | Video object segmentation with episodic graph memory networks | |
JP7104059B2 (en) | Probability-based Gaida | |
KR102014385B1 (en) | Method and apparatus for learning surgical image and recognizing surgical action based on learning | |
US10766136B1 (en) | Artificial intelligence system for modeling and evaluating robotic success at task performance | |
Xu et al. | Radial graph convolutional network for visual question generation | |
Shi et al. | Self-supervised discovering of interpretable features for reinforcement learning | |
US10766137B1 (en) | Artificial intelligence system for modeling and evaluating robotic success at task performance | |
US11816457B2 (en) | Program predictor | |
CN110383299B (en) | Memory enhanced generation time model | |
KR20200063364A (en) | Method and system for visualizing classification result of deep neural network for prediction of disease prognosis through time series medical data | |
Ma et al. | Multi-level knowledge distillation for low-resolution object detection and facial expression recognition | |
JP2009282686A (en) | Apparatus and method for learning classification model | |
RU2689818C1 (en) | Method of interpreting artificial neural networks | |
Mohapatra | HCR using neural network | |
KR20220049857A (en) | Apparatus and mehod for labeling data | |
Selvam | A deep learning framework for surgery action detection | |
JP7259322B2 (en) | Information processing device, learning model generation program, and learning model generation method | |
Tian et al. | Multi-scale Multi-task Distillation for Incremental 3D Medical Image Segmentation | |
JPWO2019207714A1 (en) | Motion estimation system, motion estimation method and motion estimation program | |
Ramesh et al. | Weakly Supervised Temporal Convolutional Networks for Fine-Grained Surgical Activity Recognition | |
JP2011138374A (en) | Diagnostic device and diagnostic method | |
Lafouti et al. | Surgical instrument tracking for capsulorhexis eye surgery based on siamese networks | |
Yahyaeian | Enhancing Mechanical Engineering Education Through a Virtual Instructor in an Ai-Driven Virtual Reality Fatigue Test Lab | |
KR20210072528A (en) | Method and apparatus for generating new chemical structure using neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190607 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7259322 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |