JP7259322B2 - Information processing device, learning model generation program, and learning model generation method - Google Patents

Information processing device, learning model generation program, and learning model generation method Download PDF

Info

Publication number
JP7259322B2
JP7259322B2 JP2018243074A JP2018243074A JP7259322B2 JP 7259322 B2 JP7259322 B2 JP 7259322B2 JP 2018243074 A JP2018243074 A JP 2018243074A JP 2018243074 A JP2018243074 A JP 2018243074A JP 7259322 B2 JP7259322 B2 JP 7259322B2
Authority
JP
Japan
Prior art keywords
weighting
unit
information
input
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018243074A
Other languages
Japanese (ja)
Other versions
JP2020106945A (en
Inventor
克司 境
有一 村瀬
純也 藤本
成幸 小田嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018243074A priority Critical patent/JP7259322B2/en
Publication of JP2020106945A publication Critical patent/JP2020106945A/en
Application granted granted Critical
Publication of JP7259322B2 publication Critical patent/JP7259322B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、学習モデル生成プログラム及び学習モデル生成方法に関する。 The present invention relates to an information processing device, a learning model generation program, and a learning model generation method.

近年、Artificial Intelligence(AI)の利用が活発になっている。また、様々な業務に適切に対応するアルゴリズムが開発されている。 In recent years, the use of artificial intelligence (AI) has become active. Algorithms have also been developed to appropriately handle various tasks.

業務における人の動きは複雑で、作業や行動の状態の分類(別言すれば、「ラベル付け」)は観察者からは判別しにくい。そこで、人の動きを考慮したラベル付けや質の良い教師データが作成される。 Human movements in work are complicated, and it is difficult for an observer to distinguish the classification of work and action states (in other words, "labeling"). Therefore, labeling that considers human movements and high-quality training data are created.

特開2018-72029号公報JP 2018-72029 A 特開2012-3494号公報JP 2012-3494 A 特開2016-149136号公報JP 2016-149136 A

T. Mori et al, "Online Recognition and Segmentation for Time-Series Motion with HMM and Conceptual Relation of Actions", In IROS2005.,2005年8月T. Mori et al, "Online Recognition and Segmentation for Time-Series Motion with HMM and Conceptual Relation of Actions", In IROS2005., August 2005

しかしながら、観察者(別言すれば、「タグ付けする人」)による行動や動作のタグ付けが、該当行動であるか、該当行動でないかの二値である場合には、取得データの特徴量とタグ付け結果との間に差異が生じても、差異が教師データに反映されないおそれがある。 However, when the action or motion is tagged by an observer (in other words, "a person who tags") is a binary value indicating whether the action is the relevant action or not, the feature value of the acquired data Even if there is a difference between the training data and the tagging result, the difference may not be reflected in the training data.

1つの側面では、少ない教師データによって行動分析のための学習を可能にすることを目的とする。 One aspect aims at enabling learning for behavior analysis with less teacher data.

情報処理装置は、センサデータを取得する取得部と、前記取得部によって取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する重み付け部と、を備える。 The information processing apparatus includes an acquisition unit that acquires sensor data, and weighting information indicating whether the motion of an observation target object is closer before or after the transition to the sensor data acquired by the acquisition unit. and a weighting unit that records by receiving a stepwise input about the state of .

1つの側面では、少ない教師データによって行動分析のための学習ができる。 In one aspect, learning for behavior analysis is possible with less training data.

関連例における教師データの取得処理を説明する図である。FIG. 11 is a diagram for explaining acquisition processing of teacher data in a related example; 実施形態の一例における計算機のハードウェア構成例を模式的に示すブロック図である。It is a block diagram which shows typically the hardware structural example of the computer in an example of embodiment. 図2に示した計算機の機能構成例を模式的に示すブロック図である。3 is a block diagram schematically showing a functional configuration example of the computer shown in FIG. 2; FIG. 図2に示した計算機における重み付け処理の詳細を説明する図である。3 is a diagram illustrating details of weighting processing in the computer shown in FIG. 2; FIG. 図2に示した計算機における重み付け処理の第1の例を説明する図である。3 is a diagram for explaining a first example of weighting processing in the computer shown in FIG. 2; FIG. 図2に示した計算機における重み付け処理の第2の例を説明する図である。3 is a diagram for explaining a second example of weighting processing in the computer shown in FIG. 2; FIG. 図2に示した計算機における重み付け情報へのアノテーションの確からしさの反映処理を説明する図である。FIG. 3 is a diagram for explaining processing of reflecting likelihood of annotation to weighting information in the computer shown in FIG. 2 ; 図2に示した計算機における重み付け情報に対するアノテーションの確からしさのフィルタリング処理を説明する図である。FIG. 3 is a diagram for explaining filtering processing of annotation certainty with respect to weighting information in the computer shown in FIG. 2 ; 図2に示した計算機における重み付け情報に対するアノテーションの確からしさに応じた学習の変更処理を説明する図である。FIG. 3 is a diagram for explaining learning change processing according to the certainty of annotations for weighting information in the computer shown in FIG. 2 ; 図2に示した計算機における重み付け処理を説明するフローチャートである。3 is a flowchart for explaining weighting processing in the computer shown in FIG. 2;

以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。 An embodiment will be described below with reference to the drawings. However, the embodiments shown below are merely examples, and are not intended to exclude the application of various modifications and techniques not explicitly described in the embodiments. In other words, the present embodiment can be modified in various ways without departing from the spirit of the embodiment.

また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。 Also, each drawing does not mean that it has only the constituent elements shown in the drawing, but can include other functions and the like.

以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。 In the following figures, the same reference numerals denote the same parts, so the description thereof will be omitted.

〔A〕関連例
図1は、関連例における教師データの取得処理を説明する図である。
[A] Related Example FIG. 1 is a diagram for explaining a teacher data acquisition process in a related example.

図1に示す例において、例えば、動作A及び動作Bに対して観察者によるタグ付けを行なう際に、センサ状態は動作Aから動作Bへの特徴を表わしている(符号A1参照)。 In the example shown in FIG. 1, the sensor state characterizes from action A to action B, for example, when action A and action B are tagged by an observer (see A1).

しかしながら、確実に動作Bが確認できてからタグ付けが行なわれる場合には(符号A2参照)、特徴量の発現が埋もれてしまい、教師データとしての精度が不十分になる。 However, if the tagging is performed after the movement B is definitely confirmed (see symbol A2), the expression of the feature amount is buried, and the accuracy as teacher data is insufficient.

そして、図1に示すように、データセット#1とデータセット#2とが存在する場合には、観察者がタグ付けする際に、観察者の主観によって、データセット毎に、実際の特徴量の変動タイミングとタグ付けタイミングとの間でずれが生じるおそれがある。 Then, as shown in FIG. 1, when dataset #1 and dataset #2 exist, the actual feature amount There is a risk that there will be a gap between the timing of the fluctuation of the tag and the timing of tagging.

〔B〕実施形態の一例
〔B-1〕システム構成例
図2は、実施形態の一例における計算機1のハードウェア構成例を模式的に示すブロック図である。
[B] Example of Embodiment [B-1] Example of System Configuration FIG. 2 is a block diagram schematically showing an example of the hardware configuration of the computer 1 in one example of the embodiment.

計算機1は、Central Processing Unit(CPU)11,メモリ12,表示制御部13,記憶装置14,入力Interface(I/F)15,読み書き処理部16及び通信I/F17を備える。 The computer 1 includes a Central Processing Unit (CPU) 11, a memory 12, a display control section 13, a storage device 14, an input interface (I/F) 15, a read/write processing section 16 and a communication I/F 17.

メモリ12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。メモリ12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ12のRAMは、一次記録メモリあるいはワーキングメモリとして利用されてよい。 The memory 12 is an example of a storage unit, and is illustratively a storage device including Read Only Memory (ROM) and Random Access Memory (RAM). A program such as a Basic Input/Output System (BIOS) may be written in the ROM of the memory 12 . The software programs in the memory 12 may be read and executed by the CPU 11 as appropriate. Also, the RAM of the memory 12 may be used as a primary recording memory or a working memory.

表示制御部13は、表示装置130と接続され、表示装置130を制御する。表示装置130は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置130は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。 The display control unit 13 is connected to the display device 130 and controls the display device 130 . The display device 130 is a liquid crystal display, an Organic Light-Emitting Diode (OLED) display, a cathode ray tube (CRT), an electronic paper display, or the like, and displays various information for the operator or the like. The display device 130 may be combined with an input device, such as a touch panel.

記憶装置14は、例示的に、データを読み書き可能に記憶する装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。 The storage device 14 is illustratively a device that stores data in a readable and writable manner, and may be, for example, a Hard Disk Drive (HDD), Solid State Drive (SSD), or Storage Class Memory (SCM).

入力I/F15は、マウス151やキーボード152,センサ群153等の入力装置と接続され、マウス151やキーボード152,センサ群153等の入力装置を制御する。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行なう。センサ群153は、観察対象物である人や動物,ロボット等の動作に関する情報を取得する。 The input I/F 15 is connected to input devices such as the mouse 151, keyboard 152, and sensor group 153, and controls the input devices such as the mouse 151, keyboard 152, and sensor group 153. FIG. The mouse 151 and keyboard 152 are examples of input devices, and the operator performs various input operations via these input devices. The sensor group 153 acquires information about the motion of an observation object such as a person, an animal, a robot, or the like.

読み書き処理部16は、記録媒体160が装着可能に構成される。読み書き処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。 The read/write processing unit 16 is configured such that a recording medium 160 can be attached. The read/write processing unit 16 is configured to be able to read information recorded on the recording medium 160 while the recording medium 160 is attached. In this example, the recording medium 160 has portability. For example, the recording medium 160 is a flexible disk, optical disk, magnetic disk, magneto-optical disk, or semiconductor memory.

通信I/F17は、外部装置との通信を可能にするためのインタフェースである。 Communication I/F 17 is an interface for enabling communication with an external device.

CPU11は、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。 The CPU 11 is a processing device that performs various controls and calculations, and implements various functions by executing an operating system (OS) and programs stored in the memory 12 .

計算機1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、WMS1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。 A device for controlling the operation of the entire computer 1 is not limited to the CPU 11, and may be, for example, any one of MPU, DSP, ASIC, PLD, and FPGA. Also, the device for controlling the operation of the entire WMS 1 may be a combination of two or more of CPU, MPU, DSP, ASIC, PLD and FPGA. Note that MPU is an abbreviation for Micro Processing Unit, DSP is an abbreviation for Digital Signal Processor, and ASIC is an abbreviation for Application Specific Integrated Circuit. PLD is an abbreviation for Programmable Logic Device, and FPGA is an abbreviation for Field Programmable Gate Array.

図3は、図2に示した計算機1の機能構成例を模式的に示すブロック図である。 FIG. 3 is a block diagram schematically showing a functional configuration example of the computer 1 shown in FIG.

計算機1は、図3に示すように、特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能する。 Calculator 1 functions as a feature amount calculator 111, a tag information weighting unit 112, a feature amount output unit 113, and a learning model generator 114, as shown in FIG.

なお、これらの特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能を実現するためのプログラムは、例えば前述した記録媒体160に記録された形態で提供される。そして、コンピュータは読み書き処理部16を介してその記録媒体160からプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。また、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供してもよい。 Programs for realizing the functions of the feature amount calculation unit 111, the tag information weighting unit 112, the feature amount output unit 113, and the learning model generation unit 114 are provided in a form recorded in the above-described recording medium 160, for example. be done. Then, the computer reads the program from the recording medium 160 through the read/write processing unit 16, transfers it to an internal storage device or an external storage device, and stores it for use. Alternatively, the program may be recorded in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided to the computer from the storage device via a communication path.

特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114としての機能を実現する際には、内部記憶装置に格納されたプログラムがコンピュータのマイクロプロセッサによって実行される。このとき、記録媒体160に記録されたプログラムをコンピュータが読み取って実行してもよい。なお、本実施形態において、内部記憶装置はメモリ12であり、マイクロプロセッサはCPU11である。 When realizing the functions of the feature amount calculation unit 111, the tag information weighting unit 112, the feature amount output unit 113, and the learning model generation unit 114, programs stored in the internal storage device are executed by the microprocessor of the computer. . At this time, the computer may read and execute the program recorded on the recording medium 160 . Note that in this embodiment, the internal storage device is the memory 12 and the microprocessor is the CPU 11 .

図3に示すように、センサ群153は、センサ入力部1530として機能する。センサ入力部1530は、観察対象物である人や動物,ロボット等の動作に関する情報を取得して、教師データとしてInterface(I/F)を介して計算機1に入力する。 As shown in FIG. 3 , sensor group 153 functions as sensor input section 1530 . The sensor input unit 1530 acquires information about the motion of an object to be observed, such as a person, an animal, or a robot, and inputs it to the computer 1 via an interface (I/F) as teacher data.

図3に示すように、マウス151やキーボード152等の入力装置は、タグ情報入力部1520として機能する。タグ情報入力部1520は、観察対象物の観察者からのタグ情報(「重み付け情報」と称してもよい。)入力を受け付け、受け付けたタグ情報をI/Fを介して計算機1に入力する。 As shown in FIG. 3, the input device such as mouse 151 and keyboard 152 functions as tag information input section 1520 . The tag information input unit 1520 accepts input of tag information (also referred to as “weighting information”) from the observer of the observation object, and inputs the accepted tag information to the computer 1 via the I/F.

特徴量計算部111は、センサ入力部1530から入力された教師データから特徴量を計算する。すなわち、特徴量計算部111は、教師データを取得する取得部として機能する。 The feature amount calculation unit 111 calculates feature amounts from the teacher data input from the sensor input unit 1530 . That is, the feature amount calculation unit 111 functions as an acquisition unit that acquires teacher data.

タグ情報重み付け部112は、タグ情報入力部1520から入力されたタグ情報に基づき、特徴量計算部111によって計算された特徴量に対して重み付けする。すなわち、タグ情報重み付け部112は、取得された教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部として機能する。 The tag information weighting section 112 weights the feature amount calculated by the feature amount calculating section 111 based on the tag information input from the tag information input section 1520 . That is, the tag information weighting unit 112 functions as a weighting unit that records weighting information indicating which of the motions of the observed object is closer to before or after the transition in the acquired teacher data.

特徴量出力部113は、タグ情報重み付け部112によって重み付けされた特徴量を出力する。 The feature quantity output section 113 outputs the feature quantity weighted by the tag information weighting section 112 .

学習モデル生成部114は、特徴量出力部113によって出力された特徴量に基づき、学習モデルを生成する。 The learning model generation unit 114 generates a learning model based on the feature quantity output by the feature quantity output unit 113 .

図4は、図2に示した計算機1における重み付け処理の詳細を説明する図である。 FIG. 4 is a diagram for explaining the details of weighting processing in computer 1 shown in FIG.

図4に示すように、センサ群153からの加速度や気圧についての生データに基づいて特徴量が時系列に教師データとして取得される(符号B1参照)。 As shown in FIG. 4, feature amounts are acquired as teacher data in time series based on raw data about acceleration and atmospheric pressure from the sensor group 153 (see symbol B1).

取得された教師データは、フィルタ特徴量計算により、特徴量#1及び#2とし計算される(符号B2参照)。フィルタ特徴量計算は、例えば、一定区間の平均値や最大値の計算によって行なわれる。計算される特徴量は、フィルタ設計に応じて3つ以上であってもよい。 The acquired teacher data are calculated as feature quantities #1 and #2 by filter feature quantity calculation (see symbol B2). Calculation of the filter feature amount is performed, for example, by calculating an average value or maximum value in a certain interval. Three or more features may be calculated depending on the filter design.

観察者は、被験者(別言すれば、「観察対象物」)の行動を観察して、動作のタグ付けを行なう(符号B3参照)。図示する例では、動作Aの場合にはJ1のタグ付けがされ、動作Bの場合にはJ2のタグ付けがされる。J1からJ2へ遷移する際には、観察者は、スライドバー131を用いて、動作がJ1よりかJ2よりかをアナログ的にタグ付けしてよい。 The observer observes the behavior of the subject (in other words, the “object to be observed”) and tags the behavior (see symbol B3). In the example shown, action A is tagged J1 and action B is tagged J2. When transitioning from J1 to J2, the observer may use slide bar 131 to analogically tag whether the action is from J1 or from J2.

すなわち、図3に示したタグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する重み付け部として機能する。 That is, the tag information weighting unit 112 shown in FIG. 3 functions as a weighting unit that acquires weighting information by receiving stepwise input regarding the state before and after the transition using the slide bar 131 displayed on the display device 130. .

図4の符号B3に示す例において、観察者は、J1からJ2へ迷いながらスライドバー131を左右に動かし、最終的にはJ2に移行したことを入力している。 In the example indicated by reference numeral B3 in FIG. 4, the observer moves the slide bar 131 left and right while hesitating from J1 to J2, and finally inputs that it has moved to J2.

符号B2において計算された特徴量#1及び#2と、符号B3において取得されたタグ情報とに基づき、遷移特徴量#1及び#2が生成される(符号B4参照)。それぞれの特徴量に対し、このように遷移状態をアナログ的に重み付けすることで、J1からJ2への特徴量がタグとして記録され、特徴量を厳密に教師データに反映できる。 Transition feature quantities #1 and #2 are generated based on the feature quantities #1 and #2 calculated in code B2 and the tag information acquired in code B3 (see code B4). By analogically weighting the transition state for each feature amount in this way, the feature amount from J1 to J2 is recorded as a tag, and the feature amount can be strictly reflected in the teacher data.

図5は、図2に示した計算機1における重み付け処理の第1の例を説明する図である。図6は、図2に示した計算機1における重み付け処理の第2の例を説明する図である。 FIG. 5 is a diagram for explaining a first example of weighting processing in computer 1 shown in FIG. FIG. 6 is a diagram for explaining a second example of weighting processing in computer 1 shown in FIG.

図5及び図6に示すように、観察者によるアナログ的なタグ付け領域(図5及び図6の符号C1参照)においてスライドバー131を用いたタグ付けが行なわれることにより、他の動きに紛れている特徴量についても、教師データとして反映できる。 As shown in FIGS. 5 and 6, tagging using the slide bar 131 is performed in an analog tagging region (see symbol C1 in FIGS. 5 and 6) by the observer, so that It is possible to reflect the feature quantity that is used as training data.

学習の際のコスト関数は、特徴量が

Figure 0007259322000001
であり、正解ラベルが
Figure 0007259322000002
であるとき、下記の数式1で表わされる。 The cost function for learning is
Figure 0007259322000001
and the correct label is
Figure 0007259322000002
is expressed by Equation 1 below.

Figure 0007259322000003
ただし、
Figure 0007259322000004
は、本実施形態の一例において計算できるサンプルの重み付けである。
Figure 0007259322000005
は、学習対象の特徴量重みである。
Figure 0007259322000006
は、ロス関数であり、例えはhinge-loss関数
Figure 0007259322000007
である。ここで、
Figure 0007259322000008
である。
Figure 0007259322000003
however,
Figure 0007259322000004
is the sample weighting that can be calculated in one example of this embodiment.
Figure 0007259322000005
is the feature weight to be learned.
Figure 0007259322000006
is the loss function, for example the hinge-loss function
Figure 0007259322000007
is. here,
Figure 0007259322000008
is.

ここで、全てのデータで

Figure 0007259322000009
であり、各々の時刻サンプルに対して全て等化となり、サンプルへのアノテーションの確からしさがモデル化できない。 where all the data
Figure 0007259322000009
, and all are equalized for each time sample, and the likelihood of annotation to the sample cannot be modeled.

図7は、図2に示した計算機1における重み付け情報へのアノテーションの確からしさの反映処理を説明する図である。 FIG. 7 is a diagram for explaining the process of reflecting the probability of annotation to the weighting information in the computer 1 shown in FIG.

サンプルへのアノテーションの確からしさをモデル化するために、図7に示すように、

Figure 0007259322000010
をスライドバー131の入力値として使用する。 To model the likelihood of annotations to samples, as shown in Figure 7,
Figure 0007259322000010
is used as the input value for the slide bar 131 .

これにより、サンプルへのアノテーションの確からしさをタグ付けに反映できる。 This makes it possible to reflect the likelihood of annotations to samples in tagging.

図8は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさのフィルタリング処理を説明する図である。 FIG. 8 is a diagram for explaining the filtering processing of annotation certainty for weighting information in computer 1 shown in FIG.

図8に示す例では、サンプルの重み付け

Figure 0007259322000011
において、前後のサンプルの変動が大きい区間を無視する。すなわち、
Figure 0007259322000012
は、以下の数式2によって表わされる。
Figure 0007259322000013
In the example shown in Figure 8, the sample weighting
Figure 0007259322000011
, we ignore sections where the fluctuations between the preceding and succeeding samples are large. i.e.
Figure 0007259322000012
is represented by Equation 2 below.
Figure 0007259322000013

すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする重み付け部の一例として機能する。 That is, the tag information weighting unit 112 shown in FIG. 3 functions as an example of a weighting unit that filters input weighting information based on likelihood.

これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。 As a result, it is possible to exclude uncertain feature amounts that cause the observer to hesitate in making a decision, so that learning is possible only for certain information.

図9は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさに応じた学習の変更処理を説明する図である。 FIG. 9 is a diagram for explaining learning change processing according to the certainty of annotations for weighting information in computer 1 shown in FIG.

図9に示す例においては、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させることで、より複雑な特徴量を含めて学習を加速できる。 In the example shown in FIG. 9, by learning easy-to-determine feature amounts in the early stage of learning and learning difficult feature amounts in the latter stage of learning, learning including more complex feature amounts can be accelerated.

すなわち、図9に示すように初期には

Figure 0007259322000014
を小さい
Figure 0007259322000015
に設定(別言すれば、「特徴量を判断しやすく設定」)して、後半には大きい
Figure 0007259322000016
に設定(別言すれば、「特徴量を判断しにくく設定」)して学習を繰り返す。 That is, initially as shown in FIG.
Figure 0007259322000014
the small
Figure 0007259322000015
(in other words, "set features so that they are easy to judge"), and in the latter half
Figure 0007259322000016
(in other words, “set to make it difficult to judge the feature quantity”) and repeat the learning.

1回目の学習は、以下の数式3によって表わされる。

Figure 0007259322000017
The first learning is represented by Equation 3 below.
Figure 0007259322000017

2回目の学習は、以下の数式4によって表わされる。

Figure 0007259322000018
The second learning is represented by Equation 4 below.
Figure 0007259322000018

すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう重み付け部の一例として機能する。 In other words, the tag information weighting unit 112 shown in FIG. 3 functions as an example of a weighting unit that changes learning based on the likelihood of inputting weighting information.

〔B-2〕動作例
図2に示した計算機1における重み付け処理を、図10に示すフローチャート(ステップS1~S10)に従って説明する。
[B-2] Operation Example The weighting process in the computer 1 shown in FIG. 2 will be described according to the flowchart (steps S1 to S10) shown in FIG.

特徴量計算部111は、センサ入力部1530からの観察対象物によるタグ情報J1で示される動作Aに関する情報の入力を受け付け、特徴量を計算する(ステップS1)。 The feature amount calculation unit 111 receives input of information about the action A indicated by the tag information J1 of the observed object from the sensor input unit 1530, and calculates a feature amount (step S1).

タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J1としてのタグ付けを示す重み“J1:1.0, J2:0.0”を付加する(ステップS2)。 The tag information weighting unit 112 adds weights "J1:1.0, J2:0.0" indicating tagging as the tag information J1 to the feature amount calculated by the feature amount calculation unit 111 (step S2).

タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J1で示される動作Aが終了したかを判定する(ステップS3)。 The tag information weighting unit 112 determines whether the action A indicated by the tag information J1 has ended based on the feature amount calculated by the feature amount calculation unit 111 and the input from the tag information input unit 1520 (step S3 ).

タグ情報J1で示される動作Aが終了していない場合には(ステップS3のNoルート参照)、処理はステップS2へ戻る。 If the operation A indicated by the tag information J1 has not ended (see No route in step S3), the process returns to step S2.

一方、タグ情報J1で示される動作Aが終了している場合には(ステップS3のYesルート参照)、処理はステップS4へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS4)。 On the other hand, if the action A indicated by the tag information J1 has been completed (see Yes route of step S3), the process proceeds to step S4. Then, the tag information weighting section 112 receives input of information indicating that the slide bar 131 has been slid from the J1 side to the J2 side from the tag information input section 1520 (step S4).

タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bが開始されたかを判定する(ステップS5)。 The tag information weighting unit 112 determines whether the operation B indicated by the tag information J2 has started based on the feature amount calculated by the feature amount calculation unit 111 and the input from the tag information input unit 1520 (step S5 ).

タグ情報J2で示される動作Bが開始されていない場合には(ステップS5のNoルート参照)、処理はステップS6へ進む。タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131のスライドが停止されたことを示す情報、又は、スライドバー131がJ2側からJ1側へスライドされたことを示す情報の入力を受け付ける(ステップS6)。そして、処理はステップS5へ戻る。 If the operation B indicated by the tag information J2 has not started (see No route in step S5), the process proceeds to step S6. The tag information weighting unit 112 receives from the tag information input unit 1520 input of information indicating that the slide bar 131 has stopped sliding or information indicating that the slide bar 131 has been slid from the J2 side to the J1 side. Accept (step S6). Then, the process returns to step S5.

一方、タグ情報J2で示される動作Bが開始されている場合には(ステップS5のYesルート参照)、処理はステップS7へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS7)。 On the other hand, if the operation B indicated by the tag information J2 has started (see Yes route in step S5), the process proceeds to step S7. Then, the tag information weighting unit 112 receives input of information indicating that the slide bar 131 has been slid from the J1 side to the J2 side from the tag information input unit 1520 (step S7).

タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bの開始が確定したかを判定する(ステップS8)。 The tag information weighting unit 112 determines whether the start of the action B indicated by the tag information J2 has been confirmed based on the feature amount calculated by the feature amount calculation unit 111 and the input from the tag information input unit 1520 ( step S8).

タグ情報J2で示される動作Bの開始が確定していない場合には(ステップS8のNoルート参照)、処理はステップS7へ戻る。 If the start of the action B indicated by the tag information J2 has not been determined (see No route in step S8), the process returns to step S7.

一方、タグ情報J2で示される動作Bの開始が確定した場合には(ステップS8のYesルート参照)、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ2側で確定したことを示す情報の入力を受け付ける(ステップS9)。 On the other hand, when the start of the action B indicated by the tag information J2 has been confirmed (see Yes route in step S8), the tag information weighting unit 112 receives from the tag information input unit 1520 that the slide bar 131 has been confirmed on the J2 side. Input of information indicating that is accepted (step S9).

タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J2としてのタグ付けを示す重み“J1:0.0, J2:1.0”を付加する(ステップS10)。そして、重み付け処理は終了する。 The tag information weighting unit 112 adds weights "J1:0.0, J2:1.0" indicating tagging as the tag information J2 to the feature amount calculated by the feature amount calculation unit 111 (step S10). The weighting process then ends.

〔B-3〕効果
上述した実施形態の一例における計算機1によれば、例えば、以下の作用効果を奏することができる。
[B-3] Effects According to the computer 1 in the example of the embodiment described above, for example, the following effects can be obtained.

特徴量計算部111は、教師データを取得する。タグ情報重み付け部112は、取得された教師データに対して、動作A又は動作B等の二値でのタグ付けでなく、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する。 The feature amount calculation unit 111 acquires teacher data. The tag information weighting unit 112 assigns weighting information to the acquired teacher data, which indicates whether the motion of the observation object is closer before or after the transition, instead of tagging the acquired teacher data with a binary value such as motion A or motion B. Record.

これにより、少ない教師データによって行動分析のための学習ができる。 As a result, learning for behavior analysis can be performed with a small amount of teacher data.

タグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する。 The tag information weighting unit 112 acquires weighting information by accepting stepwise input regarding the state before and after the transition using the slide bar 131 displayed on the display device 130 .

これにより、動作の遷移に対してアナログ的にきめ細やかなタグ付けができる。 This allows fine-grained analog tagging of motion transitions.

タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする。 The tag information weighting unit 112 filters input weighting information based on likelihood.

これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。 As a result, it is possible to exclude uncertain feature amounts that cause the observer to hesitate in making a decision, so that learning is possible only for certain information.

タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう。 The tag information weighting unit 112 changes the learning based on the likelihood of inputting the weighting information.

これにより、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させるカリキュラム学習を実施することで、より複雑な特徴量を含めて学習を加速できる。 As a result, it is possible to accelerate learning including more complex feature values by implementing curriculum learning in which easy-to-determine feature values are learned in the early stage of learning, and difficult feature values are learned in the latter stage of learning.

〔C〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
[C] Others The technology disclosed herein is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the embodiments. Each configuration and each process of the present embodiment can be selected as necessary, or may be combined as appropriate.

上述した実施形態の一例においては、観察者がスライドバー131によってアナログ的な重み付けを入力することとしたが、これに限定されるものではない。観察者によりアナログ的な重み付けの入力は、例えば、表示装置130に表示される入力ボックスに対して数値が入力されることにより行なわれてもよい。また、観察者によりアナログ的な重み付けの入力は、入力I/F15に接続されたダイヤルやつまみ等の多段階式のハードウェアスイッチにより行なわれてもよい。 In the above-described example of the embodiment, the observer inputs analog weighting using the slide bar 131, but the present invention is not limited to this. The analog weighting input by the observer may be performed, for example, by inputting numerical values into input boxes displayed on the display device 130 . Further, the input of analog weighting by the observer may be performed by multistage hardware switches such as dials and knobs connected to the input I/F 15 .

〔D〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
[D] Supplementary Notes Regarding the above embodiment, the following supplementary notes are disclosed.

(付記1)
教師データを取得する取得部と、
前記取得部によって取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部と、
を備える、情報処理装置。
(Appendix 1)
an acquisition unit that acquires teacher data;
a weighting unit that records weighting information indicating whether the motion of the observation target is closer to before or after the transition for the teacher data acquired by the acquisition unit;
An information processing device.

(付記2)
前記重み付け部は、表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記1に記載の情報処理装置。
(Appendix 2)
The weighting unit acquires the weighting information by accepting stepwise input regarding the state before and after the transition using a slide bar displayed on a display device.
The information processing device according to appendix 1.

(付記3)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記1又は2に記載の情報処理装置。
(Appendix 3)
The weighting unit filters the input of the weighting information based on likelihood.
The information processing device according to appendix 1 or 2.

(付記4)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
付記1又は2に記載の情報処理装置。
(Appendix 4)
The weighting unit changes the learning based on the likelihood of inputting the weighting information.
The information processing device according to appendix 1 or 2.

(付記5)
コンピュータに、
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
処理を実行させる、学習モデル生成プログラム。
(Appendix 5)
to the computer,
get teacher data,
recording weighting information indicating whether the movement of the observed object is closer to before or after the transition in the acquired teacher data;
A learning model generation program that executes processing.

(付記6)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
処理を前記コンピュータに実行させる、付記5に記載の学習モデル生成プログラム。
(Appendix 6)
Acquiring the weighting information by accepting stepwise input about the state before and after the transition using a slide bar displayed on the display device;
The learning model generation program according to appendix 5, causing the computer to execute processing.

(付記7)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
(Appendix 7)
filtering the input of the weighting information by probability;
7. The learning model generation program according to appendix 5 or 6, causing the computer to execute processing.

(付記8)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
(Appendix 8)
changing the learning based on the likelihood of inputting the weighting information;
7. The learning model generation program according to appendix 5 or 6, causing the computer to execute processing.

(付記9)
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
学習モデル生成方法。
(Appendix 9)
get teacher data,
recording weighting information indicating whether the movement of the observed object is closer to before or after the transition in the acquired teacher data;
Learning model generation method.

(付記10)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記9に記載の学習モデル生成方法。
(Appendix 10)
Acquiring the weighting information by accepting stepwise input about the state before and after the transition using a slide bar displayed on the display device;
The learning model generation method according to appendix 9.

(付記11)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記9又は10に記載の学習モデル生成方法。
(Appendix 11)
filtering the input of the weighting information by probability;
The learning model generation method according to appendix 9 or 10.

(付記12)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記9又は10に記載の学習モデル生成方法。
(Appendix 12)
changing the learning based on the likelihood of inputting the weighting information;
11. The learning model generation method according to appendix 9 or 10, wherein the processing is executed by the computer.

1 :計算機
11 :CPU
111 :特徴量計算部
112 :タグ情報重み付け部
113 :特徴量出力部
114 :学習モデル生成部
12 :メモリ
13 :表示制御部
130 :表示装置
131 :スライドバー
14 :記憶装置
15 :入力I/F
151 :マウス
152 :キーボード
153 :センサ群
1520 :タグ情報入力部
1530 :センサ入力部
16 :読み書き処理部
160 :記録媒体
17 :通信I/F
1: computer 11: CPU
111: feature amount calculation unit 112: tag information weighting unit 113: feature amount output unit 114: learning model generation unit 12: memory 13: display control unit 130: display device 131: slide bar 14: storage device 15: input I/F
151: Mouse 152: Keyboard 153: Sensor group 1520: Tag information input unit 1530: Sensor input unit 16: Read/write processing unit 160: Recording medium 17: Communication I/F

Claims (6)

センサデータを取得する取得部と、
前記取得部によって取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する重み付け部と、
を備える、情報処理装置。
an acquisition unit that acquires sensor data;
For the sensor data acquired by the acquisition unit, weighting information indicating whether the motion of the observation target is closer to before or after the transition is recorded by accepting stepwise input regarding the state before and after the transition. a weighting unit;
An information processing device.
前記重み付け部は、表示装置に表示されるスライドバーによって、前記段階的な入力を受け付ける、
請求項1に記載の情報処理装置。
The weighting unit receives the stepwise input by a slide bar displayed on a display device ;
The information processing device according to claim 1 .
前記重み付け部は、前記重み付け情報の入力に対して、確からしさでフィルタリングする、
請求項1又は2に記載の情報処理装置。
The weighting unit filters the input of the weighting information based on likelihood.
The information processing apparatus according to claim 1 or 2.
前記重み付け部は、前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
請求項1又は2に記載の情報処理装置。
The weighting unit changes the learning based on the likelihood of inputting the weighting information.
The information processing apparatus according to claim 1 or 2.
コンピュータに、
センサデータを取得し、
取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する、
処理を実行させる、学習モデル生成プログラム。
to the computer,
get sensor data,
For the acquired sensor data, weighting information indicating whether the motion of the observation target is closer before or after the transition is recorded by receiving stepwise input regarding the state before and after the transition.
A learning model generation program that executes processing.
センサデータを取得し、
取得された前記センサデータに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を、前記遷移前後の状態について段階的な入力を受け付けることにより、記録する、
学習モデル生成方法。
get sensor data,
For the acquired sensor data, weighting information indicating whether the motion of the observation target is closer before or after the transition is recorded by receiving stepwise input regarding the state before and after the transition.
Learning model generation method.
JP2018243074A 2018-12-26 2018-12-26 Information processing device, learning model generation program, and learning model generation method Active JP7259322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018243074A JP7259322B2 (en) 2018-12-26 2018-12-26 Information processing device, learning model generation program, and learning model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243074A JP7259322B2 (en) 2018-12-26 2018-12-26 Information processing device, learning model generation program, and learning model generation method

Publications (2)

Publication Number Publication Date
JP2020106945A JP2020106945A (en) 2020-07-09
JP7259322B2 true JP7259322B2 (en) 2023-04-18

Family

ID=71449114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243074A Active JP7259322B2 (en) 2018-12-26 2018-12-26 Information processing device, learning model generation program, and learning model generation method

Country Status (1)

Country Link
JP (1) JP7259322B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191556A (en) 2009-02-17 2010-09-02 Hitachi Ltd Abnormality detecting method and abnormality detecting system
US20160125307A1 (en) 2013-06-05 2016-05-05 Yu Zheng Air quality inference using multiple data sources
US20160171377A1 (en) 2013-08-05 2016-06-16 Movea Method, device and system for annotated capture of sensor data and crowd modelling of activities
JP2019159819A (en) 2018-03-13 2019-09-19 オムロン株式会社 Annotation method, annotation device, annotation program, and identification system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191556A (en) 2009-02-17 2010-09-02 Hitachi Ltd Abnormality detecting method and abnormality detecting system
US20160125307A1 (en) 2013-06-05 2016-05-05 Yu Zheng Air quality inference using multiple data sources
US20160171377A1 (en) 2013-08-05 2016-06-16 Movea Method, device and system for annotated capture of sensor data and crowd modelling of activities
JP2019159819A (en) 2018-03-13 2019-09-19 オムロン株式会社 Annotation method, annotation device, annotation program, and identification system

Also Published As

Publication number Publication date
JP2020106945A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
Nithya et al. Predictive analytics in health care using machine learning tools and techniques
Lu et al. Video object segmentation with episodic graph memory networks
JP7104059B2 (en) Probability-based Gaida
KR102014385B1 (en) Method and apparatus for learning surgical image and recognizing surgical action based on learning
US10766136B1 (en) Artificial intelligence system for modeling and evaluating robotic success at task performance
Xu et al. Radial graph convolutional network for visual question generation
Shi et al. Self-supervised discovering of interpretable features for reinforcement learning
US10766137B1 (en) Artificial intelligence system for modeling and evaluating robotic success at task performance
US11816457B2 (en) Program predictor
CN110383299B (en) Memory enhanced generation time model
KR20200063364A (en) Method and system for visualizing classification result of deep neural network for prediction of disease prognosis through time series medical data
Ma et al. Multi-level knowledge distillation for low-resolution object detection and facial expression recognition
JP2009282686A (en) Apparatus and method for learning classification model
RU2689818C1 (en) Method of interpreting artificial neural networks
Mohapatra HCR using neural network
KR20220049857A (en) Apparatus and mehod for labeling data
Selvam A deep learning framework for surgery action detection
JP7259322B2 (en) Information processing device, learning model generation program, and learning model generation method
Tian et al. Multi-scale Multi-task Distillation for Incremental 3D Medical Image Segmentation
JPWO2019207714A1 (en) Motion estimation system, motion estimation method and motion estimation program
Ramesh et al. Weakly Supervised Temporal Convolutional Networks for Fine-Grained Surgical Activity Recognition
JP2011138374A (en) Diagnostic device and diagnostic method
Lafouti et al. Surgical instrument tracking for capsulorhexis eye surgery based on siamese networks
Yahyaeian Enhancing Mechanical Engineering Education Through a Virtual Instructor in an Ai-Driven Virtual Reality Fatigue Test Lab
KR20210072528A (en) Method and apparatus for generating new chemical structure using neural network

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7259322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150