JP2020106945A - 情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 - Google Patents

情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 Download PDF

Info

Publication number
JP2020106945A
JP2020106945A JP2018243074A JP2018243074A JP2020106945A JP 2020106945 A JP2020106945 A JP 2020106945A JP 2018243074 A JP2018243074 A JP 2018243074A JP 2018243074 A JP2018243074 A JP 2018243074A JP 2020106945 A JP2020106945 A JP 2020106945A
Authority
JP
Japan
Prior art keywords
weighting
teacher data
unit
feature amount
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018243074A
Other languages
English (en)
Other versions
JP7259322B2 (ja
Inventor
境 克司
Katsushi Sakai
克司 境
村瀬 有一
Yuichi Murase
有一 村瀬
純也 藤本
Junya Fujimoto
純也 藤本
成幸 小田嶋
Shigeyuki Odajima
成幸 小田嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018243074A priority Critical patent/JP7259322B2/ja
Publication of JP2020106945A publication Critical patent/JP2020106945A/ja
Application granted granted Critical
Publication of JP7259322B2 publication Critical patent/JP7259322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】少ない教師データによって行動分析のための学習を可能にする情報処理装置、学習モデル生成プログラム及び学習モデル生成方法を提供する。【解決手段】情報処理装置は、教師データを取得する取得部と、取得部によって取得された教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部と、を備える。センサ群からの加速度や気圧についての生データに基づいて特徴量を時系列に教師データとして取得し、取得した教師データを、フィルタ特徴量計算により、特徴量#1及び#2として計算する。フィルタ特徴量計算は、一定区間の平均値や最大値の計算によって行なわれる。計算される特徴量は、フィルタ設計に応じて3つ以上であってもよい。【選択図】図4

Description

本発明は、情報処理装置、学習モデル生成プログラム及び学習モデル生成方法に関する。
近年、Artificial Intelligence(AI)の利用が活発になっている。また、様々な業務に適切に対応するアルゴリズムが開発されている。
業務における人の動きは複雑で、作業や行動の状態の分類(別言すれば、「ラベル付け」)は観察者からは判別しにくい。そこで、人の動きを考慮したラベル付けや質の良い教師データが作成される。
特開2018−72029号公報 特開2012−3494号公報 特開2016−149136号公報
しかしながら、観察者(別言すれば、「タグ付けする人」)による行動や動作のタグ付けが、該当行動であるか、該当行動でないかの二値である場合には、取得データの特徴量とタグ付け結果との間に差異が生じても、差異が教師データに反映されないおそれがある。
1つの側面では、少ない教師データによって行動分析のための学習を可能にすることを目的とする。
情報処理装置は、教師データを取得する取得部と、前記取得部によって取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部と、を備える。
1つの側面では、少ない教師データによって行動分析のための学習ができる。
関連例における教師データの取得処理を説明する図である。 実施形態の一例における計算機のハードウェア構成例を模式的に示すブロック図である。 図2に示した計算機の機能構成例を模式的に示すブロック図である。 図2に示した計算機における重み付け処理の詳細を説明する図である。 図2に示した計算機における重み付け処理の第1の例を説明する図である。 図2に示した計算機における重み付け処理の第2の例を説明する図である。 図2に示した計算機における重み付け情報へのアノテーションの確からしさの反映処理を説明する図である。 図2に示した計算機における重み付け情報に対するアノテーションの確からしさのフィルタリング処理を説明する図である。 図2に示した計算機における重み付け情報に対するアノテーションの確からしさに応じた学習の変更処理を説明する図である。 図2に示した計算機における重み付け処理を説明するフローチャートである。
以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。
また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
〔A〕関連例
図1は、関連例における教師データの取得処理を説明する図である。
図1に示す例において、例えば、動作A及び動作Bに対して観察者によるタグ付けを行なう際に、センサ状態は動作Aから動作Bへの特徴を表わしている(符号A1参照)。
しかしながら、確実に動作Bが確認できてからタグ付けが行なわれる場合には(符号A2参照)、特徴量の発現が埋もれてしまい、教師データとしての精度が不十分になる。
そして、図1に示すように、データセット#1とデータセット#2とが存在する場合には、観察者がタグ付けする際に、観察者の主観によって、データセット毎に、実際の特徴量の変動タイミングとタグ付けタイミングとの間でずれが生じるおそれがある。
〔B〕実施形態の一例
〔B−1〕システム構成例
図2は、実施形態の一例における計算機1のハードウェア構成例を模式的に示すブロック図である。
計算機1は、Central Processing Unit(CPU)11,メモリ12,表示制御部13,記憶装置14,入力Interface(I/F)15,読み書き処理部16及び通信I/F17を備える。
メモリ12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)を含む記憶装置である。メモリ12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ12のRAMは、一次記録メモリあるいはワーキングメモリとして利用されてよい。
表示制御部13は、表示装置130と接続され、表示装置130を制御する。表示装置130は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置130は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。
記憶装置14は、例示的に、データを読み書き可能に記憶する装置であり、例えば、Hard Disk Drive(HDD)やSolid State Drive(SSD),Storage Class Memory(SCM)が用いられてよい。
入力I/F15は、マウス151やキーボード152,センサ群153等の入力装置と接続され、マウス151やキーボード152,センサ群153等の入力装置を制御する。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行なう。センサ群153は、観察対象物である人や動物,ロボット等の動作に関する情報を取得する。
読み書き処理部16は、記録媒体160が装着可能に構成される。読み書き処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。
通信I/F17は、外部装置との通信を可能にするためのインタフェースである。
CPU11は、種々の制御や演算を行なう処理装置であり、メモリ12に格納されたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
計算機1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、WMS1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
図3は、図2に示した計算機1の機能構成例を模式的に示すブロック図である。
計算機1は、図3に示すように、特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能する。
なお、これらの特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114として機能を実現するためのプログラムは、例えば前述した記録媒体160に記録された形態で提供される。そして、コンピュータは読み書き処理部16を介してその記録媒体160からプログラムを読み取って内部記憶装置または外部記憶装置に転送し格納して用いる。また、そのプログラムを、例えば磁気ディスク,光ディスク,光磁気ディスク等の記憶装置(記録媒体)に記録しておき、その記憶装置から通信経路を介してコンピュータに提供してもよい。
特徴量計算部111,タグ情報重み付け部112,特徴量出力部113及び学習モデル生成部114としての機能を実現する際には、内部記憶装置に格納されたプログラムがコンピュータのマイクロプロセッサによって実行される。このとき、記録媒体160に記録されたプログラムをコンピュータが読み取って実行してもよい。なお、本実施形態において、内部記憶装置はメモリ12であり、マイクロプロセッサはCPU11である。
図3に示すように、センサ群153は、センサ入力部1530として機能する。センサ入力部1530は、観察対象物である人や動物,ロボット等の動作に関する情報を取得して、教師データとしてInterface(I/F)を介して計算機1に入力する。
図3に示すように、マウス151やキーボード152等の入力装置は、タグ情報入力部1520として機能する。タグ情報入力部1520は、観察対象物の観察者からのタグ情報(「重み付け情報」と称してもよい。)入力を受け付け、受け付けたタグ情報をI/Fを介して計算機1に入力する。
特徴量計算部111は、センサ入力部1530から入力された教師データから特徴量を計算する。すなわち、特徴量計算部111は、教師データを取得する取得部として機能する。
タグ情報重み付け部112は、タグ情報入力部1520から入力されたタグ情報に基づき、特徴量計算部111によって計算された特徴量に対して重み付けする。すなわち、タグ情報重み付け部112は、取得された教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部として機能する。
特徴量出力部113は、タグ情報重み付け部112によって重み付けされた特徴量を出力する。
学習モデル生成部114は、特徴量出力部113によって出力された特徴量に基づき、学習モデルを生成する。
図4は、図2に示した計算機1における重み付け処理の詳細を説明する図である。
図4に示すように、センサ群153からの加速度や気圧についての生データに基づいて特徴量が時系列に教師データとして取得される(符号B1参照)。
取得された教師データは、フィルタ特徴量計算により、特徴量#1及び#2とし計算される(符号B2参照)。フィルタ特徴量計算は、例えば、一定区間の平均値や最大値の計算によって行なわれる。計算される特徴量は、フィルタ設計に応じて3つ以上であってもよい。
観察者は、被験者(別言すれば、「観察対象物」)の行動を観察して、動作のタグ付けを行なう(符号B3参照)。図示する例では、動作Aの場合にはJ1のタグ付けがされ、動作Bの場合にはJ2のタグ付けがされる。J1からJ2へ遷移する際には、観察者は、スライドバー131を用いて、動作がJ1よりかJ2よりかをアナログ的にタグ付けしてよい。
すなわち、図3に示したタグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する重み付け部として機能する。
図4の符号B3に示す例において、観察者は、J1からJ2へ迷いながらスライドバー131を左右に動かし、最終的にはJ2に移行したことを入力している。
符号B2において計算された特徴量#1及び#2と、符号B3において取得されたタグ情報とに基づき、遷移特徴量#1及び#2が生成される(符号B4参照)。それぞれの特徴量に対し、このように遷移状態をアナログ的に重み付けすることで、J1からJ2への特徴量がタグとして記録され、特徴量を厳密に教師データに反映できる。
図5は、図2に示した計算機1における重み付け処理の第1の例を説明する図である。図6は、図2に示した計算機1における重み付け処理の第2の例を説明する図である。
図5及び図6に示すように、観察者によるアナログ的なタグ付け領域(図5及び図6の符号C1参照)においてスライドバー131を用いたタグ付けが行なわれることにより、他の動きに紛れている特徴量についても、教師データとして反映できる。
学習の際のコスト関数は、特徴量が
Figure 2020106945
であり、正解ラベルが
Figure 2020106945
であるとき、下記の数式1で表わされる。
Figure 2020106945
ただし、
Figure 2020106945
は、本実施形態の一例において計算できるサンプルの重み付けである。
Figure 2020106945
は、学習対象の特徴量重みである。
Figure 2020106945
は、ロス関数であり、例えはhinge-loss関数
Figure 2020106945
である。ここで、
Figure 2020106945
である。
ここで、全てのデータで
Figure 2020106945
であり、各々の時刻サンプルに対して全て等化となり、サンプルへのアノテーションの確からしさがモデル化できない。
図7は、図2に示した計算機1における重み付け情報へのアノテーションの確からしさの反映処理を説明する図である。
サンプルへのアノテーションの確からしさをモデル化するために、図7に示すように、
Figure 2020106945
をスライドバー131の入力値として使用する。
これにより、サンプルへのアノテーションの確からしさをタグ付けに反映できる。
図8は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさのフィルタリング処理を説明する図である。
図8に示す例では、サンプルの重み付け
Figure 2020106945
において、前後のサンプルの変動が大きい区間を無視する。すなわち、
Figure 2020106945
は、以下の数式2によって表わされる。
Figure 2020106945
すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする重み付け部の一例として機能する。
これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。
図9は、図2に示した計算機1における重み付け情報に対するアノテーションの確からしさに応じた学習の変更処理を説明する図である。
図9に示す例においては、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させることで、より複雑な特徴量を含めて学習を加速できる。
すなわち、図9に示すように初期には
Figure 2020106945
を小さい
Figure 2020106945
に設定(別言すれば、「特徴量を判断しやすく設定」)して、後半には大きい
Figure 2020106945
に設定(別言すれば、「特徴量を判断しにくく設定」)して学習を繰り返す。
1回目の学習は、以下の数式3によって表わされる。
Figure 2020106945
2回目の学習は、以下の数式4によって表わされる。
Figure 2020106945
すなわち、図3に示したタグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう重み付け部の一例として機能する。
〔B−2〕動作例
図2に示した計算機1における重み付け処理を、図10に示すフローチャート(ステップS1〜S10)に従って説明する。
特徴量計算部111は、センサ入力部1530からの観察対象物によるタグ情報J1で示される動作Aに関する情報の入力を受け付け、特徴量を計算する(ステップS1)。
タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J1としてのタグ付けを示す重み“J1:1.0, J2:0.0”を付加する(ステップS2)。
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J1で示される動作Aが終了したかを判定する(ステップS3)。
タグ情報J1で示される動作Aが終了していない場合には(ステップS3のNoルート参照)、処理はステップS2へ戻る。
一方、タグ情報J1で示される動作Aが終了している場合には(ステップS3のYesルート参照)、処理はステップS4へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS4)。
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bが開始されたかを判定する(ステップS5)。
タグ情報J2で示される動作Bが開始されていない場合には(ステップS5のNoルート参照)、処理はステップS6へ進む。タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131のスライドが停止されたことを示す情報、又は、スライドバー131がJ2側からJ1側へスライドされたことを示す情報の入力を受け付ける(ステップS6)。そして、処理はステップS5へ戻る。
一方、タグ情報J2で示される動作Bが開始されている場合には(ステップS5のYesルート参照)、処理はステップS7へ移行する。そして、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ1側からJ2側へスライドされたことを示す情報の入力を受け付ける(ステップS7)。
タグ情報重み付け部112は、特徴量計算部111によって計算された特徴量と、タグ情報入力部1520からの入力とに基づき、タグ情報J2で示される動作Bの開始が確定したかを判定する(ステップS8)。
タグ情報J2で示される動作Bの開始が確定していない場合には(ステップS8のNoルート参照)、処理はステップS7へ戻る。
一方、タグ情報J2で示される動作Bの開始が確定した場合には(ステップS8のYesルート参照)、タグ情報重み付け部112は、タグ情報入力部1520から、スライドバー131がJ2側で確定したことを示す情報の入力を受け付ける(ステップS9)。
タグ情報重み付け部112は、特徴量計算部111によって算出された特徴量に対して、タグ情報J2としてのタグ付けを示す重み“J1:0.0, J2:1.0”を付加する(ステップS10)。そして、重み付け処理は終了する。
〔B−3〕効果
上述した実施形態の一例における計算機1によれば、例えば、以下の作用効果を奏することができる。
特徴量計算部111は、教師データを取得する。タグ情報重み付け部112は、取得された教師データに対して、動作A又は動作B等の二値でのタグ付けでなく、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する。
これにより、少ない教師データによって行動分析のための学習ができる。
タグ情報重み付け部112は、表示装置130に表示されるスライドバー131によって、遷移前後の状態について段階的な入力を受け付けることにより、重み付け情報を取得する。
これにより、動作の遷移に対してアナログ的にきめ細やかなタグ付けができる。
タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさでフィルタリングする。
これにより、観察者の判断に迷う不確実な特徴量を除外して扱うことができ、確実な情報に限って学習可能になる。
タグ情報重み付け部112は、重み付け情報の入力に対して、確からしさで学習の変更を行なう。
これにより、学習初期では判断しやすい特徴量を学習させ、学習後期では難しい特徴量を学習させるカリキュラム学習を実施することで、より複雑な特徴量を含めて学習を加速できる。
〔C〕その他
開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
上述した実施形態の一例においては、観察者がスライドバー131によってアナログ的な重み付けを入力することとしたが、これに限定されるものではない。観察者によりアナログ的な重み付けの入力は、例えば、表示装置130に表示される入力ボックスに対して数値が入力されることにより行なわれてもよい。また、観察者によりアナログ的な重み付けの入力は、入力I/F15に接続されたダイヤルやつまみ等の多段階式のハードウェアスイッチにより行なわれてもよい。
〔D〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
教師データを取得する取得部と、
前記取得部によって取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部と、
を備える、情報処理装置。
(付記2)
前記重み付け部は、表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記1に記載の情報処理装置。
(付記3)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記1又は2に記載の情報処理装置。
(付記4)
前記重み付け部は、前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
付記1又は2に記載の情報処理装置。
(付記5)
コンピュータに、
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
処理を実行させる、学習モデル生成プログラム。
(付記6)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
処理を前記コンピュータに実行させる、付記5に記載の学習モデル生成プログラム。
(付記7)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
(付記8)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記5又は6に記載の学習モデル生成プログラム。
(付記9)
教師データを取得し、
取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
学習モデル生成方法。
(付記10)
表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
付記9に記載の学習モデル生成方法。
(付記11)
前記重み付け情報の入力に対して、確からしさでフィルタリングする、
付記9又は10に記載の学習モデル生成方法。
(付記12)
前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
処理を前記コンピュータに実行させる、付記9又は10に記載の学習モデル生成方法。
1 :計算機
11 :CPU
111 :特徴量計算部
112 :タグ情報重み付け部
113 :特徴量出力部
114 :学習モデル生成部
12 :メモリ
13 :表示制御部
130 :表示装置
131 :スライドバー
14 :記憶装置
15 :入力I/F
151 :マウス
152 :キーボード
153 :センサ群
1520 :タグ情報入力部
1530 :センサ入力部
16 :読み書き処理部
160 :記録媒体
17 :通信I/F

Claims (6)

  1. 教師データを取得する取得部と、
    前記取得部によって取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する重み付け部と、
    を備える、情報処理装置。
  2. 前記重み付け部は、表示装置に表示されるスライドバーによって、前記遷移前後の状態について段階的な入力を受け付けることにより、前記重み付け情報を取得する、
    請求項1に記載の情報処理装置。
  3. 前記重み付け部は、前記重み付け情報の入力に対して、確からしさでフィルタリングする、
    請求項1又は2に記載の情報処理装置。
  4. 前記重み付け部は、前記重み付け情報の入力に対して、確からしさで学習の変更を行なう、
    請求項1又は2に記載の情報処理装置。
  5. コンピュータに、
    教師データを取得し、
    取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
    処理を実行させる、学習モデル生成プログラム。
  6. 教師データを取得し、
    取得された前記教師データに対して、観察対象物の動作が遷移前後のどちらに近いかを示す重み付け情報を記録する、
    学習モデル生成方法。
JP2018243074A 2018-12-26 2018-12-26 情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 Active JP7259322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018243074A JP7259322B2 (ja) 2018-12-26 2018-12-26 情報処理装置、学習モデル生成プログラム及び学習モデル生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243074A JP7259322B2 (ja) 2018-12-26 2018-12-26 情報処理装置、学習モデル生成プログラム及び学習モデル生成方法

Publications (2)

Publication Number Publication Date
JP2020106945A true JP2020106945A (ja) 2020-07-09
JP7259322B2 JP7259322B2 (ja) 2023-04-18

Family

ID=71449114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243074A Active JP7259322B2 (ja) 2018-12-26 2018-12-26 情報処理装置、学習モデル生成プログラム及び学習モデル生成方法

Country Status (1)

Country Link
JP (1) JP7259322B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191556A (ja) * 2009-02-17 2010-09-02 Hitachi Ltd 異常検知方法及び異常検知システム
US20160125307A1 (en) * 2013-06-05 2016-05-05 Yu Zheng Air quality inference using multiple data sources
US20160171377A1 (en) * 2013-08-05 2016-06-16 Movea Method, device and system for annotated capture of sensor data and crowd modelling of activities
JP2019159819A (ja) * 2018-03-13 2019-09-19 オムロン株式会社 アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010191556A (ja) * 2009-02-17 2010-09-02 Hitachi Ltd 異常検知方法及び異常検知システム
US20160125307A1 (en) * 2013-06-05 2016-05-05 Yu Zheng Air quality inference using multiple data sources
US20160171377A1 (en) * 2013-08-05 2016-06-16 Movea Method, device and system for annotated capture of sensor data and crowd modelling of activities
JP2019159819A (ja) * 2018-03-13 2019-09-19 オムロン株式会社 アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム

Also Published As

Publication number Publication date
JP7259322B2 (ja) 2023-04-18

Similar Documents

Publication Publication Date Title
Moglia et al. A systematic review on artificial intelligence in robot-assisted surgery
Phillips et al. FFTrees: A toolbox to create, visualize, and evaluate fast-and-frugal decision trees
Nithya et al. Predictive analytics in health care using machine learning tools and techniques
Wayne et al. Unsupervised predictive memory in a goal-directed agent
CN110383299B (zh) 记忆增强的生成时间模型
KR20200063364A (ko) 시계열 의료 데이터를 통한 질병 예후 예측을 위한 딥 뉴럴 네트워크의 분류 결과 시각화 방법 및 시스템
US20200004561A1 (en) User interface for determining real-time changes to content entered into the user interface to provide to a classifier program and rules engine to generate results for the content
CN112074915A (zh) 生物医学预测的可视化
JP2009282686A (ja) 分類モデル学習装置および分類モデル学習方法
CN110709864A (zh) 人机回环交互式模型训练
RU2689818C1 (ru) Способ интерпретации искусственных нейронных сетей
US20220044147A1 (en) Teaching data extending device, teaching data extending method, and program
JP2020071694A (ja) 計算機システム
US11995524B2 (en) System and method for providing automatic guidance in data flow journeys
Doughty et al. SurgeonAssist-Net: towards context-aware head-mounted display-based augmented reality for surgical guidance
JP2020101948A (ja) 行動認識システム及び行動認識方法
Kueper Primer for artificial intelligence in primary care
JP7059151B2 (ja) 時系列データ分析装置、時系列データ分析方法、および時系列データ分析プログラム
CN108932593B (zh) 一种认知影响因素分析方法及装置
Zhang et al. Histopathological image recognition with domain knowledge based deep features
JP7259322B2 (ja) 情報処理装置、学習モデル生成プログラム及び学習モデル生成方法
Klüttermann et al. On the Efficient Explanation of Outlier Detection Ensembles Through Shapley Values
JP5447831B2 (ja) 診断装置および診断方法
Jayakrishnan et al. The Taxonomy of Enterprise Architecture towards High Technology High Value Approach In Malaysian Transportation Industry
CN117355804A (zh) 用于工业机器的预测性维护

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R150 Certificate of patent or registration of utility model

Ref document number: 7259322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150