JP7249580B2 - 付与方法、付与プログラム及び付与装置 - Google Patents

付与方法、付与プログラム及び付与装置 Download PDF

Info

Publication number
JP7249580B2
JP7249580B2 JP2019036210A JP2019036210A JP7249580B2 JP 7249580 B2 JP7249580 B2 JP 7249580B2 JP 2019036210 A JP2019036210 A JP 2019036210A JP 2019036210 A JP2019036210 A JP 2019036210A JP 7249580 B2 JP7249580 B2 JP 7249580B2
Authority
JP
Japan
Prior art keywords
segment
time
label
series data
assigning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019036210A
Other languages
English (en)
Other versions
JP2020140499A (ja
Inventor
保志 櫻井
靖子 松原
恭彰 入船
冴 山室
光希 川畑
晃 浦
孝 河東
裕平 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Kumamoto University NUC
Original Assignee
Fujitsu Ltd
Kumamoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Kumamoto University NUC filed Critical Fujitsu Ltd
Priority to JP2019036210A priority Critical patent/JP7249580B2/ja
Priority to US16/801,165 priority patent/US11438277B2/en
Publication of JP2020140499A publication Critical patent/JP2020140499A/ja
Application granted granted Critical
Publication of JP7249580B2 publication Critical patent/JP7249580B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/04Processing captured monitoring data, e.g. for logfile generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/78Architectures of resource allocation
    • H04L47/781Centralised allocation of resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0805Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/50Routing or path finding of packets in data switching networks using label swapping, e.g. multi-protocol label switch [MPLS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/80Actions related to the user profile or the type of traffic
    • H04L47/801Real time traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/82Miscellaneous aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、付与方法、付与プログラム及び付与装置に関する。
従来、時系列データの特徴に基づき、当該時系列データにラベルを付与する技術が知られている。ラベルが付与された時系列データは、例えば教師あり機械学習における教師データとして用いられる。
山室冴、松原靖子、川畑光希、井手優介、梅田裕平、古川忠延、大川佳寛、丸橋弘治、稲越宏弥、櫻井保志、「深層学習を用いた時系列データの要約と分類」、DEIM Forum 2018 C3-3
しかしながら、上記の技術では、時系列データの詳細な分析を効率良く行うことが困難な場合があるという問題がある。
例えば、作業者が装着した加速度センサから1日の間に得られる時系列データを使って、作業の進捗管理等を目的とした分析を行うことを考える。このとき、上記の技術によれば、1日の間に得られた時系列データに、その日の代表的な作業に対応する1つのラベルを付与することができる。
ここで、時系列データの特徴は時間の経過によって変化する場合がある。例えば、作業者は1日のうちに複数の異なる作業を行うため、作業の変化にともない加速度センサから得られるデータの特徴が変化することが考えられる。その場合、上記の技術では、代表的な作業以外の作業内容を分析することは困難である。
また、時系列データを所定の時間区間で分割し、各時間区間ごとに人手でラベルを付与する方法が考えられるが、この方法では時間効率及びラベル付与の精度が非常に悪くなる場合がある。さらに、各時間区間のデータがどのラベルに対応しているかを特定することが困難な場合もある。
1つの側面では、時系列データの詳細な分析を効率良く行うことを目的とする。
1つの態様において、付与方法は、複数の時系列データのそれぞれを複数のセグメントに分割する処理をコンピュータが実行する。付与方法は、複数の時系列データの各セグメントの特徴を基に、複数の時系列データのそれぞれにラベルを付与する処理をコンピュータが実行する。付与方法は、時系列データの所定のセグメントに、当該セグメントが属する時系列データに付与されたラベルを付与する処理をコンピュータが実行する。
1つの側面では、時系列データの詳細な分析を効率良く行うことができる。
図1は、実施例に係る分析システムの機能構成の一例を示す図である。 図2は、実施例に係る付与装置の機能構成の一例を示す図である。 図3は、分類モデルについて説明するための図である。 図4は、セグメント情報テーブルの一例を示す図である。 図5は、重要度が高いセグメントへのラベルの付与方法を説明するための図である。 図6は、重要度が低いセグメントへのラベルの付与方法を説明するための図である。 図7は、カウント法におけるcountingを説明するための図である。 図8は、カウント法におけるtie-break countingを説明するための図である。 図9は、ソート法におけるソートを説明するための図である。 図10は、ソート法におけるラベルの付与方法を説明するための図である。 図11は、付与処理の流れを示すフローチャートである。 図12は、カウント法による後処理の流れを示すフローチャートである。 図13は、countingの流れを示すフローチャートである。 図14は、labelingの流れを示すフローチャートである。 図15は、tie-break countingの流れを示すフローチャートである。 図16は、tie-break labelingの流れを示すフローチャートである。 図17は、ソート法による後処理の流れを示すフローチャートである。 図18は、ハードウェア構成例を説明する図である。
以下に、本発明の付与方法、付与プログラム及び付与装置の実施例を図面に基づいて詳細に説明する。なお、この実施例により本発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
まず、実施例における時系列データについて説明する。例えば、時系列データは、加速度センサ等から得られるセンサデータや、Webサイトのアクセス履歴等である。ここで、例えば、非特許文献1に記載された分類モデルであるDeepPlaitによれば、時系列データにラベルを付与することができる。
ラベルは、時系列データの属性を表す情報である。例えば、時系列データが、フリースローを行う選手に装着した加速度センサから得られるセンサデータである場合、ラベルは、当該フリースローが成功するか失敗するかを表す情報であってよい。また、時系列データが、作業者に装着した加速度センサから1日の間に得られたセンサデータである場合、ラベルは、作業者がその日に行った代表的な作業を表す情報であってよい。
ここで、時系列データは、内部に複数のパターンを含む場合がある。例えば、ネットワーク通信のモニタリングシステムから発生する時系列データには、正常なパターンと異常なパターンが含まれる。また、作業者に装着した加速度センサから得られるセンサデータには、時間帯ごとの作業内容に応じた様々なパターンが含まれる。
従来の技術では、1つの時系列データに対し1つのラベルが付与される。一方で、時系列データに対して付与されたラベルは、当該時系列データに含まれるパターンの全てに対応しているとは限らない。つまり、従来技術では、当該時系列データを代表するたかだか1つのパターンに対応するラベルが付与されるに過ぎない。このため、例えば、従来技術では、複数の時系列データからパターンごとのデータを抽出し分析を行うことが困難である。
これに対し、実施例の分析システムは、時系列データに含まれるパターンごとにラベルを付与し、当該パターンごとにラベルが付与された時系列データを使って分析を行うことができる。
ここで、実施例における用語について説明する。まず、分類モデルによって時系列データに付与されるラベルをデータラベルと呼ぶ。また、時系列データに含まれるパターンをクラスタと呼ぶ。また、クラスタごとに区切られた時間区間に対応する時系列データの部分をセグメントと呼ぶ。そして、分析システムによってセグメントごとに付与されるラベルをセグメントラベルと呼ぶ。
図1を用いて、分析システムについて説明する。図1は、実施例に係る分析システムの機能構成の一例を示す図である。図1に示すように、分析システム1Sは、付与装置10及び分析装置20を有する。
付与装置10は、時系列データを分割した各セグメントへのセグメントラベルの付与を行うための装置である。付与装置10は、学習用データを用いて分類モデルの学習を行う。そして、付与装置10は、学習済みの分類モデルによる分類結果に対し所定の後処理を行うことで、セグメントラベルの付与を行う。また、以降の説明では、付与装置10がデータラベル又はセグメントラベルの付与を行うことを予測と呼ぶ。
分類モデルは、時系列データに対するデータラベルの付与、セグメントへの分割、クラスタへのセグメントの分類及び各セグメントに対するスコアの算出を行うことができるものであればよい。実施例では、分類モデルは非特許文献1に記載のDeepPlaitであるものとする。また、DeepPlaitは、DNN(Deep Neural Network)を用いたモデルである。
図1に示すように、付与装置10には時系列データが入力される。分類モデルの学習の際には、事前に人手等によりデータラベルが付与された時系列データが付与装置10に入力される。一方、予測の際に付与装置10に入力される時系列データには、データラベルが付与されていてもよいし、データラベルが付与されていなくてもよい。
付与装置10は、セグメントラベルを付与した時系列データを出力する。セグメントラベルの付与方法については、後に付与装置10の構成とともに説明する。そして、付与装置10によって出力されたセグメントラベルを付与済みの時系列データは、分析装置20に入力される。
分析装置20は、セグメントラベルを付与済みの時系列データの分析を行う。例えば、分析装置20は、特定のセグメントラベルが付与されたセグメントのデータを抽出し、当該抽出したデータを分析してもよい。また、分析装置20は、セグメントラベル及び対応するセグメントのデータの特徴を学習し、セグメントラベルを付与するためのモデルを生成してもよい。
[機能構成]
図2を用いて、実施例に係る付与装置の機能構成について説明する。図2は、実施例に係る付与装置の機能構成の一例を示す図である。図2に示すように、付与装置10は、インタフェース部11、記憶部12及び制御部13を有する。
インタフェース部11は、入出力装置との間のデータの入出力、及び他の装置との間でのデータの通信を行うためのインタフェースである。例えば、インタフェース部11は、キーボードやマウス等の入力装置、ディスプレイやスピーカ等の出力装置、USBメモリ等の外部記憶装置との間でデータの入出力を行う。また、例えば、インタフェース部11はNIC(Network Interface Card)であり、インターネットを介してデータの通信を行う。
記憶部12は、データや制御部13が実行するプログラム等を記憶する記憶装置の一例であり、例えばハードディスクやメモリ等である。記憶部12は、分類モデル情報121及びセグメント情報テーブル122を記憶する。
分類モデル情報121は、分類モデルのパラメータである。例えば、分類モデル情報121は、DNNの重み及びバイアス等の学習可能なパラメータである。このため、分類モデル情報121は、分類モデルの学習の際に更新される。セグメント情報テーブル122は、セグメントラベルを付与する後処理において使用されるテーブルである。セグメント情報テーブル122のデータ構造については、後処理の手順とともに後に説明する。
制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部13は、分割部131、分類部132、算出部133、データラベル付与部134、更新部135及びセグメントラベル付与部136を有する。
分割部131、分類部132、算出部133及びデータラベル付与部134は、分類モデルを用いた処理を行う。分割部131、分類部132、算出部133及びデータラベル付与部134は、非特許文献1の第4節に記載された処理と同様の処理を行うことができる。
分割部131は、複数の時系列データのそれぞれを複数のセグメントに分割する。また、分類部132は、複数のセグメントを、各セグメントにおける時系列データの特徴に基づいて複数のクラスタに分類する。データラベル付与部134は、複数の時系列データの各セグメントの特徴を基に、複数の時系列データのそれぞれにラベルを付与する。また、算出部133は、データラベル付与部134による処理における、複数のセグメントのそれぞれの重要度を算出する。なお、データラベル付与部134は、第1の付与部の一例である。
例えば、データラベル付与部134は、RNN(Recurrent Neural Network)層及びRNN層の出力をセグメント単位で加重する重みを出力するAttentionを有するニューラルネットワークを用いてラベルを付与することができる。このとき、算出部133は、Attentionの出力を重要度として算出することができる。
更新部135は、学習処理を行う。学習処理において、まず、データラベル付与部134は、正解のデータラベルが事前に付与された時系列データに対し、分類モデルを用いてデータラベルを付与する。そして、更新部135は、付与されたデータラベルと正解のデータラベルとの差分を基に分類モデルのパラメータ、すなわち分類モデル情報121を最適化する。なお、予測処理においては、データラベル付与部134は、正解のデータラベルが未知の時系列データに対し、学習済みの分類モデルを用いてデータラベルを付与する。
ここで、図3を用いて、分類モデルについて説明する。図3は、分類モデルについて説明するための図である。図3の例では、時系列データは、フリースローを行う選手に装着した加速度センサから得られるセンサデータである。また、データラベルは、当該フリースローが成功するか失敗するかを表す情報である。
学習処理において、付与装置10は、データラベルとして「成功」又は「失敗」が事前に付与された時系列データを使って分類モデルの学習を行う。また、予測処理において、付与装置10は、正解のデータラベルが未知の時系列データのデータラベルが「成功」であるか「失敗」であるかを予測する。
予測処理において、付与装置10は、学習済みの分類モデルを用いて、データラベルが未知の時系列データをセグメントに分割し、各セグメントをクラスタに分類する。さらに、付与装置10は、学習済みの分類モデルを用いて、各セグメントの重要度を算出し、データラベルを予測する。なお、説明を省略したが、学習処理においても、予測処理と同様にセグメントの分割、クラスタの分類及び重要度の算出が行われる。
図3の例では、各セグメントが色を分けた上で表示されている。ここでは、予測において重要であったセグメントほど濃い色で表示される。例えば、図3には、時刻800から時刻1200までのセグメントが、クラスタIDが1であるクラスタに分類され、重要度が最も高かったことが示されている。また、重要度は、予測における寄与度と言い換えることができる。
データラベル付与部134は、データラベルの付与結果をセグメント情報テーブル122に格納する。図4を用いて、セグメント情報テーブル122について説明する。図4は、セグメント情報テーブルの一例を示す図である。
図4に示すように、データラベル付与部134は、時系列データd1及び時系列データd2を含む複数の時系列データのデータラベルの付与結果をセグメント情報テーブル122に格納する。ここで、時系列データには、時刻及び時刻ごとの少なくとも1種類の値が含まれる。また、セグメント情報テーブル122の項目には、時系列データ名、セグメント開始時刻、セグメント終了時刻、クラスタID、重要度及び予測データラベルが含まれる。
例えば、図4のセグメント情報テーブル122の1行目のレコードは、時系列データd1の時刻0から時刻100までのセグメントのクラスタIDが1であり、重要度が0.8であり、付与されたデータラベルが「a」であったことを示している。
セグメントラベル付与部136は、複数のセグメントごとのクラスタ及び重要度に基づいてラベルを付与する。例えば、セグメントラベル付与部136は、時系列データの所定のセグメントに、当該セグメントが属する時系列データに付与されたラベルを付与する。なお、セグメントラベル付与部136は、第2の付与部の一例である。
ここで、セグメントラベル付与部136は、セグメントの重要度が高いほど、セグメントが属する時系列データと同じラベルが付与されやすくなるようにラベルを付与することができる。
図5は、重要度が高いセグメントへのラベルの付与方法を説明するための図である。図5に示すように、まず、付与装置10は、各時系列データに対して予測データラベルを付与する。
なお、図5等では、セグメントの情報を「クラスタID:重要度の高低:セグメントラベル」のように表記する。例えば、「1:高」は、セグメントのクラスタIDが1で、重要度が高いことを意味している。また、例えば、「3:高:b」は、セグメントのクラスタIDが3で、重要度が高く、セグメントラベルが「b」であることを意味している。また、セグメントの重要度が高いことは、当該セグメントの重要度が所定の閾値以上であることであってもよいし、当該セグメントの重要度の大きさの順位が一定の順位以上であることであってもよい。
以降の説明では、時系列データの中のセグメントを、左側から順に1番目のセグメント、2番目のセグメント、3番目のセグメント等と呼ぶ。図5の例では、時系列データd1の1番目のセグメントと3番目のセグメントの重要度が高かった。このため、セグメントラベル付与部136は、時系列データd1の1番目のセグメントと3番目のセグメントに、セグメントラベルとして、データラベルである「b」を付与する。
また、時系列データd1の中に、セグメントラベルを付与したセグメントと同じクラスタに分類されたセグメントがある場合、セグメントラベル付与部136は、当該セグメントにも同じセグメントラベルを付与する。つまり、セグメントラベル付与部136は、クラスタ単位でセグメントを付与する。
一方、セグメントラベル付与部136は、セグメントの重要度が低いほど、セグメントが属する時系列データに付与されたラベルと異なる時系列データのラベルが付与されやすくなるようにラベルを付与することができる。
図6は、重要度が低いセグメントへのラベルの付与方法を説明するための図である。重要度が低いセグメントは、重要度が高いセグメント以外のセグメントである。図6に示すように、セグメントラベル付与部136は、重要度が低いセグメントには、当該セグメントが属する時系列データに付与されたラベルと異なる時系列データのセグメントであって、同一のクラスタに分類されたセグメントに付与されたセグメントラベルを付与する。
例えば、図6の例では、時系列データd1の2番目のセグメントは、重要度が低く、クラスタIDが2である。また、時系列データd2の3番目のセグメントは、重要度が高く、クラスタIDが2であり、セグメントラベル「a」が付与されている。このため、セグメントラベル付与部136は、時系列データd1の2番目のセグメントに、時系列データd2の3番目のセグメントと同じセグメントラベル「a」を付与する。
なお、分類モデルが、RNN層及びRNN層の出力をセグメント単位で加重する重みを出力するAttentionを有するニューラルネットワークである場合、セグメントラベル付与部136は、Attentionの出力を重要度として用いてラベルを付与する。
また、セグメントラベルの付与方法は、図5及び図6を用いて説明したものに限られない。例えば、セグメントラベル付与部136は、カウント法又はソート法によりセグメントラベルを付与することができる。
(カウント法)
まず、カウント法について説明する。カウント法では、セグメントラベル付与部136は、クラスタとラベルとの組み合わせごとのスコア(以下、カウント)を計算する。このとき、セグメントラベル付与部136は、各時系列データの最も重要度が高いセグメントについて、countingと呼ばれる処理を行う。図7は、カウント法におけるcountingを説明するための図である。
countingについて説明する。セグメントラベル付与部136は、複数のセグメントのそれぞれの重要度が、当該セグメントが属する時系列データのセグメントの中で最も高い場合、当該セグメントが分類されたクラスタに対応する当該時系列データに付与されたラベルのカウントを加算する。そして、セグメントラベル付与部136は、複数のセグメントのそれぞれに、複数のクラスタのうち、当該セグメントが分類されたクラスタに対応するカウントが最も多いラベルを付与する。
図7の例では、時系列データd1のセグメントのうち、1番目のセグメントの重要度が最も高い。また、時系列データd1の1番目のセグメントはクラスタIDが1であるクラスタに分類されている。このため、セグメントラベル付与部136は、クラスタIDが1であるクラスタ(クラスタ1)と時系列データd1に付与されたデータラベル「a」との組み合わせのカウントに1を加算する。同様に、セグメントラベル付与部136は、クラスタ2とラベル「b」との組み合わせのカウント、及びクラスタ3とラベル「b」との組み合わせのカウントに1を加算する。
そして、セグメントラベル付与部136は、加算済みのカウントを参照し、全ての時系列データについて、クラスタ1に分類されたセグメントにセグメントラベル「a」を付与する。また、セグメントラベル付与部136は、クラスタ2に分類されたセグメントにセグメントラベル「b」を付与する。また、セグメントラベル付与部136は、クラスタ3に分類されたセグメントにセグメントラベル「b」を付与する。
この時点で、クラスタ1、クラスタ2及びクラスタ3のいずれかに分類されたセグメントへのセグメントラベルの付与が完了する。一方で、図7の例では、クラスタ4に分類されたセグメントにはセグメントラベルが付与されていない。このようなcountingでセグメントラベルが付与されなかったセグメントがある場合、セグメントラベル付与部136はtie-break countingを行う。図8は、カウント法におけるtie-break countingを説明するための図である。
tie-break countingについて説明する。セグメントラベル付与部136は、複数のセグメントが、当該セグメントが属する時系列データのセグメントの中で重要度が最も高いクラスタに属するセグメントではない場合にtie-break countingを行う。このとき、セグメントラベル付与部136は、当該セグメントが分類されたクラスタに対応する当該時系列データに付与されたラベル以外のラベルのカウントを加算する。
図8の例では、時系列データd1のセグメントのうち、2番目のセグメント及び3番目のセグメントは、時系列データd1の中で重要度が最も高いクラスタ2に属するセグメントではない。また、時系列データd1の2番目のセグメントはクラスタ2に分類されている。また、時系列データd1の3番目のセグメントはクラスタ3に分類されている。また、時系列データd1に付与されたデータラベル以外のデータラベルは「b」及び「c」である。このため、セグメントラベル付与部136は、クラスタ2とラベル「b」との組み合わせ、クラスタ2とラベル「c」との組み合わせ、クラスタ3とラベル「b」との組み合わせ、クラスタ3とラベル「c」との組み合わせ、のそれぞれのカウントに1を加算する。
同様に、セグメントラベル付与部136は、時系列データd3についてもtie-break countingを行う。このとき、セグメントラベル付与部136は、クラスタ4とラベル「a」との組み合わせ、及びクラスタ4とラベル「c」との組み合わせのそれぞれのカウントに1を加算する。
そして、セグメントラベル付与部136は、加算済みのカウントを参照し、全ての時系列データについて、クラスタ4に分類されたセグメントにセグメントラベル「a」又はセグメントラベルを「c」を付与する。このとき、セグメントラベル「a」又はセグメントラベル「c」のどちらを最終的に選択するかは、ランダムに決定されてもよいし、あらかじめ定められた優先度にしたがって決定されてもよい。
(ソート法)
次に、ソート法について説明する。ソート法では、セグメントラベル付与部136は、複数のセグメントのそれぞれについて、重要度が高い順に順次、ラベルを割り当てていく。このとき、セグメントラベル付与部136は、各セグメントが分類されたクラスタに対応するラベルが割り当てられていない場合、当該セグメントが属する時系列データに付与されたラベルを当該クラスタに割り当てていく。
具体的には、まず、図9に示すように、セグメントラベル付与部136は、セグメント情報テーブル122を重要度が高い順にソートする。図9は、ソート法におけるソートを説明するための図である。
そして、図10に示すように、セグメントラベル付与部136は、セグメント情報テーブル122のレコードを上から順に参照していく。そして、セグメントラベル付与部136は、初出のクラスタ、すなわち分類されたセグメントにセグメントラベルが割り当てられていないクラスタに対し、予測データラベルをセグメントラベルとして割り当てる。さらに、セグメントラベル付与部136は、既出のクラスタ、すなわち分類されたセグメントにセグメントラベルが割り当てられたクラスタに対しては、セグメントラベルを割り当てない。
図10の例では、まず、セグメントラベル付与部136は1行目のレコードを参照し、クラスタIDが3であるクラスタに分類された全てのセグメントに対応するレコードのセグメントラベルを「b」に変更する。次に、セグメントラベル付与部136は2行目のレコードを参照し、クラスタIDが1であるクラスタに分類された全てのセグメントに対応するレコードのセグメントラベルを「a」に変更する。さらに、セグメントラベル付与部136は3行目のレコードを参照し、クラスタIDが2であるクラスタに分類された全てのセグメントに対応するレコードのセグメントラベルを「b」に変更する。
4行目から9行目までのレコードは既出のクラスタに対応している。そして、セグメントラベル付与部136は10行目のレコードを参照し、クラスタIDが4であるクラスタに分類された全てのセグメントに対応するレコードのセグメントラベルを「b」に変更する。ただし、このときセグメントラベルが変更されるレコードは、図10の例では1レコードのみである。
[処理の流れ]
フローチャートを用いて各処理の流れを説明する。ここでは、セグメント情報テーブルT、データセットD、クラスタk、ラベルl、時系列データd、カウントNkl、セグメントsのように、各情報には説明のために適宜符号を付している。
図11を用いて、付与装置10によるセグメントラベルの付与処理の流れを説明する。図11は、付与処理の流れを示すフローチャートである。図11に示すように、まず、付与装置10は、時系列データとデータラベルの組であるデータセットDの入力を受け付ける(ステップS1)。次に、付与装置10は、分類モデルによる予測を実行し、セグメント情報テーブルTを得る(ステップS2)。
ここで、付与装置10は、セグメントラベルを付与するために後処理を実行する(ステップS3)。そして、付与装置10は、セグメントと付与したセグメントラベルとを対応付けたテーブルを出力する(ステップS4)。
(カウント法)
次に、後処理(図11のステップS3)の流れを説明する。図12を用いて、カウント法による後処理の流れを説明する。図12は、カウント法による後処理の流れを示すフローチャートである。
図12に示すように、付与装置10は、各時系列データを基に作成されたセグメント情報テーブルTの入力を受け付ける(ステップS31a)。次に、付与装置10は、countingを実行する(ステップS32a)。そして、付与装置10は、countingの結果に基づきlabelingを実行する(ステップS33a)。
ここで、付与装置10は、セグメント情報テーブルTの中の全てのセグメントにラベルが付いているか否かを判定する(ステップS34a)。セグメント情報テーブルTの中の全てのセグメントにラベルが付いている場合(ステップS34a、Yes)、付与装置10は、T中の各セグメントに対するラベルを出力し(ステップS37a)、カウント法による後処理を終了する。
一方、セグメント情報テーブルTの中の全てのセグメントにラベルが付いていない場合(ステップS34a、No)、付与装置10は、tie-break counting(ステップS35a)及びtie-break labeling(ステップS36a)を実行する。その後、付与装置10は、T中の各セグメントに対するラベルを出力し(ステップS37a)、カウント法による後処理を終了する。
counting(図12のステップS32a)、labeling(図12のステップS33a)、tie-break counting(図12のステップS35a)、tie-break labeling(図12のステップS36a)の流れを説明する。
まず、図13を用いて、countingの流れを説明する。図13は、countingの流れを示すフローチャートである。図13に示すように、まず、付与装置10は、セグメント情報テーブルTの入力を受け付ける(ステップS321a)。次に、付与装置10は、全てのクラスタk、ラベルlに対するカウントNklを0に初期化する(ステップS322a)。
ここで、付与装置10は、Tから時系列データを1つずつ取得していく。付与装置10は、未取得の時系列データから次の時系列データdを取得する(ステップS323a)。そして、付与装置10は、d中で重要度が最も高いセグメントsを特定する(ステップS324a)。ここで、付与装置10は、sが属するクラスタkに対するdの予測データラベルのNklを増やす(ステップS325a)。
付与装置10は、データセットの中の全ての時系列データについて処理が完了したか否かを判定する(ステップS326a)。全ての時系列データについて処理が完了している場合(ステップS326a、Yes)、付与装置10は、全てのクラスタklとラベルlについてのNklをテーブルとして出力する(ステップS327a)。一方、全ての時系列データについて処理が完了していない場合(ステップS326a、No)、付与装置10は、ステップS323aに戻り、処理を繰り返す。
次に、図14を用いて、labelingの流れを説明する。図14は、labelingの流れを示すフローチャートである。図14に示すように、まず、付与装置10は、全てのクラスタkとラベルlに対するNklのテーブルの入力を受け付ける(ステップS331a)。このテーブルは、countingにおいて出力されるテーブルである。
ここで、付与装置10は、テーブルからクラスタkを1つずつ選択していく。付与装置10は、まだ選んでいないクラスタkを1つ選ぶ(ステップS332a)。そして、付与装置10は、選んだクラスタkに対するNklが最大になるラベルlが1つのlmaxに決まるか否かを判定する(ステップS333a)。
選んだクラスタkに対するNklが最大になるlmaxが1つに決まる場合(ステップS333a、Yes)、付与装置10は、クラスタkに含まれる全てのセグメントsに、lmaxのラベルを付ける(ステップS334a)。一方、選んだクラスタkに対するNklが最大になるlmaxが1つに決まらない場合(ステップS333a、No)、付与装置10は、lmaxのラベルを付けずに次の処理へ進む。
付与装置10は、全てのクラスタkを選んだか否かを判定する(ステップS335a)。全てのクラスタkを選んでいる場合(ステップS335a、Yes)、付与装置10は、各セグメントに付与されたラベルを出力する(ステップS336a)。このとき、付与装置10は、ラベルが付与されていないセグメントについては、未付与として出力する。全てのクラスタkを選んでいない場合(ステップS335a、No)、付与装置10は、ステップS332aに戻り処理を繰り返す。
図15を用いて、tie-break countingの流れを説明する。図15は、tie-break countingの流れを示すフローチャートである。図15に示すように、まず、付与装置10は、セグメント情報テーブルTとラベル集合Lの入力を受け付ける(ステップS351a)。次に、付与装置10は、全てのクラスタk、ラベルlに対するカウントMklを0に初期化する(ステップS352a)。
ここで、付与装置10は、Tから時系列データを1つずつ取得していく。付与装置10は、未取得の時系列データから次の時系列データdを取得する(ステップS353a)。そして、付与装置10は、d中で重要度が最も高いセグメントsを特定する(ステップS354a)。
ここで、付与装置10は、sが属するクラスタk以外の全てのクラスタk´と、dの予測データラベル以外のLに含まれる全てのラベルl´についてのカウントMk´l´を増やす(ステップS355a)。
付与装置10は、データセットの中の全ての時系列データについて処理が完了したか否かを判定する(ステップS356a)。全ての時系列データについて処理が完了している場合(ステップS356a、Yes)、付与装置10は、全てのクラスタkとラベルlについてのMklをテーブルとして出力する(ステップS357a)。一方、全ての時系列データについて処理が完了していない場合(ステップS356a、No)、付与装置10は、ステップS353aに戻り、処理を繰り返す。
次に、図16を用いて、tie-break labelingの流れを説明する。図16は、tie-break labelingの流れを示すフローチャートである。図16に示すように、まず、付与装置10は、全てのクラスタkとラベルlに対するMklのテーブルの入力を受け付ける(ステップS361a)。このテーブルは、tie-break countingにおいて出力されるテーブルである。
ここで、付与装置10は、ラベルが付与されていないクラスタからクラスタkを1つずつ選択していく。付与装置10は、まだ選んでいないクラスタkを1つ選ぶ(ステップS362a)。そして、付与装置10は、選んだクラスタkに対するMklが最大になるラベルlから1つをlmaxとして選ぶ(ステップS363a)。
付与装置10は、クラスタkに含まれる全てのセグメントsにlmaxのラベルを付ける(ステップS364a)。付与装置10は、全てのクラスタkを選んだか否かを判定する(ステップS365a)。全てのクラスタkを選んでいる場合(ステップS365a、Yes)、付与装置10は、各セグメントに付与されたラベルを出力する(ステップS366a)。このとき、付与装置10は、ラベルが付与されていないセグメントについては、未付与として出力する。全てのクラスタkを選んでいない場合(ステップS365a、No)、付与装置10は、ステップS362aに戻り処理を繰り返す。
(ソート法)
次に、図17を用いて、ソート法による後処理の流れを説明する。図17は、ソート法による後処理の流れを示すフローチャートである。図17に示すように、まず、付与装置10は、セグメント情報テーブルTの入力を受け付ける(ステップS31b)。次に、付与装置10は、Tのレコードを重要度順で降順にソートしT´とする(ステップS32b)。
付与装置10は、T´のセグメントを順次参照していく。付与装置10は、T´から次のセグメントsとsが属するクラスタkを取得する(ステップS33b)。そして、付与装置10は、kにすでにラベルが付与されているか否かを判定する(ステップS34b)。kにすでにラベルが付与されている場合(ステップS34b、Yes)、付与装置10は、kにラベルを付与せずに次の処理に進む。一方、kにラベルが付与されていない場合(ステップS34b、No)、kにsを含むデータの予測データラベルを付与する(ステップS35b)。そして、付与装置10は、sにkに付与されているラベルを付与する(ステップS36b)。
次に、付与装置10は、T´の全てのセグメントsについて処理が終了したか否かを判定する(ステップS37b)。T´の全てのセグメントsについて処理が終了している場合(ステップS37b、Yes)、付与装置10は、各セグメントsに付与されたラベルを出力する(ステップS38b)。一方、T´の全てのセグメントsについて処理が終了していない場合(ステップS37b、No)、付与装置10は、ステップS33bに戻り処理を繰り返す。
[効果]
これまで説明してきたように、付与装置10は、複数の時系列データのそれぞれを複数のセグメントに分割する。付与装置10は、複数の時系列データの各セグメントの特徴を基に、複数の時系列データのそれぞれにラベルを付与する。付与装置10は、時系列データの所定のセグメントに、当該セグメントが属する時系列データに付与されたラベルを付与する。このように、付与装置10は、時系列データに付与されたデータラベルを基にセグメントラベルの付与を行うことができる。つまり、付与装置10は、従来技術(例えば、非特許文献1に記載のDeepPlait)の出力を利用して、自動的にセグメントラベルを付与することができる。このため、実施例によれば、時系列データの詳細な分析を効率良く行うことができる。
付与装置10は、データラベルの付与における、複数のセグメントのそれぞれの重要度を算出する。付与装置10は、セグメントの重要度が高いほど、セグメントが属する時系列データと同じラベルが付与されやすく、セグメントの重要度が低いほど、セグメントが属する時系列データに付与されたラベルと異なるラベルが付与されやすくなるようにラベルを付与する。このように、付与装置10は、付与済みのデータラベルとデータラベルの付与の際に算出される重要度を用いてセグメントラベルを付与することができる。このため、実施例によれば、重要度を反映したセグメントラベルの付与を自動的に行うことが可能になる。
付与装置10は、RNN層及びRNN層の出力をセグメント単位で加重する重みを出力するAttentionを有するニューラルネットワークを用いてラベルを付与する。付与装置10は、Attentionの出力を重要度として用いてラベルを付与する。このように、付与装置10は、既存のモデルの途中計算で得られる値を利用してセグメントラベルを付与することができる。
付与装置10は、複数のセグメントを、各セグメントにおける時系列データの特徴に基づいて複数のクラスタに分類する。付与装置10は、複数のセグメントごとのクラスタ及び重要度に基づいてラベルを付与する。このように、付与装置10は、セグメントをクラスタ単位で集約して扱うことができるため、効率的にセグメントラベルの付与を行うことができる。
付与装置10は、複数のセグメントのそれぞれの重要度が、属する時系列データのセグメントの中で最も高い場合、複数のクラスタのうち、当該セグメントが分類されたクラスタに対応する当該時系列データに付与されたラベルのカウントを加算する。付与装置10は、複数のセグメントのそれぞれに、複数のクラスタのうち、当該セグメントが分類されたクラスタに対応するカウントが最も多いラベルを付与する。これにより、付与装置10は、最も重要度が高いセグメントについて、自動的にセグメントラベル付与のためのスコアを計算することができる。
付与装置10は、複数のセグメントが、当該セグメントが属する時系列データのセグメントの中で重要度が最も高いクラスタに属するセグメントではない場合、当該セグメントが分類されたクラスタに対応する当該時系列データに付与されたラベル以外のラベルのカウントを加算する。これにより、付与装置10は、最も重要度が高いセグメント以外のセグメントについても、自動的にセグメントラベル付与のためのスコアを計算することができる。
セグメントラベル付与部136は、各セグメントについて、重要度が高い順に順次、当該セグメントが分類されたクラスタに対応するラベルが割り当てられていない場合、当該セグメントが属する時系列データに付与されたラベルを当該クラスタに割り当てていく。これにより、付与装置10は、クラスタ単位でセグメントラベルをまとめて付与していくことができる。
なお、上記の実施例では、セグメントラベルの付与の際に、クラスタとラベルのカウントをそのまま利用する方法について説明した。一方で、セグメントラベルの付与は、カウントにさらに重み付け等を行った上で行われてもよい。例えば、付与装置10は、カウントにセグメントごとの時間の長さに応じた重みを掛けた上で各計算を行うようにしてもよい。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図18は、ハードウェア構成例を説明する図である。図18に示すように、付与装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図18に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカード等であり、他のサーバとの通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、付与装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、分割部131、分類部132、算出部133、データラベル付与部134、更新部135及びセグメントラベル付与部136と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、分割部131、分類部132、算出部133、データラベル付与部134、更新部135及びセグメントラベル付与部136等と同様の処理を実行するプロセスを実行する。プロセッサ10dは、例えば、CPU、MPU、ASIC等のハードウェア回路である。
このように付与装置10は、プログラムを読み出して実行することで分類方法を実行する情報処理装置として動作する。また、付与装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、付与装置10によって実行されることに限定されるものではない。例えば、他のコンピュータ又はサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
1S 分析システム
10 付与装置
11 インタフェース部
12 記憶部
13 制御部
20 分析装置
121 分類モデル情報
122 セグメント情報テーブル
131 分割部
132 分類部
133 算出部
134 データラベル付与部
135 更新部
136 セグメントラベル付与部

Claims (9)

  1. 複数の時系列データのそれぞれを複数のセグメントに分割し、
    前記複数の時系列データの各セグメントの特徴を基に、前記複数の時系列データのそれぞれにラベルを付与し、
    前記時系列データの所定のセグメントに、当該セグメントが属する時系列データに付与されたラベルを付与する
    処理をコンピュータが実行することを特徴とする付与方法。
  2. 前記複数の時系列データのそれぞれにラベルを付与する処理における、前記複数のセグメントのそれぞれの重要度を算出する処理をさらに実行し、
    前記セグメントにラベルを付与する処理は、セグメントの重要度が高いほど、前記セグメントが属する時系列データと同じラベルが付与されやすく、セグメントの重要度が低いほど、前記セグメントが属する時系列データに付与されたラベルと異なるラベルが付与されやすくなるようにラベルを付与する
    ことを特徴とする請求項1に記載の付与方法。
  3. 前記複数の時系列データのそれぞれにラベルを付与する処理は、RNN層及び前記RNN層の出力をセグメント単位で加重する重みを出力するAttentionを有するニューラルネットワークを用いて前記ラベルを付与し、
    前記セグメントにラベルを付与する処理は、前記Attentionの出力を重要度として用いてラベルを付与する
    ことを特徴とする請求項2に記載の付与方法。
  4. 前記複数のセグメントを、各セグメントにおける前記時系列データの特徴に基づいて複数のクラスタに分類する
    処理をさらに実行し、
    前記セグメントにラベルを付与する処理は、前記複数のセグメントごとのクラスタ及び重要度に基づいてラベルを付与する
    ことを特徴とする請求項2又は3に記載の付与方法。
  5. 前記複数のセグメントのそれぞれの重要度が、当該セグメントが属する時系列データのセグメントの中で最も高い場合、前記複数のクラスタのうち、当該セグメントが分類されたクラスタに対応する当該時系列データに付与されたラベルのカウントを加算する
    処理をさらに実行し、
    前記セグメントにラベルを付与する処理は、前記複数のセグメントのそれぞれに、前記複数のクラスタのうち、当該セグメントが分類されたクラスタに対応するカウントが最も多いラベルを付与する
    ことを特徴とする請求項4に記載の付与方法。
  6. 前記加算する処理は、前記複数のセグメントが、当該セグメントが属する時系列データのセグメントの中で重要度が最も高いクラスタに属するセグメントではない場合、当該セグメントが分類されたクラスタに対応する当該時系列データに付与されたラベル以外のラベルのカウントを加算する
    ことを特徴とする請求項5に記載の付与方法。
  7. 前記複数のセグメントのそれぞれについて、重要度が高い順に順次、当該セグメントが分類されたクラスタに対応するラベルが割り当てられていない場合、当該セグメントが属する時系列データに付与されたラベルを当該クラスタに割り当てていく
    ことを特徴とする請求項5に記載の付与方法。
  8. 複数の時系列データのそれぞれを複数のセグメントに分割し、
    前記複数の時系列データの各セグメントの特徴を基に、前記複数の時系列データのそれぞれにラベルを付与し、
    前記時系列データの所定のセグメントに、当該セグメントが属する時系列データに付与されたラベルを付与する
    処理をコンピュータに実行させることを特徴とする付与プログラム。
  9. 複数の時系列データのそれぞれを複数のセグメントに分割する分割部と、
    前記複数の時系列データの各セグメントの特徴を基に、前記複数の時系列データのそれぞれにラベルを付与する第1の付与部と、
    前記時系列データの所定のセグメントに、当該セグメントが属する時系列データに付与されたラベルを付与する第2の付与部と、
    を有することを特徴とする付与装置。
JP2019036210A 2019-02-28 2019-02-28 付与方法、付与プログラム及び付与装置 Active JP7249580B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019036210A JP7249580B2 (ja) 2019-02-28 2019-02-28 付与方法、付与プログラム及び付与装置
US16/801,165 US11438277B2 (en) 2019-02-28 2020-02-26 Allocation method, allocating device, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019036210A JP7249580B2 (ja) 2019-02-28 2019-02-28 付与方法、付与プログラム及び付与装置

Publications (2)

Publication Number Publication Date
JP2020140499A JP2020140499A (ja) 2020-09-03
JP7249580B2 true JP7249580B2 (ja) 2023-03-31

Family

ID=72236820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019036210A Active JP7249580B2 (ja) 2019-02-28 2019-02-28 付与方法、付与プログラム及び付与装置

Country Status (2)

Country Link
US (1) US11438277B2 (ja)
JP (1) JP7249580B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3706047A1 (en) * 2019-03-04 2020-09-09 Siemens Aktiengesellschaft Cluster based classification for time series data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338373A (ja) 2005-06-02 2006-12-14 Toshiba Corp 多変数時系列データ分析装置、方法およびプログラム
JP2012073923A (ja) 2010-09-29 2012-04-12 Ricoh Co Ltd 管理装置、管理システムおよび管理方法
US20180166066A1 (en) 2016-12-14 2018-06-14 International Business Machines Corporation Using long short-term memory recurrent neural network for speaker diarization segmentation
JP2018142272A (ja) 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ コンテンツ評価予測システム及びコンテンツ評価予測方法
WO2018180197A1 (ja) 2017-03-28 2018-10-04 日本電気株式会社 データ解析装置、データ解析方法およびデータ解析プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7143352B2 (en) * 2002-11-01 2006-11-28 Mitsubishi Electric Research Laboratories, Inc Blind summarization of video content
US7797060B2 (en) * 2007-02-27 2010-09-14 Rockwell Automation Technologies, Inc. Prioritization associated with controller engine instances
JP2017168940A (ja) * 2016-03-14 2017-09-21 富士通株式会社 再生制御プログラム、変換プログラム、再生制御装置、端末装置、動画再生システム、再生制御方法、及び変換方法
US10592751B2 (en) * 2017-02-03 2020-03-17 Fuji Xerox Co., Ltd. Method and system to generate targeted captions and summarize long, continuous media files
JP6800904B2 (ja) * 2018-03-20 2020-12-16 株式会社東芝 モデル生成装置、情報処理装置、モデル生成方法およびプログラム
US11496761B2 (en) * 2018-06-30 2022-11-08 Sharp Kabushiki Kaisha Systems and methods for signaling picture types of pictures included in coded video
US20200151748A1 (en) * 2018-11-14 2020-05-14 Walmart Apollo, Llc Feature-based item similarity and forecasting system
US20210279603A1 (en) * 2018-12-13 2021-09-09 SparkCognition, Inc. Security systems and methods
CN113261327A (zh) * 2019-01-08 2021-08-13 苹果公司 5g网络的随机接入信道(rach)优化和自动邻区关系创建
US11115461B1 (en) * 2019-11-14 2021-09-07 Jason Kim Systems and methods of using asynchronous distributed hash generation for accelerated network file transfers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338373A (ja) 2005-06-02 2006-12-14 Toshiba Corp 多変数時系列データ分析装置、方法およびプログラム
JP2012073923A (ja) 2010-09-29 2012-04-12 Ricoh Co Ltd 管理装置、管理システムおよび管理方法
US20180166066A1 (en) 2016-12-14 2018-06-14 International Business Machines Corporation Using long short-term memory recurrent neural network for speaker diarization segmentation
JP2018142272A (ja) 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ コンテンツ評価予測システム及びコンテンツ評価予測方法
WO2018180197A1 (ja) 2017-03-28 2018-10-04 日本電気株式会社 データ解析装置、データ解析方法およびデータ解析プログラム

Also Published As

Publication number Publication date
JP2020140499A (ja) 2020-09-03
US11438277B2 (en) 2022-09-06
US20200280525A1 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
Zhao et al. An entropy-based clustering ensemble method to support resource allocation in business process management
US11513851B2 (en) Job scheduler, job schedule control method, and storage medium
JPWO2013125482A1 (ja) 文書評価装置、文書評価方法、及びプログラム
WO2014199920A1 (ja) 予測関数作成装置、予測関数作成方法、及びコンピュータ読み取り可能な記録媒体
JP6311851B2 (ja) 共クラスタリングシステム、方法およびプログラム
JP7145059B2 (ja) モデルの予測根拠提示システム及びモデルの予測根拠提示方法
Saadallah et al. Explainable online deep neural network selection using adaptive saliency maps for time series forecasting
JP7249580B2 (ja) 付与方法、付与プログラム及び付与装置
JP7006616B2 (ja) 予測モデル生成システム、方法およびプログラム
US10795956B1 (en) System and method for identifying potential clients from aggregate sources
WO2020255414A1 (ja) 学習支援装置、学習支援方法、及びコンピュータ読み取り可能な記録媒体
JP7479251B2 (ja) 計算機システムおよび情報処理方法
Alharbi et al. A comparative study of student performance prediction using pre-course data
JP7396847B2 (ja) 学習装置、学習方法および学習プログラム
JP2018195099A (ja) 性格分析装置、性格判定用モデル生成装置および性格分析用プログラム
Sahni et al. Aided selection of sampling methods for imbalanced data classification
WO2023162239A1 (ja) 解析装置、解析方法、および解析プログラム
JP6988817B2 (ja) 予測モデル生成システム、方法およびプログラム
WO2019103773A1 (en) Automatically identifying alternative functional capabilities of designed artifacts
JP7310827B2 (ja) 学習装置、学習方法、及びプログラム
EP3910575A1 (en) Utilizing similarity, knowledge graphs, and machine learning models to refine/redefine a target skill profile based on skills data from employees of an entity and activate a recommendation system
WO2020189371A1 (ja) パラメータ調整装置、パラメータ調整方法、コンピュータプログラム及び記録媒体
US20060074829A1 (en) Method and system for generating object classification models
JP6520199B2 (ja) 抽出方法、情報処理装置、及び抽出プログラム
JP7154468B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230310

R150 Certificate of patent or registration of utility model

Ref document number: 7249580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150