JP7171361B2 - データ解析システム、学習装置、及びその方法 - Google Patents
データ解析システム、学習装置、及びその方法 Download PDFInfo
- Publication number
- JP7171361B2 JP7171361B2 JP2018197678A JP2018197678A JP7171361B2 JP 7171361 B2 JP7171361 B2 JP 7171361B2 JP 2018197678 A JP2018197678 A JP 2018197678A JP 2018197678 A JP2018197678 A JP 2018197678A JP 7171361 B2 JP7171361 B2 JP 7171361B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- teacher
- feature
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Description
例えば、下記式(2)、(3)
251は識別データ選定部であり、この情報によりデータ入力部220はデータを取得する。以下、105、202、203、204、116,115,206の処理は、図4と同様なので省略する。そして、識別された結果を外部インターフェース252へ出力する。
Claims (16)
- 学習装置と識別装置からなり、入力データに対する識別を行うデータ解析システムであって、
前記学習装置は、
入力された教師モーダルデータから抽出した教師特徴量と入力された標的モーダルデータから抽出した標的特徴量を同じ共有特徴量空間へ射影する射影モデルを、お互いに距離を縮めるように学習する共有特徴量空間射影モデル学習部と、
前記学習した射影モデルから射影した標的射影特徴量と教師射影特徴量を用いて前記教師モーダルデータ及び前記標的モーダルデータを識別する教師識別情報及び標的識別情報を計算し、計算した教師識別情報及び標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルを更新する標的識別モデル更新部を有し、
前記識別装置は、前記入力された標的モーダルデータから抽出した標的特徴量を、前記学習された射影モデルを用いて前記共有特徴量空間へ射影し、射影された標的射影特徴量を基に前記更新された標的識別モデルを用いて標的識別情報を計算し、計算された標的識別情報を基に標的識別結果を推定する識別結果推定部とを備えることを特徴とするデータ解析システム。 - 入力された教師モーダルデータから抽出した教師特徴量と入力された標的モーダルデータから抽出した標的特徴量を同じ共有特徴量空間へ射影する射影モデルを、お互いに距離を縮めるように学習する共有特徴量空間射影モデル学習部と、
前記学習した射影モデルから射影した標的射影特徴量と教師射影特徴量を用いて前記教師モーダルデータ及び前記標的モーダルデータを識別する教師識別情報及び標的識別情報を計算し、計算した教師識別情報及び標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルを更新する標的識別モデル更新部を備えることを特徴とする学習装置。 - 学習装置と識別装置からなり、入力データに対する識別を行うデータ解析システムにおけるデータ解析方法であって、
前記学習装置は、
入力された教師モーダルデータから抽出した教師特徴量と入力された標的モーダルデータから抽出した標的特徴量を同じ共有特徴量空間へ射影する射影モデルを、お互いに距離を縮めるように学習し、
前記学習した射影モデルから射影した標的射影特徴量と教師射影特徴量を用いて前記教師モーダルデータ及び前記標的モーダルデータを識別する教師識別情報及び標的識別情報を計算し、計算した教師識別情報及び標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルを更新し、
前記識別装置は、前記入力された標的モーダルデータから抽出した標的特徴量を、前記学習された射影モデルを用いて前記共有特徴量空間へ射影し、射影された標的射影特徴量を基に前記更新された標的識別モデルを用いて標的識別情報を計算し、計算された標的識別情報を基に標的識別結果を推定することを特徴とするデータ解析方法。 - 学習装置における学習方法であって、
前記学習装置は、
入力された教師モーダルデータから抽出した教師特徴量と入力された標的モーダルデータから抽出した標的特徴量を同じ共有特徴量空間へ射影する射影モデルを、お互いに距離を縮めるように学習し、
前記学習した射影モデルから射影した標的射影特徴量と教師射影特徴量を用いて前記教師モーダルデータ及び前記標的モーダルデータを識別する教師識別情報及び標的識別情報を計算し、計算した教師識別情報及び標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルを更新することを特徴とする学習方法。 - 請求項2に記載の学習装置において、
前記入力された教師モーダルデータは複数であって、
それぞれの教師モーダルデータの教師特徴量を抽出する教師特徴量抽出部と、
前記入力された標的モーダルデータから標的特徴量を抽出する標的特徴量抽出部を有し、
前記共有特徴量空間射影モデル学習部は、前記教師特徴量と前記標的特徴量を同じ特徴量空間へお互いに距離を縮めるように射影モデルを学習し、
前記共有特徴量空間射影モデル学習部で教師モーダルデータごとに構築した教師射影モデルから射影した教師射影特徴量を用いて、前記教師モーダルデータの識別モデルである教師識別モデルを基に、前記教師モーダルデータを識別する教師識別情報を計算する教師識別情報計算部と、
前記教師識別情報計算部で計算されたそれぞれの教師モーダルデータの前記教師識別情報をアンサンブルし教師識別情報を出力する教師識別情報アンサンブル処理部と、
前記共有特徴量空間射影モデル学習部で構築した標的射影モデルから射影した標的射影特徴量を用いて、前記標的モーダルデータの識別モデルである標的識別モデルを基に、前記標的モーダルデータを識別する標的識別情報を計算する標的識別情報計算部と、
前記標的識別情報計算部によって計算された標的識別情報と前記教師識別情報アンサンブル処理部から出力された教師識別情報を基に、標的識別モデルと教師識別モデルのパラメータの更新度合いである学習コストを計算する識別モデル学習コスト計算部を有し、
前記標的識別モデル更新部は、前記計算された学習コストを基に標的識別モデルを更新し、
該計算された学習コストを基に教師識別モデルを更新する教師識別モデル更新部と、
更新済みの前記標的識別モデルと前記教師識別モデルを記憶する識別モデル記憶部と、
前記学習した射影モデルを記憶する共有特徴量空間射影モデル記憶部とを備えることを特徴とする学習装置。 - 請求項2に記載の学習装置において、
前記入力された教師モーダルデータは複数であって、
それぞれの教師モーダルデータの教師特徴量を抽出する教師特徴量抽出部と、
前記入力された標的モーダルデータから標的特徴量を抽出する標的特徴量抽出部を有し、
前記共有特徴量空間射影モデル学習部は、
1つの教師モデルごとに、
前記教師特徴量及び前記標的特徴量を共有特徴量空間に正射影し、正射影モデルから共有特徴量空間に射影された特徴量ペア間のペアワイズ距離Dを計算し、共有特徴量空間に射影された教師特徴量を元の教師特徴量の空間に逆射影し、逆射影された教師特徴量と元の教師特徴量間の距離D’を計算し、D+D’を最小化するように、正射影モデルと逆射影モデルを更新する処理を繰り返すことを特徴とする学習装置。 - 請求項2に記載の学習装置において、
前記入力された教師モーダルデータは複数であって、
それぞれの教師モーダルデータの教師特徴量を抽出する教師特徴量抽出部と、
前記入力された標的モーダルデータから標的特徴量を抽出する標的特徴量抽出部を有し、
前記標的識別モデル更新部は、前記教師特徴量と前記標的特徴量を組として取得し、
入力データ組ごとに、
教師推定クラス確率分布と標的推定クラス確率分布を計算し、
標的射影特徴量と教師射影特徴量を基に、入力された特徴量を分類し、標的モーダルデータになる確率を出力し、分類誤差評価を算出し、
教師推定クラス確率分布と標的推定クラス確率分布を元に、教師誤差評価を算出し、
クラス真値分布と標的推定クラス確率分布を元に、推定誤差評価を算出し、
前記教師誤差評価と前記推定誤差評価と前記分類誤差評価の値と共有特徴量空間射影モデル学習部から出力された射影誤差とから、標的識別モデルと教師識別モデルのパラメータを更新する処理を繰り返すことを特徴とする学習装置。 - 請求項5に記載の学習装置において、
入力されたデータから所定の標的モーダルデータと所定の教師モーダルデータからなる学習データ組を読み込むマルチモーダルデータ収集装置を有し、
前記学習データ組ごとに、前記所定の標的モーダルデータと前記所定の教師モーダルデータデータを、それぞれ前記入力された標的モーダルデータと前記入力された教師モーダルデータとして処理することを特徴とする学習装置。 - 請求項2に記載の学習装置において、
入力されたデータから標的モーダルデータと教師モーダルデータからなる学習データ組を読み込むマルチモーダルデータ収集装置を有し、
該マルチモーダルデータ収集装置は、眼鏡型ウェアラブル装置が有しているウェアラブルカメラ、加速度センサ、ジャイロセンサ、
または、スマートウォッチが有している加速度センサや心拍センサ、
または、スマートフォンが有している加速度センサ、ジャイロセンサ、マイクロフォン、WiFi通信器、
または、スマートシューズやスマートソールが有している、加速度センサ、ジャイロセンサ、圧感センサ、
のいずれかであることを特徴とする学習装置。 - 請求項2に記載の学習装置において、
入力されたデータから静止画像及び動画像である標的モーダルデータ、センサデータである教師モーダルデータからなる学習データ組を読み込むマルチモーダルデータ収集装置と、
前記静止画像から人物の位置を検出する人物位置検出部と、
人物領域特徴量を抽出する人物領域特徴量抽出部と、
前記動画像から動的特徴量を抽出する動的特徴量抽出部と、
加速度特徴量を抽出する加速度特徴量抽出部を有し、
前記共有特徴量空間射影モデル学習部は、前記人物領域特徴量と前記動的特徴量と前記加速度特徴量を同じ共有特徴量空間へ射影する前記標的モーダルデータと前記教師モーダルデータの射影モデルを、お互いに距離を縮めるように学習し、
前記学習した射影モデルから射影した射影特徴量を用いて前記標的モーダルデータを識別する標的識別情報を計算し、計算した標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルとなる静止画像識別モデルと動画像識別モデルを学習する標的識別モデル学習機構を有することを特徴とする学習装置。 - 請求項1に記載のデータ解析システムにおいて、
入力されたデータから静止画像及び動画像である標的モーダルデータ、センサデータである教師モーダルデータからなる学習データ組を読み込むマルチモーダルデータ収集装置と、
前記静止画像から人物の位置を検出する人物位置検出部と、
人物領域特徴量を抽出する人物領域特徴量抽出部と、
前記動画像から動的特徴量を抽出する動的特徴量抽出部と、
加速度特徴量を抽出する加速度特徴量抽出部を有し、
前記共有特徴量空間射影モデル学習部は、前記人物領域特徴量と前記動的特徴量と前記加速度特徴量を同じ共有特徴量空間へ射影する前記標的モーダルデータと前記教師モーダルデータの射影モデルを、お互いに距離を縮めるように学習し、
前記学習した射影モデルから射影した射影特徴量を用いて前記標的モーダルデータを識別する標的識別情報を計算し、計算した標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルとなる静止画像識別モデルと動画像識別モデルを学習する標的識別モデル学習機構を有し、
前記識別結果推定部は、前記学習された前記標的識別モデルを基に、標的識別情報を計算し、計算された標的識別情報を基に標的識別結果を推定することを特徴とするデータ解析システム。 - 請求項2に記載の学習装置において、
入力されたデータから静止画像及び動画像である標的モーダルデータ、センサデータである教師モーダルデータからなる学習データ組を読み込むマルチモーダルデータ収集装置と、
前記静止画像から物体の位置を検出する物体位置検出部と、
物体領域特徴量を抽出する物体領域特徴量抽出部と、
前記動画像から人物動線を検出する動線検出部と、
動線変化の動線特徴量を抽出する動線特徴量抽出部と、
前記センサデータから加速度特徴量を抽出する加速度特徴量抽出部と、
心拍特徴量を抽出する心拍特徴量抽出部と
前記加速度特徴量と前記心拍特徴量のアンサンブル処理を行い1つの教師識別モデルを構築する特徴量アンサンブル処理部を有し、
前記共有特徴量空間射影モデル学習部は、前記物体領域特徴量と前記動線特徴量と前記教師識別モデルを同じ共有特徴量空間へ射影する前記標的モーダルデータと前記教師モーダルデータの射影モデルを、お互いに距離を縮めるように学習し、
前記学習した射影モデルから射影した射影特徴量を用いて前記標的モーダルデータを識別する標的識別情報を計算し、計算した標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルとなる静止画像識別モデルと動画像識別モデルを学習する標的識別モデル学習機構を有することを特徴とする学習装置。 - 請求項1に記載のデータ解析システムにおいて、
入力されたデータから静止画像及び動画像である標的モーダルデータ、センサデータである教師モーダルデータからなる学習データ組を読み込むマルチモーダルデータ収集装置と、
前記静止画像から物体の位置を検出する物体位置検出部と、
物体領域特徴量を抽出する物体領域特徴量抽出部と、
前記動画像から人物動線を検出する動線検出部と、
動線変化の動線特徴量を抽出する動線特徴量抽出部と、
前記センサデータから加速度特徴量を抽出する加速度特徴量抽出部と、
心拍特徴量を抽出する心拍特徴量抽出部と
前記加速度特徴量と前記心拍特徴量のアンサンブル処理を行い1つの教師識別モデルを構築する特徴量アンサンブル処理部を有し、
前記共有特徴量空間射影モデル学習部は、前記物体領域特徴量と前記動線特徴量と前記教師識別モデルを同じ共有特徴量空間へ射影する前記標的モーダルデータと前記教師モーダルデータの射影モデルを、お互いに距離を縮めるように学習し、
前記学習した射影モデルから射影した射影特徴量を用いて前記標的モーダルデータを識別する標的識別情報を計算し、計算した標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルとなる静止画像識別モデルと動画像識別モデルを学習する標的識別モデル学習機構を有し、
前記識別結果推定部は、前記学習された前記標的識別モデルを基に、標的識別情報を計算し、計算された標的識別情報を基に標的識別結果を推定することを特徴とするデータ解析システム。 - 請求項2に記載の学習装置において、
入力されたデータから人物の画像データを読み込み、該画像データから人物位置を検出するデータ収集装置と、
前記画像データから動作特徴量を抽出する画像動作特徴量抽出部と、
前記動作特徴量を共有空間に射影する共有空間射影部と、
射影した際の画像射影特徴量を格納する画像射影特徴量データベースを有し、
前記共有特徴量空間射影モデル学習部は、前記画像射影特徴量データベースを基に、センサデータのみを用いて、該センサデータの特徴量を抽出し、該センサデータの特徴量を共有空間に射影し、共有射影空間上で距離が近い前記画像射影特徴量データベースの画像の検索処理を行うことを特徴とする学習装置。 - 請求項1に記載のデータ解析システムにおいて、
入力されたデータから人物の画像データを読み込み、該画像データから人物位置を検出するデータ収集装置と、
前記画像データから動作特徴量を抽出する画像動作特徴量抽出部と、
前記動作特徴量を共有空間に射影する共有空間射影部と、
射影した際の画像射影特徴量を格納する画像射影特徴量データベースを有し、
前記共有特徴量空間射影モデル学習部は、前記画像射影特徴量データベースを基に、センサデータのみを用いて、該センサデータの特徴量を抽出し、該センサデータの特徴量を共有空間に射影し、共有射影空間上で距離が近い前記画像射影特徴量データベースの画像の検索処理を行ない、
前記識別結果推定部は、前記画像射影特徴量データベースを基に、センサデータのみを用いて、該センサデータの特徴量を抽出し、該センサデータの特徴量を共有空間に射影し、共有射影空間上で距離が近い前記画像射影特徴量データベースの画像の検索処理を行うことを特徴とするデータ解析システム。 - 入力データに対する識別を行うデータ解析システムであって、
入力された静止画像または動画像である標的モーダルデータから抽出した標的特徴量と入力された静止画像または動画像以外のセンサデータである教師モーダルデータから抽出した教師特徴量を同じ共有特徴量空間へ射影する射影モデルを、お互いに距離を縮めるように学習する共有特徴量空間射影モデル学習部と、
前記学習した射影モデルから射影した標的射影特徴量と教師射影特徴量を用いて前記教師モーダルデータ及び前記標的モーダルデータを識別する教師識別情報及び標的識別情報を計算し、計算した教師識別情報及び標的識別情報を用いて前記標的モーダルデータの識別モデルである標的識別モデルを更新する標的識別モデル更新部と、
前記入力された静止画像または動画像から抽出した標的特徴量を、前記学習された射影モデルを用いて前記共有特徴量空間へ射影し、射影された標的射影特徴量を基に前記更新された標的識別モデルを用いて標的識別情報を計算し、計算された標的識別情報を基に標的識別結果を推定する識別結果推定部を有することを特徴とするデータ解析システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018197678A JP7171361B2 (ja) | 2018-10-19 | 2018-10-19 | データ解析システム、学習装置、及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018197678A JP7171361B2 (ja) | 2018-10-19 | 2018-10-19 | データ解析システム、学習装置、及びその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020064568A JP2020064568A (ja) | 2020-04-23 |
JP7171361B2 true JP7171361B2 (ja) | 2022-11-15 |
Family
ID=70387392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018197678A Active JP7171361B2 (ja) | 2018-10-19 | 2018-10-19 | データ解析システム、学習装置、及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7171361B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114565826B (zh) * | 2022-04-28 | 2022-07-22 | 南京绿色科技研究院有限公司 | 一种农业病虫害识别诊断方法、系统及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107562812A (zh) | 2017-08-11 | 2018-01-09 | 北京大学 | 一种基于特定模态语义空间建模的跨模态相似性学习方法 |
CN108595636A (zh) | 2018-04-25 | 2018-09-28 | 复旦大学 | 基于深度跨模态相关性学习的手绘草图的图像检索方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5506272B2 (ja) * | 2009-07-31 | 2014-05-28 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
-
2018
- 2018-10-19 JP JP2018197678A patent/JP7171361B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107562812A (zh) | 2017-08-11 | 2018-01-09 | 北京大学 | 一种基于特定模态语义空间建模的跨模态相似性学习方法 |
CN108595636A (zh) | 2018-04-25 | 2018-09-28 | 复旦大学 | 基于深度跨模态相关性学习的手绘草图的图像检索方法 |
Non-Patent Citations (1)
Title |
---|
桂井 麻里衣,外1名,「画像・テキスト・感情語の潜在的な相関に基づく画像の感情分類」,第8回データ工学と情報マネジメントに関するフォーラム (第14回日本データベース学会年次大会) [online] ,日本,電子情報通信学会データ工学研究専門委員会 日本データベース学会 情報処理学会データベースシステム研究会 |
Also Published As
Publication number | Publication date |
---|---|
JP2020064568A (ja) | 2020-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Mining actionlet ensemble for action recognition with depth cameras | |
Nadeem et al. | Automatic human posture estimation for sport activity recognition with robust body parts detection and entropy markov model | |
Jiang et al. | Seeing invisible poses: Estimating 3d body pose from egocentric video | |
Sun et al. | Sequential human activity recognition based on deep convolutional network and extreme learning machine using wearable sensors | |
Wang et al. | Learning actionlet ensemble for 3D human action recognition | |
KR102526700B1 (ko) | 전자 장치 및 그의 3d 이미지 표시 방법 | |
JP5604256B2 (ja) | 人物動作検出装置およびそのプログラム | |
Fan et al. | Human fall detection using slow feature analysis | |
Das et al. | MMHAR-EnsemNet: A multi-modal human activity recognition model | |
Boubou et al. | Classifying actions based on histogram of oriented velocity vectors | |
Kumar et al. | 3D sign language recognition using spatio temporal graph kernels | |
Reining et al. | Attribute representation for human activity recognition of manual order picking activities | |
JP2018010626A (ja) | 情報処理装置、情報処理方法 | |
Wu et al. | Bayesian co-boosting for multi-modal gesture recognition | |
Yao et al. | A fall detection method based on a joint motion map using double convolutional neural networks | |
JP2019082959A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7171361B2 (ja) | データ解析システム、学習装置、及びその方法 | |
JP6590477B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
Permatasari et al. | Inertial sensor fusion for gait recognition with symmetric positive definite Gaussian kernels analysis | |
WO2020207297A1 (zh) | 信息处理方法、存储介质及电子设备 | |
CN107665495B (zh) | 对象跟踪方法及对象跟踪装置 | |
CN114254758A (zh) | 域适配 | |
Alhersh et al. | Action recognition using local visual descriptors and inertial data | |
Ren et al. | Toward three-dimensional human action recognition using a convolutional neural network with correctness-vigilant regularizer | |
WO2023281903A1 (ja) | 画像照合装置、画像照合方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191114 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7171361 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |