JP2023528513A - 意図検出装置、意図検出方法及びプログラム - Google Patents
意図検出装置、意図検出方法及びプログラム Download PDFInfo
- Publication number
- JP2023528513A JP2023528513A JP2022575247A JP2022575247A JP2023528513A JP 2023528513 A JP2023528513 A JP 2023528513A JP 2022575247 A JP2022575247 A JP 2022575247A JP 2022575247 A JP2022575247 A JP 2022575247A JP 2023528513 A JP2023528513 A JP 2023528513A
- Authority
- JP
- Japan
- Prior art keywords
- person
- intention
- detection device
- pattern
- relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 228
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims abstract description 93
- 230000000694 effects Effects 0.000 claims abstract description 54
- 238000007781 pre-processing Methods 0.000 claims abstract description 26
- 230000009471 action Effects 0.000 claims description 37
- 230000003068 static effect Effects 0.000 claims description 37
- 238000005312 nonlinear dynamic Methods 0.000 claims description 10
- 230000006399 behavior Effects 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 14
- 230000015654 memory Effects 0.000 description 14
- 238000000638 solvent extraction Methods 0.000 description 14
- 238000010606 normalization Methods 0.000 description 13
- 238000013500 data storage Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000010354 integration Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 230000007774 longterm Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成する前処理部と、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定する動作パターン・オブジェクト関係性特定部と、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う検出部と、
を有する意図検出装置である。
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成し、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定し、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う、
意図検出方法である。
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成し、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定し、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う処理をプロセッサに実行させる命令を記憶した記憶媒体である。
(1)システム構成
図1は、本開示の第1実施形態に係る意図検出システム100の構成を概略的に示したブロック図である。意図検出システム100は、人の動作パターン及び動作シーケンスの教師なし又は教師あり学習を行い、それにより人の意図を検出することが可能なシステムである。図示されるように、意図検出システム100は、意図検出装置1と、入力装置5、センサ6と、データ記憶装置7とを有する。
動作パターンのクラスを示すインデックス
動作パターンがクラスに属するか否か判定するためのクラス特有の判定基準
クラスに関連した語彙記述
図2は、意図検出装置1により実行される処理の概要の一例を示す。
図4は、意図検出装置1のプロセッサ2の機能ブロック図を示す。プロセッサ2は、機能的には、前処理部21と、動作パターン・オブジェクト関係性特定部22と、ローカル意図検出部23と、グローバル意図検出部24とを有する。前処理部21は、図2に示される前処理10を実行し、動作パターン・オブジェクト関係性特定部22は、動作パターン・オブジェクト関係性特定処理11を実行し、ローカル意図検出部23は、アクティビティ検出・ジェスチャ検出・動作予測処理12を実行し、グローバル意図検出部24は、意図推論処理13を実行する。ヒューマン支援14を実行する要素についてはここでは図示していない。図4において、データの授受を行う要素同士を実線により結んでいる。なお、データの授受を行う要素の組み合わせは、図4に示される組み合わせに限定されない。後述する他のブロック図においても同様である。
図5は、動作パターン・オブジェクト関係性特定部22のブロック図を示す。動作パターン・オブジェクト関係性特定部22は、主に、動的変動量信号算出ブロック31と、特徴的時刻検出ブロック32と、パーティショニング・正規化ブロック33と、オブジェクト関係性検出ブロック34と、分類ブロック35と、統合ブロック36とを有する。
「動作3」
「動作2」
「オブジェクト2と関係性2を有する動作1」
「オブジェクト2と関係性1を有する動作5」
「オブジェクト2と関係性1を有する動作2」
図8は、ローカル意図検出部23のブロック図を示す。ローカル意図検出部23は、主に、エンベッドブロック41と、非線形動的処理ブロック43と、6個の非線形静的処理ブロック42、44~48とを有する。
図9は、意図検出装置1により実行されるローカル意図検出処理を示すフローチャートの一例である。
第1実施形態に関する有利な効果について説明する。
図10は、第2実施形態に係る意図検出装置1Aのブロック図を示す。意図検出装置1Aは動作パターンライブラリ7Aを参照する補間部25をさらに備える点において、意図検出装置1Aは、意図検出装置1と異なる。以後において、第1実施形態と同一要素については第1実施形態と同一の符号を付し、適宜その説明を省略する。
「歩く」
「棚に向かって歩く」
「腕を上げる」
「手を伸ばす、本に近づく」
「腕を下げる、本を持つ」
「本を両手で持つ」
「未知の動作パターン、本を持つ」
「本を両手で持つ」
そして、上記のシーケンスに関する情報をローカル意図検出部23から受信後、補間部25は、動作パターンライブラリ7Aを参照し、未知の動作パターンは、「本を2つの腕で保持して読む」であると推論する。その後、補間部25は、結果を動作パターン・オブジェクト関係性特定部22に供給する。
図11は、第3実施形態に係る意図検出システム100Aを示す。意図検出システム100Aは、意図検出装置として機能するサーバ装置1Bと、ユーザ入力機能、データ通信機能、及びその他の機能を備えた端末装置1Cとを有する。以後では、第1実施形態と同一要素については第1実施形態と同一の符号を付し、適宜その説明を省略する。
図12は、第4実施形態に係る意図検出装置1Xを示す。意図検出装置1Xは、前処理部21Xと、動作パターン・オブジェクト関係性特定部22Xと、検出部23Xと、を有する。
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成する前処理部と、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定する動作パターン・オブジェクト関係性特定部と、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う検出部と、
を有する意図検出装置。
前記動作パターン・オブジェクト関係性特定部は、前記動作パターン及び前記関係性の分類を、教師なし学習又は半教師あり学習により行う、付記1に記載の意図検出装置。
前記動作パターン・オブジェクト関係性特定部は、前記分類により、同一のクラスに属する前記動作パターン及び前記関係性を、同一の語彙記述に対応させる、付記2に記載の意図検出装置。
前記動作パターン・オブジェクト関係性特定部は、前記教師なし学習又は半教師あり学習により、ライブラリを徐々に拡張し、
前記ライブラリは、前記動作パターン及び前記関係性のクラスごとに、
前記動作パターン及び前記関係性のクラスを判定する基準と、
前記クラスの語彙記述と、
を含む、付記3に記載の意図検出装置。
前記動作パターン・オブジェクト関係性特定部は、前記前処理済データから動的変動量信号を生成し、前記動的変動量信号に基づいて、特徴的な時刻の検出を行い、前記動作パターンの特定を行うための前記前処理済データの分割及び正規化を行う、付記1に記載の意図検出装置。
前記動作パターン・オブジェクト関係性特定部は、前記動作パターンと前記関係性との語彙記述を特定し、
前記検出部は、前記語彙記述を数値フォーマットのデータに変換し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの検出を行う、
付記1に記載の意図検出装置。
前記検出部は、前記数値フォーマットのデータの非線形動的処理と非線形静的処理を行い、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの検出を行う、付記6に記載の意図検出装置。
前記検出部は、前記非線形動的処理と前記非線形静的処理とにより得られたデータに対して第2の非線形静的処理を行い、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの検出を行う、付記7に記載の意図検出装置。
前記検出部は、前記前処理済データと前記動作パターンに関するタイミング情報とから生成された動的変動量信号にさらに基づき、前記第2の非線形静的処理を実行する、付記8に記載の意図検出装置。
前記動作パターンの語彙記述が不明である場合、動作パターンライブラリから前記語彙記述を探索し、時間経過に伴う前記語彙記述の一貫性を評価する補間部をさらに有する、付記1に記載の意図検出装置。
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成し、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定し、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う、
意図検出方法。
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成し、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定し、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う処理をプロセッサに実行させる命令を記憶した記憶媒体。
1B サーバ装置
1C 端末装置
2 プロセッサ
3 メモリ
4 インターフェース
5 入力装置
6 センサ
7 データ記憶装置
9 通信部
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成する前処理手段と、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定する動作パターン・オブジェクト関係性特定手段と、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う検出手段と、
を有する意図検出装置である。
センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成し、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定し、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う処理をプロセッサに実行させるプログラムである。
Claims (12)
- センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成する前処理部と、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定する動作パターン・オブジェクト関係性特定部と、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う検出部と、
を有する意図検出装置。 - 前記動作パターン・オブジェクト関係性特定部は、前記動作パターン及び前記関係性の分類を、教師なし学習又は半教師あり学習により行う、請求項1に記載の意図検出装置。
- 前記動作パターン・オブジェクト関係性特定部は、前記分類により、同一のクラスに属する前記動作パターン及び前記関係性を、同一の語彙記述に対応させる、請求項2に記載の意図検出装置。
- 前記動作パターン・オブジェクト関係性特定部は、前記教師なし学習又は半教師あり学習により、ライブラリを徐々に拡張し、
前記ライブラリは、前記動作パターン及び前記関係性のクラスごとに、
前記動作パターン及び前記関係性のクラスを判定する基準と、
前記クラスの語彙記述と、
を含む、請求項3に記載の意図検出装置。 - 前記動作パターン・オブジェクト関係性特定部は、前記前処理済データから動的変動量信号を生成し、前記動的変動量信号に基づいて、特徴的な時刻の検出を行い、前記動作パターンの特定を行うための前記前処理済データの分割及び正規化を行う、請求項1に記載の意図検出装置。
- 前記動作パターン・オブジェクト関係性特定部は、前記動作パターンと前記関係性との語彙記述を特定し、
前記検出部は、前記語彙記述を数値フォーマットのデータに変換し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの検出を行う、
請求項1に記載の意図検出装置。 - 前記検出部は、前記数値フォーマットのデータの非線形動的処理と非線形静的処理を行い、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの検出を行う、請求項6に記載の意図検出装置。
- 前記検出部は、前記非線形動的処理と前記非線形静的処理とにより得られたデータに対して第2の非線形静的処理を行い、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの検出を行う、請求項7に記載の意図検出装置。
- 前記検出部は、前記前処理済データと前記動作パターンに関するタイミング情報とから生成された動的変動量信号にさらに基づき、前記第2の非線形静的処理を実行する、請求項8に記載の意図検出装置。
- 前記動作パターンの語彙記述が不明である場合、動作パターンライブラリから前記語彙記述を探索し、時間経過に伴う前記語彙記述の一貫性を評価する補間部をさらに有する、請求項1に記載の意図検出装置。
- センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成し、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定し、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う、
意図検出方法。 - センサが出力する検出信号を処理することで、人と当該人に関連のあるオブジェクトとに関する前処理済データを生成し、
前記前処理済データに基づいて、前記人の動作パターンと、前記人と前記オブジェクトとの関係性とを特定し、
前記人に関するアクティビティ、ジェスチャ、又は予測されるステップの少なくともいずれかを、特定された前記動作パターンと特定された前記関係性とに基づき検出し、前記アクティビティ、前記ジェスチャ、又は前記予測されるステップの少なくともいずれかの語彙記述の統合及び供給を行う処理をプロセッサに実行させる命令を記憶した記憶媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/023268 WO2021250901A1 (en) | 2020-06-12 | 2020-06-12 | Intention detection device, intention detection method computer-readable storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023528513A true JP2023528513A (ja) | 2023-07-04 |
JP7396517B2 JP7396517B2 (ja) | 2023-12-12 |
Family
ID=78847155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022575247A Active JP7396517B2 (ja) | 2020-06-12 | 2020-06-12 | 意図検出装置、意図検出方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230230354A1 (ja) |
JP (1) | JP7396517B2 (ja) |
WO (1) | WO2021250901A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3940586A1 (en) * | 2020-07-17 | 2022-01-19 | Sony Group Corporation | An electronic device and a related method for detecting and counting an action |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018163555A1 (ja) | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
WO2020022362A1 (ja) * | 2018-07-24 | 2020-01-30 | 国立研究開発法人国立精神・神経医療研究センター | 動き検出装置、特性検出装置、流体検出装置、動き検出システム、動き検出方法、プログラム、および、記録媒体 |
-
2020
- 2020-06-12 US US18/009,202 patent/US20230230354A1/en active Pending
- 2020-06-12 WO PCT/JP2020/023268 patent/WO2021250901A1/en active Application Filing
- 2020-06-12 JP JP2022575247A patent/JP7396517B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2021250901A1 (en) | 2021-12-16 |
JP7396517B2 (ja) | 2023-12-12 |
US20230230354A1 (en) | 2023-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pereira et al. | Quantifying behavior to understand the brain | |
Hu et al. | Early action prediction by soft regression | |
JP6647573B2 (ja) | 人工知能モジュール開発システム及び人工知能モジュール開発統合システム | |
Du et al. | Hierarchical recurrent neural network for skeleton based action recognition | |
US7203635B2 (en) | Layered models for context awareness | |
Várkonyi-Kóczy et al. | Human–computer interaction for smart environment applications using fuzzy hand posture and gesture models | |
US11803974B2 (en) | Automated system to measure multi-animal body part dynamics | |
US20210173377A1 (en) | Systems and Methods for Advance Anomaly Detection in a Discrete Manufacturing Process with a Task Performed by a Human-Robot Team | |
JPWO2002099545A1 (ja) | マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法 | |
US11825278B2 (en) | Device and method for auto audio and video focusing | |
Mohammad et al. | Unsupervised simultaneous learning of gestures, actions and their associations for human-robot interaction | |
CN114730407A (zh) | 使用神经网络对工作环境中的人类行为进行建模 | |
JP7396517B2 (ja) | 意図検出装置、意図検出方法及びプログラム | |
Avsar et al. | Benchmarking annotation procedures for multi-channel time series HAR dataset | |
Al Mahmud et al. | 3D gesture recognition and adaptation for human–robot interaction | |
CN112257663B (zh) | 一种基于贝叶斯网络的设计意图识别方法及系统 | |
CN117592542A (zh) | 用于机器学习模型的具有对比损失的专家引导半监督的系统和方法 | |
Alibeigi et al. | A fast, robust, and incremental model for learning high-level concepts from human motions by imitation | |
Guimarães et al. | A taxonomy of Self-organizing Maps for temporal sequence processing | |
García et al. | Dynamic facial landmarking selection for emotion recognition using Gaussian processes | |
Tang et al. | Extracting commands from gestures: Gesture spotting and recognition for real-time music performance | |
JP7485217B2 (ja) | 分類装置、分類方法及びプログラム | |
Ghosh et al. | Visual Search as a Probabilistic Sequential Decision Process in Software Autonomous System | |
Zegarra et al. | An application of machine learning methods to cutting tool path clustering and rul estimation in machining | |
Orovwode et al. | The Use of Hand Gestures as a Tool for Presentation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231113 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7396517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |