JP6895276B2 - 行動認識システムおよび行動認識方法 - Google Patents
行動認識システムおよび行動認識方法 Download PDFInfo
- Publication number
- JP6895276B2 JP6895276B2 JP2017040291A JP2017040291A JP6895276B2 JP 6895276 B2 JP6895276 B2 JP 6895276B2 JP 2017040291 A JP2017040291 A JP 2017040291A JP 2017040291 A JP2017040291 A JP 2017040291A JP 6895276 B2 JP6895276 B2 JP 6895276B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- recognition
- behavior
- definition
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Description
以下、本発明の実施形態1を、図1ないし図6を用いて説明する。
行動認識システム100は、図1に示されるように、センサ101、基底認識部102、基底認識用DB(Date Base)103、行動認識部104、行動定義DB105、認識結果表示部106、行動定義部107、行動定義変換部108、基底・関連語表示部109、基底・関連語DB110の各機能部とデータベースを有している。ここで、図1では、説明を簡単化するため、基底認識部102や基底認識用DB103は一つしか記載していないが、これらは用いる基底の種類に応じて、複数存在してもよい。例えば、行動を記述するための基底としては、オブジェクト、動作、姿勢、シーンなどが挙げられる。
本実施形態の行動認識システム100を実現するための情報処理装置は、例えば、図2に示すようなハードウェア構成を備える情報処理装置200を用いて実行することができる。
センサ101としては、様々な種類のセンサを用いることができる。例えば、天井などに固定したビデオカメラを用いてもよいし、スマートグラスなどの装着者の一人称視点の映像が取得できるカメラを用いてもよい。また、装着者の注視箇所の位置情報が得られるアイトラッキンググラスを用いてもよい。距離センサを用いてもよいし、マイクなどの音響センサを用いてもよい。加速度センサやジャイロセンサなどを搭載するウェアラブルセンサを対象の人やモノにつけてもよい。脈拍や心拍数、筋電位などの生理指標を計測するセンサを用いてもよい。圧力を計測するマットなどを用いてもよい。いずれにしても、基底を認識するための情報が得られるセンサであれば、本実施形態で用いるセンサの種類については限定されない。
行動認識部104は、基底認識の結果と、行動定義DB105に格納されている行動定義を照らし合わせて、行動を認識する。
先ず、システムのユーザが行動定義部107の提示するGUIを通じて、新規行動を定義する方法について説明をする。図6(a)には、初期状態のGUIの例が、図6(b)には、新規行動定義に関する情報を入力しているGUIの例が示されている。ここで、基底オブジェクトリスト605、基底動作リスト606は、ユーザが選択可能な基底とその基底に含まれる基底要素のリストを表しており、関連語リスト607は、ユーザが選択可能な関連語を表している。これら選択可能な基底要素および関連語のリストは、基底・関連語DB110に予め格納しておき、それを行動定義部107が読み出して、例えば、図6(a)のような形でユーザに提示する。同様に、定義済み行動リスト608は、ユーザが選択可能な定義済み行動を表しており、これは行動定義DB105からリストを読み出した上で表示する。
以下、本発明の実施形態2を、図7ないし図11を用いて説明する。
本実施形態の行動定義自動生成機能付行動認識システム700は、図1に記載の行動認識システム100に加えて、図7に示されるように、センサデータDB701、行動始終点情報付与部702、行動定義自動生成部703を有している。
行動定義自動生成機能付行動認識システム700は、先ずセンサ101からの出力をセンサデータDB701に格納する。一定の量のデータがセンサデータDB701に蓄積された後、ユーザは、行動始終点情報付与部702を介して、システムに認識させたい行動の開始時刻および終了時刻を入力する。行動始終点情報付与部702は、例えば、図8に示すようなユーザインタフェース画面を介して、ユーザからの対象行動の始終点情報の入力を受け付けるようにするとよい。センサデータ表示用ウィンドウ801は、センサデータDB701に蓄積されているセンサデータに関する情報を表示するウィンドウであり、センサデータがビデオである場合にはそのビデオの再生映像を、加速度データやジャイロデータ、音響データである場合には、その時系列データをプロットした波形を表示する。この他に例えば、音響データに関しては、同時にその音を再生するなどしてもよい。タイムスライダー802は、再生時刻カーソル803で示される時刻のセンサデータに関する情報をセンサデータ表示用ウィンドウ801に表示するようにする。ユーザは、再生時刻カーソル803を移動させることにより、センサデータ表示用ウィンドウ801に表示する時刻を変えることができる。再生制御ボタン804の操作は、例えば、中央の三角のボタンをクリックすると、ビデオなどが再生される。
ここで、説明のため、行動始終点情報付与部702を通して、ユーザが入力した認識対象行動の開始時刻をts、終了時刻をteとおく。
Sを、S906において求めた部分行動から構成し得る全ての行動の集合とする。全ての部分行動は、単独でそのまま行動となることができるため、先ず、S906において求めた部分行動の集合をSとおく(S1101)。次に、新たな行動が定義されたか否かを表すフラグflagAddedNewActivityをFalseにセットし、集合Sの要素数|S|を変数Mにセットする(S1102)。そして、集合Sの中から、二つの部分行動siとsjを順次取り出し、これらを用いて新たな行動の定義が可能か否かをチェックしていく。ここで、図11のフローチャートのループの表記として、C言語のfor文の文法を用いて記述している。
以下、本発明の実施形態3を、図12ないし図14を用いて説明する。
本実施形態では、システムに認識させたい行動を自然言語を用いて記述することができる行動認識システム(自然言語解釈機能付行動認識システム)の例について説明をする。これにより、ユーザは行動を構成する基底要素さえも意識することなく、行動を定義することが可能になる。
自然言語解釈機能付行動認識システム1200は、図1に記載の行動認識システム100の構成に加えて、基底類似語DB1203を有すると共に、図12に示されるように、行動定義部107に変えて自然言語入力機能付行動定義部1201、行動定義変換部108に変えて自然言語解釈機能付行動定義変換部1202を有している。
基底類似語DB1203には、各基底要素の類似語を予め登録しておく。図13は、基底類似語DB1203に格納されているデータの一例を示す図であり、例えば、”Person”には、「人」「人間」「男性」「女性」などの類似概念を表現する語が記録されている。
図6のGUIに加えて、ユーザ自らが基底要素を組み合わせて行動を定義するか、自然言語を用いて行動を定義するかを択一的に選択する基底利用行動定義用ラジオボタン1401および自然言語利用行動定義用ラジオボタン1402と、自然言語入力用の行動定義用自然言語入力テキストボックス1403が備わっている。
以下、本発明の実施形態4を、図15および図16を用いて説明する。
基底要素や部分行動・行動の種類によっては、一般的な継続時間や、センサとしてカメラを用いる際の画像内の大きさなど、何らかのコンテキスト情報を含んでいることがある。そこで、本実施形態では、これを事前知識としてシステムに与えることで、より高精度に基底認識および行動認識を行うことのできる行動認識システム(基底要素別事前情報付行動認識システム)の例を説明する。
基底要素別事前情報付行動認識システム1500は、図1に記載の行動認識システム100の構成に加えて、基底要素別事前情報DB1501を有していると共に、図15に示されように、基底認識部102に変えて事前情報付基底認識部1502を有している。
以下、本発明の実施形態5を、図17および図19を用いて説明する。
関連語の中には、基底要素や部分行動間の時間的・空間的関係性を表す言葉が含まれうる。例えば、関連語”Then”は部分行動1が生じた一定時間後に、部分行動2が生じることを表すために用いる。これまでに述べた実施形態の中では、暗黙的にこの一定時間というのは状況によらず不変であると仮定して詳細には説明をしてこなかったが、行動の種類によって、この間隔が長い傾向があるものもあれば短い傾向があるものもあり得る。
関連語カスタマイズ機能付行動認識システム1700は、図1に記載の行動認識システム100の構成に加えて、図17に示されるように、関連語カスタマイズ部1701を有している。
ユーザは先ず、図18に示されたユーザインタフェース画面の行動名選択用ドロップダウンリスト1801から関連語のカスタマイズを行いたい行動を選択する。行動名選択用ドロップダウンリスト1801には、行動定義DB105に格納されている定義済みの行動を予め設定しておく。ユーザは、次に、読み込みボタン1802をクリックする。これにより、関連語カスタマイズ部1701は、行動定義DB105から当該行動の定義を読み込み、それを行動定義表示欄1803に表示する。さらに、行動認識部104等を用いて、既に蓄積されているデータに対して当該行動の認識処理を行う。そこで、例えば、当該行動の確率が一定の閾値以上である時間帯の列を抽出する。
以下、本発明の実施形態6を、図20および図21を用いて説明する。
これまでに述べたいずれかの方法によって、ユーザが認識をさせたい行動を定義したとき、それが必ずしもユーザが認識させたい行動の最適な定義になっているとは限らない。例えば、ユーザは本来必要でない余分な基底要素を含んだ形で行動を定義してしまうかもしれないし、逆に本来必要な基底要素を含まずに行動を定義してしまうかもしれない。あるいは、関連語の使い方を誤ってしまうこともあり得る。
行動定義修正案提案機能付行動認識システム2000は、図1に記載の行動認識システム100の構成に加えて、図20に示されるように、行動定義修正提案部2001を有している。
行動定義修正提案部2001は、上記で説明した関連語カスタマイズ部1701がユーザに提示する図18のユーザインタフェース画面と同様のユーザインタフェース画面を有する。このユーザインタフェース画面を用いて、上記の説明と同様の処理で、既に蓄積されているデータに対するある行動の認識結果について、ユーザに正解・不正解の情報を入力させる。
以下、本発明の実施形態7を、図22および図23を用いて説明する。
本実施形態では、これまでに説明した行動認識システムを用いて行動認識を行い、認識された行動の結果を用いて、ユーザに更なる付加価値をもたらすことのできる行動認識システム(行動統計情報表示機能付行動認識システム)を説明する。
行動統計情報表示機能付行動認識システム2200は、図1に記載の行動認識システム100の構成に加えて、図22に示されるように、行動統計情報表示部2201を有している。
図23は、行動統計情報表示機能付行動認識システム2200のユーザインタフェース画面の例を示す図である。
以下、本発明の実施形態7を、図24および図25を用いて説明する。
実施形態7では、行動統計情報表示する機能を有する動認識システムについて説明したが、本実施形態では、認識された行動の結果によって、ユーザが具体的にシステムに対して、行動認識時動作設定できる行動認識システム(行動認識時動作設定機能付行動認識システム)を説明する。
行動認識時動作設定機能付行動認識システム2400は、図1に記載の行動認識システム100の構成に加えて、図24に示されるように、認識時動作設定部2401を有している。
101…センサ
102…基底認識部
103…基底認識用DB
104…行動認識部
105…行動定義DB
106…認識結果表示部
107…行動定義部
108…行動定義変換部
200…情報処理装置
201…入力装置
202…中央演算処理装置
203…主記憶装置
204…補助記憶装置
205…出力装置
206…バス
600…ユーザインタフェース画面(行動認識システム100)
601…行動名入力テキストボックス
602…部分行動1入力枠
603…関連語入力枠
604…部分行動2入力枠
605…基底オブジェクトリスト
606…基底動作リスト
607…関連語リスト
608…定義済み行動リスト
609…登録ボタン
610…ポインタ
700…行動定義自動生成機能付行動認識システム
701…センサデータDB
702…行動始終点情報付与部
703…行動定義自動生成部
800…行動開始時刻・行動終了時刻指定用ユーザインタフェース画面
801…センサデータ表示用ウィンドウ
802…タイムスライダー
803…再生時刻カーソル
804…再生制御ボタン
805…開始時刻・終了時刻設定用ボタン
806…リセットボタン
1200…自然言語解釈機能付行動認識システム
1201…自然言語入力機能付行動定義部
1202…自然言語解釈機能付行動定義変換部
1203…基底類似語DB
1400…ユーザインタフェース画面(自然言語解釈機能付行動認識システム1200)
1401…基底利用行動定義用ラジオボタン
1402…自然言語利用行動定義用ラジオボタン
1403…行動定義用自然言語入力テキストボックス
1500…基底要素別事前情報付行動認識システム
1501…基底要素別事前情報DB
1502…事前情報付基底認識部
1700…関連語カスタマイズ機能付行動認識システム
1701…関連語カスタマイズ部
1800…ユーザインタフェース画面(関連語カスタマイズ機能付行動認識システム1700)
1801…行動名選択用ドロップダウンリスト
1802…読み込みボタン
1803…行動定義表示欄
1804…センサデータ表示欄
1805…前に戻るボタン
1806…再生ボタン
1807…後に進むボタン
1808…正解ボタン
1809…不正解ボタン
2000…行動定義修正案提案機能付行動認識システム
2001…行動定義修正提案部
2200…行動統計情報表示機能付行動認識システム
2201…行動統計情報表示部
2300…ユーザインタフェース画面(行動定義修正案提案機能付行動認識システム2000)
2301…区間入力用テキストボックス
2302…表示ボタン
2303…統計情報表示用ウィンドウ
2400…行動認識時動作設定機能付行動認識システム
2401…認識時動作設定部
2500…ユーザインタフェース画面(行動認識時動作設定機能付行動認識システム2400)
2501…行動名選択用ドロップダウンリスト
2502…行動選択用チェックボックス
2503…登録ボタン
Claims (14)
- 行動を表現するための構成要素となる基底と、基底や行動間の関係性を記述するための関連語のリストを格納する第一のデータベースと、
人の行動に関する情報を収集するセンサと、
前記センサの出力値または前記センサの出力値に対して所定の変換を施して得られる値と、基底とを対応付けるための情報を格納する第二のデータベースと、
前記第二のデータベースに格納された情報に基づいて、前記センサの出力値または前記センサの出力値に対して所定の変換を施して得られる値から、基底の認識処理を行う基底認識部と、
基底を用いた行動の定義情報を格納する第三のデータベースと、
前記基底認識部の認識結果と、前記第三のデータベースに格納されている行動の定義情報を照らし合わせて、行動認識を行う行動認識部と、
前記基底認識部の認識結果および前記行動認識部の認識結果を表示する認識結果表示部と、
前記第一のデータベースに格納されている基底および関連語のリストを表示する基底・関連語表示部と、
前記基底・関連語表示部に表示された基底および関連語から選択された基底および関連語に基づいて、行動を基底の組み合わせとして定義する行動定義部と、
前記行動定義部により定義された行動定義情報を、前記第三のデータベースに格納する行動定義の形式に変換する行動定義変換部と、を備えることを特徴とする行動認識システム。 - 前記センサの出力値を格納する第四のデータベースをさらに備え、
ユーザが基底を組み合わせて行動定義を行う際に、前記第四のデータベースに格納されたデータから、各基底要素に対応するデータに関する情報を抽出して表示することを特徴とする請求項1記載の行動認識システム。 - 前記センサの出力値を記録しておくための第四のデータベースをさらに備え、
ユーザが新たな行動を定義した際に、前記第四のデータベースに格納されたデータから、ユーザが行った行動定義に合致するシーンを抽出して表示することを特徴とする請求項1記載の行動認識システム。 - 前記センサの出力値を記録しておくための第四のデータベースと、
前記第四のデータベースに格納されたデータを表示し、ユーザが認識をさせたい行動の開始時刻と終了時刻を入力させる行動始終点情報付与部と、
前記行動始終点情報付与部に入力された行動の始終点の情報を取得し、入力された行動の開始時刻と終了時刻の間の時間帯に起こった行動を記述する基底の組み合わせを自動生成する行動定義自動生成部とをさらに備えることを特徴とする請求項1記載の行動認識システム。 - 前記基底の類似語を格納する第五のデータベースと、
ユーザからの自然言語による行動の定義を入力させる自然言語入力機能付行動定義部と、
入力された自然言語による行動の定義と、前記第五のデータベースに格納された類似語の情報とに基づき、前記自然言語による行動の定義を、基底の組み合わせとして表現する自然言語解釈機能付行動定義変換部とをさらに備えることを特徴とする請求項1記載の行動認識システム。 - 基底ごとの事前情報を格納する第六のデータベースと、
前記第六のデータベースに格納された事前情報に基づき、前記基底認識部の認識結果を
補正する事前情報付基底認識部とをさらに備えることを特徴とする請求項1記載の行動認識システム。 - 基底間の共起関係に関する事前情報を格納する第七のデータベースと、
前記第七のデータベースに格納された共起関係に関する事前情報に基づき、前記センサの出力値を用いた基底認識の結果を補正する事前情報付基底認識部とをさらに備えることを特徴とする請求項1記載の行動認識システム。 - 前記関連語を含む行動の認識処理を行った結果をユーザに表示し、その認識結果が正しいか正しくないかをユーザに入力させ、入力された入力情報を用いて、関連語の属性を当該行動用にカスタマイズする関連語カスタマイズ部をさらに備えることを特徴とする請求項1記載の行動認識システム。
- ある行動の認識処理を行った結果をユーザに提示して、その認識結果が正しいか正しくないかをユーザに入力させ、入力された入力情報を用いて、行動定義の修正案を自動生成して表示する行動定義修正提案部をさらに備えることを特徴とする請求項1記載の行動認識システム。
- 前記第四のデータベースに格納されたデータの中から所定の区間のデータを読み出し、前記読み出したデータに対して、前記行動認識部を用いて行動認識処理を行い、前期行動認識処理の結果を用いて、行動統計情報を生成し、前記行動統計情報を表示する行動統計情報表示部をさらに備えることを特徴とする請求項2記載の行動認識システム。
- 前記行動認識部を用いて行動認識処理を行い、前期行動認識処理の結果に応じて行うシステムの動作を設定させる認識時動作設定部をさらに備えることを特徴とする請求項1記載の行動認識システム。
- 行動を表現するための構成要素となる基底として、身体活動と物体の動きとを表す動作を用い、前記動作を認識するためのセンサとして、加速度データが取得できるウェアラブルセンサを用いることを特徴とする請求項1記載の行動認識システム。
- 行動を表現するための構成要素となる基底として、オブジェクトを用い、前記オブジェクトを認識するためのセンサとして、装着者の視点の映像と注視箇所の情報が取得できるアイトラッキンググラスを用いることを特徴とする請求項1記載の行動認識システム。
- 行動認識システムによる行動認識方法であって、
前記行動認識システムは、
行動を表現するための構成要素となる基底と、基底や行動間の関係性を記述するための関連語のリストを格納する第一のデータベースと、
人の行動に関する情報を収集するセンサと、
前記センサの出力値または前記センサの出力値に対して所定の変換を施して得られる値と、基底とを対応付けるための情報を格納する第二のデータベースと、
前記第二のデータベースに格納された情報に基づいて、前記センサの出力値または前記センサの出力値に対して所定の変換を施して得られる値から、基底の認識処理を行う基底認識部と、
基底を用いた行動の定義情報を格納する第三のデータベースと、
前記基底認識部の認識結果と、前記第三のデータベースに格納されている行動の定義情報を照らし合わせて、行動認識を行う行動認識部と、
前記基底認識部の認識結果および前記行動認識部の認識結果を表示する認識結果表示部と、
前記第一のデータベースに格納されている基底および関連語のリストを表示する基底・関連語表示部と、
前記基底・関連語表示部に表示された基底および関連語から選択された基底および関連語に基づいて、行動を基底の組み合わせとして定義する行動定義部と、
前記行動定義部により定義された行動定義情報を、前記第三のデータベースに格納する行動定義の形式に変換する行動定義変換部と、を備え、
前記行動認識システムが、行動を表現するための構成要素となる基底と、基底や行動間の関係性を記述するための関連語とリストを格納する第一のデータベースから前記基底のリストと関連語のリストを読み出すステップと、
前記行動認識システムが、人の行動に関する情報を収集するセンサの出力値または前記センサの出力値に対して所定の変換を施して得られる値と、基底とを対応付けるための情報を格納する第二のデータベースから基底と対応付けるための情報を読み出すステップと、
前記基底認識部が、前記第二のデータベースに格納された情報に基づいて、前記センサの出力値または前記センサの出力値に対して所定の変換を施して得られる値から、基底の認識処理を行うステップと、
前記行動認識システムが、基底を用いた行動の定義情報を格納する第三のデータベースから前記定義情報を読み出すステップと、
前記行動認識部が、前記基底の認識処理を行うステップによる認識結果と、前記第三のデータベースに格納されている行動の定義情報を照らし合わせて、行動認識を行うステップと、
前記認識結果表示部が、前記基底の認識処理を行うステップによる認識結果および前記行動認識を行うステップによる認識結果を表示するステップと、
前記基底・関連語表示部が、前記第一のデータベースに格納されている基底および関連語のリストを表示するステップと、
前記行動定義部が、表示された基底および関連語から選択された基底および関連語に基づいて、行動を基底の組み合わせとして定義するステップと、
前記行動定義変換部が、前記行動を基底の組み合わせとして定義するステップによる行動定義情報を、前記第三のデータベースに格納する行動定義の形式に変換するステップとを有することを特徴とする行動認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017040291A JP6895276B2 (ja) | 2017-03-03 | 2017-03-03 | 行動認識システムおよび行動認識方法 |
PCT/JP2018/006997 WO2018159542A1 (ja) | 2017-03-03 | 2018-02-26 | 行動認識システムおよび行動認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017040291A JP6895276B2 (ja) | 2017-03-03 | 2017-03-03 | 行動認識システムおよび行動認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018147153A JP2018147153A (ja) | 2018-09-20 |
JP6895276B2 true JP6895276B2 (ja) | 2021-06-30 |
Family
ID=63370730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017040291A Active JP6895276B2 (ja) | 2017-03-03 | 2017-03-03 | 行動認識システムおよび行動認識方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6895276B2 (ja) |
WO (1) | WO2018159542A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109543590B (zh) * | 2018-11-16 | 2023-04-18 | 中山大学 | 一种基于行为关联度融合特征的视频人体行为识别算法 |
CN109726662A (zh) * | 2018-12-24 | 2019-05-07 | 南京师范大学 | 基于卷积和循环组合神经网络的多类别人体姿态识别方法 |
KR102279958B1 (ko) * | 2019-07-18 | 2021-07-21 | 인하대학교 산학협력단 | 영상과 소리를 이용한 동물 상태 인식 방법 및 장치 |
US11847859B2 (en) | 2019-09-02 | 2023-12-19 | Nec Corporation | Information processing device, method, and program recording medium |
CN111507180B (zh) * | 2020-03-10 | 2023-04-18 | 杭州电子科技大学 | 一种基于运动数据的转换动作识别方法及运动识别方法 |
JP7459679B2 (ja) | 2020-06-23 | 2024-04-02 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
CN112001453B (zh) * | 2020-08-31 | 2024-03-08 | 北京易华录信息技术股份有限公司 | 一种视频事件检测算法的准确率计算方法及装置 |
JP2022109646A (ja) * | 2021-01-15 | 2022-07-28 | オムロン株式会社 | 作業レベル変換装置、作業レベル変換方法及び作業レベル変換プログラム |
WO2024105752A1 (ja) * | 2022-11-14 | 2024-05-23 | 日本電信電話株式会社 | 行動認識学習装置、行動認識推定装置、行動認識学習方法、及び行動認識学習プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009160341A (ja) * | 2008-01-10 | 2009-07-23 | Yokogawa Electric Corp | 就寝時体動識別装置 |
EP2330554A4 (en) * | 2008-09-19 | 2013-05-22 | Hitachi Ltd | METHOD AND SYSTEM FOR GENERATING BEHAVIOR HISTORY |
JP5359414B2 (ja) * | 2009-03-13 | 2013-12-04 | 沖電気工業株式会社 | 行動認識方法、装置及びプログラム |
JP5047326B2 (ja) * | 2010-03-31 | 2012-10-10 | 株式会社東芝 | 行動判定装置、方法及びプログラム |
US8775120B2 (en) * | 2010-09-30 | 2014-07-08 | Fitbit, Inc. | Method of data synthesis |
KR101165537B1 (ko) * | 2010-10-27 | 2012-07-16 | 삼성에스디에스 주식회사 | 사용자 장치 및 그의 사용자의 상황 인지 방법 |
KR20150069331A (ko) * | 2013-12-13 | 2015-06-23 | 삼성전자주식회사 | 사용자 라이프 로그 생성 방법 및 시스템 |
DE112015006877B4 (de) * | 2015-09-03 | 2024-05-02 | Mitsubishi Electric Corporation | Verhaltens-Identifizierungseinrichtung, Klimaanlage und Robotersteuerung |
-
2017
- 2017-03-03 JP JP2017040291A patent/JP6895276B2/ja active Active
-
2018
- 2018-02-26 WO PCT/JP2018/006997 patent/WO2018159542A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018159542A1 (ja) | 2018-09-07 |
JP2018147153A (ja) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6895276B2 (ja) | 行動認識システムおよび行動認識方法 | |
JP6900190B2 (ja) | 認識学習装置、認識学習方法及びプログラム | |
US10909401B2 (en) | Attention-based explanations for artificial intelligence behavior | |
US20240152548A1 (en) | Electronic apparatus for searching related image and control method therefor | |
US9177049B2 (en) | System and method for interactive visual representation of information content using assertions | |
US11954150B2 (en) | Electronic device and method for controlling the electronic device thereof | |
US20190042574A1 (en) | Electronic device and method for controlling the electronic device | |
CN108073760A (zh) | 用于获取分析模型编写知识的方法及系统 | |
JP2001075939A (ja) | 並列処理を利用するデータ処理法とシステム | |
KR102387767B1 (ko) | 사용자 관심 정보 생성 장치 및 그 방법 | |
CN107168705B (zh) | 图形界面语义描述系统及其建立方法和操作路径生成方法 | |
US20160306870A1 (en) | System and method for capture, classification and dimensioning of micro-expression temporal dynamic data into personal expression-relevant profile | |
Healey et al. | Interest driven navigation in visualization | |
US20180101391A1 (en) | System for co-adaptive human-computer interaction | |
JP2023076426A (ja) | 技術的知識獲得のための機械学習システム | |
CN110069129A (zh) | 确定系统和确定方法 | |
US11586841B2 (en) | Method and system for generating user driven adaptive object visualizations using generative adversarial network models | |
KR102331126B1 (ko) | 연상 메모리와 결합된 모션 감지 장치를 이용해서 움직임을 식별하기 위한 시스템 및 방법 | |
CN115937975A (zh) | 一种基于多模态序列融合的动作识别方法及系统 | |
JP5544508B2 (ja) | 行動識別システム | |
JP7316916B2 (ja) | 管理装置及びプログラム | |
WO2020170986A1 (ja) | 情報処理装置、方法及びプログラム | |
JP2021165892A (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN110494862B (zh) | 序列产生装置及其控制方法 | |
JP2020071709A (ja) | 判断条件生成支援プログラム、判断条件生成支援方法および情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6895276 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |