JP6886651B2 - 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 - Google Patents
行動コマンド生成システム、応答システムおよび行動コマンド生成方法 Download PDFInfo
- Publication number
- JP6886651B2 JP6886651B2 JP2016238910A JP2016238910A JP6886651B2 JP 6886651 B2 JP6886651 B2 JP 6886651B2 JP 2016238910 A JP2016238910 A JP 2016238910A JP 2016238910 A JP2016238910 A JP 2016238910A JP 6886651 B2 JP6886651 B2 JP 6886651B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- participant
- vector
- robot
- situation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 title claims description 224
- 238000000034 method Methods 0.000 title claims description 73
- 230000004044 response Effects 0.000 title claims description 28
- 239000013598 vector Substances 0.000 claims description 157
- 230000033001 locomotion Effects 0.000 claims description 94
- 241000282414 Homo sapiens Species 0.000 claims description 37
- 238000003860 storage Methods 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 25
- 230000003542 behavioural effect Effects 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 18
- 241000282412 Homo Species 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims 1
- 230000003993 interaction Effects 0.000 description 131
- 230000006399 behavior Effects 0.000 description 117
- 230000008569 process Effects 0.000 description 46
- 238000012549 training Methods 0.000 description 44
- 238000010586 diagram Methods 0.000 description 43
- 238000012545 processing Methods 0.000 description 41
- 230000000875 corresponding effect Effects 0.000 description 36
- 238000013480 data collection Methods 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 17
- 230000008878 coupling Effects 0.000 description 17
- 238000010168 coupling process Methods 0.000 description 17
- 238000005859 coupling reaction Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 15
- 238000010801 machine learning Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000011273 social behavior Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 235000012571 Ficus glomerata Nutrition 0.000 description 1
- 244000153665 Ficus glomerata Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001936 parietal effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
(実施の形態の説明)
本実施の形態では、ロボットと人とのコミュニケーション態様の設計(以下、「インタラクション設計」と呼ぶ)へ、以下に説明するようなデータ駆動型のアプローチをとることで、従来の問題への解決策を提供する。
また、マイクロホンアレイのような技術は、ノイズの多い現実世界の環境の中で使用可能な音源定位および音声認識を提供することができる。このようなマイクロホンアレイについては、以下の文献に開示がある。
図1は、本実施の形態において、人と人の間の「発話と行動によるコミュニケーション」(以下、ロボットと人との間も含めて、「インタラクション」と呼ぶ)のデータを取得する空間を示す概念図である。
文献2:D. Brscic, T. Kanda, T. Ikeda, and T. Miyashita, "Person Tracking in Large Public Spaces Using 3-D Range Sensors," Human-Machine Systems, IEEE Transactions on, vol. 43, pp. 522-534, 2013.
頭頂領域を最適にカバーするためには、3Dセンサは、水平からおよそ30−60度の角度を見込み、特定の部屋およびセンサ構成に適合するように選ばれた正確な角度となるように、手動で向きを調節される。
図4は、演算装置100のハードウェア構成を説明するためのブロック図である。
図5は、本実施の形態の演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。
以下では、このような対象物(人)のトラッキングの処理を行う前提として、複数の3Dおよび2D距離センサの位置および向きは、グローバル座標系において、較正されているものとする。
[学習データ収集過程]
以下では、例として、図1に示した空間的な環境下で、店主と顧客との行動について収集した訓練データにより、ロボットと顧客との間のインタラクションを可能とする構成について説明する。
(センサー環境)
ロボットが人とのインタラクションに対する学習用の人・人間のインタラクション・データを集める環境(「学習データ収集環境」)のために、人の運動および発話が、システム10よりキャプチャされる。ここでは、学習データ収集環境において、人・人間のインタラクションを実行する主体を「参加者」と呼ぶことにする。
(データ駆動型のインタラクションロジックの生成の概要)
以下に説明する通り、サービス・ロボットが、人・人間のインタラクションからキャプチャされたデータを使用して、人間行動を再現することを可能にするために、システム10が、完全にデータ駆動型で、インタラクション・ロジックを生成する。
(学習データ収集環境でのインタラクションの具体例)
図1に示したように、学習データ収集環境の一例として、カメラ店の設定における買い物をするシナリオを選び、参加者のうちの一人に店主としてロールプレイをすることを依頼し、参加者の他の一人には顧客としてロールプレイすることが依頼された。
(1)特定の特徴を持ったカメラを探している顧客(4つの試行)、
(2)多数のカメラに興味を持っている好奇心の強い顧客 (4つの試行)あるいは
(3)一人で見て回るのが好きなウィンドウショッピングの顧客(2つの試行)。
定義されたシナリオ内では、参加者は、自然な会話形言語の使用し、自由形式で対話した。人々の用語や語法の合理的な多様性の変化が観察された。
(1)大きなメモリを備えたカメラを探す顧客、および
(2)バッテリの持ちがよいカメラに興味を持っている好奇心の強い顧客。
[システム10の処理の詳細]
以下では、システム10が行う処理をさらに詳しく説明する。
(抽象化)
人・人間のインタラクションから学習するために、データ駆動型のアプローチを使用するときの課題の一つは、仮に、簡単のために、視線、身振りおよび顔の表情のような社会的行動についての考慮を省略し、単に発話および移動のみを考慮するとした場合でさえ、対象となる人間行動は、非常に高い次元の特徴空間を占めるということである。
1)発話クラスタリング
図7は、参加者の発話を自動的にクラスタリングする処理を実行する構成を説明するための機能ブロック図である。
(音声認識)
ここで、音声認識部2202が実行する自動音声認識については、既存の発話APIを使用することができる。
(キーワード抽出)
「私は大きなメモリー容量のカメラを捜している。」また、「私は大きなLCDサイズのカメラを捜している」というような句は、語彙の類似性にもかかわらず異なる意味を持っている。
あるいは、クラウドサービスとして公開されている、句の中のキーワードをキャプチャするためAlchemyAPIなどを使用することもできる。このAPIは、ディープラーニングに基づいたテキスト解析のためのクラウドに基づいたサービスである。
(潜在意味解析)
潜在意味解析部2206は、潜在意味解析(LSA)を使用して、各発話を表わすためのベクトルを作成する。ここで、LSAは、テキストマイニング用途において、ドキュメントの類似性の分類のために一般的に使用される技術である。
潜在意味解析部2206は、各発話ごとに返されたキーワードのリストに対して、LSAの特徴ベクトル(発話ベクトル304)を生成する。
(店主発話のクラスタリング)
クラスタ化処理部2208は、観察された店主発話をユニークな発話エレメントを表わすクラスタ(発話クラスタ306)へグループ化する。このような処理のためには、たとえば、以下の文献に開示されているダイナミックな階層的クラスタ分割を使用することができる。
図8は、得られたクラスタのうちの1つのクラスタについての発話の分布を説明する図である。
(典型的な発話抽出)
典型発話抽出部2210は、各店主の発話クラスタから、1つの発話を、典型発話として、行動生成で使用するために選択する。
以上の説明は、参加者の発話のクラスタリングと、各クラスタについての代表発話の選択について説明した。
(停止位置)
続いて、空間クラスタリング部2304は、停止セグメントをクラスタリングして、各クラスタごとに、停止位置を抽出し、停止位置データ312として、記憶装置300に格納する。ここでは、各クラスタの重心を「停止位置」として定義する。
(軌道クラスタ)
また、軌道クラスタリング部2306は、訓練データの中にある典型的な運動軌道を識別するためにそれらのセグメントをクラスタに分ける。
各クラスタのメドイド(medoid)軌道は、軌道クラスタ特徴抽出部2308により「典型的な軌道」(代表軌道データ314)として指定され、その典型的な軌道のスタートポイントおよびエンドポイントへの最も近い停止位置(運動起点データ3146および運動目標位置データ3148)が特定される。
(インタラクション状態)
次に、人・人間のインタラクション状態の抽象化処理について説明する。
ここで、「待機」とは、特定の停止位置で、一人で停止している状態を意味し、「移動」とは、いずれかの典型軌道に代表される移動軌道で移動している状態を意味する。
また、好奇心の強い顧客の場合は、たとえば、以下のようなシーケンスが典型的である。
すなわち、ウィンドショッピングの場合は、各ブランドの製品を見て回っている途中で、たまたま、店員がいた場合に、その説明を受ける、という状態遷移をするものの、「特定の製品の提示」に費やす時間は、比較的短い。
ii)人と人との間の距離に基づく対面状態(以下、「対面状態」:二人の人が、所定の距離以内で向き合っているが製品とは所定の距離以上離れて停止している状態)、
iii)待機状態(一人の人が特定の停止位置に停止しており、他者とはインタラクションをしていない状態)
図15は、インタラクション状態のうち、「製品の提示状態」を示す概念図である。
[ベクトル化]
以下に説明するように、オフライン・トレーニングあるいはオンライン・インタラクション用の時系列のセンサー・データの処理においては、抽象化が実行され、離散的な顧客および店主の行動を後述するようなベクトルで表現する。
[訓練データからの予測器の生成]
以下では、以上のようにして、訓練データについて、移動と発話を含む行動についての抽象化の処理が終了した後に、訓練処理部400によって、訓練データから予測器が生成される処理について説明する。
(動作分析)
抽象化処理部210によるオフラインの軌道解析の中で使用されるのと同じ速度しきい値を用いて、動作要素抽出部410は、人が移動しているか、停止しているかを識別し、行動離散化部420は、動作要素抽出部410の識別結果に応じて、以下のように、対象の行動を離散化する。
(行動の離散化)
さらに、行動離散化部420の位置追跡部4206は、参加者のうちの一人が話し、かつ/または、新しい場所へ移動し始める場合、離散的な「顧客行動」および「店主行動」を決定する。
(結合状態ベクトルの生成)
図17は、結合状態ベクトル生成部430とロボット行動生成部440の動作を説明するための機能ブロック図である。
ii)(空間配置および状態ターゲットから成る)インタラクション状態
ここで、「ロボット発話」のフィールドは、ロボットが店主発話を再現することを可能にするための情報を含んでいる。
(ロボット行動の生成処理)
図22は、オンライン処理部500の動作を説明するための機能ブロック図である。
まず、上述したロボット行動生成部530の処理のうち、遅れ(遅延時間)のモデル化について説明する。
以下では、「インタラクション状態」についてさらに詳しく説明する。
ii)ロボット・製品間の間隔Dist(RO)〜1.1m
iii)人の移動速度Speed(H)〜0
iv)ロボットの移動速度Speed(R)〜0
v)製品−ロボット−人の角度Angle(ORH)<150°
vi)製品−人−ロボットの角度Angle(OHR)<90°
これに対して、図24(b)のように、ロボット行動生成部530は、対応するロボットへの行動を生成するモデルとして以下のものを採用する。
ii)ロボット・製品間の間隔Dist(RO)〜1.1m
iii)ロボットの移動速度Speed(R)〜0
iv)(ロボットの向き)Angle(R)=1/2×(製品−ロボット−人の角度)Angle(ORH)となる向き
すなわち、図24(a)のように、センサネットワークからの2人の人間の位置関係および姿勢についての入力に対して、人・人間のインタラクション状態を識別するためのモデルを、「認識モデル」と呼ぶ。したがって、システムは、センサネットワークからのセンシング結果を入力として、空間配置検出部4204は、人・人間のインタラクション状態(近接配置)がいずれのパターンであるかを判断する。
ii)人の移動速度〜0
iii)ロボットの移動速度〜0
iv)人の向き〜人・ロボットの向き
v)ロボットの向き〜ロボット・人の向き
これに対して、図26(b)のように、ロボット行動生成部530は、対応するロボットへの行動を生成するモデルとして以下のものを採用する。
ii)ロボット・人間の間隔〜1.5m
iii)ロボットの移動速度〜0
iv)ロボットの向き〜ロボット・人の向き
図27は、「待機状態」について、結合状態ベクトルで表現される位置関係と対応するロボットへの行動生成との関係を示す概念図である。
ii)ロボットの移動速度〜0
iii)ロボット・人間の間隔>1.5m
すなわち、ロボットは、待機位置に停止しており、人は、ロボットから離れた位置にいるという状態である。
ii)ロボットの移動速度〜0
iii)ロボットの向き:所定の方向(たとえば)、グローバル座標で―90°)
図28は、実際に観測された人・人間の位置関係およびそれに対応する人・ロボットの位置関係の図である。
Claims (12)
- 第1の状況において装置が第1の参加者と行動によるコミュニケーションを可能とするための行動コマンド生成システムであって、前記第1の状況に対応して、第2の参加者および第3の参加者が行動によるコミュニケーションをとる状況であって、前記第2の参加者および第3の参加者が、それぞれ、前記装置および前記第1の参加者に対応する行動をとる第2の状況において取得されたデータに基づき、前記装置は、前記第1の状況において前記第2の参加者の代わりとして行動するものであり、
人の行動に関する時系列データを収集するための複数のセンサと、
前記第2の状況において、前記行動の時系列データをクラスタリングして、各クラスタごとに代表行動を決定する行動パターンクラスタ化手段と、
結合状態ベクトルと行動ベクトルとをそれぞれ関連付けるためのベクトル生成手段とを備え、前記結合状態ベクトルは、前記第2の状況において、前記クラスタリングの結果と前記行動の時系列データに基づき、前記第3の参加者の状態と前記第2の参加者の状態とから生成され、各前記行動ベクトルは、前記結合状態ベクトルに対応し前記第2の参加者の後続する代表行動を表し、
前記結合状態ベクトルを入力とし、前記行動ベクトルを出力とする予測器を生成するための予測器生成手段と、
前記第1の状況において、生成された前記予測器により予測された、前記第1の参加者の行動に応答する前記行動ベクトルに応じて、前記装置へのコマンドを生成するためのコマンド生成手段とを備える、行動コマンド生成システム。 - 前記代表行動は、代表発話と代表運動とを含む、請求項1記載の行動コマンド生成システム。
- 前記行動パターンクラスタ化手段は、
観測された前記第2の参加者の発話を発話クラスタに分類する発話クラスタ化手段と、
前記クラスタ内で最も多くの他の発話と語彙上の類似度が最高レベルである発話を選ぶことで、前記発話クラスタごとに1つの代表発話を選択する典型発話抽出手段とを含む、請求項2記載の行動コマンド生成システム。 - 前記ベクトル生成手段は、
前記第2および第3の参加者の前記行動の区切りを検出して、前記行動の時系列データを離散化するための離散化手段と、
前記区切られた前記第3の参加者の行動を検出したことに応じて、前記第3の参加者の状態と前記第2の参加者の状態とを結合状態ベクトルとして抽出する結合状態抽出手段と、
前記抽出された結合状態ベクトルに対応する前記第2の参加者の後続する代表行動を前記行動ベクトルとして抽出するための行動ベクトル抽出手段と、を含む、請求項2または3記載の行動コマンド生成システム。 - 前記結合状態ベクトルにおける前記第2または第3の参加者の状態は、
前記第2の参加者の空間状態と、
前記第3の参加者の空間状態と、
2人の人間間についての所定の共通の近接配置のうちの1つを含む、請求項4記載の行動コマンド生成システム。 - 前記行動パターンクラスタ化手段は、
前記第2または第3の参加者の観測された軌道を、停止セグメントと移動セグメントにセグメント化する軌道セグメント化手段と、
前記停止セグメントを停止クラスタにクラスタ化する空間クラスタ化手段と、
対応する停止クラスタを各々代表する停止位置を特定する停止位置抽出手段とを含む、請求項2記載の行動コマンド生成システム。 - 前記行動パターンクラスタ化手段は、
前記移動セグメントを移動クラスタにクラスタ化する軌道クラスタ化手段と、
対応する移動クラスタを各々代表する軌道を特定する典型軌道抽出手段とを含む、請求項6記載の行動コマンド生成システム。 - 前記行動ベクトルは、前記第2の参加者の認識された発話を含む発話クラスタを特定するための情報を含む、請求項3記載の行動コマンド生成システム。
- 前記行動ベクトルは、2人の人間間についての所定の共通の近接配置を含み、
前記コマンド生成手段は、前記共通の近接配置にそれぞれ対応する生成モデルに基づいて、前記コマンドを生成する、請求項8記載の行動コマンド生成システム。 - 第1の参加者と行動によるコミュニケーションを可能とするための応答システムであって、
第1の状況において、複数のセンサにより収集された前記第1の参加者の行動に関する時系列データに基づき、人に類似の行動を前記第1の参加者に提示するための装置を備え、前記装置は、前記第1の状況に対応して、第2の参加者および第3の参加者が行動によるコミュニケーションをとる状況であって、前記第2の参加者および第3の参加者が、それぞれ、前記装置および前記第1の参加者に対応する行動をとる第2の状況において取得されたデータに基づき、前記第1の状況において前記第2の参加者の代わりとして行動するものであり、
前記装置は、
前記第2の状況において前記取得されたデータに基づき生成された結合状態ベクトルと前記第2の参加者の代表行動に対応する行動ベクトルとを関連付けて格納するための記憶装置と、
前記結合状態ベクトルを入力とし、前記行動ベクトルを出力とする予測器と、
前記第1の状況において、生成された前記予測器により予測された、前記第1の参加者の行動に応答する前記行動ベクトルに応じて、前記装置の行動コマンドを生成するためのコマンド生成手段とを含み、
前記代表行動は、前記第2の状況において、前記時系列データをクラスタリングして、各クラスタごとに離散化された単位行動として決定されたものであり、
前記結合状態ベクトルは、前記第2および第3の参加者の前記行動の区切りを検出し前記行動の時系列データを離散化して、区切られた前記第3の参加者の行動を検索キーとして、前記第3の参加者の状態と前記第2の参加者の状態との結合として決定されたものである、応答システム。 - 第1の状況において装置が第1の参加者と行動によるコミュニケーションを可能とするための行動コマンド生成方法であって、
前記第1の状況に対応して、第2の参加者および第3の参加者が行動によるコミュニケーションをとる状況であって、前記第2の参加者および第3の参加者が、それぞれ、前記装置および前記第1の参加者に対応する行動をとる第2の状況において、人の行動に関する時系列データを収集するステップと、
前記第2の状況において、前記行動の時系列データをクラスタリングして、各クラスタごとに代表行動を決定するステップと、
結合状態ベクトルと行動ベクトルとをそれぞれ関連付けるステップとを備え、前記結合状態ベクトルは、前記第2の状況において、前記クラスタリングの結果と前記行動の時系列データに基づき、前記第3の参加者の状態と前記第2の参加者の状態とから生成され、各前記行動ベクトルは、前記結合状態ベクトルに対応し前記第2の参加者の後続する代表行動を表し、
前記結合状態ベクトルを入力とし、前記行動ベクトルを出力とする予測器を生成するステップと、
前記第1の状況において、生成された前記予測器により予測された、前記第1の参加者の行動に応答する前記行動ベクトルに応じて、前記装置が、前記第1の状況において前記第2の参加者の代わりとして行動するように、前記装置へのコマンドを生成するステップとを備える、行動コマンド生成方法。 - 前記代表行動は、代表発話と代表運動とを含む、請求項11記載の行動コマンド生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238910A JP6886651B2 (ja) | 2016-12-08 | 2016-12-08 | 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238910A JP6886651B2 (ja) | 2016-12-08 | 2016-12-08 | 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018094645A JP2018094645A (ja) | 2018-06-21 |
JP6886651B2 true JP6886651B2 (ja) | 2021-06-16 |
Family
ID=62634131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016238910A Active JP6886651B2 (ja) | 2016-12-08 | 2016-12-08 | 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6886651B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948528B (zh) * | 2019-03-18 | 2023-04-07 | 南京砺剑光电技术研究院有限公司 | 一种基于视频分类的机器人行为识别方法 |
CN114120018B (zh) * | 2020-08-25 | 2023-07-11 | 四川大学 | 一种基于人群聚类轨迹熵的空间活力量化方法 |
JP2023018893A (ja) * | 2021-07-28 | 2023-02-09 | 株式会社日立製作所 | 学習装置及びロボット制御システム |
US20230030633A1 (en) * | 2021-07-28 | 2023-02-02 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a serving robot |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4753410B2 (ja) * | 2004-11-01 | 2011-08-24 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
US7634406B2 (en) * | 2004-12-10 | 2009-12-15 | Microsoft Corporation | System and method for identifying semantic intent from acoustic information |
JP5318623B2 (ja) * | 2009-03-26 | 2013-10-16 | 株式会社国際電気通信基礎技術研究所 | 遠隔操作装置および遠隔操作プログラム |
JP5732632B2 (ja) * | 2011-02-03 | 2015-06-10 | 株式会社国際電気通信基礎技術研究所 | ロボットシステムおよびそれに用いる空間陣形認識装置 |
JP2013006232A (ja) * | 2011-06-23 | 2013-01-10 | Nippon Telegr & Teleph Corp <Ntt> | コミュニケーションエージェントの動作制御装置、コミュニケーションエージェントの動作制御方法、及びそのプログラム |
JP6150429B2 (ja) * | 2013-09-27 | 2017-06-21 | 株式会社国際電気通信基礎技術研究所 | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 |
US9517559B2 (en) * | 2013-09-27 | 2016-12-13 | Honda Motor Co., Ltd. | Robot control system, robot control method and output control method |
-
2016
- 2016-12-08 JP JP2016238910A patent/JP6886651B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018094645A (ja) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11584020B2 (en) | Human augmented cloud-based robotics intelligence framework and associated methods | |
US11769159B2 (en) | System and method for human emotion and identity detection | |
US11937929B2 (en) | Systems and methods for using mobile and wearable video capture and feedback plat-forms for therapy of mental disorders | |
Rodomagoulakis et al. | Multimodal human action recognition in assistive human-robot interaction | |
Arunnehru et al. | Automatic human emotion recognition in surveillance video | |
Pantic et al. | Toward an affect-sensitive multimodal human-computer interaction | |
US9412361B1 (en) | Configuring system operation using image data | |
US11217246B2 (en) | Communication robot and method for operating the same | |
JP6886651B2 (ja) | 行動コマンド生成システム、応答システムおよび行動コマンド生成方法 | |
Sahoo et al. | Emotion recognition from audio-visual data using rule based decision level fusion | |
KR20130039578A (ko) | 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법 | |
Taylor et al. | Robot perception of human groups in the real world: State of the art | |
Mollaret et al. | A multi-modal perception based assistive robotic system for the elderly | |
Salah et al. | Challenges of human behavior understanding | |
Yang et al. | Proxitalk: Activate speech input by bringing smartphone to the mouth | |
JP2017064853A (ja) | ロボット、コンテンツ決定装置、コンテンツ決定方法、及びプログラム | |
Ktistakis et al. | A multimodal human-machine interaction scheme for an intelligent robotic nurse | |
JP6972526B2 (ja) | コンテンツ提供装置、コンテンツ提供方法、及びプログラム | |
Ghosh et al. | Humansense: a framework for collective human activity identification using heterogeneous sensor grid in multi-inhabitant smart environments | |
Kühn et al. | A modular audio-visual scene analysis and attention system for humanoid robots | |
Le et al. | Multimodal smart interactive presentation system | |
Maheux et al. | T-Top, an open source tabletop robot with advanced onboard audio, vision and deep learning capabilities | |
Healy et al. | Preforming real-time emotion classification using an Intel RealSense camera, multiple facial expression databases and a Support Vector Machine | |
Duncan et al. | A Survey of Multimodal Perception Methods for Human-Robot Interaction in Social Environments | |
JP2020135424A (ja) | 情報処理装置、情報処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20170106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201215 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210420 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210506 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6886651 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |