JP2006088251A - User behavior inducing system and method thereof - Google Patents
User behavior inducing system and method thereof Download PDFInfo
- Publication number
- JP2006088251A JP2006088251A JP2004274950A JP2004274950A JP2006088251A JP 2006088251 A JP2006088251 A JP 2006088251A JP 2004274950 A JP2004274950 A JP 2004274950A JP 2004274950 A JP2004274950 A JP 2004274950A JP 2006088251 A JP2006088251 A JP 2006088251A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- user
- robot
- data
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、サービス提供を介したユーザとロボットのインタラクションに基づく行動データベースの蓄積結果を利用して、ユーザの行動を促すロボットに関する。 The present invention relates to a robot that urges a user's action by using an accumulation result of an action database based on the interaction between the user and the robot through service provision.
近年、家庭内で、ユーザを楽しませるエンターテイメントロボットや、ユーザの役に立つロボットが研究・開発されている。前者のエンターテイメントロボットにおいては、ユーザを楽しませることが目的であり、飽きさせないことがその課題の一つとなっている。後者の役に立つロボットでは、ユーザの命令を聞いて行動するものや、ユーザの意図を認識しユーザに合った行動をするものが提案されている。 In recent years, entertainment robots that entertain users and robots useful to users have been researched and developed at home. In the former entertainment robot, the purpose is to entertain the user, and one of the challenges is not to get bored. As the latter useful robot, one that acts by listening to a user's command and one that recognizes the user's intention and performs an action suitable for the user have been proposed.
エンターテイメントロボットとしては、ロボットがユーザを飽きさせないような行動をさせるために、ロボット装置に行動獲得のための強化学習を行わせるものがある。その際、行動価値の学習率を動的に変更することを特徴とするロボット装置およびロボット制御方法、記録媒体、並びにプログラムが挙げられている(特許文献1を参照)。 As an entertainment robot, there is one that causes a robot apparatus to perform reinforcement learning for action acquisition so that the robot does not get tired of the user. In that case, a robot apparatus and a robot control method, a recording medium, and a program characterized by dynamically changing the learning rate of the action value are mentioned (see Patent Document 1).
役に立つロボットとしては、ユーザの生活習慣や生活環境等に応じて、あるいはユーザの嗜好に則して、各種機器を制御するコントローラとして、予めユーザの操作情報とその操作がなされたときの外的状況の情報を記憶し、現在のユーザの操作情報と外的状況の情報から、ユーザに適した操作信号を生成する統合コントローラ、機器制御方法及び機器制御プログラムが提案されており、その機器制御プログラムを適応したロボットが挙げられている(特許文献2を参照)。 As a useful robot, as a controller that controls various devices according to the user's lifestyle, living environment, etc., or according to the user's preferences, the user's operation information and the external situation when the operation is made in advance An integrated controller, a device control method, and a device control program for storing an operation signal suitable for the user from the current user operation information and external situation information have been proposed. An adapted robot is cited (see Patent Document 2).
また人間の行動をロボットが模倣することで、人間−ロボット間で対面コミュニケーションを実現する方法がある(非特許文献1を参照)。これは、人間とロボットとの対面コミュニケーションにおいて、人間の行動から音声情報と関節角度情報を取得し、ロボットはその取得情報を再現することで、人を模倣するというものである。
上述したように、エンターテイメントロボットについてはユーザを飽きさせないために、ロボットへの入力信号に対する出力動作パターンを強化学習により変化させるものであり、また、役に立つロボットは、ユーザの過去の操作パターンを記録しておき、現在の状況から、次にユーザが行うであろう操作を先読みし、ユーザの代わりにロボットが実行するもので、ユーザの行動自体は特に反映されず、ユーザ自体に行動を促すことはできなかった。 As described above, in order to keep the user from getting bored with the entertainment robot, the output operation pattern for the input signal to the robot is changed by reinforcement learning, and the useful robot records the user's past operation pattern. In addition, from the current situation, the operation that the user will perform next is pre-read, and the robot performs on behalf of the user. could not.
更に、人間−ロボット間で対面コミュニケーションでは、人間とロボットの対面コミュニケーションが目的であり、ロボットは人間の模倣をするために、取得情報と出力情報は、同次元のものである必要(例えば、取得する人間の関節角度情報を用いるためには、ロボットもそれに対応する関節を有する必要がある)があるといった問題があった。 Furthermore, in the face-to-face communication between a human and a robot, the face-to-face communication between a human and a robot is the purpose. In order for the robot to imitate a human, the acquired information and the output information must be of the same dimension (for example, acquired In order to use human joint angle information, the robot must also have a corresponding joint).
本発明では、上記した問題を解決するために、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能となるユーザ行動誘発システム及びユーザ行動誘発方法を提供することを目的とする。 In order to solve the above-described problems, the present invention provides a user behavior inducing system and a user behavior inducing method that are capable of output tailored to the user and that can execute the induced behavior suitable for each user. The purpose is to do.
上記した目標を達成するために、本発明では、センサからユーザ及びロボットの行動データを入力するデータ入力部と、このデータ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、データ入力部で入力されたロボットの行動データに対応する行動分類処理部で分類されたユーザ行動の発生確率を求める因果関係推測部と、誘発したいユーザ行動を入力する指示入力部と、行動分類処理部で分類されたユーザ行動から、誘発したいユーザ行動と類似したユーザ行動を検索する類似度検索部と、類似度検索部で検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、行動検索部により抽出されたロボットの行動データをロボットに実行させるロボット行動処理部とを具備することを特徴とする。 In order to achieve the above-mentioned goal, in the present invention, a data input unit that inputs user and robot behavior data from a sensor, and a user behavior data input by the data input unit is classified for each behavior similar to the user behavior. The action classification processing unit that performs the division, the causal relationship estimation unit that obtains the probability of occurrence of the user behavior classified by the behavior classification processing unit corresponding to the robot behavior data input by the data input unit, and the user behavior to be induced are input A similarity search unit for searching for a user behavior similar to the user behavior to be induced from the user input classified by the behavior classification processing unit, and a robot corresponding to the user behavior searched by the similarity search unit The behavior search unit that extracts the robot behavior data based on the occurrence probability of the robot behavior data, and the robot behavior data extracted by the behavior search unit Characterized by comprising a robot action processing unit for executing data to the robot.
これにより、ユーザに所望の行動をさせたい場合、その所望行動を過去にもたらしたロボット行動を検索し、そのロボットがその行動を実行することで、ユーザにある行動をするよう促す。 Thus, when the user wants to perform a desired action, the robot action that has caused the desired action in the past is searched, and the robot executes the action, thereby urging the user to perform a certain action.
本発明により、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能である。またユーザの行動として、ユーザが“楽しんでいる”、“めったにない行動を取っている”などを考慮し、それを誘発することで、飽きさせない擬似的なコミュニケーションを図ることも可能である。 According to the present invention, it is possible to perform output in accordance with a user, and it is possible to execute a triggering action suitable for each user. It is also possible to consider pseudo-communications that do not get bored by inducing user actions such as “enjoying” or “taking rare actions”.
以下、本発明の実施の形態を図面に基づいて説明する。
本発明の実施の形態について、例えば車輪で移動し、頭部として2つの自由度(パン・チルト)を有するカメラ雲台を搭載したロボットを用いた、ユーザ行動誘発システムを示す。図1に本実施の形態の構成を、図2に本実施の形態のロボットの模式図を示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
An embodiment of the present invention will be described with reference to a user behavior induction system using a robot mounted with a camera platform that moves with wheels and has two degrees of freedom (pan and tilt) as a head, for example. FIG. 1 shows a configuration of the present embodiment, and FIG. 2 shows a schematic diagram of the robot of the present embodiment.
図1に示すように、本実施例は大きく分けて、データベースへのデータ蓄積処理部110と、データベースを用いたユーザ行動誘発処理部130とからなる。データ蓄積処理部110は、データ入力部111、切り分け部112、特徴量抽出部113、特徴量無次元化部114、行動分類処理部115、因果関係推測部116、ロボット行動記憶部117とから構成される。ユーザ行動誘発処理部130は、指示入力部131、類似度検索部132、行動検索部133、ロボット行動処理部134とから構成される。
As shown in FIG. 1, the present embodiment is roughly divided into a data
図2に示すように、ユーザ200の行動を検出する入力装置は、室内に固定設置されているセンシング装置として、ユーザ200の位置を検出する位置検出用RFID201、ユーザの画像を取得する固定カメラ220、ユーザ200の音声を取得する固定マイク230があり、ロボット210に搭載されているセンシング装置として、頭部に設置されているカメラ211、マイク212、ロボット210の表面に設置され接触を検出するタッチセンサ213がある。
As shown in FIG. 2, the input device that detects the action of the
まず初めにデータベースのデータ蓄積処理部110の動作について示す。まずデータ入力部111では、固定センサ101−1〜101−N、ロボットに搭載されるセンサ102−1〜102−M等の各センシング装置からの出力(時系列データ)をあるサンプリング周期で入力し時系列DB121にこの時系列データを記憶させる。センシング装置からの出力はRFIDであれば室内での座標値(X,Y)、カメラであれば画像データ、音声であれば音声データ、タッチセンサであれば押された圧力値となる。また、音声データのように、単語などの抽象的なレベルに認識可能なものは、その単語としても記憶する。これら時系列データはユーザだけではなく、同時にロボットの行動についても記憶する。記憶されるロボットの行動としては、ロボットの位置(これはRFIDを用いても、ロボットの内部センサから自己位置認識部により算出されて位置でもよい)、ロボット雲台角度、ロボット発声音声データ等がある。発声音声データに関しても単語などの抽象的なものがあれば、その単語も記憶する。各データは、図3(a)に示したように、センサのサンプリング周期tごとの時系列データxi(t)(ここでiは入力パラメータ)となる(単語などの抽象的なものは、例えば発声時点でのデータとする)。ここで、時間軸でデータ列を示すと図5(a)のようにサンプリング周期tごとの時系列データがセンシング装置から出力され、データ入力部111で時系列DBに記憶される。
First, the operation of the database data
次に、データ入力部111で入力された時系列データをある意味を持ったユーザ行動(U1、U2、・・・、Un)として、図3(a)に示すよう時系列データを点線で囲まれた部分毎に切り分け部112で切り分ける。切り分ける方法としては、一定時間ごとに切り分ける方法や各データを標準化しその偏差の大きいところで切り分ける方法、または音声データがある場合にはその切れ目で切り分ける方法等を用いる。例えば、ユーザの位置を検出するセンサからのデータを用いて、その位置変化量の偏差の大きいところで切り分ければ、ユーザが歩いている際のユーザ行動と立ち止まった際のユーザ行動を切り分けることができる。また、その際のロボット行動も同様の方法を用いて切り分ける。ここで、時間軸でデータ列を示すと図5(b)のように時系列データはR1〜Rn、U1〜Unに切り分け部112で切り分けられる。
Next, the time series data input by the
次に特徴量抽出部113では、ユーザ行動(U1、U2、・・・、Un)の各要素時系列情報x1(t)、x2(t)、・・・、xl(t)をそれぞれ一つの数値で表される特徴pj(n)(jは特徴番号、nはユーザ行動番号)を抽出する。特徴としては、時系列データxi(t)自体の平均値や最大値、最小値、標準偏差等や、時系列データxi(t)から算出される変化量xi’(t)や加速度量xi’’(t)の平均値や最大値、最小値、標準偏差等、またはユーザ行動自体の時間等とする。例えばユーザの位置を検出するセンサからのデータを用いれば、この特徴pj(n)は、そのユーザ行動中のユーザの平均移動速度や最大移動速度であったり、マイクロフォンからのデータを用いれば、最大音量であったり、音声データから算出した音の高低とする。図3(b)に示すように、特徴量抽出部113で抽出された各ユーザ行動の特徴量pj(n)が特徴量DB122に記憶される。
Next in the feature
次に特徴量無次元化部114は、数1に示されるように、各特徴の各ユーザ行動での標準偏差Sj(n)を算出し、この標準偏差Sj(n)から数2に示されるように無次元化し特徴パラメータPj(n)を算出する。
Next, the feature
そして特徴量無次元化部114は、図3(c)に示すようにユーザ行動毎に無次元化し特徴パラメータPj(n)を無次元化特長量DB123に記憶する。また、数3で示されるようにユーザ行動自体をその特徴パラメータを軸とした多次元空間内の位置ベクトルunという形で表せる。
Then, the feature quantity non-dimensionalization
行動分類処理部115では、ユーザ行動を示す位置ベクトルunの距離の長短から各行動の類似度を判定し、類似した行動ごとに分類分けを行う。例えば、図4(a)に示すように、ユーザ行動を示す位置ベクトルu1、u3はクラスタリングされユーザ行動Uaと判定される。同様に、位置ベクトルu2、u4はそれぞれユーザ行動Ub、Ucと判定される。更に、図4(a)の分類結果がユーザ行動分類DB124に記憶される。
The action
因果関係推測部116は、分類された行動とその分類された行動を引き起こしたロボット行動を推測する。推測方法としては、例えば、図5(c)に示すように、ユーザ行動が起こる直前に行われていたロボット行動や、データベースの中から、あるユーザ行動が起こる前にたびたび行われていたロボット行動が原因となったユーザ行動であると推測する。そして、図4(b)に示すように、各ロボット行動に対する分類されたユーザ行動の発生確率を求め因果関係対応DB125に記憶する。
The causal
ロボット行動記憶部117は、この因果関係推測部116で推測された、あるユーザ行動の原因となるロボット行動をロボット行動DB126に記憶する。
続いて、ユーザ行動誘発処理部130の動作について示す。まず誘発したいユーザ行動を指示入力部131により入力する。入力者は行動を行うユーザ自身であっても、また別のユーザであっても構わない。次に類似度検索部132は、入力された情報から、ユーザ行動分類DB124を検索して、最も近いユーザ行動を抽出する。
The robot
Subsequently, an operation of the user behavior
行動検索部133は、抽出されたユーザ行動を引き出した(原因となった)ロボット行動を因果関係対応DBから検索し、ロボット行動処理部134は、そのロボット行動をロボット行動DB126から抽出して実行する。例えば、行動検索部133は因果関係対応DB125から最も確率の高いロボット行動を検索し、ロボット行動処理部134はこの確率の最も高いロボット行動をロボット行動DB126から抽出して、ロボット本体に出力する。そうすることで、誘発したいユーザ行動を促す行動をロボット本体が行う。
The
具体的には、例えば図6に示すように子供を起す場合を考える。親がロボットに子供Aを起して欲しい場合、親はロボットに対し、“子供Aを起して”を指示する(S1)。指示入力部131は“子供Aが起きた”という事象に最も近いユーザ行動をユーザ行動分類DB124から検索する(S2)。そしてユーザ行動を引き起こしたロボットの行動を検索し、それをロボットに実行させる。子供Aが起きた事象は、「ロボットが“起きろ!”と発話時に10%」、「“朝だ!”と発話時に5%」、「ロボットが壁に衝突したら90%の確率で起きた」、とする。この場合、最も起きた確率の高かった、“ロボットが壁に衝突する”をロボットは実行する(S3)。その結果の子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する(S4)。子供Aが起きた場合には、各データベースを更新する(S5)。もし、子供Aが起きなかった場合には、次に高い確率のロボットの行動をロボットに実行させ(S 6)、子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する。
Specifically, for example, consider a case where a child is woken up as shown in FIG. When the parent wants the robot to raise the child A, the parent instructs the robot to “wake up the child A” (S1). The
上記の処理を繰り返すことで、ユーザの行動を効果的に、またそれぞれのユーザに合わせた誘発方法を実行することが可能となる。
ここでは、データ蓄積処理部110、ユーザ行動誘発処理部130、及び各データベース(DB)121〜126はロボット本体210内に構成されてもよく、ロボット本体210外に構成されてもよい。また、これら一部がロボット本体210内に構成されていても適用できる。
By repeating the above processing, it is possible to execute a user's behavior effectively and a triggering method tailored to each user.
Here, the data
101−1〜101−N:固定センサ
102−1〜102−M:ロボット搭載センサ
110:データ蓄積処理部
111:記憶部
112:切り分け部
113:特徴量抽出部
114:特徴量無次元化部
115:行動分類処理部
116:因果関係推測部
117:ロボット行動記憶部
121:時系列DB
122:特徴量DB
123:無次元化特徴量DB
124:ユーザ行動分類DB
125:因果関係対応DB
126:ロボット行動DB
130:ユーザ行動誘発処理部
131:指示入力部
132:類似度検索部
133:行動検索部
134:ロボット行動処理部
200:ユーザ
201:位置検出用RFID
210:ロボット
211:カメラ
212:マイク
213:タッチセンサ
220:固定カメラ
230:固定マイク
101-1 to 101-N: Fixed sensor 102-1 to 102-M: Robot-mounted sensor 110: Data storage processing unit 111: Storage unit 112: Separation unit 113: Feature amount extraction unit 114: Feature amount non-dimensionalization unit 115 : Behavior classification processing unit 116: Causal relation estimation unit 117: Robot behavior storage unit 121: Time series DB
122: Feature value DB
123: dimensionless feature DB
124: User action classification DB
125: Causal relationship correspondence DB
126: Robot action DB
130: User behavior induction processing unit 131: Instruction input unit 132: Similarity search unit 133: Behavior search unit 134: Robot behavior processing unit 200: User 201: RFID for position detection
210: Robot 211: Camera 212: Microphone 213: Touch sensor 220: Fixed camera 230: Fixed microphone
Claims (8)
前記データ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、
前記データ入力部で入力されたロボットの行動データに対応する前記行動分類処理部で分類されたユーザ行動の発生確率を求める因果関係推測部と、
誘発したいユーザ行動を入力する指示入力部と、
前記行動分類処理部で分類されたユーザ行動から、前記誘発したいユーザ行動と類似したユーザ行動を検索する類似度検索部と、
前記類似度検索部で検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、
前記行動検索部により抽出されたロボットの行動データをロボットに実行させるロボット行動処理部とを具備することを特徴とするユーザ行動誘発システム。 A data input unit for inputting user and robot behavior data from sensors;
An action classification processing unit that performs classification for each action similar to the user action from the user action data input by the data input unit;
A causal relationship estimation unit for determining the occurrence probability of the user behavior classified by the behavior classification processing unit corresponding to the behavior data of the robot input by the data input unit;
An instruction input unit for inputting a user action to be induced;
From the user behavior classified by the behavior classification processing unit, a similarity search unit that searches for user behavior similar to the user behavior to be induced,
An action search unit for extracting robot action data based on the occurrence probability of the robot action data corresponding to the user action searched by the similarity search unit;
A user behavior induction system, comprising: a robot behavior processing unit that causes a robot to execute robot behavior data extracted by the behavior retrieval unit.
前記切り分け部で切り分けられた行動データ特徴量を抽出する特徴量抽出部と、
前記特徴量をユーザ行動毎に無次元化し特徴パラメータを抽出する特徴量無次元化部とを具備し、
前記行動分類処理部は、前記特徴パラメータを軸とした多次元空間内の位置ベクトルから、類似した行動毎に行動データの分類分けを行うことを特徴とした請求項1記載のユーザ行動誘発システム。 Furthermore, a separation unit that separates the input behavior data for each user behavior;
A feature amount extraction unit that extracts the action data feature amount carved by the carving unit;
A feature quantity non-dimensionalization unit that non-dimensionalizes the feature quantity for each user action and extracts a feature parameter;
The user behavior induction system according to claim 1, wherein the behavior classification processing unit classifies behavior data for each similar behavior from a position vector in a multidimensional space with the feature parameter as an axis.
前記類似度検索部は、前記ユーザ行動分類データベースに記憶したユーザの行動データから、誘発したいユーザ行動と類似したユーザ行動を検索することを特徴とする請求項1記載のユーザ行動誘発システム。 Furthermore, it comprises a user behavior classification database for storing user behavior data classified by behavior similar to user behavior in the behavior classification processing unit,
The user behavior induction system according to claim 1, wherein the similarity search unit searches a user behavior similar to a user behavior to be induced from user behavior data stored in the user behavior classification database.
前記行動検索部は、前記因果関係対応データベースのユーザ行動に対応するロボットの行動データの発生確率に基づいてロボットの行動データを抽出することを特徴とする請求項1記載のユーザ行動誘発システム。 And a causal relation correspondence database for storing the occurrence probability of the user behavior classified by the behavior classification processing unit for the behavior data of the robot input by the data input unit obtained by the causal relationship estimation unit,
The user behavior induction system according to claim 1, wherein the behavior search unit extracts robot behavior data based on a probability of occurrence of robot behavior data corresponding to a user behavior in the causal relationship correspondence database.
前記データ入力で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類ステップと、
前記データ入力ステップで入力されたロボットの行動データに対応する前記行動分類ステップで分類されたユーザ行動の発生確率を求める因果関係推測ステップと、
誘発したいユーザ行動を入力する指示入力ステップと、
前記行動分類ステップで分類されたユーザ行動から、前記誘発したいユーザ行動と類似したユーザ行動を検索する類似検索ステップと、
前記類似検索ステップで検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索ステップと、
前記行動検索ステップにより抽出されたロボットの行動データをロボットに実行させるロボット行動ステップとを含むことを特徴とするユーザ行動誘発方法。 A data input step for inputting behavior data of the user and the robot from the sensor;
An action classification step for classifying each action similar to the user action from the user action data input in the data input;
A causal relationship inference step for obtaining the occurrence probability of the user behavior classified in the behavior classification step corresponding to the behavior data of the robot inputted in the data input step;
An instruction input step for inputting a user action to be induced;
A similar search step of searching for a user behavior similar to the user behavior to be induced from the user behavior classified in the behavior classification step;
An action search step of extracting robot action data based on the occurrence probability of the action data of the robot corresponding to the user action searched in the similarity search step;
And a robot action step for causing the robot to execute the robot action data extracted in the action search step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004274950A JP4058031B2 (en) | 2004-09-22 | 2004-09-22 | User action induction system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004274950A JP4058031B2 (en) | 2004-09-22 | 2004-09-22 | User action induction system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006088251A true JP2006088251A (en) | 2006-04-06 |
JP4058031B2 JP4058031B2 (en) | 2008-03-05 |
Family
ID=36229707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004274950A Expired - Fee Related JP4058031B2 (en) | 2004-09-22 | 2004-09-22 | User action induction system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4058031B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100949439B1 (en) | 2008-06-30 | 2010-03-25 | 경희대학교 산학협력단 | Behavior based method for filtering out unfair rating in trust model |
JP2012110996A (en) * | 2010-11-25 | 2012-06-14 | Advanced Telecommunication Research Institute International | Movement control system of robot, movement control program of the robot, and movement control method of the robot |
WO2018105412A1 (en) * | 2016-12-07 | 2018-06-14 | ソニー株式会社 | Information processing device and method, and program |
WO2019163279A1 (en) * | 2018-02-26 | 2019-08-29 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2021153680A (en) * | 2020-03-25 | 2021-10-07 | カシオ計算機株式会社 | Equipment control device, equipment, and equipment control method and program |
CN116541731A (en) * | 2023-05-26 | 2023-08-04 | 北京百度网讯科技有限公司 | Processing method, device and equipment of network behavior data |
-
2004
- 2004-09-22 JP JP2004274950A patent/JP4058031B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100949439B1 (en) | 2008-06-30 | 2010-03-25 | 경희대학교 산학협력단 | Behavior based method for filtering out unfair rating in trust model |
JP2012110996A (en) * | 2010-11-25 | 2012-06-14 | Advanced Telecommunication Research Institute International | Movement control system of robot, movement control program of the robot, and movement control method of the robot |
WO2018105412A1 (en) * | 2016-12-07 | 2018-06-14 | ソニー株式会社 | Information processing device and method, and program |
US10795326B2 (en) | 2016-12-07 | 2020-10-06 | Sony Corporation | Information processing apparatus, and method |
WO2019163279A1 (en) * | 2018-02-26 | 2019-08-29 | ソニー株式会社 | Information processing device, information processing method, and program |
JPWO2019163279A1 (en) * | 2018-02-26 | 2021-02-18 | ソニー株式会社 | Information processing equipment, information processing methods, and programs |
JP7363764B2 (en) | 2018-02-26 | 2023-10-18 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP2021153680A (en) * | 2020-03-25 | 2021-10-07 | カシオ計算機株式会社 | Equipment control device, equipment, and equipment control method and program |
JP7081619B2 (en) | 2020-03-25 | 2022-06-07 | カシオ計算機株式会社 | Device control device, device, device control method and program |
CN116541731A (en) * | 2023-05-26 | 2023-08-04 | 北京百度网讯科技有限公司 | Processing method, device and equipment of network behavior data |
Also Published As
Publication number | Publication date |
---|---|
JP4058031B2 (en) | 2008-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8606735B2 (en) | Apparatus and method for predicting user's intention based on multimodal information | |
JP6754184B2 (en) | Voice recognition device and voice recognition method | |
JP6761598B2 (en) | Emotion estimation system, emotion estimation model generation system | |
EP1494210B1 (en) | Speech communication system and method, and robot apparatus | |
US11217246B2 (en) | Communication robot and method for operating the same | |
JP6062547B2 (en) | Method and apparatus for controlling augmented reality | |
KR20180071931A (en) | Electronic apparatus, method for determining user utterance intention of thereof, and non-transitory computer readable recording medium | |
KR20200007496A (en) | Electronic device for generating personal automatic speech recognition model and method for operating the same | |
EP3704853B1 (en) | Electronic device and method for controlling the electronic device | |
WO2002099545A1 (en) | Man-machine interface unit control method, robot apparatus, and its action control method | |
EP3373525A2 (en) | Electronic device and method using machine learning for identifying characteristics of users located within a specific space | |
US11881209B2 (en) | Electronic device and control method | |
KR102529262B1 (en) | Electronic device and controlling method thereof | |
KR20190083629A (en) | Method and apparatus for recognizing a voice | |
JP4058031B2 (en) | User action induction system and method | |
KR101652705B1 (en) | Apparatus for predicting intention of user using multi modal information and method thereof | |
KR20190031786A (en) | Electronic device and method of obtaining feedback information thereof | |
Ktistakis et al. | A multimodal human-machine interaction scheme for an intelligent robotic nurse | |
CN110334244B (en) | Data processing method and device and electronic equipment | |
JP2007000938A (en) | Action uniting type robot device | |
WO2007046613A1 (en) | Method of representing personality of mobile robot based on navigation logs and mobile robot apparatus therefor | |
JP4572080B2 (en) | Robot or behavior update method in robot, and program for controlling behavior update in robot | |
US12020511B1 (en) | Activity classification and repetition counting | |
CN114047901B (en) | Man-machine interaction method and intelligent device | |
RU2746201C2 (en) | System and method of nonverbal service activation on a mobile device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070316 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071211 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |