JP2006088251A - User behavior inducing system and method thereof - Google Patents

User behavior inducing system and method thereof Download PDF

Info

Publication number
JP2006088251A
JP2006088251A JP2004274950A JP2004274950A JP2006088251A JP 2006088251 A JP2006088251 A JP 2006088251A JP 2004274950 A JP2004274950 A JP 2004274950A JP 2004274950 A JP2004274950 A JP 2004274950A JP 2006088251 A JP2006088251 A JP 2006088251A
Authority
JP
Japan
Prior art keywords
behavior
user
robot
data
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004274950A
Other languages
Japanese (ja)
Other versions
JP4058031B2 (en
Inventor
Daisuke Yamamoto
大介 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004274950A priority Critical patent/JP4058031B2/en
Publication of JP2006088251A publication Critical patent/JP2006088251A/en
Application granted granted Critical
Publication of JP4058031B2 publication Critical patent/JP4058031B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a user behavior inducing system and a method thereof, giving output according to a user, and performing inducing behavior suitable for each user. <P>SOLUTION: This user behavior inducing system includes: a data input part for inputting the behavior data of a user and a robot from a sensor; a behavior classifying processing part for classifying the behavior data of a user input by the data input part by each similar behavior of the user behavior; a cause and effect relationship estimating part for obtaining the probability of occurrence of the classified user behavior corresponding to the behavior data of the robot; a designation input part for inputting the user behavior to be induced; a similarity retrieving part for retrieving for the user behavior to be induced and the similar user behavior from the classified user behaviors; a behavior retrieving part for extracting the behavior data of the robot according to the probability of occurrence of behavior data of the robot corresponding to the retrieved user behavior; and a robot behavior processing part for causing the robot to perform the extracted behavior data of the robot. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、サービス提供を介したユーザとロボットのインタラクションに基づく行動データベースの蓄積結果を利用して、ユーザの行動を促すロボットに関する。 The present invention relates to a robot that urges a user's action by using an accumulation result of an action database based on the interaction between the user and the robot through service provision.

近年、家庭内で、ユーザを楽しませるエンターテイメントロボットや、ユーザの役に立つロボットが研究・開発されている。前者のエンターテイメントロボットにおいては、ユーザを楽しませることが目的であり、飽きさせないことがその課題の一つとなっている。後者の役に立つロボットでは、ユーザの命令を聞いて行動するものや、ユーザの意図を認識しユーザに合った行動をするものが提案されている。   In recent years, entertainment robots that entertain users and robots useful to users have been researched and developed at home. In the former entertainment robot, the purpose is to entertain the user, and one of the challenges is not to get bored. As the latter useful robot, one that acts by listening to a user's command and one that recognizes the user's intention and performs an action suitable for the user have been proposed.

エンターテイメントロボットとしては、ロボットがユーザを飽きさせないような行動をさせるために、ロボット装置に行動獲得のための強化学習を行わせるものがある。その際、行動価値の学習率を動的に変更することを特徴とするロボット装置およびロボット制御方法、記録媒体、並びにプログラムが挙げられている(特許文献1を参照)。   As an entertainment robot, there is one that causes a robot apparatus to perform reinforcement learning for action acquisition so that the robot does not get tired of the user. In that case, a robot apparatus and a robot control method, a recording medium, and a program characterized by dynamically changing the learning rate of the action value are mentioned (see Patent Document 1).

役に立つロボットとしては、ユーザの生活習慣や生活環境等に応じて、あるいはユーザの嗜好に則して、各種機器を制御するコントローラとして、予めユーザの操作情報とその操作がなされたときの外的状況の情報を記憶し、現在のユーザの操作情報と外的状況の情報から、ユーザに適した操作信号を生成する統合コントローラ、機器制御方法及び機器制御プログラムが提案されており、その機器制御プログラムを適応したロボットが挙げられている(特許文献2を参照)。   As a useful robot, as a controller that controls various devices according to the user's lifestyle, living environment, etc., or according to the user's preferences, the user's operation information and the external situation when the operation is made in advance An integrated controller, a device control method, and a device control program for storing an operation signal suitable for the user from the current user operation information and external situation information have been proposed. An adapted robot is cited (see Patent Document 2).

また人間の行動をロボットが模倣することで、人間−ロボット間で対面コミュニケーションを実現する方法がある(非特許文献1を参照)。これは、人間とロボットとの対面コミュニケーションにおいて、人間の行動から音声情報と関節角度情報を取得し、ロボットはその取得情報を再現することで、人を模倣するというものである。
特開2003−340760公報 特開2003−111157公報 模倣を主体とした人間−ロボットコミュニケーションに関する基礎実験(第19回ロボット学会学術講演会予稿集(1J15)
In addition, there is a method for realizing face-to-face communication between a human and a robot by imitating human behavior by a robot (see Non-Patent Document 1). This means that in face-to-face communication between a human and a robot, voice information and joint angle information are acquired from a human action, and the robot imitates the person by reproducing the acquired information.
JP 2003-340760 A JP 2003-111157 A Fundamental Experiment on Human-Robot Communication Based on Imitation (Proceedings of the 19th Annual Conference of the Robotics Society of Japan (1J15)

上述したように、エンターテイメントロボットについてはユーザを飽きさせないために、ロボットへの入力信号に対する出力動作パターンを強化学習により変化させるものであり、また、役に立つロボットは、ユーザの過去の操作パターンを記録しておき、現在の状況から、次にユーザが行うであろう操作を先読みし、ユーザの代わりにロボットが実行するもので、ユーザの行動自体は特に反映されず、ユーザ自体に行動を促すことはできなかった。   As described above, in order to keep the user from getting bored with the entertainment robot, the output operation pattern for the input signal to the robot is changed by reinforcement learning, and the useful robot records the user's past operation pattern. In addition, from the current situation, the operation that the user will perform next is pre-read, and the robot performs on behalf of the user. could not.

更に、人間−ロボット間で対面コミュニケーションでは、人間とロボットの対面コミュニケーションが目的であり、ロボットは人間の模倣をするために、取得情報と出力情報は、同次元のものである必要(例えば、取得する人間の関節角度情報を用いるためには、ロボットもそれに対応する関節を有する必要がある)があるといった問題があった。   Furthermore, in the face-to-face communication between a human and a robot, the face-to-face communication between a human and a robot is the purpose. In order for the robot to imitate a human, the acquired information and the output information must be of the same dimension (for example, acquired In order to use human joint angle information, the robot must also have a corresponding joint).

本発明では、上記した問題を解決するために、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能となるユーザ行動誘発システム及びユーザ行動誘発方法を提供することを目的とする。   In order to solve the above-described problems, the present invention provides a user behavior inducing system and a user behavior inducing method that are capable of output tailored to the user and that can execute the induced behavior suitable for each user. The purpose is to do.

上記した目標を達成するために、本発明では、センサからユーザ及びロボットの行動データを入力するデータ入力部と、このデータ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、データ入力部で入力されたロボットの行動データに対応する行動分類処理部で分類されたユーザ行動の発生確率を求める因果関係推測部と、誘発したいユーザ行動を入力する指示入力部と、行動分類処理部で分類されたユーザ行動から、誘発したいユーザ行動と類似したユーザ行動を検索する類似度検索部と、類似度検索部で検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、行動検索部により抽出されたロボットの行動データをロボットに実行させるロボット行動処理部とを具備することを特徴とする。   In order to achieve the above-mentioned goal, in the present invention, a data input unit that inputs user and robot behavior data from a sensor, and a user behavior data input by the data input unit is classified for each behavior similar to the user behavior. The action classification processing unit that performs the division, the causal relationship estimation unit that obtains the probability of occurrence of the user behavior classified by the behavior classification processing unit corresponding to the robot behavior data input by the data input unit, and the user behavior to be induced are input A similarity search unit for searching for a user behavior similar to the user behavior to be induced from the user input classified by the behavior classification processing unit, and a robot corresponding to the user behavior searched by the similarity search unit The behavior search unit that extracts the robot behavior data based on the occurrence probability of the robot behavior data, and the robot behavior data extracted by the behavior search unit Characterized by comprising a robot action processing unit for executing data to the robot.

これにより、ユーザに所望の行動をさせたい場合、その所望行動を過去にもたらしたロボット行動を検索し、そのロボットがその行動を実行することで、ユーザにある行動をするよう促す。   Thus, when the user wants to perform a desired action, the robot action that has caused the desired action in the past is searched, and the robot executes the action, thereby urging the user to perform a certain action.

本発明により、ユーザに合わせた出力が可能であり、それぞれのユーザに適した誘発行動を実行することが可能である。またユーザの行動として、ユーザが“楽しんでいる”、“めったにない行動を取っている”などを考慮し、それを誘発することで、飽きさせない擬似的なコミュニケーションを図ることも可能である。   According to the present invention, it is possible to perform output in accordance with a user, and it is possible to execute a triggering action suitable for each user. It is also possible to consider pseudo-communications that do not get bored by inducing user actions such as “enjoying” or “taking rare actions”.

以下、本発明の実施の形態を図面に基づいて説明する。
本発明の実施の形態について、例えば車輪で移動し、頭部として2つの自由度(パン・チルト)を有するカメラ雲台を搭載したロボットを用いた、ユーザ行動誘発システムを示す。図1に本実施の形態の構成を、図2に本実施の形態のロボットの模式図を示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
An embodiment of the present invention will be described with reference to a user behavior induction system using a robot mounted with a camera platform that moves with wheels and has two degrees of freedom (pan and tilt) as a head, for example. FIG. 1 shows a configuration of the present embodiment, and FIG. 2 shows a schematic diagram of the robot of the present embodiment.

図1に示すように、本実施例は大きく分けて、データベースへのデータ蓄積処理部110と、データベースを用いたユーザ行動誘発処理部130とからなる。データ蓄積処理部110は、データ入力部111、切り分け部112、特徴量抽出部113、特徴量無次元化部114、行動分類処理部115、因果関係推測部116、ロボット行動記憶部117とから構成される。ユーザ行動誘発処理部130は、指示入力部131、類似度検索部132、行動検索部133、ロボット行動処理部134とから構成される。   As shown in FIG. 1, the present embodiment is roughly divided into a data accumulation processing unit 110 for a database and a user action induction processing unit 130 using a database. The data accumulation processing unit 110 includes a data input unit 111, a segmentation unit 112, a feature amount extraction unit 113, a feature amount non-dimensionalization unit 114, a behavior classification processing unit 115, a causal relationship estimation unit 116, and a robot behavior storage unit 117. Is done. The user behavior induction processing unit 130 includes an instruction input unit 131, a similarity search unit 132, a behavior search unit 133, and a robot behavior processing unit 134.

図2に示すように、ユーザ200の行動を検出する入力装置は、室内に固定設置されているセンシング装置として、ユーザ200の位置を検出する位置検出用RFID201、ユーザの画像を取得する固定カメラ220、ユーザ200の音声を取得する固定マイク230があり、ロボット210に搭載されているセンシング装置として、頭部に設置されているカメラ211、マイク212、ロボット210の表面に設置され接触を検出するタッチセンサ213がある。   As shown in FIG. 2, the input device that detects the action of the user 200 is a sensing device that is fixedly installed in the room, as a position detection RFID 201 that detects the position of the user 200, and a fixed camera 220 that acquires an image of the user. There is a fixed microphone 230 that acquires the voice of the user 200, and as a sensing device mounted on the robot 210, a camera 211 installed on the head, a microphone 212, and a touch installed on the surface of the robot 210 to detect contact. There is a sensor 213.

まず初めにデータベースのデータ蓄積処理部110の動作について示す。まずデータ入力部111では、固定センサ101−1〜101−N、ロボットに搭載されるセンサ102−1〜102−M等の各センシング装置からの出力(時系列データ)をあるサンプリング周期で入力し時系列DB121にこの時系列データを記憶させる。センシング装置からの出力はRFIDであれば室内での座標値(X,Y)、カメラであれば画像データ、音声であれば音声データ、タッチセンサであれば押された圧力値となる。また、音声データのように、単語などの抽象的なレベルに認識可能なものは、その単語としても記憶する。これら時系列データはユーザだけではなく、同時にロボットの行動についても記憶する。記憶されるロボットの行動としては、ロボットの位置(これはRFIDを用いても、ロボットの内部センサから自己位置認識部により算出されて位置でもよい)、ロボット雲台角度、ロボット発声音声データ等がある。発声音声データに関しても単語などの抽象的なものがあれば、その単語も記憶する。各データは、図3(a)に示したように、センサのサンプリング周期tごとの時系列データx(t)(ここでiは入力パラメータ)となる(単語などの抽象的なものは、例えば発声時点でのデータとする)。ここで、時間軸でデータ列を示すと図5(a)のようにサンプリング周期tごとの時系列データがセンシング装置から出力され、データ入力部111で時系列DBに記憶される。 First, the operation of the database data storage processing unit 110 will be described. First, in the data input unit 111, outputs (time-series data) from the respective sensing devices such as the fixed sensors 101-1 to 101-N and the sensors 102-1 to 102-M mounted on the robot are input at a certain sampling period. This time series data is stored in the time series DB 121. The output from the sensing device is an indoor coordinate value (X, Y) if it is RFID, image data if it is a camera, sound data if it is a sound, and a pressed pressure value if it is a touch sensor. Moreover, what can be recognized at an abstract level such as a word such as voice data is also stored as the word. These time-series data are stored not only for the user but also for the behavior of the robot. Examples of robot actions to be stored include the robot position (which may be RFID or may be a position calculated by a self-position recognition unit from the internal sensor of the robot), the robot head angle, robot voice data, etc. is there. If there is an abstract word or the like regarding the voice data, the word is also stored. As shown in FIG. 3A, each data becomes time series data x i (t) (where i is an input parameter) for each sampling period t of the sensor (abstract items such as words are For example, the data at the time of utterance). Here, when a data string is shown on the time axis, time series data for each sampling period t is output from the sensing device as shown in FIG. 5A and stored in the time series DB by the data input unit 111.

次に、データ入力部111で入力された時系列データをある意味を持ったユーザ行動(U、U、・・・、U)として、図3(a)に示すよう時系列データを点線で囲まれた部分毎に切り分け部112で切り分ける。切り分ける方法としては、一定時間ごとに切り分ける方法や各データを標準化しその偏差の大きいところで切り分ける方法、または音声データがある場合にはその切れ目で切り分ける方法等を用いる。例えば、ユーザの位置を検出するセンサからのデータを用いて、その位置変化量の偏差の大きいところで切り分ければ、ユーザが歩いている際のユーザ行動と立ち止まった際のユーザ行動を切り分けることができる。また、その際のロボット行動も同様の方法を用いて切り分ける。ここで、時間軸でデータ列を示すと図5(b)のように時系列データはR〜R、U〜Uに切り分け部112で切り分けられる。 Next, the time series data input by the data input unit 111 is converted into time series data as shown in FIG. 3A as user actions (U 1 , U 2 ,..., U n ) having a certain meaning. The portion surrounded by the dotted line is carved by the carving unit 112. As a method of carving, a method of carving at regular intervals, a method of standardizing each data and carving it at a large deviation, or a method of carving audio data when there is audio data are used. For example, by using data from a sensor that detects the user's position and separating the position change amount in a large deviation, it is possible to separate the user action when the user is walking and the user action when the user is stopped. . In addition, the robot action at that time is also divided using the same method. Here, time-series data as shown in FIG. 5 (b) When indicating the data sequence on the time axis is R 1 to R n, carved with cut portions 112 in U 1 ~U n.

次に特徴量抽出部113では、ユーザ行動(U、U、・・・、U)の各要素時系列情報x(t)、x(t)、・・・、x(t)をそれぞれ一つの数値で表される特徴p(n)(jは特徴番号、nはユーザ行動番号)を抽出する。特徴としては、時系列データx(t)自体の平均値や最大値、最小値、標準偏差等や、時系列データx(t)から算出される変化量x’(t)や加速度量x’’(t)の平均値や最大値、最小値、標準偏差等、またはユーザ行動自体の時間等とする。例えばユーザの位置を検出するセンサからのデータを用いれば、この特徴p(n)は、そのユーザ行動中のユーザの平均移動速度や最大移動速度であったり、マイクロフォンからのデータを用いれば、最大音量であったり、音声データから算出した音の高低とする。図3(b)に示すように、特徴量抽出部113で抽出された各ユーザ行動の特徴量p(n)が特徴量DB122に記憶される。 Next in the feature amount extraction unit 113, user behavior (U 1, U 2, ··· , U n) each element time-series information of x 1 (t), x 2 (t), ···, x l ( A feature p j (n) (j is a feature number and n is a user action number) each represented by a single numerical value is extracted. Features include the average value, maximum value, minimum value, standard deviation, etc. of the time series data x i (t) itself, the change amount x i ′ (t) calculated from the time series data x i (t), and the acceleration. The average value, maximum value, minimum value, standard deviation, or the like of the quantity x i ″ (t), or the time of the user action itself is used. For example, if data from a sensor that detects the user's position is used, this feature p j (n) is the average moving speed or the maximum moving speed of the user during the user's action, or if data from a microphone is used, The maximum volume or the pitch of sound calculated from audio data. As illustrated in FIG. 3B, the feature value p j (n) of each user action extracted by the feature value extraction unit 113 is stored in the feature value DB 122.

次に特徴量無次元化部114は、数1に示されるように、各特徴の各ユーザ行動での標準偏差S(n)を算出し、この標準偏差S(n)から数2に示されるように無次元化し特徴パラメータP(n)を算出する。 Next, the feature quantity non-dimensionalization unit 114 calculates the standard deviation S j (n) for each user action of each feature as shown in Equation 1, and from this standard deviation S j (n) to Equation 2 As shown, dimensionless and feature parameter P j (n) is calculated.

Figure 2006088251
Figure 2006088251

Figure 2006088251
Figure 2006088251

そして特徴量無次元化部114は、図3(c)に示すようにユーザ行動毎に無次元化し特徴パラメータP(n)を無次元化特長量DB123に記憶する。また、数3で示されるようにユーザ行動自体をその特徴パラメータを軸とした多次元空間内の位置ベクトルuという形で表せる。 Then, the feature quantity non-dimensionalization unit 114 performs dimensionless processing for each user action as illustrated in FIG. 3C and stores the feature parameter P j (n) in the dimensionless feature quantity DB 123. Also, expressed in the form of a position vector u n a multidimensional space in which the user behavior itself and its characteristic parameters and the axis as indicated by the number 3.

Figure 2006088251
Figure 2006088251

行動分類処理部115では、ユーザ行動を示す位置ベクトルuの距離の長短から各行動の類似度を判定し、類似した行動ごとに分類分けを行う。例えば、図4(a)に示すように、ユーザ行動を示す位置ベクトルu、uはクラスタリングされユーザ行動Uと判定される。同様に、位置ベクトルu、uはそれぞれユーザ行動U、Uと判定される。更に、図4(a)の分類結果がユーザ行動分類DB124に記憶される。 The action classification processing unit 115 determines the similarity of each behavior from short and long distance position vector u n indicating the user behavior, perform classification for each similar behavior. For example, as shown in FIG. 4A, the position vectors u 1 and u 3 indicating the user behavior are clustered and determined as the user behavior U a . Similarly, the position vectors u 2 and u 4 are determined as user actions U b and U c , respectively. Further, the classification result of FIG. 4A is stored in the user behavior classification DB 124.

因果関係推測部116は、分類された行動とその分類された行動を引き起こしたロボット行動を推測する。推測方法としては、例えば、図5(c)に示すように、ユーザ行動が起こる直前に行われていたロボット行動や、データベースの中から、あるユーザ行動が起こる前にたびたび行われていたロボット行動が原因となったユーザ行動であると推測する。そして、図4(b)に示すように、各ロボット行動に対する分類されたユーザ行動の発生確率を求め因果関係対応DB125に記憶する。   The causal relationship estimation unit 116 estimates the classified behavior and the robot behavior that caused the classified behavior. As the estimation method, for example, as shown in FIG. 5C, the robot behavior that was performed immediately before the user behavior occurred, or the robot behavior that was frequently performed before a certain user behavior occurred from the database. It is estimated that the user behavior is caused by. And as shown in FIG.4 (b), the generation | occurrence | production probability of the classified user action with respect to each robot action is calculated | required, and it memorize | stores in causal relationship corresponding | compatible DB125.

ロボット行動記憶部117は、この因果関係推測部116で推測された、あるユーザ行動の原因となるロボット行動をロボット行動DB126に記憶する。
続いて、ユーザ行動誘発処理部130の動作について示す。まず誘発したいユーザ行動を指示入力部131により入力する。入力者は行動を行うユーザ自身であっても、また別のユーザであっても構わない。次に類似度検索部132は、入力された情報から、ユーザ行動分類DB124を検索して、最も近いユーザ行動を抽出する。
The robot behavior storage unit 117 stores in the robot behavior DB 126 the robot behavior that is estimated by the causal relationship estimation unit 116 and causes a certain user behavior.
Subsequently, an operation of the user behavior induction processing unit 130 will be described. First, an instruction input unit 131 inputs a user action to be induced. The input person may be the user who performs the action or another user. Next, the similarity search unit 132 searches the user action classification DB 124 from the input information and extracts the closest user action.

行動検索部133は、抽出されたユーザ行動を引き出した(原因となった)ロボット行動を因果関係対応DBから検索し、ロボット行動処理部134は、そのロボット行動をロボット行動DB126から抽出して実行する。例えば、行動検索部133は因果関係対応DB125から最も確率の高いロボット行動を検索し、ロボット行動処理部134はこの確率の最も高いロボット行動をロボット行動DB126から抽出して、ロボット本体に出力する。そうすることで、誘発したいユーザ行動を促す行動をロボット本体が行う。   The behavior search unit 133 searches the causal relationship correspondence DB for the robot behavior that has derived (caused) the extracted user behavior, and the robot behavior processing unit 134 extracts the robot behavior from the robot behavior DB 126 and executes it. To do. For example, the behavior retrieval unit 133 retrieves the robot behavior with the highest probability from the causal relationship correspondence DB 125, and the robot behavior processing unit 134 extracts the robot behavior with the highest probability from the robot behavior DB 126 and outputs it to the robot body. By doing so, the robot body performs an action that prompts the user action to be induced.

具体的には、例えば図6に示すように子供を起す場合を考える。親がロボットに子供Aを起して欲しい場合、親はロボットに対し、“子供Aを起して”を指示する(S1)。指示入力部131は“子供Aが起きた”という事象に最も近いユーザ行動をユーザ行動分類DB124から検索する(S2)。そしてユーザ行動を引き起こしたロボットの行動を検索し、それをロボットに実行させる。子供Aが起きた事象は、「ロボットが“起きろ!”と発話時に10%」、「“朝だ!”と発話時に5%」、「ロボットが壁に衝突したら90%の確率で起きた」、とする。この場合、最も起きた確率の高かった、“ロボットが壁に衝突する”をロボットは実行する(S3)。その結果の子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する(S4)。子供Aが起きた場合には、各データベースを更新する(S5)。もし、子供Aが起きなかった場合には、次に高い確率のロボットの行動をロボットに実行させ(S 6)、子供Aが起きたかどうかをデータ蓄積処理部110で検出して判定する。   Specifically, for example, consider a case where a child is woken up as shown in FIG. When the parent wants the robot to raise the child A, the parent instructs the robot to “wake up the child A” (S1). The instruction input unit 131 searches the user behavior classification DB 124 for the user behavior closest to the event “child A has occurred” (S2). Then, the robot action that caused the user action is searched, and the robot is made to execute it. The event that happened to child A is “Robot Wake Up! "10% when speaking", "" Morning! "5% when speaking" and "90% chance if robot hits wall". In this case, the robot executes “the robot collides with the wall” having the highest probability of occurrence (S3). Whether or not the child A as a result has occurred is detected and determined by the data storage processing unit 110 (S4). When the child A wakes up, each database is updated (S5). If the child A does not wake up, the robot performs the robot action with the next highest probability (S6), and the data storage processing unit 110 detects and determines whether the child A has woken up.

上記の処理を繰り返すことで、ユーザの行動を効果的に、またそれぞれのユーザに合わせた誘発方法を実行することが可能となる。
ここでは、データ蓄積処理部110、ユーザ行動誘発処理部130、及び各データベース(DB)121〜126はロボット本体210内に構成されてもよく、ロボット本体210外に構成されてもよい。また、これら一部がロボット本体210内に構成されていても適用できる。
By repeating the above processing, it is possible to execute a user's behavior effectively and a triggering method tailored to each user.
Here, the data accumulation processing unit 110, the user action induction processing unit 130, and the databases (DB) 121 to 126 may be configured in the robot main body 210 or may be configured outside the robot main body 210. Further, even if some of these are configured in the robot body 210, the present invention can be applied.

実施の形態のユーザ行動誘発システムを示す構成図The block diagram which shows the user action induction system of embodiment 実施の形態のユーザ行動誘発システムを示す環境模式図Environment schematic diagram showing a user behavior induction system of an embodiment 時系列DB、特徴量DB、無次元化特長量DBのデータ構造を示す図。The figure which shows the data structure of time series DB, feature-value DB, dimensionless feature-value DB. ユーザ行動分類DB、因果関係対応DBのデータ構造を示す図。The figure which shows the data structure of user action classification DB and causal relationship corresponding | compatible DB. 実施の形態のロボットとユーザの行動を示すタイムチャートTime chart showing behavior of robot and user of embodiment 実施の形態のユーザ行動誘発システムを示すフローチャートThe flowchart which shows the user action induction system of embodiment

符号の説明Explanation of symbols

101−1〜101−N:固定センサ
102−1〜102−M:ロボット搭載センサ
110:データ蓄積処理部
111:記憶部
112:切り分け部
113:特徴量抽出部
114:特徴量無次元化部
115:行動分類処理部
116:因果関係推測部
117:ロボット行動記憶部
121:時系列DB
122:特徴量DB
123:無次元化特徴量DB
124:ユーザ行動分類DB
125:因果関係対応DB
126:ロボット行動DB
130:ユーザ行動誘発処理部
131:指示入力部
132:類似度検索部
133:行動検索部
134:ロボット行動処理部
200:ユーザ
201:位置検出用RFID
210:ロボット
211:カメラ
212:マイク
213:タッチセンサ
220:固定カメラ
230:固定マイク
101-1 to 101-N: Fixed sensor 102-1 to 102-M: Robot-mounted sensor 110: Data storage processing unit 111: Storage unit 112: Separation unit 113: Feature amount extraction unit 114: Feature amount non-dimensionalization unit 115 : Behavior classification processing unit 116: Causal relation estimation unit 117: Robot behavior storage unit 121: Time series DB
122: Feature value DB
123: dimensionless feature DB
124: User action classification DB
125: Causal relationship correspondence DB
126: Robot action DB
130: User behavior induction processing unit 131: Instruction input unit 132: Similarity search unit 133: Behavior search unit 134: Robot behavior processing unit 200: User 201: RFID for position detection
210: Robot 211: Camera 212: Microphone 213: Touch sensor 220: Fixed camera 230: Fixed microphone

Claims (8)

センサからユーザ及びロボットの行動データを入力するデータ入力部と、
前記データ入力部で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類処理部と、
前記データ入力部で入力されたロボットの行動データに対応する前記行動分類処理部で分類されたユーザ行動の発生確率を求める因果関係推測部と、
誘発したいユーザ行動を入力する指示入力部と、
前記行動分類処理部で分類されたユーザ行動から、前記誘発したいユーザ行動と類似したユーザ行動を検索する類似度検索部と、
前記類似度検索部で検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索部と、
前記行動検索部により抽出されたロボットの行動データをロボットに実行させるロボット行動処理部とを具備することを特徴とするユーザ行動誘発システム。
A data input unit for inputting user and robot behavior data from sensors;
An action classification processing unit that performs classification for each action similar to the user action from the user action data input by the data input unit;
A causal relationship estimation unit for determining the occurrence probability of the user behavior classified by the behavior classification processing unit corresponding to the behavior data of the robot input by the data input unit;
An instruction input unit for inputting a user action to be induced;
From the user behavior classified by the behavior classification processing unit, a similarity search unit that searches for user behavior similar to the user behavior to be induced,
An action search unit for extracting robot action data based on the occurrence probability of the robot action data corresponding to the user action searched by the similarity search unit;
A user behavior induction system, comprising: a robot behavior processing unit that causes a robot to execute robot behavior data extracted by the behavior retrieval unit.
更に、入力された行動データをユーザ行動毎に切り分ける切り分け部と、
前記切り分け部で切り分けられた行動データ特徴量を抽出する特徴量抽出部と、
前記特徴量をユーザ行動毎に無次元化し特徴パラメータを抽出する特徴量無次元化部とを具備し、
前記行動分類処理部は、前記特徴パラメータを軸とした多次元空間内の位置ベクトルから、類似した行動毎に行動データの分類分けを行うことを特徴とした請求項1記載のユーザ行動誘発システム。
Furthermore, a separation unit that separates the input behavior data for each user behavior;
A feature amount extraction unit that extracts the action data feature amount carved by the carving unit;
A feature quantity non-dimensionalization unit that non-dimensionalizes the feature quantity for each user action and extracts a feature parameter;
The user behavior induction system according to claim 1, wherein the behavior classification processing unit classifies behavior data for each similar behavior from a position vector in a multidimensional space with the feature parameter as an axis.
更に、前記行動分類処理部でユーザ行動の類似した行動毎に分類分けを行ったユーザの行動データを記憶するユーザ行動分類データベースを具備し、
前記類似度検索部は、前記ユーザ行動分類データベースに記憶したユーザの行動データから、誘発したいユーザ行動と類似したユーザ行動を検索することを特徴とする請求項1記載のユーザ行動誘発システム。
Furthermore, it comprises a user behavior classification database for storing user behavior data classified by behavior similar to user behavior in the behavior classification processing unit,
The user behavior induction system according to claim 1, wherein the similarity search unit searches a user behavior similar to a user behavior to be induced from user behavior data stored in the user behavior classification database.
更に、前記因果関係推測部で求められた前記データ入力部で入力されたロボットの行動データに対する前記行動分類処理部で分類されたユーザ行動の発生確率を記憶する因果関係対応データベースを具備し、
前記行動検索部は、前記因果関係対応データベースのユーザ行動に対応するロボットの行動データの発生確率に基づいてロボットの行動データを抽出することを特徴とする請求項1記載のユーザ行動誘発システム。
And a causal relation correspondence database for storing the occurrence probability of the user behavior classified by the behavior classification processing unit for the behavior data of the robot input by the data input unit obtained by the causal relationship estimation unit,
The user behavior induction system according to claim 1, wherein the behavior search unit extracts robot behavior data based on a probability of occurrence of robot behavior data corresponding to a user behavior in the causal relationship correspondence database.
更に、前記行動分類処理部で分類された発生したユーザ行動に対応するロボットの行動データをロボット行動データベースに記憶するロボット行動記憶部を具備することを特徴とする請求項1記載のユーザ行動誘発システム。   2. The user behavior induction system according to claim 1, further comprising a robot behavior storage unit that stores robot behavior data corresponding to the generated user behavior classified by the behavior classification processing unit in a robot behavior database. . 前記ロボット行動処理部は、前記ロボット行動データベースに記憶された行動データから、前記行動検索部により抽出されたロボットの行動データを抽出してロボットに実行させることを特徴とする請求項5記載のユーザ行動誘発システム。   6. The user according to claim 5, wherein the robot behavior processing unit extracts the behavior data of the robot extracted by the behavior search unit from the behavior data stored in the robot behavior database, and causes the robot to execute the data. Action induction system. 前記ロボット行動処理部により、行動データをロボットに実行させた後に、ユーザの行動データを前記センサから前記データ入力部から入力し、データベースを更新することを特徴する請求項3乃至請求項5記載のユーザ行動誘発システム。   6. The database according to claim 3, wherein the robot behavior processing unit causes the robot to execute behavior data, and then inputs user behavior data from the sensor through the data input unit, and updates the database. User behavior induction system. センサからユーザ及びロボットの行動データを入力するデータ入力ステップと、
前記データ入力で入力したユーザの行動データからユーザ行動の類似した行動毎に分類分けを行う行動分類ステップと、
前記データ入力ステップで入力されたロボットの行動データに対応する前記行動分類ステップで分類されたユーザ行動の発生確率を求める因果関係推測ステップと、
誘発したいユーザ行動を入力する指示入力ステップと、
前記行動分類ステップで分類されたユーザ行動から、前記誘発したいユーザ行動と類似したユーザ行動を検索する類似検索ステップと、
前記類似検索ステップで検索されたユーザ行動に対応するロボットの行動データの発生確率に基づいて、ロボットの行動データを抽出する行動検索ステップと、
前記行動検索ステップにより抽出されたロボットの行動データをロボットに実行させるロボット行動ステップとを含むことを特徴とするユーザ行動誘発方法。
A data input step for inputting behavior data of the user and the robot from the sensor;
An action classification step for classifying each action similar to the user action from the user action data input in the data input;
A causal relationship inference step for obtaining the occurrence probability of the user behavior classified in the behavior classification step corresponding to the behavior data of the robot inputted in the data input step;
An instruction input step for inputting a user action to be induced;
A similar search step of searching for a user behavior similar to the user behavior to be induced from the user behavior classified in the behavior classification step;
An action search step of extracting robot action data based on the occurrence probability of the action data of the robot corresponding to the user action searched in the similarity search step;
And a robot action step for causing the robot to execute the robot action data extracted in the action search step.
JP2004274950A 2004-09-22 2004-09-22 User action induction system and method Expired - Fee Related JP4058031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004274950A JP4058031B2 (en) 2004-09-22 2004-09-22 User action induction system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004274950A JP4058031B2 (en) 2004-09-22 2004-09-22 User action induction system and method

Publications (2)

Publication Number Publication Date
JP2006088251A true JP2006088251A (en) 2006-04-06
JP4058031B2 JP4058031B2 (en) 2008-03-05

Family

ID=36229707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004274950A Expired - Fee Related JP4058031B2 (en) 2004-09-22 2004-09-22 User action induction system and method

Country Status (1)

Country Link
JP (1) JP4058031B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949439B1 (en) 2008-06-30 2010-03-25 경희대학교 산학협력단 Behavior based method for filtering out unfair rating in trust model
JP2012110996A (en) * 2010-11-25 2012-06-14 Advanced Telecommunication Research Institute International Movement control system of robot, movement control program of the robot, and movement control method of the robot
WO2018105412A1 (en) * 2016-12-07 2018-06-14 ソニー株式会社 Information processing device and method, and program
WO2019163279A1 (en) * 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
JP2021153680A (en) * 2020-03-25 2021-10-07 カシオ計算機株式会社 Equipment control device, equipment, and equipment control method and program
CN116541731A (en) * 2023-05-26 2023-08-04 北京百度网讯科技有限公司 Processing method, device and equipment of network behavior data

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949439B1 (en) 2008-06-30 2010-03-25 경희대학교 산학협력단 Behavior based method for filtering out unfair rating in trust model
JP2012110996A (en) * 2010-11-25 2012-06-14 Advanced Telecommunication Research Institute International Movement control system of robot, movement control program of the robot, and movement control method of the robot
WO2018105412A1 (en) * 2016-12-07 2018-06-14 ソニー株式会社 Information processing device and method, and program
US10795326B2 (en) 2016-12-07 2020-10-06 Sony Corporation Information processing apparatus, and method
WO2019163279A1 (en) * 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
JPWO2019163279A1 (en) * 2018-02-26 2021-02-18 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP7363764B2 (en) 2018-02-26 2023-10-18 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2021153680A (en) * 2020-03-25 2021-10-07 カシオ計算機株式会社 Equipment control device, equipment, and equipment control method and program
JP7081619B2 (en) 2020-03-25 2022-06-07 カシオ計算機株式会社 Device control device, device, device control method and program
CN116541731A (en) * 2023-05-26 2023-08-04 北京百度网讯科技有限公司 Processing method, device and equipment of network behavior data

Also Published As

Publication number Publication date
JP4058031B2 (en) 2008-03-05

Similar Documents

Publication Publication Date Title
US8606735B2 (en) Apparatus and method for predicting user&#39;s intention based on multimodal information
JP6754184B2 (en) Voice recognition device and voice recognition method
JP6761598B2 (en) Emotion estimation system, emotion estimation model generation system
EP1494210B1 (en) Speech communication system and method, and robot apparatus
US11217246B2 (en) Communication robot and method for operating the same
JP6062547B2 (en) Method and apparatus for controlling augmented reality
KR20180071931A (en) Electronic apparatus, method for determining user utterance intention of thereof, and non-transitory computer readable recording medium
KR20200007496A (en) Electronic device for generating personal automatic speech recognition model and method for operating the same
EP3704853B1 (en) Electronic device and method for controlling the electronic device
WO2002099545A1 (en) Man-machine interface unit control method, robot apparatus, and its action control method
EP3373525A2 (en) Electronic device and method using machine learning for identifying characteristics of users located within a specific space
US11881209B2 (en) Electronic device and control method
KR102529262B1 (en) Electronic device and controlling method thereof
KR20190083629A (en) Method and apparatus for recognizing a voice
JP4058031B2 (en) User action induction system and method
KR101652705B1 (en) Apparatus for predicting intention of user using multi modal information and method thereof
KR20190031786A (en) Electronic device and method of obtaining feedback information thereof
Ktistakis et al. A multimodal human-machine interaction scheme for an intelligent robotic nurse
CN110334244B (en) Data processing method and device and electronic equipment
JP2007000938A (en) Action uniting type robot device
WO2007046613A1 (en) Method of representing personality of mobile robot based on navigation logs and mobile robot apparatus therefor
JP4572080B2 (en) Robot or behavior update method in robot, and program for controlling behavior update in robot
US12020511B1 (en) Activity classification and repetition counting
CN114047901B (en) Man-machine interaction method and intelligent device
RU2746201C2 (en) System and method of nonverbal service activation on a mobile device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees