JP2020037155A - Gesture control device and gesture control program - Google Patents
Gesture control device and gesture control program Download PDFInfo
- Publication number
- JP2020037155A JP2020037155A JP2018165669A JP2018165669A JP2020037155A JP 2020037155 A JP2020037155 A JP 2020037155A JP 2018165669 A JP2018165669 A JP 2018165669A JP 2018165669 A JP2018165669 A JP 2018165669A JP 2020037155 A JP2020037155 A JP 2020037155A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- gesture
- robot
- vector
- gesture control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 claims abstract description 175
- 239000013598 vector Substances 0.000 claims abstract description 96
- 230000007704 transition Effects 0.000 claims abstract description 63
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 206010041349 Somnolence Diseases 0.000 claims description 5
- 208000032140 Sleepiness Diseases 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 17
- 239000000284 extract Substances 0.000 abstract description 9
- 230000002996 emotional effect Effects 0.000 description 17
- 238000004458 analytical method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 101100309447 Caenorhabditis elegans sad-1 gene Proteins 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000037007 arousal Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008918 emotional behaviour Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの仕草を制御するための装置及びプログラムに関する。 The present invention relates to an apparatus and a program for controlling a gesture of a robot.
家庭内のロボットがユーザと一緒にテレビを視聴し、ロボットが視聴映像に対して反応している振る舞いを表現するためには、ロボットが視聴映像から受け取る感情状態を推定し、仕草を決定することにより、視聴映像に対して反応しているかのような感情動作を表出することが重要である。 In order for the robot in the home to watch TV with the user and express the behavior of the robot responding to the viewing video, the robot must estimate the emotional state received from the viewing video and determine the gesture. Therefore, it is important to express emotional behavior as if it were reacting to the viewing video.
例えば、特許文献1では、映像印象情報とユーザ感情情報とを用いてロボットの感情状態を決定し、共感を得られたと感じさせる同調的反応をロボットに実行させる装置が提案されている。
また、特許文献2では、ロボットが検出する基準データを基にコンテンツの評価を行い、評価結果に基づいてロボットの挙動又は状態を制御する装置が提案されている。
For example, Patent Literature 1 proposes a device that determines an emotional state of a robot using video impression information and user emotion information, and causes the robot to execute a synchronous reaction that makes the user feel that empathy has been obtained.
しかしながら、特許文献1では、ロボットの動作がユーザと共感を得るための同調的な動作に限定されるため、ロボット自身の感情を、特に感情の移り変わりを表出することはできなかった。
また、特許文献2においても、コンテンツの評価結果に基づいてロボットの挙動又は状態を制御したとしても、変化していくコンテンツのシーンに対する反応の移り変わりを表出することはできなかった。
したがって、ロボットの仕草により表現する感情が急に変化する場合があるため、ユーザは、ロボットの仕草に違和感を覚えることがあった。
However, in Patent Literature 1, since the operation of the robot is limited to the synchronous operation for obtaining sympathy with the user, the emotion of the robot itself, particularly the change of the emotion, cannot be expressed.
Further, even in
Therefore, the emotion expressed by the robot's gesture may suddenly change, and the user may feel uncomfortable with the robot's gesture.
本発明は、ロボットの感情の変化を表現できる仕草制御装置及び仕草制御プログラムを提供することを目的とする。 An object of the present invention is to provide a gesture control device and a gesture control program capable of expressing a change in the emotion of a robot.
本発明に係る仕草制御装置は、感情を表現する複数の軸で定義された空間における、複数の感情語の感情ベクトルを記憶する第1記憶部と、前記空間を分割した複数のエリアそれぞれに対して、ロボットの仕草を割り当てた第2記憶部と、入力文から感情語を抽出する感情語抽出部と、前記感情語に対応する前記空間における遷移先の感情ベクトルを決定する感情決定部と、前記ロボットに現在設定されている遷移元の感情ベクトルから、前記遷移先の感情ベクトルまで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応する前記エリアに割り当てられた前記仕草を順に決定する仕草決定部と、を備える。 A gesture control device according to the present invention includes a first storage unit that stores emotion vectors of a plurality of emotion words in a space defined by a plurality of axes expressing emotions, and a plurality of areas that divide the space. A second storage unit to which the gesture of the robot is assigned; an emotion word extraction unit that extracts an emotion word from the input sentence; an emotion determination unit that determines a transition destination emotion vector in the space corresponding to the emotion word; From the emotion vector of the transition source currently set to the robot, the emotion vector is transitioned stepwise to the emotion vector of the transition destination, and the gesture assigned to the area corresponding to the emotion vector of each stage is determined in order. And a gesture determining unit.
前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定してもよい。 The gesture determining unit may determine a time required for a transition based on a distance between the emotion vector of the transition source and the emotion vector of the transition destination.
前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定してもよい。 The gesture determining unit may determine the number of steps for transitioning the emotion vector based on a distance between the transition source emotion vector and the transition destination emotion vector.
前記空間は、「快−不快」及び「覚醒−眠気」を指標とし、2次元の軸で構成されたラッセル円環モデルであってもよい。 The space may be a Russell ring model composed of two-dimensional axes using “pleasure-discomfort” and “awake-drowsiness” as indices.
本発明に係る仕草制御プログラムは、コンピュータを、前記仕草制御装置として機能させるためのものである。 A gesture control program according to the present invention causes a computer to function as the gesture control device.
本発明によれば、ロボットの感情の変化を表現できる。 ADVANTAGE OF THE INVENTION According to this invention, the change of the emotion of a robot can be expressed.
以下、本発明の実施形態の一例について説明する。
図1は、本実施形態に係る仕草制御装置1の機能構成を示すブロック図である。
仕草制御装置1は、制御部10と記憶部20とを備えた情報処理装置(コンピュータ)であり、さらに、入出力及び通信のインタフェースを備える。仕草制御装置1は、記憶部20に格納されたソフトウェア(仕草制御プログラム)を制御部10が実行することにより、本実施形態の各種機能を実現する。
なお、仕草制御装置1は、制御対象であるロボットに内蔵されてもよいし、通信により外部からロボットを制御する構成であってもよい。
Hereinafter, an example of an embodiment of the present invention will be described.
FIG. 1 is a block diagram illustrating a functional configuration of a gesture control device 1 according to the present embodiment.
The gesture control device 1 is an information processing device (computer) including a
Note that the gesture control device 1 may be built in a robot to be controlled, or may be configured to control the robot externally through communication.
仕草制御装置1は、本実施形態の各種機能により、ロボットの仕草を制御する。本実施形態において制御対象とするロボットは、コミュニケーションロボット又はスマートスピーカ等の家庭用のロボットである。また、仕草とは、ロボットの動作制御部4がモータ5を動作させることによる空間的な動作に加えて、ロボットに設けられた発光デバイスの発光、又はロボットによる発話の速度若しくは強弱の変化を含む動作全般をいう。
The gesture control device 1 controls the gesture of the robot by various functions of the present embodiment. The robot to be controlled in the present embodiment is a home robot such as a communication robot or a smart speaker. In addition, the gesture includes, in addition to the spatial operation caused by the
このとき、仕草制御装置1は、カメラ2及びマイク3から、ロボットが視聴している映像及び音声を取得すると、感情を表現する感情語を抽出し、ロボットの感情状態を、現在の状態から抽出した感情語の感情状態へ時間的に徐々に遷移させることにより、ロボットの仕草を段階的に決定する。ロボットの感情の初期状態は、予めラッセル円環モデルのいずれかの場所にマッピングされていてもよい。
At this time, when the gesture control device 1 acquires the video and audio being watched by the robot from the
制御部10は、映像情報取得部11と、感情語抽出部12と、感情決定部13と、仕草決定部14とを備える。
また、記憶部20は、感情語辞書21と、仕草データベース22と、ロボット感情部23と、方向データベース24とを備える。
The
The
映像情報取得部11は、テレビ等を視聴している際の映像又は音声の情報を解析し、ロボットの仕草を決定するための入力文を生成する。
図2は、本実施形態に係る映像情報取得部11の詳細な機能構成を示すブロック図である。
映像情報取得部11は、映像取得部111と、音声取得部112と、映像画像解析部113と、音声解析部114と、映像情報統合部115とを備える。
The video
FIG. 2 is a block diagram illustrating a detailed functional configuration of the video
The video
映像情報取得部11は、映像取得部111によりロボットに搭載されているカメラ2から映像情報を、また、音声取得部112によりマイク3から音声情報を取得する。
取得された映像情報は、映像画像解析部113により物体認識、シーン検出、文字認識等の解析が行われ、音声情報は、音声解析部114により音声認識が行われる。
映像情報統合部115は、映像画像解析部113及び音声解析部114から得られた解析結果を統合し、映像音声解析情報を出力する。このとき、映像情報統合部115は、不適当な特定の単語又は文章を利用させないようにするために、映像音声解析情報の該当する単語及び文章のフィルタリングを行ってもよい。
The video
The acquired video information is analyzed by the video
The video
映像音声解析情報は、仕草制御のための入力文として感情語抽出部12に提供される。
なお、映像情報取得部11は、映像情報の解析又は音声情報の解析のために、クラウドネットワークを利用した一般に公開されている画像認識API等を用いてもよい。
The video / audio analysis information is provided to the emotion
Note that the video
感情語抽出部12は、映像情報取得部11により提供される映像音声解析情報から感情語を抽出する。
このとき、感情語抽出部12は、感情語辞書21を利用して感情語を抽出する。感情語抽出部12は、例えば、文字列に形態素解析及び係り受け解析等の構文解析を行って文構造を取得し、感情語辞書に定義されている感情語を抽出する。なお、形態素解析には、オープンソースの形態素解析エンジン(例えば、「MeCab」、<http://taku910.github.io/mecab/>)等が利用可能である。
また、感情語辞書21は、例えば「感情表現辞典、中村明、東京堂出版、1993」等を用いるほか、WEBページから収集されてもよい。
The emotion
At this time, the emotion
The
図3は、本実施形態に係る感情語辞書21を例示する図である。
例えば、同一の感情を示すが表現が異なる複数の単語がグループ化され、主単語、単語1、単語2、・・・のように定義される。
感情語抽出部12は、映像音声解析情報に含まれる単語に対して、同一グループの主単語を感情語として抽出してよい。
FIG. 3 is a diagram illustrating the
For example, a plurality of words showing the same emotion but different expressions are grouped and defined as a main word, word 1,
The emotion
ここで、感情語辞書21で定義された複数の感情語は、それぞれに対して、感情を表現する複数の軸で定義された空間における、感情ベクトルが仕草データベース22に記憶される。
この空間は、例えば、「快−不快」及び「覚醒−眠気」の2次元の軸で構成されたラッセル円環モデルであってよい。このような空間に対して複数の感情語が予めマッピングされ、各感情語について感情ベクトルの座標値が仕草データベース22(第1記憶部)に記憶される。
さらに、仕草データベース22(第2記憶部)では、空間を分割した複数のエリアそれぞれに対して、ロボットの仕草が割り当てられる。
Here, for each of the plurality of emotion words defined in the
This space may be, for example, a Russell ring model composed of two-dimensional axes of “pleasant-displeased” and “awake-drowsiness”. A plurality of emotion words are mapped in advance in such a space, and the coordinate value of the emotion vector for each emotion word is stored in the gesture database 22 (first storage unit).
Further, in the gesture database 22 (second storage unit), a gesture of the robot is assigned to each of the plurality of areas obtained by dividing the space.
図4は、本実施形態に係る仕草データベース22に記憶される感情ベクトルを例示する図である。
例えば、ラッセル円環モデルでは、x軸に「快−不快」を表す情動価が、y軸に「覚醒−眠気」を表す覚醒度が設けられる。これにより、4象限がそれぞれ、喜び、怒り、悲しみ、リラックスといった感情を表す。そして、感情語辞書21に含まれる感情語がそれぞれ、固有の座標にマッピングされ、感情ベクトルとして記憶される。
FIG. 4 is a diagram illustrating an example of emotion vectors stored in the
For example, in the Russell ring model, the x-axis is provided with an emotional value representing "pleasure-discomfort", and the y-axis is provided with a degree of arousal representing "wake-up drowsiness". Thus, each of the four quadrants expresses emotions such as joy, anger, sadness, and relaxation. The emotion words included in the
図5は、本実施形態に係る仕草データベース22に記憶される感情ベクトルと仕草との関係を例示する図である。
ロボットの仕草は、感情語がマッピングされた空間を複数に分割したエリア毎に定義される。
例えば、「asad≦x<0,bsad≦y<0」のエリアには「悲しい1」という仕草が、「x<asad,bsad≦y<0」のエリアには「悲しい2」という仕草が割り当てられる。
なお、この例では、等間隔の格子状にエリアが設けられているが、空間に分割方法はこれに限られない。
FIG. 5 is a diagram exemplifying the relationship between the emotion vector and the gesture stored in the
The gesture of the robot is defined for each area obtained by dividing the space to which the emotion words are mapped into a plurality.
For example, the gesture “sad 1” is in the area “a sad ≦ x <0, b sad ≦ y <0”, and “sad 2” is in the area “x <a sad , b sad ≦ y <0”. Is assigned.
In this example, the areas are provided in a grid pattern at equal intervals, but the method of dividing the space is not limited to this.
感情決定部13は、ロボットの感情の遷移先として、抽出された感情語に対応する感情ベクトルを仕草データベース22から抽出し、空間における遷移先の感情ベクトルを決定する。
The emotion determination unit 13 extracts an emotion vector corresponding to the extracted emotion word from the
仕草決定部14は、ロボットに現在設定されている遷移元の感情ベクトルEr(a、b)から、視聴映像に基づく遷移先の感情ベクトル(am、bm)まで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応するエリアに割り当てられた仕草を順に決定する。
このとき、仕草決定部14は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定してもよいし、予め所定時間が指定されてもよい。
また、仕草決定部14は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定してもよいし、予め所定数が指定されてもよい。
At this time, the
In addition, the
例えば、時刻t0から時刻t4の間にEr(−1,−1)からEm(1,1)まで、4段階に感情ベクトルを遷移させる場合、時刻t0:Er(−1,−1)、時刻t1:Er(−0.5,−0.5)、時刻t2:Er(0,0)、時刻t3:Er(0.5,0.5)、時刻t4:Er(1,1)のように、遷移元の感情ベクトルErから遷移先の感情ベクトルEmに至るまでの間に3つの感情ベクトルが補間される。
これにより、仕草決定部14は、遷移元の感情ベクトルErを遷移先の感情ベクトルEmへ徐々に遷移させ、遷移途中の各段階の感情ベクトルそれぞれに応じたロボットの仕草を決定する。
For example, when the emotion vector transitions in four stages from Er (-1, -1) to Em (1, 1) between time t0 and time t4, time t0: Er (-1, -1) and time t1: Er (−0.5, −0.5), time t2: Er (0, 0), time t3: Er (0.5, 0.5), time t4: Er (1, 1) Then, three emotion vectors are interpolated from the emotion vector Er of the transition source to the emotion vector Em of the transition destination.
Thereby, the
図6は、本実施形態に係る感情ベクトルの段階的な遷移方法、及び対応する仕草の決定方法を例示する図である。
この例では、仕草決定部14は、時刻t0における遷移元の感情ベクトルEr(t0)から、時刻t4における遷移先の感情ベクトルEm=Er(t4)まで、4段階に感情ベクトルEr()を変化させている。
FIG. 6 is a diagram exemplifying a method of stepwise transition of an emotion vector and a method of determining a corresponding gesture according to the present embodiment.
In this example, the
例えば、感情語「退屈な」に対応する遷移元の感情ベクトルEr(a,b)がロボットに設定されている際に、新たにテレビの実況音声等から感情語「嬉しい」が検出されると、検出された感情語に対応した遷移先の感情ベクトルEm(am,bm)が決定される。
このとき、感情ベクトル間の距離R=√{(am−a)2+(bm−b)2}と角度θが求まる。距離Rを4等分して感情ベクトルを補間する場合、(a,b)から角度θの方向に、変化量D=R/4毎に、各段階での感情ベクトルEr(t1)、Er(t2)、Er(t3)、Er(t4)=Emが決定される。
For example, when the emotion vector Er (a, b) of the transition source corresponding to the emotion word “boring” is set in the robot, if the emotion word “happy” is newly detected from the live sound of television or the like. emotion vector Em transition destination corresponding to the detected emotional word (a m, b m) is determined.
The distance between the emotion vector R = √ {(a m -a ) 2 + (b m -b) 2} and the angle θ is obtained. When the distance R is divided into four equal parts and the emotion vectors are interpolated, the emotion vectors Er (t1), Er () at the respective stages in the direction of the angle θ from (a, b) for each change amount D = R / 4. t2), Er (t3), Er (t4) = Em are determined.
次に、決定された各段階の感情ベクトルEr(t1)、Er(t2)、Er(t3)、Er(t4)に対して、エリア毎に定義された仕草が抽出され、時刻t1、t2、t3、t4において、それぞれ仕草「悲しい1」、「リラックス1」、「喜び1」、「喜び3」が実行される。 Next, gestures defined for each area are extracted from the determined emotion vectors Er (t1), Er (t2), Er (t3), and Er (t4) at each stage, and the times t1, t2, At t3 and t4, the gestures "sad 1", "relax 1", "joy 1", and "joy 3" are executed, respectively.
仕草決定部14による感情ベクトルの補間方法は、これには限られず、例えば、次のようなバリエーション(1)〜(3)が採用可能である。
(1)仕草決定部14は、遷移元の感情ベクトルから遷移先の感情ベクトルまでの線分を閾値以上の幅の等間隔Dに分割することにより、各段階の感情ベクトルを決定する。
(2)仕草決定部14は、予め設定又は距離R若しくは遷移元の座標等に応じて決定される遷移に要する時間を、閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定する。
(3)仕草決定部14は、仕草それぞれの動作時間の合計が遷移に要する時間に収まるように、各段階の感情ベクトルを決定する。
なお、遷移の軌跡は曲線であってもよいし、距離又は時間の分割は等間隔でなくてもよい。
The method of interpolation of the emotion vector by the
(1) The
(2) The
(3) The
The trajectory of the transition may be a curve, and the division of the distance or time may not be equal.
仕草制御装置1は、前述のように感情ベクトルを遷移させると、更新された最新の感情ベクトルをロボット感情部23に記憶する。記憶された感情ベクトルは、ロボットの現在の感情を定義するものであり、次に感情語が抽出された際に、遷移元の感情ベクトルとなる。
When the gesture control device 1 changes the emotion vector as described above, the updated emotion vector is stored in the
図7は、本実施形態に係る仕草に対応するロボットのモータ制御データを例示する図である。
例えば、ロボットが「喜び1」の仕草を表現する場合、3000msecの動作時間で、動作1から動作3の動作を順に実行する。各動作の動作制御データは、ロボットが備えるモータそれぞれに対応する制御値が配列として記述されている。この例では、5自由度のロボットに対して要素数5の配列が用いられ、例えば、3軸の頭の回転量と、左右の腕の移動量とが指定される。
これより、動作1から動作3にかけて、「喜び1」の仕草である腕を上げていくロボットの動作が実現する。
FIG. 7 is a diagram illustrating motor control data of the robot corresponding to the gesture according to the present embodiment.
For example, when the robot expresses the gesture of “joy 1”, the operations of operation 1 to operation 3 are sequentially performed with an operation time of 3000 msec. In the operation control data of each operation, a control value corresponding to each motor provided in the robot is described as an array. In this example, an array having five elements is used for a robot having five degrees of freedom. For example, the amount of rotation of the head of three axes and the amount of movement of the left and right arms are specified.
As a result, from the operation 1 to the operation 3, the operation of the robot raising the arm, which is the gesture of “joy 1”, is realized.
また、ロボットの仕草は、視聴しているテレビ又は視聴者の方向を向く動作を含んでいてもよい。方向データベース24は、予め設定されたか、又はロボットにより検出されたテレビ及び視聴者の方向を保持している。方向は、例えばロボットの正面に対する水平方向及び垂直方向の角度で表される。
In addition, the gesture of the robot may include an operation of pointing to the television or the viewer who is watching. The
なお、仕草それぞれの動作時間(例えば、3000msec)は所定の範囲で調整可能であってよい。これにより、ロボットは、感情ベクトルの遷移時間内に各段階の仕草を完了させることができる。 The operation time of each gesture (for example, 3000 msec) may be adjustable within a predetermined range. Thereby, the robot can complete the gesture of each stage within the transition time of the emotion vector.
本実施形態によれば、仕草制御装置1は、ロボットが視聴している映像から感情語を抽出することにより感情状態を定義した空間内における感情ベクトルを決定する。そして、仕草制御装置1は、現在のロボットの感情状態を示す遷移元の感情ベクトルを、視聴映像に基づいて決定した感情状態を示す遷移先の感情ベクトルへ、段階的に遷移させながら、各段階の感情ベクトルが属するエリアに応じたロボットの仕草を決定する。
これにより、仕草制御装置1は、視聴映像に対してロボットの感情状態が徐々に変化する様子を表現するための動作制御を可能とする。また、仕草制御装置1は、テレビディスプレイ等と通信せず、例えば悲しい感情状態から嬉しい感情状態に徐々に遷移するようなロボットの動作を可能とする。したがって、ユーザは、ロボットが急な感情変化を表出することによる違和感を覚えることなく、ロボットと一緒に映像を視聴できる。
According to the present embodiment, the gesture control device 1 determines an emotion vector in a space in which an emotion state is defined by extracting an emotion word from a video viewed by the robot. Then, the gesture control device 1 changes the emotion vector of the transition source indicating the emotional state of the current robot to the emotion vector of the transition destination indicating the emotional state determined based on the viewing video in a stepwise manner. Of the robot according to the area to which the emotion vector belongs.
Thereby, the gesture control device 1 enables operation control for expressing a state in which the emotional state of the robot gradually changes with respect to the viewing video. In addition, the gesture control device 1 does not communicate with a television display or the like, and enables an operation of a robot that gradually makes a transition from a sad emotional state to a happy emotional state, for example. Therefore, the user can view the video together with the robot without feeling uncomfortable due to the robot expressing a sudden emotional change.
仕草制御装置1は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定することで、感情の変化の度合いに応じて、適切な時間を掛けて感情変化を表現できる。 The gesture control device 1 determines the time required for the transition based on the distance between the emotion vector of the transition source and the emotion vector of the transition destination, and takes appropriate time in accordance with the degree of change of the emotion to determine the emotion. Can express change.
仕草制御装置1は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定することで、感情の変化の度合いに応じて、適切な動作数により感情変化を表現できる。 The gesture control device 1 determines the number of stages for transitioning the emotion vector based on the distance between the emotion vector of the transition source and the emotion vector of the transition destination. Emotional change can be expressed by number.
仕草制御装置1は、遷移元の感情ベクトルから遷移先の感情ベクトルまでの線分を閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定することで、適度な変化量で感情ベクトルを遷移させ、容易に感情変化を表現できる。 The gesture control device 1 divides a line segment from the emotion vector of the transition source to the emotion vector of the transition destination into equal intervals having a width equal to or larger than the threshold value, thereby determining the emotion vector at each stage, and thereby the appropriate change amount. The emotion vector can be changed by using to change the emotion vector easily.
仕草制御装置1は、遷移に要する時間を閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定することで、適度な時間間隔で仕草を変化させ、かつ、容易に感情変化を表現できる。 The gesture control device 1 divides the time required for the transition into equal intervals having a width equal to or larger than the threshold value, determines the emotion vector at each stage, changes the gesture at appropriate time intervals, and easily changes the emotion. Can express change.
仕草制御装置1は、仕草それぞれの動作時間の合計が感情ベクトルの遷移に要する時間に収まるように、各段階の感情ベクトルを決定することで、段階毎の仕草の動作時間が互いに干渉することなく、ロボットの感情変化を適切に表現できる。 The gesture control device 1 determines the emotion vector of each stage so that the total operation time of each gesture falls within the time required for the transition of the emotion vector, so that the operation time of the gesture for each stage does not interfere with each other. , And can appropriately express changes in the emotions of the robot.
仕草制御装置1は、感情ベクトルを定義する空間として、「快−不快」及び「覚醒−眠気」の2次元の軸で構成されたラッセル円環モデルを用いる。これにより、仕草制御装置1は、様々な感情語に対応する感情ベクトル、及び感情が変化する過程の感情ベクトル、さらには、空間内のエリア毎の仕草を容易に決定できる。この結果、仕草制御装置1は、感情語に基づく感情状態の変化を、複数の仕草を段階的に決定することで容易に表現できる。 The gesture control device 1 uses a Russell ring model composed of two-dimensional axes of “pleasure-discomfort” and “awake-sleepiness” as a space for defining an emotion vector. Thereby, the gesture control device 1 can easily determine the emotion vector corresponding to various emotion words, the emotion vector in the process of changing the emotion, and the gesture for each area in the space. As a result, the gesture control device 1 can easily express a change in the emotional state based on the emotional word by determining a plurality of gestures in stages.
以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 The embodiments of the present invention have been described above, but the present invention is not limited to the above-described embodiments. Further, the effects described in the present embodiment merely enumerate the most preferable effects resulting from the present invention, and the effects according to the present invention are not limited to those described in the present embodiment.
前述の実施形態では、ロボットの仕草として、主にモータ制御による空間的な動作を例示したが、これには限られない。例えば、スマートスピーカであれば、リラックス時に緩やかにLEDを点滅させたり、ゆっくりと発話させたりする等、発光デバイスの発光、又は発話の速度若しくは強弱等を感情語に対応した仕草と定義できる。この場合にも、仕草制御装置1は、感情ベクトルの遷移に応じて、発光又は発話等を徐々に変化させることで、感情変化を表現できる。 In the above-described embodiment, a spatial operation mainly controlled by a motor has been exemplified as a gesture of the robot, but is not limited thereto. For example, in the case of a smart speaker, the light emission of the light emitting device, or the speed or strength of the utterance, such as slowly blinking the LED or slowly uttering during relaxation, can be defined as a gesture corresponding to the emotional word. Also in this case, the gesture control device 1 can express the emotion change by gradually changing the light emission or the utterance according to the transition of the emotion vector.
また、前述の実施形態では、感情を定義する空間として、ラッセル円環モデルを例示したが、空間は2次元には限られず、3次以上の多次元の空間であってもよい。 Further, in the above-described embodiment, the Russell ring model is exemplified as the space for defining the emotion. However, the space is not limited to two dimensions, and may be a tertiary or higher multidimensional space.
本実施形態では、主に仕草制御装置1の構成と動作について説明したが、本発明はこれに限られず、各構成要素を備え、ロボットの動作を制御するための仕草制御方法、又は仕草制御プログラムとして構成されてもよい。 In the present embodiment, the configuration and operation of the gesture control device 1 have mainly been described. However, the present invention is not limited to this, and a gesture control method or a gesture control program including each component and controlling the operation of the robot is provided. It may be constituted as.
さらに、仕草制御装置1の機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。 Furthermore, a program for realizing the function of the gesture control device 1 may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read and executed by a computer system to be realized. Good.
ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system.
さらに「コンピュータで読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 In addition, a "computer-readable recording medium" means that a program is dynamically stored for a short time, such as a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line. For example, a program holding a program at a certain time, such as a volatile memory in a computer system serving as a server or a client in that case, may be included. Further, the above-mentioned program may be for realizing a part of the functions described above, or may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system. .
1 仕草制御装置
10 制御部
11 映像情報取得部
12 感情語抽出部
13 感情決定部
14 仕草決定部
20 記憶部
21 感情語辞書
22 仕草データベース(第1記憶部、第2記憶部)
23 ロボット感情部
24 方向データベース
Reference Signs List 1
23
Claims (5)
前記空間を分割した複数のエリアそれぞれに対して、ロボットの仕草を割り当てた第2記憶部と、
入力文から感情語を抽出する感情語抽出部と、
前記感情語に対応する前記空間における遷移先の感情ベクトルを決定する感情決定部と、
前記ロボットに現在設定されている遷移元の感情ベクトルから、前記遷移先の感情ベクトルまで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応する前記エリアに割り当てられた前記仕草を順に決定する仕草決定部と、を備える仕草制御装置。 A first storage unit that stores emotion vectors of a plurality of emotion words in a space defined by a plurality of axes expressing emotions;
A second storage unit to which a gesture of a robot is assigned to each of the plurality of areas obtained by dividing the space;
An emotion word extraction unit for extracting an emotion word from the input sentence,
An emotion determination unit that determines an emotion vector of a transition destination in the space corresponding to the emotion word,
From the emotion vector of the transition source currently set to the robot, the emotion vector is stepwise transitioned to the emotion vector of the transition destination, and the gesture assigned to the area corresponding to the emotion vector of each stage is determined in order. A gesture control unit comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018165669A JP7152908B2 (en) | 2018-09-05 | 2018-09-05 | Gesture control device and gesture control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018165669A JP7152908B2 (en) | 2018-09-05 | 2018-09-05 | Gesture control device and gesture control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020037155A true JP2020037155A (en) | 2020-03-12 |
JP7152908B2 JP7152908B2 (en) | 2022-10-13 |
Family
ID=69738502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018165669A Active JP7152908B2 (en) | 2018-09-05 | 2018-09-05 | Gesture control device and gesture control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7152908B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230079859A (en) * | 2021-11-29 | 2023-06-07 | 한국과학기술연구원 | Apparatus and method for determning emotional state of robot reflecting emotional change pattern of human |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000066239A1 (en) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Electronic pet system, network system, robot, and storage medium |
JP2001162058A (en) * | 1999-12-10 | 2001-06-19 | Iesato Sato | Autonomous mobile therapeutic apparatus |
US20020158599A1 (en) * | 2000-03-31 | 2002-10-31 | Masahiro Fujita | Robot device, robot device action control method, external force detecting device and external force detecting method |
JP2004005422A (en) * | 2002-02-09 | 2004-01-08 | Lexer Research Inc | Automatic service providing device and automatic service providing method |
JP2005063163A (en) * | 2003-08-13 | 2005-03-10 | Sony Corp | Device and method for retrieval reproduction of imaging information, device and method for retrieval reproduction of contents and device and method for emotion retrieval |
JP2009072910A (en) * | 2008-12-22 | 2009-04-09 | Nec Corp | Robot device and its control method |
JP2012000694A (en) * | 2010-06-14 | 2012-01-05 | Fujitsu Ltd | Method and program for controlling robot, and robot |
JP2013532418A (en) * | 2010-05-26 | 2013-08-15 | クゥアルコム・インコーポレイテッド | Camera parameter assisted video frame rate up-conversion |
JP2014074997A (en) * | 2012-10-03 | 2014-04-24 | Korea Inst Of Industrial Technology | Artificial emotion learning device and method |
US20140172771A1 (en) * | 2012-12-13 | 2014-06-19 | Korea Institute Of Industrial Technology | Apparatus and method for selecting motion signifying artificial feeling |
JP2016135530A (en) * | 2015-01-23 | 2016-07-28 | シャープ株式会社 | Robot control device and robot |
-
2018
- 2018-09-05 JP JP2018165669A patent/JP7152908B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000066239A1 (en) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Electronic pet system, network system, robot, and storage medium |
JP2001162058A (en) * | 1999-12-10 | 2001-06-19 | Iesato Sato | Autonomous mobile therapeutic apparatus |
US20020158599A1 (en) * | 2000-03-31 | 2002-10-31 | Masahiro Fujita | Robot device, robot device action control method, external force detecting device and external force detecting method |
JP2004005422A (en) * | 2002-02-09 | 2004-01-08 | Lexer Research Inc | Automatic service providing device and automatic service providing method |
JP2005063163A (en) * | 2003-08-13 | 2005-03-10 | Sony Corp | Device and method for retrieval reproduction of imaging information, device and method for retrieval reproduction of contents and device and method for emotion retrieval |
JP2009072910A (en) * | 2008-12-22 | 2009-04-09 | Nec Corp | Robot device and its control method |
JP2013532418A (en) * | 2010-05-26 | 2013-08-15 | クゥアルコム・インコーポレイテッド | Camera parameter assisted video frame rate up-conversion |
JP2012000694A (en) * | 2010-06-14 | 2012-01-05 | Fujitsu Ltd | Method and program for controlling robot, and robot |
JP2014074997A (en) * | 2012-10-03 | 2014-04-24 | Korea Inst Of Industrial Technology | Artificial emotion learning device and method |
US20140172771A1 (en) * | 2012-12-13 | 2014-06-19 | Korea Institute Of Industrial Technology | Apparatus and method for selecting motion signifying artificial feeling |
JP2016135530A (en) * | 2015-01-23 | 2016-07-28 | シャープ株式会社 | Robot control device and robot |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230079859A (en) * | 2021-11-29 | 2023-06-07 | 한국과학기술연구원 | Apparatus and method for determning emotional state of robot reflecting emotional change pattern of human |
KR102598435B1 (en) | 2021-11-29 | 2023-11-07 | 한국과학기술연구원 | Apparatus and method for determning emotional state of robot reflecting emotional change pattern of human |
Also Published As
Publication number | Publication date |
---|---|
JP7152908B2 (en) | 2022-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11423909B2 (en) | Word flow annotation | |
US11747618B2 (en) | Systems and methods for sign language recognition | |
CN112131988B (en) | Method, apparatus, device and computer storage medium for determining virtual character lip shape | |
CN104049721B (en) | Information processing method and electronic equipment | |
EP3258423A1 (en) | Handwriting recognition method and apparatus | |
US11809213B2 (en) | Controlling duty cycle in wearable extended reality appliances | |
KR102077887B1 (en) | Enhancing video conferences | |
CN112634459A (en) | Resolving natural language ambiguities for simulated reality scenarios | |
KR20160106653A (en) | Coordinated speech and gesture input | |
JP2020037155A (en) | Gesture control device and gesture control program | |
CN112328085A (en) | Control method and device of virtual role, storage medium and electronic equipment | |
US11237671B1 (en) | Temporal filter touch detection | |
CN112153461B (en) | Method and device for positioning sound production object, electronic equipment and readable storage medium | |
US11928379B2 (en) | Information orientation and display in extended reality environments | |
JP7153052B2 (en) | Online Picture Book Content Acquisition Method, Apparatus, and Smart Screen Device | |
US11107285B2 (en) | Augmented reality-based image editing | |
JP2024008632A (en) | Information processing system, display method, program, and recording information creation system | |
JP2023022157A (en) | Computer program, method, and server device | |
KR20210045959A (en) | Terminal and method for coverting and outputting attribute information of real objects, computer-readable recording medium | |
JP2024006703A (en) | Information processing system, retrieval method, and program | |
CN117608465A (en) | Information processing apparatus, display method, storage medium, and computer apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7152908 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |