JP2020037155A - Gesture control device and gesture control program - Google Patents

Gesture control device and gesture control program Download PDF

Info

Publication number
JP2020037155A
JP2020037155A JP2018165669A JP2018165669A JP2020037155A JP 2020037155 A JP2020037155 A JP 2020037155A JP 2018165669 A JP2018165669 A JP 2018165669A JP 2018165669 A JP2018165669 A JP 2018165669A JP 2020037155 A JP2020037155 A JP 2020037155A
Authority
JP
Japan
Prior art keywords
emotion
gesture
robot
vector
gesture control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018165669A
Other languages
Japanese (ja)
Other versions
JP7152908B2 (en
Inventor
祐太 星
Yuta Hoshi
祐太 星
金子 豊
Yutaka Kaneko
金子  豊
村▲崎▼ 康博
Yasuhiro Murazaki
康博 村▲崎▼
上原 道宏
Michihiro Uehara
道宏 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2018165669A priority Critical patent/JP7152908B2/en
Publication of JP2020037155A publication Critical patent/JP2020037155A/en
Application granted granted Critical
Publication of JP7152908B2 publication Critical patent/JP7152908B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

To provide a gesture control device which can express change in emotion of a robot, and a gesture control program.SOLUTION: A gesture control device 1 comprises: a gesture database 22 which stores emotion vectors of a plurality of emotion words in a space defined by a plurality of axes which express emotion, and allocates gesture of a robot to each of a plurality of areas into which the space is divided; an emotion word extraction part 12 which extracts emotion words from an input sentence; an emotion determination part 13 which determines emotion vectors at a transition destination in the space corresponding to the emotion words; and a gesture determination part 14 which gradually transits emotion vectors from emotion vectors at a transition source, which is currently set to the robot, to emotion vectors at the transition destination, and determines gestures allocated to areas corresponding to emotion vectors at respective steps in order.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットの仕草を制御するための装置及びプログラムに関する。   The present invention relates to an apparatus and a program for controlling a gesture of a robot.

家庭内のロボットがユーザと一緒にテレビを視聴し、ロボットが視聴映像に対して反応している振る舞いを表現するためには、ロボットが視聴映像から受け取る感情状態を推定し、仕草を決定することにより、視聴映像に対して反応しているかのような感情動作を表出することが重要である。   In order for the robot in the home to watch TV with the user and express the behavior of the robot responding to the viewing video, the robot must estimate the emotional state received from the viewing video and determine the gesture. Therefore, it is important to express emotional behavior as if it were reacting to the viewing video.

例えば、特許文献1では、映像印象情報とユーザ感情情報とを用いてロボットの感情状態を決定し、共感を得られたと感じさせる同調的反応をロボットに実行させる装置が提案されている。
また、特許文献2では、ロボットが検出する基準データを基にコンテンツの評価を行い、評価結果に基づいてロボットの挙動又は状態を制御する装置が提案されている。
For example, Patent Literature 1 proposes a device that determines an emotional state of a robot using video impression information and user emotion information, and causes the robot to execute a synchronous reaction that makes the user feel that empathy has been obtained.
Patent Document 2 proposes a device that evaluates content based on reference data detected by a robot and controls the behavior or state of the robot based on the evaluation result.

特開2016−36883号公報JP 2016-36883 A 国際公開第2012/172721号International Publication No. 2012/172721

しかしながら、特許文献1では、ロボットの動作がユーザと共感を得るための同調的な動作に限定されるため、ロボット自身の感情を、特に感情の移り変わりを表出することはできなかった。
また、特許文献2においても、コンテンツの評価結果に基づいてロボットの挙動又は状態を制御したとしても、変化していくコンテンツのシーンに対する反応の移り変わりを表出することはできなかった。
したがって、ロボットの仕草により表現する感情が急に変化する場合があるため、ユーザは、ロボットの仕草に違和感を覚えることがあった。
However, in Patent Literature 1, since the operation of the robot is limited to the synchronous operation for obtaining sympathy with the user, the emotion of the robot itself, particularly the change of the emotion, cannot be expressed.
Further, even in Patent Literature 2, even if the behavior or state of the robot is controlled based on the evaluation result of the content, it is not possible to express a change in the response of the changing content to the scene.
Therefore, the emotion expressed by the robot's gesture may suddenly change, and the user may feel uncomfortable with the robot's gesture.

本発明は、ロボットの感情の変化を表現できる仕草制御装置及び仕草制御プログラムを提供することを目的とする。   An object of the present invention is to provide a gesture control device and a gesture control program capable of expressing a change in the emotion of a robot.

本発明に係る仕草制御装置は、感情を表現する複数の軸で定義された空間における、複数の感情語の感情ベクトルを記憶する第1記憶部と、前記空間を分割した複数のエリアそれぞれに対して、ロボットの仕草を割り当てた第2記憶部と、入力文から感情語を抽出する感情語抽出部と、前記感情語に対応する前記空間における遷移先の感情ベクトルを決定する感情決定部と、前記ロボットに現在設定されている遷移元の感情ベクトルから、前記遷移先の感情ベクトルまで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応する前記エリアに割り当てられた前記仕草を順に決定する仕草決定部と、を備える。   A gesture control device according to the present invention includes a first storage unit that stores emotion vectors of a plurality of emotion words in a space defined by a plurality of axes expressing emotions, and a plurality of areas that divide the space. A second storage unit to which the gesture of the robot is assigned; an emotion word extraction unit that extracts an emotion word from the input sentence; an emotion determination unit that determines a transition destination emotion vector in the space corresponding to the emotion word; From the emotion vector of the transition source currently set to the robot, the emotion vector is transitioned stepwise to the emotion vector of the transition destination, and the gesture assigned to the area corresponding to the emotion vector of each stage is determined in order. And a gesture determining unit.

前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定してもよい。   The gesture determining unit may determine a time required for a transition based on a distance between the emotion vector of the transition source and the emotion vector of the transition destination.

前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定してもよい。   The gesture determining unit may determine the number of steps for transitioning the emotion vector based on a distance between the transition source emotion vector and the transition destination emotion vector.

前記空間は、「快−不快」及び「覚醒−眠気」を指標とし、2次元の軸で構成されたラッセル円環モデルであってもよい。   The space may be a Russell ring model composed of two-dimensional axes using “pleasure-discomfort” and “awake-drowsiness” as indices.

本発明に係る仕草制御プログラムは、コンピュータを、前記仕草制御装置として機能させるためのものである。   A gesture control program according to the present invention causes a computer to function as the gesture control device.

本発明によれば、ロボットの感情の変化を表現できる。   ADVANTAGE OF THE INVENTION According to this invention, the change of the emotion of a robot can be expressed.

実施形態に係る仕草制御装置の機能構成を示すブロック図である。It is a block diagram showing the functional composition of the gesture control device concerning an embodiment. 実施形態に係る映像情報取得部の詳細な機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a detailed functional configuration of a video information acquisition unit according to the embodiment. 実施形態に係る感情語辞書を例示する図である。It is a figure which illustrates the emotion word dictionary which concerns on embodiment. 実施形態に係る仕草データベースに記憶される感情ベクトルを例示する図である。It is a figure which illustrates the emotion vector memorize | stored in the gesture database which concerns on embodiment. 実施形態に係る仕草データベースに記憶される感情ベクトルと仕草との関係を例示する図である。It is a figure which illustrates the relationship between the emotion vector and the gesture stored in the gesture database which concern on embodiment. 実施形態に係る感情ベクトルの段階的な遷移方法、及び対応する仕草の決定方法を例示する図である。It is a figure which illustrates the step-by-step transition method of the emotion vector which concerns on embodiment, and the determination method of the corresponding gesture. 実施形態に係る仕草に対応するロボットのモータ制御データを例示する図である。It is a figure which illustrates the motor control data of the robot corresponding to the gesture concerning embodiment.

以下、本発明の実施形態の一例について説明する。
図1は、本実施形態に係る仕草制御装置1の機能構成を示すブロック図である。
仕草制御装置1は、制御部10と記憶部20とを備えた情報処理装置(コンピュータ)であり、さらに、入出力及び通信のインタフェースを備える。仕草制御装置1は、記憶部20に格納されたソフトウェア(仕草制御プログラム)を制御部10が実行することにより、本実施形態の各種機能を実現する。
なお、仕草制御装置1は、制御対象であるロボットに内蔵されてもよいし、通信により外部からロボットを制御する構成であってもよい。
Hereinafter, an example of an embodiment of the present invention will be described.
FIG. 1 is a block diagram illustrating a functional configuration of a gesture control device 1 according to the present embodiment.
The gesture control device 1 is an information processing device (computer) including a control unit 10 and a storage unit 20, and further includes an input / output and communication interface. The gesture control device 1 realizes various functions of the present embodiment by causing the control unit 10 to execute software (gesture control program) stored in the storage unit 20.
Note that the gesture control device 1 may be built in a robot to be controlled, or may be configured to control the robot externally through communication.

仕草制御装置1は、本実施形態の各種機能により、ロボットの仕草を制御する。本実施形態において制御対象とするロボットは、コミュニケーションロボット又はスマートスピーカ等の家庭用のロボットである。また、仕草とは、ロボットの動作制御部4がモータ5を動作させることによる空間的な動作に加えて、ロボットに設けられた発光デバイスの発光、又はロボットによる発話の速度若しくは強弱の変化を含む動作全般をいう。   The gesture control device 1 controls the gesture of the robot by various functions of the present embodiment. The robot to be controlled in the present embodiment is a home robot such as a communication robot or a smart speaker. In addition, the gesture includes, in addition to the spatial operation caused by the operation control unit 4 of the robot operating the motor 5, the light emission of the light emitting device provided in the robot, or the change in the speed or intensity of the utterance by the robot. Refers to general operation.

このとき、仕草制御装置1は、カメラ2及びマイク3から、ロボットが視聴している映像及び音声を取得すると、感情を表現する感情語を抽出し、ロボットの感情状態を、現在の状態から抽出した感情語の感情状態へ時間的に徐々に遷移させることにより、ロボットの仕草を段階的に決定する。ロボットの感情の初期状態は、予めラッセル円環モデルのいずれかの場所にマッピングされていてもよい。   At this time, when the gesture control device 1 acquires the video and audio being watched by the robot from the camera 2 and the microphone 3, the gesture control device 1 extracts an emotion word expressing an emotion, and extracts the emotion state of the robot from the current state. The behavior of the robot is determined stepwise by gradually transitioning over time to the emotional state of the emotional word. The initial state of the emotion of the robot may be mapped in advance to any location of the Russell ring model.

制御部10は、映像情報取得部11と、感情語抽出部12と、感情決定部13と、仕草決定部14とを備える。
また、記憶部20は、感情語辞書21と、仕草データベース22と、ロボット感情部23と、方向データベース24とを備える。
The control unit 10 includes a video information acquisition unit 11, an emotion word extraction unit 12, an emotion determination unit 13, and a gesture determination unit 14.
The storage unit 20 includes an emotion word dictionary 21, a gesture database 22, a robot emotion unit 23, and a direction database 24.

映像情報取得部11は、テレビ等を視聴している際の映像又は音声の情報を解析し、ロボットの仕草を決定するための入力文を生成する。
図2は、本実施形態に係る映像情報取得部11の詳細な機能構成を示すブロック図である。
映像情報取得部11は、映像取得部111と、音声取得部112と、映像画像解析部113と、音声解析部114と、映像情報統合部115とを備える。
The video information acquisition unit 11 analyzes video or audio information when watching a television or the like, and generates an input sentence for determining a gesture of the robot.
FIG. 2 is a block diagram illustrating a detailed functional configuration of the video information acquisition unit 11 according to the present embodiment.
The video information acquisition unit 11 includes a video acquisition unit 111, an audio acquisition unit 112, a video image analysis unit 113, an audio analysis unit 114, and a video information integration unit 115.

映像情報取得部11は、映像取得部111によりロボットに搭載されているカメラ2から映像情報を、また、音声取得部112によりマイク3から音声情報を取得する。
取得された映像情報は、映像画像解析部113により物体認識、シーン検出、文字認識等の解析が行われ、音声情報は、音声解析部114により音声認識が行われる。
映像情報統合部115は、映像画像解析部113及び音声解析部114から得られた解析結果を統合し、映像音声解析情報を出力する。このとき、映像情報統合部115は、不適当な特定の単語又は文章を利用させないようにするために、映像音声解析情報の該当する単語及び文章のフィルタリングを行ってもよい。
The video information acquisition unit 11 acquires video information from the camera 2 mounted on the robot by the video acquisition unit 111 and audio information from the microphone 3 by the audio acquisition unit 112.
The acquired video information is analyzed by the video image analysis unit 113 such as object recognition, scene detection, and character recognition, and the voice information is subjected to voice recognition by the voice analysis unit 114.
The video information integration unit 115 integrates the analysis results obtained from the video image analysis unit 113 and the audio analysis unit 114, and outputs video / audio analysis information. At this time, the video information integration unit 115 may perform filtering of the corresponding word and text of the video / audio analysis information in order not to use an inappropriate specific word or text.

映像音声解析情報は、仕草制御のための入力文として感情語抽出部12に提供される。
なお、映像情報取得部11は、映像情報の解析又は音声情報の解析のために、クラウドネットワークを利用した一般に公開されている画像認識API等を用いてもよい。
The video / audio analysis information is provided to the emotion word extraction unit 12 as an input sentence for gesture control.
Note that the video information acquisition unit 11 may use a publicly available image recognition API or the like using a cloud network for analyzing video information or analyzing voice information.

感情語抽出部12は、映像情報取得部11により提供される映像音声解析情報から感情語を抽出する。
このとき、感情語抽出部12は、感情語辞書21を利用して感情語を抽出する。感情語抽出部12は、例えば、文字列に形態素解析及び係り受け解析等の構文解析を行って文構造を取得し、感情語辞書に定義されている感情語を抽出する。なお、形態素解析には、オープンソースの形態素解析エンジン(例えば、「MeCab」、<http://taku910.github.io/mecab/>)等が利用可能である。
また、感情語辞書21は、例えば「感情表現辞典、中村明、東京堂出版、1993」等を用いるほか、WEBページから収集されてもよい。
The emotion word extraction unit 12 extracts an emotion word from the video / audio analysis information provided by the video information acquisition unit 11.
At this time, the emotion word extraction unit 12 extracts an emotion word using the emotion word dictionary 21. The emotion word extraction unit 12 acquires a sentence structure by performing syntax analysis such as morphological analysis and dependency analysis on the character string, and extracts an emotion word defined in the emotion word dictionary. For the morphological analysis, an open source morphological analysis engine (for example, “MeCab”, <http://takaku910.gifhub.io/mecab/>) or the like can be used.
The emotion word dictionary 21 may be collected from a web page, for example, using “Emotion Expression Dictionary, Akira Nakamura, Tokyodo Shuppan, 1993” or the like.

図3は、本実施形態に係る感情語辞書21を例示する図である。
例えば、同一の感情を示すが表現が異なる複数の単語がグループ化され、主単語、単語1、単語2、・・・のように定義される。
感情語抽出部12は、映像音声解析情報に含まれる単語に対して、同一グループの主単語を感情語として抽出してよい。
FIG. 3 is a diagram illustrating the emotion word dictionary 21 according to the present embodiment.
For example, a plurality of words showing the same emotion but different expressions are grouped and defined as a main word, word 1, word 2,...
The emotion word extraction unit 12 may extract a main word of the same group as an emotion word from words included in the video / audio analysis information.

ここで、感情語辞書21で定義された複数の感情語は、それぞれに対して、感情を表現する複数の軸で定義された空間における、感情ベクトルが仕草データベース22に記憶される。
この空間は、例えば、「快−不快」及び「覚醒−眠気」の2次元の軸で構成されたラッセル円環モデルであってよい。このような空間に対して複数の感情語が予めマッピングされ、各感情語について感情ベクトルの座標値が仕草データベース22(第1記憶部)に記憶される。
さらに、仕草データベース22(第2記憶部)では、空間を分割した複数のエリアそれぞれに対して、ロボットの仕草が割り当てられる。
Here, for each of the plurality of emotion words defined in the emotion word dictionary 21, an emotion vector in a space defined by a plurality of axes expressing emotions is stored in the gesture database 22.
This space may be, for example, a Russell ring model composed of two-dimensional axes of “pleasant-displeased” and “awake-drowsiness”. A plurality of emotion words are mapped in advance in such a space, and the coordinate value of the emotion vector for each emotion word is stored in the gesture database 22 (first storage unit).
Further, in the gesture database 22 (second storage unit), a gesture of the robot is assigned to each of the plurality of areas obtained by dividing the space.

図4は、本実施形態に係る仕草データベース22に記憶される感情ベクトルを例示する図である。
例えば、ラッセル円環モデルでは、x軸に「快−不快」を表す情動価が、y軸に「覚醒−眠気」を表す覚醒度が設けられる。これにより、4象限がそれぞれ、喜び、怒り、悲しみ、リラックスといった感情を表す。そして、感情語辞書21に含まれる感情語がそれぞれ、固有の座標にマッピングされ、感情ベクトルとして記憶される。
FIG. 4 is a diagram illustrating an example of emotion vectors stored in the gesture database 22 according to the present embodiment.
For example, in the Russell ring model, the x-axis is provided with an emotional value representing "pleasure-discomfort", and the y-axis is provided with a degree of arousal representing "wake-up drowsiness". Thus, each of the four quadrants expresses emotions such as joy, anger, sadness, and relaxation. The emotion words included in the emotion word dictionary 21 are each mapped to unique coordinates and stored as emotion vectors.

図5は、本実施形態に係る仕草データベース22に記憶される感情ベクトルと仕草との関係を例示する図である。
ロボットの仕草は、感情語がマッピングされた空間を複数に分割したエリア毎に定義される。
例えば、「asad≦x<0,bsad≦y<0」のエリアには「悲しい1」という仕草が、「x<asad,bsad≦y<0」のエリアには「悲しい2」という仕草が割り当てられる。
なお、この例では、等間隔の格子状にエリアが設けられているが、空間に分割方法はこれに限られない。
FIG. 5 is a diagram exemplifying the relationship between the emotion vector and the gesture stored in the gesture database 22 according to the present embodiment.
The gesture of the robot is defined for each area obtained by dividing the space to which the emotion words are mapped into a plurality.
For example, the gesture “sad 1” is in the area “a sad ≦ x <0, b sad ≦ y <0”, and “sad 2” is in the area “x <a sad , b sad ≦ y <0”. Is assigned.
In this example, the areas are provided in a grid pattern at equal intervals, but the method of dividing the space is not limited to this.

感情決定部13は、ロボットの感情の遷移先として、抽出された感情語に対応する感情ベクトルを仕草データベース22から抽出し、空間における遷移先の感情ベクトルを決定する。   The emotion determination unit 13 extracts an emotion vector corresponding to the extracted emotion word from the gesture database 22 as a transition destination of the emotion of the robot, and determines an emotion vector of the transition destination in the space.

仕草決定部14は、ロボットに現在設定されている遷移元の感情ベクトルEr(a、b)から、視聴映像に基づく遷移先の感情ベクトル(a、b)まで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応するエリアに割り当てられた仕草を順に決定する。
このとき、仕草決定部14は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定してもよいし、予め所定時間が指定されてもよい。
また、仕草決定部14は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定してもよいし、予め所定数が指定されてもよい。
Gesture determination section 14, the transition from the transition source that is currently set in the robot emotion vector Er (a, b), emotion vector (a m, b m) of a transition destination based on the view image emotional vector stepwise until Then, the gesture assigned to the area corresponding to the emotion vector at each stage is determined in order.
At this time, the gesture determining unit 14 may determine the time required for the transition based on the distance between the emotion vector of the transition source and the emotion vector of the transition destination, or may specify a predetermined time in advance.
In addition, the gesture determining unit 14 may determine the number of stages for transitioning the emotion vector based on the distance between the emotion vector of the transition source and the emotion vector of the transition destination, or may determine a predetermined number in advance. Good.

例えば、時刻t0から時刻t4の間にEr(−1,−1)からEm(1,1)まで、4段階に感情ベクトルを遷移させる場合、時刻t0:Er(−1,−1)、時刻t1:Er(−0.5,−0.5)、時刻t2:Er(0,0)、時刻t3:Er(0.5,0.5)、時刻t4:Er(1,1)のように、遷移元の感情ベクトルErから遷移先の感情ベクトルEmに至るまでの間に3つの感情ベクトルが補間される。
これにより、仕草決定部14は、遷移元の感情ベクトルErを遷移先の感情ベクトルEmへ徐々に遷移させ、遷移途中の各段階の感情ベクトルそれぞれに応じたロボットの仕草を決定する。
For example, when the emotion vector transitions in four stages from Er (-1, -1) to Em (1, 1) between time t0 and time t4, time t0: Er (-1, -1) and time t1: Er (−0.5, −0.5), time t2: Er (0, 0), time t3: Er (0.5, 0.5), time t4: Er (1, 1) Then, three emotion vectors are interpolated from the emotion vector Er of the transition source to the emotion vector Em of the transition destination.
Thereby, the gesture determining unit 14 gradually transitions the emotion vector Er of the transition source to the emotion vector Em of the transition destination, and determines the gesture of the robot according to each emotion vector at each stage during the transition.

図6は、本実施形態に係る感情ベクトルの段階的な遷移方法、及び対応する仕草の決定方法を例示する図である。
この例では、仕草決定部14は、時刻t0における遷移元の感情ベクトルEr(t0)から、時刻t4における遷移先の感情ベクトルEm=Er(t4)まで、4段階に感情ベクトルEr()を変化させている。
FIG. 6 is a diagram exemplifying a method of stepwise transition of an emotion vector and a method of determining a corresponding gesture according to the present embodiment.
In this example, the gesture determining unit 14 changes the emotion vector Er () in four stages from the emotion vector Er (t0) of the transition source at time t0 to the emotion vector Em = Er (t4) of the transition destination at time t4. Let me.

例えば、感情語「退屈な」に対応する遷移元の感情ベクトルEr(a,b)がロボットに設定されている際に、新たにテレビの実況音声等から感情語「嬉しい」が検出されると、検出された感情語に対応した遷移先の感情ベクトルEm(a,b)が決定される。
このとき、感情ベクトル間の距離R=√{(a−a)+(b−b)}と角度θが求まる。距離Rを4等分して感情ベクトルを補間する場合、(a,b)から角度θの方向に、変化量D=R/4毎に、各段階での感情ベクトルEr(t1)、Er(t2)、Er(t3)、Er(t4)=Emが決定される。
For example, when the emotion vector Er (a, b) of the transition source corresponding to the emotion word “boring” is set in the robot, if the emotion word “happy” is newly detected from the live sound of television or the like. emotion vector Em transition destination corresponding to the detected emotional word (a m, b m) is determined.
The distance between the emotion vector R = √ {(a m -a ) 2 + (b m -b) 2} and the angle θ is obtained. When the distance R is divided into four equal parts and the emotion vectors are interpolated, the emotion vectors Er (t1), Er () at the respective stages in the direction of the angle θ from (a, b) for each change amount D = R / 4. t2), Er (t3), Er (t4) = Em are determined.

次に、決定された各段階の感情ベクトルEr(t1)、Er(t2)、Er(t3)、Er(t4)に対して、エリア毎に定義された仕草が抽出され、時刻t1、t2、t3、t4において、それぞれ仕草「悲しい1」、「リラックス1」、「喜び1」、「喜び3」が実行される。   Next, gestures defined for each area are extracted from the determined emotion vectors Er (t1), Er (t2), Er (t3), and Er (t4) at each stage, and the times t1, t2, At t3 and t4, the gestures "sad 1", "relax 1", "joy 1", and "joy 3" are executed, respectively.

仕草決定部14による感情ベクトルの補間方法は、これには限られず、例えば、次のようなバリエーション(1)〜(3)が採用可能である。
(1)仕草決定部14は、遷移元の感情ベクトルから遷移先の感情ベクトルまでの線分を閾値以上の幅の等間隔Dに分割することにより、各段階の感情ベクトルを決定する。
(2)仕草決定部14は、予め設定又は距離R若しくは遷移元の座標等に応じて決定される遷移に要する時間を、閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定する。
(3)仕草決定部14は、仕草それぞれの動作時間の合計が遷移に要する時間に収まるように、各段階の感情ベクトルを決定する。
なお、遷移の軌跡は曲線であってもよいし、距離又は時間の分割は等間隔でなくてもよい。
The method of interpolation of the emotion vector by the gesture determining unit 14 is not limited to this, and for example, the following variations (1) to (3) can be adopted.
(1) The gesture determining unit 14 determines the emotion vector of each stage by dividing a line segment from the emotion vector of the transition source to the emotion vector of the transition destination into equal intervals D having a width equal to or larger than the threshold.
(2) The gesture determining unit 14 divides the time required for the transition, which is set in advance or determined according to the distance R or the coordinates of the transition source, into equal intervals having a width equal to or greater than the threshold value, thereby obtaining the emotion vector at each stage. To determine.
(3) The gesture determining unit 14 determines the emotion vector of each stage so that the total operation time of each gesture falls within the time required for transition.
The trajectory of the transition may be a curve, and the division of the distance or time may not be equal.

仕草制御装置1は、前述のように感情ベクトルを遷移させると、更新された最新の感情ベクトルをロボット感情部23に記憶する。記憶された感情ベクトルは、ロボットの現在の感情を定義するものであり、次に感情語が抽出された際に、遷移元の感情ベクトルとなる。   When the gesture control device 1 changes the emotion vector as described above, the updated emotion vector is stored in the robot emotion unit 23. The stored emotion vector defines the current emotion of the robot, and becomes the transition source emotion vector when an emotion word is extracted next.

図7は、本実施形態に係る仕草に対応するロボットのモータ制御データを例示する図である。
例えば、ロボットが「喜び1」の仕草を表現する場合、3000msecの動作時間で、動作1から動作3の動作を順に実行する。各動作の動作制御データは、ロボットが備えるモータそれぞれに対応する制御値が配列として記述されている。この例では、5自由度のロボットに対して要素数5の配列が用いられ、例えば、3軸の頭の回転量と、左右の腕の移動量とが指定される。
これより、動作1から動作3にかけて、「喜び1」の仕草である腕を上げていくロボットの動作が実現する。
FIG. 7 is a diagram illustrating motor control data of the robot corresponding to the gesture according to the present embodiment.
For example, when the robot expresses the gesture of “joy 1”, the operations of operation 1 to operation 3 are sequentially performed with an operation time of 3000 msec. In the operation control data of each operation, a control value corresponding to each motor provided in the robot is described as an array. In this example, an array having five elements is used for a robot having five degrees of freedom. For example, the amount of rotation of the head of three axes and the amount of movement of the left and right arms are specified.
As a result, from the operation 1 to the operation 3, the operation of the robot raising the arm, which is the gesture of “joy 1”, is realized.

また、ロボットの仕草は、視聴しているテレビ又は視聴者の方向を向く動作を含んでいてもよい。方向データベース24は、予め設定されたか、又はロボットにより検出されたテレビ及び視聴者の方向を保持している。方向は、例えばロボットの正面に対する水平方向及び垂直方向の角度で表される。   In addition, the gesture of the robot may include an operation of pointing to the television or the viewer who is watching. The direction database 24 holds the directions of the television and the viewer set in advance or detected by the robot. The direction is represented, for example, by horizontal and vertical angles with respect to the front of the robot.

なお、仕草それぞれの動作時間(例えば、3000msec)は所定の範囲で調整可能であってよい。これにより、ロボットは、感情ベクトルの遷移時間内に各段階の仕草を完了させることができる。   The operation time of each gesture (for example, 3000 msec) may be adjustable within a predetermined range. Thereby, the robot can complete the gesture of each stage within the transition time of the emotion vector.

本実施形態によれば、仕草制御装置1は、ロボットが視聴している映像から感情語を抽出することにより感情状態を定義した空間内における感情ベクトルを決定する。そして、仕草制御装置1は、現在のロボットの感情状態を示す遷移元の感情ベクトルを、視聴映像に基づいて決定した感情状態を示す遷移先の感情ベクトルへ、段階的に遷移させながら、各段階の感情ベクトルが属するエリアに応じたロボットの仕草を決定する。
これにより、仕草制御装置1は、視聴映像に対してロボットの感情状態が徐々に変化する様子を表現するための動作制御を可能とする。また、仕草制御装置1は、テレビディスプレイ等と通信せず、例えば悲しい感情状態から嬉しい感情状態に徐々に遷移するようなロボットの動作を可能とする。したがって、ユーザは、ロボットが急な感情変化を表出することによる違和感を覚えることなく、ロボットと一緒に映像を視聴できる。
According to the present embodiment, the gesture control device 1 determines an emotion vector in a space in which an emotion state is defined by extracting an emotion word from a video viewed by the robot. Then, the gesture control device 1 changes the emotion vector of the transition source indicating the emotional state of the current robot to the emotion vector of the transition destination indicating the emotional state determined based on the viewing video in a stepwise manner. Of the robot according to the area to which the emotion vector belongs.
Thereby, the gesture control device 1 enables operation control for expressing a state in which the emotional state of the robot gradually changes with respect to the viewing video. In addition, the gesture control device 1 does not communicate with a television display or the like, and enables an operation of a robot that gradually makes a transition from a sad emotional state to a happy emotional state, for example. Therefore, the user can view the video together with the robot without feeling uncomfortable due to the robot expressing a sudden emotional change.

仕草制御装置1は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定することで、感情の変化の度合いに応じて、適切な時間を掛けて感情変化を表現できる。   The gesture control device 1 determines the time required for the transition based on the distance between the emotion vector of the transition source and the emotion vector of the transition destination, and takes appropriate time in accordance with the degree of change of the emotion to determine the emotion. Can express change.

仕草制御装置1は、遷移元の感情ベクトルと遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定することで、感情の変化の度合いに応じて、適切な動作数により感情変化を表現できる。   The gesture control device 1 determines the number of stages for transitioning the emotion vector based on the distance between the emotion vector of the transition source and the emotion vector of the transition destination. Emotional change can be expressed by number.

仕草制御装置1は、遷移元の感情ベクトルから遷移先の感情ベクトルまでの線分を閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定することで、適度な変化量で感情ベクトルを遷移させ、容易に感情変化を表現できる。   The gesture control device 1 divides a line segment from the emotion vector of the transition source to the emotion vector of the transition destination into equal intervals having a width equal to or larger than the threshold value, thereby determining the emotion vector at each stage, and thereby the appropriate change amount. The emotion vector can be changed by using to change the emotion vector easily.

仕草制御装置1は、遷移に要する時間を閾値以上の幅の等間隔に分割することにより、各段階の感情ベクトルを決定することで、適度な時間間隔で仕草を変化させ、かつ、容易に感情変化を表現できる。   The gesture control device 1 divides the time required for the transition into equal intervals having a width equal to or larger than the threshold value, determines the emotion vector at each stage, changes the gesture at appropriate time intervals, and easily changes the emotion. Can express change.

仕草制御装置1は、仕草それぞれの動作時間の合計が感情ベクトルの遷移に要する時間に収まるように、各段階の感情ベクトルを決定することで、段階毎の仕草の動作時間が互いに干渉することなく、ロボットの感情変化を適切に表現できる。   The gesture control device 1 determines the emotion vector of each stage so that the total operation time of each gesture falls within the time required for the transition of the emotion vector, so that the operation time of the gesture for each stage does not interfere with each other. , And can appropriately express changes in the emotions of the robot.

仕草制御装置1は、感情ベクトルを定義する空間として、「快−不快」及び「覚醒−眠気」の2次元の軸で構成されたラッセル円環モデルを用いる。これにより、仕草制御装置1は、様々な感情語に対応する感情ベクトル、及び感情が変化する過程の感情ベクトル、さらには、空間内のエリア毎の仕草を容易に決定できる。この結果、仕草制御装置1は、感情語に基づく感情状態の変化を、複数の仕草を段階的に決定することで容易に表現できる。   The gesture control device 1 uses a Russell ring model composed of two-dimensional axes of “pleasure-discomfort” and “awake-sleepiness” as a space for defining an emotion vector. Thereby, the gesture control device 1 can easily determine the emotion vector corresponding to various emotion words, the emotion vector in the process of changing the emotion, and the gesture for each area in the space. As a result, the gesture control device 1 can easily express a change in the emotional state based on the emotional word by determining a plurality of gestures in stages.

以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。   The embodiments of the present invention have been described above, but the present invention is not limited to the above-described embodiments. Further, the effects described in the present embodiment merely enumerate the most preferable effects resulting from the present invention, and the effects according to the present invention are not limited to those described in the present embodiment.

前述の実施形態では、ロボットの仕草として、主にモータ制御による空間的な動作を例示したが、これには限られない。例えば、スマートスピーカであれば、リラックス時に緩やかにLEDを点滅させたり、ゆっくりと発話させたりする等、発光デバイスの発光、又は発話の速度若しくは強弱等を感情語に対応した仕草と定義できる。この場合にも、仕草制御装置1は、感情ベクトルの遷移に応じて、発光又は発話等を徐々に変化させることで、感情変化を表現できる。   In the above-described embodiment, a spatial operation mainly controlled by a motor has been exemplified as a gesture of the robot, but is not limited thereto. For example, in the case of a smart speaker, the light emission of the light emitting device, or the speed or strength of the utterance, such as slowly blinking the LED or slowly uttering during relaxation, can be defined as a gesture corresponding to the emotional word. Also in this case, the gesture control device 1 can express the emotion change by gradually changing the light emission or the utterance according to the transition of the emotion vector.

また、前述の実施形態では、感情を定義する空間として、ラッセル円環モデルを例示したが、空間は2次元には限られず、3次以上の多次元の空間であってもよい。   Further, in the above-described embodiment, the Russell ring model is exemplified as the space for defining the emotion. However, the space is not limited to two dimensions, and may be a tertiary or higher multidimensional space.

本実施形態では、主に仕草制御装置1の構成と動作について説明したが、本発明はこれに限られず、各構成要素を備え、ロボットの動作を制御するための仕草制御方法、又は仕草制御プログラムとして構成されてもよい。   In the present embodiment, the configuration and operation of the gesture control device 1 have mainly been described. However, the present invention is not limited to this, and a gesture control method or a gesture control program including each component and controlling the operation of the robot is provided. It may be constituted as.

さらに、仕草制御装置1の機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。   Furthermore, a program for realizing the function of the gesture control device 1 may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read and executed by a computer system to be realized. Good.

ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system.

さらに「コンピュータで読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   In addition, a "computer-readable recording medium" means that a program is dynamically stored for a short time, such as a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line. For example, a program holding a program at a certain time, such as a volatile memory in a computer system serving as a server or a client in that case, may be included. Further, the above-mentioned program may be for realizing a part of the functions described above, or may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system. .

1 仕草制御装置
10 制御部
11 映像情報取得部
12 感情語抽出部
13 感情決定部
14 仕草決定部
20 記憶部
21 感情語辞書
22 仕草データベース(第1記憶部、第2記憶部)
23 ロボット感情部
24 方向データベース
Reference Signs List 1 gesture control device 10 control unit 11 video information acquisition unit 12 emotion word extraction unit 13 emotion determination unit 14 gesture determination unit 20 storage unit 21 emotion word dictionary 22 gesture database (first storage unit, second storage unit)
23 Robot Emotion Department 24 Direction Database

Claims (5)

感情を表現する複数の軸で定義された空間における、複数の感情語の感情ベクトルを記憶する第1記憶部と、
前記空間を分割した複数のエリアそれぞれに対して、ロボットの仕草を割り当てた第2記憶部と、
入力文から感情語を抽出する感情語抽出部と、
前記感情語に対応する前記空間における遷移先の感情ベクトルを決定する感情決定部と、
前記ロボットに現在設定されている遷移元の感情ベクトルから、前記遷移先の感情ベクトルまで感情ベクトルを段階的に遷移させ、各段階の感情ベクトルに対応する前記エリアに割り当てられた前記仕草を順に決定する仕草決定部と、を備える仕草制御装置。
A first storage unit that stores emotion vectors of a plurality of emotion words in a space defined by a plurality of axes expressing emotions;
A second storage unit to which a gesture of a robot is assigned to each of the plurality of areas obtained by dividing the space;
An emotion word extraction unit for extracting an emotion word from the input sentence,
An emotion determination unit that determines an emotion vector of a transition destination in the space corresponding to the emotion word,
From the emotion vector of the transition source currently set to the robot, the emotion vector is stepwise transitioned to the emotion vector of the transition destination, and the gesture assigned to the area corresponding to the emotion vector of each stage is determined in order. A gesture control unit comprising:
前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、遷移に要する時間を決定する請求項1に記載の仕草制御装置。   The gesture control device according to claim 1, wherein the gesture determining unit determines a time required for the transition based on a distance between the emotion vector of the transition source and the emotion vector of the transition destination. 前記仕草決定部は、前記遷移元の感情ベクトルと前記遷移先の感情ベクトルとの距離に基づいて、感情ベクトルを遷移させる段階の数を決定する請求項1又は請求項2に記載の仕草制御装置。   3. The gesture control device according to claim 1, wherein the gesture determining unit determines the number of steps for transitioning the emotion vector based on a distance between the transition source emotion vector and the transition destination emotion vector. 4. . 前記空間は、「快−不快」及び「覚醒−眠気」を指標とし、2次元の軸で構成されたラッセル円環モデルである請求項1から請求項3のいずれかに記載の仕草制御装置。   The gesture control device according to any one of claims 1 to 3, wherein the space is a Russell ring model composed of two-dimensional axes using "pleasure-discomfort" and "awake-sleepiness" as indices. コンピュータを、請求項1から請求項4のいずれかに記載の仕草制御装置として機能させるための仕草制御プログラム。   A gesture control program for causing a computer to function as the gesture control device according to any one of claims 1 to 4.
JP2018165669A 2018-09-05 2018-09-05 Gesture control device and gesture control program Active JP7152908B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018165669A JP7152908B2 (en) 2018-09-05 2018-09-05 Gesture control device and gesture control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018165669A JP7152908B2 (en) 2018-09-05 2018-09-05 Gesture control device and gesture control program

Publications (2)

Publication Number Publication Date
JP2020037155A true JP2020037155A (en) 2020-03-12
JP7152908B2 JP7152908B2 (en) 2022-10-13

Family

ID=69738502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018165669A Active JP7152908B2 (en) 2018-09-05 2018-09-05 Gesture control device and gesture control program

Country Status (1)

Country Link
JP (1) JP7152908B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230079859A (en) * 2021-11-29 2023-06-07 한국과학기술연구원 Apparatus and method for determning emotional state of robot reflecting emotional change pattern of human

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (en) * 1999-04-30 2000-11-09 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2001162058A (en) * 1999-12-10 2001-06-19 Iesato Sato Autonomous mobile therapeutic apparatus
US20020158599A1 (en) * 2000-03-31 2002-10-31 Masahiro Fujita Robot device, robot device action control method, external force detecting device and external force detecting method
JP2004005422A (en) * 2002-02-09 2004-01-08 Lexer Research Inc Automatic service providing device and automatic service providing method
JP2005063163A (en) * 2003-08-13 2005-03-10 Sony Corp Device and method for retrieval reproduction of imaging information, device and method for retrieval reproduction of contents and device and method for emotion retrieval
JP2009072910A (en) * 2008-12-22 2009-04-09 Nec Corp Robot device and its control method
JP2012000694A (en) * 2010-06-14 2012-01-05 Fujitsu Ltd Method and program for controlling robot, and robot
JP2013532418A (en) * 2010-05-26 2013-08-15 クゥアルコム・インコーポレイテッド Camera parameter assisted video frame rate up-conversion
JP2014074997A (en) * 2012-10-03 2014-04-24 Korea Inst Of Industrial Technology Artificial emotion learning device and method
US20140172771A1 (en) * 2012-12-13 2014-06-19 Korea Institute Of Industrial Technology Apparatus and method for selecting motion signifying artificial feeling
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000066239A1 (en) * 1999-04-30 2000-11-09 Sony Corporation Electronic pet system, network system, robot, and storage medium
JP2001162058A (en) * 1999-12-10 2001-06-19 Iesato Sato Autonomous mobile therapeutic apparatus
US20020158599A1 (en) * 2000-03-31 2002-10-31 Masahiro Fujita Robot device, robot device action control method, external force detecting device and external force detecting method
JP2004005422A (en) * 2002-02-09 2004-01-08 Lexer Research Inc Automatic service providing device and automatic service providing method
JP2005063163A (en) * 2003-08-13 2005-03-10 Sony Corp Device and method for retrieval reproduction of imaging information, device and method for retrieval reproduction of contents and device and method for emotion retrieval
JP2009072910A (en) * 2008-12-22 2009-04-09 Nec Corp Robot device and its control method
JP2013532418A (en) * 2010-05-26 2013-08-15 クゥアルコム・インコーポレイテッド Camera parameter assisted video frame rate up-conversion
JP2012000694A (en) * 2010-06-14 2012-01-05 Fujitsu Ltd Method and program for controlling robot, and robot
JP2014074997A (en) * 2012-10-03 2014-04-24 Korea Inst Of Industrial Technology Artificial emotion learning device and method
US20140172771A1 (en) * 2012-12-13 2014-06-19 Korea Institute Of Industrial Technology Apparatus and method for selecting motion signifying artificial feeling
JP2016135530A (en) * 2015-01-23 2016-07-28 シャープ株式会社 Robot control device and robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230079859A (en) * 2021-11-29 2023-06-07 한국과학기술연구원 Apparatus and method for determning emotional state of robot reflecting emotional change pattern of human
KR102598435B1 (en) 2021-11-29 2023-11-07 한국과학기술연구원 Apparatus and method for determning emotional state of robot reflecting emotional change pattern of human

Also Published As

Publication number Publication date
JP7152908B2 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
US11423909B2 (en) Word flow annotation
US11747618B2 (en) Systems and methods for sign language recognition
CN112131988B (en) Method, apparatus, device and computer storage medium for determining virtual character lip shape
CN104049721B (en) Information processing method and electronic equipment
EP3258423A1 (en) Handwriting recognition method and apparatus
US11809213B2 (en) Controlling duty cycle in wearable extended reality appliances
KR102077887B1 (en) Enhancing video conferences
CN112634459A (en) Resolving natural language ambiguities for simulated reality scenarios
KR20160106653A (en) Coordinated speech and gesture input
JP2020037155A (en) Gesture control device and gesture control program
CN112328085A (en) Control method and device of virtual role, storage medium and electronic equipment
US11237671B1 (en) Temporal filter touch detection
CN112153461B (en) Method and device for positioning sound production object, electronic equipment and readable storage medium
US11928379B2 (en) Information orientation and display in extended reality environments
JP7153052B2 (en) Online Picture Book Content Acquisition Method, Apparatus, and Smart Screen Device
US11107285B2 (en) Augmented reality-based image editing
JP2024008632A (en) Information processing system, display method, program, and recording information creation system
JP2023022157A (en) Computer program, method, and server device
KR20210045959A (en) Terminal and method for coverting and outputting attribute information of real objects, computer-readable recording medium
JP2024006703A (en) Information processing system, retrieval method, and program
CN117608465A (en) Information processing apparatus, display method, storage medium, and computer apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7152908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150