JP2020056935A - Controller for robot, robot, control method for robot, and program - Google Patents
Controller for robot, robot, control method for robot, and program Download PDFInfo
- Publication number
- JP2020056935A JP2020056935A JP2018188098A JP2018188098A JP2020056935A JP 2020056935 A JP2020056935 A JP 2020056935A JP 2018188098 A JP2018188098 A JP 2018188098A JP 2018188098 A JP2018188098 A JP 2018188098A JP 2020056935 A JP2020056935 A JP 2020056935A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- expression
- voice
- attribute information
- predetermined target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ロボットの制御装置、ロボット、ロボットの制御方法およびプログラムに関する。 The present invention relates to a robot control device, a robot, a robot control method, and a program.
表情を変更可能に構成されたロボットの制御装置が知られている。例えば、特許文献1には、対話しているときに、音声を解析することにより対話内容を判定し、判定した対話内容に基づいて、ロボットの表情を制御することが開示されている。
2. Description of the Related Art A control device of a robot configured to change a facial expression is known. For example,
しかし、従来のロボットの制御装置では、その時々に判定した対話内容に基づいてロボットの表情を制御しているにすぎないので、例えば、対話内容が大きく変化するようなときには、ロボットの表情を適切に制御することができない問題がある。 However, the conventional robot control device merely controls the expression of the robot based on the content of the dialogue determined at each time.For example, when the content of the dialogue changes significantly, the expression of the robot is appropriately adjusted. There is a problem that cannot be controlled.
本発明は、上記に鑑みてなされたものであって、ユーザ等の所定の対象の発話内容が大きく変化する場合であっても、発話の流れに沿ってロボットの表情を適切に制御することを目的とする。 The present invention has been made in view of the above, and it is an object of the present invention to appropriately control the expression of a robot along the flow of an utterance even when the utterance content of a predetermined target such as a user greatly changes. Aim.
本発明に係るロボットの制御装置は、
自機の表情を変更可能に構成されたロボットの表情を制御するロボットの制御装置であって、
所定の対象が発話する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得手段と、
前記属性パラメータ取得手段により取得された属性パラメータを記憶する記憶手段と、
前記所定の対象の発話中に取得された属性パラメータと前記記憶手段に記憶された過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御手段と、
を備える。
The robot control device according to the present invention includes:
A robot control device that controls a facial expression of a robot configured to be able to change its own facial expression,
Voice acquisition means for acquiring a voice uttered by a predetermined object;
An attribute parameter obtaining unit that obtains an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the voice obtained by the voice obtaining unit;
Storage means for storing the attribute parameters obtained by the attribute parameter obtaining means,
Expression control means for controlling the expression of the robot, based on a relationship between the attribute parameters acquired during the utterance of the predetermined target and the past attribute parameters stored in the storage means,
Is provided.
本発明によれば、所定の対象の発話内容が大きく変化する場合であっても、発話の流れに沿ってロボットの表情を適切に制御することができる。 ADVANTAGE OF THE INVENTION According to this invention, even when the utterance content of a predetermined object changes greatly, the expression of a robot can be controlled appropriately along the flow of utterance.
以下、本発明の実施の形態にかかるロボットの制御装置、ロボット、ロボットの制御方法およびプログラムについて図面を参照して詳細に説明する。 Hereinafter, a robot control device, a robot, a robot control method, and a program according to an embodiment of the present invention will be described in detail with reference to the drawings.
本発明の実施の形態に係るロボット1は、ユーザ等の所定の対象の発話に応じて自律的に動作するロボットである。所定の対象とは、ロボット1とコミュニケーションおよび交流する相手となる対象である。具体的には、ロボット1の所有者であるユーザ(人間)、ユーザの周囲の人間(ユーザの家族、友人等)等が挙げられる。
The
図1Aは、ロボット1の外観を正面から見た図であり、図1Bは、背面から見た図である。ロボット1は、頭部2、胴体部3、手部4、足部5、尻尾部6を備える。頭部2は、耳部7、目部8、口部9を備える。頭部2のおでこ10の部分には、対面する所定の対象を撮影するための撮像素子23(図2参照)であるカメラが設けられる。また、左右一対の耳部7のそれぞれには、所定の対象の発話を検出するためのマイクロフォン24(図2参照)が設けられる。口部9には、ロボット1が発話するためのスピーカ27(図2参照)が設けられている。
FIG. 1A is a diagram of the appearance of the
ロボット1の目部8には、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の表示装置28(図2参照)が設けられ、表示装置28の画面上に両目の画像が表示される。ロボット1の顔の表情は、瞳、瞼等の目の部分の変化によって表される。例えば、悲しい時は、瞼を下げて、瞳を下に向けることによって悲しさを表現する。ロボット1は、カメラ(撮像素子23)に撮影された人物をデータベースと照合することによって所定の対象を認識し、マイクロフォン24から検出された音声を解析して、所定の対象の発話の内容(属性)を判断し、その判断結果に応じて表情を変化させる。
A display device 28 (see FIG. 2) such as a liquid crystal display or an organic EL (Electro Luminescence) display is provided in the
ロボット1は、ハードウェア的には、図2に示すように、制御部21と、記憶部22と、上述した撮像素子23と、マイクロフォン24と、移動部25と、可動部26と、スピーカ27と、表示装置28と、を備える。
As shown in FIG. 2, the
記憶部22は、特許請求の範囲に記載の記憶手段の一例である。移動部25は、特許請求の範囲に記載の移動機構の一例である。表示装置28は、特許請求の範囲に記載の表示手段の一例である。
The
制御部21は、ロボット全体の動作を制御する。制御部21は、CPU(Central Processing Unit)を備え、記憶部22に記憶されているプログラムを実行する。また制御部21は、動作プログラムに基づき、撮像素子23やマイクロフォン24から取得した各種データに応じて、ロボット1を移動させるための制御信号を生成して移動部25に送信することにより、ロボット1の移動動作を制御する。
The
記憶部22は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等を備える。ROMは、各種動作プログラムを記憶する。RAMは、CPUが実行する各種動作プログラム、これらの動作プログラムの実行に必要なデータ等を一時的に記憶するワークエリアとして機能する。また、記憶部22は、後述する人物データベースおよびキーワード情報データベースとして利用される。
The
撮像素子23は、所定の対象を認識するために画像を撮影するカメラである。マイクロフォン24は、所定の対象が発話した音声データを取得するための音声入力装置である。
The
移動部25は、ロボット1を移動させるための部位である。移動部25は、ロボットの足の底面に設けられた左右の車輪と、左右の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を備える。可動部26は、アクチュエータ等の駆動により変位する部位である。可動部26は、頭部2、手部4、足部5、尻尾部6等の被駆動部材と、アクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、を備える。
The moving
スピーカ27は、制御部21により生成された音声データを音声に変換して外部に出力する。ロボット1は、所定の対象の発話内容に対応する音声をスピーカ27から出力することにより、所定の対象と簡単な会話をすることができる。表示装置28は、制御部21により生成されたロボット1の表情の画像を画面に表示する。
The
ロボットの制御装置30は、機能的には、図3に示すように、音声検出部31と、音声認識部32と、個人認証部33と、キーワード判定部34と、表情決定部35と、人物データベース36と、キーワード情報データベース37と、発話方向特定部38と、距離情報取得部39と、移動制御部40と、可動制御部41と、を備える。
As shown in FIG. 3, the
音声検出部31および音声認識部32は、特許請求の範囲に記載の音声取得手段の一例である。個人認証部33は、特許請求の範囲に記載の個人認証手段の一例である。キーワード判定部34は、特許請求の範囲に記載の属性パラメータ取得手段の一例である。表情決定部35は、特許請求の範囲に記載の表情制御手段の一例である。キーワード情報データベース37は、特許請求の範囲に記載の属性パラメータデータベースの一例である。
The
音声検出部31は、マイクロフォン24で収音された音から所定の対象(ユーザを含む人間)による発話に含まれた音声を検出する。音声検出部31は、一定時間以上、例えば1.5秒以上、無音の区間が続いた場合に、この無音区間に基づいて発話を区切り、区切られた発話区間毎に音声データを検出する。音声認識部32は、音声検出部31で検出された音声データを、発話区間毎に音声認識し、周知の解析手法により解析することによって、テキストデータを生成する。
The
個人認証部33は、撮像素子23により撮像された所定の対象の画像データを、記憶部22内の個人に関する情報が登録された人物データベース36のデータと照合して、個人判定を行う。個人認証部33は、ロボットが撮像素子23により所定のフレームレート(例えば30fps)で撮像したフレーム画像から人物の顔を検出し、検出した顔が誰であるかを識別する。人物データベース36には、個人認証部33が認証する人物に関する情報が登録されている。具体的には、人物データベース36には、人物毎に人物IDと氏名と顔画像とが記憶されている。検出された顔画像と人物データベース36に登録されている顔画像とで、目の間の距離、顔の縦横の比率等の特徴量を比較して顔識別を行い、顔が誰であるかを確定する。
The
キーワード判定部34は、音声認識部32が生成したテキストデータを解析し、キーワード情報データベース37のデータと照合して、テキストデータ内のキーワードとキーワードに紐付けられた表情決定情報を出力する。キーワード情報データベース37は個人別に区分けされており、個人認証部33により認証された個人情報に基づき、その個人に応じたキーワード情報を選択する。
The
キーワード情報データベース37には、人の発話内容の属性を判断するための言葉が、キーワードとして単語単位、あるいは短い文章単位で登録されている。キーワードは、名詞、動詞、形容詞等様々な品詞を含んでいる。各キーワードには、その属性情報がタグ付けされている。このキーワードの属性情報は、表情の決定に利用される表情決定情報であり、特許請求の範囲に記載の属性パラメータの一例である。
In the
キーワードの属性情報は、ポジティブ、ネガティブ、ニュートラルに分類される。キーワードの属性情報がポジティブである状態には、当該キーワードが含まれる発話の発話内容が喜び・楽しさを表している状態や、安らぎを表している状態、興味を抱いている状態等が含まれる。例えば、「嬉しい」「楽しい」「面白い」等のキーワードは、ポジティブに分類される。キーワードの属性情報がネガティブである状態には、当該キーワードが含まれる発話の発話内容が怒り・悲しみを表している状態や、不安を表している状態、退屈を表している状態等が含まれる。例えば、「怖い」「悲しい」「つまらない」等のキーワードは、ネガティブに分類される。キーワードの属性情報がニュートラルである状態には、当該キーワードが含まれる発話の発話内容がポジティブおよびネガティブ以外の通常の状態が含まれる。発話内容の属性を判断するための言葉について、どのような言葉がどのような属性(ポジティブ、ネガティブ、ニュートラル)を表すかは、個人の経験、思い出、趣味、趣向等によって異なるため、同じ言葉であっても、人によってその言葉が含まれる発話内容の属性が異なる。したがって、キーワード情報データベース37は、個々の所定の対象別に異なる内容のデータを設けている。
The keyword attribute information is classified into positive, negative, and neutral. The state in which the attribute information of the keyword is positive includes a state in which the utterance content of the utterance including the keyword indicates joy / enjoyment, a state in which peace is expressed, a state in which the utterance is interested, and the like. . For example, keywords such as "happy", "fun", and "funny" are classified as positive. The state where the attribute information of the keyword is negative includes a state in which the utterance content of the utterance including the keyword indicates anger / sadness, a state indicating anxiety, a state indicating boredom, and the like. For example, keywords such as "scary", "sad", and "boring" are classified as negative. The state where the attribute information of the keyword is neutral includes a normal state in which the utterance content of the utterance including the keyword is other than positive and negative. Regarding the words used to determine the attributes of the utterance content, what words represent what attributes (positive, negative, neutral) depends on personal experiences, memories, hobbies, tastes, etc. Even so, the attribute of the utterance content including the word differs depending on the person. Therefore, the
キーワード情報データベース37の構成の一例として、図5に示すように、所定の対象別にキーワードとキーワードの属性情報が記録されている。キーワードのうち、「嬉しい」「悲しい」「行く」について、ユーザA,Bのキーワードの属性情報は一致する。これに対して、「やばい」について、ユーザAのキーワードの属性情報はネガティブであるが、ユーザBのキーワードの属性情報はポジティブであり、換言すれば、両者AおよびBにおいて「やばい」が表す発話内容の属性は、互いに異なっている。このように個人に応じたキーワード情報を作成して、個人に見合った表情を決定するための情報を提供する。
As an example of the configuration of the
表情決定部35は、キーワード判定部34からのポジティブ、ネガティブ等の表情決定情報に基づいてロボットの表情を決定し、決定した表情に応じた画像を表示装置28に表示させる。このとき、所定の対象の今回の発話に含まれるキーワードから得られる表情決定情報のみならず、連続して取得される2つのキーワードから得られる2つの表情決定情報に基づいて表情を決定する。すなわち、前回の発話に含まれるキーワードから得られる表情決定情報と、今回の発話に含まれるキーワードから得られる表情決定情報との関係に基づいて、表情を決定する。
The facial
発話方向特定部38は、所定の対象からの発話に応じて、左右一対の耳部7のそれぞれに設けられたマイクロフォン24で取得される音声の位相差あるいは音量の差を把握することによって、発話方向を特定する。距離情報取得部39は、撮像素子23から所定の対象との距離情報を得る。距離情報は、撮像素子のオートフォーカス機能により取得する。なお、距離情報は、距離センサを設けることによって取得してもよい。移動制御部40は、動作プログラムを実行することにより、例えば発話方向特定部38、距離情報取得部39から取得したデータに基づき、ロボット1を移動させるための制御信号を生成して移動部25に入力することにより、ロボット1の移動動作を制御する。可動制御部41は、動作プログラムを実行することにより、可動部26の動作を制御する。
The utterance
次に、所定の対象がロボット1に対して話しかけた時のロボット1の動作について説明する。所定の対象がロボット1に対して話しかけると、ロボット1は耳部7に設けられたマイクロフォン24で所定の対象の音声を収集する。所定の対象からの発話に応じて、発話方向特定部38は、発話方向を特定する。方向が特定されると、移動制御部40は、特定された方向に向かってロボット1を移動するために移動部25を制御する。さらに、距離情報取得部39は、撮像素子23から所定の対象と距離情報を得る。
Next, an operation of the
ロボット1は、所定の対象からの発話に応じて、所定の対象との相対的位置関係を特定する。移動制御部40は、距離情報取得部39が取得した距離情報と発話方向特定部38が取得した発話方向の情報に基づいてロボット1と所定の対象との相対的位置関係を特定する。そして、移動制御部40は、所定の対象に向かって移動するための制御信号を生成し、この信号を移動部25に入力する。これにより移動制御部40は移動部25の動作を制御する。移動制御部40は、ロボットと所定の対象との距離が所定距離に達したと判定すると、移動部25の動作を停止する。
The
以上により、ロボット1は所定の対象に近づく。その後、所定の対象の個人認証を行い、所定の対象の発話内容からキーワード判定処理により表情決定に利用するキーワードとその属性情報を取得する。
As described above, the
次に、図4に示すフローチャートを参照しながら、キーワード判定処理について説明する。キーワード判定部34は、所定の対象の発話を音声認識してテキスト化したテキストデータを、音声認識部32から取得する(ステップS101)。キーワード判定部34は、個人認証された所定の対象の個人情報を、個人認証部33から取得する(ステップS102)。所定の対象を特定する個人情報を取得すると、キーワード判定部34は、取得された個人情報に基づき、その個人用のキーワード情報を選択する(ステップS103)。続いてキーワード判定部34は、選択された個人用のキーワード情報とテキストデータを照合して、一致するキーワードとそのキーワードにタグ付けされている属性情報[Property_0]を取得し、記憶部22に記憶する(ステップS104)。このように、所定の対象を認証して、その所定の対象に応じた個人用のキーワード情報データベースを利用できるので、より個人の感覚に合わせた表情決定を行うことができる。
Next, the keyword determination processing will be described with reference to the flowchart shown in FIG. The
キーワードの属性情報(表情決定情報)が取得されると、表情決定部35は、取得されたキーワードの属性情報を用いてロボット1の表情を決定する。図6に示すフローチャートを参照しながら、ロボット1の表情を決定するための表情決定処理について説明する。
When the keyword attribute information (expression determination information) is acquired, the
表情決定部35は、表情決定処理が開始されると、まず、キーワード判定部34から取得したキーワードの属性情報[Property_0]が不明であるか否か判断する(ステップS201)。音声認識部32から取得したテキストデータをキーワード情報データベース37と照合しても該当するキーワードが存在しない場合がある。この場合、今回の属性情報[Property_0]が不明であると判断される(ステップS201:Yes)。
When the facial expression determining process is started, first, the facial
今回の属性情報[Property_0]が不明であると判断されると、ロボットの表情として、「通常」の表情が決定される(ステップS202)。「通常」の表情は、嬉しい、楽しい等のポジティブな感情を示す表情でもなく、悲しい、つまらない等のネガティブな感情を示す表情でもない、平穏な状況における表情である。「通常」の表情は、図11(A)に示すように、瞼は開いた状態であり、瞳に対する瞳孔の径が半分程度である。決定された通常の表情の画像データは、表示装置28に送られ、表示装置28は通常の表情の画像を表示する。すなわち、所定の対象の発話に対して発話内容に応じた自然な対応として通常の表情がなされる。
If it is determined that the current attribute information [Property_0] is unknown, a “normal” expression is determined as the expression of the robot (step S202). The expression “normal” is an expression in a calm situation that is neither an expression showing a positive emotion such as happy or fun nor an expression showing a negative emotion such as sad or boring. As shown in FIG. 11A, the expression of “normal” is a state in which the eyelids are open and the diameter of the pupil with respect to the pupil is about half. The determined normal expression image data is sent to the
今回の属性情報[Property_0]が不明ではないと判断されると(ステップS201:No)、今回の属性情報が、「ポジティブ」であるか否かが判断される(ステップS203)。今回の属性情報が「ポジティブ」であると判断されると(ステップS203:Yes)、所定の対象に喜ばしいことがあったと判断し、ロボットの表情として、「嬉しい」表情が決定される(ステップS204)。属性情報がポジティブである時の表情として広く適用可能な表情は、「嬉しい」表情であり、所定の対象の発話に対する反応として違和感なく受け入れられる。「嬉しい」表情は、図11(B)に示すように。瞼を開いた状態であって、瞳孔がほぼ瞳と同じ大きさであり、瞳に外光の映り込みが楕円、星形、三日月形状で多数表されている状態である。目をキラキラさせた表情が表されている。 When it is determined that the current attribute information [Property_0] is not unknown (step S201: No), it is determined whether the current attribute information is “positive” (step S203). If the current attribute information is determined to be "positive" (step S203: Yes), it is determined that the predetermined object has been pleased, and a "happy" expression is determined as the expression of the robot (step S204). ). A facial expression that can be widely applied as a facial expression when the attribute information is positive is a “happy” facial expression, which is accepted without any discomfort as a reaction to the utterance of the predetermined target. The “happy” expression is as shown in FIG. This is a state in which the eyelids are open, the pupil is almost the same size as the pupil, and a large number of reflections of external light are represented in the pupil by ellipses, stars, and crescents. The expression that sparkles his eyes is shown.
今回の属性情報が「ポジティブ」でない場合(ステップS203:No)、属性情報が「ネガティブ」であるか否かが判断される(ステップS205)。今回の属性情報が「ネガティブ」であると判断されると(ステップS205:Yes)、所定の対象に悲しいこと、不満なことがあったと判断し、ロボットの表情として、「心配」の表情が決定される(ステップS206)。「心配」の表情は、図11(C)に示すように、瞼が少し下げられ、瞳が上に向いた状態である。 If the current attribute information is not “positive” (step S203: No), it is determined whether the attribute information is “negative” (step S205). If it is determined that the current attribute information is “negative” (step S205: Yes), it is determined that the predetermined object has been sad or dissatisfied, and the expression “worried” is determined as the expression of the robot. Is performed (step S206). The expression of “worried” is a state in which the eyelids are slightly lowered and the pupil is upward, as shown in FIG.
今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS205:No)、今回の属性情報が「ニュートラル」であると判断される(ステップS207)。この場合、キーワードで表される発話内容がポジティブでもネガティブでもなかったため、瞳孔変化・瞬きなどで認識していることを表す表情とする(ステップS208)。図11(D)に示すように、「瞳孔変化」の表情は、瞳孔の大きさが徐々に大きくなるように変化していくとともに、瞼を複数回上下させて瞬きを行う。 If the current attribute information is neither “positive” nor “negative” (step S205: No), it is determined that the current attribute information is “neutral” (step S207). In this case, since the content of the utterance represented by the keyword is neither positive nor negative, the expression is set to indicate that the utterance is recognized by pupil change / blinking or the like (step S208). As shown in FIG. 11D, the expression of “pupil change” changes so that the size of the pupil gradually increases, and blinks the eyelid up and down a plurality of times.
今回の属性情報が判断され、ステップS202,S204,S206,S208のいずれかの実行により表情が決定されると、続くテキストデータがあるか否か判断される(ステップS209)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS209:Yes)、図7に示す次の処理ステップS301に進む。続くテキストデータがない場合(ステップS209:No)、処理を終了する。 When the current attribute information is determined and the facial expression is determined by executing any of steps S202, S204, S206, and S208, it is determined whether or not there is subsequent text data (step S209). If the utterance by the predetermined object continues and there is subsequent text data (step S209: Yes), the process proceeds to the next processing step S301 shown in FIG. If there is no subsequent text data (step S209: No), the process ends.
図6における処理ステップは、表情決定処理の開始直後の初回に実行されるステップであるため、それ以前に取得されたキーワードはない。したがって、今回の属性情報のみに基づいてロボット1の表情を決定した。これに対して、図7以降においては、前回に取得されたキーワードの属性情報と今回取得されたキーワードの属性情報との関係に基づいて表情を決定する。すなわち、発話の流れを属性情報の遷移で読み取り、所定の対象の発話の流れに沿った表情を選択する。
Since the processing steps in FIG. 6 are executed at the first time immediately after the start of the facial expression determination processing, there is no keyword acquired before that. Therefore, the expression of the
まず図6の処理で取得したキーワードの属性情報[Property_0]を前回の属性情報[Property_1]にシフトする(ステップS301)。すなわち、[Property_0]=[Property_1]とする。なお、後述するように、図7から図10のそれぞれの処理において、次のテキストデータがある場合、ステップS301に戻る。この場合は、図7から図10のそれぞれの処理で取得されたキーワードの属性情報[Property_0]を前回の属性情報[Property_1]にシフトする。表情決定部35は、前回の属性情報[Property_1]が不明であるか否かを判断する(ステップS302)。前回の属性情報が不明である場合(ステップS302:Yes)、今回新たにキーワード判定部34から取得された今回の属性情報[Property_0]が不明であるか否かが判断される(ステップS303)。前回の属性情報および今回の属性情報がいずれも不明である場合(ステップS303:Yes)、ロボットの表情を「通常」の表情のまま維持する(ステップS304)。
First, the attribute information [Property_0] of the keyword acquired in the process of FIG. 6 is shifted to the previous attribute information [Property_1] (step S301). That is, [Property_0] = [Property_1]. As described later, in each of the processes of FIGS. 7 to 10, when there is the next text data, the process returns to step S301. In this case, the attribute information [Property_0] of the keyword acquired in each processing of FIGS. 7 to 10 is shifted to the previous attribute information [Property_1]. The facial
今回の属性情報が不明でない場合(ステップS303:No)、今回の属性情報が「ポジティブ」であるか否かが判断される(ステップS305)。前回の属性情報が不明で、かつ、今回の属性情報が「ポジティブ」である場合(ステップS305:Yes)、喜ばしいことがあったと判断し、「嬉しい」表情とすることを決定する(ステップS306)。 If the current attribute information is not unknown (step S303: No), it is determined whether the current attribute information is “positive” (step S305). If the previous attribute information is unknown and the current attribute information is “positive” (step S305: Yes), it is determined that there is something happy, and it is determined that the expression is “happy” (step S306). .
今回の属性情報が「ポジティブ」でない場合(ステップS305:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS307)。前回の属性情報が不明で、かつ、今回の属性情報が「ネガティブ」であると判断されると(ステップS307:Yes)、ユーザの発話内容が悲しい内容・不満な内容であると判断し、ロボットの表情として、「心配」の表情とすることを決定する(ステップS308)。 If the current attribute information is not “positive” (step S305: No), it is determined whether the current attribute information is “negative” (step S307). If it is determined that the previous attribute information is unknown and the current attribute information is “negative” (step S307: Yes), it is determined that the content of the utterance of the user is sad or dissatisfied, and the robot Is determined to be the expression of “worried” (step S308).
今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS307:No)、前回の属性情報が不明で、かつ、今回の属性情報が「ニュートラル」であると判断する(ステップS309)。「ニュートラル」の場合、発話の続きを引き出すために、瞳孔変化・瞬きなどで認識していることを表す表情とする(ステップS310)。 If the current attribute information is neither “positive” nor “negative” (step S307: No), it is determined that the previous attribute information is unknown and the current attribute information is “neutral” (step S309). In the case of "neutral", in order to bring out the continuation of the utterance, the expression is set to an expression indicating that recognition is made by pupil change, blinking, or the like (step S310).
属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS311)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS311:Yes)、処理ステップS301に移動する。続くテキストデータがない場合(ステップS311:No)、処理を終了する。 When the attribute information is determined and the facial expression is determined, it is determined whether or not there is subsequent text data (step S311). If the utterance by the predetermined target continues and there is text data to follow (step S311: Yes), the process moves to processing step S301. If there is no subsequent text data (step S311: No), the process ends.
前回の属性情報が不明でない場合(ステップS302:No)、図8の処理ステップに進み、前回の属性情報が「ポジティブ」であるか否かが判断される(ステップS401)。前回の属性情報が「ポジティブ」であった場合(ステップS401:Yes)、続いて今回の属性情報が不明であるか否かが判断される(ステップS402)。 If the previous attribute information is not unknown (Step S302: No), the process proceeds to the processing step in FIG. 8, and it is determined whether the previous attribute information is “positive” (Step S401). If the previous attribute information is “positive” (step S401: Yes), it is determined whether the current attribute information is unknown (step S402).
今回の属性情報が不明である場合(ステップS402:Yes)、所定の対象の発話内容は前回のポジティブの状態を継承するため、 ロボットの表情として、「ご機嫌」の表情とすることを決定する(ステップS403)。図12(A)に示すように、「ご機嫌」の表情は、目の中心に三日月形状の瞳が表示されている状態である。「嬉しい」表情よりは、時間が経過したことにより落ち着いた表情ではあるが、機嫌の良い表情を表している。 If the current attribute information is unknown (step S402: Yes), the utterance content of the predetermined object inherits the previous positive state, so that it is determined that the expression of the robot is “good mood”. (Step S403). As shown in FIG. 12A, the expression of “good mood” is a state in which a crescent-shaped pupil is displayed at the center of the eye. The expression is more calm as time passes than the "happy" expression, but expresses a good mood.
反対に、今回の属性情報が不明でない場合(ステップS402:No)、今回の属性情報が、「ポジティブ」であるか否かが判断される(ステップS404)。前回の属性情報および今回の属性情報のいずれもが「ポジティブ」であった場合(ステップS404:Yes)、属性情報が連続して「ポジティブ」となることから、発話内容で表される嬉しさや楽しさ等がさらに増したと判断し、ロボットの表情として、「感激」の表情とすることを決定する(ステップS405)。図12(B)に示すように、「感激」の表情は、瞳孔が瞳とほぼ同じ大きさとなった状態であって、瞳は外光の映り込みが楕円と三日月形状で複数箇所表示され、目の下部には楕円で涙が表示されている状態である。感激したことにより、感極まって目を潤ませて涙を浮かべている表情を表している。 Conversely, if the current attribute information is not unknown (step S402: No), it is determined whether the current attribute information is “positive” (step S404). If both the previous attribute information and the current attribute information are “positive” (step S404: Yes), the attribute information becomes “positive” continuously, so the joy and enjoyment expressed by the utterance content It is determined that the expression has further increased, and it is determined that the expression of the robot is “expressed” (step S405). As shown in FIG. 12 (B), the expression of “excitement” is a state in which the pupil is almost the same size as the pupil, and the pupil is displayed at a plurality of places in the form of an ellipse and a crescent shape with reflection of external light, An elliptical tear is displayed below the eye. The emotional expression expresses the expression of tears and moisturizing eyes.
今回の属性情報が「ポジティブ」でなかった場合(ステップS404:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS406)。前回の属性情報が「ポジティブ」で、かつ、今回の属性情報が「ネガティブ」であると判断された場合(ステップS406:Yes)、属性情報が「ポジティブ」から「ネガティブ」に変わったことから、発話内容が嬉しさや楽しさから悲しさに変わったと判断し、ロボットの表情として、「戸惑い」の表情とすることを決定する(ステップS407)。図12(C)に示すように、「戸惑い」の表情は、右目の瞼が少し下げられ、瞳孔の径が瞳の3分の1程度の状態である。瞳孔を小さくすることによって戸惑いの表情を表している。 If the current attribute information is not “positive” (step S404: No), it is determined whether the current attribute information is “negative” (step S406). If it is determined that the previous attribute information is “positive” and the current attribute information is “negative” (step S406: Yes), the attribute information has changed from “positive” to “negative”. It is determined that the content of the utterance has changed from joy or pleasure to sadness, and it is determined that the expression of the robot is "embarrassed" (step S407). As shown in FIG. 12C, the expression of “confused” is a state in which the right eyelid is slightly lowered and the diameter of the pupil is about one third of the pupil. The pupil is made smaller to express a confused expression.
今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS406:No)、前回の属性情報が「ポジティブ」で、かつ、今回の属性情報が「ニュートラル」であると判断される(ステップS408)。この場合、属性情報は、「ポジティブ」から「ニュートラル」に変化していることから、発話内容が嬉しさや楽しさから変化がないが他のキーワードが認識されている状態であり、今後の話の展開を期待するように、ロボットの表情として、「期待」の表情が決定される(ステップS409)。図12(D)に示すように、「期待」の表情は、「嬉しい」表情に対して瞳孔の大きさおよび外光の映り込みが多少少ない状態である。目を輝かせて期待の表情を表している。 If the current attribute information is neither “positive” nor “negative” (step S406: No), it is determined that the previous attribute information is “positive” and the current attribute information is “neutral” (step S406). S408). In this case, since the attribute information has changed from "positive" to "neutral", the content of the utterance does not change from joy or enjoyment, but other keywords are recognized. The expression of "expectation" is determined as the expression of the robot so as to expect the development (step S409). As shown in FIG. 12D, the expression of “expectation” is a state in which the size of the pupil and the reflection of external light are somewhat less than the expression of “happy”. She shines her eyes and expresses the expression of expectations.
属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS410)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS410:Yes)、図7の処理ステップS301に移動する。続くテキストデータがない場合(ステップS410:No)、処理を終了する。 When the attribute information is determined and the facial expression is determined, it is determined whether or not there is subsequent text data (step S410). If the utterance by the predetermined object continues and there is subsequent text data (step S410: Yes), the process moves to the processing step S301 in FIG. If there is no subsequent text data (step S410: No), the process ends.
一方、前回の属性情報が「ポジティブ」でなかった場合(ステップS401:No)、図9の処理ステップに進む。この場合、前回の属性情報が「ネガティブ」であるか否かが判断される(ステップS501)。前回の属性情報が「ネガティブ」であると判断されると(ステップS501:Yes)、今回の属性情報が不明であるか否かが判断される(ステップS502)。 On the other hand, when the previous attribute information is not “positive” (step S401: No), the process proceeds to the processing step of FIG. In this case, it is determined whether the previous attribute information is “negative” (step S501). When it is determined that the previous attribute information is “negative” (Step S501: Yes), it is determined whether the current attribute information is unknown (Step S502).
今回の属性情報が不明である場合(ステップS502:Yes)、前回の属性情報が「ネガティブ」であることから、ロボットの表情として、「落ち込み」の表情とすることを決定する(ステップS503)。今回の属性情報が「ネガティブ」で、それのみにより表情を決定する場合、前記ステップS206で説明したように「心配」の表情とするが、上記のような場合には、発話の内容が好転せず、ネガティブの状態が続いているとみなして、「落ち込み」の表情とされる。図13(A)に示すように、「落ち込み」の表情は、瞼が目の半分近くさがり、瞳が下に位置している状態である。「心配」の表情よりも、瞼は下がり、うつむき加減の表情が表されている。 If the current attribute information is unknown (step S502: Yes), since the previous attribute information is “negative”, it is determined that the expression of the robot is “declined” (step S503). If the current attribute information is “negative” and the facial expression is determined based solely on it, the expression “worried” is used as described in step S206. In the above case, however, the content of the utterance can be turned around. Instead, it is considered that the negative state is continuing, and the expression of “fall” is given. As shown in FIG. 13A, the expression of “depression” is a state in which the eyelids are close to half of the eyes and the pupils are located below. The eyes are lower than the expression of "anxiety", and the expression of depression and depression is expressed.
今回の属性情報が不明でない場合(ステップS502:No)、今回の属性情報が「ポジティブ」であるか否かが判断される(ステップS504)。前回の属性情報が「ネガティブ」で、かつ、今回の属性情報が「ポジティブ」である場合(ステップS504:Yes)、属性情報が「ネガティブ」から「ポジティブ」に変化することから、発話内容の属性が悲しみや怒り等から嬉しさや楽しさ等に変わったと判断し 、ロボットの表情として、「安心」の表情とすることを決定する(ステップS505)。図13(B)に示すように、「安心」の表情は、三日月形状の瞳が斜め下に向けて配置されている状態である。目が垂れた状態としてほっとした表情を表している。 If the current attribute information is not unknown (Step S502: No), it is determined whether the current attribute information is “positive” (Step S504). If the previous attribute information is “negative” and the current attribute information is “positive” (step S504: Yes), the attribute information changes from “negative” to “positive”, and the attribute of the utterance content is changed. Is determined to have changed from sadness, anger, etc. to joy, pleasure, etc., and it is determined that the expression of the robot should be the expression of "relief" (step S505). As shown in FIG. 13B, the expression “relieved” is a state in which the crescent-shaped pupil is arranged obliquely downward. The expression is relieved as the eyes are drooping.
今回の属性情報が「ポジティブ」でない場合(ステップS504:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS506)。前回の属性情報および今回の属性情報がいずれも「ネガティブ」である場合(ステップS506:Yes)、属性情報が「ネガティブ」である状態が連続することになるから、発話内容で表された悲しみ、不満等がさらに増したと想定し、ロボットの表情として、「悲しみ」の表情とすることを決定する(ステップS507)。図13(C)に示すように、「悲しみ」の表情は、瞼が目の3分の2程度まで下がり、瞳が目の下に位置し、目の下部に楕円状の涙が位置している状態である。「落ち込み」の表情よりもさらに瞼を下げて、涙を浮かべることにより「悲しみ」の表情を表している。 If the current attribute information is not “positive” (step S504: No), it is determined whether the current attribute information is “negative” (step S506). When both the previous attribute information and the current attribute information are “negative” (step S506: Yes), the state in which the attribute information is “negative” is continuous, so the sadness expressed by the utterance content, Assuming that dissatisfaction and the like have further increased, it is determined that the expression of the robot should be the expression of "sadness" (step S507). As shown in FIG. 13C, the expression of "sadness" is a state in which the eyelids are lowered to about two thirds of the eyes, the pupils are located below the eyes, and the elliptical tears are located below the eyes. is there. The expression of "sadness" is expressed by lowering the eyelids more than the expression of "depression" and tearing.
今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS506:No)、前回の属性情報が「ネガティブ」で、かつ、今回の属性情報が「ニュートラル」であると判断する(ステップS508)。この場合、属性情報が「ネガティブ」から「ニュートラル」に変化することから、所定の対象の発話内容が悲しみの状態から変化がないが他のキーワードが認識されている状態であり、今後の話の展開がどうなるか気になるように、ロボットの表情として、「不安」の表情とすることに決定する(ステップS509)。図13(D)に示すように、「不安」の表情は、瞼が目の4分の1程度下がり、瞳と瞳孔が目の下に位置している状態である。「心配」の表情よりも瞼が下がって、うつむき加減であり、状況が定まらず不安な表情が表されている。 If the current attribute information is neither “positive” nor “negative” (step S506: No), it is determined that the previous attribute information is “negative” and the current attribute information is “neutral” (step S508). ). In this case, since the attribute information changes from “negative” to “neutral”, the utterance content of the predetermined target does not change from the state of sadness, but other keywords are recognized. It is determined that the expression of the robot is “anxiety” so as to be worried about the development (step S509). As shown in FIG. 13D, the expression of “anxiety” is a state where the eyelids are lowered by about a quarter and the pupil and the pupil are located below the eyes. The eyelids are lower than the expression of "worry", the depression is moderate, and the situation is uncertain and an uneasy expression is expressed.
属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS510)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS510:Yes)、図7の処理ステップS301に移動する。続くテキストデータがない場合(ステップS510:No)、処理を終了する。 When the attribute information is determined and the facial expression is determined, it is determined whether or not there is subsequent text data (step S510). If the utterance by the predetermined object continues and there is subsequent text data (step S510: Yes), the process moves to the processing step S301 in FIG. If there is no subsequent text data (step S510: No), the process ends.
前回の属性情報が不明でなく、かつ、「ポジティブ」でも「ネガティブ」でもなかった場合(ステップS501:No)、図10の処理ステップに進む。この場合、前回の属性情報が「ニュートラル」であると判断される(ステップS601)。 If the previous attribute information is unknown and neither “positive” nor “negative” (step S501: No), the process proceeds to the processing steps in FIG. In this case, it is determined that the previous attribute information is "neutral" (step S601).
続いて今回の属性情報が不明であるか否かが判断される(ステップS602)。今回の属性情報が不明である場合(ステップS602:Yes)、前回の属性情報が「ニュートラル」であり、キーワードで表される発話内容がポジティブでもネガティブでもないため、ロボットの表情として、伺うように確認するような表情とすることに決定する(ステップS603)。図14(A)に示すように、「確認」の表情は、瞳と瞳孔が目の上に位置している状態である。上目使いで伺うような表情を表している。今回の属性情報が不明でない場合(ステップS602:No)、今回の属性情報が「ポジティブ」であるか否かが判断される(ステップS604)。 Next, it is determined whether the current attribute information is unknown (step S602). If the current attribute information is unknown (step S602: Yes), the previous attribute information is "neutral", and the utterance content represented by the keyword is neither positive nor negative, so that the robot is asked as the expression of the robot. It is determined that the expression should be such as to be confirmed (step S603). As shown in FIG. 14A, the expression of “confirmation” is a state in which the pupil and the pupil are located above the eyes. It expresses the expression as if you ask it with an upper eye. If the current attribute information is not unknown (step S602: No), it is determined whether the current attribute information is “positive” (step S604).
前回の属性情報が「ニュートラル」で、かつ、今回の属性情報が「ポジティブ」である場合(ステップS604:Yes)、属性情報は「ニュートラル」から「ポジティブ」に変化する。この場合、所定の対象の発話内容に嬉しいことがあったと想定し、ロボットの表情として、「嬉しい」表情とすることに決定する(ステップS605)。図14(B)は、「嬉しい」表情の例を示す。今回の属性情報が「ポジティブ」でない場合(ステップS604:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS606)。 If the previous attribute information is “neutral” and the current attribute information is “positive” (step S604: Yes), the attribute information changes from “neutral” to “positive”. In this case, it is assumed that the utterance content of the predetermined target is happy, and the expression of the robot is determined to be “happy” (step S605). FIG. 14B shows an example of a “happy” expression. If the current attribute information is not “positive” (step S604: No), it is determined whether the current attribute information is “negative” (step S606).
前回の属性情報が「ニュートラル」で、かつ、今回の属性情報が「ネガティブ」である場合(ステップS606:Yes)、属性情報は「ニュートラル」から「ネガティブ」に変化し、所定の対象の発話内容に悲しいこと・不満なことがあったと判断して、ロボットの表情として、「心配」の表情とすることに決定する(ステップS607)。図14(C)は、「心配」の表情の例を示す。 If the previous attribute information is “neutral” and the current attribute information is “negative” (step S606: Yes), the attribute information changes from “neutral” to “negative” and the utterance content of the predetermined target It is determined that there is something sad or dissatisfied, and the expression of the robot is determined to be the expression of "worried" (step S607). FIG. 14C shows an example of an expression of “worried”.
今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS606:No)、前回の属性情報および今回の属性情報がいずれも「ニュートラル」であると判断される(ステップS608)。属性情報は「ニュートラル」が連続しており、キーワードで表される発話内容がポジティブでもネガティブでもなかったため、次の発話を引き出すべく、ロボットの表情として、瞳孔変化・瞬きなどで認識していることを表す表情とすることに決定する(ステップS609)。図14(D)は、「瞳孔変化」の表情の例を示す。 If the current attribute information is neither “positive” nor “negative” (step S606: No), it is determined that both the previous attribute information and the current attribute information are “neutral” (step S608). The attribute information is "neutral" in succession, and the utterance content expressed by the keyword was neither positive nor negative, so the robot's facial expression was recognized by pupil change, blinking, etc. to elicit the next utterance Is determined (step S609). FIG. 14D shows an example of an expression of “pupil change”.
属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS610)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS610:Yes)、図7の処理ステップS301に移動する。続くテキストデータがない場合(ステップS610:No)、処理を終了する。 When the attribute information is determined and the expression is determined, it is determined whether or not there is subsequent text data (step S610). If the utterance by the predetermined object continues and there is text data to follow (step S610: Yes), the process moves to the processing step S301 in FIG. If there is no subsequent text data (step S610: No), the process ends.
以上のように、表情決定処理が開始されてから2回目の表情の決定が実行された以降、前回の属性情報と今回の属性情報との関係に基づいて表情が決定され、そのような表情の決定手法が繰り返し実行される。 As described above, after the second facial expression determination is performed after the start of the facial expression determination process, the facial expression is determined based on the relationship between the previous attribute information and the current attribute information, and such a facial expression is determined. The decision method is repeatedly executed.
上記の表情決定処理と表情の例に基づいて、所定の対象が話しかけた場合においてロボットの表情がどのように変化するかについて、一例を図15に示す。所定の対象が以下に示すようにロボット1に話しかけたとする。
「昨日お友達とおしゃれランチしてきたの」
「でもハプニングが・・・」
「店員のミスで予約取れて無くて・・・ 本当に焦っちゃったのよ」
所定の対象がロボットに対して、「昨日お友達とおしゃれランチしてきたの」と、話かけると、音声検出部31は所定の対象の音声を検出し、音声認識部32は検出された所定の対象の音声データをテキスト化する。テキストデータは、キーワード判定部34に送られる。キーワード判定部34は、テキストデータを所定の対象に応じたキーワード情報データベース37と照合して、キーワードとこれにタグ付けされた属性情報を取得する。ここでは、「おしゃれランチ」+「した」のキーワードと、その属性情報として「ポジティブ」を取得する。表情決定部35は取得された属性情報から表情決定処理を実行する。この場合、図6の表情決定処理のステップS203のYesに該当し、続くステップS204により、「嬉しい」表情が決定される。ロボット1の表情はこの決定に基づき「嬉しい」表情に変化する。
FIG. 15 shows an example of how the expression of the robot changes when a predetermined object speaks based on the above-described expression determination process and the example of the expression. It is assumed that a predetermined target has spoken to the
"I had a stylish lunch with my friends yesterday."
"But the incident is ..."
"I couldn't make a reservation because of a clerk's mistake ... I was really impatient."
When the predetermined object speaks to the robot, "I had a stylish lunch with a friend yesterday," the
続いて所定の対象は、「でもハプニングが・・・」と発話する。キーワード判定部34は、キーワードとして「ハプニング」を抽出し、その属性情報として「ネガティブ」を取得する。前回のキーワード「おしゃれランチ」+「した」の属性情報は「ポジティブ」であったことから、属性情報は、「ポジティブ」から「ネガティブ」に遷移する。この場合、図8の表情決定処理のステップS406のYesに該当し、続くステップS407により、「戸惑い」の表情が決定される。ロボット1の表情はこの決定に基づき、「嬉しい」表情から「戸惑い」の表情に変化する。
Subsequently, the predetermined object utters "But the incident is ...". The
続いて所定の対象は、「店員のミスで予約取れて無くて・・・ 本当に焦っちゃったのよ」と発話する。キーワード判定部34は、キーワードとして「焦った」を抽出し、その属性情報として「ネガティブ」を取得する。前回のキーワード「ハプニング」の属性情報は「ネガティブ」であったことから、属性情報は、「ネガティブ」から「ネガティブ」に遷移する。この場合、図9の表情決定処理のステップS506のYesに該当し、続くステップS507により、「悲しみ」の表情が決定される。ロボット1の表情はこの決定に基づき、「戸惑い」の表情から「悲しみ」の表情に変化する。
Subsequently, the predetermined object utters, "I could not make a reservation because of a clerk's mistake ... I was really rushed." The
なお、ロボット1は、表情決定部35の決定結果に応じて音声をスピーカ27から出力することによって所定の対象と対話をすることができる。例えば、図15の例において、「昨日お友達とおしゃれランチしてきたの」の発話に対して、「よかったね」と「嬉しい」を表す返事をする。次の「でもハプニングが・・・」に対して、「どうしたの?」と「戸惑い」を表す返事をする。そして「店員のミスで予約取れて無くて・・・ 本当に焦っちゃったのよ」に対して、「大変だったね」と「悲しみ」を表す返事をする。
The
以上説明したように、ロボット1の制御装置30は、所定の対象が発話する音声を音声検出部31および音声認識部32により取得し、取得された所定の対象の発話から「ポジティブ」「ネガティブ」「ニュートラル」の属性情報をキーワード判定部34により取得する。そして、ロボット1の制御装置30は、所定の対象の発話中に取得された今回の属性情報と前回の属性情報との関係である「ポジティブ」「ネガティブ」の属性遷移に基づいて発話の流れを読み取って表情決定部35により表情を決定する。これにより、話の流れに沿った自然な表情の変化を実現することができる。
As described above, the
また、ロボット1の制御装置30は、所定の対象の認証を行う個人認証部33と、所定の対象毎にキーワードに応じた属性情報が登録された人物データベース36と、をさらに備え、キーワード判定部34は、個人認証部33で認証された所定の対象に応じたキーワード情報データベース37を選択し、音声認識部32から取得したテキストデータをキーワード情報データベース37と照合して、属性情報を取得する。これにより、対面する個人を判定して個人用のキーワード情報データベースを利用する事ができ、個人に合わせた表情選択が実現できる。
The
また、ロボット1の制御装置30は、キーワード判定部34により、音声検出部31および音声認識部32により取得された音声を解析して、音声に含まれるキーワードを抽出し、抽出したキーワードにタグ付けされた「ポジティブ」「ネガティブ」「ニュートラル」の属性情報を取得する。これにより、リアルタイムで音声認識を行い、その中から表情決定に利用するキーワードと属性情報を取得し、素早く表情変化を行うことができる。
Further, the
また、ロボット1は、所定の対象と対話可能に構成されており、ロボット1の制御装置30は、表情決定部35により、所定の対象との対話中に取得された今回の属性情報と過去である前回の属性情報との関係に基づいて、ロボット1の表情を制御する。これにより、対話の流れに沿った自然な表情の変化を実現することができる。
In addition, the
また、ロボット1は、自機の表情に応じた画像を表示するように構成された表示装置28を備え、ロボット1の制御装置30は、表情決定部35により、所定の対象の発話中に取得された今回の属性情報と前回の属性情報との関係に基づいて表情データを生成して表示装置28に表示する。これにより、話の流れに沿った自然な表情の変化をロボット1の表情として表示することができる。
Further, the
また、ロボット1は、自機を移動させるように構成された移動部25を備え、ロボット1の制御装置30は、表情決定部35によりロボット1の表情を制御する場合に、ロボット1を所定の対象に近づけるように、移動部25を制御する移動制御部40をさらに備える。これにより、相手と対面してコミュニケーションをとりやすくする。
Further, the
なお、本発明は、上記の実施の形態に限定されず、種々の改変および応用が可能である。前記の実施の形態は、次のように変形されてもよい。 Note that the present invention is not limited to the above embodiment, and various modifications and applications are possible. The above embodiment may be modified as follows.
上記の実施の形態において、前回のキーワードで表される感情の属性情報と今回のキーワードで表される感情の属性情報からなる連続する2つの属性情報の関係に基づいて表情決定処理を行った。これに限らず、時間的に連続する対象者の3回以上の発話の各々に含まれるキーワードで表される属性情報の関係に基づいて表情決定処理を行ってもよい。組合せを多くすることにより、より多くの表情を表すことができる。ただし、キーワードが増加すると、表情決定処理を行うために必要なキーワード数を取得するまでに時間を要し、次の表情の決定が遅れてしまう。結果的に所定の対象の発話に対して瞬時に表情を変えることが難しくなる。2つのキーワードの属性情報の組合せであれば、必要なキーワードの取得に時間を要さず、所定の対象の発話に対して瞬時に表情を変えることができる。さらに、表現する表情の数についても、本実施の形態で示された表情のバリエーションにより必要な種類の表情はほぼカバーされており、所定の対象の発話内容に応じた自然な表情を表現できる。したがって、2つのキーワードの属性情報の組合せが、実施をするうえで望ましい。 In the above-described embodiment, the expression determination process is performed based on the relationship between two pieces of continuous attribute information including the attribute information of the emotion represented by the previous keyword and the attribute information of the emotion represented by the keyword. The present invention is not limited to this, and the facial expression determination process may be performed based on the relationship between attribute information represented by keywords included in three or more utterances of the subject who are temporally continuous. By increasing the number of combinations, more expressions can be expressed. However, when the number of keywords increases, it takes time to acquire the number of keywords necessary for performing the facial expression determination process, and the determination of the next facial expression is delayed. As a result, it is difficult to instantaneously change the facial expression with respect to the utterance of the predetermined target. With the combination of the attribute information of two keywords, it is possible to instantaneously change the expression with respect to the utterance of the predetermined target without acquiring time for the necessary keyword. Further, as for the number of expressions to be expressed, the required types of expressions are almost covered by the variations of the expressions shown in the present embodiment, and natural expressions corresponding to the utterance contents of a predetermined target can be expressed. Therefore, a combination of the attribute information of the two keywords is desirable for implementation.
本実施の形態では、ロボットの顔の表情の変化を目の状態により表現したが、これに限らず、目に加えて口、眉毛等顔の別の部分で表現してもよい。また、表情は、顔に限らず、身振りも含む。ロボット1は、図1に示すように、可動する尻尾部6を有している。表情決定処理で決定される表情に尻尾部6の動きを加えることにより、所定の対象の発話に応じて尻尾部6により表情を示すことが可能である。例えば、尻尾部6を左右に大きく振ることにより「嬉しい」感情を表現する、尻尾部6を斜め下にゆっくり振ることにより「安心」の感情を表現する等である。表情決定部35の決定結果に応じて可動制御部41は、上記動きをするための駆動信号を生成し、この信号を可動部26に送信する。可動部26は、駆動信号に応じて駆動回路がアクチュエータ等の駆動部材を制御して尻尾部6を動かす。なお、尻尾部6に限らず、頭部2、手部4、足部5等他の部位を動かして表情を表現してもよい。ただし、駆動に時間がかかるような部位、動きは、所定の対象の発話に応答して瞬時に表情を変えることが難しくなるので、駆動に時間がかからない部位、動きが好ましい。
In the present embodiment, the change in the facial expression of the robot is represented by the state of the eyes, but the present invention is not limited to this, and may be represented by other parts of the face such as the mouth and eyebrows in addition to the eyes. In addition, facial expressions include not only faces but also gestures. The
本実施の形態において、人形の形態のロボットを例に挙げて説明した。しかしながら、ロボットはこれに限らず、図16に示すように、携帯端末50の画面51にロボットの画像が表示されるものも含まれる。携帯端末50に内蔵されている撮像素子23を用いて対面する所定の対象を撮影し、内蔵されたマイクロフォン24を用いて所定の対象の発話を検出する。携帯端末50に向かって所定の対象が話しかけると、携帯端末50の画面51に表示されたロボットの表情が対話に応じて変化する。なお、画面51上には、顔だけでなく、上半身あるいは全身を表示してもよい。この場合、顔で表情を表すだけでなく、手、足等を動かして身振りによっても表情を表すことができる。
In the present embodiment, a doll-shaped robot has been described as an example. However, the robot is not limited to this, and includes a robot in which an image of the robot is displayed on the
本実施の形態において、キーワードの属性情報として、ポジティブ、ネガティブ、ニュートラルで分類したが、これに限らず、例えば、喜・怒・哀・楽等で分類してもよい。 In the present embodiment, the keyword attribute information is classified into positive, negative, and neutral. However, the present invention is not limited to this, and may be classified into, for example, joy, anger, sorrow, ease, and the like.
本実施の形態において、キーワード情報データベース37は、個人毎に区分けされており、その個人に応じたキーワードとその属性情報が登録されている。本実施の形態では、この個人毎のキーワード情報データベースの作成については、特に触れなかった。個人毎のキーワード情報データベースは、例えば、キーワードに対する個人毎の声のトーンによってポジティブ・ネガティブを判定したり、キーワードを発話している時の個人毎の表情を撮像素子により撮影して撮影画像からポジティブ・ネガティブを判定する等により作成する。
In the present embodiment, the
また、本実施の形態では、キーワード情報データベース37から抽出した属性情報のみから表情の決定を行っていた。これに限らず、キーワード情報データベースから抽出した属性情報に加えて、別途ポジティブ・ネガティブの判定を行って両者の結果から表情の決定を行ってもよい。例えば、ポジティブにもネガティブにもとれるキーワードの場合、声のトーン、表情によりポジティブ・ネガティブの判定することが可能である。また構文解析することにより判断することも可能である。ただし、自然な表情の変化を実現するためには、連続するキーワードに対して素早く反応する必要がある。したがって、判定に時間がかからないことが条件とされる。
Further, in the present embodiment, the expression is determined only from the attribute information extracted from the
本実施の形態では、ロボット1が備える記憶部22に、実行動作を決定するために必要な各種データベースを格納するものとして説明した。しかし、これらのデータは外部の記憶装置などに記憶させるようにしてもよい。ロボット1は、通信ネットワークを介して通信可能な外部記憶装置から必要なデータを適宜取得するように構成してもよい。
In the present embodiment, a description has been given assuming that various databases necessary for determining an execution operation are stored in the
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記の番号は、この出願の願書に最初に添付した特許請求の範囲の通りである。 While some embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof. In the following, the inventions described in the claims first attached to the application form of this application are appended. The appended numbers are as set forth in the claims originally attached to the application for this application.
(付記1)
自機の表情を変更可能に構成されたロボットの表情を制御するロボットの制御装置であって、
所定の対象が発話する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得手段と、
前記属性パラメータ取得手段により取得された属性パラメータを記憶する記憶手段と、
前記所定の対象の発話中に取得された属性パラメータと前記記憶手段に記憶された過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御手段と、
を備えるロボットの制御装置。
(Appendix 1)
A robot control device that controls a facial expression of a robot configured to be able to change its own facial expression,
Voice acquisition means for acquiring a voice uttered by a predetermined object;
An attribute parameter obtaining unit that obtains an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the voice obtained by the voice obtaining unit;
Storage means for storing the attribute parameters obtained by the attribute parameter obtaining means,
Expression control means for controlling the expression of the robot, based on a relationship between the attribute parameters acquired during the utterance of the predetermined target and the past attribute parameters stored in the storage means,
Control device for a robot, comprising:
(付記2)
所定の対象の認証を行う個人認証手段と、
所定の対象毎に発話内容に応じた属性パラメータが登録された属性パラメータデータベースと、
をさらに備え、
前記属性パラメータ取得手段は、前記個人認証手段で認証された所定の対象に応じた属性パラメータデータベースを選択し、前記音声取得手段により取得された音声を前記属性パラメータデータベースと照合して、前記属性パラメータを取得する、
付記1に記載のロボットの制御装置。
(Appendix 2)
Personal authentication means for authenticating a predetermined object;
An attribute parameter database in which attribute parameters corresponding to the utterance content are registered for each predetermined target,
Further comprising
The attribute parameter acquisition unit selects an attribute parameter database corresponding to a predetermined target authenticated by the personal authentication unit, compares the voice acquired by the voice acquisition unit with the attribute parameter database, and To get the
A control device for a robot according to
(付記3)
前記属性パラメータ取得手段は、前記音声取得手段により取得された音声を解析して、前記音声に含まれるキーワードを抽出し、抽出したキーワードの属性情報を前記属性パラメータとして取得する、
付記1又は2に記載のロボットの制御装置。
(Appendix 3)
The attribute parameter obtaining unit analyzes the voice obtained by the voice obtaining unit, extracts a keyword included in the voice, and obtains attribute information of the extracted keyword as the attribute parameter.
3. The control device for a robot according to
(付記4)
前記ロボットは、前記所定の対象と対話可能に構成されており、
前記表情制御手段は、前記所定の対象との対話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する、
付記1ないし3のいずれか1つに記載のロボットの制御装置。
(Appendix 4)
The robot is configured to be able to interact with the predetermined object,
The expression control unit controls the expression of the robot based on a relationship between the attribute parameter acquired during the dialogue with the predetermined target and the past attribute parameter.
4. The control device for a robot according to any one of
(付記5)
前記ロボットは、自機の表情に応じた画像を表示するように構成された表示手段を備え、
前記表情制御手段は、前記所定の対象の発話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて表情データを生成して前記表示手段に表示する、
付記1ないし4のいずれか1つに記載のロボットの制御装置。
(Appendix 5)
The robot includes a display unit configured to display an image according to the expression of the robot,
The expression control unit generates expression data based on a relationship between the attribute parameter acquired during the utterance of the predetermined target and the past attribute parameter, and displays the expression data on the display unit.
The control device for a robot according to any one of
(付記6)
前記ロボットは、自機を移動させるように構成された移動機構を備え、
前記表情制御手段により前記ロボットの表情を制御する場合に、前記ロボットを前記所定の対象に近づけるように、前記移動機構を制御する移動制御手段をさらに備える、
付記1ないし5のいずれか1つに記載のロボットの制御装置。
(Appendix 6)
The robot includes a movement mechanism configured to move the robot,
When controlling the facial expression of the robot by the facial expression control means, further comprising a movement control means for controlling the moving mechanism so as to bring the robot closer to the predetermined target,
6. The control device for a robot according to any one of
(付記7)
付記1ないし6のいずれか1つに記載のロボットの制御装置を備えるロボット。
(Appendix 7)
A robot comprising the control device for a robot according to any one of
(付記8)
所定の対象が発話する音声を取得する音声取得ステップと、
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得ステップと、
取得された属性パラメータを記憶する記憶ステップと、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、ロボットの表情を制御する表情制御ステップと、
を含むロボットの制御方法。
(Appendix 8)
A voice obtaining step of obtaining a voice uttered by a predetermined target;
An attribute parameter acquiring step of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storing step of storing the obtained attribute parameters;
An expression control step of controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
Robot control method including:
(付記9)
ロボットのコンピュータに、
所定の対象が発話する音声を取得する音声取得処理と、
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得処理と、
取得された属性パラメータを記憶する記憶処理と、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御処理と、
を実行させるプログラム。
(Appendix 9)
On the robot computer,
Voice acquisition processing for acquiring a voice uttered by a predetermined target;
An attribute parameter acquisition process of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storage process for storing the acquired attribute parameters;
An expression control process for controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
A program that executes
1…ロボット、2…頭部、3…胴体部、4…手部、5…足部、6…尻尾部、7…耳部、8…目部、9…口部、10…おでこ、21…制御部、22…記憶部、23…撮像素子、24…マイクロフォン、25…移動部、26…可動部、27…スピーカ、28…表示装置、30…制御装置、31…音声検出部、32…音声認識部、33…個人認証部、34…キーワード判定部、35…表情決定部、36…人物データベース、37…キーワード情報データベース、38…発話方向特定部、39…距離情報取得部、40…移動制御部、41…可動制御部、50…携帯端末、51…画面
DESCRIPTION OF
Claims (9)
所定の対象が発話する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得手段と、
前記属性パラメータ取得手段により取得された属性パラメータを記憶する記憶手段と、
前記所定の対象の発話中に取得された属性パラメータと前記記憶手段に記憶された過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御手段と、
を備えるロボットの制御装置。 A robot control device that controls a facial expression of a robot configured to be able to change its own facial expression,
Voice acquisition means for acquiring a voice uttered by a predetermined object;
An attribute parameter obtaining unit that obtains an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the voice obtained by the voice obtaining unit;
Storage means for storing the attribute parameters obtained by the attribute parameter obtaining means,
Expression control means for controlling the expression of the robot, based on a relationship between the attribute parameters acquired during the utterance of the predetermined target and the past attribute parameters stored in the storage means,
Control device for a robot, comprising:
所定の対象毎に発話内容に応じた属性パラメータが登録された属性パラメータデータベースと、
をさらに備え、
前記属性パラメータ取得手段は、前記個人認証手段で認証された所定の対象に応じた属性パラメータデータベースを選択し、前記音声取得手段により取得された音声を前記属性パラメータデータベースと照合して、前記属性パラメータを取得する、
請求項1に記載のロボットの制御装置。 Personal authentication means for authenticating a predetermined object;
An attribute parameter database in which attribute parameters corresponding to the utterance content are registered for each predetermined target,
Further comprising
The attribute parameter acquisition unit selects an attribute parameter database corresponding to a predetermined target authenticated by the personal authentication unit, compares the voice acquired by the voice acquisition unit with the attribute parameter database, and To get the
A control device for a robot according to claim 1.
請求項1又は2に記載のロボットの制御装置。 The attribute parameter obtaining unit analyzes the voice obtained by the voice obtaining unit, extracts a keyword included in the voice, and obtains attribute information of the extracted keyword as the attribute parameter.
The control device for a robot according to claim 1.
前記表情制御手段は、前記所定の対象との対話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する、
請求項1ないし3のいずれか1項に記載のロボットの制御装置。 The robot is configured to be able to interact with the predetermined object,
The expression control unit controls the expression of the robot based on a relationship between the attribute parameter acquired during the dialogue with the predetermined target and the past attribute parameter.
The control device for a robot according to claim 1.
前記表情制御手段は、前記所定の対象の発話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて表情データを生成して前記表示手段に表示する、
請求項1ないし4のいずれか1項に記載のロボットの制御装置。 The robot includes a display unit configured to display an image according to the expression of the robot,
The expression control unit generates expression data based on a relationship between the attribute parameter acquired during the utterance of the predetermined target and the past attribute parameter, and displays the expression data on the display unit.
A control device for a robot according to any one of claims 1 to 4.
前記表情制御手段により前記ロボットの表情を制御する場合に、前記ロボットを前記所定の対象に近づけるように、前記移動機構を制御する移動制御手段をさらに備える、
請求項1ないし5のいずれか1項に記載のロボットの制御装置。 The robot includes a movement mechanism configured to move the robot,
When controlling the facial expression of the robot by the facial expression control means, further comprising a movement control means for controlling the moving mechanism so as to bring the robot closer to the predetermined target,
A control device for a robot according to any one of claims 1 to 5.
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得ステップと、
取得された属性パラメータを記憶する記憶ステップと、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、ロボットの表情を制御する表情制御ステップと、
を含むロボットの制御方法。 A voice obtaining step of obtaining a voice uttered by a predetermined target;
An attribute parameter acquiring step of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storing step of storing the obtained attribute parameters;
An expression control step of controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
Robot control method including:
所定の対象が発話する音声を取得する音声取得処理と、
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得処理と、
取得された属性パラメータを記憶する記憶処理と、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御処理と、
を実行させるプログラム。 On the robot computer,
Voice acquisition processing for acquiring a voice uttered by a predetermined target;
An attribute parameter acquisition process of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storage process for storing the acquired attribute parameters;
An expression control process for controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188098A JP7322374B2 (en) | 2018-10-03 | 2018-10-03 | ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188098A JP7322374B2 (en) | 2018-10-03 | 2018-10-03 | ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020056935A true JP2020056935A (en) | 2020-04-09 |
JP7322374B2 JP7322374B2 (en) | 2023-08-08 |
Family
ID=70107207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018188098A Active JP7322374B2 (en) | 2018-10-03 | 2018-10-03 | ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7322374B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111515970A (en) * | 2020-04-27 | 2020-08-11 | 腾讯科技(深圳)有限公司 | Interaction method, mimicry robot and related device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158868A (en) * | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | Mobile body and control method |
JP2017151517A (en) * | 2016-02-22 | 2017-08-31 | 富士ゼロックス株式会社 | Robot control system |
JP2017173482A (en) * | 2016-03-23 | 2017-09-28 | 京セラ株式会社 | Electronic apparatus, answering method, and answering program |
JP2018062042A (en) * | 2016-10-13 | 2018-04-19 | トヨタ自動車株式会社 | Communication device |
-
2018
- 2018-10-03 JP JP2018188098A patent/JP7322374B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158868A (en) * | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | Mobile body and control method |
JP2017151517A (en) * | 2016-02-22 | 2017-08-31 | 富士ゼロックス株式会社 | Robot control system |
JP2017173482A (en) * | 2016-03-23 | 2017-09-28 | 京セラ株式会社 | Electronic apparatus, answering method, and answering program |
JP2018062042A (en) * | 2016-10-13 | 2018-04-19 | トヨタ自動車株式会社 | Communication device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111515970A (en) * | 2020-04-27 | 2020-08-11 | 腾讯科技(深圳)有限公司 | Interaction method, mimicry robot and related device |
Also Published As
Publication number | Publication date |
---|---|
JP7322374B2 (en) | 2023-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614203B2 (en) | Robot-human interactive device which performs control for authenticating a user, robot, interaction method, and recording medium storing program | |
US20220254343A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
JP7022062B2 (en) | VPA with integrated object recognition and facial expression recognition | |
CN108227932B (en) | Interaction intention determination method and device, computer equipment and storage medium | |
US11468894B2 (en) | System and method for personalizing dialogue based on user's appearances | |
US20200279553A1 (en) | Linguistic style matching agent | |
US20190172448A1 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
JP2004310034A (en) | Interactive agent system | |
JP5323770B2 (en) | User instruction acquisition device, user instruction acquisition program, and television receiver | |
JP6336676B2 (en) | Method and apparatus for synthesizing voice based on facial structure | |
WO2017215297A1 (en) | Cloud interactive system, multicognitive intelligent robot of same, and cognitive interaction method therefor | |
JP5982840B2 (en) | Dialogue device, dialogue program, and dialogue method | |
US20190371318A1 (en) | System and method for adaptive detection of spoken language via multiple speech models | |
WO2005076258A1 (en) | User adaptive type device and control method thereof | |
JP2018146898A (en) | Apparatus, robot, method, and program | |
KR20200105446A (en) | Apparatus and method for recognizing emotions | |
JP2006123136A (en) | Communication robot | |
US20200251110A1 (en) | Voice conversation system, control system for voice conversation system, and control program, and control method | |
WO2017086108A1 (en) | Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system | |
JP7322374B2 (en) | ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM | |
WO2020175969A1 (en) | Emotion recognition apparatus and emotion recognition method | |
JP2017182261A (en) | Information processing apparatus, information processing method, and program | |
JP7435641B2 (en) | Control device, robot, control method and program | |
JP2017162268A (en) | Dialog system and control program | |
JP2005196645A (en) | Information presentation system, information presentation device and information presentation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210917 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220822 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230331 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230410 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7322374 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |