JP2020056935A - Controller for robot, robot, control method for robot, and program - Google Patents

Controller for robot, robot, control method for robot, and program Download PDF

Info

Publication number
JP2020056935A
JP2020056935A JP2018188098A JP2018188098A JP2020056935A JP 2020056935 A JP2020056935 A JP 2020056935A JP 2018188098 A JP2018188098 A JP 2018188098A JP 2018188098 A JP2018188098 A JP 2018188098A JP 2020056935 A JP2020056935 A JP 2020056935A
Authority
JP
Japan
Prior art keywords
robot
expression
voice
attribute information
predetermined target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018188098A
Other languages
Japanese (ja)
Other versions
JP7322374B2 (en
Inventor
英里奈 市川
Erina Ichikawa
英里奈 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018188098A priority Critical patent/JP7322374B2/en
Publication of JP2020056935A publication Critical patent/JP2020056935A/en
Application granted granted Critical
Publication of JP7322374B2 publication Critical patent/JP7322374B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To properly control expressions of a robot according to a flow of utterance even when predetermined object utterance contents change largely.SOLUTION: A controller 30 for robot controls expressions of a robot configured to change its expressions. The controller 30 for robot comprises: a voice detection part 31 and a voice recognition part 32 which acquire a voice that a predetermined object utters; a keyword determination part 34 which analyzes the voice acquired by the voice detection part 31 and voice recognition part 32 so as to acquire a keyword and its attribute information from utterance contents of the predetermined object; a storage part 22 which stores the attribute information acquired by the keyword determination part 34; and an expression decision part 35 which decides an expression of the robot based upon relation between the attribute information acquired during utterance of the predetermined object and the past attribute information stored in the storage part 22.SELECTED DRAWING: Figure 3

Description

本発明は、ロボットの制御装置、ロボット、ロボットの制御方法およびプログラムに関する。   The present invention relates to a robot control device, a robot, a robot control method, and a program.

表情を変更可能に構成されたロボットの制御装置が知られている。例えば、特許文献1には、対話しているときに、音声を解析することにより対話内容を判定し、判定した対話内容に基づいて、ロボットの表情を制御することが開示されている。   2. Description of the Related Art A control device of a robot configured to change a facial expression is known. For example, Patent Literature 1 discloses that, during a conversation, the content of the conversation is determined by analyzing a voice, and the expression of the robot is controlled based on the determined content of the conversation.

特開2018−62042号公報JP 2018-62042 A

しかし、従来のロボットの制御装置では、その時々に判定した対話内容に基づいてロボットの表情を制御しているにすぎないので、例えば、対話内容が大きく変化するようなときには、ロボットの表情を適切に制御することができない問題がある。   However, the conventional robot control device merely controls the expression of the robot based on the content of the dialogue determined at each time.For example, when the content of the dialogue changes significantly, the expression of the robot is appropriately adjusted. There is a problem that cannot be controlled.

本発明は、上記に鑑みてなされたものであって、ユーザ等の所定の対象の発話内容が大きく変化する場合であっても、発話の流れに沿ってロボットの表情を適切に制御することを目的とする。   The present invention has been made in view of the above, and it is an object of the present invention to appropriately control the expression of a robot along the flow of an utterance even when the utterance content of a predetermined target such as a user greatly changes. Aim.

本発明に係るロボットの制御装置は、
自機の表情を変更可能に構成されたロボットの表情を制御するロボットの制御装置であって、
所定の対象が発話する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得手段と、
前記属性パラメータ取得手段により取得された属性パラメータを記憶する記憶手段と、
前記所定の対象の発話中に取得された属性パラメータと前記記憶手段に記憶された過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御手段と、
を備える。
The robot control device according to the present invention includes:
A robot control device that controls a facial expression of a robot configured to be able to change its own facial expression,
Voice acquisition means for acquiring a voice uttered by a predetermined object;
An attribute parameter obtaining unit that obtains an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the voice obtained by the voice obtaining unit;
Storage means for storing the attribute parameters obtained by the attribute parameter obtaining means,
Expression control means for controlling the expression of the robot, based on a relationship between the attribute parameters acquired during the utterance of the predetermined target and the past attribute parameters stored in the storage means,
Is provided.

本発明によれば、所定の対象の発話内容が大きく変化する場合であっても、発話の流れに沿ってロボットの表情を適切に制御することができる。   ADVANTAGE OF THE INVENTION According to this invention, even when the utterance content of a predetermined object changes greatly, the expression of a robot can be controlled appropriately along the flow of utterance.

本発明の実施の形態に係るロボットの外観を正面から見た図である。FIG. 2 is a front view of the appearance of the robot according to the embodiment of the present invention. 本発明の実施の形態に係るロボットの外観を背面から見た図である。FIG. 2 is a view of the external appearance of the robot according to the embodiment of the present invention as viewed from the back. 本発明の実施の形態に係るロボットのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the robot according to the embodiment of the present invention. 本発明の実施の形態に係るロボットの制御装置の機能的構成図である。FIG. 2 is a functional configuration diagram of the robot control device according to the embodiment of the present invention. 本発明の実施の形態に係るキーワード判定処理を示すフローチャートである。5 is a flowchart illustrating a keyword determination process according to the embodiment of the present invention. 本発明の実施の形態に係るロボットの制御装置のキーワード情報データベースの構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a configuration of a keyword information database of the robot control device according to the embodiment of the present invention. 本発明の実施の形態に係る表情決定処理を示すフローチャートである。It is a flowchart which shows the expression determination process which concerns on embodiment of this invention. 本発明の実施の形態に係る表情決定処理のフローチャートである。6 is a flowchart of a facial expression determination process according to the embodiment of the present invention. 本発明の実施の形態に係る表情決定処理のフローチャートである。6 is a flowchart of a facial expression determination process according to the embodiment of the present invention. 本発明の実施の形態に係る表情決定処理のフローチャートである。6 is a flowchart of a facial expression determination process according to the embodiment of the present invention. 本発明の実施の形態に係る表情決定処理のフローチャートである。6 is a flowchart of a facial expression determination process according to the embodiment of the present invention. 図6および図7の表情決定処理で決定された表情の一例を示す図であり、(A)は「通常」の表情、(B)は「嬉しい」の表情、(C)は「心配」の表情、(D)は「瞳孔変化」を示す図である。FIGS. 8A and 8B are diagrams illustrating examples of facial expressions determined in the facial expression determination processing of FIGS. 6 and 7, wherein FIG. 8A is an expression of “normal”, FIG. 8B is an expression of “happy”, and FIG. (D) is a diagram showing “pupil change”. 図8の表情決定処理で決定された表情の一例を示す図であり、(A)は「ご機嫌」の表情、(B)は「感激」の表情、(C)は「戸惑い」の表情、(D)は「期待」の表情を示す図である。FIG. 9 is a diagram showing an example of a facial expression determined in the facial expression determination process of FIG. 8, wherein (A) is an expression of “good mood”, (B) is an expression of “impressed”, (C) is an expression of “confused”, (D) is a figure showing the expression of “expectation”. 図9の表情決定処理で決定された表情の一例を示す図であり、(A)は「落ち込み」の表情、(B)は「安心」の表情、(C)は「悲しみ」の表情、(D)は「不安」の表情を示す図である。10A and 10B are diagrams illustrating examples of facial expressions determined in the facial expression determination process of FIG. 9, wherein FIG. 9A illustrates an expression of “depressed”, FIG. 9B illustrates an expression of “relief”, FIG. 10C illustrates an expression of “sadness”, and FIG. D) is a diagram showing the expression of “anxiety”. 図10の表情決定処理で決定された表情の一例を示す図であり、(A)は「確認」の表情、(B)は「嬉しい」の表情、(C)は「心配」の表情、(D)は「瞳孔変化」を示す図である。11A is a diagram showing an example of a facial expression determined in the facial expression determination process of FIG. 10, (A) a facial expression of “confirmation”, (B) a facial expression of “happy”, (C) a facial expression of “worried”, (FIG. D) is a diagram showing “pupil change”. ロボットに話しかけた時のロボットの表情の変化の一例を示す図である。It is a figure showing an example of change of the expression of a robot when talking to the robot. 携帯端末の画面に表情を表示した例を示す図である。It is a figure showing the example which displayed the expression on the screen of the personal digital assistant.

以下、本発明の実施の形態にかかるロボットの制御装置、ロボット、ロボットの制御方法およびプログラムについて図面を参照して詳細に説明する。   Hereinafter, a robot control device, a robot, a robot control method, and a program according to an embodiment of the present invention will be described in detail with reference to the drawings.

本発明の実施の形態に係るロボット1は、ユーザ等の所定の対象の発話に応じて自律的に動作するロボットである。所定の対象とは、ロボット1とコミュニケーションおよび交流する相手となる対象である。具体的には、ロボット1の所有者であるユーザ(人間)、ユーザの周囲の人間(ユーザの家族、友人等)等が挙げられる。   The robot 1 according to the embodiment of the present invention is a robot that operates autonomously according to the utterance of a predetermined target such as a user. The predetermined target is a target that communicates with and exchanges with the robot 1. Specifically, a user (human) who is the owner of the robot 1, humans around the user (user's family, friends, and the like) and the like are listed.

図1Aは、ロボット1の外観を正面から見た図であり、図1Bは、背面から見た図である。ロボット1は、頭部2、胴体部3、手部4、足部5、尻尾部6を備える。頭部2は、耳部7、目部8、口部9を備える。頭部2のおでこ10の部分には、対面する所定の対象を撮影するための撮像素子23(図2参照)であるカメラが設けられる。また、左右一対の耳部7のそれぞれには、所定の対象の発話を検出するためのマイクロフォン24(図2参照)が設けられる。口部9には、ロボット1が発話するためのスピーカ27(図2参照)が設けられている。   FIG. 1A is a diagram of the appearance of the robot 1 viewed from the front, and FIG. 1B is a diagram of the robot 1 viewed from the back. The robot 1 includes a head 2, a body 3, a hand 4, a foot 5, and a tail 6. The head 2 includes an ear 7, an eye 8, and a mouth 9. A camera serving as an image sensor 23 (see FIG. 2) for photographing a predetermined facing object is provided on the forehead 10 of the head 2. Further, each of the pair of left and right ears 7 is provided with a microphone 24 (see FIG. 2) for detecting an utterance of a predetermined target. The mouth 9 is provided with a speaker 27 (see FIG. 2) for the robot 1 to speak.

ロボット1の目部8には、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の表示装置28(図2参照)が設けられ、表示装置28の画面上に両目の画像が表示される。ロボット1の顔の表情は、瞳、瞼等の目の部分の変化によって表される。例えば、悲しい時は、瞼を下げて、瞳を下に向けることによって悲しさを表現する。ロボット1は、カメラ(撮像素子23)に撮影された人物をデータベースと照合することによって所定の対象を認識し、マイクロフォン24から検出された音声を解析して、所定の対象の発話の内容(属性)を判断し、その判断結果に応じて表情を変化させる。   A display device 28 (see FIG. 2) such as a liquid crystal display or an organic EL (Electro Luminescence) display is provided in the eye 8 of the robot 1, and images of both eyes are displayed on the screen of the display device 28. The facial expression of the robot 1 is represented by changes in the eyes such as the pupils and eyelids. For example, when sad, the sadness is expressed by lowering the eyelids and turning the eyes downward. The robot 1 recognizes a predetermined target by collating a person photographed by a camera (the image sensor 23) with a database, analyzes a voice detected from the microphone 24, and utters contents (attributes) of the predetermined target. ) Is determined, and the expression is changed according to the result of the determination.

ロボット1は、ハードウェア的には、図2に示すように、制御部21と、記憶部22と、上述した撮像素子23と、マイクロフォン24と、移動部25と、可動部26と、スピーカ27と、表示装置28と、を備える。   As shown in FIG. 2, the robot 1 includes a control unit 21, a storage unit 22, the above-described image sensor 23, a microphone 24, a moving unit 25, a movable unit 26, and a speaker 27, as shown in FIG. And a display device 28.

記憶部22は、特許請求の範囲に記載の記憶手段の一例である。移動部25は、特許請求の範囲に記載の移動機構の一例である。表示装置28は、特許請求の範囲に記載の表示手段の一例である。   The storage unit 22 is an example of a storage unit described in the claims. The moving unit 25 is an example of the moving mechanism described in the claims. The display device 28 is an example of a display unit described in the claims.

制御部21は、ロボット全体の動作を制御する。制御部21は、CPU(Central Processing Unit)を備え、記憶部22に記憶されているプログラムを実行する。また制御部21は、動作プログラムに基づき、撮像素子23やマイクロフォン24から取得した各種データに応じて、ロボット1を移動させるための制御信号を生成して移動部25に送信することにより、ロボット1の移動動作を制御する。   The control unit 21 controls the operation of the entire robot. The control unit 21 includes a CPU (Central Processing Unit), and executes a program stored in the storage unit 22. In addition, the control unit 21 generates a control signal for moving the robot 1 according to various data acquired from the imaging device 23 and the microphone 24 based on the operation program and transmits the control signal to the moving unit 25. To control the movement of the robot.

記憶部22は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等を備える。ROMは、各種動作プログラムを記憶する。RAMは、CPUが実行する各種動作プログラム、これらの動作プログラムの実行に必要なデータ等を一時的に記憶するワークエリアとして機能する。また、記憶部22は、後述する人物データベースおよびキーワード情報データベースとして利用される。   The storage unit 22 includes a random access memory (RAM), a read only memory (ROM), a flash memory, and the like. The ROM stores various operation programs. The RAM functions as a work area for temporarily storing various operation programs executed by the CPU, data necessary for executing these operation programs, and the like. The storage unit 22 is used as a person database and a keyword information database described later.

撮像素子23は、所定の対象を認識するために画像を撮影するカメラである。マイクロフォン24は、所定の対象が発話した音声データを取得するための音声入力装置である。   The imaging device 23 is a camera that captures an image to recognize a predetermined target. The microphone 24 is a voice input device for acquiring voice data spoken by a predetermined target.

移動部25は、ロボット1を移動させるための部位である。移動部25は、ロボットの足の底面に設けられた左右の車輪と、左右の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を備える。可動部26は、アクチュエータ等の駆動により変位する部位である。可動部26は、頭部2、手部4、足部5、尻尾部6等の被駆動部材と、アクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、を備える。   The moving unit 25 is a part for moving the robot 1. The moving unit 25 includes left and right wheels provided on the bottom surface of the robot's feet, motors for rotating the left and right wheels, and a drive circuit for driving and controlling the motors. The movable portion 26 is a portion that is displaced by driving of an actuator or the like. The movable unit 26 includes driven members such as the head 2, the hand 4, the foot 5, and the tail 6, a driving member such as an actuator, and a driving circuit that drives and controls the driving member.

スピーカ27は、制御部21により生成された音声データを音声に変換して外部に出力する。ロボット1は、所定の対象の発話内容に対応する音声をスピーカ27から出力することにより、所定の対象と簡単な会話をすることができる。表示装置28は、制御部21により生成されたロボット1の表情の画像を画面に表示する。   The speaker 27 converts the sound data generated by the control unit 21 into sound and outputs the sound to the outside. The robot 1 can have a simple conversation with the predetermined target by outputting a voice corresponding to the utterance content of the predetermined target from the speaker 27. The display device 28 displays an image of the expression of the robot 1 generated by the control unit 21 on a screen.

ロボットの制御装置30は、機能的には、図3に示すように、音声検出部31と、音声認識部32と、個人認証部33と、キーワード判定部34と、表情決定部35と、人物データベース36と、キーワード情報データベース37と、発話方向特定部38と、距離情報取得部39と、移動制御部40と、可動制御部41と、を備える。   As shown in FIG. 3, the control device 30 of the robot functionally includes a voice detection unit 31, a voice recognition unit 32, a personal authentication unit 33, a keyword determination unit 34, a facial expression determination unit 35, It includes a database 36, a keyword information database 37, an utterance direction identification unit 38, a distance information acquisition unit 39, a movement control unit 40, and a movable control unit 41.

音声検出部31および音声認識部32は、特許請求の範囲に記載の音声取得手段の一例である。個人認証部33は、特許請求の範囲に記載の個人認証手段の一例である。キーワード判定部34は、特許請求の範囲に記載の属性パラメータ取得手段の一例である。表情決定部35は、特許請求の範囲に記載の表情制御手段の一例である。キーワード情報データベース37は、特許請求の範囲に記載の属性パラメータデータベースの一例である。   The voice detection unit 31 and the voice recognition unit 32 are examples of a voice acquisition unit described in the claims. The personal authentication unit 33 is an example of a personal authentication unit described in the claims. The keyword determining unit 34 is an example of an attribute parameter acquiring unit described in the claims. The facial expression determination unit 35 is an example of a facial expression control unit described in the claims. The keyword information database 37 is an example of an attribute parameter database described in the claims.

音声検出部31は、マイクロフォン24で収音された音から所定の対象(ユーザを含む人間)による発話に含まれた音声を検出する。音声検出部31は、一定時間以上、例えば1.5秒以上、無音の区間が続いた場合に、この無音区間に基づいて発話を区切り、区切られた発話区間毎に音声データを検出する。音声認識部32は、音声検出部31で検出された音声データを、発話区間毎に音声認識し、周知の解析手法により解析することによって、テキストデータを生成する。   The sound detection unit 31 detects a sound included in an utterance by a predetermined target (a human including a user) from the sound collected by the microphone 24. When a silent section continues for a fixed time or more, for example, 1.5 seconds or more, the voice detecting unit 31 separates the utterance based on the silent section and detects voice data for each separated utterance section. The voice recognition unit 32 generates text data by performing voice recognition on the voice data detected by the voice detection unit 31 for each utterance section and analyzing the voice data using a well-known analysis method.

個人認証部33は、撮像素子23により撮像された所定の対象の画像データを、記憶部22内の個人に関する情報が登録された人物データベース36のデータと照合して、個人判定を行う。個人認証部33は、ロボットが撮像素子23により所定のフレームレート(例えば30fps)で撮像したフレーム画像から人物の顔を検出し、検出した顔が誰であるかを識別する。人物データベース36には、個人認証部33が認証する人物に関する情報が登録されている。具体的には、人物データベース36には、人物毎に人物IDと氏名と顔画像とが記憶されている。検出された顔画像と人物データベース36に登録されている顔画像とで、目の間の距離、顔の縦横の比率等の特徴量を比較して顔識別を行い、顔が誰であるかを確定する。   The personal authentication unit 33 compares the image data of the predetermined target imaged by the imaging element 23 with the data of the person database 36 in the information of the individual in the storage unit 22 in which the information on the individual is registered, and performs the individual determination. The personal authentication unit 33 detects a person's face from a frame image captured by the robot at a predetermined frame rate (for example, 30 fps) using the image sensor 23, and identifies the detected face. In the person database 36, information on the person to be authenticated by the personal authentication unit 33 is registered. Specifically, the person database 36 stores a person ID, a name, and a face image for each person. The detected face image and the face image registered in the person database 36 are compared with each other for feature amounts such as the distance between eyes and the aspect ratio of the face, and face identification is performed to determine who the face is. Determine.

キーワード判定部34は、音声認識部32が生成したテキストデータを解析し、キーワード情報データベース37のデータと照合して、テキストデータ内のキーワードとキーワードに紐付けられた表情決定情報を出力する。キーワード情報データベース37は個人別に区分けされており、個人認証部33により認証された個人情報に基づき、その個人に応じたキーワード情報を選択する。   The keyword determination unit 34 analyzes the text data generated by the voice recognition unit 32, compares the text data with the data in the keyword information database 37, and outputs keywords in the text data and expression determination information associated with the keywords. The keyword information database 37 is classified for each individual, and selects keyword information according to the individual based on the personal information authenticated by the individual authentication unit 33.

キーワード情報データベース37には、人の発話内容の属性を判断するための言葉が、キーワードとして単語単位、あるいは短い文章単位で登録されている。キーワードは、名詞、動詞、形容詞等様々な品詞を含んでいる。各キーワードには、その属性情報がタグ付けされている。このキーワードの属性情報は、表情の決定に利用される表情決定情報であり、特許請求の範囲に記載の属性パラメータの一例である。   In the keyword information database 37, words for determining the attributes of human utterance contents are registered as keywords in word units or short sentence units. Keywords include various parts of speech, such as nouns, verbs, and adjectives. Each keyword is tagged with its attribute information. The attribute information of the keyword is facial expression determination information used for determining a facial expression, and is an example of an attribute parameter described in the claims.

キーワードの属性情報は、ポジティブ、ネガティブ、ニュートラルに分類される。キーワードの属性情報がポジティブである状態には、当該キーワードが含まれる発話の発話内容が喜び・楽しさを表している状態や、安らぎを表している状態、興味を抱いている状態等が含まれる。例えば、「嬉しい」「楽しい」「面白い」等のキーワードは、ポジティブに分類される。キーワードの属性情報がネガティブである状態には、当該キーワードが含まれる発話の発話内容が怒り・悲しみを表している状態や、不安を表している状態、退屈を表している状態等が含まれる。例えば、「怖い」「悲しい」「つまらない」等のキーワードは、ネガティブに分類される。キーワードの属性情報がニュートラルである状態には、当該キーワードが含まれる発話の発話内容がポジティブおよびネガティブ以外の通常の状態が含まれる。発話内容の属性を判断するための言葉について、どのような言葉がどのような属性(ポジティブ、ネガティブ、ニュートラル)を表すかは、個人の経験、思い出、趣味、趣向等によって異なるため、同じ言葉であっても、人によってその言葉が含まれる発話内容の属性が異なる。したがって、キーワード情報データベース37は、個々の所定の対象別に異なる内容のデータを設けている。   The keyword attribute information is classified into positive, negative, and neutral. The state in which the attribute information of the keyword is positive includes a state in which the utterance content of the utterance including the keyword indicates joy / enjoyment, a state in which peace is expressed, a state in which the utterance is interested, and the like. . For example, keywords such as "happy", "fun", and "funny" are classified as positive. The state where the attribute information of the keyword is negative includes a state in which the utterance content of the utterance including the keyword indicates anger / sadness, a state indicating anxiety, a state indicating boredom, and the like. For example, keywords such as "scary", "sad", and "boring" are classified as negative. The state where the attribute information of the keyword is neutral includes a normal state in which the utterance content of the utterance including the keyword is other than positive and negative. Regarding the words used to determine the attributes of the utterance content, what words represent what attributes (positive, negative, neutral) depends on personal experiences, memories, hobbies, tastes, etc. Even so, the attribute of the utterance content including the word differs depending on the person. Therefore, the keyword information database 37 is provided with data having different contents for each predetermined target.

キーワード情報データベース37の構成の一例として、図5に示すように、所定の対象別にキーワードとキーワードの属性情報が記録されている。キーワードのうち、「嬉しい」「悲しい」「行く」について、ユーザA,Bのキーワードの属性情報は一致する。これに対して、「やばい」について、ユーザAのキーワードの属性情報はネガティブであるが、ユーザBのキーワードの属性情報はポジティブであり、換言すれば、両者AおよびBにおいて「やばい」が表す発話内容の属性は、互いに異なっている。このように個人に応じたキーワード情報を作成して、個人に見合った表情を決定するための情報を提供する。   As an example of the configuration of the keyword information database 37, as shown in FIG. 5, keywords and keyword attribute information are recorded for each predetermined target. Of the keywords, “happy”, “sad”, and “go” have the same attribute information of the keywords of the users A and B. On the other hand, the attribute information of the keyword of the user A is “negative”, but the attribute information of the keyword of the user B is positive, in other words, the utterance represented by the “yaw” in both A and B. The attributes of the contents are different from each other. In this way, keyword information corresponding to an individual is created, and information for determining a facial expression suitable for the individual is provided.

表情決定部35は、キーワード判定部34からのポジティブ、ネガティブ等の表情決定情報に基づいてロボットの表情を決定し、決定した表情に応じた画像を表示装置28に表示させる。このとき、所定の対象の今回の発話に含まれるキーワードから得られる表情決定情報のみならず、連続して取得される2つのキーワードから得られる2つの表情決定情報に基づいて表情を決定する。すなわち、前回の発話に含まれるキーワードから得られる表情決定情報と、今回の発話に含まれるキーワードから得られる表情決定情報との関係に基づいて、表情を決定する。   The facial expression determination unit 35 determines the facial expression of the robot based on the facial expression determination information such as positive or negative from the keyword determination unit 34, and causes the display device 28 to display an image corresponding to the determined facial expression. At this time, the facial expression is determined based on not only the facial expression determination information obtained from the keywords included in the current utterance of the predetermined target, but also two facial expression determination information obtained from two keywords that are continuously acquired. That is, the expression is determined based on the relationship between the expression determination information obtained from the keyword included in the previous utterance and the expression determination information obtained from the keyword included in the current utterance.

発話方向特定部38は、所定の対象からの発話に応じて、左右一対の耳部7のそれぞれに設けられたマイクロフォン24で取得される音声の位相差あるいは音量の差を把握することによって、発話方向を特定する。距離情報取得部39は、撮像素子23から所定の対象との距離情報を得る。距離情報は、撮像素子のオートフォーカス機能により取得する。なお、距離情報は、距離センサを設けることによって取得してもよい。移動制御部40は、動作プログラムを実行することにより、例えば発話方向特定部38、距離情報取得部39から取得したデータに基づき、ロボット1を移動させるための制御信号を生成して移動部25に入力することにより、ロボット1の移動動作を制御する。可動制御部41は、動作プログラムを実行することにより、可動部26の動作を制御する。   The utterance direction identification unit 38 recognizes a phase difference or a volume difference between sounds acquired by the microphones 24 provided in each of the pair of left and right ears 7 in accordance with the utterance from the predetermined object, thereby making the utterance. Specify the direction. The distance information obtaining unit 39 obtains distance information from the image sensor 23 to a predetermined target. The distance information is obtained by the autofocus function of the image sensor. Note that the distance information may be obtained by providing a distance sensor. By executing the operation program, the movement control unit 40 generates a control signal for moving the robot 1 based on, for example, data acquired from the speech direction identification unit 38 and the distance information acquisition unit 39, and sends the control signal to the movement unit 25. By inputting, the movement of the robot 1 is controlled. The movable control unit 41 controls the operation of the movable unit 26 by executing an operation program.

次に、所定の対象がロボット1に対して話しかけた時のロボット1の動作について説明する。所定の対象がロボット1に対して話しかけると、ロボット1は耳部7に設けられたマイクロフォン24で所定の対象の音声を収集する。所定の対象からの発話に応じて、発話方向特定部38は、発話方向を特定する。方向が特定されると、移動制御部40は、特定された方向に向かってロボット1を移動するために移動部25を制御する。さらに、距離情報取得部39は、撮像素子23から所定の対象と距離情報を得る。   Next, an operation of the robot 1 when a predetermined object talks to the robot 1 will be described. When a predetermined target speaks to the robot 1, the robot 1 collects a voice of the predetermined target using a microphone 24 provided in the ear 7. The utterance direction specifying unit 38 specifies the utterance direction according to the utterance from the predetermined target. When the direction is specified, the movement control unit 40 controls the moving unit 25 to move the robot 1 in the specified direction. Further, the distance information obtaining unit 39 obtains predetermined target and distance information from the image sensor 23.

ロボット1は、所定の対象からの発話に応じて、所定の対象との相対的位置関係を特定する。移動制御部40は、距離情報取得部39が取得した距離情報と発話方向特定部38が取得した発話方向の情報に基づいてロボット1と所定の対象との相対的位置関係を特定する。そして、移動制御部40は、所定の対象に向かって移動するための制御信号を生成し、この信号を移動部25に入力する。これにより移動制御部40は移動部25の動作を制御する。移動制御部40は、ロボットと所定の対象との距離が所定距離に達したと判定すると、移動部25の動作を停止する。   The robot 1 specifies a relative positional relationship with a predetermined target according to an utterance from the predetermined target. The movement control unit 40 specifies the relative positional relationship between the robot 1 and a predetermined target based on the distance information acquired by the distance information acquisition unit 39 and the information on the speech direction acquired by the speech direction identification unit 38. Then, the movement control unit 40 generates a control signal for moving toward a predetermined target, and inputs this signal to the moving unit 25. Thus, the movement control unit 40 controls the operation of the moving unit 25. The movement control unit 40 stops the operation of the movement unit 25 when determining that the distance between the robot and the predetermined target has reached the predetermined distance.

以上により、ロボット1は所定の対象に近づく。その後、所定の対象の個人認証を行い、所定の対象の発話内容からキーワード判定処理により表情決定に利用するキーワードとその属性情報を取得する。   As described above, the robot 1 approaches a predetermined target. Thereafter, personal authentication of a predetermined target is performed, and a keyword to be used for expression determination and attribute information thereof are acquired from the utterance content of the predetermined target by keyword determination processing.

次に、図4に示すフローチャートを参照しながら、キーワード判定処理について説明する。キーワード判定部34は、所定の対象の発話を音声認識してテキスト化したテキストデータを、音声認識部32から取得する(ステップS101)。キーワード判定部34は、個人認証された所定の対象の個人情報を、個人認証部33から取得する(ステップS102)。所定の対象を特定する個人情報を取得すると、キーワード判定部34は、取得された個人情報に基づき、その個人用のキーワード情報を選択する(ステップS103)。続いてキーワード判定部34は、選択された個人用のキーワード情報とテキストデータを照合して、一致するキーワードとそのキーワードにタグ付けされている属性情報[Property_0]を取得し、記憶部22に記憶する(ステップS104)。このように、所定の対象を認証して、その所定の対象に応じた個人用のキーワード情報データベースを利用できるので、より個人の感覚に合わせた表情決定を行うことができる。   Next, the keyword determination processing will be described with reference to the flowchart shown in FIG. The keyword determination unit 34 acquires text data obtained by voice-recognizing a predetermined target utterance and converting it into text, from the voice recognition unit 32 (step S101). The keyword determination unit 34 acquires the personal information of the predetermined target that has been personally authenticated from the personal authentication unit 33 (step S102). When acquiring the personal information for specifying the predetermined target, the keyword determination unit 34 selects the keyword information for the individual based on the acquired personal information (step S103). Subsequently, the keyword determination unit 34 collates the selected individual keyword information with the text data, acquires a matching keyword and attribute information [Property_0] tagged with the keyword, and stores the keyword in the storage unit 22. (Step S104). As described above, since a predetermined target is authenticated and a personal keyword information database corresponding to the predetermined target can be used, the facial expression can be determined in accordance with the sense of the individual.

キーワードの属性情報(表情決定情報)が取得されると、表情決定部35は、取得されたキーワードの属性情報を用いてロボット1の表情を決定する。図6に示すフローチャートを参照しながら、ロボット1の表情を決定するための表情決定処理について説明する。   When the keyword attribute information (expression determination information) is acquired, the expression determining unit 35 determines the expression of the robot 1 using the acquired keyword attribute information. The facial expression determination processing for determining the facial expression of the robot 1 will be described with reference to the flowchart shown in FIG.

表情決定部35は、表情決定処理が開始されると、まず、キーワード判定部34から取得したキーワードの属性情報[Property_0]が不明であるか否か判断する(ステップS201)。音声認識部32から取得したテキストデータをキーワード情報データベース37と照合しても該当するキーワードが存在しない場合がある。この場合、今回の属性情報[Property_0]が不明であると判断される(ステップS201:Yes)。   When the facial expression determining process is started, first, the facial expression determining unit 35 determines whether the attribute information [Property_0] of the keyword acquired from the keyword determining unit 34 is unknown (Step S201). Even if the text data acquired from the voice recognition unit 32 is compared with the keyword information database 37, there is a case where the corresponding keyword does not exist. In this case, it is determined that the current attribute information [Property_0] is unknown (step S201: Yes).

今回の属性情報[Property_0]が不明であると判断されると、ロボットの表情として、「通常」の表情が決定される(ステップS202)。「通常」の表情は、嬉しい、楽しい等のポジティブな感情を示す表情でもなく、悲しい、つまらない等のネガティブな感情を示す表情でもない、平穏な状況における表情である。「通常」の表情は、図11(A)に示すように、瞼は開いた状態であり、瞳に対する瞳孔の径が半分程度である。決定された通常の表情の画像データは、表示装置28に送られ、表示装置28は通常の表情の画像を表示する。すなわち、所定の対象の発話に対して発話内容に応じた自然な対応として通常の表情がなされる。   If it is determined that the current attribute information [Property_0] is unknown, a “normal” expression is determined as the expression of the robot (step S202). The expression “normal” is an expression in a calm situation that is neither an expression showing a positive emotion such as happy or fun nor an expression showing a negative emotion such as sad or boring. As shown in FIG. 11A, the expression of “normal” is a state in which the eyelids are open and the diameter of the pupil with respect to the pupil is about half. The determined normal expression image data is sent to the display device 28, and the display device 28 displays the normal expression image. That is, a normal expression is given to the utterance of the predetermined target as a natural correspondence according to the utterance content.

今回の属性情報[Property_0]が不明ではないと判断されると(ステップS201:No)、今回の属性情報が、「ポジティブ」であるか否かが判断される(ステップS203)。今回の属性情報が「ポジティブ」であると判断されると(ステップS203:Yes)、所定の対象に喜ばしいことがあったと判断し、ロボットの表情として、「嬉しい」表情が決定される(ステップS204)。属性情報がポジティブである時の表情として広く適用可能な表情は、「嬉しい」表情であり、所定の対象の発話に対する反応として違和感なく受け入れられる。「嬉しい」表情は、図11(B)に示すように。瞼を開いた状態であって、瞳孔がほぼ瞳と同じ大きさであり、瞳に外光の映り込みが楕円、星形、三日月形状で多数表されている状態である。目をキラキラさせた表情が表されている。   When it is determined that the current attribute information [Property_0] is not unknown (step S201: No), it is determined whether the current attribute information is “positive” (step S203). If the current attribute information is determined to be "positive" (step S203: Yes), it is determined that the predetermined object has been pleased, and a "happy" expression is determined as the expression of the robot (step S204). ). A facial expression that can be widely applied as a facial expression when the attribute information is positive is a “happy” facial expression, which is accepted without any discomfort as a reaction to the utterance of the predetermined target. The “happy” expression is as shown in FIG. This is a state in which the eyelids are open, the pupil is almost the same size as the pupil, and a large number of reflections of external light are represented in the pupil by ellipses, stars, and crescents. The expression that sparkles his eyes is shown.

今回の属性情報が「ポジティブ」でない場合(ステップS203:No)、属性情報が「ネガティブ」であるか否かが判断される(ステップS205)。今回の属性情報が「ネガティブ」であると判断されると(ステップS205:Yes)、所定の対象に悲しいこと、不満なことがあったと判断し、ロボットの表情として、「心配」の表情が決定される(ステップS206)。「心配」の表情は、図11(C)に示すように、瞼が少し下げられ、瞳が上に向いた状態である。   If the current attribute information is not “positive” (step S203: No), it is determined whether the attribute information is “negative” (step S205). If it is determined that the current attribute information is “negative” (step S205: Yes), it is determined that the predetermined object has been sad or dissatisfied, and the expression “worried” is determined as the expression of the robot. Is performed (step S206). The expression of “worried” is a state in which the eyelids are slightly lowered and the pupil is upward, as shown in FIG.

今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS205:No)、今回の属性情報が「ニュートラル」であると判断される(ステップS207)。この場合、キーワードで表される発話内容がポジティブでもネガティブでもなかったため、瞳孔変化・瞬きなどで認識していることを表す表情とする(ステップS208)。図11(D)に示すように、「瞳孔変化」の表情は、瞳孔の大きさが徐々に大きくなるように変化していくとともに、瞼を複数回上下させて瞬きを行う。   If the current attribute information is neither “positive” nor “negative” (step S205: No), it is determined that the current attribute information is “neutral” (step S207). In this case, since the content of the utterance represented by the keyword is neither positive nor negative, the expression is set to indicate that the utterance is recognized by pupil change / blinking or the like (step S208). As shown in FIG. 11D, the expression of “pupil change” changes so that the size of the pupil gradually increases, and blinks the eyelid up and down a plurality of times.

今回の属性情報が判断され、ステップS202,S204,S206,S208のいずれかの実行により表情が決定されると、続くテキストデータがあるか否か判断される(ステップS209)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS209:Yes)、図7に示す次の処理ステップS301に進む。続くテキストデータがない場合(ステップS209:No)、処理を終了する。   When the current attribute information is determined and the facial expression is determined by executing any of steps S202, S204, S206, and S208, it is determined whether or not there is subsequent text data (step S209). If the utterance by the predetermined object continues and there is subsequent text data (step S209: Yes), the process proceeds to the next processing step S301 shown in FIG. If there is no subsequent text data (step S209: No), the process ends.

図6における処理ステップは、表情決定処理の開始直後の初回に実行されるステップであるため、それ以前に取得されたキーワードはない。したがって、今回の属性情報のみに基づいてロボット1の表情を決定した。これに対して、図7以降においては、前回に取得されたキーワードの属性情報と今回取得されたキーワードの属性情報との関係に基づいて表情を決定する。すなわち、発話の流れを属性情報の遷移で読み取り、所定の対象の発話の流れに沿った表情を選択する。   Since the processing steps in FIG. 6 are executed at the first time immediately after the start of the facial expression determination processing, there is no keyword acquired before that. Therefore, the expression of the robot 1 is determined based only on the current attribute information. On the other hand, in FIG. 7 and subsequent figures, the expression is determined based on the relationship between the attribute information of the keyword acquired last time and the attribute information of the keyword acquired this time. That is, the flow of the utterance is read based on the transition of the attribute information, and an expression along the utterance flow of a predetermined target is selected.

まず図6の処理で取得したキーワードの属性情報[Property_0]を前回の属性情報[Property_1]にシフトする(ステップS301)。すなわち、[Property_0]=[Property_1]とする。なお、後述するように、図7から図10のそれぞれの処理において、次のテキストデータがある場合、ステップS301に戻る。この場合は、図7から図10のそれぞれの処理で取得されたキーワードの属性情報[Property_0]を前回の属性情報[Property_1]にシフトする。表情決定部35は、前回の属性情報[Property_1]が不明であるか否かを判断する(ステップS302)。前回の属性情報が不明である場合(ステップS302:Yes)、今回新たにキーワード判定部34から取得された今回の属性情報[Property_0]が不明であるか否かが判断される(ステップS303)。前回の属性情報および今回の属性情報がいずれも不明である場合(ステップS303:Yes)、ロボットの表情を「通常」の表情のまま維持する(ステップS304)。   First, the attribute information [Property_0] of the keyword acquired in the process of FIG. 6 is shifted to the previous attribute information [Property_1] (step S301). That is, [Property_0] = [Property_1]. As described later, in each of the processes of FIGS. 7 to 10, when there is the next text data, the process returns to step S301. In this case, the attribute information [Property_0] of the keyword acquired in each processing of FIGS. 7 to 10 is shifted to the previous attribute information [Property_1]. The facial expression determining unit 35 determines whether the previous attribute information [Property_1] is unknown (step S302). If the previous attribute information is unknown (step S302: Yes), it is determined whether the current attribute information [Property_0] newly acquired from the keyword determination unit 34 is unknown (step S303). If neither the previous attribute information nor the current attribute information is unknown (step S303: Yes), the expression of the robot is maintained as “normal” (step S304).

今回の属性情報が不明でない場合(ステップS303:No)、今回の属性情報が「ポジティブ」であるか否かが判断される(ステップS305)。前回の属性情報が不明で、かつ、今回の属性情報が「ポジティブ」である場合(ステップS305:Yes)、喜ばしいことがあったと判断し、「嬉しい」表情とすることを決定する(ステップS306)。   If the current attribute information is not unknown (step S303: No), it is determined whether the current attribute information is “positive” (step S305). If the previous attribute information is unknown and the current attribute information is “positive” (step S305: Yes), it is determined that there is something happy, and it is determined that the expression is “happy” (step S306). .

今回の属性情報が「ポジティブ」でない場合(ステップS305:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS307)。前回の属性情報が不明で、かつ、今回の属性情報が「ネガティブ」であると判断されると(ステップS307:Yes)、ユーザの発話内容が悲しい内容・不満な内容であると判断し、ロボットの表情として、「心配」の表情とすることを決定する(ステップS308)。   If the current attribute information is not “positive” (step S305: No), it is determined whether the current attribute information is “negative” (step S307). If it is determined that the previous attribute information is unknown and the current attribute information is “negative” (step S307: Yes), it is determined that the content of the utterance of the user is sad or dissatisfied, and the robot Is determined to be the expression of “worried” (step S308).

今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS307:No)、前回の属性情報が不明で、かつ、今回の属性情報が「ニュートラル」であると判断する(ステップS309)。「ニュートラル」の場合、発話の続きを引き出すために、瞳孔変化・瞬きなどで認識していることを表す表情とする(ステップS310)。   If the current attribute information is neither “positive” nor “negative” (step S307: No), it is determined that the previous attribute information is unknown and the current attribute information is “neutral” (step S309). In the case of "neutral", in order to bring out the continuation of the utterance, the expression is set to an expression indicating that recognition is made by pupil change, blinking, or the like (step S310).

属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS311)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS311:Yes)、処理ステップS301に移動する。続くテキストデータがない場合(ステップS311:No)、処理を終了する。   When the attribute information is determined and the facial expression is determined, it is determined whether or not there is subsequent text data (step S311). If the utterance by the predetermined target continues and there is text data to follow (step S311: Yes), the process moves to processing step S301. If there is no subsequent text data (step S311: No), the process ends.

前回の属性情報が不明でない場合(ステップS302:No)、図8の処理ステップに進み、前回の属性情報が「ポジティブ」であるか否かが判断される(ステップS401)。前回の属性情報が「ポジティブ」であった場合(ステップS401:Yes)、続いて今回の属性情報が不明であるか否かが判断される(ステップS402)。   If the previous attribute information is not unknown (Step S302: No), the process proceeds to the processing step in FIG. 8, and it is determined whether the previous attribute information is “positive” (Step S401). If the previous attribute information is “positive” (step S401: Yes), it is determined whether the current attribute information is unknown (step S402).

今回の属性情報が不明である場合(ステップS402:Yes)、所定の対象の発話内容は前回のポジティブの状態を継承するため、 ロボットの表情として、「ご機嫌」の表情とすることを決定する(ステップS403)。図12(A)に示すように、「ご機嫌」の表情は、目の中心に三日月形状の瞳が表示されている状態である。「嬉しい」表情よりは、時間が経過したことにより落ち着いた表情ではあるが、機嫌の良い表情を表している。   If the current attribute information is unknown (step S402: Yes), the utterance content of the predetermined object inherits the previous positive state, so that it is determined that the expression of the robot is “good mood”. (Step S403). As shown in FIG. 12A, the expression of “good mood” is a state in which a crescent-shaped pupil is displayed at the center of the eye. The expression is more calm as time passes than the "happy" expression, but expresses a good mood.

反対に、今回の属性情報が不明でない場合(ステップS402:No)、今回の属性情報が、「ポジティブ」であるか否かが判断される(ステップS404)。前回の属性情報および今回の属性情報のいずれもが「ポジティブ」であった場合(ステップS404:Yes)、属性情報が連続して「ポジティブ」となることから、発話内容で表される嬉しさや楽しさ等がさらに増したと判断し、ロボットの表情として、「感激」の表情とすることを決定する(ステップS405)。図12(B)に示すように、「感激」の表情は、瞳孔が瞳とほぼ同じ大きさとなった状態であって、瞳は外光の映り込みが楕円と三日月形状で複数箇所表示され、目の下部には楕円で涙が表示されている状態である。感激したことにより、感極まって目を潤ませて涙を浮かべている表情を表している。   Conversely, if the current attribute information is not unknown (step S402: No), it is determined whether the current attribute information is “positive” (step S404). If both the previous attribute information and the current attribute information are “positive” (step S404: Yes), the attribute information becomes “positive” continuously, so the joy and enjoyment expressed by the utterance content It is determined that the expression has further increased, and it is determined that the expression of the robot is “expressed” (step S405). As shown in FIG. 12 (B), the expression of “excitement” is a state in which the pupil is almost the same size as the pupil, and the pupil is displayed at a plurality of places in the form of an ellipse and a crescent shape with reflection of external light, An elliptical tear is displayed below the eye. The emotional expression expresses the expression of tears and moisturizing eyes.

今回の属性情報が「ポジティブ」でなかった場合(ステップS404:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS406)。前回の属性情報が「ポジティブ」で、かつ、今回の属性情報が「ネガティブ」であると判断された場合(ステップS406:Yes)、属性情報が「ポジティブ」から「ネガティブ」に変わったことから、発話内容が嬉しさや楽しさから悲しさに変わったと判断し、ロボットの表情として、「戸惑い」の表情とすることを決定する(ステップS407)。図12(C)に示すように、「戸惑い」の表情は、右目の瞼が少し下げられ、瞳孔の径が瞳の3分の1程度の状態である。瞳孔を小さくすることによって戸惑いの表情を表している。   If the current attribute information is not “positive” (step S404: No), it is determined whether the current attribute information is “negative” (step S406). If it is determined that the previous attribute information is “positive” and the current attribute information is “negative” (step S406: Yes), the attribute information has changed from “positive” to “negative”. It is determined that the content of the utterance has changed from joy or pleasure to sadness, and it is determined that the expression of the robot is "embarrassed" (step S407). As shown in FIG. 12C, the expression of “confused” is a state in which the right eyelid is slightly lowered and the diameter of the pupil is about one third of the pupil. The pupil is made smaller to express a confused expression.

今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS406:No)、前回の属性情報が「ポジティブ」で、かつ、今回の属性情報が「ニュートラル」であると判断される(ステップS408)。この場合、属性情報は、「ポジティブ」から「ニュートラル」に変化していることから、発話内容が嬉しさや楽しさから変化がないが他のキーワードが認識されている状態であり、今後の話の展開を期待するように、ロボットの表情として、「期待」の表情が決定される(ステップS409)。図12(D)に示すように、「期待」の表情は、「嬉しい」表情に対して瞳孔の大きさおよび外光の映り込みが多少少ない状態である。目を輝かせて期待の表情を表している。   If the current attribute information is neither “positive” nor “negative” (step S406: No), it is determined that the previous attribute information is “positive” and the current attribute information is “neutral” (step S406). S408). In this case, since the attribute information has changed from "positive" to "neutral", the content of the utterance does not change from joy or enjoyment, but other keywords are recognized. The expression of "expectation" is determined as the expression of the robot so as to expect the development (step S409). As shown in FIG. 12D, the expression of “expectation” is a state in which the size of the pupil and the reflection of external light are somewhat less than the expression of “happy”. She shines her eyes and expresses the expression of expectations.

属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS410)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS410:Yes)、図7の処理ステップS301に移動する。続くテキストデータがない場合(ステップS410:No)、処理を終了する。   When the attribute information is determined and the facial expression is determined, it is determined whether or not there is subsequent text data (step S410). If the utterance by the predetermined object continues and there is subsequent text data (step S410: Yes), the process moves to the processing step S301 in FIG. If there is no subsequent text data (step S410: No), the process ends.

一方、前回の属性情報が「ポジティブ」でなかった場合(ステップS401:No)、図9の処理ステップに進む。この場合、前回の属性情報が「ネガティブ」であるか否かが判断される(ステップS501)。前回の属性情報が「ネガティブ」であると判断されると(ステップS501:Yes)、今回の属性情報が不明であるか否かが判断される(ステップS502)。   On the other hand, when the previous attribute information is not “positive” (step S401: No), the process proceeds to the processing step of FIG. In this case, it is determined whether the previous attribute information is “negative” (step S501). When it is determined that the previous attribute information is “negative” (Step S501: Yes), it is determined whether the current attribute information is unknown (Step S502).

今回の属性情報が不明である場合(ステップS502:Yes)、前回の属性情報が「ネガティブ」であることから、ロボットの表情として、「落ち込み」の表情とすることを決定する(ステップS503)。今回の属性情報が「ネガティブ」で、それのみにより表情を決定する場合、前記ステップS206で説明したように「心配」の表情とするが、上記のような場合には、発話の内容が好転せず、ネガティブの状態が続いているとみなして、「落ち込み」の表情とされる。図13(A)に示すように、「落ち込み」の表情は、瞼が目の半分近くさがり、瞳が下に位置している状態である。「心配」の表情よりも、瞼は下がり、うつむき加減の表情が表されている。   If the current attribute information is unknown (step S502: Yes), since the previous attribute information is “negative”, it is determined that the expression of the robot is “declined” (step S503). If the current attribute information is “negative” and the facial expression is determined based solely on it, the expression “worried” is used as described in step S206. In the above case, however, the content of the utterance can be turned around. Instead, it is considered that the negative state is continuing, and the expression of “fall” is given. As shown in FIG. 13A, the expression of “depression” is a state in which the eyelids are close to half of the eyes and the pupils are located below. The eyes are lower than the expression of "anxiety", and the expression of depression and depression is expressed.

今回の属性情報が不明でない場合(ステップS502:No)、今回の属性情報が「ポジティブ」であるか否かが判断される(ステップS504)。前回の属性情報が「ネガティブ」で、かつ、今回の属性情報が「ポジティブ」である場合(ステップS504:Yes)、属性情報が「ネガティブ」から「ポジティブ」に変化することから、発話内容の属性が悲しみや怒り等から嬉しさや楽しさ等に変わったと判断し 、ロボットの表情として、「安心」の表情とすることを決定する(ステップS505)。図13(B)に示すように、「安心」の表情は、三日月形状の瞳が斜め下に向けて配置されている状態である。目が垂れた状態としてほっとした表情を表している。   If the current attribute information is not unknown (Step S502: No), it is determined whether the current attribute information is “positive” (Step S504). If the previous attribute information is “negative” and the current attribute information is “positive” (step S504: Yes), the attribute information changes from “negative” to “positive”, and the attribute of the utterance content is changed. Is determined to have changed from sadness, anger, etc. to joy, pleasure, etc., and it is determined that the expression of the robot should be the expression of "relief" (step S505). As shown in FIG. 13B, the expression “relieved” is a state in which the crescent-shaped pupil is arranged obliquely downward. The expression is relieved as the eyes are drooping.

今回の属性情報が「ポジティブ」でない場合(ステップS504:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS506)。前回の属性情報および今回の属性情報がいずれも「ネガティブ」である場合(ステップS506:Yes)、属性情報が「ネガティブ」である状態が連続することになるから、発話内容で表された悲しみ、不満等がさらに増したと想定し、ロボットの表情として、「悲しみ」の表情とすることを決定する(ステップS507)。図13(C)に示すように、「悲しみ」の表情は、瞼が目の3分の2程度まで下がり、瞳が目の下に位置し、目の下部に楕円状の涙が位置している状態である。「落ち込み」の表情よりもさらに瞼を下げて、涙を浮かべることにより「悲しみ」の表情を表している。   If the current attribute information is not “positive” (step S504: No), it is determined whether the current attribute information is “negative” (step S506). When both the previous attribute information and the current attribute information are “negative” (step S506: Yes), the state in which the attribute information is “negative” is continuous, so the sadness expressed by the utterance content, Assuming that dissatisfaction and the like have further increased, it is determined that the expression of the robot should be the expression of "sadness" (step S507). As shown in FIG. 13C, the expression of "sadness" is a state in which the eyelids are lowered to about two thirds of the eyes, the pupils are located below the eyes, and the elliptical tears are located below the eyes. is there. The expression of "sadness" is expressed by lowering the eyelids more than the expression of "depression" and tearing.

今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS506:No)、前回の属性情報が「ネガティブ」で、かつ、今回の属性情報が「ニュートラル」であると判断する(ステップS508)。この場合、属性情報が「ネガティブ」から「ニュートラル」に変化することから、所定の対象の発話内容が悲しみの状態から変化がないが他のキーワードが認識されている状態であり、今後の話の展開がどうなるか気になるように、ロボットの表情として、「不安」の表情とすることに決定する(ステップS509)。図13(D)に示すように、「不安」の表情は、瞼が目の4分の1程度下がり、瞳と瞳孔が目の下に位置している状態である。「心配」の表情よりも瞼が下がって、うつむき加減であり、状況が定まらず不安な表情が表されている。   If the current attribute information is neither “positive” nor “negative” (step S506: No), it is determined that the previous attribute information is “negative” and the current attribute information is “neutral” (step S508). ). In this case, since the attribute information changes from “negative” to “neutral”, the utterance content of the predetermined target does not change from the state of sadness, but other keywords are recognized. It is determined that the expression of the robot is “anxiety” so as to be worried about the development (step S509). As shown in FIG. 13D, the expression of “anxiety” is a state where the eyelids are lowered by about a quarter and the pupil and the pupil are located below the eyes. The eyelids are lower than the expression of "worry", the depression is moderate, and the situation is uncertain and an uneasy expression is expressed.

属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS510)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS510:Yes)、図7の処理ステップS301に移動する。続くテキストデータがない場合(ステップS510:No)、処理を終了する。   When the attribute information is determined and the facial expression is determined, it is determined whether or not there is subsequent text data (step S510). If the utterance by the predetermined object continues and there is subsequent text data (step S510: Yes), the process moves to the processing step S301 in FIG. If there is no subsequent text data (step S510: No), the process ends.

前回の属性情報が不明でなく、かつ、「ポジティブ」でも「ネガティブ」でもなかった場合(ステップS501:No)、図10の処理ステップに進む。この場合、前回の属性情報が「ニュートラル」であると判断される(ステップS601)。   If the previous attribute information is unknown and neither “positive” nor “negative” (step S501: No), the process proceeds to the processing steps in FIG. In this case, it is determined that the previous attribute information is "neutral" (step S601).

続いて今回の属性情報が不明であるか否かが判断される(ステップS602)。今回の属性情報が不明である場合(ステップS602:Yes)、前回の属性情報が「ニュートラル」であり、キーワードで表される発話内容がポジティブでもネガティブでもないため、ロボットの表情として、伺うように確認するような表情とすることに決定する(ステップS603)。図14(A)に示すように、「確認」の表情は、瞳と瞳孔が目の上に位置している状態である。上目使いで伺うような表情を表している。今回の属性情報が不明でない場合(ステップS602:No)、今回の属性情報が「ポジティブ」であるか否かが判断される(ステップS604)。   Next, it is determined whether the current attribute information is unknown (step S602). If the current attribute information is unknown (step S602: Yes), the previous attribute information is "neutral", and the utterance content represented by the keyword is neither positive nor negative, so that the robot is asked as the expression of the robot. It is determined that the expression should be such as to be confirmed (step S603). As shown in FIG. 14A, the expression of “confirmation” is a state in which the pupil and the pupil are located above the eyes. It expresses the expression as if you ask it with an upper eye. If the current attribute information is not unknown (step S602: No), it is determined whether the current attribute information is “positive” (step S604).

前回の属性情報が「ニュートラル」で、かつ、今回の属性情報が「ポジティブ」である場合(ステップS604:Yes)、属性情報は「ニュートラル」から「ポジティブ」に変化する。この場合、所定の対象の発話内容に嬉しいことがあったと想定し、ロボットの表情として、「嬉しい」表情とすることに決定する(ステップS605)。図14(B)は、「嬉しい」表情の例を示す。今回の属性情報が「ポジティブ」でない場合(ステップS604:No)、今回の属性情報が「ネガティブ」であるか否かが判断される(ステップS606)。   If the previous attribute information is “neutral” and the current attribute information is “positive” (step S604: Yes), the attribute information changes from “neutral” to “positive”. In this case, it is assumed that the utterance content of the predetermined target is happy, and the expression of the robot is determined to be “happy” (step S605). FIG. 14B shows an example of a “happy” expression. If the current attribute information is not “positive” (step S604: No), it is determined whether the current attribute information is “negative” (step S606).

前回の属性情報が「ニュートラル」で、かつ、今回の属性情報が「ネガティブ」である場合(ステップS606:Yes)、属性情報は「ニュートラル」から「ネガティブ」に変化し、所定の対象の発話内容に悲しいこと・不満なことがあったと判断して、ロボットの表情として、「心配」の表情とすることに決定する(ステップS607)。図14(C)は、「心配」の表情の例を示す。   If the previous attribute information is “neutral” and the current attribute information is “negative” (step S606: Yes), the attribute information changes from “neutral” to “negative” and the utterance content of the predetermined target It is determined that there is something sad or dissatisfied, and the expression of the robot is determined to be the expression of "worried" (step S607). FIG. 14C shows an example of an expression of “worried”.

今回の属性情報が「ポジティブ」でも「ネガティブ」でもない場合(ステップS606:No)、前回の属性情報および今回の属性情報がいずれも「ニュートラル」であると判断される(ステップS608)。属性情報は「ニュートラル」が連続しており、キーワードで表される発話内容がポジティブでもネガティブでもなかったため、次の発話を引き出すべく、ロボットの表情として、瞳孔変化・瞬きなどで認識していることを表す表情とすることに決定する(ステップS609)。図14(D)は、「瞳孔変化」の表情の例を示す。   If the current attribute information is neither “positive” nor “negative” (step S606: No), it is determined that both the previous attribute information and the current attribute information are “neutral” (step S608). The attribute information is "neutral" in succession, and the utterance content expressed by the keyword was neither positive nor negative, so the robot's facial expression was recognized by pupil change, blinking, etc. to elicit the next utterance Is determined (step S609). FIG. 14D shows an example of an expression of “pupil change”.

属性情報が判断され、表情が決定されると、続くテキストデータがあるか否か判断される(ステップS610)。所定の対象による発話が続き、続くテキストデータがある場合(ステップS610:Yes)、図7の処理ステップS301に移動する。続くテキストデータがない場合(ステップS610:No)、処理を終了する。   When the attribute information is determined and the expression is determined, it is determined whether or not there is subsequent text data (step S610). If the utterance by the predetermined object continues and there is text data to follow (step S610: Yes), the process moves to the processing step S301 in FIG. If there is no subsequent text data (step S610: No), the process ends.

以上のように、表情決定処理が開始されてから2回目の表情の決定が実行された以降、前回の属性情報と今回の属性情報との関係に基づいて表情が決定され、そのような表情の決定手法が繰り返し実行される。   As described above, after the second facial expression determination is performed after the start of the facial expression determination process, the facial expression is determined based on the relationship between the previous attribute information and the current attribute information, and such a facial expression is determined. The decision method is repeatedly executed.

上記の表情決定処理と表情の例に基づいて、所定の対象が話しかけた場合においてロボットの表情がどのように変化するかについて、一例を図15に示す。所定の対象が以下に示すようにロボット1に話しかけたとする。
「昨日お友達とおしゃれランチしてきたの」
「でもハプニングが・・・」
「店員のミスで予約取れて無くて・・・ 本当に焦っちゃったのよ」
所定の対象がロボットに対して、「昨日お友達とおしゃれランチしてきたの」と、話かけると、音声検出部31は所定の対象の音声を検出し、音声認識部32は検出された所定の対象の音声データをテキスト化する。テキストデータは、キーワード判定部34に送られる。キーワード判定部34は、テキストデータを所定の対象に応じたキーワード情報データベース37と照合して、キーワードとこれにタグ付けされた属性情報を取得する。ここでは、「おしゃれランチ」+「した」のキーワードと、その属性情報として「ポジティブ」を取得する。表情決定部35は取得された属性情報から表情決定処理を実行する。この場合、図6の表情決定処理のステップS203のYesに該当し、続くステップS204により、「嬉しい」表情が決定される。ロボット1の表情はこの決定に基づき「嬉しい」表情に変化する。
FIG. 15 shows an example of how the expression of the robot changes when a predetermined object speaks based on the above-described expression determination process and the example of the expression. It is assumed that a predetermined target has spoken to the robot 1 as described below.
"I had a stylish lunch with my friends yesterday."
"But the incident is ..."
"I couldn't make a reservation because of a clerk's mistake ... I was really impatient."
When the predetermined object speaks to the robot, "I had a stylish lunch with a friend yesterday," the voice detecting unit 31 detects the voice of the predetermined object, and the voice recognizing unit 32 detects the predetermined predetermined voice. Convert the target audio data to text. The text data is sent to the keyword determination unit 34. The keyword determination unit 34 compares the text data with a keyword information database 37 corresponding to a predetermined target, and acquires a keyword and attribute information tagged with the keyword. Here, a keyword of “fashionable lunch” + “had” and “positive” as its attribute information are acquired. The facial expression determining unit 35 executes a facial expression determining process from the acquired attribute information. In this case, this corresponds to Yes in step S203 of the facial expression determination process in FIG. 6, and a “happy” facial expression is determined in subsequent step S204. The expression of the robot 1 changes to a “happy” expression based on this determination.

続いて所定の対象は、「でもハプニングが・・・」と発話する。キーワード判定部34は、キーワードとして「ハプニング」を抽出し、その属性情報として「ネガティブ」を取得する。前回のキーワード「おしゃれランチ」+「した」の属性情報は「ポジティブ」であったことから、属性情報は、「ポジティブ」から「ネガティブ」に遷移する。この場合、図8の表情決定処理のステップS406のYesに該当し、続くステップS407により、「戸惑い」の表情が決定される。ロボット1の表情はこの決定に基づき、「嬉しい」表情から「戸惑い」の表情に変化する。   Subsequently, the predetermined object utters "But the incident is ...". The keyword determination unit 34 extracts “happening” as a keyword, and acquires “negative” as its attribute information. Since the attribute information of the previous keyword “fashionable lunch” + “was” was “positive”, the attribute information changes from “positive” to “negative”. In this case, this corresponds to Yes in step S406 of the facial expression determination process in FIG. 8, and the facial expression of “embarrassment” is determined in the subsequent step S407. Based on this determination, the expression of the robot 1 changes from a “happy” expression to a “confused” expression.

続いて所定の対象は、「店員のミスで予約取れて無くて・・・ 本当に焦っちゃったのよ」と発話する。キーワード判定部34は、キーワードとして「焦った」を抽出し、その属性情報として「ネガティブ」を取得する。前回のキーワード「ハプニング」の属性情報は「ネガティブ」であったことから、属性情報は、「ネガティブ」から「ネガティブ」に遷移する。この場合、図9の表情決定処理のステップS506のYesに該当し、続くステップS507により、「悲しみ」の表情が決定される。ロボット1の表情はこの決定に基づき、「戸惑い」の表情から「悲しみ」の表情に変化する。   Subsequently, the predetermined object utters, "I could not make a reservation because of a clerk's mistake ... I was really rushed." The keyword determination unit 34 extracts “hurled” as a keyword and acquires “negative” as its attribute information. Since the attribute information of the previous keyword “happing” was “negative”, the attribute information changes from “negative” to “negative”. In this case, this corresponds to Yes in step S506 of the facial expression determination process in FIG. 9, and the facial expression of “sadness” is determined in the subsequent step S507. Based on this determination, the expression of the robot 1 changes from the expression "confused" to the expression "sad".

なお、ロボット1は、表情決定部35の決定結果に応じて音声をスピーカ27から出力することによって所定の対象と対話をすることができる。例えば、図15の例において、「昨日お友達とおしゃれランチしてきたの」の発話に対して、「よかったね」と「嬉しい」を表す返事をする。次の「でもハプニングが・・・」に対して、「どうしたの?」と「戸惑い」を表す返事をする。そして「店員のミスで予約取れて無くて・・・ 本当に焦っちゃったのよ」に対して、「大変だったね」と「悲しみ」を表す返事をする。   The robot 1 can interact with a predetermined target by outputting a voice from the speaker 27 according to the determination result of the facial expression determining unit 35. For example, in the example of FIG. 15, in response to the utterance “I had a stylish lunch with a friend yesterday”, a reply indicating “I'm glad” and “I am happy” is given. In response to the next "but happening ...", he responds with "what happened" and "embarrassed". He responds to "The clerk made a mistake and couldn't make a reservation ... I was really irritated."

以上説明したように、ロボット1の制御装置30は、所定の対象が発話する音声を音声検出部31および音声認識部32により取得し、取得された所定の対象の発話から「ポジティブ」「ネガティブ」「ニュートラル」の属性情報をキーワード判定部34により取得する。そして、ロボット1の制御装置30は、所定の対象の発話中に取得された今回の属性情報と前回の属性情報との関係である「ポジティブ」「ネガティブ」の属性遷移に基づいて発話の流れを読み取って表情決定部35により表情を決定する。これにより、話の流れに沿った自然な表情の変化を実現することができる。   As described above, the control device 30 of the robot 1 acquires the voice uttered by the predetermined target by the voice detection unit 31 and the voice recognition unit 32, and determines “positive”, “negative” from the obtained utterance of the predetermined target. The attribute information of “neutral” is acquired by the keyword determination unit 34. Then, the control device 30 of the robot 1 determines the flow of the utterance based on the “positive” or “negative” attribute transition, which is the relationship between the current attribute information acquired during the utterance of the predetermined target and the previous attribute information. The facial expression is read and the facial expression is determined by the facial expression determining unit 35. As a result, it is possible to realize a natural change in facial expression along with the flow of the story.

また、ロボット1の制御装置30は、所定の対象の認証を行う個人認証部33と、所定の対象毎にキーワードに応じた属性情報が登録された人物データベース36と、をさらに備え、キーワード判定部34は、個人認証部33で認証された所定の対象に応じたキーワード情報データベース37を選択し、音声認識部32から取得したテキストデータをキーワード情報データベース37と照合して、属性情報を取得する。これにより、対面する個人を判定して個人用のキーワード情報データベースを利用する事ができ、個人に合わせた表情選択が実現できる。   The control device 30 of the robot 1 further includes a personal authentication unit 33 that authenticates a predetermined target, and a person database 36 in which attribute information corresponding to a keyword is registered for each predetermined target. 34 selects a keyword information database 37 corresponding to a predetermined target authenticated by the personal authentication unit 33, matches text data acquired from the voice recognition unit 32 with the keyword information database 37, and acquires attribute information. As a result, it is possible to determine an individual to be faced and use the keyword information database for the individual, and to realize a facial expression selection suited to the individual.

また、ロボット1の制御装置30は、キーワード判定部34により、音声検出部31および音声認識部32により取得された音声を解析して、音声に含まれるキーワードを抽出し、抽出したキーワードにタグ付けされた「ポジティブ」「ネガティブ」「ニュートラル」の属性情報を取得する。これにより、リアルタイムで音声認識を行い、その中から表情決定に利用するキーワードと属性情報を取得し、素早く表情変化を行うことができる。   Further, the control device 30 of the robot 1 analyzes the voice acquired by the voice detecting unit 31 and the voice recognizing unit 32 by the keyword determining unit 34, extracts a keyword included in the voice, and tags the extracted keyword. The attribute information of “positive”, “negative”, and “neutral” is acquired. Thus, it is possible to perform voice recognition in real time, obtain a keyword and attribute information used for determining a facial expression from the voice recognition, and perform a rapid facial expression change.

また、ロボット1は、所定の対象と対話可能に構成されており、ロボット1の制御装置30は、表情決定部35により、所定の対象との対話中に取得された今回の属性情報と過去である前回の属性情報との関係に基づいて、ロボット1の表情を制御する。これにより、対話の流れに沿った自然な表情の変化を実現することができる。   In addition, the robot 1 is configured to be able to interact with a predetermined target, and the control device 30 of the robot 1 uses the expression determining unit 35 to compare the current attribute information acquired during the dialog with the predetermined target with the current attribute information. The expression of the robot 1 is controlled based on the relationship with certain attribute information. This makes it possible to realize a natural change in facial expression along with the flow of the dialogue.

また、ロボット1は、自機の表情に応じた画像を表示するように構成された表示装置28を備え、ロボット1の制御装置30は、表情決定部35により、所定の対象の発話中に取得された今回の属性情報と前回の属性情報との関係に基づいて表情データを生成して表示装置28に表示する。これにより、話の流れに沿った自然な表情の変化をロボット1の表情として表示することができる。   Further, the robot 1 includes a display device 28 configured to display an image corresponding to the expression of the robot 1 itself, and the control device 30 of the robot 1 uses the expression determination unit 35 to acquire the image during the utterance of the predetermined target. Expression data is generated based on the relationship between the current attribute information and the previous attribute information, and is displayed on the display device 28. Thereby, a natural change of the expression along the flow of the story can be displayed as the expression of the robot 1.

また、ロボット1は、自機を移動させるように構成された移動部25を備え、ロボット1の制御装置30は、表情決定部35によりロボット1の表情を制御する場合に、ロボット1を所定の対象に近づけるように、移動部25を制御する移動制御部40をさらに備える。これにより、相手と対面してコミュニケーションをとりやすくする。   Further, the robot 1 includes a moving unit 25 configured to move the robot 1. The control device 30 of the robot 1 controls the robot 1 to a predetermined position when controlling the facial expression of the robot 1 by the facial expression determining unit 35. It further includes a movement control unit 40 that controls the movement unit 25 so as to approach the target. This facilitates communication with the opponent.

なお、本発明は、上記の実施の形態に限定されず、種々の改変および応用が可能である。前記の実施の形態は、次のように変形されてもよい。   Note that the present invention is not limited to the above embodiment, and various modifications and applications are possible. The above embodiment may be modified as follows.

上記の実施の形態において、前回のキーワードで表される感情の属性情報と今回のキーワードで表される感情の属性情報からなる連続する2つの属性情報の関係に基づいて表情決定処理を行った。これに限らず、時間的に連続する対象者の3回以上の発話の各々に含まれるキーワードで表される属性情報の関係に基づいて表情決定処理を行ってもよい。組合せを多くすることにより、より多くの表情を表すことができる。ただし、キーワードが増加すると、表情決定処理を行うために必要なキーワード数を取得するまでに時間を要し、次の表情の決定が遅れてしまう。結果的に所定の対象の発話に対して瞬時に表情を変えることが難しくなる。2つのキーワードの属性情報の組合せであれば、必要なキーワードの取得に時間を要さず、所定の対象の発話に対して瞬時に表情を変えることができる。さらに、表現する表情の数についても、本実施の形態で示された表情のバリエーションにより必要な種類の表情はほぼカバーされており、所定の対象の発話内容に応じた自然な表情を表現できる。したがって、2つのキーワードの属性情報の組合せが、実施をするうえで望ましい。   In the above-described embodiment, the expression determination process is performed based on the relationship between two pieces of continuous attribute information including the attribute information of the emotion represented by the previous keyword and the attribute information of the emotion represented by the keyword. The present invention is not limited to this, and the facial expression determination process may be performed based on the relationship between attribute information represented by keywords included in three or more utterances of the subject who are temporally continuous. By increasing the number of combinations, more expressions can be expressed. However, when the number of keywords increases, it takes time to acquire the number of keywords necessary for performing the facial expression determination process, and the determination of the next facial expression is delayed. As a result, it is difficult to instantaneously change the facial expression with respect to the utterance of the predetermined target. With the combination of the attribute information of two keywords, it is possible to instantaneously change the expression with respect to the utterance of the predetermined target without acquiring time for the necessary keyword. Further, as for the number of expressions to be expressed, the required types of expressions are almost covered by the variations of the expressions shown in the present embodiment, and natural expressions corresponding to the utterance contents of a predetermined target can be expressed. Therefore, a combination of the attribute information of the two keywords is desirable for implementation.

本実施の形態では、ロボットの顔の表情の変化を目の状態により表現したが、これに限らず、目に加えて口、眉毛等顔の別の部分で表現してもよい。また、表情は、顔に限らず、身振りも含む。ロボット1は、図1に示すように、可動する尻尾部6を有している。表情決定処理で決定される表情に尻尾部6の動きを加えることにより、所定の対象の発話に応じて尻尾部6により表情を示すことが可能である。例えば、尻尾部6を左右に大きく振ることにより「嬉しい」感情を表現する、尻尾部6を斜め下にゆっくり振ることにより「安心」の感情を表現する等である。表情決定部35の決定結果に応じて可動制御部41は、上記動きをするための駆動信号を生成し、この信号を可動部26に送信する。可動部26は、駆動信号に応じて駆動回路がアクチュエータ等の駆動部材を制御して尻尾部6を動かす。なお、尻尾部6に限らず、頭部2、手部4、足部5等他の部位を動かして表情を表現してもよい。ただし、駆動に時間がかかるような部位、動きは、所定の対象の発話に応答して瞬時に表情を変えることが難しくなるので、駆動に時間がかからない部位、動きが好ましい。   In the present embodiment, the change in the facial expression of the robot is represented by the state of the eyes, but the present invention is not limited to this, and may be represented by other parts of the face such as the mouth and eyebrows in addition to the eyes. In addition, facial expressions include not only faces but also gestures. The robot 1 has a movable tail 6 as shown in FIG. By adding the movement of the tail 6 to the facial expression determined in the facial expression determination processing, the facial expression can be shown by the tail 6 according to the utterance of the predetermined target. For example, the feeling of "happy" is expressed by swinging the tail 6 largely left and right, and the feeling of "security" is expressed by slowly shaking the tail 6 diagonally downward. The movable control unit 41 generates a drive signal for performing the above-described movement in accordance with the determination result of the facial expression determining unit 35, and transmits this signal to the movable unit 26. The movable section 26 moves the tail section 6 by controlling a drive member such as an actuator by a drive circuit according to a drive signal. In addition, the facial expression may be expressed not only by the tail part 6 but also by moving other parts such as the head part 2, the hand part 4, and the foot part 5. However, it is difficult to instantaneously change the expression in response to the utterance of a predetermined object in a part or movement that takes a long time to drive. Therefore, a part or movement that does not take a long time to drive is preferable.

本実施の形態において、人形の形態のロボットを例に挙げて説明した。しかしながら、ロボットはこれに限らず、図16に示すように、携帯端末50の画面51にロボットの画像が表示されるものも含まれる。携帯端末50に内蔵されている撮像素子23を用いて対面する所定の対象を撮影し、内蔵されたマイクロフォン24を用いて所定の対象の発話を検出する。携帯端末50に向かって所定の対象が話しかけると、携帯端末50の画面51に表示されたロボットの表情が対話に応じて変化する。なお、画面51上には、顔だけでなく、上半身あるいは全身を表示してもよい。この場合、顔で表情を表すだけでなく、手、足等を動かして身振りによっても表情を表すことができる。   In the present embodiment, a doll-shaped robot has been described as an example. However, the robot is not limited to this, and includes a robot in which an image of the robot is displayed on the screen 51 of the mobile terminal 50 as shown in FIG. Using the image sensor 23 built in the portable terminal 50, an image of a predetermined target facing is photographed, and the utterance of the predetermined target is detected using the built-in microphone 24. When a predetermined object speaks toward the mobile terminal 50, the expression of the robot displayed on the screen 51 of the mobile terminal 50 changes according to the dialogue. The screen 51 may display not only the face but also the upper body or the whole body. In this case, the expression can be expressed not only by the expression of the face but also by the gesture by moving the hand, the foot, or the like.

本実施の形態において、キーワードの属性情報として、ポジティブ、ネガティブ、ニュートラルで分類したが、これに限らず、例えば、喜・怒・哀・楽等で分類してもよい。   In the present embodiment, the keyword attribute information is classified into positive, negative, and neutral. However, the present invention is not limited to this, and may be classified into, for example, joy, anger, sorrow, ease, and the like.

本実施の形態において、キーワード情報データベース37は、個人毎に区分けされており、その個人に応じたキーワードとその属性情報が登録されている。本実施の形態では、この個人毎のキーワード情報データベースの作成については、特に触れなかった。個人毎のキーワード情報データベースは、例えば、キーワードに対する個人毎の声のトーンによってポジティブ・ネガティブを判定したり、キーワードを発話している時の個人毎の表情を撮像素子により撮影して撮影画像からポジティブ・ネガティブを判定する等により作成する。   In the present embodiment, the keyword information database 37 is divided for each individual, and a keyword and attribute information corresponding to the individual are registered. In the present embodiment, the creation of the keyword information database for each individual is not particularly mentioned. The keyword information database for each individual, for example, determines positive / negative based on the tone of the voice for each individual with respect to the keyword, or captures the facial expression of each individual when speaking the keyword by using the image sensor and outputs the positive from the captured image. -Created by determining negative.

また、本実施の形態では、キーワード情報データベース37から抽出した属性情報のみから表情の決定を行っていた。これに限らず、キーワード情報データベースから抽出した属性情報に加えて、別途ポジティブ・ネガティブの判定を行って両者の結果から表情の決定を行ってもよい。例えば、ポジティブにもネガティブにもとれるキーワードの場合、声のトーン、表情によりポジティブ・ネガティブの判定することが可能である。また構文解析することにより判断することも可能である。ただし、自然な表情の変化を実現するためには、連続するキーワードに対して素早く反応する必要がある。したがって、判定に時間がかからないことが条件とされる。   Further, in the present embodiment, the expression is determined only from the attribute information extracted from the keyword information database 37. The present invention is not limited to this, and in addition to the attribute information extracted from the keyword information database, a positive / negative determination may be separately performed, and the expression may be determined based on the result of both. For example, in the case of a keyword that can be both positive and negative, it is possible to determine whether the keyword is positive or negative based on the tone and expression of the voice. It is also possible to judge by parsing. However, in order to achieve a natural change in facial expression, it is necessary to react quickly to successive keywords. Therefore, the condition is that the determination does not take much time.

本実施の形態では、ロボット1が備える記憶部22に、実行動作を決定するために必要な各種データベースを格納するものとして説明した。しかし、これらのデータは外部の記憶装置などに記憶させるようにしてもよい。ロボット1は、通信ネットワークを介して通信可能な外部記憶装置から必要なデータを適宜取得するように構成してもよい。   In the present embodiment, a description has been given assuming that various databases necessary for determining an execution operation are stored in the storage unit 22 provided in the robot 1. However, these data may be stored in an external storage device or the like. The robot 1 may be configured to appropriately acquire necessary data from an external storage device that can communicate via a communication network.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記の番号は、この出願の願書に最初に添付した特許請求の範囲の通りである。   While some embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof. In the following, the inventions described in the claims first attached to the application form of this application are appended. The appended numbers are as set forth in the claims originally attached to the application for this application.

(付記1)
自機の表情を変更可能に構成されたロボットの表情を制御するロボットの制御装置であって、
所定の対象が発話する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得手段と、
前記属性パラメータ取得手段により取得された属性パラメータを記憶する記憶手段と、
前記所定の対象の発話中に取得された属性パラメータと前記記憶手段に記憶された過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御手段と、
を備えるロボットの制御装置。
(Appendix 1)
A robot control device that controls a facial expression of a robot configured to be able to change its own facial expression,
Voice acquisition means for acquiring a voice uttered by a predetermined object;
An attribute parameter obtaining unit that obtains an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the voice obtained by the voice obtaining unit;
Storage means for storing the attribute parameters obtained by the attribute parameter obtaining means,
Expression control means for controlling the expression of the robot, based on a relationship between the attribute parameters acquired during the utterance of the predetermined target and the past attribute parameters stored in the storage means,
Control device for a robot, comprising:

(付記2)
所定の対象の認証を行う個人認証手段と、
所定の対象毎に発話内容に応じた属性パラメータが登録された属性パラメータデータベースと、
をさらに備え、
前記属性パラメータ取得手段は、前記個人認証手段で認証された所定の対象に応じた属性パラメータデータベースを選択し、前記音声取得手段により取得された音声を前記属性パラメータデータベースと照合して、前記属性パラメータを取得する、
付記1に記載のロボットの制御装置。
(Appendix 2)
Personal authentication means for authenticating a predetermined object;
An attribute parameter database in which attribute parameters corresponding to the utterance content are registered for each predetermined target,
Further comprising
The attribute parameter acquisition unit selects an attribute parameter database corresponding to a predetermined target authenticated by the personal authentication unit, compares the voice acquired by the voice acquisition unit with the attribute parameter database, and To get the
A control device for a robot according to supplementary note 1.

(付記3)
前記属性パラメータ取得手段は、前記音声取得手段により取得された音声を解析して、前記音声に含まれるキーワードを抽出し、抽出したキーワードの属性情報を前記属性パラメータとして取得する、
付記1又は2に記載のロボットの制御装置。
(Appendix 3)
The attribute parameter obtaining unit analyzes the voice obtained by the voice obtaining unit, extracts a keyword included in the voice, and obtains attribute information of the extracted keyword as the attribute parameter.
3. The control device for a robot according to claim 1 or 2.

(付記4)
前記ロボットは、前記所定の対象と対話可能に構成されており、
前記表情制御手段は、前記所定の対象との対話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する、
付記1ないし3のいずれか1つに記載のロボットの制御装置。
(Appendix 4)
The robot is configured to be able to interact with the predetermined object,
The expression control unit controls the expression of the robot based on a relationship between the attribute parameter acquired during the dialogue with the predetermined target and the past attribute parameter.
4. The control device for a robot according to any one of supplementary notes 1 to 3.

(付記5)
前記ロボットは、自機の表情に応じた画像を表示するように構成された表示手段を備え、
前記表情制御手段は、前記所定の対象の発話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて表情データを生成して前記表示手段に表示する、
付記1ないし4のいずれか1つに記載のロボットの制御装置。
(Appendix 5)
The robot includes a display unit configured to display an image according to the expression of the robot,
The expression control unit generates expression data based on a relationship between the attribute parameter acquired during the utterance of the predetermined target and the past attribute parameter, and displays the expression data on the display unit.
The control device for a robot according to any one of supplementary notes 1 to 4.

(付記6)
前記ロボットは、自機を移動させるように構成された移動機構を備え、
前記表情制御手段により前記ロボットの表情を制御する場合に、前記ロボットを前記所定の対象に近づけるように、前記移動機構を制御する移動制御手段をさらに備える、
付記1ないし5のいずれか1つに記載のロボットの制御装置。
(Appendix 6)
The robot includes a movement mechanism configured to move the robot,
When controlling the facial expression of the robot by the facial expression control means, further comprising a movement control means for controlling the moving mechanism so as to bring the robot closer to the predetermined target,
6. The control device for a robot according to any one of supplementary notes 1 to 5.

(付記7)
付記1ないし6のいずれか1つに記載のロボットの制御装置を備えるロボット。
(Appendix 7)
A robot comprising the control device for a robot according to any one of supplementary notes 1 to 6.

(付記8)
所定の対象が発話する音声を取得する音声取得ステップと、
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得ステップと、
取得された属性パラメータを記憶する記憶ステップと、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、ロボットの表情を制御する表情制御ステップと、
を含むロボットの制御方法。
(Appendix 8)
A voice obtaining step of obtaining a voice uttered by a predetermined target;
An attribute parameter acquiring step of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storing step of storing the obtained attribute parameters;
An expression control step of controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
Robot control method including:

(付記9)
ロボットのコンピュータに、
所定の対象が発話する音声を取得する音声取得処理と、
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得処理と、
取得された属性パラメータを記憶する記憶処理と、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御処理と、
を実行させるプログラム。
(Appendix 9)
On the robot computer,
Voice acquisition processing for acquiring a voice uttered by a predetermined target;
An attribute parameter acquisition process of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storage process for storing the acquired attribute parameters;
An expression control process for controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
A program that executes

1…ロボット、2…頭部、3…胴体部、4…手部、5…足部、6…尻尾部、7…耳部、8…目部、9…口部、10…おでこ、21…制御部、22…記憶部、23…撮像素子、24…マイクロフォン、25…移動部、26…可動部、27…スピーカ、28…表示装置、30…制御装置、31…音声検出部、32…音声認識部、33…個人認証部、34…キーワード判定部、35…表情決定部、36…人物データベース、37…キーワード情報データベース、38…発話方向特定部、39…距離情報取得部、40…移動制御部、41…可動制御部、50…携帯端末、51…画面 DESCRIPTION OF SYMBOLS 1 ... Robot, 2 ... Head, 3 ... Body part, 4 ... Hand part, 5 ... Foot part, 6 ... Tail part, 7 ... Ear part, 8 ... Eye part, 9 ... Mouth part, 10 ... Forehead, 21 ... Control unit, 22 storage unit, 23 imaging device, 24 microphone, 25 moving unit, 26 movable unit, 27 speaker, 28 display device, 30 control device, 31 voice detection unit, 32 voice Recognition unit, 33: individual authentication unit, 34: keyword determination unit, 35: expression determination unit, 36: person database, 37: keyword information database, 38: speech direction identification unit, 39: distance information acquisition unit, 40: movement control Unit, 41: movable control unit, 50: portable terminal, 51: screen

Claims (9)

自機の表情を変更可能に構成されたロボットの表情を制御するロボットの制御装置であって、
所定の対象が発話する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得手段と、
前記属性パラメータ取得手段により取得された属性パラメータを記憶する記憶手段と、
前記所定の対象の発話中に取得された属性パラメータと前記記憶手段に記憶された過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御手段と、
を備えるロボットの制御装置。
A robot control device that controls a facial expression of a robot configured to be able to change its own facial expression,
Voice acquisition means for acquiring a voice uttered by a predetermined object;
An attribute parameter obtaining unit that obtains an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the voice obtained by the voice obtaining unit;
Storage means for storing the attribute parameters obtained by the attribute parameter obtaining means,
Expression control means for controlling the expression of the robot, based on a relationship between the attribute parameters acquired during the utterance of the predetermined target and the past attribute parameters stored in the storage means,
Control device for a robot, comprising:
所定の対象の認証を行う個人認証手段と、
所定の対象毎に発話内容に応じた属性パラメータが登録された属性パラメータデータベースと、
をさらに備え、
前記属性パラメータ取得手段は、前記個人認証手段で認証された所定の対象に応じた属性パラメータデータベースを選択し、前記音声取得手段により取得された音声を前記属性パラメータデータベースと照合して、前記属性パラメータを取得する、
請求項1に記載のロボットの制御装置。
Personal authentication means for authenticating a predetermined object;
An attribute parameter database in which attribute parameters corresponding to the utterance content are registered for each predetermined target,
Further comprising
The attribute parameter acquisition unit selects an attribute parameter database corresponding to a predetermined target authenticated by the personal authentication unit, compares the voice acquired by the voice acquisition unit with the attribute parameter database, and To get the
A control device for a robot according to claim 1.
前記属性パラメータ取得手段は、前記音声取得手段により取得された音声を解析して、前記音声に含まれるキーワードを抽出し、抽出したキーワードの属性情報を前記属性パラメータとして取得する、
請求項1又は2に記載のロボットの制御装置。
The attribute parameter obtaining unit analyzes the voice obtained by the voice obtaining unit, extracts a keyword included in the voice, and obtains attribute information of the extracted keyword as the attribute parameter.
The control device for a robot according to claim 1.
前記ロボットは、前記所定の対象と対話可能に構成されており、
前記表情制御手段は、前記所定の対象との対話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて、前記ロボットの表情を制御する、
請求項1ないし3のいずれか1項に記載のロボットの制御装置。
The robot is configured to be able to interact with the predetermined object,
The expression control unit controls the expression of the robot based on a relationship between the attribute parameter acquired during the dialogue with the predetermined target and the past attribute parameter.
The control device for a robot according to claim 1.
前記ロボットは、自機の表情に応じた画像を表示するように構成された表示手段を備え、
前記表情制御手段は、前記所定の対象の発話中に取得された属性パラメータと前記過去の属性パラメータとの関係に基づいて表情データを生成して前記表示手段に表示する、
請求項1ないし4のいずれか1項に記載のロボットの制御装置。
The robot includes a display unit configured to display an image according to the expression of the robot,
The expression control unit generates expression data based on a relationship between the attribute parameter acquired during the utterance of the predetermined target and the past attribute parameter, and displays the expression data on the display unit.
A control device for a robot according to any one of claims 1 to 4.
前記ロボットは、自機を移動させるように構成された移動機構を備え、
前記表情制御手段により前記ロボットの表情を制御する場合に、前記ロボットを前記所定の対象に近づけるように、前記移動機構を制御する移動制御手段をさらに備える、
請求項1ないし5のいずれか1項に記載のロボットの制御装置。
The robot includes a movement mechanism configured to move the robot,
When controlling the facial expression of the robot by the facial expression control means, further comprising a movement control means for controlling the moving mechanism so as to bring the robot closer to the predetermined target,
A control device for a robot according to any one of claims 1 to 5.
請求項1ないし6のいずれか1項に記載のロボットの制御装置を備えるロボット。   A robot comprising the control device for a robot according to any one of claims 1 to 6. 所定の対象が発話する音声を取得する音声取得ステップと、
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得ステップと、
取得された属性パラメータを記憶する記憶ステップと、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、ロボットの表情を制御する表情制御ステップと、
を含むロボットの制御方法。
A voice obtaining step of obtaining a voice uttered by a predetermined target;
An attribute parameter acquiring step of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storing step of storing the obtained attribute parameters;
An expression control step of controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
Robot control method including:
ロボットのコンピュータに、
所定の対象が発話する音声を取得する音声取得処理と、
取得された音声を解析することによって、前記所定の対象の発話内容の属性を表す属性パラメータを取得する属性パラメータ取得処理と、
取得された属性パラメータを記憶する記憶処理と、
前記所定の対象の発話中に取得された属性パラメータと過去に記憶された属性パラメータとの関係に基づいて、前記ロボットの表情を制御する表情制御処理と、
を実行させるプログラム。
On the robot computer,
Voice acquisition processing for acquiring a voice uttered by a predetermined target;
An attribute parameter acquisition process of acquiring an attribute parameter representing an attribute of the utterance content of the predetermined target by analyzing the acquired voice;
A storage process for storing the acquired attribute parameters;
An expression control process for controlling the expression of the robot based on the relationship between the attribute parameter acquired during the utterance of the predetermined target and the attribute parameter stored in the past,
A program that executes
JP2018188098A 2018-10-03 2018-10-03 ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM Active JP7322374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018188098A JP7322374B2 (en) 2018-10-03 2018-10-03 ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188098A JP7322374B2 (en) 2018-10-03 2018-10-03 ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020056935A true JP2020056935A (en) 2020-04-09
JP7322374B2 JP7322374B2 (en) 2023-08-08

Family

ID=70107207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188098A Active JP7322374B2 (en) 2018-10-03 2018-10-03 ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7322374B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111515970A (en) * 2020-04-27 2020-08-11 腾讯科技(深圳)有限公司 Interaction method, mimicry robot and related device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158868A (en) * 2006-12-25 2008-07-10 Toyota Motor Corp Mobile body and control method
JP2017151517A (en) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 Robot control system
JP2017173482A (en) * 2016-03-23 2017-09-28 京セラ株式会社 Electronic apparatus, answering method, and answering program
JP2018062042A (en) * 2016-10-13 2018-04-19 トヨタ自動車株式会社 Communication device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158868A (en) * 2006-12-25 2008-07-10 Toyota Motor Corp Mobile body and control method
JP2017151517A (en) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 Robot control system
JP2017173482A (en) * 2016-03-23 2017-09-28 京セラ株式会社 Electronic apparatus, answering method, and answering program
JP2018062042A (en) * 2016-10-13 2018-04-19 トヨタ自動車株式会社 Communication device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111515970A (en) * 2020-04-27 2020-08-11 腾讯科技(深圳)有限公司 Interaction method, mimicry robot and related device

Also Published As

Publication number Publication date
JP7322374B2 (en) 2023-08-08

Similar Documents

Publication Publication Date Title
US10614203B2 (en) Robot-human interactive device which performs control for authenticating a user, robot, interaction method, and recording medium storing program
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
JP7022062B2 (en) VPA with integrated object recognition and facial expression recognition
CN108227932B (en) Interaction intention determination method and device, computer equipment and storage medium
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
US20200279553A1 (en) Linguistic style matching agent
US20190172448A1 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
JP2004310034A (en) Interactive agent system
JP5323770B2 (en) User instruction acquisition device, user instruction acquisition program, and television receiver
JP6336676B2 (en) Method and apparatus for synthesizing voice based on facial structure
WO2017215297A1 (en) Cloud interactive system, multicognitive intelligent robot of same, and cognitive interaction method therefor
JP5982840B2 (en) Dialogue device, dialogue program, and dialogue method
US20190371318A1 (en) System and method for adaptive detection of spoken language via multiple speech models
WO2005076258A1 (en) User adaptive type device and control method thereof
JP2018146898A (en) Apparatus, robot, method, and program
KR20200105446A (en) Apparatus and method for recognizing emotions
JP2006123136A (en) Communication robot
US20200251110A1 (en) Voice conversation system, control system for voice conversation system, and control program, and control method
WO2017086108A1 (en) Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system
JP7322374B2 (en) ROBOT CONTROL DEVICE, ROBOT, ROBOT CONTROL METHOD AND PROGRAM
WO2020175969A1 (en) Emotion recognition apparatus and emotion recognition method
JP2017182261A (en) Information processing apparatus, information processing method, and program
JP7435641B2 (en) Control device, robot, control method and program
JP2017162268A (en) Dialog system and control program
JP2005196645A (en) Information presentation system, information presentation device and information presentation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230331

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230410

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7322374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150