JP2019217122A - Robot, method for controlling robot and program - Google Patents

Robot, method for controlling robot and program Download PDF

Info

Publication number
JP2019217122A
JP2019217122A JP2018118480A JP2018118480A JP2019217122A JP 2019217122 A JP2019217122 A JP 2019217122A JP 2018118480 A JP2018118480 A JP 2018118480A JP 2018118480 A JP2018118480 A JP 2018118480A JP 2019217122 A JP2019217122 A JP 2019217122A
Authority
JP
Japan
Prior art keywords
predetermined object
approach
favorable
robot
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018118480A
Other languages
Japanese (ja)
Other versions
JP7180139B2 (en
Inventor
香莉 門澤
Kaori Kadosawa
香莉 門澤
広城 渥美
Hiroki Atsumi
広城 渥美
哲司 牧野
Tetsuji Makino
哲司 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018118480A priority Critical patent/JP7180139B2/en
Publication of JP2019217122A publication Critical patent/JP2019217122A/en
Priority to JP2022180696A priority patent/JP7476941B2/en
Application granted granted Critical
Publication of JP7180139B2 publication Critical patent/JP7180139B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

To provide a robot that can express various emotions more than before to a predetermined object depending on favorability rating, and to provide a method for controlling a robot and a program.SOLUTION: A robot 100 includes: a user recognition unit 111 for recognizing a predetermined object; and a response control unit 116 for determining an approaching mode during approaching the predetermined object on the basis of favorability rating to the predetermined object recognized by the user recognition unit 111, and controlling the own device to express an emotion to the predetermined object depending on the determined approaching mode during approaching the predetermined object.SELECTED DRAWING: Figure 2

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。    The present invention relates to a robot, a robot control method, and a program.

ロボット等の機器が普及するには所定の対象への親しみやすさをどのように表現するかが重要な点となっている。現状では、所定の対象への好感度に応じてロボットと所定の対象との間の距離を変更する技術が知られている。(例えば、特許文献1参照)。   In order for devices such as robots to become widespread, it is important how to express familiarity with a predetermined object. At present, there is known a technique for changing a distance between a robot and a predetermined target in accordance with a favorable sensitivity to the predetermined target. (For example, see Patent Document 1).

特開2000−326274公報JP 2000-326274 A

しかしながら、特許文献1の技術は、好感度に応じて所定の対象との間の移動後の距離のみを変更するものであり、所定の対象への好感度に応じた感情表現としては不充分であるという問題がある。   However, the technique of Patent Literature 1 changes only the distance after moving to a predetermined target according to the favorable sensitivity, and is insufficient as an emotional expression according to the favorable sensitivity to the predetermined object. There is a problem.

そこで、本発明は、前述のような事情に鑑みてなされたものであり、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above-described circumstances, and provides a robot, a robot control method, and a program capable of expressing richer emotions than ever before in accordance with a favorable sensitivity to a predetermined object. The purpose is to provide.

前記目的を達成するため、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備える、
ことを特徴とする。
In order to achieve the above object, one aspect of the robot according to the present invention is:
Recognition means for recognizing a predetermined object;
Determining means for determining an approach mode during approach to the predetermined object, based on the favorable sensitivity to the predetermined object recognized by the recognition means;
During the approach to the predetermined target, control means for controlling the own device to express emotions to the predetermined target according to the approach mode determined by the determination means,
Comprising,
It is characterized by the following.

前記目的を達成するため、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、
を含む、
ことを特徴とする。
In order to achieve the above object, one mode of a robot control method according to the present invention is as follows.
A recognition step of recognizing a predetermined object;
A determining step of determining an approach mode during approaching the predetermined object based on the favorable sensibility for the predetermined object recognized in the recognition step;
During the approach to the predetermined object, a control step of controlling a robot to express an emotion to the predetermined object according to the approach mode determined in the determination step,
including,
It is characterized by the following.

また、前記目的を達成するため、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させる、
ことを特徴とする。
Further, in order to achieve the above object, one embodiment of a program according to the present invention is:
On the robot computer,
A recognition process for recognizing a predetermined object;
A determination process of determining an approach mode during approach to the predetermined object based on the favorable sensitivity to the predetermined object recognized by the recognition process;
During the approach to the predetermined object, a control process of controlling the robot so as to express an emotion on the predetermined object in accordance with the approach mode determined by the determination process,
Run,
It is characterized by the following.

本発明によれば、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することが可能となる。   According to the present invention, it is possible to provide a robot, a robot control method, and a program capable of expressing richer emotions than ever before in accordance with a favorable sensibility for a predetermined object.

本発明の実施の形態に係るロボットの正面図である。FIG. 2 is a front view of the robot according to the embodiment of the present invention. ロボットの構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a robot. ユーザ行動テーブルの一例を示す図である。It is a figure showing an example of a user action table. 好感度設定テーブル(好感度取得テーブル)の一例を示す図である。FIG. 7 is a diagram illustrating an example of a positivity setting table (a positivity acquisition table). 接近様態決定テーブルの一例を示す図である。It is a figure showing an example of an approach mode decision table. 直線的な移動経路(接近経路)を説明するための図である。It is a figure for explaining a linear movement course (approach course). 湾曲した移動経路を説明するための図である。It is a figure for explaining a curved movement course. 蛇行した移動経路を説明するための図である。It is a figure for explaining a meandering movement course. ロボットがユーザと真正面で向き合う状態を説明するための図である。FIG. 5 is a diagram for explaining a state in which the robot faces the user in front of the user. ロボットがユーザと斜めに向き合う状態を説明するための図である。FIG. 4 is a diagram for explaining a state in which the robot faces the user diagonally. 応対制御処理(接近制御処理)の流れを示すフローチャートである。It is a flowchart which shows the flow of a response control process (approach control process). 迂回経路(通過経路)が形成された移動経路を説明するための図である。It is a figure for explaining a movement course where a detour course (passing course) was formed.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。以下の実施の形態では、本発明の実施の形態に係る対話装置を備えるロボットを例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, a robot including a dialogue device according to an embodiment of the present invention will be described as an example.

ロボット100は、所定の対象とコミュニケーションをするロボットである。ここで、所定の対象とは、ロボット100を利用するユーザ(利用者)であり、典型的には、ロボット100の所有者や所有者の家族や友人等である。また、所定の対象には、人以外に、動物や他のロボットも含まれる。   The robot 100 is a robot that communicates with a predetermined target. Here, the predetermined target is a user (user) who uses the robot 100, and is typically an owner of the robot 100, a family or a friend of the owner, or the like. In addition, the predetermined target includes an animal and another robot in addition to a human.

ロボット100は、図1に示すように、外観的には人間を模した立体的な形状を有するロボットである。また、ロボット100の外装は、合成樹脂を主たる材料として形成されている。ロボット100は、胴体部101と、胴体部101の上部に接続する頭部102と、胴体部101の左右のそれぞれに接続する手部103と、胴体部101の下部に接続する2本の足部104と、を有する。頭部102、手部103、足部104の各部は、図示しない関節部材を介して胴体部101に取り付けられ、後述する制御部110の制御に従って、予め設定された動作を行うように構成されている。また、頭部102は、左右一対の目部105、口部106を有する。なお、図1の上側、下側、左側、右側を、各々、ロボット100の上側、下側、右側、左側とする。   As shown in FIG. 1, the robot 100 is a robot having a three-dimensional shape that imitates a human in appearance. The exterior of the robot 100 is formed mainly of synthetic resin. The robot 100 has a torso part 101, a head part 102 connected to the upper part of the torso part 101, a hand part 103 connected to each of the left and right sides of the torso part 101, and two feet connected to the lower part of the torso part 101. 104. Each part of the head 102, the hand part 103, and the foot part 104 is attached to the body part 101 via a joint member (not shown), and is configured to perform a preset operation according to the control of the control unit 110 described later. I have. The head 102 has a pair of left and right eyes 105 and a mouth 106. Note that the upper, lower, left, and right sides of FIG. 1 are the upper, lower, right, and left sides of the robot 100, respectively.

次に、図2を参照して、ロボット100の構成について説明する。ロボット100は、図2に示すように、制御部110、記憶部120、撮像部130、センサ部140、移動部150、動作部160、音声入力部170、音声出力部180を備える。これらの各部は、バスラインBLを介して相互に電気的に接続されている。   Next, the configuration of the robot 100 will be described with reference to FIG. The robot 100 includes a control unit 110, a storage unit 120, an imaging unit 130, a sensor unit 140, a moving unit 150, an operation unit 160, a voice input unit 170, and a voice output unit 180, as shown in FIG. These units are electrically connected to each other via a bus line BL.

制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有するコンピュータにより構成され、ロボット100の動作を制御する。制御部110は、CPUがROMに記憶された制御プログラムを読み出してRAM上で実行することにより、ロボット100の各部の動作を制御する。   The control unit 110 is configured by a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and controls the operation of the robot 100. The control unit 110 controls the operation of each unit of the robot 100 by reading the control program stored in the ROM by the CPU and executing the control program on the RAM.

制御部110は、制御プログラムを実行することによって、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部(好感度取得部)115、応対制御部(接近制御部)116として機能する。   By executing the control program, the control unit 110 executes the user recognition unit 111, the face recognition unit 112, the voice recognition unit 113, the user action recognition unit 114, the positivity setting unit (favorability acquisition unit) 115, and the response control unit ( It functions as an approach control unit) 116.

ユーザ認識部111は、ロボット100の周囲(例えば、ロボット100から半径3mの範囲内)に存在するユーザを識別して認識する。ユーザ認識部111は、例えば、後述する顔認識部112による顔認識結果、音声認識部113による話者認識結果のいずれか又は両方に基づいて、ロボット100の周囲に存在するユーザが誰であるかを認識する。また、ユーザ認識部111は、例えば、顔認識部112が撮像部130の撮像画像から検出した顔画像の位置や大きさ、音声認識部113が認識した音源方向等に基づいて、ロボット100の周囲に存在するユーザの位置及びユーザまでの距離を認識する。ユーザ認識部111は、本発明の認識手段として機能する。   The user recognition unit 111 identifies and recognizes a user existing around the robot 100 (for example, within a radius of 3 m from the robot 100). The user recognizing unit 111 is, for example, based on one or both of a face recognition result by a face recognizing unit 112 described later and a speaker recognition result by the voice recognizing unit 113, who is present around the robot 100. Recognize. In addition, the user recognition unit 111, for example, based on the position and size of the face image detected by the face recognition unit 112 from the captured image of the imaging unit 130, the sound source direction recognized by the voice recognition unit 113, and the like, The user recognizes the position of the user and the distance to the user. The user recognition unit 111 functions as a recognition unit of the present invention.

顔認識部112は、ロボット100の周囲に存在するユーザの顔を認識する。顔認識部112は、例えば、後述する撮像部130から取得した撮像画像に基づき、周知の顔検出技術、物体検出技術等を用いて、ロボット100の周囲に存在するユーザを検知する。続いて、顔認識部112は、例えば、撮像部130による撮像画像から検知したユーザの顔部分に相当する顔画像を検出して、顔の特徴量を示す顔特徴情報を抽出する。そして、顔認識部112は、顔画像から抽出した顔特徴情報と、後述する記憶部120のユーザ情報DB(Data Base)121が記憶する各ユーザ情報に含まれる顔特徴情報とを照合し、類似度が所定の基準を満たす登録ユーザを特定する。顔認識部112は、類似度が所定の基準を満たす登録ユーザを特定できない場合には、検出したユーザは未登録ユーザであると認識する。顔の特徴量は、ユーザの顔を識別可能な情報であればよく、例えば、目、鼻、口等の顔に含まれる各パーツの形状、大きさ、配置等の外観的特徴を数値で示したものである。このように、顔認識部112は、本発明の顔認識手段として機能する。   The face recognition unit 112 recognizes a user's face existing around the robot 100. The face recognition unit 112 detects a user existing around the robot 100 using a known face detection technology, an object detection technology, or the like, based on a captured image acquired from the imaging unit 130 described later, for example. Subsequently, the face recognition unit 112 detects, for example, a face image corresponding to the face of the user detected from the image captured by the imaging unit 130, and extracts face feature information indicating the feature amount of the face. Then, the face recognizing unit 112 collates the face feature information extracted from the face image with the face feature information included in each piece of user information stored in a user information DB (Data Base) 121 of the storage unit 120 to be described later. A registered user whose degree satisfies a predetermined criterion is specified. If the registered user whose similarity satisfies the predetermined criterion cannot be specified, the face recognizing unit 112 recognizes that the detected user is an unregistered user. The facial feature amount may be any information that can identify the user's face.For example, the facial features such as eyes, nose, mouth, etc. are represented by numerical values such as the shape, size, and arrangement of each part included in the face. It is a thing. Thus, the face recognizing unit 112 functions as the face recognizing unit of the present invention.

音声認識部113は、後述する音声入力部170から取得した音声データに含まれるユーザの発話の内容を認識する。音声認識部113は、記憶部120の音声認識DB122に格納された音声認識データを用いて、音声データに音声認識処理を行い、発話認識結果として、ユーザの発話内容を示すテキストデータを生成する。音声認識部113は、本発明の音声認識手段として機能する。   The voice recognition unit 113 recognizes the content of the utterance of the user included in the voice data acquired from the voice input unit 170 described later. The speech recognition unit 113 performs a speech recognition process on the speech data using the speech recognition data stored in the speech recognition DB 122 of the storage unit 120, and generates text data indicating the utterance content of the user as an utterance recognition result. The voice recognition unit 113 functions as a voice recognition unit of the present invention.

また、音声認識部113は、音声入力部170から取得した音声データに含まれる音声を発した発話者を認識する。音声認識部113は、例えば、音声入力部170から取得した音声データから背景雑音等を消去し、ユーザの音声の特徴量を示す音声特徴情報を抽出する。そして、音声認識部113は、音声データから抽出した音声特徴情報と、記憶部120のユーザ情報DB121が記憶する各ユーザ情報に含まれる音声特徴情報とを照合し、話者認識結果として、類似度が所定の基準を満たす登録ユーザを特定する。音声特徴情報は、ユーザの音声を識別可能な情報であればよく、例えば、声の高さ、強さ、速さ、声質等の音響的特徴を数値で示したものである。このように、音声認識部113は、ユーザ認識部111によりロボット100の周囲に存在する複数のユーザが認識された場合、何れのユーザによって発話されたかを特定することが可能である。   Further, the voice recognition unit 113 recognizes a speaker who has generated a voice included in the voice data acquired from the voice input unit 170. The speech recognition unit 113, for example, deletes background noise and the like from the speech data acquired from the speech input unit 170, and extracts speech feature information indicating a feature amount of the user's speech. Then, the voice recognition unit 113 compares the voice feature information extracted from the voice data with the voice feature information included in each user information stored in the user information DB 121 of the storage unit 120, and determines the similarity as a speaker recognition result. Specifies a registered user satisfying a predetermined criterion. The voice feature information may be any information as long as the voice of the user can be identified. For example, the voice feature information indicates acoustic features such as the pitch, strength, speed, and voice quality of the user by numerical values. As described above, when a plurality of users existing around the robot 100 are recognized by the user recognition unit 111, the voice recognition unit 113 can specify which user has spoken.

また、音声認識部113は、音声入力部170から取得した音声データに基づいて、音源方向を認識する。音声認識部113は、例えば、音声入力部170が有するマイクユニットの各マイクの集音時間差や音圧レベル差等に基づいて音源方向を認識する。   Further, the voice recognition unit 113 recognizes the sound source direction based on the voice data acquired from the voice input unit 170. The voice recognition unit 113 recognizes a sound source direction based on, for example, a sound collection time difference and a sound pressure level difference of each microphone of the microphone unit included in the voice input unit 170.

ユーザ行動認識部114は、ロボット100に対するユーザの行動(以下、「ユーザ行動」と称する)を認識する。ユーザ行動認識部114は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に応じて、ユーザ行動を認識する。ユーザ行動認識部114は、例えば、タッチセンサにより検出された接触強度が予め設定された基準値よりも低い場合には、そのユーザ行動を「撫でる」と認識し、接触強度が予め設定された基準値よりも高い場合には、そのユーザ行動を「叩く」と認識する。なお、ユーザ行動判定部は、撮像部130による撮像画像からユーザの表情や振る舞い等を検出することにより、ユーザ行動として認識してもよい。ユーザ行動認識部114は、認識したユーザ行動を、該当するユーザのユーザ情報に追加し、履歴情報として記憶する。ユーザ行動認識部114は、本発明の行動認識手段として機能する。   The user action recognition unit 114 recognizes a user action with respect to the robot 100 (hereinafter, referred to as “user action”). The user action recognition unit 114 recognizes the user action according to, for example, the utterance content of the user recognized by the voice recognition unit 113, the contact strength detected by the touch sensor of the sensor unit 140, and the like. For example, when the contact strength detected by the touch sensor is lower than a preset reference value, the user behavior recognition unit 114 recognizes the user action as “stroke” and sets the contact strength to the preset reference value. If the value is higher than the value, the user action is recognized as “hitting”. Note that the user action determination unit may recognize the user action by detecting a user's facial expression, behavior, or the like from the image captured by the image capturing unit 130. The user action recognition unit 114 adds the recognized user action to the user information of the corresponding user and stores the information as history information. The user action recognition unit 114 functions as the action recognition unit of the present invention.

好感度設定部(好感度取得部)115は、各ユーザの好感度を設定(取得)する。好感度設定部115は、例えば、ロボット100に対するユーザ行動に応じて、そのユーザに対する好感度を決定する。好感度設定部115は、好感度を決定するにあたり、例えば、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブル(好感度取得テーブル)を参照する。   The positivity setting section (positivity acquisition section) 115 sets (acquires) the positivity of each user. The favorable impression setting unit 115 determines the favorable impression for the user in accordance with, for example, the user's behavior with respect to the robot 100. The positivity setting unit 115 refers to, for example, the user action table and the positivity setting table (positivity acquisition table) stored in the storage unit 120 when determining the positivity.

ユーザ行動テーブルは、図3に示すように、「ユーザ行動」と「付与ポイント」とが対応付けられている。「ユーザ行動」として、「話しかける」、「撫でる」等が列挙されている。また、「付与ポイント」は、各ユーザ行動に予め設定された数値である。各ユーザ行動に異なる付与ポイントを設定することにより、ユーザ行動の属性(ロボット100に対するユーザの好意性)に応じた重み付けが施されている。例えば、「話しかける」、「撫でる」等の好意的な行動には正値が設定され、「応答しない」、「叩く」等の非好意的な行動には負値が設定されている。このような重み付けを施すことにより、各ユーザ行動を、好意的な行動と非好意的な行動とに区別することができるとともに、好意的な行動であれば好感度を上げ、非好意的な行動であれば好感度を下げることができる。   In the user action table, as shown in FIG. 3, "user action" and "given point" are associated with each other. As the “user action”, “talk”, “stroke”, and the like are listed. The “given point” is a numerical value preset for each user action. By setting different giving points for each user action, weighting is given according to the attribute of the user action (the user's preference for the robot 100). For example, positive values are set for favorable actions such as "talk" and "stroke", and negative values are set for unfavorable actions such as "do not respond" and "hit". By performing such weighting, each user behavior can be distinguished into a favorable behavior and a non-favorable behavior, and if the behavior is favorable, the sensitivity is increased, and the unfavorable behavior is increased. If so, the favorable sensitivity can be reduced.

好感度設定テーブルは、図4に示すように、「好感度」と「好感度ポイント」とが対応付けられている。「好感度」は、好感度の度合いに応じて、「A」、「B」、「C」、「D」、「E」の5つのレベルに分類されている。「好感度ポイント」は、所定期間において同一のユーザによって実施された各ユーザ行動に設定された付与ポイントの合計値である。好感度「A」〜「E」の順に高い好感度ポイントが対応付けられている。すなわち、好感度に関する1または複数の閾値が設けられ、好感度は、設けられた閾値によって複数の区分に分類されている。「好感度ポイント」は、例えば、直近の所定期間における付与ポイントの合計値、最近の所定期間における好感度ポイントほど重みを大きくして求めた加重平均値、直近の所定期間を含むある程度長期間の好感度ポイントによって求めた移動平均値等を用いることができる。   In the positivity setting table, as shown in FIG. 4, "favorability" and "favorable points" are associated with each other. “Positive” is classified into five levels of “A”, “B”, “C”, “D”, and “E” according to the degree of favorable. The “favorable point” is the total value of the points given to each user action performed by the same user during the predetermined period. Higher liking points are associated in the order of liking “A” to “E”. That is, one or a plurality of thresholds relating to positivity are provided, and the positivity is classified into a plurality of categories according to the provided thresholds. The “favorable point” is, for example, the total value of the awarded points in the latest predetermined period, a weighted average value obtained by increasing the weight as the favorable point in the latest predetermined period is obtained, and a certain long term including the latest predetermined period. A moving average value or the like obtained from the favorable points can be used.

好感度設定部115は、例えば、所定期間が経過する毎に、各ユーザの好感度(好感度レベル)を設定し、記憶部120のユーザ情報DB121に格納された対応するユーザ情報に含まれる現状の好感度を更新して記憶する。また、好感度設定部115は、ユーザ情報DB121に格納された該当するユーザ情報を参照して予め設定された好感度を適宜取得することができる。このように、好感度設定部115は、本発明の記録手段、取得手段として機能する。   For example, the positivity setting unit 115 sets the positivity (positivity level) of each user every time a predetermined period elapses, and sets the current state included in the corresponding user information stored in the user information DB 121 of the storage unit 120. Update and memorize the liking of. Further, the positivity setting unit 115 can appropriately acquire a preset positivity with reference to the corresponding user information stored in the user information DB 121. As described above, the positivity setting unit 115 functions as a recording unit and an acquisition unit of the present invention.

応対制御部116は、対象ユーザに対する好感度に応じて応対様態を決定し、決定された応対様態に基づいて、感情表現をするように、移動部150、動作部160、音声出力部180のうち少なくとも1つを制御して、各種行動を実行する。   The response control unit 116 determines a response mode according to a favorable impression of the target user and, based on the determined response mode, expresses an emotion so as to express an emotion among the moving unit 150, the operation unit 160, and the voice output unit 180. At least one is controlled to execute various actions.

応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、そのユーザ行動に応答するロボット100の行動(以下、「応答行動(応答動作)」と称する)を実行するための応対様態を好感度に応じて決定する。応対制御部116は、例えば、ユーザ行動認識部114が「おはよう」、「こんにちは」等のあいさつを認識した場合、好感度が高い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつと、これに続けて、「今日はいい天気だね」、「今日は何をするの?」等の対象ユーザとの対話を持続、発展させるような発話を加えた応答を応対様態として決定する。一方、好感度が低い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつのみの形式的、儀礼的な応答を応対様態として決定する。そして、応対制御部116は、音声出力部180を制御して、決定された応答様態を示す音声を出力する。   When the user behavior recognition unit 114 recognizes the user behavior, the response control unit 116 responds to the behavior of the robot 100 that responds to the user behavior (hereinafter, referred to as a “response behavior (response operation)”). Is determined according to the sensitivity. Answering control section 116, for example, a user behavior recognition unit 114 is "Good morning", if you recognize the greeting such as "Hello", for a high favorability target user, "Good morning", greeting such as "Hello" Following this, a response with utterances such as "Today is good weather" or "What do you want to do today?" . On the other hand, for a low positivity target user, "good morning", to determine formal only greeting such as "Hello", a ritual response as answering manner. Then, the response control unit 116 controls the voice output unit 180 to output a voice indicating the determined response mode.

また、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、対象ユーザが予め設定された接近条件を満たすか否かを判定し、接近条件を満たすと判定した場合には、好感度に応じて応対様態としての接近様態を決定する。接近条件として、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけ(例えば、「おいで」、「こっちに来て」等)があったこと等が挙げられる。この場合、応対制御部116は、音声認識部113による発話認識結果に基づいて、接近条件を満たすか否かを判定すればよい。以下の説明では、接近条件を満たす対象ユーザを、「接近対象ユーザ」と称する。接近条件を満たすと判定した場合、応対制御部116は、例えば、図5に示す接近様態決定テーブルを参照して、接近様態として、接近対象ユーザに接近中の移動経路(接近経路)及び移動速度(接近速度)、接近終了時の接近対象ユーザとの間の対向距離(接近距離)及びユーザと向き合う接近中又は接近終了時の対向姿勢(接近姿勢)のうちの少なくとも1つを決定する。このように、応対制御部(接近制御部)116は、本発明の制御手段、決定手段として機能する。   In addition, the response control unit 116 determines whether the target user satisfies a preset approach condition when the user activity recognition unit 114 recognizes the user activity, and determines that the target user satisfies the approach condition, The approach mode as the response mode is determined according to the favorable impression. The approach condition includes that the target user has called for the robot 100 to approach the robot 100 in the vicinity of the user (for example, “come”, “come here”, etc.). In this case, the response control unit 116 may determine whether or not the approach condition is satisfied, based on the speech recognition result by the voice recognition unit 113. In the following description, a target user satisfying the approach condition is referred to as an “approach target user”. When it is determined that the approach condition is satisfied, the response control unit 116 refers to, for example, the approach mode determination table illustrated in FIG. 5 and determines, as the approach mode, a moving route (approach route) and a moving speed approaching the approach target user. At least one of (approach speed), an opposing distance (approach distance) with the approach target user at the end of the approach, and an opposing posture (approaching posture) facing the user during or at the end of the approach is determined. Thus, the response control unit (approach control unit) 116 functions as the control unit and the determination unit of the present invention.

接近様態決定テーブルは、例えば、図5に示すように、好感度のレベル毎に、応対様態(接近様態)として「移動経路」、「移動速度」、「対向距離」、「対向姿勢」が対応付けられている。   For example, as shown in FIG. 5, the approach state determination table corresponds to “moving path”, “moving speed”, “opposed distance”, and “opposed attitude” as response states (approaching states) for each level of liking. It is attached.

「移動経路(接近経路)」は、好感度が高いほど接近対象ユーザに向かって直行する(直線的な)経路パターンが設定され、好感度が低いほど遠回りをする(蛇行する)経路パターンが設定されている。例えば、好感度「A」には直線的な経路である「直線」、好感度「C」には曲率が小さい経路である「湾曲(大)」、好感度「E」には蛇行幅が大きい経路である「蛇行(大)」、がそれぞれ設定されている。   As the “moving route (approaching route)”, a route pattern that is more direct (linear) toward the approach target user is set as the preference is higher, and a path pattern that makes a detour (meandering) is set as the preference is lower. Have been. For example, a favorable path “A” is a straight path “linear”, a favorable path “C” is a path with a small curvature “curved (large)”, and a favorable path “E” has a large meandering width. The route “meandering (large)” is set.

より具体的には、移動経路「直線」の場合、図6に示すように、ロボット100は、接近対象ユーザURに向かって、直線的な移動経路MRに沿って接近する。また、移動経路「湾曲(大)」、「湾曲(小)」の場合、図7に示すように、ロボット100は、接近対象ユーザURに向かって、湾曲した移動経路MRに沿って接近する。なお、「湾曲(大)」は、「湾曲(小)」よりも曲率が小さいことを示す。また、移動経路「蛇行(大)」、「蛇行(小)」の場合、図8に示すように、ロボット100は、接近対象ユーザURに向かって、蛇行した移動経路MRに沿って接近する。なお、「蛇行(大)」は、「蛇行(小)」よりも蛇行幅が大きいことを示す。このように、「移動経路」は、好感度が低くなるに従って移動距離が長くなるように設定されている。応対制御部116は、ユーザ認識部111が認識した対象ユーザの位置及び対象ユーザまでの距離、「移動経路」が示す経路パターンに基づいて、具体的な移動経路を決定する。   More specifically, in the case of the moving path “straight”, as shown in FIG. 6, the robot 100 approaches the approach target user UR along the linear moving path MR. In addition, in the case of the moving path “curved (large)” or “curved (small)”, as illustrated in FIG. 7, the robot 100 approaches the approach target user UR along the curved moving path MR. Note that “curved (large)” indicates that the curvature is smaller than “curved (small)”. In the case of the moving route “meandering (large)” or “meandering (small)”, as shown in FIG. 8, the robot 100 approaches the approach target user UR along the meandering moving route MR. Note that “meandering (large)” indicates that the meandering width is larger than “meandering (small)”. As described above, the “moving route” is set such that the moving distance becomes longer as the likability decreases. The response control unit 116 determines a specific moving route based on the position of the target user recognized by the user recognizing unit 111, the distance to the target user, and the route pattern indicated by the “moving route”.

「移動速度(接近速度)」は、好感度が高いほど高速で移動するように設定され、好感度が低いほど低速で移動するように設定されている。例えば、好感度「A」には予め設定された標準速度(例えば、0.3m/秒)よりも高速である「高」(例えば、0.5m/秒)、好感度「B」には標準速度よりもやや高速である「やや高」(例えば、0.4m/秒)、好感度「C」には標準速度である「中」、好感度「D」には標準速度よりもやや低速である「やや低」(例えば、0.2m/秒)、好感度「E」には標準速度よりも低速である「低」(例えば、0.1m/秒)が設定されている。   The “moving speed (approaching speed)” is set such that the higher the liking is, the higher the speed is, and the lower the liking is, the lower the speed is. For example, the favorable sensitivity “A” is “high” (for example, 0.5 m / sec) faster than a preset standard speed (for example, 0.3 m / sec), and the favorable sensitivity “B” is a standard "Slightly higher" (for example, 0.4 m / sec), which is slightly higher than the speed, "Medium" which is the standard speed for the favorable sensitivity "C", and slightly lower than the standard speed for the favorable sensitivity "D" A certain “slightly low” (for example, 0.2 m / sec) and the favorable sensitivity “E” are set to “low” (for example, 0.1 m / sec) lower than the standard speed.

「対向距離(接近距離)」は、好感度が高いほど移動終了時にロボット100と接近対象ユーザとの間の距離が短くなるように設定され、好感度が低いほど移動終了時にロボット100と接近対象ユーザとの間の距離が長くなるように設定されている。例えば、好感度「A」には予め設定された標準距離(例えば、0.5m)よりも短い距離(例えば、0.3m)である「短」、好感度「B」には標準距離よりもやや短い距離(例えば、0.4m)である「やや短」、好感度「C」には標準距離である「中」、好感度「D」には標準距離よりもやや長い距離(例えば、0.6m)である「やや長」、好感度「E」には標準距離よりも長い距離(例えば、0.7m)である「長」が設定されている。このように、「対向距離」は、好感度が低くなるに従って、離間した位置で接近移動を終了して接近対象ユーザと向き合うように設定されている。   The “opposite distance (approach distance)” is set so that the distance between the robot 100 and the approach target user becomes shorter at the end of the movement as the liking is higher. The distance from the user is set to be long. For example, the favorable sensitivity “A” is “short” which is a distance (for example, 0.3 m) shorter than a preset standard distance (for example, 0.5 m), and the favorable sensitivity “B” is more than the standard distance. "Slightly short" which is a slightly shorter distance (for example, 0.4 m), "Medium" which is a standard distance for the favorable sensitivity "C", and a slightly longer distance (for example, 0 for the favorable sensitivity "D") than the standard distance .6m), and "Length", which is a distance longer than the standard distance (for example, 0.7m), is set for the favorable sensitivity "E". As described above, the “facing distance” is set so as to end the approaching movement at the separated position and face the approaching user as the favorable impression decreases.

「対向姿勢(接近姿勢)」は、ロボット100が、接近対象ユーザに向かう接近中又は接近終了時にユーザに向き合う姿勢であって、図9及び図10に示すように、接近対象ユーザURの正面方向UDとロボット100の正面方向RDとがなす角度である対向角度αによって表されている。ここで、接近対象ユーザの正面方向UDは、接近対象ユーザの左右方向に沿った面を後方から前方に垂直に貫く方向である。また、ロボット100の正面方向RDとは、ロボット100の左右方向に沿った面を後方から前方に垂直に貫く方向である。好感度が高いほど接近対象ユーザと真正面で向き合うように設定され、好感度が低いほど接近対象ユーザと斜めに向き合うように設定されている。例えば、好感度「A」には「0°」、好感度「B」には「10°」好感度「C」には「20°」、好感度「D」には「30°」、好感度「E」には「40°」が設定されている。対向角度αが0°の場合には、図9に示すように、ロボット100は接近対象ユーザURと真正面に向き合い、対向角度αが0°以外の場合には、図10に示すように、ロボット100が接近対象ユーザURと斜めに向き合うことになる。   The “opposing posture (approaching posture)” is a posture in which the robot 100 faces the user during approaching or at the end of approaching the approaching user, and as shown in FIGS. 9 and 10, the front direction of the approaching user UR. It is represented by an opposing angle α which is an angle formed between the UD and the front direction RD of the robot 100. Here, the front direction UD of the approach target user is a direction perpendicularly penetrating the surface along the left-right direction of the approach target user from the rear to the front. Further, the front direction RD of the robot 100 is a direction that vertically penetrates a surface along the left-right direction of the robot 100 from the rear to the front. The setting is such that the higher the liking is, the more directly facing the approaching user, and the lower the liking is, the more inclined the user is facing the approaching user. For example, “0 °” for the favorable impression “A”, “10 °” for the favorable impression “B”, “20 °” for the favorable impression “C”, “30 °” for the favorable impression “D”, “40 °” is set for the sensitivity “E”. When the opposing angle α is 0 °, the robot 100 faces the approaching user UR directly in front, as shown in FIG. 9, and when the opposing angle α is other than 0 °, as shown in FIG. 100 faces obliquely to the approaching user UR.

なお、ロボット100の胴体部101と頭部102の正面方向が一致するものとして説明したが、ロボット100の胴体部101を接近対象ユーザと真正面で向き合うようにして、ロボット100の頭部102(顔部)の正面方向と接近対象ユーザの正面方向とがなす角度を対向角度αとしてもよい。すなわち、好感度が低くなるにつれて、頭部102を左右いずれかの方向に回転させて、ロボット100の頭部102(顔部)を接近対象ユーザからそむけるようにしてもよい。   Although the description has been made assuming that the front direction of the body 101 and the head 102 of the robot 100 match, the body 102 of the robot 100 (face The angle formed between the front direction of the part ()) and the front direction of the approach target user may be defined as the opposing angle α. That is, as the favorable impression decreases, the head 102 may be rotated left or right to turn the head 102 (face) of the robot 100 away from the approaching user.

このように、図5に示す接近様態決定テーブルには、ロボット100が、好感度が高いユーザに対して早く近くに接近するといった好意的な動作を実行する一方、好感度が低いユーザに対して時間をかけて移動し離れた位置で接近をやめるといった好意的でない動作を実行するように、接近様態が設定されている。なお、接近様態決定テーブルにおいて、好感度の度合い(レベル)に応じて、優先的な動作や優先的でない動作を設定してもよい。   As described above, the approach state determination table illustrated in FIG. 5 indicates that the robot 100 performs a favorable operation such as approaching a user with high liking quickly and quickly, while the robot 100 performs a favorable operation with respect to a user with low liking. The approach mode is set so as to perform an unfavorable operation such as moving over time and stopping the approach at a remote position. In the approach state determination table, a priority operation or a non-priority operation may be set according to the degree (level) of liking.

さらに、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識しない場合であっても、ロボット100の自発的な行動(以下、「自発行動」と称する)を実行するか否かを判定し、実行すると判定した場合には、自発行動を実行するための応対様態を好感度に応じて決定する。自発行動を実行するか否かの判定に際して、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間、すなわち、対象ユーザがロボット100に対して何ら働きかけをしない時間が、所定時間(例えば、30分)継続したこと等を判定条件として用いればよい。自発行動としては、対象ユーザにロボットとのコミュニケーションを促す発話(例えば、「何をしているの?」、「会話しようよ」等)や動作(例えば、対象ユーザの注意を引くように手を振る動作等)が挙げられ、好感度に応じて発話内容や動作の程度が適宜調整される。なお、ユーザ行動の有無や接近条件を満たすか否かに関わらず、好感度の高い対象ユーザに対しては自発的に接近するようにしてもよい。   Furthermore, the response control unit 116 determines whether or not to execute a voluntary action of the robot 100 (hereinafter, referred to as “self-issue action”) even when the user action recognition unit 114 does not recognize the user action. However, if it is determined to be executed, the response mode for executing the self-issue operation is determined according to the favorable impression. When determining whether or not to execute the self-issuing action, for example, a time during which the user action recognition unit 114 does not recognize the user action, that is, a time during which the target user does not act on the robot 100 for a predetermined time (for example, 30 seconds). Minutes) may be used as a determination condition. The self-issue action includes an utterance (for example, "What are you doing?", "Let's talk", etc.) or an action (for example, a hand that draws the target user's attention to encourage the target user to communicate with the robot. Shaking operation, etc.), and the utterance content and the degree of the operation are appropriately adjusted according to the favorable sensitivity. It should be noted that regardless of whether or not there is a user action and whether or not the approach condition is satisfied, the target user with high liking may be spontaneously approached.

なお、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部115、応対制御部116は、単一のコンピュータで各機能を実現してもよいし、各々別個のコンピュータによって各機能を実現してもよい。   In addition, the user recognition unit 111, the face recognition unit 112, the voice recognition unit 113, the user action recognition unit 114, the sensibility setting unit 115, and the response control unit 116 may realize each function by a single computer, Each function may be realized by a separate computer.

記憶部120は、記憶内容が書き換え可能な不揮発性の半導体メモリ、ハードディスクドライブ等を備え、制御部110がロボット100の各部を制御するために必要な各種データを記憶する。記憶部120は、例えば、前述したユーザ行動テーブル、好感度設定テーブル、接近様態決定テーブル等を所定の記憶領域に記憶する。記憶部120は、本発明の記録手段として機能する。   The storage unit 120 includes a rewritable nonvolatile semiconductor memory, a hard disk drive, and the like, and stores various data necessary for the control unit 110 to control each unit of the robot 100. The storage unit 120 stores, for example, the above-described user action table, positivity setting table, approach state determination table, and the like in a predetermined storage area. The storage unit 120 functions as a recording unit of the present invention.

また、記憶部120は、各種データをそれぞれ格納する複数のデータベースを有する。記憶部120は、例えば、ユーザ情報DB121、音声認識DB122、対話情報DB123を有する。   Further, the storage unit 120 has a plurality of databases each storing various data. The storage unit 120 has, for example, a user information DB 121, a voice recognition DB 122, and a dialog information DB 123.

ユーザ情報DB121は、登録ユーザに関する各種情報をユーザ情報として蓄積して記憶する。ユーザ情報は、例えば、ユーザを識別するために予め割り当てられたユーザ識別情報、ユーザの顔の特徴量を示す顔特徴情報、ユーザの音声の特徴量を示す音声特徴情報、所定の期間毎のユーザ行動や好感度ポイント等の履歴情報、現状の好感度等を含む。   The user information DB 121 accumulates and stores various information on registered users as user information. The user information includes, for example, user identification information assigned in advance to identify a user, face feature information indicating a feature amount of a user's face, voice feature information indicating a feature amount of a user's voice, and a user for each predetermined period. It includes history information such as actions and liking points, and current liking.

音声認識DB122は、音声認識処理に用いられる音声認識データを格納する。音声認識データには、例えば、他の語と意味を区別する音の最小単位である音素の各々の特徴(周波数特性)を表わす音響モデル、音素の特徴と単語とを対応付ける単語辞書、単語の並びとその連接確率を表す言語モデルが含まれる。   The voice recognition DB 122 stores voice recognition data used for voice recognition processing. The speech recognition data includes, for example, an acoustic model representing each feature (frequency characteristic) of a phoneme, which is the minimum unit of a sound that distinguishes the meaning from another word, a word dictionary for associating phoneme features with words, a sequence of words And a language model representing its connection probability.

対話情報DB123は、応対制御部116が、ユーザとの対話におけるロボット100の応答及び発話に係る音声データを生成するために必要となる対話情報を格納する。対話情報は、例えば、ユーザの発話に対するロボット100の応答を生成するために用いられる応答情報、ユーザに自発的に話しかける際のロボット100の発話を生成するために用いられる発話情報、ロボット100の応答及び発話の合成音声波形を示す音声データを生成するために用いられる音声合成情報を含む。応答情報は、例えば、ユーザの発話内容を示すテキストデータと、ロボット100の応答内容を示すテキストデータとが対応付けられている。発話情報は、例えば、ロボット100の発話内容を示すテキストデータを含む。また、音声合成情報は、例えば、テキストデータを音声化するために用いられる各音素の音声波形を示す音声データを含む。   The conversation information DB 123 stores the conversation information necessary for the response control unit 116 to generate voice data related to the response and utterance of the robot 100 in the conversation with the user. The conversation information is, for example, response information used to generate a response of the robot 100 to the user's utterance, utterance information used to generate an utterance of the robot 100 when spontaneously speaking to the user, a response of the robot 100 And speech synthesis information used to generate speech data indicating a synthesized speech waveform of the utterance. In the response information, for example, text data indicating the utterance content of the user and text data indicating the response content of the robot 100 are associated with each other. The utterance information includes, for example, text data indicating the utterance content of the robot 100. The speech synthesis information includes, for example, speech data indicating a speech waveform of each phoneme used to convert text data into speech.

撮像部130は、レンズ、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えるカメラで構成され、ロボット100の周囲を撮像する。撮像部130は、例えば頭部102の正面上部に設置され、頭部102の前方を撮像し、デジタル画像データを生成して出力する。カメラは、レンズが向く方向を変えるように動作可能なモータ駆動の架台(ジンバル等)に取り付けられ、ユーザの顔等を追尾することができるように構成される。撮像部130は、本発明の撮像手段として機能する。   The imaging unit 130 is configured by a camera including an image sensor such as a lens, a charge coupled device (CCD) image sensor, and a complementary metal oxide semiconductor (CMOS) image sensor, and captures an image around the robot 100. The imaging unit 130 is installed, for example, at the front upper part of the head 102, captures an image of the front of the head 102, and generates and outputs digital image data. The camera is attached to a motor-driven gantry (gimbal or the like) operable to change the direction in which the lens faces, and is configured to be able to track a user's face or the like. The imaging unit 130 functions as an imaging unit of the present invention.

センサ部140は、ロボット100の外部状態及び内部状態を示す情報(物理量)を取得し、適宜、所定の信号に変換して制御部110に供給する。センサ部140は、例えば、ユーザの接触により受けた圧力を検知するタッチセンサ、ロボット100の加速度を検知する加速度センサ、外部の温度及び湿度を検知する温湿度センサ等の各種センサを有する。タッチセンサは、接触圧力の大きさに応じて、「撫でる」や「叩く」といったユーザの物理的な働きかけを認識するために、例えば、頭部102の上方部に配置される。なお、加速度センサを用いて、互いに直交する3軸方向の加速度から接触強度を検出してもよい。   The sensor unit 140 acquires information (physical quantity) indicating the external state and the internal state of the robot 100, converts the information into a predetermined signal as appropriate, and supplies the signal to the control unit 110. The sensor unit 140 includes various sensors such as a touch sensor that detects pressure received by a user's contact, an acceleration sensor that detects acceleration of the robot 100, and a temperature and humidity sensor that detects external temperature and humidity. The touch sensor is disposed, for example, above the head 102 in order to recognize a physical action of the user such as “stroke” or “hit” according to the magnitude of the contact pressure. The contact strength may be detected from accelerations in three orthogonal directions using an acceleration sensor.

移動部150は、ロボット100を移動可能とするための部位である。移動部150は、例えば、ロボット100の左右の足部104の底部にそれぞれ設けられた車輪と、左右の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を有する。制御部110から受信した制御信号に従って、駆動回路は、モータに駆動用のパルス信号を供給する。モータは、駆動用のパルス信号に従って、左右の車輪を回転駆動させ、ロボット100を移動させる。このように、移動部150は、本発明の移動手段として機能する。なお、左右の車輪がそれぞれ独立して回転駆動するように構成され、ロボット100が前進、後退、旋回、加減速などの走行が可能であれば、モータの数は任意である。例えば、連結機構や操舵機構を設けるなどして1つのモータで左右の車輪を駆動させてもよい。また、モータの数に合わせて駆動回路の数も適宜変更することができる。   The moving unit 150 is a part that enables the robot 100 to move. The moving unit 150 includes, for example, wheels provided on the bottoms of the left and right feet 104 of the robot 100, a motor that drives the left and right wheels to rotate, and a drive circuit that drives and controls the motors. The drive circuit supplies a pulse signal for driving to the motor in accordance with the control signal received from the control unit 110. The motor rotationally drives the left and right wheels according to the driving pulse signal, and moves the robot 100. Thus, the moving unit 150 functions as the moving unit of the present invention. Note that the number of motors is arbitrary as long as the left and right wheels are configured to rotate independently of each other and the robot 100 can travel forward, backward, turn, accelerate, and decelerate. For example, the left and right wheels may be driven by one motor by providing a coupling mechanism or a steering mechanism. Further, the number of drive circuits can be appropriately changed according to the number of motors.

動作部160は、制御部110の制御に従って予め定められた動作を行う部位である。動作部160は、頭部102、手部103、足部104等の被駆動部材と、被駆動部材を駆動するアクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、により構成される。動作部160は、制御部110(応対制御部116)の制御の下、駆動回路から供給された駆動信号に従って駆動部材が被駆動部材を駆動することにより、例えば、手足を動かす動作や頭を上下左右に振る動作を行う。このように、動作部160は、本発明の動作手段として機能する。   The operation section 160 is a section that performs a predetermined operation under the control of the control section 110. The operation unit 160 includes driven members such as the head 102, the hand 103, and the foot 104, a driving member such as an actuator that drives the driven member, and a driving circuit that drives and controls the driving member. . Under the control of the control unit 110 (the response control unit 116), the operation unit 160 drives the driven member in accordance with the drive signal supplied from the drive circuit, for example, an operation of moving a limb or moving the head up and down. Perform the swinging operation to the left and right. As described above, the operation unit 160 functions as an operation unit of the present invention.

音声入力部170は、複数のマイクで構成されるマイクユニット、A/D(Analog to Digital)変換器等で構成され、例えば頭部102の異なる位置に設置された複数のマイクで集音した音声を増幅し、A/D変換、符号化等の信号処理を施したデジタル音声データ(音声情報)を制御部110に出力する。音声入力部170は、本発明の音声入力手段として機能する。   The sound input unit 170 includes a microphone unit including a plurality of microphones, an A / D (Analog to Digital) converter, and the like. For example, sound collected by a plurality of microphones installed at different positions on the head 102 is used. , And outputs digital audio data (audio information) on which signal processing such as A / D conversion and encoding has been performed to the control unit 110. The voice input unit 170 functions as a voice input unit of the present invention.

音声出力部180は、スピーカ、D/A(Digital to Analog)変換器等で構成され、制御部110(応対制御部116)から供給される音声データに復号化、D/A変換、増幅等の信号処理を施し、アナログ音声信号を例えば口部106に設置されたスピーカから出力する。このように、音声出力部180は、本発明の音声出力手段として機能する。   The audio output unit 180 includes a speaker, a D / A (Digital to Analog) converter, and the like, and performs decoding, D / A conversion, amplification, and the like on audio data supplied from the control unit 110 (the response control unit 116). The signal processing is performed, and an analog audio signal is output from, for example, a speaker provided in the mouth 106. Thus, the audio output unit 180 functions as the audio output unit of the present invention.

次に、図11に示すフローチャートを参照しながら、ロボット100が実行する応対制御処理について説明する。応対制御処理は、ロボット100が好感度に応じた応対様態で対象ユーザと応対するようにロボット100の行動を制御する処理である。制御部110は、ユーザ認識部111がロボット100の周囲に存在するユーザを認識したことを契機に、応対制御処理を開始する。   Next, the response control processing executed by the robot 100 will be described with reference to the flowchart shown in FIG. The response control process is a process of controlling the behavior of the robot 100 so that the robot 100 responds to the target user in a response manner according to the favorable feeling. The control unit 110 starts the response control process when the user recognition unit 111 recognizes a user existing around the robot 100.

制御部110は、応対制御処理を開始すると、まず、対象ユーザに対する好感度を設定する(ステップS101)。制御部110(好感度設定部115)は、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブルを参照し、好感度ポイントに対応付けられた好感度のレベルを特定することにより、対象ユーザに対する好感度を設定する。なお、好感度設定部115は、ユーザ情報DB121を参照して、対象ユーザのユーザ情報に含まれる予め設定された現状の好感度を取得してもよい。   When starting the response control process, the control unit 110 first sets a favorable impression for the target user (step S101). The control unit 110 (the positivity setting unit 115) refers to the user action table and the positivity setting table stored in the storage unit 120, and specifies the level of positivity associated with the positivity point, thereby setting the target. Set the user's favorability. Note that the positivity setting unit 115 may acquire the preset current positivity included in the user information of the target user with reference to the user information DB 121.

次に、制御部110は、ロボット100の周囲に対象ユーザが存在するか否かを判定する(ステップS102)。制御部110は、撮像部130が撮像した撮像画像に基づいて、対象ユーザが依然として周囲に存在するか否かを確認する。ロボット100の周囲に対象ユーザが存在しないと判定した場合(ステップS102:NO)、制御部110は、応対制御処理を終了する。   Next, the control unit 110 determines whether or not the target user exists around the robot 100 (Step S102). The control unit 110 confirms whether or not the target user is still around based on the captured image captured by the imaging unit 130. When it is determined that the target user does not exist around the robot 100 (step S102: NO), the control unit 110 ends the response control process.

一方、ロボット100の周囲に対象ユーザが存在すると判定した場合(ステップS102:YES)、制御部110は、ユーザ行動を認識したか否かを判定する(ステップS103)。制御部110(ユーザ行動認識部114)は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に基づいて、ユーザ行動を新たに認識したか否かに応じて判定する。   On the other hand, when it is determined that the target user exists around the robot 100 (step S102: YES), the control unit 110 determines whether the user action has been recognized (step S103). The control unit 110 (user action recognition unit 114) newly recognizes the user action based on, for example, the content of the utterance of the user recognized by the voice recognition unit 113, the contact strength detected by the touch sensor of the sensor unit 140, and the like. It is determined according to whether or not it has been performed.

ユーザ行動を認識していないと判定した場合(ステップS103:NO)、制御部110は、自発行動を実行するか否かを判定する(ステップS104)。制御部110(応対制御部116)は、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間が、所定時間継続したか否かに応じて判定する。自発行動を実行しないと判定した場合(ステップS104:NO)、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。   When determining that the user action is not recognized (step S103: NO), the control unit 110 determines whether or not to execute the self-issue operation (step S104). The control unit 110 (the response control unit 116) determines, for example, according to whether or not the time during which the user action recognition unit 114 does not recognize the user action has continued for a predetermined time. If it is determined that the self-issuing action is not to be executed (step S104: NO), the control unit 110 returns the process to step S102, and checks whether the target user is still around.

ステップS103において、ユーザ行動を認識したと判定した場合(ステップS103:YES)、制御部110(応対制御部116)は、接近条件を満たすか否かを判定する(ステップS105)。応対制御部116は、例えば、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけの有無に応じて判定する。   When it is determined in step S103 that the user action has been recognized (step S103: YES), the control unit 110 (the response control unit 116) determines whether or not the approach condition is satisfied (step S105). The response control unit 116 determines, for example, according to whether or not there is a call for the target user to call the robot 100 near the target user.

ステップS105を実行した後、又は、ステップS104において自発行動を実行すると判定した場合(ステップS104:YES)、制御部110(応対制御部116)は、好感度に応じた応対様態を決定する(ステップS106)。応対制御部116は、ステップS104における判定結果(自発行動を実行するという判定結果)、ステップS105における判定結果(接近条件を満たすか否かの判定結果)に基づいて、好感度に応じた応対様態を決定する。   After executing step S105, or when it is determined in step S104 that the self-issuing operation is to be executed (step S104: YES), the control unit 110 (the response control unit 116) determines a response mode according to the favorable impression (step S104). S106). The response control unit 116 responds to the favorable response based on the determination result in step S104 (the determination result of executing the self-issue operation) and the determination result in step S105 (the determination result as to whether the approach condition is satisfied). To determine.

ステップS104において自発行動を実行すると判定した場合、応対制御部116は、ステップS101において設定された好感度に応じて、発話内容や動作の程度を適宜調整して、自発行動を実行するための応対様態を決定する。   If it is determined in step S104 that the self-issue operation is to be performed, the response control unit 116 appropriately adjusts the content of the utterance and the degree of the operation according to the favorable sensitivity set in step S101, and responds to the execution of the self-issue operation. Determine the mode.

ステップS105において接近条件を満たさないと判定した場合、応対制御部116は、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定する。   If it is determined in step S105 that the approach condition is not satisfied, the response control unit 116 determines a response mode for executing a response action to the user action recognized in step S103 according to the favorable feeling.

ステップS105において接近条件を満たすと判定した場合、応対制御部116は、応対様態として、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定する。   If it is determined in step S105 that the approach condition is satisfied, the response control unit 116 determines, as the response mode, the moving route and the moving speed approaching the approaching user, the facing distance between the approaching user at the end of the approach, and the user. At least one of the opposing postures during approaching or at the end of approaching is determined.

続いて、制御部110は、ステップS106において決定した応対様態に基づいて、各部を制御して各種行動を実行する(ステップS107)。応対制御部116は、ステップS106において、自発行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して自発行動を実行する。自発行動に係る応対様態が、例えば、対象ユーザにロボット100とのコミュニケーションを促す発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。   Subsequently, the control unit 110 controls each unit to execute various actions based on the response manner determined in step S106 (step S107). If the response control unit 116 determines in step S106 the response mode for executing the self-issuing operation according to the favorable impression, the response control unit 116 controls each unit based on the response mode and executes the self-issuing operation. If the response mode related to the self-issue is, for example, an utterance that prompts the target user to communicate with the robot 100, voice data indicating the content of the utterance is generated, and the voice output unit 180 is controlled to generate the generated voice data. Output the sound based on

応対制御部116は、ステップS106において、接近条件を満たさず、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して応答行動を実行する。応答行動に係る応対様態が、例えば、対象ユーザのあいさつに応答する発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。   If the response control unit 116 determines in step S106 that the approach condition is not satisfied and the response mode for executing the response action to the user action recognized in step S103 according to the preference, based on the response mode, Each part is controlled to execute a response action. If the response mode related to the response action is, for example, an utterance that responds to the greeting of the target user, audio data indicating the utterance content is generated, and the audio output unit 180 is controlled to generate an audio based on the generated audio data. Output.

応対制御部116は、ステップS106において、接近条件を満たし、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及び接近対象ユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定した場合、その応対様態に基づいて、移動部150、動作部160を制御して接近行動を実行する。   In step S106, the response control unit 116 satisfies the approach condition, the moving route and the moving speed approaching the approaching user, the facing distance to the approaching user at the end of the approach, and the approaching or facing approaching user. When at least one of the facing postures at the time of the approach end is determined, the approaching behavior is executed by controlling the moving unit 150 and the operating unit 160 based on the response manner.

ステップS107を実行した後、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。   After executing Step S107, the control unit 110 returns the process to Step S102, and checks whether the target user is still around.

以上に説明したように、本実施の形態によれば、ロボット100は、ユーザに対する好感度に応じて応対様態を決定し、決定した応対様態に基づいて、各部を制御することにより、各種行動を実行する。例えば、応対制御部116は、予め定められた接近条件を満たす場合、応対様態として、接近対象であるユーザに接近する際の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを好感度に応じて決定し、決定した応対様態に基づいて接近行動を実行する。これにより、好感度に応じた応対を向上させることができる。   As described above, according to the present embodiment, the robot 100 determines the response mode according to the user's favorable feeling and controls each unit based on the determined response mode, thereby performing various actions. Execute. For example, when a predetermined approach condition is satisfied, the response control unit 116 determines, as a response mode, a moving route and a moving speed when approaching the approaching user, and an opposition between the approaching user at the end of the approach. At least one of the distance and the facing posture facing the user during approaching or at the end of approaching is determined according to the preference, and the approaching action is performed based on the determined response mode. Thereby, the response according to the favorable sensitivity can be improved.

また、ロボット100は、接近条件を満たす場合以外にも、ユーザ行動に対する応答行動に係る応対様態を好感度に応じて決定し、決定した応対様態に基づいて応答行動を実行する。さらに、自発行動に係る応対様態を好感度に応じて決定し、決定された応対様態に基づいて自発行動を実行する。これにより、好感度に応じた応対を向上させることができる。   In addition to the case where the robot 100 satisfies the approach condition, the robot 100 determines a response mode related to the response action to the user action according to the favorable impression, and executes the response action based on the determined response mode. Further, the response mode relating to the self-issuing action is determined according to the favorable impression, and the self-issuing action is executed based on the determined response mode. Thereby, the response according to the favorable sensitivity can be improved.

なお、本発明は、前記の実施の形態に限定されず、種々の変形及び応用が可能である。前記の実施の形態は、次のように変形されてもよい。   Note that the present invention is not limited to the above embodiment, and various modifications and applications are possible. The above embodiment may be modified as follows.

前記の実施の形態において、ユーザ認識部111により認識された所定の対象に対する好感度を好感度設定部(好感度取得部)115が設定または取得して、好感度設定部(好感度取得部)115により設定または取得された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定していた。しかしながら、本発明は、これに限定されず、ユーザ認識部111により認識された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定してもよい。   In the above-described embodiment, the positivity setting unit (positivity acquisition unit) 115 sets or acquires the positivity for the predetermined target recognized by the user recognition unit 111, and the positivity setting unit (positivity acquisition unit). The response control unit (approach control unit) 116 has determined an approach state during approach to the predetermined object based on the favorable sensibility for the predetermined object set or acquired by the 115. However, the present invention is not limited to this, and the response control unit (approach control unit) 116 determines the approach state while approaching the predetermined object based on the favorable sensibility for the predetermined object recognized by the user recognition unit 111. May be determined.

例えば、ユーザ認識部111が、移動経路上において接近対象ユーザとは異なる他のユーザを認識した場合には、好感度設定部115は、他のユーザに対する好感度を設定し、応対制御部116は、他のユーザに対する好感度に応じて、接近対象ユーザの応対様態及び他のユーザの応対様態を決定してもよい。この場合、応対制御部116は、接近対象ユーザの応対様態として決定された移動経路において、他のユーザを避けて通過するための迂回経路(通過経路)を決定する。ここで、接近対象ユーザは、本発明の所定の対象の一例であり、他のユーザは、本発明の他の対象の一例である。   For example, when the user recognition unit 111 recognizes another user different from the approach target user on the moving route, the positivity setting unit 115 sets the positivity for the other user, and the response control unit 116 The response mode of the approach target user and the response mode of the other user may be determined according to the favorable impression of the other user. In this case, the response control unit 116 determines a detour route (passing route) for passing through the moving route determined as the response mode of the approach target user while avoiding other users. Here, the approaching user is an example of the predetermined object of the present invention, and the other user is an example of another object of the present invention.

図12を参照しながら説明すると、応対制御部116は、接近対象ユーザURに接近中の移動経路MR上に、他のユーザUR’が存在する場合、他のユーザUR’を避けて通過するために、迂回経路(通過経路)DRを形成した新たな移動経路MRを決定する。この際、応対制御部116は、他のユーザUR’に対する好感度に応じて迂回経路DRを形成する。応対制御部116は、例えば、他のユーザUR’の好感度が高い場合には、他のユーザUR’のすぐそばを通過するように迂回経路DRを形成し、他のユーザUR’の好感度が低い場合には、他のユーザUR’を大回りして通過する迂回経路DRを形成する。また、応対制御部116は、他のユーザUR’の応対様態として、他のユーザUR’に対する好感度に応じてロボット100が迂回経路DRを通過する際の移動姿勢を決定する。応対制御部116は、移動姿勢として、例えば、他のユーザUR’の好感度が高い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’に向くようにし(ロボット100が他のユーザUR’を見ているようにする)、他のユーザUR’の好感度が低い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’を向かないようにする(そっぽを向くようにする)。これにより、好感度に応じて多様な表現を演出することができ、好感度に応じた応対をさらに向上させることができる。   Explaining with reference to FIG. 12, the response control unit 116 is configured to, when there is another user UR ′ on the movement route MR approaching the approach target user UR, pass through the other user UR ′. Then, a new moving route MR that forms the detour route (passing route) DR is determined. At this time, the response control unit 116 forms the detour route DR in accordance with the favorable feeling for the other user UR '. The response control unit 116 forms the detour route DR so as to pass right next to the other user UR ', for example, when the favorableness of the other user UR' is high, and Is low, a bypass route DR that makes a large turn around another user UR 'is formed. In addition, the response control unit 116 determines, as a response mode of the other user UR ', a moving posture when the robot 100 passes through the detour route DR according to a favorable feeling for the other user UR'. The response control unit 116 determines that the front direction of the head 102 (face) of the robot 100 is different from the moving posture, for example, when the favorable attitude of the other user UR 'is high, when passing through the detour route DR. (It is assumed that the robot 100 is looking at the other user UR '), and when the other user UR' has a low preference, when the robot 100 passes through the detour route DR, the robot The front direction of the head 102 (face) of 100 is not directed to another user UR ′ (it is directed to the other side). Thereby, various expressions can be produced according to the favorable impression, and the response according to the favorable impression can be further improved.

前記の実施の形態において、ロボット100が、例えば、無線通信モジュール等を有する通信部を備え、インターネット上に構築されたクラウドシステムを利用して記憶部120が記憶する各種データを記憶し、ロボット100からこれらのデータに適宜アクセスできるようにしてもよい。   In the above embodiment, the robot 100 includes, for example, a communication unit having a wireless communication module or the like, and stores various data stored in the storage unit 120 using a cloud system built on the Internet. These data may be made accessible as needed.

また、ロボット100が、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ等の表示装置により構成される表示部を備えることにより、ユーザ毎の応対をさらに多様化してもよい。例えば、ロボット100の目部105に表示部を備え、好感度に応じた異なる目を表現する画像を表示することにより、ロボット100の表情を演出するようにしてもよい。   In addition, the robot 100 includes a display unit including a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), and an organic EL (Electro-Luminescence) display. It may be further diversified. For example, a display unit may be provided in the eye unit 105 of the robot 100 to display an image expressing different eyes according to the liking, so that the expression of the robot 100 may be produced.

前記の実施の形態において、制御部110のCPUが実行する制御プログラムは、予めROM等に記憶されていた。しかしながら、本発明は、これに限定されず、前記の各種処理を実行させるための制御プログラムを、既存の汎用コンピュータや、フレームワーク、ワークステーション等の電子機器に実装することにより、前記の実施の形態に係るロボット100に相当する装置として機能させてもよい。   In the above-described embodiment, the control program executed by the CPU of the control unit 110 is stored in the ROM or the like in advance. However, the present invention is not limited to this. By implementing a control program for executing the various processes described above on an existing general-purpose computer, a framework, and an electronic device such as a workstation, the present invention can be implemented. The device may function as a device corresponding to the robot 100 according to the embodiment.

このようなプログラムの提供方法は任意であり、例えば、コンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM)等に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。   The method of providing such a program is arbitrary. For example, the program is stored in a computer-readable recording medium (flexible disk, CD (Compact Disc) -ROM, DVD (Digital Versatile Disc) -ROM) and distributed. Alternatively, the program may be stored in a storage on a network such as the Internet, and provided by downloading the program.

また、前記の処理をOS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(Bulletin Board System:BBS)に前記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、配信されたプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   In the case where the above processing is performed by sharing an OS (Operating System) and an application program, or when the OS and the application program cooperate with each other, only the application program may be stored in a recording medium or a storage. It is also possible to superimpose a program on a carrier wave and distribute it via a network. For example, the program may be posted on a bulletin board (Bulletin Board System: BBS) on a network, and the program may be distributed via the network. Then, the above-described processing may be executed by activating the distributed program and executing it in the same manner as other application programs under the control of the OS.

本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、前述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及び特許請求の範囲と同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。   The present invention is capable of various embodiments and modifications without departing from the broad spirit and scope of the invention. The above-described embodiment is for describing the present invention, and does not limit the scope of the present invention. That is, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications made within the scope of the claims and within the meaning of the invention equivalent to the scope of the claims are considered to be within the scope of the invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   Hereinafter, the invention described in the claims of the present application is additionally described.

(付記)
(付記1)
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(Note)
(Appendix 1)
Recognition means for recognizing a predetermined object;
Determining means for determining an approach mode during approach to the predetermined object, based on the favorable sensitivity to the predetermined object recognized by the recognition means;
During the approach to the predetermined target, control means for controlling the own device to express emotions to the predetermined target according to the approach mode determined by the determination means,
Comprising,
A robot characterized in that:

(付記2)
前記自装置に移動をさせる移動手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近経路を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近経路に応じて前記所定の対象に前記感情表現をするように前記移動手段を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 2)
Further comprising a moving means for moving the own device,
The approach mode during approach to the predetermined object includes an approach path,
The control means, while approaching the predetermined object, controls the moving means to express the emotion on the predetermined object according to the determined approach route,
The robot according to supplementary note 1, characterized in that:

(付記3)
前記自装置に動作をさせる動作手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近姿勢を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近姿勢に応じて前記所定の対象に前記感情表現をするように前記動作手段を制御する、
ことを特徴とする付記1又は2に記載のロボット。
(Appendix 3)
Further comprising operating means for operating the own device,
The approach mode during approach to the predetermined object includes an approach posture,
The control means controls the operating means to express the emotion on the predetermined object according to the determined approaching posture during the approach to the predetermined object,
3. The robot according to claim 1 or 2, wherein

(付記4)
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
を更に備え、
前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
ことを特徴とする付記1乃至3の何れか1つに記載のロボット。
(Appendix 4)
Imaging means for capturing an image;
Face recognition means for performing face recognition by detecting a face from the image captured by the imaging means,
Voice input means for inputting voice,
Voice recognition means for performing voice recognition from the voice input by the voice input means,
Further comprising
The recognition unit recognizes the predetermined target by the face recognition unit and / or the voice recognition unit.
4. The robot according to any one of supplementary notes 1 to 3, wherein:

(付記5)
前記認識手段により認識された前記所定の対象に対する前記好感度を取得する取得手段と、
前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
を更に備え、
前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(Appendix 5)
Acquisition means for acquiring the positivity for the predetermined object recognized by the recognition means,
Behavior recognition means for recognizing the behavior of the predetermined target with respect to the own device,
Further comprising
The acquisition unit acquires the favorable impression according to the behavior of the predetermined target recognized by the behavior recognition unit.
The robot according to any one of supplementary notes 1 to 4, characterized in that:

(付記6)
前記取得手段は、
前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
ことを特徴とする付記5に記載のロボット。
(Appendix 6)
The acquisition means,
If the behavior of the predetermined object recognized by the behavior recognition means is a favorable behavior, the degree of the favorable impression is increased from the current favorable impression, and if the behavior is not the favorable behavior, Lowering the degree of the favorability than the current favorability,
The robot according to supplementary note 5, wherein

(付記7)
情報を記録する記録手段を更に備え、
前記記録手段は、
前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
ことを特徴とする付記6に記載のロボット。
(Appendix 7)
Further comprising recording means for recording information;
The recording means,
When the behavior of the predetermined object recognized by the behavior recognition means is the favorable behavior, the favorable impression is recorded higher than a threshold value, and when the behavior is not the favorable behavior, the favorable impression is recorded. Is recorded below the threshold,
The obtaining means obtains the favorable sensitivity of the predetermined object via the recording means,
7. The robot according to supplementary note 6, wherein:

(付記8)
前記行動認識手段は、
前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
ことを特徴とする付記6又は7に記載のロボット。
(Appendix 8)
The action recognition means,
When the own device is stroked by the predetermined object, or when the own device is spoken by the predetermined object, the action of the predetermined object is recognized as the favorable action,
When the own device is hit by the predetermined object, or when the own device is ignored by the predetermined object, the action of the predetermined object is recognized as not the favorable action.
8. The robot according to appendix 6 or 7, wherein:

(付記9)
前記制御手段は、前記所定の対象への接近中の前記接近様態として、前記自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を前記好感度に基づいて決定する、
ことを特徴とする付記1に記載のロボット。
(Appendix 9)
The control means may determine, as the approach mode during approach to the predetermined object, an approach route, an approach speed, an opposing angle, and an approach attitude when the own device approaches the predetermined object based on the favorable sensitivity. decide,
The robot according to supplementary note 1, characterized in that:

(付記10)
前記制御手段は、前記所定の対象への接近中において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする付記9に記載のロボット。
(Appendix 10)
The control means, while approaching the predetermined object,
A first opposing angle corresponding to a first approaching posture such as facing the predetermined object from the front at a first approach speed on a linear first approach path when the favorable sensitivity is higher than a threshold value; In, the own device controls the own device so as to approach the predetermined target,
When the favorable sensitivity is lower than the threshold, a second meandering second route that does not face the predetermined object from the front at a second approach speed lower than the first approach speed in a meandering second approach route. At a second facing angle corresponding to the approaching posture, the own device is controlled so that the own device approaches the predetermined target,
The robot according to supplementary note 9, wherein:

(付記11)
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作又は優先的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作又は優先的でない動作をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 11)
The control means, while approaching the predetermined object, as the emotional expression,
When the favorable impression is higher than a threshold, the own device is controlled to perform a favorable operation or a preferential operation to the predetermined target,
When the favorable impression is lower than the threshold, the own device is controlled to perform an unfavorable operation or a non-priority operation on the predetermined target,
The robot according to supplementary note 1, characterized in that:

(付記12)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的な動作の程度又は前記優先的な動作の程度を変更する、
ことを特徴とする付記11に記載のロボット。
(Appendix 12)
The control means, while approaching the predetermined object, changes the degree of the favorable operation or the degree of the preferential operation for the predetermined object according to the favorable sensitivity,
12. The robot according to supplementary note 11, wherein:

(付記13)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的でない動作の程度又は前記優先的でない動作の程度を変更する、
ことを特徴とする付記11又は12に記載のロボット。
(Appendix 13)
The control means, while approaching the predetermined object, changes the degree of the unfavorable operation or the degree of the non-priority operation with respect to the predetermined object according to the favorable sensitivity,
13. The robot according to appendix 11 or 12, wherein

(付記14)
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記1乃至13の何れか1つに記載のロボット。
(Appendix 14)
The predetermined object includes a human or an animal or another robot,
14. The robot according to any one of supplementary notes 1 to 13, wherein:

(付記15)
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 15)
While approaching the predetermined object, when the recognition unit recognizes another object different from the predetermined object,
The determining means, based on another favorable feeling for the other object recognized by the recognition means, determines a passing mode during the passing for the other object,
The control means, during the passage to the other object, controls the own device to express another emotion to the other object according to the passage manner determined by the determination means,
The robot according to supplementary note 1, characterized in that:

(付記16)
前記制御手段は、
前記他の対象への前記通過様態として、前記他の対象を避けて通過するための通過経路を決定する、
ことを特徴とする付記15に記載のロボット。
(Appendix 16)
The control means includes:
As the passing mode to the other object, determine a passage route to pass avoiding the other object,
16. The robot according to supplementary note 15, wherein:

(付記17)
前記制御手段は、
前記他の対象への前記通過様態として、前記通過経路を通過する場合の通過姿勢を決定する、
ことを特徴とする付記16に記載のロボット。
(Appendix 17)
The control means includes:
As the passing mode to the other object, determine a passing posture when passing through the passing route,
19. The robot according to supplementary note 16, wherein:

(付記18)
前記他の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記15乃至17の何れか1つに記載のロボット。
(Appendix 18)
The other object includes a human or animal or other robot,
18. The robot according to any one of supplementary notes 15 to 17, wherein:

(付記19)
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(Appendix 19)
A recognition step of recognizing a predetermined object;
A determining step of determining an approach mode during approaching the predetermined object based on the favorable sensibility for the predetermined object recognized in the recognition step;
During the approach to the predetermined object, a control step of controlling a robot to express an emotion to the predetermined object according to the approach mode determined in the determination step,
including,
A method for controlling a robot, comprising:

(付記20)
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させる、
ことを特徴とするプログラム。
(Appendix 20)
On the robot computer,
A recognition process for recognizing a predetermined object;
A determination process of determining an approach mode during approach to the predetermined object based on the favorable sensitivity to the predetermined object recognized by the recognition process;
During the approach to the predetermined object, a control process of controlling the robot so as to express an emotion on the predetermined object in accordance with the approach mode determined by the determination process,
Run,
A program characterized by the following.

100…ロボット、101…胴体部、102…頭部、103…手部、104…足部、105…目部、106…口部、110…制御部、111…ユーザ認識部、112…顔認識部、113…音声認識部、114…ユーザ行動認識部、115…好感度設定部(好感度取得部)、116…応対制御部(接近制御部)、120…記憶部、121…ユーザ情報DB、122…音声認識DB、123…対話情報DB、130…撮像部、140…センサ部、150…移動部、160…動作部、170…音声入力部、180…音声出力部、BL…バスライン、DR…迂回経路(通過経路)、MR…移動経路(接近経路)、RD…正面方向、UD…正面方向、UR…接近対象ユーザ(所定の対象)、UR’…他のユーザ(他の対象) Reference Signs List 100 robot, 101 body part, 102 head part, 103 hand part, 104 foot part, 105 eye part, 106 mouth part, 110 control part, 111 user recognition part, 112 face recognition part Reference numeral 113, a voice recognition unit, 114, a user behavior recognition unit, 115, a positivity setting unit (a positivity acquisition unit), 116, a response control unit (approach control unit), 120, a storage unit, 121, a user information DB, 122 ... voice recognition DB, 123 ... dialog information DB, 130 ... imaging unit, 140 ... sensor unit, 150 ... moving unit, 160 ... operation unit, 170 ... voice input unit, 180 ... voice output unit, BL ... bus line, DR ... Detour route (passing route), MR: moving route (approaching route), RD: front direction, UD: front direction, UR: approaching user (predetermined target), UR ': other user (other target)

Claims (20)

所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備える、
ことを特徴とするロボット。
Recognition means for recognizing a predetermined object;
Determining means for determining an approach mode during approach to the predetermined object, based on the favorable sensitivity to the predetermined object recognized by the recognition means;
During the approach to the predetermined target, control means for controlling the own device to express emotions to the predetermined target according to the approach mode determined by the determination means,
Comprising,
A robot characterized in that:
前記自装置に移動をさせる移動手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近経路を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近経路に応じて前記所定の対象に前記感情表現をするように前記移動手段を制御する、
ことを特徴とする請求項1に記載のロボット。
Further comprising a moving means for moving the own device,
The approach mode during approach to the predetermined object includes an approach path,
The control means, while approaching the predetermined object, controls the moving means to express the emotion on the predetermined object according to the determined approach route,
The robot according to claim 1, wherein:
前記自装置に動作をさせる動作手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近姿勢を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近姿勢に応じて前記所定の対象に前記感情表現をするように前記動作手段を制御する、
ことを特徴とする請求項1又は2に記載のロボット。
Further comprising operating means for operating the own device,
The approach mode during approach to the predetermined object includes an approach posture,
The control means controls the operating means to express the emotion on the predetermined object according to the determined approaching posture during the approach to the predetermined object,
The robot according to claim 1, wherein:
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
を更に備え、
前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
ことを特徴とする請求項1乃至3の何れか1項に記載のロボット。
Imaging means for capturing an image;
Face recognition means for performing face recognition by detecting a face from the image captured by the imaging means,
Voice input means for inputting voice,
Voice recognition means for performing voice recognition from the voice input by the voice input means,
Further comprising
The recognition unit recognizes the predetermined target by the face recognition unit and / or the voice recognition unit.
The robot according to any one of claims 1 to 3, wherein:
前記認識手段により認識された前記所定の対象に対する前記好感度を取得する取得手段と、
前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
を更に備え、
前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。
Acquisition means for acquiring the positivity for the predetermined object recognized by the recognition means,
Behavior recognition means for recognizing the behavior of the predetermined target with respect to the own device,
Further comprising
The acquisition unit acquires the favorable impression according to the behavior of the predetermined target recognized by the behavior recognition unit.
The robot according to any one of claims 1 to 4, wherein:
前記取得手段は、
前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
ことを特徴とする請求項5に記載のロボット。
The acquisition means,
If the behavior of the predetermined object recognized by the behavior recognition means is a favorable behavior, the degree of the favorable impression is increased from the current favorable impression, and if the behavior is not the favorable behavior, Lowering the degree of the favorability than the current favorability,
The robot according to claim 5, wherein:
情報を記録する記録手段を更に備え、
前記記録手段は、
前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
ことを特徴とする請求項6に記載のロボット。
Further comprising recording means for recording information;
The recording means,
When the behavior of the predetermined object recognized by the behavior recognition means is the favorable behavior, the favorable impression is recorded higher than a threshold value, and when the behavior is not the favorable behavior, the favorable impression is recorded. Is recorded below the threshold,
The obtaining means obtains the favorable sensitivity of the predetermined object via the recording means,
The robot according to claim 6, wherein:
前記行動認識手段は、
前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
ことを特徴とする請求項6又は7に記載のロボット。
The action recognition means,
When the own device is stroked by the predetermined object, or when the own device is spoken by the predetermined object, the action of the predetermined object is recognized as the favorable action,
When the own device is hit by the predetermined object, or when the own device is ignored by the predetermined object, the action of the predetermined object is recognized as not the favorable action.
The robot according to claim 6, wherein:
前記制御手段は、前記所定の対象への接近中の前記接近様態として、前記自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を前記好感度に基づいて決定する、
ことを特徴とする請求項1に記載のロボット。
The control means sets the approach route, approach speed, opposing angle, approach attitude when the own device approaches the predetermined object as the approach mode during approach to the predetermined object based on the favorable sensitivity. decide,
The robot according to claim 1, wherein:
前記制御手段は、前記所定の対象への接近中において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする請求項9に記載のロボット。
The control means, while approaching the predetermined object,
A first opposing angle corresponding to a first approaching posture such as facing the predetermined object from the front at a first approach speed on a linear first approach path when the favorable sensitivity is higher than a threshold value; In, the own device controls the own device so as to approach the predetermined target,
When the favorable sensitivity is lower than the threshold, a second meandering second route that does not face the predetermined object from the front at a second approach speed lower than the first approach speed in a meandering second approach route. At a second facing angle corresponding to the approaching posture, the own device is controlled so that the own device approaches the predetermined target,
The robot according to claim 9, wherein:
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作又は優先的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作又は優先的でない動作をするように前記自装置を制御する、
ことを特徴とする請求項1に記載のロボット。
The control means, while approaching the predetermined object, as the emotional expression,
When the favorable impression is higher than a threshold, the own device is controlled to perform a favorable operation or a preferential operation to the predetermined target,
When the favorable impression is lower than the threshold, the own device is controlled to perform an unfavorable operation or a non-priority operation on the predetermined target,
The robot according to claim 1, wherein:
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的な動作の程度又は前記優先的な動作の程度を変更する、
ことを特徴とする請求項11に記載のロボット。
The control means, while approaching the predetermined object, changes the degree of the favorable operation or the degree of the preferential operation for the predetermined object according to the favorable sensitivity,
The robot according to claim 11, wherein:
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的でない動作の程度又は前記優先的でない動作の程度を変更する、
ことを特徴とする請求項11又は12に記載のロボット。
The control means, while approaching the predetermined object, changes the degree of the unfavorable operation or the degree of the non-priority operation with respect to the predetermined object according to the favorable sensitivity,
The robot according to claim 11, wherein:
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする請求項1乃至13の何れか1項に記載のロボット。
The predetermined object includes a human or an animal or another robot,
The robot according to any one of claims 1 to 13, wherein:
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とする請求項1に記載のロボット。
While approaching the predetermined object, when the recognition unit recognizes another object different from the predetermined object,
The determining means, based on another favorable feeling for the other object recognized by the recognition means, determines a passing mode during the passing for the other object,
The control means, during the passage to the other object, controls the own device to express another emotion to the other object according to the passage manner determined by the determination means,
The robot according to claim 1, wherein:
前記制御手段は、
前記他の対象への前記通過様態として、前記他の対象を避けて通過するための通過経路を決定する、
ことを特徴とする請求項15に記載のロボット。
The control means includes:
As the passing mode to the other object, determine a passage route to pass avoiding the other object,
The robot according to claim 15, wherein:
前記制御手段は、
前記他の対象への前記通過様態として、前記通過経路を通過する場合の通過姿勢を決定する、
ことを特徴とする請求項16に記載のロボット。
The control means includes:
As the passing mode to the other object, determine a passing posture when passing through the passing route,
The robot according to claim 16, wherein:
前記他の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする請求項15乃至17の何れか1項に記載のロボット。
The other object includes a human or animal or other robot,
The robot according to any one of claims 15 to 17, wherein:
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
A recognition step of recognizing a predetermined object;
A determining step of determining an approach mode during approaching the predetermined object based on the favorable sensibility for the predetermined object recognized in the recognition step;
During the approach to the predetermined object, a control step of controlling a robot to express an emotion to the predetermined object according to the approach mode determined in the determination step,
including,
A method for controlling a robot, comprising:
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させる、
ことを特徴とするプログラム。
On the robot computer,
A recognition process for recognizing a predetermined object;
A determination process of determining an approach mode during approach to the predetermined object based on the favorable sensitivity to the predetermined object recognized by the recognition process;
During the approach to the predetermined object, a control process of controlling the robot so as to express an emotion on the predetermined object in accordance with the approach mode determined by the determination process,
Run,
A program characterized by the following.
JP2018118480A 2018-06-22 2018-06-22 Robot, robot control method and program Active JP7180139B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018118480A JP7180139B2 (en) 2018-06-22 2018-06-22 Robot, robot control method and program
JP2022180696A JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118480A JP7180139B2 (en) 2018-06-22 2018-06-22 Robot, robot control method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022180696A Division JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2019217122A true JP2019217122A (en) 2019-12-26
JP7180139B2 JP7180139B2 (en) 2022-11-30

Family

ID=69094786

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018118480A Active JP7180139B2 (en) 2018-06-22 2018-06-22 Robot, robot control method and program
JP2022180696A Active JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022180696A Active JP7476941B2 (en) 2018-06-22 2022-11-11 ROBOT, ROBOT CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (2) JP7180139B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114643569A (en) * 2020-12-17 2022-06-21 丰田自动车株式会社 Moving body system
EP4159387A1 (en) 2021-09-29 2023-04-05 Casio Computer Co., Ltd. Robot, robot control method, and program
EP4250022A1 (en) 2022-03-24 2023-09-27 Casio Computer Co., Ltd. Apparatus control device, apparatus control method, and program
JP7442341B2 (en) 2020-02-28 2024-03-04 株式会社国際電気通信基礎技術研究所 Robot, robot control program and robot control method
CN117708305A (en) * 2024-02-05 2024-03-15 天津英信科技有限公司 Dialogue processing method and system for response robot
EP4374944A1 (en) 2022-11-25 2024-05-29 Casio Computer Co., Ltd. Action control device, action control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (en) * 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2004042246A (en) * 2002-05-17 2004-02-12 Victor Co Of Japan Ltd Moving robot
JP2004114285A (en) * 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
JP2005084789A (en) * 2003-09-05 2005-03-31 Advanced Telecommunication Research Institute International Personal computer
JP2017226044A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, control method, and program of the robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (en) * 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2004042246A (en) * 2002-05-17 2004-02-12 Victor Co Of Japan Ltd Moving robot
JP2004114285A (en) * 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
JP2005084789A (en) * 2003-09-05 2005-03-31 Advanced Telecommunication Research Institute International Personal computer
JP2017226044A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, control method, and program of the robot

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442341B2 (en) 2020-02-28 2024-03-04 株式会社国際電気通信基礎技術研究所 Robot, robot control program and robot control method
CN114643569A (en) * 2020-12-17 2022-06-21 丰田自动车株式会社 Moving body system
JP2022096175A (en) * 2020-12-17 2022-06-29 トヨタ自動車株式会社 Movable body system
JP7431149B2 (en) 2020-12-17 2024-02-14 トヨタ自動車株式会社 mobile system
US11958182B2 (en) 2020-12-17 2024-04-16 Toyota Jidosha Kabushiki Kaisha Mobile unit system
EP4159387A1 (en) 2021-09-29 2023-04-05 Casio Computer Co., Ltd. Robot, robot control method, and program
EP4250022A1 (en) 2022-03-24 2023-09-27 Casio Computer Co., Ltd. Apparatus control device, apparatus control method, and program
EP4374944A1 (en) 2022-11-25 2024-05-29 Casio Computer Co., Ltd. Action control device, action control method, and program
CN117708305A (en) * 2024-02-05 2024-03-15 天津英信科技有限公司 Dialogue processing method and system for response robot
CN117708305B (en) * 2024-02-05 2024-04-30 天津英信科技有限公司 Dialogue processing method and system for response robot

Also Published As

Publication number Publication date
JP7180139B2 (en) 2022-11-30
JP7476941B2 (en) 2024-05-01
JP2023027060A (en) 2023-03-01

Similar Documents

Publication Publication Date Title
JP7476941B2 (en) ROBOT, ROBOT CONTROL METHOD AND PROGRAM
KR101991163B1 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US10702991B2 (en) Apparatus, robot, method and recording medium having program recorded thereon
WO2017215297A1 (en) Cloud interactive system, multicognitive intelligent robot of same, and cognitive interaction method therefor
CN107825429B (en) Dialogue apparatus and method
US11545174B2 (en) Emotion detection using speaker baseline
WO2002099545A1 (en) Man-machine interface unit control method, robot apparatus, and its action control method
WO2004075168A1 (en) Speech recognition device and speech recognition method
CN111475206B (en) Method and apparatus for waking up wearable device
JP7416295B2 (en) Robots, dialogue systems, information processing methods and programs
JP2020057300A (en) Identification device, robot, identification method, and program
US20190295526A1 (en) Dialogue control device, dialogue system, dialogue control method, and recording medium
WO2021166811A1 (en) Information processing device and action mode setting method
CN111506183A (en) Intelligent terminal and user interaction method
CN108665907A (en) Voice recognition device, sound identification method, recording medium and robot
JP7435641B2 (en) Control device, robot, control method and program
JP4774825B2 (en) Performance evaluation apparatus and method
JP5602753B2 (en) A toy showing nostalgic behavior
KR20230079858A (en) Speech situation recognition system and method for robot-human interaction
WO2019187543A1 (en) Information processing device and information processing method
WO2024054714A1 (en) Avatar representation and audio generation
JP2022006610A (en) Social capacity generation device, social capacity generation method, and communication robot
WO2024054713A1 (en) Avatar facial expressions based on semantical context
JP2021162685A (en) Utterance section detection device, voice recognition device, utterance section detection system, utterance section detection method, and utterance section detection program
CN117116250A (en) Voice interaction refusing method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7180139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150