JP2016135530A - Robot control device and robot - Google Patents

Robot control device and robot Download PDF

Info

Publication number
JP2016135530A
JP2016135530A JP2015011679A JP2015011679A JP2016135530A JP 2016135530 A JP2016135530 A JP 2016135530A JP 2015011679 A JP2015011679 A JP 2015011679A JP 2015011679 A JP2015011679 A JP 2015011679A JP 2016135530 A JP2016135530 A JP 2016135530A
Authority
JP
Japan
Prior art keywords
robot
unit
degree
output value
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015011679A
Other languages
Japanese (ja)
Other versions
JP6317266B2 (en
Inventor
高明 勝浦
Takaaki Katsuura
高明 勝浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015011679A priority Critical patent/JP6317266B2/en
Priority to PCT/JP2016/051325 priority patent/WO2016117514A1/en
Publication of JP2016135530A publication Critical patent/JP2016135530A/en
Application granted granted Critical
Publication of JP6317266B2 publication Critical patent/JP6317266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Abstract

PROBLEM TO BE SOLVED: To provide a robot control device which controls a robot to urge a user to take a voluntary action.SOLUTION: A control part (10) of a robot (1) includes a display control part (11) which displays a face image with expression urging a user to take action corresponding to an output value when the output value from a sensor part (60) is out of a prescribed range, and a degree setting part (12) which sets an urging degree. The display control part (11) displays the face image having expression corresponding to the set degree.SELECTED DRAWING: Figure 1

Description

本発明は、ロボット制御装置及びロボットに関する。   The present invention relates to a robot control device and a robot.

近年、ユーザを癒したり楽しませたりするペット型ロボットや家事や介護の代行を行う生活支援ロボットといったロボットが、徐々に人々の生活に浸透してきている。このようなロボットの中には、音声認識機能を有しユーザとコミュニケーションを取れるものも開発されている。例えば、顔を有し、出力する音声に応じて表情を変え、喜怒哀楽等の感情を表現するロボットもある。また、例えば、内蔵するセンサの検知により、例えば、「エアコンつけて」等の音声を出力して、環境を変えるための提案をユーザにするロボットもある。   In recent years, robots such as pet-type robots that heal and entertain users and life support robots that perform housework and nursing care have gradually permeated people's lives. Some of these robots have a voice recognition function and can communicate with the user. For example, there is a robot that has a face, changes its facial expression according to the output voice, and expresses emotions such as emotions. Further, for example, there is a robot that makes a user a suggestion for changing the environment by outputting a sound such as “turn on an air conditioner” by detecting a built-in sensor.

特開2012−178092(2012年9月13日公開)JP2012-178092 (released on September 13, 2012) 特開2006−43780(2006年2月16日公開)JP 2006-43780 (released February 16, 2006)

しかしながら、従来のロボットでは、ユーザにとって便利であるが、ロボットからの提案があたかもロボットから指示あるいは命令されているように感じ、ユーザは、憤慨したり、ロボットに対する親しみが芽生えず、提案を受け入れ難かったりすることがある。   However, with conventional robots, it is convenient for the user, but it feels as if the proposal from the robot seems to be instructed or commanded by the robot, and the user does not hesitate or develop familiarity with the robot, so it is difficult to accept the proposal. Sometimes.

そこで、本願発明は、前記課題に鑑みなされ、その目的は、ユーザに自発的行動を促すようにロボットを制御することが可能なロボット制御装置、及びロボットを提供することである。   Accordingly, the present invention has been made in view of the above problems, and an object thereof is to provide a robot control device and a robot capable of controlling the robot so as to prompt the user to take spontaneous action.

上記の課題を解決するために、本発明の一態様に係るロボット制御装置は、周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、を備えたロボットを制御するロボット制御装置であって、前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示する表示制御部と、前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部と、を備え、前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示することを特徴とする。   In order to solve the above problems, a robot control apparatus according to one aspect of the present invention is a robot control apparatus that controls a robot including a sensor unit that detects a surrounding environment and a display unit that displays a face image. When the output value indicating the detection result by the sensor unit is out of a predetermined range, the display control displays on the display unit a facial image of a facial expression that prompts the user to perform an action according to the output value from the sensor unit. A degree setting unit configured to set a degree of prompting the user to perform the action based on at least one of the output value and an elapsed time after the output value is out of the predetermined range, The display control unit displays a facial image of an expression corresponding to the set degree on the display unit.

上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、センサ部からの出力値に応じた行動をユーザに促す度合いに応じた表情の顔画像を表示する。よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、上記構成によると、ユーザに自発的行動を促すようにロボットを制御することが可能となる。   According to the above configuration, when the output value from the sensor unit of the robot is out of the predetermined range, a facial image of a facial expression corresponding to the degree of prompting the user to act according to the output value from the sensor unit is displayed. Therefore, the display of the facial image of the facial expression according to the degree of prompting can inform the user that the output value of the sensor unit is out of the predetermined range, and the user can behave according to the output value from the sensor unit. Can be urged. By setting the predetermined range to a value that is comfortable or safe for the user, it is possible to prevent an unfavorable environment such as discomfort and danger for the user. Furthermore, since the user is prompted by facial expressions, it is not intimidating, and the user can be urged while being softened or healed. Thus, according to the above configuration, it is possible to control the robot so as to prompt the user to take spontaneous action.

本発明の実施の形態1に係るロボットの概略構成を示す図である。It is a figure which shows schematic structure of the robot which concerns on Embodiment 1 of this invention. 上記ロボットの使用状況を示す図である。It is a figure which shows the use condition of the said robot. 上記ロボットが表示する顔画像の一例であり、(a)及び(b)は、エアコンを操作し暖房運転するようユーザを促す表情の顔画像の図ある。It is an example of the face image which the said robot displays, (a) And (b) is a figure of the facial image of the expression which urges a user to operate an air conditioner and to carry out heating operation. 上記ロボットが表示する顔画像の一例であり、(a)及び(b)は、エアコンを操作し除湿運転するようユーザを促す表情の顔画像の図ある。It is an example of the face image which the said robot displays, (a) And (b) is a figure of the face image of the expression which urges a user to operate an air-conditioner and to perform dehumidification operation. 上記ロボットが表示する顔画像の一例であり、(a)及び(b)は、照明機器を点灯するようユーザを促す表情の顔画像の図である。It is an example of the face image which the said robot displays, (a) And (b) is a figure of the facial image of the expression which prompts the user to light up lighting equipment. 上記ロボットが表示する顔画像の一例であり、(a)は驚きの表情、(b)は悲しみの表情、(c)は喜びの表情、の顔画像の図である。It is an example of the face image which the said robot displays, (a) is a figure of a surprise expression, (b) is a sad expression, (c) is a figure of a joy expression. 上記ロボットが表示する顔画像の一例であり、(a)はだるい表情、(b)はしかめっ面、の顔画像の図であるIt is an example of the face image which the said robot displays, (a) is a figure of the face image of a gentle expression and (b) a grimace. 本発明の実施の形態2に係るロボットの概略構成を示す図である。It is a figure which shows schematic structure of the robot which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係るロボットの概略構成を示す図である。It is a figure which shows schematic structure of the robot which concerns on Embodiment 3 of this invention.

〔実施の形態1〕
以下、本発明の一実施形態について図1〜7に基づいて説明すれば以下の通りである。
[Embodiment 1]
Hereinafter, it will be as follows if one Embodiment of this invention is described based on FIGS.

(ロボットの構成)
本実施の形態に係るロボット1は、表情を表出可能なロボットであり、その外観は、図2に示すように頭部と胴体部とを有する雪だるま型である。胴体部には腕部が付随している。なお、ロボット1の外観は、図示したものに限定されず、例えば、図2の外観にさらに脚部を有していてもよい。あるいは、ヒューマノイド型であっても、ペット型であってもよい。
(Robot configuration)
The robot 1 according to the present embodiment is a robot capable of expressing a facial expression, and its appearance is a snowman type having a head and a torso as shown in FIG. An arm part is attached to the body part. Note that the appearance of the robot 1 is not limited to the illustrated one, and for example, the appearance of FIG. 2 may further include legs. Alternatively, it may be a humanoid type or a pet type.

ロボット1は、その頭部の顔領域に顔画像が表示され、表情の変化は後述のセンサ部60による検知結果を示す出力値に基づき行われる。また、ユーザとの対話内容に基づき表情が変化する。ロボット1は、本来の喜怒哀楽に加え、汗をかいたり震えていたりする顔画像を表示することで、人間により近い表情を映すことが可能である。このように、ロボット1は顔の表情を様々に変化できるため、ロボット1が感情を持っているように見せかけることができる。そのため、ユーザは、より親しみや愛着をもってロボット1に接することができる。   In the robot 1, a face image is displayed on the face area of the head, and the expression change is performed based on an output value indicating a detection result by a sensor unit 60 described later. Also, the facial expression changes based on the content of the dialogue with the user. In addition to the original emotions, the robot 1 can display facial images that are sweating or trembling, thereby enabling the expression of an expression closer to a human being. Thus, since the robot 1 can change the facial expression in various ways, the robot 1 can appear to have emotions. Therefore, the user can touch the robot 1 with more familiarity and attachment.

さらに、ロボット1は、音声認識機能及び発話機能を有しており、音声(音声信号)が入力されると音声認識を行い、その認識結果に応じた発話を行う。よって、ユーザは自然言語を用いた音声によってロボット1と対話することが可能である。   Furthermore, the robot 1 has a voice recognition function and an utterance function. When a voice (voice signal) is input, the robot 1 performs voice recognition and utters according to the recognition result. Therefore, the user can interact with the robot 1 by voice using natural language.

次に、ロボット1の構成の詳細について説明する。図1は、本実施の形態に係るロボット1の構成を示す図である。ロボット1は、制御部(ロボット制御装置)10、表示部20、音声出力部30、音声入力部40、動作部50、センサ部60、カメラ部70、及びデータ格納部80を備えている。   Next, details of the configuration of the robot 1 will be described. FIG. 1 is a diagram showing a configuration of a robot 1 according to the present embodiment. The robot 1 includes a control unit (robot control device) 10, a display unit 20, a voice output unit 30, a voice input unit 40, an operation unit 50, a sensor unit 60, a camera unit 70, and a data storage unit 80.

制御部10は、ロボット1の各部を制御するブロックである。制御部10は、例えば、CPU(Central Processing Unit)や専用プロセッサなどの演算処理部などにより構成されるコンピュータ装置から成る。制御部10は、データ格納部80に記憶されているロボット1における各種制御を実施するためのプログラムを読み出して実行することで、ロボット1の各部の動作を統括的に制御する。制御部10は、また、表示制御部11、度合い設定部12、発話制御部(音声制御部)13、及び音声認識部14としての機能を有する。これらの詳細については、後述する。   The control unit 10 is a block that controls each unit of the robot 1. For example, the control unit 10 includes a computer device including an arithmetic processing unit such as a CPU (Central Processing Unit) or a dedicated processor. The control unit 10 comprehensively controls the operation of each unit of the robot 1 by reading and executing a program for performing various controls in the robot 1 stored in the data storage unit 80. The control unit 10 also has functions as a display control unit 11, a degree setting unit 12, an utterance control unit (voice control unit) 13, and a voice recognition unit 14. Details of these will be described later.

表示部20は、ロボット1の顔領域に顔場像データを用いて様々な顔画像を表示することで、ロボット1にて喜怒哀楽等の表情を表出するブロックである。本実施の形態では、表示部20は、リアプロジェクション方式で内蔵プロジェクタによりロボット1の顔領域に顔画像を映し出すものとするが、これには限定されない。   The display unit 20 is a block that displays various facial images using facial field image data in the face area of the robot 1, thereby expressing facial expressions such as emotions in the robot 1. In the present embodiment, the display unit 20 projects a face image on the face area of the robot 1 by a built-in projector by a rear projection method, but is not limited thereto.

音声出力部30は、スピーカ等の音声出力装置であり、音声入力部40は、マイク等の音声入力装置である。   The audio output unit 30 is an audio output device such as a speaker, and the audio input unit 40 is an audio input device such as a microphone.

動作部50は、ロボット1の各種動作を実行するブロックである。動作部50が実行するロボット1における動作としては、例えば、頭部又は全体を回転させたり、手を動かしたりといった動作が挙げられるが、これらに限定されない。ロボット1の動作とは、ロボット1の少なくとも一部が物理的に移動することを指す。   The operation unit 50 is a block that executes various operations of the robot 1. Examples of the operation in the robot 1 executed by the operation unit 50 include an operation of rotating the head or the whole or moving the hand, but is not limited thereto. The operation of the robot 1 means that at least a part of the robot 1 physically moves.

センサ部60は、ロボット1周囲の環境を検知するための装置である。本実施の形態では、センサ部60は、温度センサ、湿度センサ、及び度センサを備えているものとする。これら以外のセンサが含まれていてもよい。カメラ部70は、静止画像及び動画像を撮影する撮像装置である。   The sensor unit 60 is a device for detecting the environment around the robot 1. In the present embodiment, it is assumed that the sensor unit 60 includes a temperature sensor, a humidity sensor, and a degree sensor. Sensors other than these may be included. The camera unit 70 is an imaging device that captures still images and moving images.

データ格納部80は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などを含み、ロボット1にて用いられる各種情報(データ)を記憶するブロックである。また、データ格納部80には、ロボット1の顔領域に表示される顔画像データのデータベース81と、ロボット1が発話する発話データのデータベース82とが格納されている。   The data storage unit 80 includes a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), and the like, and is a block that stores various information (data) used in the robot 1. Further, the data storage unit 80 stores a database 81 of face image data displayed in the face area of the robot 1 and a database 82 of speech data uttered by the robot 1.

表示制御部11は、表示部20を制御し、ロボット1の頭部の顔領域に顔画像データを表示するブロックである。表示制御部11は、センサ部60による検知結果を示す出力値が所定の範囲から外れると、センサ部60からの出力値に応じた行動をユーザに促す表情の顔画像であり、度合い設定部12にて設定された度合いに応じた表情の顔画像を、表示部20に表示させる。センサ部60からの出力値に応じた行動をユーザに促す表情とは、例えば、センサ部60からの出力値が温度である場合、エアコンを操作し冷房運転するようユーザを促す、汗をかいて辛そうな表情、エアコンを操作し暖房運転するようユーザを促す、青ざめて震えている表情、等である。促す度合いに応じた表情の顔画像の表示については、後段で具体例を用いて説明する。   The display control unit 11 is a block that controls the display unit 20 to display face image data in the face area of the head of the robot 1. The display control unit 11 is a facial image of a facial expression that prompts the user to take an action according to the output value from the sensor unit 60 when the output value indicating the detection result by the sensor unit 60 is out of a predetermined range. A face image having a facial expression corresponding to the degree set in is displayed on the display unit 20. The expression that prompts the user to take an action according to the output value from the sensor unit 60 is, for example, when the output value from the sensor unit 60 is temperature, sweats the user to operate the air conditioner to perform a cooling operation. Such as a painful expression, an expression that prompts the user to operate the air conditioner and perform a heating operation, and a pale and trembling expression. The display of facial images of facial expressions according to the degree of prompting will be described later using specific examples.

度合い設定部12は、センサ部60からの出力値、及び、センサ部60からの出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定するブロックである。促す度合いの設定については、後段で具体例を用いて説明する。   The degree setting unit 12 responds to the output value from the sensor unit 60 based on at least one of the output value from the sensor unit 60 and the elapsed time after the output value from the sensor unit 60 is out of the predetermined range. This is a block for setting the degree of prompting the user to take the action. The setting of the degree of prompting will be described later using a specific example.

発話制御部13は、センサ部からの出力値またはカメラ部70が取得した情報に応じた発話データを、あるいは、音声認識部14の認識結果に応じた発話データを、データ格納部80から読み出し、音声データ(音声、音声情報)を生成(音声合成)して、音声出力部30から出力させるブロックである。なお、発話データが音声データとして生成されている(録音音声)場合には、発話制御部13は、音声合成は行わない。   The utterance control unit 13 reads the utterance data corresponding to the output value from the sensor unit or the information acquired by the camera unit 70 or the utterance data corresponding to the recognition result of the voice recognition unit 14 from the data storage unit 80, This block generates voice data (voice, voice information) (voice synthesis) and outputs the voice data from the voice output unit 30. Note that when the speech data is generated as speech data (recorded speech), the speech control unit 13 does not perform speech synthesis.

音声認識部14は、ユーザからの入力音声を認識するブロックである。具体的には、音声認識部14は、音声入力部40から入力された音声データをテキストデータに変換して、そのテキストデータを解析して単語やフレーズを抽出する。なお、音声認識の処理について公知技術を用いることができる。   The voice recognition unit 14 is a block that recognizes an input voice from the user. Specifically, the voice recognition unit 14 converts voice data input from the voice input unit 40 into text data, analyzes the text data, and extracts words and phrases. A known technique can be used for voice recognition processing.

顔画像データのデータベース81は、表示部20に表示させる様々な表情の顔画像の画像データが、センサ部60からの出力値に応じた行動をユーザに促す度合い毎に登録されているデータベースである。   The face image data database 81 is a database in which image data of face images with various expressions to be displayed on the display unit 20 is registered for each degree of prompting the user to perform an action according to the output value from the sensor unit 60. .

発話データのデータベース82は、センサ部60からの出力値に応じた行動をユーザに促す度合いに対応させた発話データ登録されているデータベースである。また、発話データのデータベース82には、単語やフレーズに対応させた発話データが登録されている。単語1つに対応したものだけでなく、複数の単語の組み合わせに対応したものが登録されていてもよい。また、ある単語やあるフレーズに対応させて複数の発話データが登録されていてもよく、この場合、実際に音声出力されるものを選択すればよい。なお、発話データは、テキストデータとして格納しておけばよい。このようなデータベースの構築については、公知技術が利用できる。   The utterance data database 82 is a database in which utterance data is registered so as to correspond to the degree of prompting the user to perform an action corresponding to the output value from the sensor unit 60. In the utterance data database 82, utterance data associated with words and phrases is registered. Not only one corresponding to one word but also one corresponding to a combination of a plurality of words may be registered. Further, a plurality of utterance data may be registered corresponding to a certain word or a certain phrase, and in this case, what is actually outputted as a sound may be selected. Note that the utterance data may be stored as text data. Known techniques can be used for constructing such a database.

(促す度合いに応じた表情の具体例)
センサ部60からの出力値に応じた行動をユーザに促す度合いに応じた表情の表示について、具体例を用いて説明する。
(Specific examples of facial expressions according to the degree of prompting)
The display of a facial expression according to the degree of prompting the user to act according to the output value from the sensor unit 60 will be described using a specific example.

以下では、センサ部60が温度を検知する場合について説明する。センサ部60からの出力値が、温度について設定された所定の範囲を外れて高温である場合、度合い設定部12は、出力値に応じてエアコンの冷房運転を行うようユーザを促す度合いを設定する。度合い設定部12は、温度について設定された所定の範囲が28℃未満であり、センサ部60からの出力値が、28℃以上30℃未満の場合促す度合いを「小」として、30℃以上の場合促す度合いを「中」として設定する。このように、まず、度合い設定部12は、センサ部60からの出力値に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定する。   Below, the case where the sensor part 60 detects temperature is demonstrated. When the output value from the sensor unit 60 is a high temperature outside a predetermined range set for the temperature, the degree setting unit 12 sets the degree of prompting the user to perform the cooling operation of the air conditioner according to the output value. . The degree setting unit 12 sets the degree to which the predetermined range set for the temperature is less than 28 ° C. and the output value from the sensor unit 60 is 28 ° C. or more and less than 30 ° C. as “small”. The degree of prompting is set as “medium”. Thus, first, the degree setting unit 12 sets the degree of prompting the user to take an action according to the output value from the sensor unit 60 based on the output value from the sensor unit 60.

度合い設定部12の設定に応じて、表示制御部11は、促す度合いが小の場合には、促す度合いが小の場合に対応付けられた図3の(a)に示す少し汗でほほが少し赤くなる表情の顔画像を表示する。このとき、発話制御部13は、度合いが小の場合に対応付けられた音声データ、例えば、「今日は暑いね」を音声出力する。表示制御部11は、促す度合いが中の場合には、促す度合いが中の場合に対応付けられた図3の(b)に示すように、やや多くの汗でほほがやや大きく赤くなる表情の顔画像を表示する。このとき、発話制御部13は、促す度合いが中の場合に対応付けられた音声データであり、促す度合いが小の場合に対応付けられた音声データよりも多くの音声データ、例えば、「暑いね、汗がたくさん出てきたよ」を音声出力する。   In accordance with the setting of the degree setting unit 12, the display control unit 11, when the degree of prompting is small, is slightly a little sweat with a little sweat shown in FIG. A facial image with a facial expression that turns red is displayed. At this time, the utterance control unit 13 outputs sound data associated with the case where the degree is small, for example, “It is hot today”. When the degree of prompting is medium, the display control unit 11 has a facial expression that is slightly reddish with a little more sweat as shown in FIG. Display a face image. At this time, the utterance control unit 13 is voice data associated when the degree of prompting is medium, and more voice data than the voice data associated when the degree of prompting is small, for example, "I sweat a lot."

図3の(a)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、度合い設定部12はす度合いを「中」として設定し、表示制御部11は、表示制御部11は、図3の(b)の顔画像を表示し、発話制御部13は、促す度合いが中の場合に対応付けられた音声データを音声出力する。   When the output value of the sensor unit 60 after the elapse of a predetermined time after displaying the face image of FIG. 3A is the same as or higher than the previous time, the degree setting unit 12 sets the degree of soot to “medium”. The display control unit 11 displays the face image shown in FIG. 3B, and the utterance control unit 13 outputs the voice data associated with the voice data when the degree of prompting is medium. To do.

図3の(b)の顔画像を表示してから所定時間経過後のセンサ部60の温度センサからの出力値が、前回と同じあるいはさらに高くなっている場合、度合い設定部12はす度合いを「大」として設定し、表示制御部11は、表示制御部11は、度合いが大の場合に対応付けられた図3の(c)に示す多くの汗で顔中赤くなる表情顔画像を表示し、発話制御部13は、促す度合いが大の場合に対応付けられた音声データ、例えば、「暑いよ、汗がたくさんで顔も赤くなっちゃった」を音声出力する。さらに所定時間経過後のセンサ部60の温度センサからの出力値が、前回と同じあるいはさらに高くなっている場合には、図3の(c)の表情の顔画像の表示を繰り返してもよいし、さらに度合いの大きい促す表情を表示してもよいし、表示を停止してもよい。このような表示を行い、エアコンの冷房運転を行うようユーザを促す。   When the output value from the temperature sensor of the sensor unit 60 after the elapse of a predetermined time after displaying the face image of FIG. 3B is the same as or higher than the previous time, the degree setting unit 12 determines the degree of reduction. Set as “large”, the display control unit 11 displays the facial expression face image that turns red in the face with a lot of sweat shown in FIG. Then, the utterance control unit 13 outputs voice data associated when the degree of prompting is large, for example, “Hot, sweaty and face turned red”. Further, when the output value from the temperature sensor of the sensor unit 60 after the predetermined time has passed is the same as or higher than the previous time, the display of the facial image of the facial expression of (c) of FIG. 3 may be repeated. Further, an expression that encourages a greater degree may be displayed, or the display may be stopped. Such a display is performed to prompt the user to perform the cooling operation of the air conditioner.

上記では、高温の場合を例に挙げて説明したが、低温の場合も同様にエアコンの暖房運転を行うようユーザを促す度合いを設定して、設定された促す度合いに応じた表情の顔画像を表示すればよい。また、上記では、図3の(a)の顔画像の表示から始まる場合、3段階で度合いを大きくしており、図3の(b)の顔画像の表示から始まる場合、2段階で度合いを大きくしているが、何段階で変化させてもよい。また、度合いを段階的に大きくする途中でセンサ部60からの出力値に応じて度合いを小さくしたり、反対に度合いを段階的に小さくする途中でセンサ部60からの出力値に応じて度合いを大きくしたりしてもよい。   In the above description, the case of high temperature has been described as an example, but the degree of prompting the user to perform the heating operation of the air conditioner is set similarly in the case of low temperature, and facial images of facial expressions corresponding to the set degree of prompting are set. Show it. Further, in the above, when starting from the display of the face image of FIG. 3A, the degree is increased in three stages, and when starting from the display of the face image of FIG. 3B, the degree is increased in two stages. Although it is large, it can be changed in any number of steps. In addition, the degree is decreased in accordance with the output value from the sensor unit 60 in the middle of increasing the degree stepwise, and conversely, the degree in accordance with the output value from the sensor unit 60 in the middle of decreasing the degree stepwise. You may enlarge it.

以上のように、度合い設定部12は、センサ部60からの出力値及び当該出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定する。そして、表示制御部11は、出力値が所定の範囲から外れると、度合い設定部12により設定された促す度合いに応じた表情の顔画像を表示する。よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部60からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、制御部10は、ユーザに自発的行動を促すようにロボット1を制御することが可能となる。   As described above, the degree setting unit 12 responds to the output value from the sensor unit 60 based on at least one of the output value from the sensor unit 60 and the elapsed time after the output value is out of the predetermined range. Set the degree of prompting the user to take action. Then, when the output value is out of the predetermined range, the display control unit 11 displays a facial image having a facial expression corresponding to the degree of prompting set by the degree setting unit 12. Therefore, the display of the facial image of the expression according to the degree of prompting can inform the user that the output value of the sensor unit is out of the predetermined range, and the user can behave according to the output value from the sensor unit 60. Can be encouraged. By setting the predetermined range to a value that is comfortable or safe for the user, it is possible to prevent an unfavorable environment such as discomfort and danger for the user. Furthermore, since the user is prompted by facial expressions, it is not intimidating, and the user can be urged while being softened or healed. As described above, the control unit 10 can control the robot 1 so as to prompt the user to take spontaneous action.

センサ部60からの出力値に応じた行動をユーザに促す表情が、センサ部60からの出力値を所定の範囲内に戻す(上記の例では温度を下げる)ための行動をユーザに促す表情であると、ロボット1のセンサ部60からの出力値が所定の範囲から外れると、促す度合いに応じた表情の顔画像を表示することで、所定の範囲内に戻すための行動をユーザに促すことができる。   A facial expression that prompts the user to take an action according to the output value from the sensor unit 60 is an expression that prompts the user to take an action to return the output value from the sensor unit 60 within a predetermined range (in the above example, to lower the temperature). If the output value from the sensor unit 60 of the robot 1 is out of the predetermined range, the face image having a facial expression corresponding to the degree of prompting is displayed to prompt the user to take an action for returning to the predetermined range. Can do.

また、促す度合いに応じた音声データを出力することにより、さらに効果的にユーザを促すことができる。   Further, by outputting audio data corresponding to the degree of prompting, the user can be prompted more effectively.

また、度合い設定部12は、センサ部からの出力値が所定の範囲に戻るまで、経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定する。段階的に大きくなるよう設定することで、効果的にユーザを促すことができる。   Further, the degree setting unit 12 sets the degree of promotion to be increased stepwise according to the length of the elapsed time until the output value from the sensor unit returns to a predetermined range. By setting to increase in steps, it is possible to prompt the user effectively.

度合い設定部12は、前記センサ部からの出力値が前記所定の範囲に近づく方向に変化すると、前記度合いを前回よりも小さくなるように設定し、センサ部60からの出力値が前記所定の範囲から遠ざかる方向に変化すると、前記度合いを前回よりも大きくなるように設定してもよい。   The degree setting unit 12 sets the degree to be smaller than the previous value when the output value from the sensor unit changes in a direction approaching the predetermined range, and the output value from the sensor unit 60 is set to the predetermined range. The degree may be set to be greater than the previous time when the distance is changed away from the previous position.

このようにセンサ部60からの出力値の変化に応じて、促す度合を前回よりも弱めたり強めたりすることで、促す度合がさらに大きい表情の顔画像を表示することができる。センサ部60からの出力値が所定の範囲に近づく方向に変化する場合表示される別の表情の画像として、例えば、不快さが解消されつつあることを伝えるための喜びの表情の顔画像であってもよい。また、この喜びの表情の顔画像が段階的に変化してもよい。   In this way, by reducing or enhancing the degree of prompting according to the change in the output value from the sensor unit 60, it is possible to display a facial image with a greater degree of prompting. Another facial expression image that is displayed when the output value from the sensor unit 60 changes in a direction approaching a predetermined range is, for example, a facial expression with a joyful expression to convey that discomfort is being resolved. May be. Moreover, the facial image of the expression of joy may change stepwise.

また、度合い設定部12は、音声認識部14による音声認識結果に基づいて、促す度合いを変化させてもよい。このように構成されていると、ユーザによる入力音声に応じて促す度合いを変化させ、それに応じて表情も変化する。よって、変化のバリエーションを増やすことで表情がより豊かになり、ユーザにロボットへの愛着をより湧かせることができる。   Further, the degree setting unit 12 may change the degree of prompting based on the voice recognition result by the voice recognition unit 14. With such a configuration, the degree of prompting is changed according to the input voice by the user, and the facial expression is changed accordingly. Therefore, increasing the variation variation makes the facial expression richer and makes the user more loving the robot.

なお、促す度合いに応じた表情の顔画像の表示は、ロボット1がユーザを検知した場合にのみ行うようにしてもよい。ユーザの検知は、カメラ部70にて、あるいはセンサ部60に人感センサが設けられている場合にはこの人感センサにて、実施すればよい。   In addition, you may make it display the face image of the facial expression according to the degree of prompting only when the robot 1 detects a user. The user may be detected by the camera unit 70 or, if the sensor unit 60 is provided with a human sensor, the human sensor.

センサ部60が湿度を検知する場合も、上記と同様に、センサ部60からの出力値が、湿度について設定された所定の範囲を外れて高湿である場合、度合い設定部12は、出力値に応じてエアコンの除湿運転を行うようユーザを促す度合いを設定する。この度合いに応じて、表示制御部11は表情の顔画像を表示する。促す度合いが「小」の場合には、促す度合いが小の場合に対応付けられた図4の(a)に示す少し汗をかいた表情の顔画像を表示し、促す度合いが「中」の場合には、促す度合いが中の場合に対応付けられた図4の(b)に示すやや汗をかいた表情の顔画像を表示する。また、図4の(a)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、表示制御部11は、図4の(b)の顔画像を表示する。図4の(b)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、表示制御部11は、図4の(c)に示す沢山汗をかいた表情の顔画像を表示する。   Similarly to the above, when the sensor unit 60 detects humidity, when the output value from the sensor unit 60 is high humidity outside the predetermined range set for humidity, the degree setting unit 12 outputs the output value. The degree of prompting the user to perform the dehumidifying operation of the air conditioner is set according to. In accordance with this degree, the display control unit 11 displays facial images of facial expressions. When the degree of prompting is “small”, the face image of the slightly sweated expression shown in FIG. 4A associated with the case where the degree of prompting is small is displayed, and the degree of prompting is “medium” In such a case, a face image with a slightly sweated expression shown in FIG. 4B associated with the case where the degree of prompting is medium is displayed. In addition, when the output value of the sensor unit 60 after a predetermined time has elapsed since the face image of FIG. 4A is displayed is the same as or higher than the previous time, the display control unit 11 ( The face image of b) is displayed. When the output value of the sensor unit 60 after the elapse of a predetermined time after displaying the face image of FIG. 4B is the same as or higher than the previous time, the display control unit 11 determines that the display control unit 11 of FIG. A face image with a lot of sweating expression is displayed.

これらの場合も発話制御部13は、促す度合いに対応付けられた音声データ、例えば、「蒸し蒸ししない?」、「蒸し蒸し、べたべたするよ」、「蒸し蒸しして気持ち悪いよ」を段階的に音声出力する。このような表示を行い、エアコンの除湿運転を行うようユーザを促す。また、低湿の場合も同様に加湿器の運転を行うようユーザを促す度合いを設定して、設定された促す度合いに応じた表情の顔画像を表示すればよい。   Also in these cases, the utterance control unit 13 performs step-by-step voice data associated with the degree of prompting, for example, “Do not steam”, “Steamed, sticky”, or “Steamed, unpleasant”. Audio output. Such a display is performed to prompt the user to perform a dehumidifying operation of the air conditioner. Similarly, in the case of low humidity, the degree of prompting the user to operate the humidifier may be set, and a facial image of a facial expression corresponding to the set degree of prompting may be displayed.

センサ部60が照度を検知する場合も、上記と同様に、センサ部60からの出力値が、照度について設定された所定の範囲を外れて低い場合、度合い設定部12は、出力値に応じて照明機器を点灯するようユーザを促す度合いを設定する。この度合いに応じて、表示制御部11は表情の顔画像を次のように表示する。促す度合いが「小」の場合には、図5の(a)に示す目を開けている表情の顔画像と図5の(b)に示す目を閉じている顔画像との表示を交互に行う頻度を小にして、瞬きをし出す顔画像を表示する。促す度合いが「中」の場合には、図5の(a)に示す顔画像と図5の(b)に示す顔画像との表示を交互に行う頻度を中にして、瞬きがやや多い表情の顔画像を表示する。また、促す度合いが「中」の場合には、図5の(a)に示す顔画像と図5の(b)に示す顔画像との表示を交互に行う頻度を大にして、瞬きが多い表情の顔画像を表示する。これらの場合も発話制御部13は、促す度合いに対応付けられた音声データ、例えば、「暗くなってきてない?」、「見えなくなってきた」、「見えないよ」を段階的に音声出力する。このような表示を行い、照明機器を点灯するようユーザを促す。   Even when the sensor unit 60 detects illuminance, as described above, when the output value from the sensor unit 60 is low outside the predetermined range set for illuminance, the degree setting unit 12 determines whether the output value is low. The degree of prompting the user to turn on the lighting device is set. In accordance with this degree, the display control unit 11 displays facial images of facial expressions as follows. When the degree of prompting is “small”, the face image of the facial expression with open eyes shown in FIG. 5A and the face image with closed eyes shown in FIG. 5B are alternately displayed. The face image that blinks is displayed at a low frequency. When the degree of prompting is “medium”, the facial image shown in FIG. 5A and the facial image shown in FIG. The face image of is displayed. When the degree of prompting is “medium”, the frequency of alternately displaying the face image shown in FIG. 5A and the face image shown in FIG. Display facial images of facial expressions. Also in these cases, the utterance control unit 13 outputs voice data associated with the degree of prompting, for example, “has not darkened”, “has become invisible”, or “cannot be seen” step by step. . Such a display is performed to prompt the user to turn on the lighting device.

上記はあくまで例示であり、促す度合いに応じた表情の顔画像の表示は、上記したものに限定されない。また、上記では、温度センサ、湿度センサ、照度センサによる出力値に応じた表情について、それぞれのセンサ単独に用いる場合を説明したが、複数のセンサからの出力値に応じて、複雑な表情を表示するように構成されていてもよい。   The above is merely an example, and the display of a facial image of an expression according to the degree of prompting is not limited to the above. Further, in the above description, the case where facial expressions according to the output values from the temperature sensor, humidity sensor, and illuminance sensor are used individually has been described, but complex facial expressions are displayed according to the output values from a plurality of sensors. It may be configured to.

また、センサ部60に加速度センサが備えられていてもよい。この場合、加速度センサにより地震を検知し、図6の(a)に示すようなびっくりした表情の顔画像を表示することで、避難を促すことができる。また、状況に合わせた音声データを出力してもよい。   Further, the sensor unit 60 may be provided with an acceleration sensor. In this case, evacuation can be promoted by detecting an earthquake with an acceleration sensor and displaying a face image with a surprising expression as shown in FIG. Moreover, you may output the audio | voice data according to the condition.

さらに、加速度センサによりユーザからの接触を検知し、検知結果に応じた表情の顔画像を表示してもよい。この場合、例えば、叩かれたことを検知すると、図6の(b)に示すような悲しみの表情の顔画像を表示したり、例えば、撫でられたり抱き上げられたりしたことを検知すると、図6の(c)に示すような喜びの表情の顔画像を表示する。また、こられの状況に合わせた音声データを出力してもよい。   Furthermore, a contact from a user may be detected by an acceleration sensor, and a facial image of a facial expression corresponding to the detection result may be displayed. In this case, for example, when it is detected that the player is hit, a face image with a sad expression as shown in FIG. 6B is displayed. For example, when it is detected that the player is stroked or lifted, FIG. The face image of the expression of joy as shown in (c) of FIG. Moreover, you may output the audio | voice data according to these situations.

また、センサ部60に気圧センサが備えられていてもよい。この場合、気圧センサの出力値が気圧に対して設けられた所定の範囲から外れると(天気の崩れを予測して)、図7の(a)に示すようなだるそうな表情の顔画像を表示して、天気に対する対策(例えば、洗濯ものを取り込む、不要な外出は控える等)を促してもよい。また、状況に合わせた音声データを出力してもよい。   Further, the sensor unit 60 may be provided with a barometric pressure sensor. In this case, when the output value of the atmospheric pressure sensor deviates from a predetermined range provided for the atmospheric pressure (predicting the collapse of the weather), a facial image with a dull expression as shown in FIG. May be displayed to prompt countermeasures against the weather (for example, take in laundry, refrain from unnecessary going out, etc.). Moreover, you may output the audio | voice data according to the condition.

また、センサ部60にニオイセンサ又はホコリセンサが備えられていてもよい。この場合、ニオイセンサ又はホコリセンサの出力値が、ニオイ(臭気)又はホコリに対して設けられた所定の範囲から外れると、図7の(b)に示すようなしかめっ面の顔画像を表示し、掃除を促してもよい。また、状況に合わせた音声データを出力してもよい。   Further, the sensor unit 60 may be provided with an odor sensor or a dust sensor. In this case, when the output value of the odor sensor or dust sensor deviates from the predetermined range provided for odor (odor) or dust, a frown face image as shown in (b) of FIG. 7 is displayed. You may encourage cleaning. Moreover, you may output the audio | voice data according to the condition.

このように、センサ部60が人間の生活環境に密接した状態を検知できるセンサを備えており、所定の範囲内をユーザにとって快適な値に設定しておくことで、ロボット1はその表情により、ユーザの周囲を安全で快適な空間するための自発的行動をユーザに促すことができる。   In this way, the sensor unit 60 includes a sensor that can detect a state close to the human living environment, and by setting the predetermined range to a value comfortable for the user, the robot 1 can The user can be encouraged to take spontaneous action to create a safe and comfortable space around the user.

さらに、ロボット1は、バッテリー残量や故障の検知等のロボット1内部の状態、又は時間によって、表情を変化させてもよい。例えば、バッテリー残量が豊富な状態では満腹な表情、残量が減ってくるに従って、お腹を空かせた表情の顔画像を表示するようにしてもよい。また、故障が検知された場合、気分の悪さを示す表情の顔画像を表示してもよい。ロボットの起動時や、あるいは深夜や早朝などは、眠そうな表情の顔画像を表示させてもよい。また、状況に合わせた音声データを出力してもよい。   Furthermore, the robot 1 may change the facial expression according to the internal state of the robot 1 such as detection of the remaining battery level or failure, or the time. For example, a full expression may be displayed when the remaining battery level is abundant, and a facial image with a hungry expression may be displayed as the remaining battery level decreases. In addition, when a failure is detected, a facial image with a facial expression indicating bad mood may be displayed. When the robot is activated, or at midnight or early morning, a facial image with a sleepy expression may be displayed. Moreover, you may output the audio | voice data according to the condition.

また、ロボット1は、カメラ部70から入力された画像からユーザの表情や位置を解析してそれに基づきユーザと対話をするように構成されていていてもよい。例えば、ロボット1の正面から見てユーザの位置が右方向であると認識した場合、ロボットの頭部を実際に右に向ける、あるいは、頭部に顔が右に向いて移動する状態を表示することで、ユーザの方を向いている、つまり応答可能であるという状態を示す構成であってもよい。   The robot 1 may be configured to analyze the user's facial expression and position from the image input from the camera unit 70 and interact with the user based on the analysis. For example, when it is recognized that the position of the user is rightward when viewed from the front of the robot 1, the robot head is actually turned to the right, or a state in which the face moves to the right is displayed on the head. Thus, the configuration may be such that the user is facing the user, that is, can respond.

〔実施の形態2〕
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
Hereinafter, a robot according to still another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those explained in the first embodiment are given the same reference numerals and explanations thereof are omitted.

本実施の形態のロボット1aは、図8に示すように、ロボット1の構成に加え、通信ネットワークにより外部との通信を行う通信部90を備えている。通信ネットワークとしては、例えば、インターネットが利用できる。また、電話回線網、移動体通信網、CATV(Cable Television)通信網、衛星通信網などを利用することもできる。   As shown in FIG. 8, the robot 1 a according to the present embodiment includes a communication unit 90 that performs communication with the outside via a communication network in addition to the configuration of the robot 1. For example, the Internet can be used as the communication network. In addition, a telephone line network, a mobile communication network, a CATV (Cable Television) communication network, a satellite communication network, and the like can be used.

ロボット1aは、通信部90から管理サーバ装置(図示せず)と接続している。よって、外部の管理サーバ装置からロボット1aを管理することができる。   The robot 1a is connected to a management server device (not shown) from the communication unit 90. Therefore, the robot 1a can be managed from the external management server device.

通信部90により管理サーバから顔画像データ及び発話データの更新データを取得できるように構成されていると、表情データのバリエーション及び発話のバリエーションをさらに増やすこととができる。また、ロボット1aの制御部10の一部の機能を管理サーバ装置にて行わせてもよい。このような構成であると、ロボット1の処理能力の向上やデータ格納部80の容量の拡大を図ることなく、複雑な表情で表現することが可能になる。また、ロボット1aの使用時間の経過(例えば、対話や接触の回数等)の増大に応じて、複雑な感情を表情で表現することが可能になるように、構成されていてもよい。   If the communication unit 90 is configured to acquire the update data of the face image data and the utterance data from the management server, the variation of the expression data and the variation of the utterance can be further increased. Further, some functions of the control unit 10 of the robot 1a may be performed by the management server device. With such a configuration, it is possible to express with a complex expression without improving the processing capability of the robot 1 and expanding the capacity of the data storage unit 80. Further, it may be configured such that complex emotions can be expressed by facial expressions as the usage time of the robot 1a increases (for example, the number of times of dialogue or contact).

さらに、ロボット1aは、外部の管理サーバ装置(図示せず)を介して、ユーザの携帯電話、スマートフォン、タブレット端末等の携帯端末と通信するように構成されていてもよい。この場合、例えば、ユーザ宅4の外にいる母親が、スマートフォンにより、ユーザ宅4にいる子供の情報をロボット1aのカメラ部70からの映像により随時取得し、スマートフォンから、子供に勉強を促す表情の顔画像を、促す度合いが段階的に大きくなるように表示させるよう、ロボット1aを遠隔操作するといった使用も可能である。   Furthermore, the robot 1a may be configured to communicate with a mobile terminal such as a user's mobile phone, smartphone, or tablet terminal via an external management server device (not shown). In this case, for example, a mother who is outside the user's home 4 obtains information on the child at the user's home 4 from the smartphone 1a at any time using a smartphone, and prompts the child to study from the smartphone. It is also possible to use the robot 1a by remote-controlling so that the face image is displayed so that the degree of promotion increases stepwise.

〔実施の形態3〕
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1または2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
Hereinafter, a robot according to still another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those described in the first or second embodiment are denoted by the same reference numerals and description thereof is omitted.

ロボット1bは、図9に示すように、実施の形態1のロボット1の構成に加え、さらに、家電操作部95を備えている。家電操作部95は、ロボット1b周囲の、例えば、ユーザ宅4等のロボット1bがいる空間にある家電を操作するためのブロックである。家電操作部95は、家電を操作する操作信号を赤外線通信や無線LAN通信などで送信する。   As shown in FIG. 9, the robot 1 b includes a home appliance operation unit 95 in addition to the configuration of the robot 1 of the first embodiment. The home appliance operation unit 95 is a block for operating home appliances around the robot 1b, for example, in a space where the robot 1b such as the user's home 4 is located. The home appliance operation unit 95 transmits an operation signal for operating the home appliance by infrared communication or wireless LAN communication.

ロボット1bは、家電を操作可能な家電操作モードを家電毎に有しており、センサ部60からの出力値から操作対象とする家電を判定し、判定した家電の家電操作モードに自装置を設定する。ロボット1bが操作可能な家電は、例えば、空気調和機(エアコン)、洗濯機、冷蔵庫、調理器具、照明装置、給湯機器、撮影機器、各種AV(Audio-Visual)機器、自装置以外の各種家庭用ロボット(例えば、掃除ロボット、家事支援ロボット、動物型ロボット等)等である。本実施の形態では、家電の例として、エアコン5−1及び照明機器5−2を用いて説明を行う。なお、ロボット1bのデータ格納部80は、家電を操作できるように自装置を設定するための情報が家電毎に格納されている。   The robot 1b has a home appliance operation mode capable of operating home appliances for each home appliance, determines a home appliance to be operated from an output value from the sensor unit 60, and sets the own device to the home appliance operation mode of the determined home appliance To do. Home appliances that can be operated by the robot 1b are, for example, air conditioners (air conditioners), washing machines, refrigerators, cooking utensils, lighting devices, hot water supply devices, photographing devices, various AV (Audio-Visual) devices, and various households other than the own device. Robots (for example, cleaning robots, housework support robots, animal type robots, etc.). In the present embodiment, description will be made using an air conditioner 5-1 and a lighting device 5-2 as examples of home appliances. In addition, the data storage unit 80 of the robot 1b stores information for setting the own device so that the home appliance can be operated for each home appliance.

ロボット1bは、度合いに応じた表情の顔画像を表示部20に表示後、所定時間経過しても、ユーザが行動しなかった場合、自ら家電を操作可能に構成されている。この場合、ロボット1bがいる空間においてユーザを検知した場合にのみ、自ら家電を操作するように構成されているのが好ましい。ユーザの検知は、カメラ部70にて、あるいはセンサ部60に人感センサが設けられている場合にはこの人感センサにて、実施すればよい。   The robot 1b is configured to be able to operate home appliances when the user does not act even after a predetermined time has elapsed after displaying a facial image of an expression corresponding to the degree on the display unit 20. In this case, it is preferable that the home appliance is operated by itself only when a user is detected in a space where the robot 1b is present. The user may be detected by the camera unit 70 or, if the sensor unit 60 is provided with a human sensor, the human sensor.

高齢や病気などで動作が不自由であったり、例えば、別の作業で手がふさがっていたり等で、ユーザが家電を操作できない場合でも、ロボット1bにて対応(操作)することができる。例えば、ロボット1bがエアコン5−1を操作することで、ユーザを熱射病や脱水症状から予防できる。   Even if the user cannot operate the home appliance due to his / her inability to operate due to his / her old age or illness, for example, when his / her hand is occupied by another work, the robot 1b can respond (operate). For example, when the robot 1b operates the air conditioner 5-1, the user can be prevented from heat stroke and dehydration.

また、ロボット1bは、音声入力部40から入力された入力音声から操作対象とする家電を判定し、判定した家電の家電操作モードに自装置を設定するように構成されていてもよい。この場合、ロボット1bは、ユーザとの対話からエアコン5−1を操作したいことを類推した場合には、エアコン5−1を操作する家電操作モードにロボット1bを設定し、操作を行うことが可能となる。   Moreover, the robot 1b may be configured to determine a home appliance to be operated from the input voice input from the voice input unit 40, and set the own device in the home appliance operation mode of the determined home appliance. In this case, when it is inferred that the robot 1b wants to operate the air conditioner 5-1 from the dialog with the user, the robot 1b can be operated by setting the robot 1b to the home appliance operation mode for operating the air conditioner 5-1. It becomes.

ロボット1bからエアコン5−1又は照明機器5−2を操作する際には、赤外線を用いてエアコン5−1又は照明機器5−2の位置を検出してもよいし、ロボット1bのカメラ部70から入手した情報を用いて、エアコン5−1又は照明機器5−2の位置を検出してもよい。   When operating the air conditioner 5-1 or the lighting device 5-2 from the robot 1b, the position of the air conditioner 5-1 or the lighting device 5-2 may be detected using infrared rays, or the camera unit 70 of the robot 1b. The position of the air conditioner 5-1 or the lighting device 5-2 may be detected using the information obtained from.

なお、ロボット1bからのエアコン5−1の操作前には、操作の実行を確認する音声、例えば、「エアコンつけていい?」といった音声データをロボット1bから出力させて、ユーザから実行を許可する音声、例えば、「つけて」、「ONにして」、「OK」等といった肯定の音声が入力された場合に操作を実行する。このように、家電の操作を実行する前にはユーザの確認を取るのが安全性を確保する上で好ましい。   Before the operation of the air conditioner 5-1 from the robot 1b, a sound for confirming the execution of the operation, for example, sound data such as “Can you turn on the air conditioner?” Is output from the robot 1b, and the execution is permitted by the user. The operation is executed when a positive voice such as “Turn on”, “Turn on”, “OK” or the like is input. As described above, it is preferable to secure the user's confirmation before executing the operation of the home appliance in order to ensure safety.

〔実施の形態4〕
実施の形態1から3にて説明したロボット1,1a,1bは、それぞれ、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Embodiment 4]
Each of the robots 1, 1a, 1b described in the first to third embodiments may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or a CPU (Central Processing Unit). ) May be implemented by software.

後者の場合、ロボット1,1a,1bは、それぞれ、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(又はCPU)で読み取り可能に記録されたROM(Read Only Memory)又は記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(又はCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, each of the robots 1, 1 a, and 1 b includes a CPU that executes instructions of a program that is software that realizes each function, and a ROM (the above-described program and various data are recorded so as to be readable by a computer (or CPU) Read only memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。さらに、各実施の形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible, and the present invention also relates to embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is included in the technical scope. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

〔まとめ〕
本発明の態様1に係るロボット制御装置(制御部10)は、周囲の環境を検知するセンサ部(60)と、顔画像を表示する表示部(20)と、を備えたロボット(1)を制御するロボット制御装置であって、前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示させる表示制御部(11)と、前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部(12)と、を備え、前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示させることを特徴とする。
[Summary]
A robot control device (control unit 10) according to an aspect 1 of the present invention includes a robot (1) including a sensor unit (60) that detects a surrounding environment and a display unit (20) that displays a face image. When the output value indicating the detection result by the sensor unit is out of a predetermined range, the display unit displays a facial image of a facial expression that prompts the user to perform an action according to the output value from the sensor unit. A degree of setting the degree of prompting the user to perform the action based on at least one of the display control unit (11) to be displayed on the display, the output value, and the elapsed time since the output value is out of the predetermined range A setting unit (12), wherein the display control unit causes the display unit to display a facial image of an expression corresponding to the set degree.

上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、センサ部からの出力値に応じた行動をユーザに促す度合いに応じた表情の顔画像を表示する。促す度合いは、センサ部からの出力値、及び、出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて設定される。   According to the above configuration, when the output value from the sensor unit of the robot is out of the predetermined range, a facial image of a facial expression corresponding to the degree of prompting the user to act according to the output value from the sensor unit is displayed. The degree of prompting is set based on at least one of an output value from the sensor unit and an elapsed time after the output value is out of a predetermined range.

よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、上記構成によると、ユーザに自発的行動を促すようにロボットを制御することが可能となる。   Therefore, the display of the facial image of the facial expression according to the degree of prompting can inform the user that the output value of the sensor unit is out of the predetermined range, and the user can behave according to the output value from the sensor unit. Can be urged. By setting the predetermined range to a value that is comfortable or safe for the user, it is possible to prevent an unfavorable environment such as discomfort and danger for the user. Furthermore, since the user is prompted by facial expressions, it is not intimidating, and the user can be urged while being softened or healed. Thus, according to the above configuration, it is possible to control the robot so as to prompt the user to take spontaneous action.

また、顔の表情は画像で表示するため、表情の種類を豊富に用意することがたやすく行え、ロボットにおいて複雑な処理をすることなく、顔の表情を様々に変化させることが可能である。   Since facial expressions are displayed as images, it is easy to prepare a wide variety of facial expressions, and the facial expressions can be changed in various ways without complicated processing in the robot.

本発明の態様2に係るロボット制御装置は、上記態様1において、前記センサ部からの出力値に応じた行動は、前記センサ部からの出力値を前記所定の範囲内に戻すための行動である。   In the robot control device according to aspect 2 of the present invention, in the above aspect 1, the action according to the output value from the sensor unit is an action for returning the output value from the sensor unit within the predetermined range. .

上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、促す度合いに応じた表情の顔画像を表示することで、所定の範囲内に戻すための行動をユーザに促すことができる。   According to the above configuration, when the output value from the sensor unit of the robot is out of the predetermined range, the facial image of the facial expression corresponding to the degree of prompting is displayed to prompt the user to return to the predetermined range. Can do.

本発明の態様3に係るロボット制御装置は、上記態様1または2において、さらに音声出力部を備えた前記ロボットが制御対象であり、前記促す度合いに応じて設定された音声情報を、前記音声出力部から出力する音声制御部を備えている。   The robot control apparatus according to aspect 3 of the present invention is the robot control apparatus according to aspect 1 or 2, wherein the robot further including an audio output unit is a control target, and the audio information set according to the degree of prompting is output as the audio output. A voice control unit for outputting from the unit.

上記構成によると、促す度合いに応じて表情が変化する顔画像に加え、音声により、さらに効果的にユーザを促すことができる。   According to the above configuration, the user can be prompted more effectively by voice in addition to the face image whose facial expression changes according to the degree of prompting.

本発明の態様4に係るロボット制御装置は、上記態様1から3のいずれか1つにおいて、前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に戻るまで、前記経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定する。   The robot control device according to aspect 4 of the present invention is the robot control apparatus according to any one of the aspects 1 to 3, wherein the degree setting unit determines the elapsed time until the output value from the sensor unit returns to the predetermined range. The degree of promotion is set to increase stepwise according to the length.

上記構成によると、センサ部からの出力値が所定の範囲から外れてからの経過時間の長さに応じて、顔画像の表情の促す度合が段階的に大きくなるため、効果的にユーザを促すことができる。   According to the above configuration, the degree of prompting facial expression in the face image increases stepwise according to the length of time that has elapsed since the output value from the sensor unit deviates from the predetermined range, so the user is effectively prompted be able to.

本発明の態様5に係るロボット制御装置は、上記態様1から4のいずれか1つにおいて、前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に近づく方向に変化すると、前記度合いを前回よりも小さくなるように設定し、前記センサ部からの出力値が前記所定の範囲から遠ざかる方向に変化すると、前記度合いを前回よりも大きくなるように設定する。   The robot control device according to aspect 5 of the present invention is the robot control apparatus according to any one of the aspects 1 to 4, wherein the degree setting unit changes the output value from the sensor unit in a direction approaching the predetermined range. The degree is set to be smaller than the previous time, and when the output value from the sensor unit changes in a direction away from the predetermined range, the degree is set to be larger than the previous time.

上記構成によると、センサ部からの出力値の変化に応じて、促す度合を前回よりも弱めたり強めたりする。よって、促す度合がさらに大きい表情の顔画像を表示することができる。センサ部からの出力値が所定の範囲に近づく方向に変化する場合表示される別の表情の画像として、例えば、不快さが解消されつつあることを伝えるための喜びの表情の顔画像であってもよい。また、この喜びの表情の顔画像が段階的に変化してもよい。   According to the above configuration, the degree of prompting is weakened or strengthened compared to the previous time according to the change in the output value from the sensor unit. Therefore, it is possible to display a facial image with an expression that is more urged. When the output value from the sensor unit changes in a direction approaching a predetermined range, another facial expression image that is displayed is, for example, a facial image of a joyful expression to convey that discomfort is being resolved. Also good. Moreover, the facial image of the expression of joy may change stepwise.

本発明の態様6に係るロボット制御装置は、上記態様1から5のいずれか1つにおいて、前記センサ部は、温度センサ、湿度センサ、照度センサ、加速度センサ、気圧センサ、ニオイセンサ、ホコリセンサ、の少なくとも1つを含む。   The robot control device according to aspect 6 of the present invention is the robot control apparatus according to any one of the aspects 1 to 5, wherein the sensor unit includes a temperature sensor, a humidity sensor, an illuminance sensor, an acceleration sensor, an atmospheric pressure sensor, an odor sensor, a dust sensor, At least one of the following.

上記構成によると、温度センサ、湿度センサ、照度センサ、加速度センサ、気圧センサ、ニオイセンサ、ホコリセンサの少なくとも1の出力値が所定の範囲から外れると、出力値に応じた行動をユーザに促すことができる。温度、湿度、照度、例えば加速度センサで検知できる地震、気圧、ニオイ、ホコリ等は、人間の生活環境に密接したものである。そのため、上記構成によって、所定の範囲内をユーザにとって快適な値に設定しておくことで、ユーザの周囲を安全で快適な空間するための自発的行動をユーザに促すことができる。   According to the above configuration, when at least one output value of the temperature sensor, the humidity sensor, the illuminance sensor, the acceleration sensor, the atmospheric pressure sensor, the odor sensor, and the dust sensor is out of the predetermined range, the user is prompted to take an action according to the output value. Can do. Temperature, humidity, and illuminance, such as earthquakes, atmospheric pressure, odors, and dust that can be detected by an acceleration sensor, are closely related to the human living environment. Therefore, by setting the value within a predetermined range to a value comfortable for the user, the user can be encouraged to take a spontaneous action to create a safe and comfortable space around the user.

本発明の態様7に係るロボット制御装置は、上記態様1から6のいずれか1つにおいて、前記ロボットは音声入力部を備えており、前記音声入力部から入力された音声を音声認識する音声認識部を備え、前記度合い設定部は、上記音声認識部による音声認識結果に基づいて、前記促す度合いを変化させる。   The robot control device according to aspect 7 of the present invention is the robot control device according to any one of the aspects 1 to 6, wherein the robot includes a voice input unit, and voice recognition that recognizes voice input from the voice input unit. The degree setting unit changes the degree of prompting based on a voice recognition result by the voice recognition unit.

上記構成によると、ユーザによる音声に応じて促す度合いを変化させ、それに応じて表情も変化する。変化のバリエーションを増やすことで表情がより豊かになり、ユーザにロボットへの愛着をより湧かせることができる。   According to the above configuration, the degree of prompting is changed according to the user's voice, and the facial expression is changed accordingly. By increasing the variation, the expression becomes richer and the user can be more attached to the robot.

本発明の態様8に係るロボットは、周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、上記態様1から6のいずれか1つに記載のロボット制御装置と、を備えたことを特徴とする。   A robot according to an eighth aspect of the present invention includes a sensor unit that detects the surrounding environment, a display unit that displays a face image, and the robot control device according to any one of the first to sixth aspects. It is characterized by that.

上記構成によると、上記ロボット制御装置と同様の効果を奏し、自発的に行動するようユーザを促すことが可能なロボットを提供することができる。   According to the above configuration, it is possible to provide a robot that has the same effect as the robot control device and can prompt the user to act spontaneously.

また、本発明の各態様に係るロボット制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータをロボット制御装置が備える各部として動作させることによりロボット制御装置をコンピュータにて実現させるプログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   In addition, the robot control device according to each aspect of the present invention may be realized by a computer, and in this case, a program for realizing the robot control device by the computer by causing the computer to operate as each unit included in the robot control device. , And computer-readable recording media on which it is recorded also fall within the scope of the present invention.

本発明は、周囲の環境を検知するセンサ部と顔画像を表示する表示部とを備えたロボットを制御するロボット制御装置及びロボットに利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for a robot control apparatus and a robot that control a robot including a sensor unit that detects the surrounding environment and a display unit that displays a face image.

1,1a,1b ロボット
4 ユーザ宅
5−1 エアコン(家電)
5−2 照明機器(家電)
10 制御部(ロボット制御装置)
11 表示制御部
12 度合い設定部
13 発話制御部(音声制御部)
14 音声認識部
20 表示部
30 音声出力部
40 音声入力部
50 動作部
60 センサ部
90 通信部
95 家電操作部
1, 1a, 1b Robot 4 User house 5-1 Air conditioner (home appliance)
5-2 Lighting equipment (home appliances)
10 Control unit (robot control device)
DESCRIPTION OF SYMBOLS 11 Display control part 12 Degree setting part 13 Speech control part (voice control part)
DESCRIPTION OF SYMBOLS 14 Voice recognition part 20 Display part 30 Voice output part 40 Voice input part 50 Operation | movement part 60 Sensor part 90 Communication part 95 Home appliance operation part

Claims (5)

周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、を備えたロボットを制御するロボット制御装置であって、
前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示させる表示制御部と、
前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部と、を備え、
前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示させることを特徴とするロボット制御装置。
A robot control device that controls a robot including a sensor unit that detects the surrounding environment and a display unit that displays a face image,
A display control unit that displays a facial image of a facial expression that prompts the user to act according to the output value from the sensor unit when an output value indicating a detection result by the sensor unit is out of a predetermined range;
A degree setting unit that sets a degree of prompting the user to perform the action based on at least one of the output value and an elapsed time since the output value is out of the predetermined range;
The display control unit causes the display unit to display a facial image of an expression corresponding to the set degree.
前記センサ部からの出力値に応じた行動は、前記センサ部からの出力値を前記所定の範囲内に戻すための行動であることを特徴とする請求項1に記載のロボット制御装置。   The robot control apparatus according to claim 1, wherein the action according to the output value from the sensor unit is an action for returning the output value from the sensor unit to the predetermined range. 前記ロボットはさらに音声出力部を備えており、
前記促す度合いに応じて設定された音声情報を、前記音声出力部から出力する音声制御部を備えたことを特徴とする請求項1または2に記載のロボット制御装置。
The robot further includes a voice output unit,
The robot control apparatus according to claim 1, further comprising a voice control unit that outputs voice information set according to the degree of prompting from the voice output unit.
前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に戻るまで、前記経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定することを特徴とする請求項1から3のいずれか1項に記載のロボット制御装置。   The degree setting unit is configured to set the degree of promotion to increase stepwise according to the length of the elapsed time until the output value from the sensor unit returns to the predetermined range. The robot control apparatus according to any one of claims 1 to 3. 周囲の環境を検知するセンサ部と、
顔画像を表示する表示部と、
請求項1から4のいずれか1項に記載のロボット制御装置と、を備えたことを特徴とするロボット。
A sensor unit for detecting the surrounding environment;
A display for displaying a face image;
A robot comprising: the robot control device according to claim 1.
JP2015011679A 2015-01-23 2015-01-23 Robot control device and robot Expired - Fee Related JP6317266B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015011679A JP6317266B2 (en) 2015-01-23 2015-01-23 Robot control device and robot
PCT/JP2016/051325 WO2016117514A1 (en) 2015-01-23 2016-01-18 Robot control device and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015011679A JP6317266B2 (en) 2015-01-23 2015-01-23 Robot control device and robot

Publications (2)

Publication Number Publication Date
JP2016135530A true JP2016135530A (en) 2016-07-28
JP6317266B2 JP6317266B2 (en) 2018-04-25

Family

ID=56417058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015011679A Expired - Fee Related JP6317266B2 (en) 2015-01-23 2015-01-23 Robot control device and robot

Country Status (2)

Country Link
JP (1) JP6317266B2 (en)
WO (1) WO2016117514A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020037155A (en) * 2018-09-05 2020-03-12 日本放送協会 Gesture control device and gesture control program
JP2020113025A (en) * 2019-01-11 2020-07-27 ダイキン工業株式会社 Space control system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019104087A (en) * 2017-12-13 2019-06-27 カシオ計算機株式会社 Device controller, device control method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS594423U (en) * 1982-07-02 1984-01-12 シャープ株式会社 temperature display device
JPH09154186A (en) * 1995-11-30 1997-06-10 Nippon Seiki Co Ltd Display device
JP2000181500A (en) * 1998-12-15 2000-06-30 Equos Research Co Ltd Speech recognition apparatus and agent apparatus
JP2001091035A (en) * 1999-09-22 2001-04-06 Togami Electric Mfg Co Ltd Temperature-announcing device
JP2002281567A (en) * 2001-03-14 2002-09-27 Nec Corp Method/system for remote control and program for remote control system
JP2006102861A (en) * 2004-10-04 2006-04-20 Advanced Telecommunication Research Institute International Robot and robot system
JP2007147217A (en) * 2005-11-30 2007-06-14 Advanced Telecommunication Research Institute International Robot
JP2012060506A (en) * 2010-09-10 2012-03-22 Hitachi Ltd External device control unit, and method and program for controlling the same
JP2014183491A (en) * 2013-03-19 2014-09-29 Sharp Corp Electric equipment control apparatus, electric equipment control system, program, and electric equipment control method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS594423U (en) * 1982-07-02 1984-01-12 シャープ株式会社 temperature display device
JPH09154186A (en) * 1995-11-30 1997-06-10 Nippon Seiki Co Ltd Display device
JP2000181500A (en) * 1998-12-15 2000-06-30 Equos Research Co Ltd Speech recognition apparatus and agent apparatus
JP2001091035A (en) * 1999-09-22 2001-04-06 Togami Electric Mfg Co Ltd Temperature-announcing device
JP2002281567A (en) * 2001-03-14 2002-09-27 Nec Corp Method/system for remote control and program for remote control system
JP2006102861A (en) * 2004-10-04 2006-04-20 Advanced Telecommunication Research Institute International Robot and robot system
JP2007147217A (en) * 2005-11-30 2007-06-14 Advanced Telecommunication Research Institute International Robot
JP2012060506A (en) * 2010-09-10 2012-03-22 Hitachi Ltd External device control unit, and method and program for controlling the same
JP2014183491A (en) * 2013-03-19 2014-09-29 Sharp Corp Electric equipment control apparatus, electric equipment control system, program, and electric equipment control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020037155A (en) * 2018-09-05 2020-03-12 日本放送協会 Gesture control device and gesture control program
JP7152908B2 (en) 2018-09-05 2022-10-13 日本放送協会 Gesture control device and gesture control program
JP2020113025A (en) * 2019-01-11 2020-07-27 ダイキン工業株式会社 Space control system
JP7189434B2 (en) 2019-01-11 2022-12-14 ダイキン工業株式会社 Spatial control system

Also Published As

Publication number Publication date
JP6317266B2 (en) 2018-04-25
WO2016117514A1 (en) 2016-07-28

Similar Documents

Publication Publication Date Title
JP6448971B2 (en) Interactive device
US11363999B2 (en) Voice controlled assistance for monitoring adverse events of a user and/or coordinating emergency actions such as caregiver communication
US10224060B2 (en) Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method
CN112051743A (en) Device control method, conflict processing method, corresponding devices and electronic device
KR102338888B1 (en) Methods, systems and media for providing information regarding detected events
WO2022262283A1 (en) Control method and apparatus for air conditioner, and air conditioner
WO2020135334A1 (en) Television application theme switching method, television, readable storage medium, and device
JP6317266B2 (en) Robot control device and robot
WO2022262281A1 (en) Control method and apparatus for air conditioner, and air conditioner
TW201913643A (en) Smart robot
CN113359503A (en) Equipment control method and related device
JP2014075045A (en) Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
US11908464B2 (en) Electronic device and method for controlling same
JP7296626B2 (en) Information processing device and program
CN115718433A (en) Control method and device of intelligent equipment, intelligent system and storage medium
Basanta et al. Using voice and gesture to control living space for the elderly people
JP6373709B2 (en) Dialogue device
KR102519599B1 (en) Multimodal based interaction robot, and control method for the same
WO2019128632A1 (en) Audio playback method, device, and system
JP7254345B2 (en) Information processing device and program
JP6868049B2 (en) Information processing equipment, watching system, watching method, and watching program
JP7131542B2 (en) Information processing device, information processing method and program
JP6698428B2 (en) Network system, information processing method, and server
JP7163103B2 (en) Information processing device, information processing method and information processing program
TW201741816A (en) Control method, electronic device and non-transitory computer readable storage

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180329

R150 Certificate of patent or registration of utility model

Ref document number: 6317266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees