JP2013099823A - Robot device, robot control method, robot control program and robot system - Google Patents

Robot device, robot control method, robot control program and robot system Download PDF

Info

Publication number
JP2013099823A
JP2013099823A JP2011245141A JP2011245141A JP2013099823A JP 2013099823 A JP2013099823 A JP 2013099823A JP 2011245141 A JP2011245141 A JP 2011245141A JP 2011245141 A JP2011245141 A JP 2011245141A JP 2013099823 A JP2013099823 A JP 2013099823A
Authority
JP
Japan
Prior art keywords
robot
state
display terminal
unit
video display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011245141A
Other languages
Japanese (ja)
Inventor
Takashi Horinouchi
貴志 堀ノ内
Yutaka Kase
裕 加瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011245141A priority Critical patent/JP2013099823A/en
Publication of JP2013099823A publication Critical patent/JP2013099823A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot system that improves the ability of expressing information to a user and also changes contents of an expression according to the involvement of the user.SOLUTION: The robot system uses a combination of a robot and an image display terminal and expresses a real service in a skit to facilitate the finding of a function and the emotional involvement of a user, thereby achieving improvement in the ability of expressing information to the user, and also changes contents of the expression in response to obtained user attribution and environmental attribution to prevent the user from being tired of the expression.

Description

本発明は、映像表示端末と連係動作するロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステムに関する。   The present invention relates to a robot apparatus, a robot control method, a robot control program, and a robot system that operate in conjunction with a video display terminal.

近年、家庭用ロボットが国内外のメーカーから発売されており、一般の家庭内で見かける機会が多くなってきている。その中でも、人からの呼びかけに反応して、人とコミュニケーションをとりつつ、コンテンツなどの情報を提供するコミュニケーションロボットが現れてきている。たとえば、ロボットの感情に適合するコンテンツを選択し再生するものが提案されている(特許文献1参照)。   In recent years, home robots have been released by domestic and foreign manufacturers, and there are many opportunities to find them in ordinary homes. Among them, communication robots that respond to calls from people and provide information such as content while communicating with people are emerging. For example, there has been proposed one that selects and reproduces content that matches the emotion of a robot (see Patent Document 1).

前記特許文献1に記載のコンテンツ再生システムは、外部からの働きに応じてロボットが自分の感情を変更するとともにその感情情報をコンテンツ再生装置に送信することで、コンテンツ再生装置がロボットの感情に適合するコンテンツを選択して再生することで、ロボットの感情を表現するものである。   In the content reproduction system described in Patent Document 1, the robot changes its emotion according to the work from the outside and transmits the emotion information to the content reproduction device, so that the content reproduction device matches the emotion of the robot. By selecting and playing the content to be played, the emotion of the robot is expressed.

また、ユーザーを飽きさせない方法として、本などの印刷媒体・記録媒体に印刷・記録されたストーリーを、ロボットが検出した時間の変化、季節の変化、感情の変化などに応じて、動的にストーリーを改変して毎回異なった内容を朗読するロボットが提案されている(特許文献2参照)。   In addition, as a way to keep users from getting bored, stories that are printed and recorded on print media and recording media such as books are dynamically changed according to changes in time, seasonal changes, and emotions detected by the robot. There has been proposed a robot that reads the different contents each time by modifying (see Patent Document 2).

特開2005−169567号公報JP 2005-169567 A 特開2002−205291号公報JP 2002-205291 A

しかしながら、前記特許文献1に開示の構成では、ユーザーがロボットを叩くとロボットが怒りだすといった、外部からの働きとロボットの感情変化の関係が固定的なものであったり、ユーザーの好みに合わせてコンテンツを変更することができないため、ユーザーは同じ出力しか繰り返さないロボットにいずれ飽きてしまう。   However, in the configuration disclosed in Patent Document 1, the relationship between the external work and the emotional change of the robot is fixed, such as when the user hits the robot, the robot starts to get angry. Since the content cannot be changed, the user will eventually get bored with a robot that only repeats the same output.

特許文献2に開示の構成では、ロボット単体が動的に表現内容を改変した場合、ロボットは人間に比べて表情や仕草の表現力が劣るためロボットの動作意図がユーザーに伝わりにくく、さらに改変元となる媒体自体がユーザー属性や環境属性を反映せず固定なために、ロボットと媒体とそれぞれが提供する情報が不一致となることから、かえってユーザーにとってわかりにくくなるという課題があった。   In the configuration disclosed in Patent Document 2, when the robot itself dynamically changes the expression content, the robot is inferior in expression of facial expressions and gestures compared to humans, so that the intention of the robot is less likely to be transmitted to the user. Since the medium itself does not reflect the user attribute and the environment attribute and is fixed, the information provided by the robot and the medium does not match each other.

上記従来の技術の問題点に鑑み、本発明は、ユーザーへの情報の表現力を向上させるとともに、ユーザーの関与によって表現内容を変化させるロボットシステムを提供することを目的とする。   SUMMARY OF THE INVENTION In view of the above-described problems of the conventional technology, an object of the present invention is to provide a robot system that improves the ability to express information to a user and changes the content of expression with the user's involvement.

本発明は、映像表示端末とロボットからなる映像表示端末連携型ロボットシステムであって、ロボットの傍らに舞台装置としての映像表示端末を置くことで、ロボットを演者とする舞台空間を構築するものである。   The present invention is a video display terminal cooperation type robot system composed of a video display terminal and a robot, and a stage space having a robot as a performer is constructed by placing a video display terminal as a stage device beside the robot. is there.

映像表示端末はディスプレイなどの表示手段を備えているので、ロボットの演技に説得力を与えるための視覚的補助手段として機能し、場面、季節、時間、雰囲気などを表現するための大道具や小道具のオブジェクトを表示することで、ロボットが伝える内容に対してユーザーの感情移入を高めることができる。   Since the video display terminal is equipped with display means such as a display, it functions as a visual aid to give persuasive power to the robot's performance, and is a tool or prop used to express the scene, season, time, atmosphere, etc. By displaying these objects, it is possible to increase the empathy of the user with respect to the contents conveyed by the robot.

映像表示端末はタッチパネルなどの入力検知手段を備えているので、大道具や小道具のオブジェクトにユーザーが触れたときにオブジェクトの特徴に適った動作を実行する。例えば、「絵本読み聞かせ」のサービスにおける絵本の役割を意味する絵本のオブジェクトに触れると、絵本の表紙が開くアニメーションを実行したのち、ロボットが絵本のストーリーを身振りを加えつつ話すといった、人間が絵本の読み聞かせをするのと同じ行動をトレースするので、ユーザーにとってロボットの動作意図がより伝わりやすくなる。   Since the video display terminal includes input detection means such as a touch panel, when the user touches an object of a big tool or a prop, an operation suitable for the feature of the object is executed. For example, if you touch a picture book object, which means the role of the picture book in the “Picture Book Storytelling” service, an animation that opens the cover of the picture book will be executed, and then the robot will speak the picture book story while gesturing. Traces the same behavior as reading aloud, making it easier for the user to communicate the robot's intention to move.

ロボットはカメラによる顔認識などのユーザー検知手段を備えているので、目の前にいる人物があらかじめ記憶手段に格納されたユーザー情報と一致するか否かを判定し、一致する場合はユーザー情報として格納されている絵本のタイトルと前回までの読了位置を参照して、前回の続きから読み聞かせを実行できる。また、目の前にいる人物のユーザー情報が記憶手段に格納されていない場合は、顔認識で人物の年齢を判定し、例えば人物を幼児と判定した場合、ロボットは幼児にとって聞き取りやすい声質・スピード・話し方を選択し、映像表示端末はディスプレイに表示する絵本の文字を幼児向けの平易な文章かつ漢字を廃した文字表現に変更した上で、絵本の最初の頁から読み聞かせを実行できる。   Since the robot has user detection means such as face recognition by a camera, it is determined whether or not the person in front matches the user information stored in the storage means in advance. Referring to the title of the picture book stored and the last reading position, the story can be read from the previous continuation. In addition, when the user information of the person in front of the person is not stored in the storage means, the age of the person is determined by face recognition. For example, if the person is determined to be an infant, the robot can easily hear the voice quality and speed・ Select a way to speak, and the video display terminal can change the text of the picture book displayed on the display to a plain text for infants and a text expression that eliminates kanji, and then read aloud from the first page of the picture book.

映像表示端末はオブジェクト状態をロボットに伝えるときに、ロボットの行動分岐としての複数の行動パターンを付与して伝えて、ロボットは顔認識で目の前の人物の性別を判定し、その判定結果に応じた行動パターンを選択し実行できる。なお、前述の複数の発話の行動パターンは、映像表示端末からロボットに伝える以外に、前記オブジェクト状態に紐付けされたものとしてロボットが備える記憶手段に予め格納してもよい。   When the video display terminal conveys the object state to the robot, it gives and conveys a plurality of behavior patterns as robot behavior branches, and the robot determines the gender of the person in front by face recognition, A corresponding action pattern can be selected and executed. The behavior patterns of the plurality of utterances described above may be stored in advance in storage means provided in the robot as being linked to the object state, in addition to being transmitted from the video display terminal to the robot.

映像表示端末は、例えば、「モーニングコール」のサービスにおける時計の役割を意味するオブジェクトをディスプレイ上に配置して、予め設定した時間からの経過とユーザーの覚醒具合に応じて、ロボットがユーザーにモーニングコールをする際の発話の音量・音程・抑揚・スピード・会話の間および身体動作の大きさ・スピード・力強さを変化させることができる。   The video display terminal, for example, arranges an object meaning the role of the clock in the “wake-up call” service on the display, and the robot wakes up to the user according to the elapsed time from the preset time and the user's awakening condition. It is possible to change the volume, pitch, inflection, speed, conversation, and the size, speed, and strength of body movement when making a call.

映像表示装置は、ディスプレイ上に表示されたオブジェクトを操作したことでロボットが発話および身体動作といった行動パターンを開始した直後に前述と異なるオブジェクトを操作したとき、ロボットに伝えるオブジェクト状態に付与された優先度の情報をもとに、実行中のロボットの行動パターンをキャンセルして、後のオブジェクトの操作に紐付けされた行動パターンを割込ませて実行できる。   The video display device gives priority to the object state to be transmitted to the robot when the robot operates an object different from the above immediately after the robot starts an action pattern such as speech and body movement by operating the object displayed on the display. Based on the degree information, the action pattern of the robot being executed can be canceled, and the action pattern associated with the subsequent object operation can be interrupted and executed.

ロボットはマイクによる音声認識手段あるいは環境音認識手段を備えているので、例えば「動画コンテンツ再生」のサービスにおいて、ユーザーの歓声あるいは拍手音を検知することで、映像表示端末で再生する動画コンテンツをユーザーが楽しんでいると判定して、ユーザーの手拍子に同期してロボットが手拍子するとともに、映像表示端末は視覚的に派手な演出に変遷させる。   Since the robot has voice recognition means using a microphone or environmental sound recognition means, for example, in a “video content playback” service, the user can receive video content to be played back on the video display terminal by detecting the cheering or applause sound of the user. As the robot is clapping in synchronization with the user's clapping, the video display terminal changes to a visually flashy production.

以上のように本発明は、ユーザーへの情報の表現力を向上させるとともに、ユーザーの関与によって表現内容を変化させるロボットシステムを提供できる。   As described above, the present invention can provide a robot system that improves the ability to express information to the user and changes the content of the expression according to the user's involvement.

実施の形態1におけるロボットを含むシステムの構成例を示す機能ブロック図Functional block diagram showing a configuration example of a system including a robot in the first embodiment 実施の形態1〜4におけるロボットが映像表示端末とともに使用される状態を示す図The figure which shows the state in which the robot in Embodiment 1-4 is used with a video display terminal 実施の形態2〜4におけるロボットを含むシステムの構成例を示す機能ブロック図Functional block diagram showing a configuration example of a system including a robot in Embodiments 2 to 4 実施の形態5におけるロボットを含むシステムの構成例を示す機能ブロック図Functional block diagram showing a configuration example of a system including a robot in the fifth embodiment 実施の形態5におけるロボットが映像表示端末とともに使用される状態を示す図The figure which shows the state in which the robot in Embodiment 5 is used with a video display terminal

以下本発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態1)
図1は、実施の形態1におけるロボットを含むシステムの構成を示す機能ブロック図である。図1に示すシステムは、映像表示端末200およびロボット100を含んでいる。
(Embodiment 1)
FIG. 1 is a functional block diagram showing a configuration of a system including a robot in the first embodiment. The system shown in FIG. 1 includes a video display terminal 200 and a robot 100.

図2は、ロボット100が映像表示端末200とともに使用される状態を示す図である。ロボット100の傍らに舞台装置としての映像表示端末200を置くことで、ロボットを演者とする舞台空間を構築する。ロボット100と映像表示端末200は横並びの左右の配置に限るものではなく、連動して表現する内容に応じて、縦並びの前後の配置や、段違いの上下の配置も含んでいる。   FIG. 2 is a diagram illustrating a state where the robot 100 is used with the video display terminal 200. By placing the video display terminal 200 as a stage device beside the robot 100, a stage space with the robot as a performer is constructed. The robot 100 and the video display terminal 200 are not limited to the horizontal arrangement of the left and right sides, but also include the arrangements before and after the vertical arrangement and the upper and lower arrangements of different levels depending on the contents to be expressed in conjunction with each other.

映像表示端末200は、例えば、テレビジョン装置、タブレット、PC、PDA、ゲーム機、携帯電話またはインターホーンなどで構成することができる。   The video display terminal 200 can be configured by, for example, a television device, a tablet, a PC, a PDA, a game machine, a mobile phone, an interphone, or the like.

映像表示端末200は、表示手段201、入力検知手段202、オブジェクト状態決定手段203、オブジェクト状態送信手段204を備えている。   The video display terminal 200 includes a display unit 201, an input detection unit 202, an object state determination unit 203, and an object state transmission unit 204.

表示手段201は、ロボットの演技に説得力を与えるための視覚的補助手段として機能し、場面、季節、時間、雰囲気などを表現するための大道具や小道具のオブジェクトを表示する。例えば、図2で示すような「絵本の読み聞かせ」サービスを実現する場合、場面を現す大道具としての本棚を並べた図書館オブジェクト201aを背景に表示して、小道具として複数の絵本オブジェクト201bを「絵本が閉じた状態」で表示する。さらに、現在日時に応じた季節を示すため、夏であれば扇風機、冬であればストーブなどの季節オブジェクト201cを表示したり、時間を示すために時計オブジェクト201dの時刻表示にくわえて窓オブジェクト201eの外から指しこむ日光の波長の変化を模して表示するオブジェクト全体の色味を調整したり、場の雰囲気を示すために室内照明オブジェクト201fが発する光の明るさに応じて、表示する背景およびオブジェクト全体の色の濃淡を調整する。   The display unit 201 functions as a visual auxiliary unit for giving persuasive power to the performance of the robot, and displays objects of large tools and props for expressing scenes, seasons, times, atmospheres, and the like. For example, when the “picture book reading” service as shown in FIG. 2 is realized, a library object 201a with bookshelves arranged as a large tool showing a scene is displayed in the background, and a plurality of picture book objects 201b are displayed as “props”. “Picture book is closed”. Further, in order to indicate the season according to the current date and time, a seasonal object 201c such as a fan is displayed in summer and a stove is displayed in winter, or in addition to the time display of the clock object 201d to indicate time, the window object 201e. The background to be displayed is adjusted according to the brightness of the light emitted from the indoor lighting object 201f to adjust the color of the entire object to be displayed imitating the change in the wavelength of sunlight pointing from the outside, or to indicate the atmosphere of the place And adjust the color shade of the whole object.

入力検知手段202は、ディスプレイとタッチパネルとを重ね合わせたタッチパネルディスプレイとして構成することで、ユーザーの指が触れた位置座標を検出できることから、ディスプレイに表示された複数の大道具や小道具のうち、ユーザーがどのオブジェクトに触れたといった操作入力を検知する。   Since the input detection unit 202 is configured as a touch panel display in which the display and the touch panel are overlapped, the position coordinates touched by the user's finger can be detected. Therefore, among the multiple tools and props displayed on the display, the user can detect the position coordinates. An operation input such as which object touched is detected.

オブジェクト状態決定手段203は、入力検知手段202が検知した操作入力に対応して、現在のオブジェクト状態を別の状態に遷移させ、表示手段201に命令してオブジェクトの見かけ上の表示形態(形状、色、大きさ、位置姿勢)を変化できる。   In response to the operation input detected by the input detection unit 202, the object state determination unit 203 transitions the current object state to another state, and instructs the display unit 201 to display the apparent display form (shape, Color, size, position and orientation) can be changed.

オブジェクト状態送信手段204は、オブジェクト状態決定手段203によってオブジェクト状態が遷移したことをロボット100に送信する。   The object state transmitting unit 204 transmits to the robot 100 that the object state has been changed by the object state determining unit 203.

ロボット100と映像表示端末200とを有線または無線の通信モジュールで接続し、映像表示端末200のオブジェクト状態送信手段204から送信されたオブジェクト状態を含むデータを、ロボット100のオブジェクト状態受信手段105が受信する。このときの通信の形態は、例えば、Wi−Fi(登録商標)、Bluetooth(登録商標)などの技術を用いることができる。   The robot 100 and the video display terminal 200 are connected by a wired or wireless communication module, and the object state reception unit 105 of the robot 100 receives the data including the object state transmitted from the object state transmission unit 204 of the video display terminal 200. To do. For example, Wi-Fi (registered trademark), Bluetooth (registered trademark), or the like can be used as a communication form at this time.

なお、上記の映像表示手段200を構成する各手段は、映像表示装置動作プログラムによって実現する。   Each means constituting the video display means 200 is realized by a video display device operation program.

ロボット100は、記憶手段101、出力手段102、ユーザー検知手段103、ロボット状態決定手段104、オブジェクト状態受信手段105、ロボット状態送信手段106を備えている。   The robot 100 includes a storage unit 101, an output unit 102, a user detection unit 103, a robot state determination unit 104, an object state reception unit 105, and a robot state transmission unit 106.

ユーザー検知手段103は、ユーザーの顔や身体を含む映像を撮影するためのカメラと、ユーザーの発する音声を収集するためのマイクを備えており、人認識の技術を用いてロボット100の目の前にいるユーザーの顔や音声の特徴情報の抽出や年齢や性別の推定、または、ユーザーの視線を含む表情認識や音声の周波数成分や声のリズムを分析する技術を用いて、ユーザーの喜怒哀楽や集中度あるいは興奮度といった感情情報を推定できる。上記例に限らず、例えば、ロボット100には外界センサおよび内界センサを含む。例えば、外界センサとしては、ユーザーがロボット100の体表面に触れたことを検知するタッチセンサや圧力センサや脈拍センサあるいは熱センサ。内界センサとしては、ユーザーがロボット100を持った状態での移動および回転の操作を検知する加速度センサやジャイロセンサあるいは電子コンパスなどを含める。上記のユーザー検知手段103で得られた情報は「現在のユーザー情報」として扱う。   The user detection unit 103 includes a camera for capturing an image including the user's face and body, and a microphone for collecting the sound emitted by the user. The user's face and voice feature information, age and gender estimation, facial expression recognition including the user's line of sight and voice frequency components and voice rhythm analysis technology. And emotion information such as concentration or excitement can be estimated. For example, the robot 100 includes an external sensor and an internal sensor. For example, as an external sensor, a touch sensor, a pressure sensor, a pulse sensor, or a thermal sensor that detects that a user touches the body surface of the robot 100. Examples of the internal sensor include an acceleration sensor, a gyro sensor, an electronic compass, and the like that detect movement and rotation operations when the user holds the robot 100. The information obtained by the user detection means 103 is handled as “current user information”.

表1は、ユーザー検知手段103で得られる「現在のユーザー情報」の構成を示す。1つのIDに対して、年齢、性別、ロボットからユーザーに対する好感度といった基本情報、顔の特徴情報、音声の特徴情報、感情情報、外界センサ情報、内界センサ情報を含んでいる。 Table 1 shows a configuration of “current user information” obtained by the user detection unit 103. One ID includes basic information such as age, gender, and preference from a robot to a user, facial feature information, voice feature information, emotion information, external sensor information, and internal sensor information.

出力手段102は、発話するためのスピーカや、複数の自由度をもつ機構で構成し、その可動部に駆動力を与えることにより、ロボットに身体動作を発生させる。このときの駆動力の発生源(アクチュエータ)には、サーボモータ、人工筋肉、磁力、静電気力などの技術を用いることができる。本実施形態のロボット100は、図2に示すように人の日常生活に溶け込みやすく親しまれているぬいぐるみの代表格であるクマの形状および構造を模してデザインされたクマ型ぬいぐるみロボットであり、外装もぬいぐるみと同様の柔軟素材を使用しているため、安心して直接触れて抱くことができる。なお、クマ型ぬいぐるみは、旧来から子供の遊び相手として存在しているように、人間らしい発話や身体動作を行う動物を擬人化したキャラクターとしても受け入れられやすい。もちろん、本実施の形態はクマ以外のキャラクターにも適用可能である。   The output unit 102 includes a speaker for speaking and a mechanism having a plurality of degrees of freedom, and applies a driving force to the movable part to cause the robot to perform a body motion. As a driving force generation source (actuator) at this time, a technique such as a servo motor, artificial muscle, magnetic force, electrostatic force, or the like can be used. The robot 100 according to the present embodiment is a bear-type stuffed toy robot designed to imitate the shape and structure of a bear, which is a typical stuffed toy that is easy to blend in with people's daily life as shown in FIG. Because the exterior uses the same flexible material as the stuffed toy, you can directly touch and hold it with confidence. Bear-shaped stuffed animals are easy to accept as anthropomorphic characters of animals that perform human-like utterances and body movements, as have traditionally existed as children's play partners. Of course, this embodiment can also be applied to characters other than bears.

ロボット100は、動物を模して胴体部100a、頭部100b、腕部100c、脚部100dに分かれて構成されている。頭部100bは首位置にロール、ピッチおよびヨーの各軸方向の自由度をもって胴体部100aの上端位置に配置されている。腕部100cは肩位置にロールとピッチ、肘位置にロールとピッチの各軸方向の自由度をもって胴体部100aの上半分左右端位置に配置されている。脚部100dは股関節位置にピッチとヨーの各軸方向の自由度をもって胴体部100aの下半分左右端位置に配置されている。   The robot 100 is divided into a body part 100a, a head part 100b, an arm part 100c, and a leg part 100d, imitating an animal. The head portion 100b is arranged at the upper end position of the body portion 100a with degrees of freedom in the axial directions of roll, pitch and yaw at the neck position. The arm portion 100c is arranged at the left and right end positions of the upper half of the body portion 100a with degrees of freedom in the axial directions of the roll and pitch at the shoulder position and the roll and pitch at the elbow position. The leg part 100d is arranged at the left and right end positions of the lower half of the body part 100a with the degree of freedom of the pitch and yaw axial directions at the hip joint position.

上記構成によって、人同士のコミュニケーションにおいて非言語情報がときに言語以上に情報を伝達すると言われるように、対話を促すためのいくつかの非言語情報としての身体動作(ジェスチャ)を表現できる。具体的には、同意を意味するうなづき、否定を意味する首振り、疑問を意味する首かしげ、話し相手と目をあわせるまたは逸らすアイコンタクト、自発的な発言を呈する挙手、相手からの発言を求める手招き、話題の対象を指差す、不快を伝える足のばたつかせなどのジェスチャを発話と同期させながら実行することが可能である。   With the above configuration, it is possible to express some body movements (gestures) as non-linguistic information for prompting dialogue so that non-linguistic information sometimes conveys information more than language in communication between people. Specifically, nodding to mean consent, swinging to mean denial, head-to-head to question, eye contact to look at or disagree with the person you are talking to, raised hand to present spontaneous speech, invitation to ask for speech from the other party It is possible to perform gestures such as pointing at the subject of the topic and letting go of the feet to convey discomfort while synchronizing with the utterance.

記憶手段101は、各種情報を格納するための記憶媒体を備えている。具体的には、予め格納されている「過去のユーザー情報」に加え、「オブジェクト状態と紐付けられた複数の行動パターン」も格納できる。   The storage unit 101 includes a storage medium for storing various information. Specifically, in addition to the “past user information” stored in advance, “a plurality of behavior patterns associated with the object state” can also be stored.

表2は、記憶手段101に格納する「過去のユーザー情報」の構成を示す。1つのIDに対して、名前や年齢、性別およびロボットからユーザーに対する好感度といった基本情報、顔の特徴情報、音声の特徴情報、複数のアプリケーション情報を含んでいる。アプリケーション情報には、過去に該ユーザーが行った行動のうち、例えば、「絵本読み聞かせ」サービスに関するアプリケーション情報としての、今までに読んだ絵本の名称と読了位置や読了回数を、基本情報に紐付けすることもできる。 Table 2 shows a configuration of “past user information” stored in the storage unit 101. One ID includes basic information such as name, age, sex, and preference from the robot to the user, facial feature information, voice feature information, and a plurality of application information. In the application information, among the actions that the user has performed in the past, for example, the name of the picture book read so far, the reading position and the number of readings as application information related to the “picture book reading story” service are linked to the basic information. It can also be attached.

前記ユーザー検知手段103は、ロボット100の目の前にいるユーザーから得た「現在のユーザー情報」と、記憶手段101に格納された「過去のユーザー情報」とで、とくに顔の特徴情報を比較することでユーザーの個人識別を行うことができる。   The user detection unit 103 compares the facial feature information, in particular, with “current user information” obtained from the user in front of the robot 100 and “past user information” stored in the storage unit 101. By doing so, the user can be personally identified.

表3は、記憶手段101に格納する「行動パターン」の構成を示す。1つのIDに対して、オブジェクト名およびオブジェクト状態に紐付けられた複数の行動パターン情報を含んでいる。行動パターンは、ロボットが出力するための発話および身体動作に関する情報を有する。 Table 3 shows the configuration of the “behavior pattern” stored in the storage unit 101. One ID includes a plurality of pieces of behavior pattern information associated with an object name and an object state. The behavior pattern has information related to utterances and body movements to be output by the robot.

例えば、「絵本の読み聞かせ」サービスに関して、「読み聞かせする」「本をすすめる」「待機する」などの行動パターンを用意する。さらに、各行動パターンに「行動確率」が設定されている場合は、ユーザーとロボットとのインタラクション回数によって上昇する「過去のユーザー情報」に含まれるユーザーへの好感度の値や、目の前のユーザーから得られる「現在のユーザー情報」に含まれる集中度の値が大きいほど行動確率の高い行動を優先して実行する。また、各行動パターンに「行動条件」が記述されている場合は、ロボットは該条件に従って行動パターンを選択する。   For example, regarding the “telebook storytelling” service, action patterns such as “speak aloud”, “promote a book”, “wait” are prepared. In addition, when “action probability” is set for each action pattern, the value of user preference included in the “previous user information” that increases according to the number of interactions between the user and the robot, The higher the concentration value included in the “current user information” obtained from the user, the higher the action probability is given to the action. When “behavior condition” is described in each action pattern, the robot selects an action pattern according to the condition.

ロボット状態決定手段104は、前記記憶手段101に格納した「過去のユーザー情報」と前記ユーザー検知手段103が取得した「現在のユーザー情報」の少なくとも一方に基づいて、映像表示端末200から受信したオブジェクト状態と紐付けされた複数の行動パターンから一つを決定し、現在のロボット状態を別の状態に遷移させることで、前記出力手段102の働きによりロボットは発話または身体動作を出力する。   The robot state determination unit 104 receives the object received from the video display terminal 200 based on at least one of “past user information” stored in the storage unit 101 and “current user information” acquired by the user detection unit 103. By determining one from a plurality of behavior patterns associated with the state and transitioning the current robot state to another state, the robot outputs utterances or body movements by the function of the output means 102.

ロボット状態送信手段106は、ロボット状態決定手段104によってロボット状態が遷移したことを映像表示端末200に送信する。   The robot state transmission unit 106 transmits to the video display terminal 200 that the robot state has been changed by the robot state determination unit 104.

なお、上記のロボット100を構成する各手段は、ロボット動作プログラムによって実現する。   Each means constituting the robot 100 is realized by a robot operation program.

具体的な動作例として、「絵本読み聞かせ」サービスの一例を以下に示す。   As a specific example of operation, an example of the “Picture Book Storytelling” service is shown below.

図2に示す映像表示端末200は、表示手段201と入力検知手段202は重なり合うタッチパネルディスプレイで構成され、「絵本の読み聞かせ」サービスを実現する場合、場面を現す大道具としての本棚を並べた図書館オブジェクト201aを背景に表示して、小道具として複数の絵本オブジェクト201bを「絵本が閉じた状態」で表示する。さらに、現在の季節を印象付ける(ここでは夏=扇風機)の季節オブジェクト201c、時間を示す時計オブジェクト201dの時刻表示と、ここでは昼なので窓の外の色を青とする窓オブジェクト201e、場の雰囲気を示すために室内照明オブジェクト201fを表示し照明がついていることを示すために周辺の色の濃淡を明るくなるように補正する。前記絵本のオブジェクト201bは「絵本が閉じた状態」と「絵本が開かれた状態」と「絵本を読んでいる状態」の3つの状態を持つ。   A video display terminal 200 shown in FIG. 2 includes a touch panel display in which the display unit 201 and the input detection unit 202 are overlapped, and a library in which bookshelves are arranged as a large tool for showing a scene when the “telebook reading” service is realized. The object 201a is displayed in the background, and a plurality of picture book objects 201b are displayed in a “picture book closed state” as props. Further, the time display of the season object 201c for impressing the current season (in this case summer = electric fan) and the clock object 201d indicating the time, and the window object 201e in which the color outside the window is blue because it is daytime, The indoor lighting object 201f is displayed to show the atmosphere, and the shades of surrounding colors are corrected to lighten to show that the lighting is on. The picture book object 201b has three states of "a picture book is closed", "a picture book is opened", and "a picture book is being read".

タッチパネルディスプレイ上に表示された絵本のオブジェクト201aをユーザーが指で触れるとき、入力検知手段202の働きにより絵本のオブジェクトが操作されたと判断する。   When the user touches the picture book object 201 a displayed on the touch panel display with a finger, it is determined that the picture book object has been operated by the operation of the input detection unit 202.

さらに、オブジェクト状態決定手段203は、絵本のオブジェクト状態を「絵本が閉じた状態」から「絵本が開かれている状態」に遷移すると同時に、表示手段201に命令して絵本の表紙が開くアニメーションを実行したのち絵本のストーリーのおける象徴的な場面を現す背景をディスプレイに表示し、オブジェクト状態送信手段204を介して、絵本のオブジェクト状態が「絵本が開かれている状態」に遷移したことをロボット100に送信する。   Further, the object state determination means 203 changes the object state of the picture book from “the picture book is closed” to “the picture book is opened”, and at the same time, instructs the display means 201 to perform an animation for opening the picture book cover. After execution, the background showing the symbolic scene in the story of the picture book is displayed on the display, and the object state of the picture book is changed to “the picture book is opened” via the object state transmission means 204. To 100.

ロボット100は、ユーザー検知手段103が目の前にいる人物から得た「現在のユーザー情報」の顔の特徴情報と、あらかじめ記憶手段102に格納された「過去のユーザー情報」の顔の特徴情報とが一致するか否かを判定する。   The robot 100 includes facial feature information of “current user information” obtained from the person in front of the user detection unit 103 and facial feature information of “past user information” stored in the storage unit 102 in advance. Is matched.

オブジェクト状態受信手段105が「絵本が開かれている状態」を受信し、ロボット状態決定手段104は表3のIDc001を参照して行動条件90%の「絵本を読み聞かせる」の行動パターンを選択するとき、顔の特徴情報が一致する場合、表2のIDb000の「過去のユーザー情報」と紐付けられて格納されているアプリケーション情報の「絵本の名称」と「前回までの読了位置」と「読み聞かせ設定」を参照して、出力手段102に命令することで前回の続きから読み聞かせを実行できる。   The object state receiving unit 105 receives “the state where the picture book is opened”, and the robot state determination unit 104 selects an action pattern of “read a picture book” with an action condition of 90% with reference to IDc001 in Table 3 When the facial feature information matches, the “picture book name”, “reading position until the previous time”, and “the last reading position” of the application information stored in association with “past user information” of IDb000 in Table 2 are stored. With reference to the “telephone setting”, it is possible to execute reading from the previous continuation by instructing the output means 102.

さらに、顔の特徴情報が一致しない場合は、ユーザー検知手段103の顔認識で人物の年齢を判定し、例えば人物を幼児と判定した場合、ロボット状態決定手段105が複数の行動パターンのうちから「絵本を読み聞かせる」を選択して、幼児にとって聞き取りやすい声質・スピード・話し方で絵本の最初の頁から読み聞かせることを出力手段102に命令する。   Further, when the facial feature information does not match, the age of the person is determined by the face recognition of the user detection unit 103. For example, when the person is determined to be an infant, the robot state determination unit 105 selects " “Read a picture book” is selected, and the output means 102 is instructed to read from the first page of the picture book with a voice quality, speed, and way of speaking that is easy for an infant to hear.

以上のように、絵本オブジェクト201bの表紙を開こうとするユーザーのアクションで絵本が開き、つづいてロボット100が目の前の人物の特性に合わせて絵本のストーリーを身振りを加えつつ話すといった、人間がこどもなどに対して絵本の読み聞かせをするのと同じ一連の行動をトレースできるので、ロボットが絵本を読み聞かせようとするといった動作意図が、ユーザーにより伝わりやすくなる。   As described above, the picture book is opened by the user's action to open the cover of the picture book object 201b, and then the robot 100 talks while gesturing the story of the picture book according to the characteristics of the person in front. Since the same series of actions as reading a picture book to children can be traced, it is easier for the user to communicate the intention of the robot to read the picture book.

ユーザーのタッチディスプレイの操作において、ディスプレイに表示するオブジェクトが複数ある状態で、ユーザーがオブジェクトAを操作した直後にオブジェクトBを操作するとき、ロボット100がオブジェクトAを操作した結果としての発話または身体動作の実行を継続し後のユーザーの操作がロボットに無視されたと感じさせないように、オブジェクト状態送信手段204は、オブジェクト状態に優先度を付与してロボット100に送信する仕組みを設ける。具体的には、先にオブジェクトAが操作されたときに優先度(通常)を付与してロボット100に送信し、予め想定するロボットの発話および身体動作の時間に達する前にオブジェクトBが操作されたときは優先度(高)を付与してロボット100に送信する。ロボット100は、より高い優先度をもつ情報を受け付けた場合は、実行中のロボットの行動パターンをキャンセルして、後のオブジェクトの操作に紐付けされた行動パターンを割込ませて実行できるようにする。   When the user operates the object B immediately after the user operates the object A in a state where there are a plurality of objects to be displayed on the display in the user's touch display operation, the utterance or the body movement as a result of the robot 100 operating the object A The object state transmitting unit 204 provides a mechanism for giving priority to the object state and transmitting it to the robot 100 so that the user's operation after the execution is continued and the robot is not ignored. Specifically, when the object A is operated first, priority (normal) is given and transmitted to the robot 100, and the object B is operated before reaching the time of the robot's utterance and body movement that is assumed in advance. If it is, the priority (high) is given and transmitted to the robot 100. When the robot 100 receives information having a higher priority, the robot 100 can cancel the action pattern of the robot being executed and execute the action pattern associated with the subsequent object operation. To do.

以上の実施の形態は一例であり、ロボット100および映像表示端末200の構成例、動作例、使用例、外部形状例は、上記例に限定されない。   The above embodiment is an example, and the configuration example, operation example, use example, and external shape example of the robot 100 and the video display terminal 200 are not limited to the above example.

(実施の形態2)
図3は、実施の形態2におけるロボットを含むシステムの構成例を示す機能ブロック図である。図3に示すシステムは、映像表示端末200に表示記憶手段205およびロボット状態受信手段206を含んでいる。
(Embodiment 2)
FIG. 3 is a functional block diagram illustrating a configuration example of a system including the robot according to the second embodiment. The system shown in FIG. 3 includes a display storage unit 205 and a robot state reception unit 206 in the video display terminal 200.

ロボット100と映像表示端末200とを有線または無線の通信で接続しているので、ロボット状態送信手段106は、前記記憶手段101に格納した「過去のユーザー情報」と前記ユーザー検知手段103が取得した「現在のユーザー情報」の少なくとも一方を、ロボット状態に付与して送信できる。   Since the robot 100 and the video display terminal 200 are connected by wired or wireless communication, the robot state transmission unit 106 acquires the “past user information” stored in the storage unit 101 and the user detection unit 103. At least one of “current user information” can be given to the robot state and transmitted.

表示記憶手段205は、各種情報を格納するための記憶媒体を備えている。具体的には、1つのオブジェクト毎に「表示パターン」を格納できる。   The display storage unit 205 includes a storage medium for storing various information. Specifically, a “display pattern” can be stored for each object.

表4は、表示記憶手段205に格納する「表示パターン」の構成を示す。1つのIDに対して、オブジェクト名、オブジェクト状態、ロボットの状態とユーザー情報に紐付けられた複数の表示パターン情報、およびオブジェクト属性を含んでいる。オブジェクト属性には、オブジェクトの役割グループを示す種別、オブジェクト利用の対象年齢、オブジェクト利用の有効期間をIDに紐付けすることもできる。 Table 4 shows the configuration of the “display pattern” stored in the display storage unit 205. One ID includes an object name, an object state, a plurality of display pattern information linked to the robot state and user information, and an object attribute. In the object attribute, the type indicating the role group of the object, the target age of using the object, and the effective period of using the object can be associated with the ID.

オブジェクト状態決定手段203は、ロボット100から受信したロボット状態と紐付けされた表示パターンを選択し、さらにユーザー情報が付与されていた場合は、ユーザー情報に含まれる情報と該オブジェクト属性に対応して表示オブジェクトの表示状態を決定し、前記表示手段101の働きにより表示する。   The object state determination unit 203 selects a display pattern associated with the robot state received from the robot 100. If user information is given, the object state determination unit 203 corresponds to the information included in the user information and the object attribute. The display state of the display object is determined and displayed by the function of the display means 101.

具体的な動作例として、「絵本読み聞かせ」サービスの一例を以下に示す。   As a specific example of operation, an example of the “Picture Book Storytelling” service is shown below.

図2に示す映像表示端末200の表示手段201に、「読み聞かせ」サービスの場面を想起させる本棚を並べた図書館オブジェクト201aおよび「絵本が閉じた状態」の絵本オブジェクト201bが表示されている。   On the display unit 201 of the video display terminal 200 shown in FIG. 2, a library object 201 a in which bookshelves reminiscent of a “telephone” service scene and a picture book object 201 b in a “picture book closed” state are displayed.

ここで、「読み聞かせサービス」実行を期待するユーザー(幼児)がロボット100の正面に立ったとき、ロボット状態決定手段104は、ロボット状態を「待機状態」から「絵本を探す状態」に遷移すると同時に、出力手段101に命令して腕部100cを駆動させて本棚のある図書館オブジェクト201aを手で指し示す身体動作を実行する。次に、ロボット状態送信手段106を介してロボットが「絵本を探す状態」に遷移したことを意味するロボット状態と、前記ユーザー検知手段103がユーザーが幼児であるという情報を含む「現在のユーザー情報」を映像表示端末200に送信する。   Here, when a user (infant) who expects to read the “telephone service” stands in front of the robot 100, the robot state determination unit 104 changes the robot state from “standby state” to “state for searching for a picture book”. At the same time, it instructs the output means 101 to drive the arm portion 100c to execute a body motion that points to the library object 201a with the bookshelf by hand. Next, the “current user information” includes a robot state that means that the robot has transited to “a state of searching for a picture book” via the robot state transmission unit 106, and the user detection unit 103 includes information that the user is an infant. Is transmitted to the video display terminal 200.

オブジェクト状態決定手段203は、表4のIDd050の表示パターンに従い、対象年齢を幼児とする絵本を本棚に並べるために、表4のオブジェクト属性の「本かつ対象年齢が幼児」という情報を参照する。さらに「絵本を読み聞かせる」のロボット状態を受信するときは、表4のIDd001の表示パターンに従い、ディスプレイに表示する絵本の文字を幼児向けの平易な文章かつ漢字を廃した文字表現に変更できる。   The object state determination unit 203 refers to the information “book and target age is infant” of the object attribute in Table 4 in order to arrange the picture books whose target age is an infant on the bookshelf according to the display pattern of IDd050 in Table 4. Furthermore, when receiving the robot status of “Reading a picture book”, according to the display pattern of IDd001 in Table 4, the text of the picture book displayed on the display can be changed to a plain text for infants and a character expression without kanji. .

以上のように、上記実施の形態1と本実施の形態2の組み合わせにより、ロボット100単体がユーザー情報に基づいて動的に発話および身体動作の表現内容を改変した場合に、改変元となる媒体としての映像表示端末200もユーザー属性を反映して表示内容も連動して改変されるので、ロボット100と映像表示端末200とが提供する情報が常に一致するので、ユーザーによる機能発見と感情移入を容易にしてユーザーへの情報の表現力を向上させるとともに、得られるユーザー属性と環境属性を反映し表現内容を変化させることでユーザーが飽きさせないようにする。   As described above, when the robot 100 alone dynamically modifies the utterance and body motion expression contents based on the user information by the combination of the first embodiment and the second embodiment, the medium that is the modification source Since the display content of the video display terminal 200 is also modified in conjunction with the user attributes, the information provided by the robot 100 and the video display terminal 200 always matches, so that the function discovery and emotion transfer by the user can be performed. Easily improve the ability to express information to the user, and change the content of the expression to reflect the user attributes and environment attributes that are obtained, thereby preventing the user from getting bored.

以上の映像表示端末200が受信するユーザー情報は一例であり、他にも、ユーザーの名前、年齢、性別といった基本情報、顔の特徴情報、音声の特徴情報、喜怒哀楽、集中度および興奮度といった感情情報などがある。   The user information received by the video display terminal 200 is an example. Besides, basic information such as the user's name, age, and gender, facial feature information, voice feature information, emotions, concentration and excitement levels. There is emotion information.

(実施の形態3)
ここでは、ロボット100が、前記映像表示装置200から受信した「ロボットに期待する複数の行動パターン」のうち一つの行動を決定し出力する形態を説明する。
(Embodiment 3)
Here, a mode will be described in which the robot 100 determines and outputs one action among “a plurality of action patterns expected from the robot” received from the video display device 200.

表5は、映像表示端末200の表示記憶手段205に格納する「ロボットに期待する行動パターン」の構成を示す。本情報のフォーマットは、前述のロボット100の記憶手段101に格納する「行動パターン」と同一で、内容を変更している。 Table 5 shows the configuration of “behavior expected pattern” stored in the display storage unit 205 of the video display terminal 200. The format of this information is the same as the “behavior pattern” stored in the storage unit 101 of the robot 100 described above, and the content is changed.

例えば、「絵本の読み聞かせ」サービスに関する行動パターン情報として、「読み聞かせする」「本をすすめる」「絵本を読むか尋ねる」「待機する」などの複数の行動パターン情報を用意する。   For example, a plurality of behavior pattern information such as “send a story”, “promote a book”, “ask to read a picture book”, and “wait” are prepared as behavior pattern information related to the “telebook storytelling” service.

オブジェクト状態決定手段203は、入力検知手段202が検知した操作入力に対応して、現在のオブジェクト状態を別の状態に遷移させたことに加え、表5の該オブジェクトのオブジェクト状態に紐付けられたロボットに期待する複数の行動パターンをロボット100に送信する。   In response to the operation input detected by the input detection unit 202, the object state determination unit 203 is associated with the object state of the object in Table 5 in addition to changing the current object state to another state. A plurality of behavior patterns expected from the robot are transmitted to the robot 100.

ロボット状態決定手段104は、前記記憶手段101に格納した「過去のユーザー情報」と前記ユーザー検知手段103が取得した「現在のユーザー情報」の少なくとも一方に基づいて、映像表示端末200から受信したオブジェクト状態と紐付けされた複数の行動パターンから一つを決定し、現在のロボット状態を別の状態に遷移させることで、前記出力手段102の働きによりロボットは発話または身体動作を出力する。   The robot state determination unit 104 receives the object received from the video display terminal 200 based on at least one of “past user information” stored in the storage unit 101 and “current user information” acquired by the user detection unit 103. By determining one from a plurality of behavior patterns associated with the state and transitioning the current robot state to another state, the robot outputs utterances or body movements by the function of the output means 102.

ロボット状態送信手段106は、ロボット状態決定手段104によってロボット状態が遷移したことを映像表示端末200に送信する。   The robot state transmission unit 106 transmits to the video display terminal 200 that the robot state has been changed by the robot state determination unit 104.

ロボット状態決定手段104は、前記記憶手段101に格納した「過去のユーザー情報」と前記ユーザー検知手段103が取得した「現在のユーザー情報」の少なくとも一方に基づいて、映像表示端末200から受信したオブジェクト状態とロボットに期待する複数の行動パターンから一つを決定し、現在のロボット状態を別の状態に遷移させることで、前記出力手段102の働きによりロボットは発話または身体動作を出力する。   The robot state determination unit 104 receives the object received from the video display terminal 200 based on at least one of “past user information” stored in the storage unit 101 and “current user information” acquired by the user detection unit 103. By determining one from the state and a plurality of behavior patterns expected of the robot and transitioning the current robot state to another state, the robot outputs utterances or body movements by the function of the output means 102.

具体的な動作例として、「絵本読み聞かせ」サービスの一例を以下に示す。   As a specific example of operation, an example of the “Picture Book Storytelling” service is shown below.

タッチパネルディスプレイ上に表示された絵本のオブジェクト201aをユーザーが指で触れるとき、入力検知手段202の働きにより絵本のオブジェクトが操作されたと判断する。   When the user touches the picture book object 201 a displayed on the touch panel display with a finger, it is determined that the picture book object has been operated by the operation of the input detection unit 202.

さらに、オブジェクト状態決定手段203は、絵本のオブジェクト状態を「絵本が閉じた状態」から「絵本が開かれている状態」に遷移すると同時に、表示手段201に命令して絵本の表紙が開くアニメーションを実行したのち、絵本のストーリーの一場面を現す背景をディスプレイに表示する。続いて、オブジェクト状態送信手段204を介して、絵本のオブジェクト状態が「絵本が開かれている状態」に遷移したことと、表5のIDe001のオブジェクト状態に紐付けられたロボットに期待する複数の行動パターンである「絵本を読むか尋ねる」「絵本を閉じる」の2つを付与してロボット100に送信する。   Further, the object state determination means 203 changes the object state of the picture book from “the picture book is closed” to “the picture book is opened”, and at the same time, instructs the display means 201 to perform an animation for opening the picture book cover. After execution, the background showing a scene from the story of the picture book is displayed on the display. Subsequently, the object state of the picture book is changed to “the state where the picture book is opened” via the object state transmission unit 204, and a plurality of robots associated with the object state of IDe001 in Table 5 are expected. Two action patterns, “Ask to read the picture book” and “Close the picture book” are assigned and transmitted to the robot 100.

オブジェクト状態受信手段105が「絵本が開かれている状態」を受信するとき、ロボット状態決定手段104は、「行動条件」に従ってユーザー検知手段103を使って顔の特徴情報が「過去のユーザー情報」と一致するかどうかを判定する。   When the object state receiving unit 105 receives “the state that the picture book is opened”, the robot state determining unit 104 uses the user detecting unit 103 according to the “behavioral condition” and the facial feature information is “past user information”. Whether or not is matched.

顔の特徴情報が一致する場合「絵本を読むか尋ねる」の行動パターンを選択し、表3のIDc001の「過去のユーザー情報」と紐付けられて格納されているアプリケーション情報の「絵本の名称」と「読了回数」を参照する。該当する絵本の読了回数が5回以上であれば、ロボット100は絵本を読むかどうかを尋ねる発話と身体動作を出力したのち、ユーザー検知手段103の顔認識がユーザーの「はい」を意味するうなづき動作としての目や鼻の器官の上下動を認識した場合は「読み聞かせ設定」を参照して前回の続きから読み聞かせを実行する。また、ユーザー検知手段103の顔認識がユーザーの「いいえ」を意味する首振り動作としての目や鼻の器官の左右移動を認識するか、うなづき動作と首振り動作のいずれも認識することなく30秒以上経過した場合は、絵本を閉じる行動を実行する。読了回数が5未満であれば、「前回までの読了位置」と「読み聞かせ設定」を参照して読み聞かせを実行する。   When the facial feature information matches, the action pattern of “Ask to read a picture book” is selected, and “Picture Book Name” of application information stored in association with “Past User Information” of IDc001 in Table 3 is stored. And “Number of readings”. If the corresponding picture book has been read five times or more, the robot 100 outputs an utterance asking whether or not to read the picture book and a body motion, and then the face recognition of the user detecting means 103 means “yes” of the user. When recognizing the vertical movement of the eye or nose organ as an action, the reading is executed from the previous continuation with reference to “Reading setting”. Further, the face detection of the user detection means 103 recognizes the left and right movements of the eyes and nose organs as the swing motion that means “no” of the user, or recognizes neither the nodding motion nor the swing motion. If more than one second has elapsed, an action of closing the picture book is executed. If the number of readings is less than 5, the reading is executed with reference to the “reading position until the previous time” and “story setting”.

また、ロボット状態決定手段104は、顔の特徴情報が一致しない場合「絵本を閉じる」の行動パターンを選択し、絵本を閉じる行動を実行する。   Further, when the facial feature information does not match, the robot state determination unit 104 selects an action pattern of “close picture book” and executes an action to close the picture book.

以上のように、映像表示端末200からロボット100に期待する複数の行動パターンを送信することで、ロボット側の記憶手段101に行動パターンを格納する容量の節約ができる。また、ロボット100が格納している古い行動パターンと異なって、例えば、場面、季節、時間、雰囲気などによって変化した新しい行動パターンを映像表示端末200から与えることで、ロボット100のインタラクションが多彩になり、ユーザはロボット100と飽きずに長時間付き合うことができる。   As described above, by transmitting a plurality of expected behavior patterns to the robot 100 from the video display terminal 200, the capacity for storing the behavior patterns in the storage means 101 on the robot side can be saved. Also, unlike the old behavior patterns stored in the robot 100, for example, by giving a new behavior pattern that changes according to the scene, season, time, atmosphere, etc. from the video display terminal 200, the interaction of the robot 100 becomes diverse. The user can interact with the robot 100 for a long time without getting bored.

(実施の形態4)
ロボット100が、前記映像表示装置200から受信した「アレンジ手段」に従って、行動を決定し出力する形態を説明する。
(Embodiment 4)
A mode in which the robot 100 determines and outputs an action according to the “arranging means” received from the video display device 200 will be described.

例えば、「モーニングコール」サービスに関して、表4のIDd040およびd041に示すように時計と対応して「知らせる」「時計をとめる」「待機する」などの行動パターンを用意し、記憶手段101に格納する。また、行動パターンには、読み聞かせる絵本のストーリーに応じてロボットが出力するための発話と身体動作に関する情報を含んでいる。   For example, regarding the “wake-up call” service, action patterns such as “notify”, “stop clock”, and “wait” are prepared in correspondence with the clock as shown in IDs d040 and d041 in Table 4 and stored in the storage unit 101. . In addition, the behavior pattern includes information about the utterance and the body movement for the robot to output according to the story of the picture book to be read.

オブジェクト状態決定手段203は、時計オブジェクト201dの種別がタイマなので、予めセットしておいたアラーム時刻に達した場合、オブジェクト状態を「時刻表示状態」から「アラーム状態」に遷移させ、状態が遷移したこととアレンジ手段とを、ロボット100に送信する。   Since the type of the clock object 201d is a timer, the object state determination unit 203 changes the object state from “time display state” to “alarm state” when the preset alarm time is reached, and the state changes. And the arrangement means are transmitted to the robot 100.

具体的な動作例として、「モーニングコール」サービスの一例を以下に示す。   As a specific operation example, an example of a “wake-up call” service is shown below.

オブジェクト状態決定手段203が、表4のIDd040を参照し、時計オブジェクト201dにセットした起床時間7時00分に達したと判断したとき、表4の時計のオブジェクト状態を「時刻表示状態」から「アラーム状態」に遷移すると同時に、表示手段201に命令して、時計が鳴動するアニメーションを実行したのち、オブジェクト状態送信手段204を介して、時計のオブジェクト状態が「アラーム状態」に遷移したことと、アレンジ手段としてのパラメータ「小さい声」を、ロボット100に送信する。   When the object state determination unit 203 refers to IDd040 in Table 4 and determines that the wake-up time set at the clock object 201d has reached 7:00, the object state of the clock in Table 4 is changed from “time display state” to “ At the same time as the transition to the “alarm state”, the display unit 201 is instructed to execute an animation that the clock rings, and then the object state of the clock transitions to the “alarm state” via the object state transmission unit 204; The parameter “small voice” as the arrangement means is transmitted to the robot 100.

ロボット100のオブジェクト状態受信手段105が、7時00分に「アラーム状態」を受信するとき、ロボット状態決定手段104は、表3のIDc041を参照し、ユーザー検知手段103によって目の前にいる人物の視線・表情の動きや発声から得た集中度が閾値未満の場合、意識が覚醒していない(眠そうにしている)と判断して、出力手段101に命令してモーニングコールを「お知らせする」ための発話を、アレンジ手段「小さい声」に応じた小さい音量で実行する。映像表示端末200のロボット状態手段206が、「お知らせする状態」を受信するとき、オブジェクト状態決定手段203は、表4のIDd041を参照し、1分後に再度アラームを鳴らす。   When the object state receiving unit 105 of the robot 100 receives an “alarm state” at 7:00, the robot state determining unit 104 refers to the IDc 041 in Table 3 and the person who is in front of the user by the user detecting unit 103 If the degree of concentration obtained from the movement or utterance of the line of sight / expression is less than the threshold value, it is determined that the consciousness is not awake (sleeping), and the output means 101 is instructed to “notify the wake-up call” Is executed at a low volume corresponding to the arrangement means “low voice”. When the robot state means 206 of the video display terminal 200 receives the “notification state”, the object state determination means 203 refers to IDd041 in Table 4 and sounds the alarm again after 1 minute.

上記のフローを、ユーザーの集中度が閾値以上になるまで1分経過するごとに繰り返す際に、アレンジ手段としてのパラメータを「大きな声」や「大きな動き」や「大きな音を立てる」のように変化するようにプログラムする。   When the above flow is repeated every 1 minute until the user's concentration level exceeds the threshold, the parameters as the arrangement means such as “loud voice”, “big movement” and “sound loud” Program to change.

ロボットが受信したアレンジ手段に対応して、「大きな声」に対応して音量を大きくして発話し、「大きな動き」に対応して手足の末端の位置を胴体中心から離れるように身体動作を変化させ、「大きな音を立てる」に対応して破裂音や打撃音などの大きな効果音を伴って行動することで、ユーザーが覚醒する(起きる)のを促すことができる。最後に、ユーザー検知手段103によって目の前にいる人物から得た集中度が閾値以上の場合、意識が覚醒した(起きている)と判断して、出力手段101に命令してモーニングコールの「時計をとめる」身体動作を実行する。映像表示端末200のロボット状態手段206が、「時計を止める状態」を受信するとき、オブジェクト状態決定手段203は、表4のIDd041を参照し、時計を時刻表示状態に遷移させる。   Corresponding to the arrangement means received by the robot, speak with a louder volume corresponding to the “loud voice”, and move the body and limbs away from the torso center in response to the “big movement”. It is possible to prompt the user to wake up (wake up) by changing and acting with a large sound effect such as a plosive sound or a hitting sound in response to “making a loud sound”. Finally, if the degree of concentration obtained from the person in front of the user by the user detection means 103 is equal to or greater than the threshold value, it is determined that the consciousness has been awakened (wakes up), and the output means 101 is instructed to “ Stop the watch "and perform the physical action. When the robot state means 206 of the video display terminal 200 receives the “state to stop the clock”, the object state determination means 203 refers to IDd041 in Table 4 and transitions the clock to the time display state.

以上のように、映像表示端末200からアレンジ手段を与えることで、ロボット100の記憶手段101に格納された発話または身体動作を変化させることで、記憶手段101の容量を節約できる。また、ロボット100の感情表現が多彩になり、ユーザはロボット100と飽きずに長時間付き合うことができる。   As described above, the capacity of the storage unit 101 can be saved by changing the utterance or body movement stored in the storage unit 101 of the robot 100 by providing the arrangement unit from the video display terminal 200. Also, the emotional expression of the robot 100 becomes diverse, and the user can interact with the robot 100 without getting tired.

以上の発話および身体動作のアレンジ手段は一例であり、他にも、声の大小、声の抑揚、声のテンポ、声の性質(老若男女)、動きの大きさ、動きのスピード、動きの力強さなどがある。   The above utterance and body movement arrangement methods are only examples, and in addition, the size of the voice, the inflection of the voice, the tempo of the voice, the nature of the voice (men and women), the magnitude of the movement, the speed of movement, the power of movement There is strength.

(実施の形態5)
図4は、実施の形態5におけるロボットを含むシステムの構成例を示す機能ブロック図である。図4に示すシステムは、ロボット100に音声認識手段107および環境音認識手段108を含んでいる。
(Embodiment 5)
FIG. 4 is a functional block diagram illustrating a configuration example of a system including the robot according to the fifth embodiment. The system shown in FIG. 4 includes voice recognition means 107 and environmental sound recognition means 108 in the robot 100.

具体的な動作例として、コンサートの「動画コンテンツ再生」サービスの一例を以下に示す。   As a specific operation example, an example of a “video content playback” service of a concert is shown below.

図5は、ロボット100が映像表示端末200とともに使用される状態を示す図である。表示手段201は、動画再生する領域としての動画コンテンツオブジェクト201g、演出装置として観客の注目を集めるためのスポットライトオブジェクト201hと幻想的な雰囲気をつくるためのミスト発生器オブジェクト201iを配置する。なお、図5ではこれら演出装置を見えるようにディスプレイの表示領域内に配置しているが、実際の利用シーンにおいては、見えないようにディスプレイの表示領域外に配置してもよい。   FIG. 5 is a diagram illustrating a state where the robot 100 is used together with the video display terminal 200. The display unit 201 arranges a moving image content object 201g as an area for reproducing a moving image, a spotlight object 201h for attracting the attention of the audience as a production device, and a mist generator object 201i for creating a fantastic atmosphere. In FIG. 5, these effect devices are arranged in the display area of the display so that they can be seen. However, in the actual usage scene, they may be arranged outside the display area of the display so that they cannot be seen.

表6は、表示記憶手段205に格納する「表示パターン」の構成を示す。本情報のフォーマットは、前述の表4と同一で、内容を変更している。 Table 6 shows the configuration of the “display pattern” stored in the display storage unit 205. The format of this information is the same as in Table 4 above, and the contents are changed.

オブジェクト状態決定手段203が、動画コンテンツオブジェクト201gを「停止状態」から「再生状態」に遷移させることで、ディスプレイ上でコンサートの音楽と映像を再生し、スポットライトオブジェクト201hを「消灯状態」から「点灯状態」に遷移させることでスポットライト光を意味する黄色かつ透過度50%でスポットライトを頂点とする三角形を動画コンテンツオブジェクト201gに重畳させて表示する。ミスト発生器オブジェクト201iは停止状態のままにする。傍らに置かれたロボット100は、映像表示端末200で再生されるコンサートの音楽と映像をユーザーが眺めている様子を、ユーザー検知手段103のカメラとマイクでモニタする。   The object state determination unit 203 changes the moving image content object 201g from the “stop state” to the “playback state”, thereby playing the concert music and video on the display, and changing the spotlight object 201h from the “light off state” to “ By making the transition to the “lighting state”, a yellow color meaning spotlight light and a triangle having a transmittance of 50% and having the spotlight as a vertex are superimposed and displayed on the moving image content object 201g. The mist generator object 201i remains in the stopped state. The robot 100 placed beside the user monitors the music and video of the concert reproduced on the video display terminal 200 with the camera and the microphone of the user detection unit 103.

ユーザー検知手段103の顔認識によりユーザーの口の開閉状態の変化を検出するとき、マイクに入力された音情報を音声認識手段107に転送しユーザーの発話内容を解析して発話の有無を検出する。このように、口の開閉状態と音声認識をシンクロさせることで、周囲の雑音に起因する認識への悪影響を低減する。なお、発話内容の解析の一例として、テキスト化した言葉のもつイメージが「良い」のグループ(「いい」「すごい」「おもしろい」など)に含まれること、音声の周波数成分や声のリズムを分析して喜や楽の要素が含まれること、を元にして、「歓声」のレベルを判定できる。   When detecting a change in the opening / closing state of the user's mouth by the face recognition of the user detection unit 103, the sound information input to the microphone is transferred to the voice recognition unit 107, and the presence or absence of the utterance is detected by analyzing the content of the user's utterance. . In this way, by synchronizing the mouth open / closed state and voice recognition, adverse effects on recognition due to ambient noise are reduced. As an example of the analysis of utterance content, the image of the words that have been converted to text is included in a “good” group (such as “good”, “great”, “interesting”, etc.), and the frequency components of the speech and the rhythm of the voice are analyzed. Based on the fact that elements of joy and comfort are included, the level of “cheers” can be determined.

また、ユーザー検知手段103の画像認識によりユーザーの手の動きの変化を検出するとき、マイクに入力された音情報を環境音認識手段108に転送し環境音を解析して拍手音や打撃音の有無を検出する。このように、手の動きと環境音認識をシンクロさせることで、周囲の雑音に起因する認識への悪影響を低減する。なお、環境音の解析の一例として、音声の周波数成分などを分析して拍手に類似する音の特徴が多く含まれることで「拍手音」のレベルを判定できる。   Further, when detecting a change in the user's hand movement by the image recognition of the user detection means 103, the sound information input to the microphone is transferred to the environmental sound recognition means 108, the environmental sound is analyzed, and the applause sound and the hitting sound are detected. Detect the presence or absence. In this way, by synchronizing hand movement and environmental sound recognition, adverse effects on recognition caused by ambient noise are reduced. As an example of the analysis of the environmental sound, the level of the “applause sound” can be determined by analyzing the frequency components of the sound and including many sound features similar to applause.

ここで、環境音認識手段108が、拍手音のレベルが予め設定された閾値よりも大きいと判断するとき、ロボット状態決定手段104は、ロボット状態を「待機状態」から「拍手する状態」に遷移すると同時に、出力手段101に命令して腕部100cを駆動させ、ユーザーの拍手音のタイミングに同期して拍手させてもよい。   Here, when the environmental sound recognition unit 108 determines that the level of the applause sound is larger than a preset threshold value, the robot state determination unit 104 changes the robot state from “standby state” to “applause state”. At the same time, the output unit 101 may be instructed to drive the arm portion 100c to applaud in synchronization with the timing of the user's applause sound.

ロボット状態決定手段104は、ロボット状態を「待機状態」から「ユーザー検知状態」に遷移し、ロボット状態送信手段106を介してロボットが「ユーザー検知状態」に遷移したことを意味するロボット状態に、音声認識手段107が認識した音声認識結果または環境音認識手段108が認識した環境音認識結果を付与して送信する。   The robot state determination unit 104 changes the robot state from the “standby state” to the “user detection state”, and changes the robot state to the “user detection state” via the robot state transmission unit 106. The voice recognition result recognized by the voice recognition unit 107 or the environmental sound recognition result recognized by the environmental sound recognition unit 108 is added and transmitted.

オブジェクト状態決定手段203は、受信した「ユーザー検知状態」のロボット状態に付与された音声認識結果に「歓声」が含まれている場合、表6のIDe021の表示パターンに従い、歓声のレベルが閾値以上であれば、スポットライトオブジェクト201hの色を黄→赤→青→黄の順番で変更して点灯させたり、スポットライトの光を意味する三角形を、スポットライトを中心に振り子状にアニメーションさせる。また、歓声のレベルが閾値未満であれば、スポットライトオブジェクト201hは単色で点灯状態を維持する。   When the received speech recognition result given to the robot state of the “user detection state” includes “cheer”, the object state determination unit 203 follows the display pattern of IDe021 in Table 6 and the cheer level is equal to or greater than the threshold value. If so, the color of the spotlight object 201h is changed in the order of yellow → red → blue → yellow, and a triangle representing the light of the spotlight is animated like a pendulum around the spotlight. If the cheering level is less than the threshold value, the spotlight object 201h is kept lit in a single color.

オブジェクト状態決定手段203は、受信した「ユーザー検知状態」のロボット状態に付与された環境音認識結果に「拍手音」が含まれている場合、表6のIDe030の表示パターンに従い、拍手音のレベルが閾値以上であれば、ミスト発生器オブジェクト201iを「停止状態」から「実行状態」に遷移させ、ミスト効果を意味する白色かつ透明度50%の雲形状を動画コンテンツオブジェクト201gの下部に重畳させて左右移動するアニメーションを表示する。また、拍手音のレベルが閾値未満であれば、ミストオブジェクト201iは停止状態を維持する。   When the received environmental sound recognition result given to the robot state of the “user detection state” includes “applause sound”, the object state determination unit 203 follows the display pattern of IDe030 in Table 6 to determine the level of applause sound. Is greater than or equal to the threshold value, the mist generator object 201i is transitioned from the “stop state” to the “execution state”, and a white cloud shape having a transparency of 50%, which means a mist effect, is superimposed on the lower part of the moving image content object 201g. Display an animation that moves left and right. If the level of the applause sound is less than the threshold value, the mist object 201i maintains the stopped state.

以上のように、ロボットはマイクによる「音声認識手段」あるいは「環境音認識手段」を備えているので、ユーザーの歓声あるいは拍手音を検知することで、映像表示端末で再生する動画コンテンツをユーザーが楽しんでいると判定して、ユーザーの手拍子に同期してロボットが手拍子するとともに、映像表示端末は視覚的に派手な演出に変遷させることで、ユーザーの動画コンテンツへの感情移入を高めることができる。   As described above, since the robot has “voice recognition means” or “environmental sound recognition means” using a microphone, by detecting the cheers or applause sounds of the user, the user can view the video content to be played back on the video display terminal. The robot is clapping in sync with the user's clapping, and the video display terminal can be transformed into a visually flashy presentation to increase the emotional transfer of the user's video content. .

以上、本発明の実施形態の例を第1〜第5の実施形態として、とくに「絵本読み聞かせ」「モーニングコール」「動画コンテンツ再生」のサービスを例示して説明したが、本発明は上記実施形態に限られない。   In the above, examples of the embodiment of the present invention have been described as the first to fifth embodiments, particularly the “picture book reading”, “wake-up call”, and “video content playback” services, but the present invention has been described above. It is not limited to form.

近年、IT技術によって多くの現実の情報サービスがインターネット上に構築されブラウザ上で情報を出力しマウスやキーボードによって情報を入力できるようになったが、人間と対話するような自然なやりとりが損なわれるため、子供や高齢者あるいは情報端末の扱いに不慣れな人にとって情報サービスを享受しにくい。本発明では、「ロボット=俳優」と「映像表示端末=舞台装置」とする組み合わせで、例えば「販売」というカテゴリにおいてロボットの配役を店員と置き換えて、映像表示端末に「薬局」「食料品売場」「衣料品売場」などを切り替えて表示させることで、現実のサービスを寸劇表現することで、ユーザーによりわかりやすく情報を出力し、ユーザーとの自然なやりとりで情報を入力する、情報サービスのシステムを提供することができる。   In recent years, many real-time information services have been built on the Internet by IT technology, and it has become possible to output information on a browser and input information using a mouse or keyboard, but natural interactions that interact with humans are impaired. Therefore, it is difficult for a child, an elderly person, or a person unaccustomed to handling an information terminal to enjoy the information service. In the present invention, a combination of “robot = actor” and “video display terminal = stage apparatus” is used, for example, in the category “sales”, the robot caster is replaced with a store clerk, and the video display terminal has “pharmacy” “food department”. ”“ Clothing department ”, etc. By switching and displaying the actual service, the information service system can output information in a more understandable way by inputting the information through natural interaction with the user. Can be provided.

本発明は、ロボットと映像表示端末の組み合わせにより、現実のサービスを寸劇表現することでユーザーによる機能発見と感情移入を容易にして、ユーザーによりわかりやすく情報を出力し、ユーザーとの自然なやりとりで情報を入力する、情報サービスのシステムとして有用である。   The present invention is a combination of a robot and a video display terminal, which makes it easy for users to discover functions and transfer emotions by expressing skits of actual services, and outputs information in a way that is easier to understand for users. It is useful as an information service system for inputting information.

100 ロボット
100a 胴体部
100b 頭部
100c 腕部
100d 脚部
101 記憶手段
102 出力手段
103 ユーザー検知手段
104 ロボット状態決定手段
105 オブジェクト状態受信手段
106 ロボット状態送信手段
107 音声認識手段
108 環境音認識手段
200 映像表示端末
201 表示手段
201a 図書館オブジェクト
201b 絵本オブジェクト
201c 季節オブジェクト
201d 時計オブジェクト
201e 窓オブジェクト
201f 室内照明オブジェクト
201g 動画コンテンツオブジェクト
201h スポットライトオブジェクト
201i ミスト発生器オブジェクト
202 入力検知手段
203 オブジェクト状態決定手段
204 オブジェクト状態送信手段
205 表示記憶手段
206 ロボット状態受信手段
DESCRIPTION OF SYMBOLS 100 Robot 100a Body part 100b Head part 100c Arm part 100d Leg part 101 Memory | storage means 102 Output means 103 User detection means 104 Robot state determination means 105 Object state reception means 106 Robot state transmission means 107 Voice recognition means 108 Environmental sound recognition means 200 Image | video Display terminal 201 Display means 201a Library object 201b Picture book object 201c Seasonal object 201d Clock object 201e Window object 201f Indoor lighting object 201g Movie content object 201h Spotlight object 201i Mist generator object 202 Input detection means 203 Object state determination means 204 Object state transmission Means 205 Display storage means 206 Robot state Shin means

Claims (16)

「映像表示端末」と「ロボット」からなる「映像表示端末連携型ロボットシステム」であって、前記映像表示端末は、オブジェクトを表示する「表示手段」と前記表示手段に対する操作入力を検知する「入力検知手段」と、前記入力検知手段によって検知した前記オブジェクトへの入力に基づいて変化するオブジェクトの状態を決定し前記表示手段によって表示する「オブジェクト状態決定手段」と、前記オブジェクト状態決定手段の決定結果をロボットに送信する「オブジェクト状態送信手段」を備え、前記ロボットは、発話と身体動作の少なくとも一方が可能な「出力手段」と、ユーザーの挙動を検知する「ユーザー検知手段」と、ユーザー情報を格納する「記憶手段」と、前記映像表示端末から「オブジェクト状態」を受信する「オブジェクト状態受信手段」と、前記記憶手段に格納した過去のユーザー情報と前記ユーザー検知手段が取得した現在のユーザー情報の少なくとも一方に基づいて、オブジェクト状態と紐付けされた複数の行動パターンから一つを決定し出力する「ロボット状態決定手段」と、前記ロボット状態決定手段の決定結果を、映像表示端末に送信する「ロボット状態送信手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 A “video display terminal cooperative robot system” composed of a “video display terminal” and a “robot”, wherein the video display terminal detects “input means” for displaying an object and “input” for detecting an operation input to the display means. "Detection means", "object state determination means" for determining the state of the object that changes based on the input to the object detected by the input detection means, and displaying it by the display means, and the determination result of the object state determination means Is transmitted to the robot, and the robot transmits "output means" capable of at least one of speech and physical movement, "user detection means" for detecting user behavior, and user information. "Storage means" for storing and "Object state" for receiving "Object state" from the video display terminal One of a plurality of action patterns associated with the object state, based on at least one of past user information stored in the storage unit and current user information acquired by the user detection unit. And a “robot state transmission unit” for transmitting a determination result of the robot state determination unit to the video display terminal. 前記映像表示端末は、ロボットの状態と紐付けされた複数の表示パターンを格納する「表示記憶手段」と、前記ロボットから前記「ロボット状態」を受信する「ロボット状態受信手段」と、同時に受信した現在のユーザー情報に基づいて、前記表示記憶手段に格納した複数の表示パターンから一つを決定し前記表示手段によって表示する「オブジェクト状態決定手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 The video display terminal receives simultaneously a “display storage unit” that stores a plurality of display patterns associated with a robot state, and a “robot state reception unit” that receives the “robot state” from the robot. A video display terminal cooperation robot, comprising: an “object state determination unit” that determines one of a plurality of display patterns stored in the display storage unit based on current user information and displays the display pattern by the display unit system. 請求項1の前記映像表示端末は、前記オブジェクト状態決定手段の決定結果に、ロボットに期待する複数の行動パターンを付与して、ロボットに送信する「映像表示端末状態送信手段」を備え、前記ロボットは、前記記憶手段に格納した過去のユーザー情報と前記ユーザー検知手段が取得した現在のユーザー情報の少なくとも一方に基づいて、前記映像表示端末から受信したロボットに期待する複数の行動パターンのうち一つの行動を決定し出力する「ロボット状態決定手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 The video display terminal according to claim 1, further comprising a “video display terminal state transmission unit” that adds a plurality of behavior patterns expected of the robot to the determination result of the object state determination unit and transmits the behavior pattern to the robot. Is based on at least one of past user information stored in the storage means and current user information acquired by the user detection means, and is one of a plurality of behavior patterns expected from the robot received from the video display terminal. An image display terminal cooperation robot system comprising “robot state determination means” for determining and outputting an action. 請求項1の前記ロボットは、オブジェクトの状態に紐付けられた複数の行動パターンを前記記憶手段に格納し、前記記憶手段に格納した過去のユーザー情報と前記ユーザー検知手段が取得した現在のユーザー情報の少なくとも一方に基づいて、前記記憶手段に格納された複数の行動パターンのうち一つの行動を決定し出力する「ロボット状態決定手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 The robot according to claim 1 stores a plurality of behavior patterns linked to an object state in the storage unit, past user information stored in the storage unit, and current user information acquired by the user detection unit. And a robot state determining means for determining and outputting one action among a plurality of action patterns stored in the storage means based on at least one of the above. 前記映像表示端末は、前記オブジェクト状態決定手段の決定結果に、アレンジ手段を付与して、ロボットに送信する「映像表示端末状態送信手段」を備え、前記ロボットは、前記映像表示端末から受信したアレンジ手段に基づいて発話と身体動作の出力の少なくとも一方にアレンジを加える「ロボット状態決定手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 The video display terminal includes an “video display terminal state transmission unit” that adds an arrangement unit to the determination result of the object state determination unit and transmits the result to the robot. The robot receives the arrangement received from the video display terminal. A video display terminal cooperation robot system, comprising: a “robot state determination unit” that arranges at least one of an output of speech and body movement based on the unit. 前記映像表示端末は、前記オブジェクト状態決定手段の決定結果に、優先度属性をもつ行動パターンを付与して、ロボットに送信する「映像表示端末状態送信手段」を備え、前記ロボットは、現在実行中の行動の優先度属性を管理する「行動優先度管理手段」と、前記映像表示端末から受信した優先度属性と、現在実行中の行動の優先属性を比較して、高い優先度属性の行動パターンを決定し出力する「ロボット状態決定手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 The video display terminal includes a “video display terminal state transmission unit” that adds a behavior pattern having a priority attribute to the determination result of the object state determination unit, and transmits the behavior pattern to the robot. The robot is currently being executed. A behavior pattern of a high priority attribute by comparing the priority attribute received from the video display terminal with the priority attribute of the action currently being executed. An image display terminal cooperation robot system comprising “robot state determination means” for determining and outputting the image. 前記ロボットは、ユーザーが発した音声を認識する「音声認識手段」と、前記ロボット状態決定手段の決定結果に前記音声認識手段が認識した音声認識結果を付与して映像表示端末に送信する「ロボット状態送信手段」を備え、前記映像表示端末は、音声認識結果と紐付けされた複数の表示パターンを格納する「表示記憶手段」と、同時に受信した音声認識結果に基づいて、前記表示記憶手段に格納した複数の表示パターンから一つを決定し前記表示手段によって表示する「オブジェクト状態決定手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 The robot includes a “voice recognition unit” for recognizing a voice uttered by a user, and a robot that adds the voice recognition result recognized by the voice recognition unit to the determination result of the robot state determination unit and transmits the result to the video display terminal. The video display terminal includes a “display storage unit” for storing a plurality of display patterns associated with the voice recognition result, and the display storage unit based on the voice recognition result received at the same time. A video display terminal cooperation robot system comprising “object state determination means” for determining one from a plurality of stored display patterns and displaying the display pattern by the display means. 前記ロボットは、ユーザーの周辺環境の音声から発信源を認識する「環境音認識手段」と、前記ロボット状態決定手段の決定結果に前記環境認識手段が認識した環境音認識結果を付与して映像表示端末に送信する「ロボット状態送信手段」を備え、前記映像表示端末は、環境音認識結果と紐付けされた複数の表示パターンを格納する「表示記憶手段」と、同時に受信した環境音認識結果に基づいて、前記表示記憶手段に格納した複数の表示パターンから一つを決定し前記表示手段によって表示する「オブジェクト状態決定手段」を備える、ことを特徴とする映像表示端末連携ロボットシステム。 The robot displays an image by adding an “environmental sound recognition unit” for recognizing a transmission source from the voice of the user's surrounding environment, and an environmental sound recognition result recognized by the environmental recognition unit to the determination result of the robot state determination unit. A "robot state transmission means" for transmitting to the terminal, wherein the video display terminal includes a "display storage means" for storing a plurality of display patterns associated with the environmental sound recognition result, and an environmental sound recognition result received simultaneously. An image display terminal cooperation robot system comprising: an “object state determination unit” that determines one from a plurality of display patterns stored in the display storage unit and displays the display pattern on the display unit. ロボットと通信可能な映像表示端末であって、オブジェクトを表示する「表示手段」と前記表示手段に対する操作入力を検知する「入力検知手段」と、前記入力検知手段によって検知した前記オブジェクトへの入力に基づいて変化するオブジェクトの状態を決定する「オブジェクト状態決定手段」と、前記オブジェクト状態決定手段の決定結果をロボットに送信する「オブジェクト状態送信手段」を備える、ことを特徴とする映像表示端末。 A video display terminal capable of communicating with a robot, wherein a “display unit” for displaying an object, an “input detection unit” for detecting an operation input to the display unit, and an input to the object detected by the input detection unit An image display terminal, comprising: an “object state determining unit” that determines a state of an object that changes based on an object, and an “object state transmitting unit” that transmits a determination result of the object state determining unit to a robot. 請求項Xに記載の映像表示端末と通信可能なロボットであって、発話と身体動作の少なくとも一方が可能な「出力手段」と、ユーザーの挙動を検知する「ユーザー検知手段」と、ユーザー情報を格納する「記憶手段」と、前記映像表示端末から「オブジェクト状態」を受信する「オブジェクト状態受信手段」と、前記記憶手段に格納した過去のユーザー情報と前記ユーザー検知手段が取得した現在のユーザー情報の少なくとも一方に基づいて、オブジェクト状態と紐付けされた複数の行動パターンから一つを決定し出力する「ロボット状態決定手段」と、前記ロボット状態決定手段の決定結果を、映像表示端末に送信する「ロボット状態送信手段」を備える、ことを特徴とするロボット。 A robot capable of communicating with the video display terminal according to claim X, wherein an “output means” capable of at least one of speech and physical movement, a “user detection means” for detecting user behavior, and user information "Storing means" for storing, "Object state receiving means" for receiving "Object state" from the video display terminal, Past user information stored in the storing means, and current user information acquired by the user detecting means Based on at least one of the above, a “robot state determination unit” that determines and outputs one of a plurality of behavior patterns associated with the object state, and transmits the determination result of the robot state determination unit to the video display terminal A robot comprising “robot state transmission means”. ユーザーの挙動を検知する「ユーザー検知手段」を有するロボットと通信可能な映像表示端末であって、オブジェクトを表示する「表示手段」とロボットの状態と紐付けされた複数の表示パターンを格納する「表示記憶手段」と、前記ロボットからロボットの行動結果を含む「ロボット状態」を受信する「ロボット状態受信手段」と、同時に受信した現在のユーザー情報に基づいて、前記表示記憶手段に格納した複数の表示パターンから一つを決定し前記表示手段によって表示する「オブジェクト状態決定手段」を備える、ことを特徴とする映像表示端末。 A video display terminal capable of communicating with a robot having a “user detection means” for detecting a user's behavior, and storing a “display means” for displaying an object and a plurality of display patterns associated with the state of the robot. Display storage means ”,“ robot state reception means ”for receiving“ robot state ”including the robot action result from the robot, and a plurality of the stored in the display storage means based on the current user information received simultaneously. An image display terminal comprising “object state determination means” for determining one from display patterns and displaying the display pattern by the display means. ロボットと通信可能で、オブジェクトを表示する「表示手段」と前記表示手段に対する操作入力を検知する「入力検知手段」を備える映像表示端末に、処理を実行させる映像表示端末動作プログラムであって、前記入力検知手段によって検知した前記オブジェクトへの入力に基づいて変化するオブジェクトの状態を決定し前記表示手段によって表示する「オブジェクト状態決定処理」と、前記オブジェクト状態決定処理の決定結果をロボットに送信する「オブジェクト状態送信処理」を実行する、ことを特徴とする映像表示端末動作プログラム。 A video display terminal operation program capable of executing processing on a video display terminal that is communicable with a robot and includes a “display unit” that displays an object and an “input detection unit” that detects an operation input to the display unit, “Object state determination process” that determines the state of the object that changes based on the input to the object detected by the input detection unit and displays it by the display unit, and transmits the determination result of the object state determination process to the robot “ An image display terminal operation program that executes an “object state transmission process”. 請求項12に記載の映像表示端末と通信可能で、ユーザーの挙動を検知する「ユーザー検知手段」と、ユーザー情報を格納する「記憶手段」を備えるロボットに処理を実行させるロボット動作プログラムであって、前記記憶手段に格納した過去のユーザー情報と前記ユーザー検知手段が取得した現在のユーザー情報の少なくとも一方に基づいて、オブジェクト状態と紐付けされた複数の行動パターンから一つを決定し出力する「ロボット状態決定処理」と、前記ロボット状態決定手段の決定結果を、映像表示端末に送信する「ロボット状態送信処理」を実行する、ことを特徴とするロボット動作プログラム。 13. A robot operation program that allows a robot to execute processing by being able to communicate with the video display terminal according to claim 12 and comprising a “user detection unit” that detects a user's behavior and a “storage unit” that stores user information. Then, based on at least one of past user information stored in the storage means and current user information acquired by the user detection means, one is determined from a plurality of behavior patterns linked to the object state and output. A robot operation program that executes a "robot state determination process" and a "robot state transmission process" for transmitting a determination result of the robot state determination means to a video display terminal. ユーザーの挙動を検知する「ユーザー検知手段」を有するロボットと通信可能で、オブジェクトを表示する「表示手段」とロボットの状態と紐付けされた複数の表示パターンを格納する「表示記憶手段」を備える映像表示端末に処理を実行させるロボット動作プログラムであって、前記ロボットからロボットの行動結果を含む「ロボット状態」を受信する「ロボット状態受信処理」と、同時に受信した現在のユーザー情報に基づいて、前記ロボットの状態と紐付けされた複数の表示パターンから一つを決定し前記表示手段によって表示する「オブジェクト状態決定処理」を実行する、ことを特徴とする映像表示端末動作プログラム。 It is possible to communicate with a robot having “user detection means” for detecting user behavior, and includes “display means” for displaying an object and “display storage means” for storing a plurality of display patterns linked to the state of the robot. A robot operation program for causing the video display terminal to execute processing, based on “robot state reception processing” for receiving “robot state” including the robot action result from the robot, and the current user information received at the same time, An image display terminal operation program for executing an “object state determination process” for determining one of a plurality of display patterns associated with the state of the robot and displaying it by the display means. 映像表示端末とロボットからなる映像表示端末連携型ロボットシステムであって、
前記映像表示端末は、
オブジェクトを表示する表示手段と、
前記表示手段に対する入力を検知する入力検知手段と、
前記入力検知手段によって検知した前記オブジェクトに対する入力に基づいて、複数の行動情報を前記ロボットに送信する送信手段と、
を備え、
前記ロボットは、
ユーザーに関する情報を記憶する記憶手段と、
複数の行動が可能な可動部と、
前記送信手段から前記複数の行動情報を受信する受信手段と、
前記記憶手段に記憶された前記ユーザーに関する情報に基づいて、前記受信手段が受信した前記複数の行動情報のうち一の行動をするように前記可動部を制御する制御手段と、
を備える、
ことを特徴とする映像表示端末連携型ロボットシステム。
A video display terminal cooperation type robot system including a video display terminal and a robot,
The video display terminal is
Display means for displaying the object;
Input detection means for detecting an input to the display means;
Based on an input to the object detected by the input detection means, a transmission means for transmitting a plurality of behavior information to the robot;
With
The robot is
Storage means for storing information about the user;
Movable parts capable of multiple actions;
Receiving means for receiving the plurality of behavior information from the transmitting means;
Control means for controlling the movable part to perform one action among the plurality of action information received by the receiving means based on information on the user stored in the storage means;
Comprising
The video display terminal cooperation type robot system.
前記ロボットは、
センシング手段と、
前記受信手段が受信した前記複数の行動情報のうち一の行動をするように前記可動部を制御した後に前記センシング手段が得たセンシング情報を前記映像表示端末に送信する送信手段と、
をさらに備える、
ことを特徴とする請求項15に記載の映像表示端末連携型ロボットシステム。
The robot is
Sensing means;
Transmitting means for transmitting the sensing information obtained by the sensing means to the video display terminal after controlling the movable part to perform one of the plurality of behavior information received by the receiving means;
Further comprising
The video display terminal cooperation type robot system according to claim 15.
JP2011245141A 2011-11-09 2011-11-09 Robot device, robot control method, robot control program and robot system Pending JP2013099823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011245141A JP2013099823A (en) 2011-11-09 2011-11-09 Robot device, robot control method, robot control program and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011245141A JP2013099823A (en) 2011-11-09 2011-11-09 Robot device, robot control method, robot control program and robot system

Publications (1)

Publication Number Publication Date
JP2013099823A true JP2013099823A (en) 2013-05-23

Family

ID=48620992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011245141A Pending JP2013099823A (en) 2011-11-09 2011-11-09 Robot device, robot control method, robot control program and robot system

Country Status (1)

Country Link
JP (1) JP2013099823A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148701A (en) * 2014-02-06 2015-08-20 日本電信電話株式会社 Robot control device, robot control method and robot control program
JP2015163415A (en) * 2014-02-28 2015-09-10 三井不動産株式会社 robot control system, robot control server and robot control program
JP2015173857A (en) * 2014-03-17 2015-10-05 株式会社東芝 Electronic apparatus and information processing method
JP2016036883A (en) * 2014-08-08 2016-03-22 日本電信電話株式会社 Robot control device, robot control method and robot control program
JPWO2016068262A1 (en) * 2014-10-29 2017-08-10 京セラ株式会社 Communication robot
CN107122040A (en) * 2017-03-16 2017-09-01 杭州德宝威智能科技有限公司 A kind of interactive system between artificial intelligence robot and intelligent display terminal
JP2017177228A (en) * 2016-03-28 2017-10-05 株式会社国際電気通信基礎技術研究所 Service provision robot system
CN107942738A (en) * 2017-10-13 2018-04-20 中国科学院深圳先进技术研究院 A kind of intelligence awakening method and system
JP2019005846A (en) * 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, control method and program of the robot
WO2019132092A1 (en) * 2017-12-29 2019-07-04 수상에스티주식회사 Plush doll robot with voice recognition function
CN111443801A (en) * 2020-03-25 2020-07-24 北京百度网讯科技有限公司 Man-machine interaction method, device, equipment and storage medium
WO2023017732A1 (en) * 2021-08-10 2023-02-16 本田技研工業株式会社 Storytelling information creation device, storytelling robot, storytelling information creation method, and program
WO2023084945A1 (en) * 2021-11-10 2023-05-19 株式会社Nttドコモ Output control device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148701A (en) * 2014-02-06 2015-08-20 日本電信電話株式会社 Robot control device, robot control method and robot control program
JP2015163415A (en) * 2014-02-28 2015-09-10 三井不動産株式会社 robot control system, robot control server and robot control program
JP2015173857A (en) * 2014-03-17 2015-10-05 株式会社東芝 Electronic apparatus and information processing method
JP2016036883A (en) * 2014-08-08 2016-03-22 日本電信電話株式会社 Robot control device, robot control method and robot control program
JPWO2016068262A1 (en) * 2014-10-29 2017-08-10 京セラ株式会社 Communication robot
US10366689B2 (en) 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
JP2017177228A (en) * 2016-03-28 2017-10-05 株式会社国際電気通信基礎技術研究所 Service provision robot system
CN107122040A (en) * 2017-03-16 2017-09-01 杭州德宝威智能科技有限公司 A kind of interactive system between artificial intelligence robot and intelligent display terminal
JP2019005846A (en) * 2017-06-23 2019-01-17 カシオ計算機株式会社 Robot, control method and program of the robot
CN107942738A (en) * 2017-10-13 2018-04-20 中国科学院深圳先进技术研究院 A kind of intelligence awakening method and system
CN107942738B (en) * 2017-10-13 2023-09-22 中国科学院深圳先进技术研究院 Intelligent wake-up method and system
WO2019132092A1 (en) * 2017-12-29 2019-07-04 수상에스티주식회사 Plush doll robot with voice recognition function
CN111443801A (en) * 2020-03-25 2020-07-24 北京百度网讯科技有限公司 Man-machine interaction method, device, equipment and storage medium
CN111443801B (en) * 2020-03-25 2023-10-13 北京百度网讯科技有限公司 Man-machine interaction method, device, equipment and storage medium
WO2023017732A1 (en) * 2021-08-10 2023-02-16 本田技研工業株式会社 Storytelling information creation device, storytelling robot, storytelling information creation method, and program
WO2023084945A1 (en) * 2021-11-10 2023-05-19 株式会社Nttドコモ Output control device

Similar Documents

Publication Publication Date Title
JP2013099823A (en) Robot device, robot control method, robot control program and robot system
US20180133900A1 (en) Embodied dialog and embodied speech authoring tools for use with an expressive social robot
CA2912243C (en) Immersive story creation
KR102306624B1 (en) Persistent companion device configuration and deployment platform
US8121653B2 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
US8135128B2 (en) Animatronic creatures that act as intermediaries between human users and a telephone system
TW475906B (en) Embodied voice responsive toy
JP4395687B2 (en) Information processing device
US20170206064A1 (en) Persistent companion device configuration and deployment platform
WO2016068262A1 (en) Communication robot
US11548147B2 (en) Method and device for robot interactions
CN108363492A (en) A kind of man-machine interaction method and interactive robot
WO2022079933A1 (en) Communication supporting program, communication supporting method, communication supporting system, terminal device, and nonverbal expression program
CN109262606B (en) Apparatus, method, recording medium, and robot
JP2022169645A (en) Device and program, or the like
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
JP2005313308A (en) Robot, robot control method, robot control program, and thinking device
JP7431903B2 (en) Photography system, photography method, photography program, and stuffed animal
JP2003305677A (en) Robot device, robot control method, recording medium and program
Platz Design Beyond Devices: Creating Multimodal, Cross-device Experiences
Fleeger When robots speak on screen
WO2023037608A1 (en) Autonomous mobile body, information processing method, and program
Sebastian et al. Development of caricature robots for interaction with older adults
JP2019018336A (en) Device, method, program, and robot
KR102661381B1 (en) Apparatus and method for controlling operation of robot capable of mounting accessory