JP6944817B2 - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP6944817B2
JP6944817B2 JP2017113500A JP2017113500A JP6944817B2 JP 6944817 B2 JP6944817 B2 JP 6944817B2 JP 2017113500 A JP2017113500 A JP 2017113500A JP 2017113500 A JP2017113500 A JP 2017113500A JP 6944817 B2 JP6944817 B2 JP 6944817B2
Authority
JP
Japan
Prior art keywords
robot
information
event
content
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017113500A
Other languages
Japanese (ja)
Other versions
JP2018207400A (en
Inventor
和輝 佐藤
和輝 佐藤
隈田 章寛
章寛 隈田
戸丸 知信
知信 戸丸
慶子 蛭川
慶子 蛭川
山下 大輔
大輔 山下
一雄 巻島
一雄 巻島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017113500A priority Critical patent/JP6944817B2/en
Publication of JP2018207400A publication Critical patent/JP2018207400A/en
Application granted granted Critical
Publication of JP6944817B2 publication Critical patent/JP6944817B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、ロボット制御システムに関し、特に、予め作成された書面や画像データなどからなるコンテンツを再生させてプレゼンテーション等を行う場合に、再生させるコンテンツ内容に同期させて、ロボットに、コンテンツ内容に対応した発話などの動作を実行させることのできるロボット制御システムに関する。 The present invention relates to a robot control system, and in particular, when a content consisting of a document or image data created in advance is reproduced to give a presentation or the like, the robot can deal with the content content by synchronizing with the content content to be reproduced. It relates to a robot control system capable of executing actions such as speech.

従来から、担当者が、パソコン等の情報処理装置で、文書、図面、画像などを含むコンテンツを作成し、設定された順序どおりに、そのコンテンツを表示再生させるプレゼンテーションシステムが利用されている。また、ユーザの携帯端末で作成されたコンテンツを、ネットワークを介して、サイネージ装置に配信し、そのコンテンツを表示再生させるデジタルサイネージシステムも利用されている。 Conventionally, a presentation system has been used in which a person in charge creates contents including documents, drawings, images, etc. with an information processing device such as a personal computer, and displays and reproduces the contents in a set order. In addition, a digital signage system is also used in which content created on a user's mobile terminal is distributed to a signage device via a network, and the content is displayed and reproduced.

また、ユーザの携帯端末からの操作で、サイネージ装置に表示されている所望のコンテンツを選択することによって、選択されたコンテンツの詳細データを、ユーザの携帯端末に表示させる情報提供装置も提案されている、
さらに、人間に似せた身体を持つロボットと連携し、再生させるコンテンツの順序に対応させて、ロボットに所定の発話や動作をさせるようにしたプレゼンテーションシステムも利用されている。
In addition, an information providing device has been proposed in which detailed data of the selected content is displayed on the user's mobile terminal by selecting the desired content displayed on the signage device by operating from the user's mobile terminal. Yes,
Furthermore, a presentation system is also used in which the robot is made to make a predetermined utterance or action in cooperation with a robot having a body similar to a human being and corresponding to the order of the contents to be played.

特開2015−90600号公報Japanese Unexamined Patent Publication No. 2015-90600 特開2015−162149号公報Japanese Unexamined Patent Publication No. 2015-162149

「ロボピッチ取扱い説明書」、[online]、[平成29年4月3日検索]、インターネット[URL:http://www.robo-pitch.com/download/manual.pdf]"Robo Pitch Instruction Manual", [online], [Searched April 3, 2017], Internet [URL: http://www.robo-pitch.com/download/manual.pdf]

しかし、設定された順序どおりに、コンテンツを表示再生させるためには、担当者がコンテンツ内容とともに、コンテンツに含まれる情報を再生させる順序や再生間隔時間なども詳細に予め決めてコンテンツを作成する必要があった。
また、ユーザの携帯端末からの操作で、サイネージ装置に表示させるコンテンツを作成したり、サイネージ装置に表示されるコンテンツの詳細データを携帯端末に表示させたりする場合には、ユーザは、その都度、所定の面倒な操作をする必要があった。
However, in order to display and play the content in the set order, the person in charge needs to create the content by deciding in detail the order in which the information contained in the content is played and the playback interval time as well as the content. was there.
In addition, when creating content to be displayed on the signage device or displaying detailed data of the content displayed on the signage device on the mobile terminal by operation from the user's mobile terminal, the user each time It was necessary to perform a predetermined troublesome operation.

また、担当者が、予め作成された文書などを含むコンテンツを、設定された順序どおりに、表示再生させながらプレゼンテーションを行い、担当者が自ら入力操作をして、ロボットに、そのコンテンツの順序に同期した所定の発話や動作をさせることは、熟練を要し、円滑な進行ができない場合があった。
たとえば、コンテンツの表示再生処理と、ロボットの制御処理とが連携していない場合は、プレゼンテーションをしている担当者(以下、操作担当者とも呼ぶ)が、所定のコンテンツを表示している状態で、ロボットに所定の発話等を行わせるためには、その都度、ロボットに対して、発話をさせる文字列などの指示内容を入力する必要があり、操作担当者の手間と操作負担が大きく、円滑なプレゼンテーションが難しい。
In addition, the person in charge gives a presentation while displaying and playing back the contents including the documents created in advance in the set order, and the person in charge performs the input operation by himself / herself to the robot in the order of the contents. It took skill to make a predetermined utterance and movement synchronized, and there were cases where smooth progress could not be achieved.
For example, when the display / playback process of the content and the control process of the robot are not linked, the person in charge of the presentation (hereinafter, also referred to as the operation person) is displaying the predetermined content. , In order for the robot to make a predetermined utterance, etc., it is necessary to input the instruction content such as a character string for uttering to the robot each time. Presentation is difficult.

あるいは、操作担当者が、プレゼンテーションで利用するコンテンツの順序と、表示された各コンテンツを説明するのにかかる予想時間等を予め設定し、その設定内容に対応するように、ロボットが実行する発話や動作の内容と順序とその実行のタイミングとを、ロボットに予め設定しておけば、コンテンツの表示とロボットの動作とを同期させることが可能になる。しかし、実際にプレゼンテーションを実行する場合には、プレゼンテーションの開始と同時に、ロボットも起動させ、操作担当者は、設定された時間どおりに、プレゼンテーションでの説明を進行させる必要があり、進行時間がずれた場合には、コンテンツの表示とロボットの動作とが、同期しなくなることがあり、また、同期がずれないようにするためには、操作担当者がロボットの動作を一時停止させる必要があった。 Alternatively, the person in charge of operation sets in advance the order of the contents used in the presentation, the estimated time required to explain each displayed content, etc., and the utterance executed by the robot so as to correspond to the set contents. If the content and order of the actions and the timing of the execution are set in advance in the robot, it is possible to synchronize the display of the contents with the actions of the robot. However, when actually executing the presentation, the robot must be started at the same time as the presentation starts, and the operator must proceed with the explanation in the presentation according to the set time, and the progress time shifts. In that case, the display of the content and the operation of the robot may not be synchronized, and in order to prevent the synchronization from being out of sync, the operator had to suspend the operation of the robot. ..

すなわち、人間が行うプレゼンテーションで想定されるコンテンツの再生時間間隔に会わせて、ロボットが実行する一連の動作の実行タイミングを予め設定しておく必要があるが、実際のプレゼンテーションでは、操作担当者が、予め想定された時間間隔でコンテンツの説明ができない場合があるので、コンテンツの再生および説明と、ロボットの動作とを同期させるのは難しい。 That is, it is necessary to set the execution timing of a series of operations executed by the robot in advance according to the playback time interval of the content expected in the presentation performed by humans, but in the actual presentation, the person in charge of operation Since it may not be possible to explain the content at a predetermined time interval, it is difficult to synchronize the reproduction and explanation of the content with the operation of the robot.

逆に、プレゼンテーションをする操作担当者が、ロボットに設定した実行タイミングに、コンテンツの再生や説明を合わせる必要があり、プレゼンテーションをする前に、何度も、プレゼンテーションの練習を行ったり、説明内容の見直しや、ロボットの動作の実行タイミングの時間調整を行ったりすることが必要であり、プレゼンテーションの事前準備段階における操作担当者の負担が大きい。 On the contrary, it is necessary for the operator who gives the presentation to match the playback and explanation of the content with the execution timing set for the robot, and before giving the presentation, practice the presentation many times and explain the content of the explanation. It is necessary to review and adjust the time of the execution timing of the robot movement, which imposes a heavy burden on the operator in the preparatory stage of the presentation.

また、プレゼンテーションで利用するコンテンツの再生および説明とロボットの動作を同期させるためには、操作担当者の説明内容や再生コンテンツの内容から、プレゼンテーションの進行状況を監視し、さらに、その進行状況に対応させてロボットの動作を制御するような特別な専用アプリケーションプログラムを開発する必要があり、その開発に多くの時間とコストがかかる。 In addition, in order to synchronize the playback and explanation of the content used in the presentation with the operation of the robot, the progress of the presentation is monitored from the explanation content of the operator and the content of the playback content, and the progress is supported. It is necessary to develop a special dedicated application program that controls the operation of the robot, and it takes a lot of time and cost to develop it.

そこで、この発明は、以上のような事情を考慮してなされたものであり、ロボットに与える指示内容を、コンテンツの作成者が予めコンテンツに記述し、ユーザによる特定のイベント発生時に、所定の指示内容をロボットに与えることにより、プレゼンテーション等で利用するコンテンツの再生と、ロボットの動作の実行タイミングとを容易に合わせることを可能としたロボット制御システムを提供することを課題とする。 Therefore, the present invention has been made in consideration of the above circumstances, and the content creator describes in advance the content of the instruction given to the robot in the content, and when a specific event occurs by the user, a predetermined instruction is given. An object of the present invention is to provide a robot control system capable of easily matching the reproduction of contents used in presentations and the execution timing of robot movements by giving the contents to the robot.

この発明は、ロボットと、ロボットの動作を制御する情報処理装置とからなるロボット制御システムであって、前記情報処理装置が、コンテンツを再生するコンテンツ再生部と、前記コンテンツと、前記コンテンツを再生する時に発生するイベントと前記ロボットの動作を制御するための制御コマンドを対応付けたイベント情報を記憶した記憶部と、イベントが発生した場合に、そのイベントに対応付けられている制御コマンドを含むイベント情報を生成するイベント実行部と、前記生成されたイベント情報を取得し、前記イベント情報に含まれる制御コマンドから、前記ロボットが理解可能な制御内容を有する送信情報を生成するロボット制御処理部と、前記送信情報を前記ロボットに送信する第1通信部とを備え、前記ロボットが、前記送信情報を受信する第2通信部と、受信した前記送信情報に含まれる制御内容に基づいて、所定の動作を実行する動作実行部とを備えたことを特徴とするロボット制御システムを提供するものである。 The present invention is a robot control system including a robot and an information processing device that controls the operation of the robot, wherein the information processing device reproduces a content reproduction unit for reproducing the content, the content, and the content. Event information including a storage unit that stores event information in which an event that occurs at that time and a control command for controlling the operation of the robot are associated with each other, and a control command associated with the event when the event occurs. An event execution unit that generates the above, a robot control processing unit that acquires the generated event information and generates transmission information having control contents that the robot can understand from the control commands included in the event information, A first communication unit that transmits transmission information to the robot is provided, and the robot performs a predetermined operation based on the second communication unit that receives the transmission information and the control content included in the received transmission information. It provides a robot control system characterized by having an operation execution unit for executing.

また、前記情報処理装置から前記ロボットに送信される前記送信情報に、ロボットに発話させる発話文字列と、ロボットに動作させる身体動作を設定した動作情報が含まれ、前記ロボットの動作実行部が、受信した前記送信情報に含まれる発話文字列を、合成音声によって出力する音声出力部と、前記送信情報に含まれる動作情報に対応した身振り動作をさせる身体駆動部とを備えたことを特徴とする。 Further, the transmission information transmitted from the information processing device to the robot includes an utterance character string to be spoken by the robot and motion information in which a body motion to be operated by the robot is set. It is characterized by including an audio output unit that outputs an utterance character string included in the received transmission information by synthetic voice, and a body driving unit that makes a gesture motion corresponding to the operation information included in the transmission information. ..

また、前記情報処理装置が、前記記憶部に、所定の情報を前記ロボットが理解可能な情報に変換する規則であるプロトコル情報を予め記憶し、前記取得したイベント情報に含まれる制御コマンドが前記ロボットが理解できない情報の場合、前記制御コマンドを、前記プロトコル情報を利用して、前記ロボットが理解可能な制御内容に変換する情報変換部をさらに備え、前記第1通信部が、前記変換された制御内容を有する送信情報を前記ロボットに送信することを特徴とする。 Further, the information processing apparatus stores in advance protocol information, which is a rule for converting predetermined information into information that can be understood by the robot, in the storage unit, and a control command included in the acquired event information is the robot. If the information is incomprehensible, the control command is further provided with an information conversion unit that converts the control command into control contents that can be understood by the robot by using the protocol information, and the first communication unit is the converted control. It is characterized in that transmission information having contents is transmitted to the robot.

また、前記制御コマンドには、制御するロボットを特定する制御対象と、ロボットに与える指示を示した制御内容とが含まれることを特徴とする。
また、前記制御コマンドに含まれるロボットに与える指示を示した制御内容には、ロボットに発話させる発話文字列を示した発話情報と、ロボットの身体を動作させるための動作情報とが含まれることを特徴とする。
また、前記制御内容に含まれる発話情報に、所定の記号または文字によって発話内容を表現した指定変数を利用することを特徴とする。
Further, the control command is characterized in that it includes a control target for specifying a robot to be controlled and a control content indicating an instruction given to the robot.
Further, the control content indicating the instruction given to the robot included in the control command includes utterance information indicating an utterance character string to be uttered by the robot and operation information for operating the body of the robot. It is a feature.
Further, it is characterized in that a designated variable expressing the utterance content by a predetermined symbol or character is used for the utterance information included in the control content.

また、前記制御コマンドには、ロボットに接続された外部制御機器を特定する制御対象と、その外部制御機器に対する制御内容とが含まれることを特徴とする。
また、前記イベントには、操作担当者によって所定の選択入力がされる入力操作イベントと、所定の文字列が表示される表示イベントと、所定のタイマー設定時間が経過したことによるタイマーイベントが含まれることを特徴とする。
Further, the control command is characterized in that it includes a control target that identifies an external control device connected to the robot and a control content for the external control device.
In addition, the event includes an input operation event in which a predetermined selection input is made by the person in charge of operation, a display event in which a predetermined character string is displayed, and a timer event due to the elapse of a predetermined timer setting time. It is characterized by that.

また、この発明は、ロボットの動作を制御するロボット制御システムの情報処理装置であって、コンテンツを再生するコンテンツ再生部と、前記コンテンツと、前記コンテンツを再生する時に発生するイベントと前記ロボットの動作を制御するための制御コマンドを対応付けたイベント情報を記憶した記憶部と、イベントが発生した場合に、そのイベントに対応付けられている制御コマンドを含むイベント情報を生成するイベント実行部と、前記生成されたイベント情報を取得し、前記イベント情報に含まれる制御コマンドから、前記ロボットが理解可能な制御内容を有する送信情報を生成するロボット制御処理部と、前記送信情報を前記ロボットに送信する通信部とを備えたことを特徴とする情報処理装置を提供するものである。 Further, the present invention is an information processing device of a robot control system that controls the operation of a robot, the content reproduction unit for reproducing the content, the content, an event generated when the content is reproduced, and the operation of the robot. A storage unit that stores event information associated with a control command for controlling the above, an event execution unit that generates event information including a control command associated with the event when an event occurs, and the above-mentioned Communication with a robot control processing unit that acquires generated event information and generates transmission information having control contents that the robot can understand from control commands included in the event information, and transmits the transmission information to the robot. It provides an information processing apparatus characterized by having a unit.

また、この発明は、ロボットと、ロボットの動作を制御する情報処理装置とからなるロボット制御システムの制御方法であって、前記情報処理装置が、コンテンツを再生するコンテンツ再生ステップと、前記コンテンツを再生中において、イベントが発生した場合に、そのイベントに対応付けられている制御コマンドを含むイベント情報を生成するイベント実行ステップと、前記生成されたイベント情報を取得し、前記イベント情報に含まれる制御コマンドから、前記ロボットが理解可能な制御内容を有する送信情報を生成するロボット制御処理ステップと、前記送信情報を前記ロボットに送信する送信ステップとを備え、前記ロボットが、前記送信情報を受信する受信ステップと、受信した前記送信情報に含まれる制御内容に基づいて、所定の動作を実行する動作実行ステップとを備えたことを特徴とするロボット制御システムの制御方法を提供するものである。 Further, the present invention is a control method of a robot control system including a robot and an information processing device for controlling the operation of the robot, wherein the information processing device reproduces a content reproduction step and the content. Among them, when an event occurs, an event execution step that generates event information including a control command associated with the event, and a control command that acquires the generated event information and includes the control command included in the event information. A robot control processing step for generating transmission information having control contents that the robot can understand, and a transmission step for transmitting the transmission information to the robot, and the reception step for the robot to receive the transmission information. Further, the present invention provides a control method for a robot control system, which includes an operation execution step for executing a predetermined operation based on a control content included in the received transmission information.

この発明によれば、情報処理装置において、コンテンツと、コンテンツを再生する時に発生するイベントとロボットの動作を制御するための制御コマンドを対応付けたイベント情報を記憶しておき、たとえば、コンテンツの再生中において、イベントが発生した場合に、そのイベントに対応付けて設定情報に記憶されている制御コマンドを含むイベント情報を取得し、イベント情報に含まれる制御コマンドから、ロボットが理解可能な制御内容を有する送信情報を生成し、その送信情報をロボットに送信するので、コンテンツの再生と、ロボットに動作をさせるタイミングとを、操作担当者の意図したタイミングで、容易に同期させることができ、ロボットに実行させる動作の順序やタイミングを予め設定する必要がないので、再生コンテンツ情報を作成する操作担当者の負担を軽減することができる。 According to the present invention, in the information processing apparatus, event information in which the content is associated with the event generated when the content is reproduced and the control command for controlling the operation of the robot is stored, for example, the reproduction of the content. When an event occurs, the event information including the control command stored in the setting information is acquired in association with the event, and the control content that the robot can understand is obtained from the control command included in the event information. Since the transmission information to be possessed is generated and the transmission information is transmitted to the robot, it is possible to easily synchronize the reproduction of the content and the timing of causing the robot to operate at the timing intended by the person in charge of operation, and to the robot. Since it is not necessary to set the order and timing of the operations to be executed in advance, it is possible to reduce the burden on the operation person who creates the playback content information.

この発明のロボット制御システムの一実施例の構成ブロック図である。It is a block diagram of one Example of the robot control system of this invention. この発明の情報処理装置の記憶部に記憶される情報の一実施例の説明図である。It is explanatory drawing of one Example of the information stored in the storage part of the information processing apparatus of this invention. この発明の情報処理装置の記憶部に記憶される制御コマンドの一実施例の説明図である。It is explanatory drawing of one Example of the control command stored in the storage part of the information processing apparatus of this invention. この発明の情報処理装置の記憶部に記憶される制御コマンドの一実施例の説明図である。It is explanatory drawing of one Example of the control command stored in the storage part of the information processing apparatus of this invention. この発明のロボットを制御する送信情報の送信処理などの一実施例の概略シーケンス図である。It is a schematic sequence diagram of one Example such as transmission processing of transmission information which controls a robot of this invention. この発明のロボットを制御する送信情報の送信処理などの一実施例の概略シーケンス図である。It is a schematic sequence diagram of one Example such as transmission processing of transmission information which controls a robot of this invention. この発明のロボットを制御する送信情報の送信処理などの一実施例の概略シーケンス図である。It is a schematic sequence diagram of one Example such as transmission processing of transmission information which controls a robot of this invention. この発明のロボットに接続された外部制御機器を制御する送信情報の送信処理などの一実施例の概略シーケンス図である。FIG. 5 is a schematic sequence diagram of an embodiment such as transmission processing of transmission information for controlling an external control device connected to the robot of the present invention. この発明の情報処理装置における送信情報の送信処理などの一実施例のフローチャートである。It is a flowchart of one Example such as transmission processing of transmission information in the information processing apparatus of this invention. この発明のロボットにおける送信情報を受信した後の動作の一実施例のフローチャートである。It is a flowchart of one Example of the operation after receiving the transmission information in the robot of this invention.

以下、図面を使用して本発明の実施の形態を説明する。なお、以下の実施例の記載によって、この発明が限定されるものではない。
<ロボット制御システムの構成>
図1に、この発明のロボット制御システムの一実施例の構成ブロック図を示す。
図1において、この発明のロボット制御システムは、主として、ネットワーク3に接続された情報処理装置1と、ロボット2とから構成される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the description of the following examples does not limit the present invention.
<Structure of robot control system>
FIG. 1 shows a block diagram of an embodiment of the robot control system of the present invention.
In FIG. 1, the robot control system of the present invention is mainly composed of an information processing device 1 connected to a network 3 and a robot 2.

ここで、情報処理装置1(以下、PCとも呼ぶ)は、予め生成したコンテンツを再生し、ロボット2の動作を制御する装置であり、特に、プレゼンテーション等で、所定のコンテンツを表示しているときに、ユーザの入力操作等によって、ロボット2に所定の指示内容を与えるためのイベントを発生させる装置である。
ロボット2に与える指示内容には、たとえば、ロボット2に発話させる内容を示す文字列(発話情報)や、ロボットの口、目、手足などの身体的部位を動かすための動作情報などが含まれる。
ロボット2(以下、RBとも呼ぶ)は、情報処理装置1から与えられた発話情報や動作情報などからなる指示内容に基づいて、その指示内容に対応した発話と身体動作を行う自律装置である。
Here, the information processing device 1 (hereinafter, also referred to as a PC) is a device that reproduces content generated in advance and controls the operation of the robot 2, and is particularly when displaying predetermined content in a presentation or the like. In addition, it is a device that generates an event for giving a predetermined instruction content to the robot 2 by a user input operation or the like.
The instruction content given to the robot 2 includes, for example, a character string (utterance information) indicating the content to be spoken by the robot 2, and motion information for moving a physical part such as the robot's mouth, eyes, and limbs.
The robot 2 (hereinafter, also referred to as RB) is an autonomous device that performs utterances and body movements corresponding to the instruction contents based on the instruction contents including the utterance information and the operation information given from the information processing device 1.

ネットワーク3としては、既存のいずれかのネットワークを用いればよく、たとえば、インターネットのような広域ネットワークや、所定の構内だけで用いられるLANを用いてもよい。通信方式は、有線通信と無線通信のいずれを用いてもよいが、ロボット2は自律的に動作する装置なので、無線通信でネットワークに接続されることが好ましい。 As the network 3, any existing network may be used, and for example, a wide area network such as the Internet or a LAN used only in a predetermined premises may be used. As the communication method, either wired communication or wireless communication may be used, but since the robot 2 is a device that operates autonomously, it is preferable to be connected to the network by wireless communication.

ただし、情報処理装置1とロボット2との接続形態は、図1のように、ネットワーク3を介したものに限るものではない。
たとえば、情報処理装置1とロボット2とは、ネットワーク3を介さずに、直接、通信ケーブルを接続して有線通信により、相互にデータ通信を行ってもよい。または、所定の無線信号を用いた無線通信により、相互にデータ通信を行ってもよい。
However, the connection form between the information processing device 1 and the robot 2 is not limited to that via the network 3 as shown in FIG.
For example, the information processing device 1 and the robot 2 may directly connect a communication cable and perform data communication with each other by wired communication without going through the network 3. Alternatively, data communication may be performed with each other by wireless communication using a predetermined wireless signal.

また、ネットワーク3に接続されたサーバを利用し、サーバを介して、情報処理装置1とロボット2とが、データ通信を行うような接続形態でもよい。
この場合には、情報処理装置1で入力された指示内容には、制御するロボット2を特定する情報が含まれ、指示内容が情報処理装置1からサーバに送信された後、サーバから、制御するロボット2に対して、指示内容が送信される。サーバを介して指示内容を送信する場合は、サーバから、複数のロボット2に対して、異なる指示内容をそれぞれ配信するか、あるいは、同じ指示内容を、同時に配信することも可能である。
Further, the connection form may be such that the information processing device 1 and the robot 2 perform data communication via the server using the server connected to the network 3.
In this case, the instruction content input by the information processing device 1 includes information for identifying the robot 2 to be controlled, and after the instruction content is transmitted from the information processing device 1 to the server, the server controls the instruction content. The instruction content is transmitted to the robot 2. When the instruction content is transmitted via the server, the server can distribute different instruction content to the plurality of robots 2, or can distribute the same instruction content at the same time.

<情報処理装置の構成>
情報処理装置1は、情報の入力機能と通信機能を有する装置であり、たとえば、既存のパソコンや、携帯電話などの携帯端末を用いればよい。
図1に示すように、情報処理装置1は、主として、制御部11、通信部12、情報入力部13、表示部14、コンテンツ再生部15、イベント実行部16、ロボット制御処理部17、イベント監視部18、制御コマンド取得部19、送信情報生成部20、情報変換部21、記憶部30を備える。
<Configuration of information processing device>
The information processing device 1 is a device having an information input function and a communication function, and for example, an existing personal computer or a mobile terminal such as a mobile phone may be used.
As shown in FIG. 1, the information processing device 1 mainly includes a control unit 11, a communication unit 12, an information input unit 13, a display unit 14, a content reproduction unit 15, an event execution unit 16, a robot control processing unit 17, and an event monitoring. A unit 18, a control command acquisition unit 19, a transmission information generation unit 20, an information conversion unit 21, and a storage unit 30 are provided.

制御部11は、通信部などの各構成要素の動作を制御する部分であり、主として、CPU、ROM、RAM、I/Oコントローラ、タイマー等からなるマイクロコンピュータによって実現される。
CPUは、ROM等に予め格納された制御プログラムに基づいて、各種ハードウェアを有機的に動作させて、この発明のロボット制御機能、通信機能などを実行する。
特に、この発明では、制御部11は、コンテンツを再生するためのプログラム(プレゼンテーション用プログラムとも呼ぶ)や、ユーザの指示入力や所定のタイミングで発生するイベントを監視して、そのイベントに対応させてロボットを制御するためのロボット利用プログラム(以下、ロボットドライバとも呼ぶ)を動作させて、ロボット制御機能等を実行する。
The control unit 11 is a part that controls the operation of each component such as a communication unit, and is mainly realized by a microcomputer including a CPU, a ROM, a RAM, an I / O controller, a timer, and the like.
The CPU organically operates various hardware based on a control program stored in advance in a ROM or the like to execute the robot control function, the communication function, and the like of the present invention.
In particular, in the present invention, the control unit 11 monitors a program for playing back the content (also referred to as a presentation program), a user's instruction input, or an event that occurs at a predetermined timing, and responds to the event. A robot utilization program for controlling a robot (hereinafter, also referred to as a robot driver) is operated to execute a robot control function or the like.

通信部12は、ネットワーク3に接続し、ロボット2とデータ通信をする部分であり、上記した第1通信部に相当する。
たとえば、ロボット制御処理部17によって生成された送信情報を、ロボット2に送信する。送信情報は、後述するように、取得された制御コマンドに相当する情報、あるいは、制御コマンドをロボットが理解できる情報に変換した後の情報である。
ネットワーク3への接続形態は、有線でも無線でもよく、既存のいずれかの通信手順を利用すればよい。
The communication unit 12 is a part that connects to the network 3 and performs data communication with the robot 2, and corresponds to the first communication unit described above.
For example, the transmission information generated by the robot control processing unit 17 is transmitted to the robot 2. As will be described later, the transmission information is information corresponding to the acquired control command or information after the control command is converted into information that can be understood by the robot.
The connection form to the network 3 may be wired or wireless, and any existing communication procedure may be used.

情報入力部13は、ユーザが、文字などの情報の入力や、機能の選択入力などをする部分であり、この発明では、特に、ロボットに発話させる発話文字列の入力、再生コンテンツを作成するための情報(たとえば、文章、図面、画像データ)の入力、ロボットおよび外部制御機器を制御するための制御コマンドの入力などを行う部分である。
情報入力部13としては、たとえば、キーボード、マウス、タッチパネルなどが用いられる。
ロボットに発話させたい内容は、文字で表されるので、ユーザは、たとえば、キーボードを用いて、発話内容に相当する文字列(発話文字列)を入力する。
また、発話内容に相当する文字列などの情報を、予めUSBメモリなどの外部の記憶媒体に記憶しておき、その記憶媒体を接続して、記憶媒体に記憶されている情報を、情報処理装置1に入力してもよい。あるいは、ユーザが、発話内容を音声データとして入力し、音声認識することにより、発話内容に相当する文字列(発話文字列)を入力してもよい。
The information input unit 13 is a part in which a user inputs information such as characters and selects and inputs a function. In the present invention, in particular, for inputting a spoken character string to be spoken by a robot and creating playback content. This is a part for inputting information (for example, text, drawing, image data), inputting control commands for controlling a robot and an external control device, and the like.
As the information input unit 13, for example, a keyboard, a mouse, a touch panel, or the like is used.
Since the content to be spoken by the robot is represented by characters, the user inputs a character string (spoken character string) corresponding to the utterance content, for example, using a keyboard.
In addition, information such as a character string corresponding to the content of the utterance is stored in advance in an external storage medium such as a USB memory, and the storage medium is connected to store the information stored in the storage medium in an information processing device. You may enter in 1. Alternatively, the user may input the utterance content as voice data and perform voice recognition to input a character string (speech character string) corresponding to the utterance content.

あるいは、ロボットに発話させることを予定した複数の文字列情報を、予め記憶部20に記憶しておき、記憶されている複数の文字列情報を読み出して表示部14に表示させ、表示された情報のうち、ロボットに発話させたい所望の情報を選択することにより、発話内容に相当する文字列(発話文字列)として入力してもよい。
また、ロボットに発話させたい文字列を記載した用紙を予め作成し、用紙に記載された文字列を、スキャナやカメラで画像データとして読み取り、文字認識した後、発話内容に相当する文字列(発話文字列)として入力してもよい。
Alternatively, a plurality of character string information scheduled to be spoken by the robot is stored in the storage unit 20 in advance, and the stored plurality of character string information is read out and displayed on the display unit 14, and the displayed information is displayed. Of these, by selecting the desired information to be spoken by the robot, it may be input as a character string (spoken character string) corresponding to the uttered content.
In addition, a paper on which the character string to be spoken by the robot is described is created in advance, the character string written on the paper is read as image data by a scanner or a camera, and after character recognition, the character string corresponding to the utterance content (speech). You may enter it as a character string).

表示部14は、情報を表示する部分であり、入力された文字列、各機能の実行に必要な情報、機能の実行の結果などを、表示する。表示部14としては、たとえば、LCD、有機ELディスプレイなどが用いられ、情報入力部13としてタッチパネルが用いられる場合は、表示部とタッチパネルとが重ね合わせて配置される。 The display unit 14 is a part for displaying information, and displays an input character string, information necessary for executing each function, a result of executing the function, and the like. As the display unit 14, for example, an LCD, an organic EL display, or the like is used, and when a touch panel is used as the information input unit 13, the display unit and the touch panel are arranged so as to overlap each other.

コンテンツ再生部15は、コンテンツを再生する部分である。
たとえば、記憶部30に予め記憶された複数のスライド画像からなるコンテンツを読み出して、所定の順序で、コンテンツを再生する。
再生するコンテンツは、記憶部30に予め記憶された情報でもよく、あるいは、USBメモリや他の可搬タイプの記憶媒体に予め記憶された情報でもよい。
また、再生するコンテンツに関する情報(再生コンテンツ情報)を作成する再生コンテンツ作成部を備えてもよい。
The content reproduction unit 15 is a portion for reproducing the content.
For example, the content composed of a plurality of slide images stored in advance in the storage unit 30 is read out, and the contents are reproduced in a predetermined order.
The content to be reproduced may be information stored in advance in the storage unit 30, or may be information stored in advance in a USB memory or other portable storage medium.
In addition, a playback content creation unit that creates information regarding the content to be played back (playback content information) may be provided.

図示しない再生コンテンツ作成部は、再生コンテンツ情報を作成する部分であるが、再生コンテンツ情報には、再生するコンテンツが含まれる。
再生するコンテンツは、他の人に開示し、再生することを目的とする情報であり、たとえば、プレゼンテーションで用いる情報であり、ユーザが、情報入力部13を利用して作成した複数枚のスライド画像である。
また、再生コンテンツ情報には、再生するコンテンツに加え、コンテンツを再生する時に発生するイベントと、ロボットの動作を制御するための制御コマンドとを対応付けた設定情報を含む。
作成されたコンテンツと設定情報とは、記憶部30に予め記憶される。
The reproduced content creation unit (not shown) is a part that creates the reproduced content information, and the reproduced content information includes the content to be reproduced.
The content to be reproduced is information intended to be disclosed and reproduced to another person, for example, information used in a presentation, and a plurality of slide images created by a user using the information input unit 13. Is.
Further, the reproduced content information includes, in addition to the content to be reproduced, setting information in which an event generated when the content is reproduced and a control command for controlling the operation of the robot are associated with each other.
The created content and setting information are stored in advance in the storage unit 30.

以下の実施例では、コンテンツは、複数のスライド画像からなる情報を意味するものとして説明する。各スライド画像は、書面、図面、画像データ、音声データ、制御コマンドなどを含む情報である。画像データには、静止画像と動画が含まれる。
制御コマンドは、後述するように、ロボットおよびロボットに接続された外部制御機器のいずれかの動作を制御するための情報である。
In the following examples, the content will be described as meaning information consisting of a plurality of slide images. Each slide image is information including documents, drawings, image data, audio data, control commands, and the like. Image data includes still images and moving images.
The control command is information for controlling the operation of the robot and any of the external control devices connected to the robot, as will be described later.

イベント実行部16は、ユーザ(プレゼンテーションの操作担当者など)の入力操作等によって発生したイベントに対応した動作を実行する部分である。
たとえば、プレゼンテーション用プログラムが起動中に、ユーザの所定の選択入力操作に対応したイベントが発生した場合は、そのイベントに予め対応づけられているスライド画像の切替え、動画再生の開始、ロボットに対する制御などの処理を実行する。
特に、ロボット制御に関連したイベントが発生した場合に、そのイベントに対応付けて上記設定情報に記憶されている制御コマンドを含むイベント情報を生成する。
生成されたイベント情報は、主として、ロボット制御処理部17に与えられる。
The event execution unit 16 is a part that executes an operation corresponding to an event generated by an input operation or the like of a user (such as a person in charge of operating a presentation).
For example, if an event corresponding to a user's predetermined selection input operation occurs while the presentation program is running, switching of slide images associated with the event in advance, starting video playback, controlling the robot, etc. Executes the processing of.
In particular, when an event related to robot control occurs, event information including a control command stored in the above setting information is generated in association with the event.
The generated event information is mainly given to the robot control processing unit 17.

後述するように、プレゼンテーション用プログラムによって、特定のスライド画像を表示しているときに、ユーザが、マウスを用いて、所定の表示領域をクリックする入力操作をした場合、クリックに相当するイベントが発生する。
現在表示されているスライド画像に、クリックに相当するイベントと、ロボットに与える指示を示した制御コマンドとが予め対応づけられて記憶されていた場合は、発生したクリックに相当するイベントに対応付けられた制御コマンドを、ロボットに送信する。
As will be described later, when the user performs an input operation of clicking a predetermined display area using the mouse while displaying a specific slide image by the presentation program, an event corresponding to the click occurs. do.
If the currently displayed slide image is stored with the event corresponding to the click and the control command indicating the instruction given to the robot associated with each other in advance, it is associated with the event corresponding to the click that has occurred. The control command is sent to the robot.

詳細には、プレゼンテーション用プログラムが、主として、イベント実行部16に相当し、クリックに相当するイベントが発生すると、制御コマンドを含むイベント情報を、ロボット制御処理部17に与える。
その後、ロボット制御処理部17の送信情報生成部20が、受け取った制御コマンドを利用して、ロボットに送信する送信情報を生成し、通信部12によって、生成された送信情報をロボット2に送信する。
Specifically, the presentation program mainly corresponds to the event execution unit 16, and when an event corresponding to a click occurs, event information including a control command is given to the robot control processing unit 17.
After that, the transmission information generation unit 20 of the robot control processing unit 17 uses the received control command to generate transmission information to be transmitted to the robot, and the communication unit 12 transmits the generated transmission information to the robot 2. ..

ロボット制御処理部17は、ロボットを制御するための送信情報を生成する部分である。
上記したように、イベント実行部16が制御コマンドを含むイベント情報を生成すると、その生成されたイベント情報を取得し、このイベント情報に含まれる制御コマンドから、ロボットが理解可能な制御内容を有する送信情報を生成する。
また、ロボットに外部制御機器が接続されている場合において、イベント情報に含まれる制御コマンドが、ロボットに接続された外部制御機器を制御するものである場合は、外部制御機器を制御するための送信情報を生成する。
The robot control processing unit 17 is a part that generates transmission information for controlling the robot.
As described above, when the event execution unit 16 generates the event information including the control command, the generated event information is acquired, and the control command included in the event information is used to transmit the control contents that the robot can understand. Generate information.
Further, when an external control device is connected to the robot and the control command included in the event information controls the external control device connected to the robot, transmission for controlling the external control device is performed. Generate information.

ロボット制御処理部17は、ロボットドライバに相当し、主として、イベント監視部18、制御コマンド取得部19、送信情報生成部20、情報変換部21からなる。
イベント監視部18は、イベント実行部16からイベント情報が与えられるのを監視する部分である。
イベント実行部16が出力するイベント情報には、ロボットの制御に関係が無い情報と、ロボットの制御に関係がある情報とがあり、ロボットの制御に関係があるイベント情報には、制御コマンドが必ず含まれるものとする。
そこで、イベント監視部18は、ロボットの制御に関係があるイベント情報が与えられるか否かを監視する。
The robot control processing unit 17 corresponds to a robot driver, and is mainly composed of an event monitoring unit 18, a control command acquisition unit 19, a transmission information generation unit 20, and an information conversion unit 21.
The event monitoring unit 18 is a unit that monitors the event information given from the event execution unit 16.
The event information output by the event execution unit 16 includes information not related to the control of the robot and information related to the control of the robot, and the event information related to the control of the robot always has a control command. It shall be included.
Therefore, the event monitoring unit 18 monitors whether or not event information related to the control of the robot is given.

制御コマンド取得部19は、与えられたイベント情報から、そのイベント情報に含まれる制御コマンドを抽出して取得する部分である。
イベント監視部18によって、ロボットの制御に関係があるイベント情報、すなわち、制御コマンドが含まれたイベント情報が与えられたことを検出した場合は、制御コマンド取得部19が、その制御コマンドを取得し、記憶部30に、一時記憶する。
The control command acquisition unit 19 is a portion that extracts and acquires the control command included in the event information from the given event information.
When the event monitoring unit 18 detects that the event information related to the control of the robot, that is, the event information including the control command is given, the control command acquisition unit 19 acquires the control command. , Temporarily stored in the storage unit 30.

送信情報生成部20は、記憶部30に一時記憶された制御コマンドを利用して、ロボット2に送信する送信情報を生成する部分である。
たとえば、制御コマンドそのものが、送信先のロボットが理解できる形式の情報である場合は、制御コマンドそのものを送信情報としてもよい。
制御コマンドそのものが、送信先のロボットが理解できる形式の情報でない場合は、制御コマンドを、情報変換部21によって、送信先のロボットが理解できる形式の情報に変換し、この変換後の情報を、送信情報として生成する。
The transmission information generation unit 20 is a part that generates transmission information to be transmitted to the robot 2 by using a control command temporarily stored in the storage unit 30.
For example, if the control command itself is information in a format that can be understood by the destination robot, the control command itself may be the transmission information.
If the control command itself is not in a format that the destination robot can understand, the information conversion unit 21 converts the control command into information in a format that the destination robot can understand, and the converted information is displayed. Generated as transmission information.

情報処理装置からロボットに送信される送信情報には、後述するように、主として、送信先のロボットを特定する情報である制御対象と、そのロボットに実行させる内容を示した制御内容とを含む。また、制御内容には、ロボットに発話させる発話文字列と、ロボットに動作させる身体動作を設定した動作情報などが含まれる。 As will be described later, the transmission information transmitted from the information processing device to the robot mainly includes a control target which is information for specifying the destination robot and control contents indicating the contents to be executed by the robot. In addition, the control content includes an utterance character string to be spoken by the robot, motion information in which a body motion to be operated by the robot is set, and the like.

情報変換部21は、記憶部30に一時記憶された制御コマンドを、送信先のロボットが理解できる形式の情報に変換する部分である。
この情報変換には、記憶部30に予め記憶されたプロトコル情報35を用いる。
プロトコル情報35は、所定の情報を、ロボットが理解可能な情報に変換する規則である。
上記のように、取得したイベント情報に含まれる制御コマンドが、ロボットが理解できない情報の場合、この制御コマンドを、プロトコル情報35を利用して、ロボットが理解可能な制御内容に変換する。
変換された制御内容を有する送信情報が、通信部12によって、ロボットに送信される。
The information conversion unit 21 is a part that converts the control command temporarily stored in the storage unit 30 into information in a format that can be understood by the destination robot.
For this information conversion, the protocol information 35 stored in advance in the storage unit 30 is used.
Protocol information 35 is a rule for converting predetermined information into information that can be understood by a robot.
As described above, when the control command included in the acquired event information is information that the robot cannot understand, the control command is converted into the control content that the robot can understand by using the protocol information 35.
The transmission information having the converted control content is transmitted to the robot by the communication unit 12.

ロボットが理解できる形式が複数ある場合は、制御コマンドをそのすべての形式の情報に変換できるようにするために、あらゆる変換規則に対応したプロトコル情報35を記憶しておくことが好ましい。
制御コマンドが、すでに、送信先のロボットが理解できる形式の情報である場合は、この情報変換を行う必要はない。
送信先のロボットが複数存在する場合は、ロボットごとに、制御コマンドをそのロボットが理解できる形式に変換するためのプロトコル情報35を、複数個、予め記憶しておくことが好ましい。
When there are a plurality of formats that the robot can understand, it is preferable to store the protocol information 35 corresponding to all the conversion rules so that the control command can be converted into the information in all the formats.
If the control command is already in a format that the destination robot can understand, it is not necessary to perform this information conversion.
When there are a plurality of destination robots, it is preferable to store in advance a plurality of protocol information 35 for converting the control command into a format that the robot can understand for each robot.

記憶部30は、この発明の情報処理装置の各機能を実行するために必要な情報やプログラムを記憶する部分であり、ROM、RAM、フラッシュメモリなどの半導体記憶素子、HDD、SSDなどの記憶装置、その他の記憶媒体が用いられる。
記憶部30には、たとえば、再生コンテンツ情報31、イベント情報32、制御コマンド33、送信情報34、プロトコル情報35などが記憶される。
図2に、この発明の情報処理装置の記憶部に記憶される情報の一実施例の説明図を示す。
The storage unit 30 is a part that stores information and programs necessary for executing each function of the information processing device of the present invention, and is a storage device such as a semiconductor storage element such as ROM, RAM, or flash memory, or an HDD or SSD. , Other storage media are used.
The storage unit 30, for example, stores playback content information 31, event information 32, control command 33, transmission information 34, protocol information 35, and the like.
FIG. 2 shows an explanatory diagram of an embodiment of information stored in the storage unit of the information processing apparatus of the present invention.

再生コンテンツ情報31は、プレゼンテーションや掲示板などで利用される書面、図面、画像、音声などからなる情報であり、表示装置やスクリーンに情報を表示等することにより、コンテンツが再生される。たとえば、プレゼンテーションをする場合は、複数のスライド画像が、再生コンテンツ情報に相当し、プレゼンテーションをする操作担当者が、複数のスライド画像を順番に表示させるか、表示するスライド画像を選択しながら、スライド画像の内容を説明する。
スライド画像には、静止画像だけでなく、書面、図面、動画、音声などのマルチメディア情報が含まれる。
The reproduced content information 31 is information composed of documents, drawings, images, sounds, etc. used in presentations, bulletin boards, etc., and the content is reproduced by displaying the information on a display device or a screen. For example, when giving a presentation, a plurality of slide images correspond to playback content information, and the person in charge of the presentation slides while displaying the plurality of slide images in order or selecting the slide images to be displayed. The contents of the image will be explained.
The slide image includes not only a still image but also multimedia information such as a document, a drawing, a moving image, and an audio.

図2(a)に、再生コンテンツ情報31の一実施例の説明図を示す。
ここでは、プレゼンテーションをする場合において、複数のスライド画像からなる再生コンテンツ情報を示している。たとえば、コンテンツCN01は、5つのスライド画像(SL01〜SL05)からなり、同様に、コンテンツCN02、CN03も、複数のスライド画像からなることを示している。
FIG. 2A shows an explanatory diagram of an embodiment of the reproduced content information 31.
Here, in the case of giving a presentation, playback content information composed of a plurality of slide images is shown. For example, the content CN01 is composed of five slide images (SL01 to SL05), and similarly, the contents CN02 and CN03 are shown to be composed of a plurality of slide images.

また、コンテンツの再生をしている状態において、ロボットに、発話や手足等の身振り動作をさせる場合は、再生するスライド画像と、ロボットを制御するための情報とを予め対応づけておく必要がある。
ロボットを制御するための情報は、後述する制御コマンドであり、スライド画像とは別に、いくつかの制御コマンドを作成して、記憶部30に予め記憶しておく。
制御コマンドには、ロボットに実行させる動作内容が、所定の記載様式で、設定される。
たとえば、ロボットに発話させる場合は、制御コマンドに、指示動作として発話が設定され、発話文字列が設定される。
In addition, when the robot is made to perform utterances, limbs, and other gestures while the content is being played, it is necessary to associate the slide image to be played with the information for controlling the robot in advance. ..
The information for controlling the robot is a control command described later, and some control commands are created separately from the slide image and stored in the storage unit 30 in advance.
In the control command, the operation content to be executed by the robot is set in a predetermined description format.
For example, when the robot is made to speak, the control command is set to speak as an instruction action, and the utterance character string is set.

また、プレゼンテーションをする操作担当者が、プレゼンテーションで利用するスライド画像と、ロボットに実行させる動作を設定した制御コマンドとを予め対応づける設定をするときに、制御コマンドをロボットに送信するタイミングを決めるための入力操作等のイベントを、制御コマンドに対応づける設定も行う。
このとき、コンテンツを再生するときに発生するイベントと、ロボットの動作を制御するための制御コマンドとを対応付けた設定情報が作成される。
In addition, in order to determine the timing at which the control command is transmitted to the robot when the operator in charge of the presentation sets in advance the association between the slide image used in the presentation and the control command in which the operation to be executed by the robot is set. Also set to associate events such as input operations with control commands.
At this time, setting information is created in which the event that occurs when the content is played and the control command for controlling the operation of the robot are associated with each other.

たとえば、操作担当者が、スライド画像の所定の表示領域をマウス等でクリックする入力操作をした場合に、制御コマンドをロボットに送信するようにする場合は、その制御コマンドに、クリックという入力操作を対応づける設定をする。
この制御コマンドをロボットに送信するタイミングを決めるための入力操作を、イベントと呼ぶ。たとえば、クリックという入力操作を、クリックイベントと呼ぶ。
一般的に、クリックイベントのように予め決められたイベントが発生した場合、イベント情報(イベントメッセージとも呼ぶ)が生成されるが、この発明では、制御コマンドと、イベントとを対応づける設定を行っておくことにより、生成するイベント情報の中に、制御コマンドを含めるようにする。
For example, if the person in charge of operation performs an input operation of clicking a predetermined display area of a slide image with a mouse or the like and wants to send a control command to the robot, the control command is input with a click. Make settings to associate.
The input operation for determining the timing of sending this control command to the robot is called an event. For example, an input operation called click is called a click event.
Generally, when a predetermined event such as a click event occurs, event information (also called an event message) is generated, but in the present invention, a setting for associating a control command with an event is made. By doing so, the control command will be included in the generated event information.

たとえば、スライド画像と、ロボットに発話をさせる制御コマンドと、クリックイベントとを対応づける設定を予めしておくことにより、そのスライド画像を再生中に、操作担当者が所定の表示領域をクリックする入力操作をして、クリックイベントが発生した場合、クリックイベントに予め対応付けられた制御コマンドを含むイベント情報が生成され、そのイベント情報に含まれる制御コマンドに対応した送信情報が、ロボットに送信される。
ロボットでは、送信情報を受信すると、送信情報に対応する制御コマンドに設定された発話を実行する。
For example, by setting in advance a setting for associating a slide image, a control command for causing a robot to speak, and a click event, an input in which an operator clicks a predetermined display area while playing the slide image. When a click event occurs after an operation, event information including a control command associated with the click event is generated, and transmission information corresponding to the control command included in the event information is transmitted to the robot. ..
When the robot receives the transmission information, it executes the utterance set in the control command corresponding to the transmission information.

コンテンツを再生する時に発生するイベントには、たとえば、操作担当者によって所定の選択入力がされる入力操作イベントと、表示部に所定の文字列が表示される表示イベントと、所定のタイマー設定時間が経過したことによるタイマーイベントなどが含まれる。
クリックイベントは、操作担当者による入力操作イベントの1つである。
Events that occur when playing content include, for example, an input operation event in which a predetermined selection input is made by the operator, a display event in which a predetermined character string is displayed on the display unit, and a predetermined timer setting time. Includes timer events due to the passage of time.
The click event is one of the input operation events by the person in charge of operation.

図2(b)に、再生コンテンツ情報31のコンテンツCN01について、対応づけられたスライド画像と、イベントと、制御コマンドの一実施例の説明図を示す。
ここで、コンテンツCN01は、5つのスライド画像(SL01〜SL05)からなり、各スライド画像は、それぞれ表示ファイル(g1〜g5)として記憶されているものとする。
たとえば、スライド画像SL01は、文字や図表が記載された書面であり、このスライド画像SL01を再生するときは、表示ファイルg1が読み出され、表示部14に表示される。
また、スライド画像SL03は、動画であり、このスライド画像SL03を再生するときは、表示ファイルg3が読み出され、表示部14にその動画が表示される。
FIG. 2B shows an explanatory diagram of the associated slide image, the event, and an embodiment of the control command for the content CN01 of the reproduced content information 31.
Here, it is assumed that the content CN01 is composed of five slide images (SL01 to SL05), and each slide image is stored as a display file (g1 to g5).
For example, the slide image SL01 is a document on which characters and charts are described, and when the slide image SL01 is reproduced, the display file g1 is read out and displayed on the display unit 14.
Further, the slide image SL03 is a moving image, and when the slide image SL03 is played back, the display file g3 is read out and the moving image is displayed on the display unit 14.

図2(b)では、各スライド画像に対して、イベント内容と制御コマンドとを対応づけた設定情報を、記憶するものとする。
制御コマンドは、スライド画像に対応づけられたロボットの実行動作を示す情報であり、イベント内容は、制御コマンドをロボットに送信するきっかけとなる原因事象(イベント)を意味する。
表示ファイルが読み出されスライド画像が再生されている場合に、そのスライド画像に対応づけられたイベント内容に設定された原因事象(イベント)が発生したとき、対応づけられた制御コマンドによって、ロボットに実行すべき動作内容が送信される。
In FIG. 2B, it is assumed that the setting information in which the event content and the control command are associated with each slide image is stored.
The control command is information indicating the execution operation of the robot associated with the slide image, and the event content means a causal event (event) that triggers the transmission of the control command to the robot.
When the display file is read and the slide image is being played, when the cause event (event) set in the event content associated with the slide image occurs, the robot is notified by the associated control command. The content of the operation to be executed is transmitted.

たとえば、スライド画像SL01には、イベント内容として、クリックイベントEV01が設定され、制御コマンドとして、ロボットに発話をさせる情報CMD01が予め設定されていることを示す。
この対応付けにより、スライド画像SL01の表示ファイルg1の再生状態において、操作担当者が所定の表示領域をクリックする入力操作をしたことを示すクリックイベントEV01が発生した場合に、ロボットに発話をさせる制御コマンドCMD01が、ロボットに送信されることを示している。
For example, the slide image SL01 indicates that the click event EV01 is set as the event content, and the information CMD01 that causes the robot to speak is set in advance as the control command.
By this association, in the playback state of the display file g1 of the slide image SL01, when the click event EV01 indicating that the operator clicks the predetermined display area is generated, the robot is made to speak. The command CMD01 indicates that it will be sent to the robot.

また、スライド画像SL02には、イベント内容として、タイマーイベントEV02が設定され、制御コマンドとして、ロボットに身振り動作をさせる情報CMD02が予め設定されていることを示す。
この場合は、スライド画像SL02の表示ファイルg2(静止画)の再生状態において、たとえば、静止画を表示開始後、タイマーを起動させ、そのタイマーに予め設定された時間が経過したとき、タイマーイベントEV02が発生したと判断し、ロボットに身振り動作をさせる制御コマンドCMD02が、ロボットに送信されることを示している。
Further, in the slide image SL02, it is shown that the timer event EV02 is set as the event content, and the information CMD02 for causing the robot to make a gesture operation is set in advance as the control command.
In this case, in the playback state of the display file g2 (still image) of the slide image SL02, for example, when the timer is started after the still image is displayed and the time preset for the timer elapses, the timer event EV02 It is indicated that the control command CMD02, which determines that the occurrence has occurred and causes the robot to perform a gesture motion, is transmitted to the robot.

また、スライド画像SL03には、イベント内容として、クリックイベントEV03が設定され、制御コマンドとして、ロボットに発話と身振り動作をさせる情報CMD03が予め設定されていることを示す。
この場合は、スライド画像SL03の表示ファイルg3(動画)の再生状態において、操作担当者が所定の表示領域をクリックする入力操作をしたことを示すクリックイベントEV03が発生した場合に、ロボットに発話と身振り動作をさせる制御コマンドCMD03が、ロボットに送信されることを示している。
Further, the slide image SL03 indicates that the click event EV03 is set as the event content, and the information CMD03 that causes the robot to speak and make a gesture is set in advance as a control command.
In this case, when the click event EV03 indicating that the operator has performed an input operation to click the predetermined display area occurs in the playback state of the slide image SL03 display file g3 (video), the robot is uttered. It indicates that the control command CMD03 for gesturing is transmitted to the robot.

また、スライド画像SL04には、イベント内容として、表示イベントEV04が設定され、制御コマンドとして、ロボットに身振り動作をさせる情報CMD04が予め設定されていることを示す。
この場合は、スライド画像SL04の表示ファイルg4(書面)の再生状態において、所定の文字列が表示されたとき、表示イベントEV04が発生したと判断し、ロボットに身振り動作をさせる制御コマンドCMD04が、ロボットに送信されることを示している。
Further, the slide image SL04 indicates that the display event EV04 is set as the event content, and the information CMD04 for causing the robot to make a gesture operation is set in advance as the control command.
In this case, when the predetermined character string is displayed in the playback state of the display file g4 (document) of the slide image SL04, it is determined that the display event EV04 has occurred, and the control command CMD04 that causes the robot to make a gesture is executed. Indicates that it will be sent to the robot.

また、スライド画像SL05には、イベント内容として、クリックイベントEV05が設定されているが、ロボットを制御する制御コマンドとしては、何も設定されていないことを示す。
この場合は、スライド画像SL05の表示ファイルg4(静止画)の再生状態において、操作担当者が所定の表示領域をクリックする入力操作をしたことを示すクリックイベントEV05が発生した場合に、ロボットに対する処理以外の所定の処理を実行するが、制御コマンドとして何も設定されていないので、ロボットに対する処理は実行しないことを意味する。
Further, in the slide image SL05, the click event EV05 is set as the event content, but nothing is set as the control command for controlling the robot.
In this case, in the playback state of the slide image SL05 display file g4 (still image), processing for the robot occurs when a click event EV05 indicating that the operator has performed an input operation to click a predetermined display area occurs. It means that the process other than is executed, but the process for the robot is not executed because nothing is set as the control command.

なお、図2(b)では、各スライド画像に対して、1つの制御コマンドを対応づけた例を示したが、これに限るものではない。
たとえば、1つのスライド画像に対して、複数の制御コマンドを対応づけて設定してもよい。
この場合は、スライド画像に対応づけられたイベント内容が発生したとき、対応づけられた複数の制御コマンドを、設定された順に起動させ、ロボットに、複数の制御コマンドに対応した動作を順次行わせるようにしてもよい。
Note that FIG. 2B shows an example in which one control command is associated with each slide image, but the present invention is not limited to this.
For example, a plurality of control commands may be associated with one slide image and set.
In this case, when the event content associated with the slide image occurs, the associated control commands are activated in the set order, and the robot is made to perform operations corresponding to the multiple control commands in sequence. You may do so.

また、1つのスライド画像に対して、複数のイベント内容と制御コマンドとを対応づけて設定してもよい。この場合は、複数の制御コマンドのうち、いずれかの制御コマンドに予め対応づけられたイベント内容が発生したときに、その制御コマンドをロボットに送信し、制御コマンドに設定された動作を実行させる。 Further, a plurality of event contents and control commands may be set in association with one slide image. In this case, when an event content associated with any of the plurality of control commands occurs in advance, the control command is transmitted to the robot to execute the operation set in the control command.

図2(b)では、各スライド画像に対応付けて、1つのイベント内容と制御コマンドを設定する例を示したが、1つのイベント内容と制御コマンドからなる設定情報を、スライド画像に対応付けずに設定してもよい。
たとえば、コンテンツのスライド画像とは別に、図2(b)に示したイベント内容と制御コマンドとからなる部分の情報を予め設定しておく。
すなわち、ロボットに動作させたい内容を記載した制御コマンドと、その制御コマンドをロボットに送信するきっかけとなるイベントとを対応付ける設定をし、設定情報として予め記憶部30に記憶する。
FIG. 2B shows an example in which one event content and control command are set in association with each slide image, but the setting information consisting of one event content and control command is not associated with the slide image. May be set to.
For example, apart from the slide image of the content, the information of the part including the event content and the control command shown in FIG. 2B is set in advance.
That is, a setting is made to associate the control command that describes the content to be operated by the robot with the event that triggers the transmission of the control command to the robot, and the setting information is stored in the storage unit 30 in advance.

この場合は、再生中のスライド画像とは関係無く、予め設定された所望の制御コマンドに対応する動作を、ロボットに実行させることができる。
たとえば、ロボットに何らかの動作をさせたい場合、予め対応付けて設定した複数のイベント内容と制御コマンドからなるリストを表示部に表示させ、操作担当者が、そのリストから、所望の制御コマンドを選択する操作をする。その後、選択された制御コマンドに対応付けられたイベントが発生した場合に、その制御コマンドをロボットに送信することにより、ロボットに所望の動作をさせる。
これにより、任意のスライド画像の再生中において、担当者が、所望の制御コマンドを選択する操作をすることによって、ロボットに対する所望の指示内容を、ロボットに与えることができ、プレゼンテーションに利用するスライド画像の再生と、ロボットの動作の実行タイミングを、容易に合わせることができる。
In this case, the robot can be made to execute an operation corresponding to a desired control command set in advance regardless of the slide image being reproduced.
For example, when the robot wants to perform some action, a list consisting of a plurality of event contents and control commands set in advance is displayed on the display unit, and the operator selects a desired control command from the list. Operate. After that, when an event associated with the selected control command occurs, the control command is transmitted to the robot to cause the robot to perform a desired operation.
Thereby, during the reproduction of an arbitrary slide image, the person in charge can give the robot a desired instruction content to the robot by performing an operation of selecting a desired control command, and the slide image used for the presentation. It is possible to easily match the reproduction of the robot with the execution timing of the robot operation.

イベント情報32は、所定のイベントが発生した場合に、イベント実行部16によって生成される情報であり、上記したように、制御コマンドを含むイベント情報32が、イベント実行部16から、ロボット制御処理部17に与えられる。 The event information 32 is information generated by the event execution unit 16 when a predetermined event occurs, and as described above, the event information 32 including the control command is transmitted from the event execution unit 16 to the robot control processing unit 16. Given to 17.

図2(c)に、イベント情報32の一実施例の説明図を示す。
ここでは、イベント情報32として、イベント内容と、制御コマンドとを含むものを示している。
図2(b)に示すような情報が予め設定されている場合、たとえば、スライド画像SL01が再生されている状態において、担当者がクリック操作をすることによって、クリックイベントEV01が発生した場合、図2(b)に示す情報から、クリックイベントEV01に対応する制御コマンドCMD01が検出され、発生したクリックイベントEV01と、検出された制御コマンドCMD01とからなるイベント情報32が生成される。
FIG. 2C shows an explanatory diagram of an embodiment of event information 32.
Here, as the event information 32, the event content and the control command are shown.
When the information shown in FIG. 2B is preset, for example, when the click event EV01 is generated by the person in charge performing a click operation while the slide image SL01 is being played, FIG. From the information shown in 2 (b), the control command CMD01 corresponding to the click event EV01 is detected, and event information 32 including the generated click event EV01 and the detected control command CMD01 is generated.

また、図2(b)に示すスライド画像SL02が再生されている状態において、所定のタイマーイベントEV02が発生した場合、図2(b)に示す情報から、タイマーイベントEV02に対応する制御コマンドCMD02が検出され、発生したクリックイベントEV02と、検出された制御コマンドCMD02とからなるイベント情報32が生成される。
イベント実行部16によって生成されたイベント情報32は、ロボット制御処理部17に与えられる。
Further, when a predetermined timer event EV02 occurs while the slide image SL02 shown in FIG. 2 (b) is being played, the control command CMD02 corresponding to the timer event EV02 is issued from the information shown in FIG. 2 (b). Event information 32 including the detected and generated click event EV02 and the detected control command CMD02 is generated.
The event information 32 generated by the event execution unit 16 is given to the robot control processing unit 17.

ただし、イベント情報32は、図2(c)に示したものに限るものではなく、種々の情報が生成される。ロボットを制御するためのイベント情報としては、上記したように、制御コマンドを含むイベント情報が生成されるが、ロボットを制御しないイベントの場合は、制御コマンドを含まないイベント情報が生成される。 However, the event information 32 is not limited to the one shown in FIG. 2 (c), and various information is generated. As the event information for controlling the robot, as described above, the event information including the control command is generated, but in the case of the event not controlling the robot, the event information not including the control command is generated.

図2(d)に、ロボット制御に用いるイベントの一実施例の説明図を示す。
ここでは、「クリック」、「アニメ」、「表示」、「タイマー」という4つのイベントを例示しているが、これに限るものではない。
図2(d)では、イベントごとに、イベント名と、略称と、そのイベントの簡単な説明を示している。
たとえば、「クリックCL」というクリックイベントは、ユーザが所定の選択入力操作をした場合、その選択入力操作によって、所定の動作を起動させる指示がされたことを意味するイベントである。
FIG. 2D shows an explanatory diagram of an embodiment of an event used for robot control.
Here, four events of "click", "animation", "display", and "timer" are illustrated, but the present invention is not limited to these.
FIG. 2D shows an event name, an abbreviation, and a brief description of the event for each event.
For example, the click event "click CL" is an event meaning that when a user performs a predetermined selection input operation, the selection input operation gives an instruction to activate a predetermined operation.

また、「アニメAM」というアニメーションイベントは、ユーザが所定の選択入力操作をした場合、その選択入力操作によって、所定のアニメーションを起動させる指示がされたことを意味するイベントである。
また、「表示DS」という表示イベントは、表示部に所定の文字列が表示された場合、その表示をきっかけとして、所定の動作を起動させる指示がされたことを意味するイベントである。
また、「タイマーTM」というタイマーイベントは、起動されたタイマーに設定された時間が経過した場合に、その時間経過をきっかけとして、所定の動作を起動させる指示がされたことを意味するイベントである。
Further, the animation event "animation AM" is an event meaning that when the user performs a predetermined selection input operation, the user is instructed to activate the predetermined animation by the selection input operation.
Further, the display event "display DS" is an event meaning that when a predetermined character string is displayed on the display unit, an instruction to activate a predetermined operation is given as a trigger of the display.
In addition, a timer event called "timer TM" is an event that means that when the time set for the activated timer elapses, an instruction to activate a predetermined operation is given as a trigger of the elapse of the time. ..

制御コマンド33は、ロボットを制御するための情報であり、たとえば、プレゼンテーションの操作担当者によって、予め作成され、記憶部30に記憶される。
制御コマンド33には、少なくとも、制御対象33aと、制御内容33bとが含まれる。
図3と図4に、この発明の情報処理装置の記憶部に記憶される制御コマンドの一実施例の説明図を示す。
制御対象33aは、制御コマンドを送信する制御ロボットを特定する情報であり、たとえば、ロボットごとに予め設定された識別番号(ロボット番号RBID)である。
The control command 33 is information for controlling the robot, and is, for example, created in advance by the person in charge of operating the presentation and stored in the storage unit 30.
The control command 33 includes at least a control target 33a and a control content 33b.
3 and 4 show explanatory views of an embodiment of a control command stored in the storage unit of the information processing apparatus of the present invention.
The control target 33a is information that identifies a control robot that transmits a control command, and is, for example, an identification number (robot number RBID) preset for each robot.

制御内容33bは、ロボットに与える指示を示した情報であり、たとえば、指定動作、動作情報、発話情報からなる。
指定動作は、ロボットに実行させる動作を識別する情報であり、たとえば、発話、身体動作、画像撮影、音声認識、機器制御などを特定する情報である、
動作情報は、ロボットの身体を動作させるための情報であり、指定動作で特定された動作の意味内容を設定した情報である。
The control content 33b is information indicating an instruction given to the robot, and includes, for example, a designated operation, operation information, and utterance information.
The designated motion is information that identifies the motion to be executed by the robot, and is information that identifies, for example, utterance, body motion, image shooting, voice recognition, device control, and the like.
The motion information is information for operating the body of the robot, and is information for setting the meaning and content of the motion specified by the designated motion.

発話情報は、ロボットに発話させる発話文字列を示した情報であり、さらに、人間が発声した音声の中でロボットに認識させる文字列を設定した情報でもある。
制御内容33bに含まれる発話情報としては、後述するように、所定の記号または文字などによって発話内容を表現した指定変数を利用してもよい。
The utterance information is information indicating an utterance character string to be uttered by the robot, and is also information in which a character string to be recognized by the robot is set in the voice uttered by a human.
As the utterance information included in the control content 33b, a designated variable expressing the utterance content by a predetermined symbol or character may be used as described later.

また、制御コマンド33には、制御対象33aとして、ロボット以外に、ロボットに接続された外部制御機器80を設定し、その外部制御機器80に対する制御内容33bを含めてもよい。外部制御機器80に関係する制御コマンド33が、ロボットに送信された場合は、ロボットに接続された外部制御機器80の動作が制御される。 Further, in the control command 33, an external control device 80 connected to the robot may be set as the control target 33a, and the control content 33b for the external control device 80 may be included. When the control command 33 related to the external control device 80 is transmitted to the robot, the operation of the external control device 80 connected to the robot is controlled.

図3(a)に、制御コマンドに含まれる情報の一実施例を示す。
図3(a)では、制御対象33aであるロボット番号RBIDとして、robo01が設定され、制御内容33bである指定動作として、発話を意味するspが設定され、動作情報として、予め決められた基本動作をすることを意味する1が設定され、発話情報として、「おはよう」という発話文字列が設定されている。
この制御コマンドが、ロボット番号がrobo01のロボットに送信されると、そのロボットは、「おはよう」という合成音声を出力し、予め設定されている身振りなどの基本動作を実行する。
FIG. 3A shows an embodiment of the information included in the control command.
In FIG. 3A, robo01 is set as the robot number RBID which is the control target 33a, sp which means utterance is set as the designated operation which is the control content 33b, and a predetermined basic operation is set as the operation information. 1 is set, which means to do, and the utterance character string "Good morning" is set as the utterance information.
When this control command is transmitted to the robot whose robot number is robo01, the robot outputs a synthetic voice of "Good morning" and executes a preset basic operation such as a gesture.

図3(b)に、制御コマンドの記載形式の一実施例を示す。
図3(a)に示した情報を制御コマンドに含めるために、図3(b)に示したような記載形式を用いる。この記載形式は一実施例であって、これに限るものではない。
図3(b)において、制御コマンドは、[制御対象:指定動作]制御動作内容という形式で記載される。
図3(b)では、2つの制御コマンドを例示している。
制御コマンドCMD01は、[robo01:sp] 1,「おはよう」からなる情報であり、これは図3(a)に示した制御コマンドを、記載したものである。
FIG. 3B shows an embodiment of the control command description format.
In order to include the information shown in FIG. 3 (a) in the control command, the description format as shown in FIG. 3 (b) is used. This description format is an example and is not limited to this.
In FIG. 3B, the control command is described in the form of [Control target: Designated operation] Control operation content.
FIG. 3B illustrates two control commands.
The control command CMD01 is information consisting of [robo01: sp] 1 and "good morning", which describes the control command shown in FIG. 3 (a).

また、制御コマンドCMD02は、[robo02:qa] 「おはよう」、「元気ですか」からなる情報であり、制御対象であるrobo02のロボットに与える情報であり、qaは、以下に記載した文字列を音声認識し、さらに記載した文字列をロボットに発話させることを意味する指示動作である。
ここでは、最初に記載された文字列である「おはよう」が認識文字列であり、2番目に記載された文字列である「元気ですか」が発話文字列に相当する。
この制御コマンドCMD02が、ロボット番号がrobo02のロボットに送信されると、そのロボットは、「おはよう」という音声が入力されるか否かを認識し、「おはよう」という音声が入力されたことを認識した場合は、「元気ですか」という合成音声を出力する。
In addition, the control command CMD02 is information consisting of [robo02: qa] "Good morning" and "How are you?", And is information given to the robot of robo02, which is the control target. This is an instruction operation that means that the robot recognizes the voice and further speaks the described character string.
Here, the first written character string "Good morning" corresponds to the recognition character string, and the second written character string "How are you?" Corresponds to the utterance character string.
When this control command CMD02 is sent to the robot whose robot number is robo02, the robot recognizes whether or not the voice "Good morning" is input, and recognizes that the voice "Good morning" is input. If so, a synthetic voice saying "How are you?" Is output.

このような図3(b)の記載形式の制御コマンドが、ロボットが理解できる形式のデータである場合は、この記載形式の制御コマンドをそのままロボットに送信すればよく、制御コマンドを受信したロボットは、制御コマンドの内容を解釈して、制御コマンドに対応する動作をすぐに実行することができる。 When the control command in the description format shown in FIG. 3B is data in a format that can be understood by the robot, the control command in this description format may be transmitted to the robot as it is, and the robot receiving the control command may receive the control command. , The contents of the control command can be interpreted and the operation corresponding to the control command can be executed immediately.

ただし、図3(b)の記載形式の制御コマンドが、ロボットが理解できない形式のデータである場合は、この記載形式の制御コマンドをそのままロボットに送信しても、所望の動作をさせることができない。そこで、上記したように、情報変換部21によって、図3(b)の記載形式の制御コマンドを、ロボットが理解できる形式の送信情報に変換した後、
変換した後の送信情報を、ロボットに送信するようにする。
この情報変換には、記憶部30に予め記憶されたプロトコル情報35を用いる。
However, if the control command in the description format shown in FIG. 3B is data in a format that the robot cannot understand, even if the control command in this description format is transmitted to the robot as it is, the desired operation cannot be performed. .. Therefore, as described above, the information conversion unit 21 converts the control command in the description format shown in FIG. 3B into transmission information in a format that can be understood by the robot.
The transmitted information after conversion is transmitted to the robot.
For this information conversion, the protocol information 35 stored in advance in the storage unit 30 is used.

図3(c)に、いくつかの制御コマンドの記載例を示す。
図3(c)には、6つの制御コマンドの記載例と、その記載例の説明を示している。
たとえば、制御コマンドCMD01は、[robo01:sp] 0,「おはよう」からなる情報であり、これは、制御対象が、robo01というロボットであり、指定動作が発話であり、発話情報が、「おはよう」であることを意味している。また、動作情報として、0が設定されていり、これは、ロボットに実行させる身振り動作がないことを意味するものとする。
したがって、robo01というロボットが、この制御コマンドCMD01を受信すると、身振り動作をせずに、「おはよう」という文字列の音声を出力する。
FIG. 3 (c) shows a description example of some control commands.
FIG. 3C shows a description example of the six control commands and a description of the description example.
For example, the control command CMD01 is information consisting of [robo01: sp] 0 and "good morning". This means that the control target is a robot called robo01, the specified action is utterance, and the utterance information is "good morning". It means that. Further, 0 is set as the motion information, which means that there is no gesture motion to be executed by the robot.
Therefore, when the robot named robo01 receives this control command CMD01, it outputs the voice of the character string "Good morning" without gesturing.

制御コマンドCMD02は、[robo02:sp] 1,「おはよう」からなる情報であり、これは、制御対象が、robo02というロボットであり、指定動作が発話と身振り動作であり、発話情報が、「おはよう」であり、動作情報として、予め設定された基本動作1を実行することを意味している。
したがって、robo02というロボットが、この制御コマンドCMD02を受信すると、基本動作1に相当する身振り動作を実行しながら、「おはよう」という文字列に対応した音声を出力する。
The control command CMD02 is information consisting of [robo02: sp] 1 and "good morning". The control target is a robot called robo02, the specified movements are utterance and gesture movements, and the utterance information is "good morning". , Which means that the preset basic operation 1 is executed as the operation information.
Therefore, when the robot named robo02 receives this control command CMD02, it outputs the voice corresponding to the character string "Good morning" while executing the gesture operation corresponding to the basic operation 1.

制御コマンドCMD03は、[robo03:qa] 「aaa」、「bbb」からなる情報であり、これは、制御対象が、robo03というロボットであり、指定動作が文字認識と発話であり、認識文字列が「aaa」であって、発話文字列が、「bbb」であることを意味している。
したがって、robo03というロボットが、この制御コマンドCMD03を受信すると、認識文字列「aaa」の音声を認識した場合に、「bbb」という文字列の音声を出力する。
The control command CMD03 is information consisting of [robo03: qa] "aaa" and "bbb". The control target is a robot called robo03, the specified operation is character recognition and utterance, and the recognition character string is. It is "aaa", which means that the utterance character string is "bbb".
Therefore, when the robot named robo03 receives this control command CMD03, it outputs the voice of the character string "bbb" when it recognizes the voice of the recognition character string "aaa".

制御コマンドCMD04は、[robo04:cam] からなる情報であり、これは、制御対象が、robo04というロボットであり、指定動作がカメラ撮影であることを意味している。
したがって、robo04というロボットが、この制御コマンドCMD04を受信すると、ロボットに接続されているカメラによって、画像を撮影する。
The control command CMD04 is information consisting of [robo04: cam], which means that the control target is a robot called robo04 and the specified operation is camera shooting.
Therefore, when the robot named robo04 receives this control command CMD04, the camera connected to the robot takes an image.

制御コマンドCMD05は、[dev01:on] からなる情報であり、これは、制御対象が、ロボットに接続された外部制御機器dev01であり、指定動作が、その外部制御機器dev01の電源を投入し、起動させることを意味している。
したがって、外部制御機器dev01が接続されたロボットが、この制御コマンドCMD05を受信すると、ロボットに接続されている外部制御機器dev01の電源を投入し、起動させる。
なお、制御するロボットが複数ある場合は、制御対象として、外部制御機器が接続されたロボットを指定する情報と、外部制御機器を指定する情報とを設定する。
The control command CMD05 is information consisting of [dev01: on], which means that the control target is the external control device dev01 connected to the robot, and the specified operation turns on the power of the external control device dev01. It means to start it.
Therefore, when the robot to which the external control device dev01 is connected receives this control command CMD05, the power of the external control device dev01 connected to the robot is turned on and started.
When there are a plurality of robots to be controlled, information for designating a robot to which an external control device is connected and information for designating an external control device are set as control targets.

制御コマンドCMD06は、[dev02:off] からなる情報であり、これは、制御対象が、ロボットに接続された外部制御機器dev02であり、指定動作が、その外部制御機器dev02の電源を切断し、動作を停止させることを意味している。
したがって、外部制御機器dev02が接続されたロボットが、この制御コマンドCMD06を受信すると、ロボットに接続されている外部制御機器dev02の電源を切断し、動作を停止させる。
図3(c)に示した制御コマンド以外にも、種々の制御コマンドを定義してもよい。
The control command CMD06 is information consisting of [dev02: off], which means that the control target is the external control device dev02 connected to the robot, and the specified operation turns off the power of the external control device dev02. It means to stop the operation.
Therefore, when the robot to which the external control device dev02 is connected receives this control command CMD06, the power of the external control device dev02 connected to the robot is turned off and the operation is stopped.
In addition to the control commands shown in FIG. 3 (c), various control commands may be defined.

図4に、制御コマンドに含まれる4つの項目の情報(制御対象、指定動作、動作情報、発話情報)の一実施例を示す。
図4(a)に、制御コマンドに含まれる制御対象33aの一実施例を示す。
制御対象33aは、制御コマンドで制御できる装置を特定する情報であり、たとえば、ロボット(robo)や、ロボットに接続された外部接続機器(dev)がある。
制御するロボットを識別するために、たとえば、robo01のようなロボット識別番号が利用される。
ロボットに接続された外部接続機器を識別するために、たとえば、dev01のような機器識別番号が利用される。
ただし、制御できる装置は、上記に限定するものではなく、情報処理装置1と直接通信でき、制御コマンドを理解して、所定の動作が可能な電子機器であればよく、物理的にロボットに接続されていない機器でもよい。
FIG. 4 shows an embodiment of information (control target, designated operation, operation information, utterance information) of four items included in the control command.
FIG. 4A shows an embodiment of the control target 33a included in the control command.
The control target 33a is information for specifying a device that can be controlled by a control command, and includes, for example, a robot (robo) and an externally connected device (dev) connected to the robot.
A robot identification number such as robo01 is used to identify the robot to be controlled.
A device identification number, such as dev01, is used to identify an externally connected device connected to the robot.
However, the device that can be controlled is not limited to the above, and any device that can directly communicate with the information processing device 1, understands the control command, and can perform a predetermined operation is sufficient, and is physically connected to the robot. It may be a device that has not been processed.

図4(b)に、制御コマンドに含まれる指定動作の一実施例を示す。
指定動作は、ロボットおよびロボットに接続された外部接続機器に実行させる動作を特定する情報である。
ロボットに対しては、ロボットが実行可能な機能を特定する情報である。たとえば、ロボットが、発話機能(音声出力機能)、手足等の身体動作機能、音声認識機能、画像撮影機能、文字認識機能、顔等の画像認識機能、自律走行機能、投影機能、表示機能、アプリケーションの実行機能などを有する場合、どの機能を実行させるかを指定する情報である。
FIG. 4B shows an embodiment of the designated operation included in the control command.
The designated operation is information that identifies the operation to be executed by the robot and the externally connected device connected to the robot.
For a robot, it is information that identifies a function that the robot can perform. For example, a robot has a speech function (voice output function), body movement function such as limbs, voice recognition function, image shooting function, character recognition function, image recognition function such as face, autonomous driving function, projection function, display function, application. This is information that specifies which function to execute when it has an execution function of.

図4(b)には、ロボットに実行させる指定動作として、4つの動作を示している。
指定動作として、spを記載した場合は、ロボットに発話機能を実行することを指示する。ロボットに発話させる文字列が、図3(b)に示した制御コマンドの制御動作内容の部分に記載される。
FIG. 4B shows four operations as designated operations to be executed by the robot.
When sp is described as the designated operation, the robot is instructed to execute the utterance function. The character string to be spoken by the robot is described in the control operation content part of the control command shown in FIG. 3 (b).

指定動作として、qaを記載した場合は、ロボットに音声認識と発話機能を実行することを指示する。ロボットが認識すべき音声と、ロボットが認識すべき音声を認識した場合にロボットに発話させる文字列が、図3(b)に示した制御コマンドの制御動作内容の部分に記載される。 When qa is described as the designated operation, the robot is instructed to execute the voice recognition and utterance functions. The voice to be recognized by the robot and the character string to be spoken by the robot when the robot recognizes the voice to be recognized are described in the control operation content part of the control command shown in FIG. 3 (b).

指定動作として、selを記載した場合は、ロボットに複数の音声認識と発話機能を実行することを指示する。ロボットが認識すべき複数の音声と、ロボットが認識すべき音声を認識した場合にロボットに発話させる複数の文字列が、図3(b)に示した制御コマンドの制御動作内容の部分に記載される。認識した音声に対して、特定の文字列が発話されるように、複数の認識音声と発話文字列は、それぞれ対応付けて記載される。 When sel is described as the designated operation, the robot is instructed to execute a plurality of voice recognition and utterance functions. A plurality of voices to be recognized by the robot and a plurality of character strings to be spoken by the robot when the robot recognizes the voices to be recognized are described in the control operation content part of the control command shown in FIG. 3 (b). NS. The plurality of recognized voices and the spoken character strings are described in association with each other so that a specific character string is spoken with respect to the recognized voice.

指定動作として、camを記載した場合は、ロボットに接続されたカメラで、画像を撮影する機能を実行することを指示する。
制御コマンドの制御動作内容の部分には、情報を記載しなくてもよい。
ただし、撮影する画像として、静止画あるいは動画を指定する場合は、制御コマンドの制御動作内容の部分に、静止画あるいは動画の区別を記載してもよい。
また、撮影した画像に人物が含まれる場合に、その人物の顔認識をする場合は、制御コマンドの制御動作内容の部分に、人物の顔認識すべきことを記載してもよい。あるいは、顔認識した結果を、所定の音声で発話すべきことを記載してもよい。
When cam is described as the designated operation, it is instructed to execute the function of taking an image with the camera connected to the robot.
Information does not have to be described in the control operation content part of the control command.
However, when a still image or a moving image is specified as the image to be captured, the distinction between the still image or the moving image may be described in the control operation content part of the control command.
Further, when a person is included in the captured image and the face of the person is recognized, it may be described in the control operation content part of the control command that the face of the person should be recognized. Alternatively, it may be described that the result of face recognition should be spoken in a predetermined voice.

図4(b)には、ロボットに接続された外部接続機器に実行させる指定動作として、2つの動作を示している。
たとえば、指定動作として、onを記載した場合は、外部接続機器の電源を投入し、起動させることを指示する。
また、指定動作として、offを記載した場合は、外部接続機器の電源を切断し、停止させることを指示する。
ロボットに接続された外部接続機器としては、たとえば、照明器具、表示装置、スピーカ、マイク、家電製品(テレビ、エアコン、時計など)、車などがある。
図4(b)に示した指定動作は、これらに限るものではなく、この他の動作を設定してもよい。
FIG. 4B shows two operations as designated operations to be executed by the externally connected device connected to the robot.
For example, when on is described as the specified operation, it is instructed to turn on the power of the externally connected device and start it.
In addition, when off is described as the designated operation, it is instructed to turn off the power of the externally connected device and stop it.
Externally connected devices connected to the robot include, for example, lighting equipment, display devices, speakers, microphones, home appliances (televisions, air conditioners, watches, etc.), cars, and the like.
The designated operation shown in FIG. 4B is not limited to these, and other operations may be set.

図4(c)に、制御コマンドに含まれる動作情報の一実施例を示す。
動作情報は、ロボットに実行させる身振り動作を指定する情報であり、たとえば、発話と同時に行うロボットの手足等の身振り動作を指定する。
図4(c)では、3種類の発話時の動作内容を示しており、発話時の動作情報として、制御コマンドの制御動作内容の部分に、3種類の動作内容のいずれかに対応する番号を記載する。
FIG. 4C shows an embodiment of the operation information included in the control command.
The motion information is information that specifies a gesture motion to be executed by the robot. For example, a gesture motion such as a limb of the robot that is performed at the same time as an utterance is designated.
FIG. 4 (c) shows three types of operation contents at the time of utterance, and as the operation information at the time of utterance, a number corresponding to any of the three types of operation contents is assigned to the control operation contents part of the control command. Describe.

たとえば、発話時の動作情報として0を記載した場合は、発話と同時に身振り動作は実行しないことを意味する。
発話時の動作情報として1を記載した場合は、発話と同時に、予め設定された基本動作を実行することを意味する。
発話時の動作情報として2を記載した場合は、発話と同時に、予め設定された指定番号に対応する動作を実行することを意味する。
ただし、制御コマンドに含まれる動作情報は、図4(c)に示したものに限るものではない。
For example, when 0 is described as the motion information at the time of utterance, it means that the gesture motion is not executed at the same time as the utterance.
When 1 is described as the operation information at the time of utterance, it means that the preset basic operation is executed at the same time as the utterance.
When 2 is described as the operation information at the time of utterance, it means that the operation corresponding to the preset designated number is executed at the same time as the utterance.
However, the operation information included in the control command is not limited to that shown in FIG. 4 (c).

図4(d)に、制御コマンドに含まれる発話情報の一実施例を示す。
発話情報は、ロボットに音声で発話させる内容を示したものである。
発話情報としては、主として、発話させる内容そのものを意味する文字列を記載するが、図4(d)に示すように、所定の記号や文字を利用した指定変数で、時刻を示す情報や、定型文字列などを指定してもよい。
図4(d)には、5つの時刻を示す情報の指定変数を示している。
FIG. 4D shows an embodiment of utterance information included in the control command.
The utterance information indicates the content that causes the robot to speak by voice.
As the utterance information, a character string that means the content itself to be uttered is mainly described, but as shown in FIG. 4 (d), information indicating the time or a fixed form is a designated variable using a predetermined symbol or character. You may specify a character string or the like.
FIG. 4D shows the designated variables of the information indicating the five times.

たとえば、(day)という指定変数を、制御コマンドの制御動作内容の部分に記載した場合は、ロボットに、現在の年月日を発話させることを意味する。
また、(dayofweek)という指定変数を、制御コマンドの制御動作内容の部分に記載した場合は、ロボットに、今日の曜日を発話させることを意味する。
また、(hour)という指定変数を、制御コマンドの制御動作内容の部分に記載した場合は、ロボットに、現在の時間を発話させることを意味する。
また、(minute)という指定変数を、制御コマンドの制御動作内容の部分に記載した場合は、ロボットに、現在の分を発話させることを意味する。
また、(second)という指定変数を、制御コマンドの制御動作内容の部分に記載した場合は、ロボットに、現在の秒を発話させることを意味する。
For example, when the specified variable (day) is described in the control operation content part of the control command, it means that the robot is made to speak the current date.
In addition, when the designated variable (dayofweek) is described in the control operation content part of the control command, it means that the robot is made to speak today's day of the week.
Further, when the designated variable (hour) is described in the control operation content part of the control command, it means that the robot is made to speak the current time.
Further, when the designated variable (minute) is described in the control operation content part of the control command, it means that the robot is made to speak the current minute.
Further, when the designated variable (second) is described in the control operation content part of the control command, it means that the robot is made to speak the current second.

送信情報34は、上記したように、送信情報生成部20によって生成される情報であり、ロボットに送信される情報である。
送信情報34には、制御コマンドと同様に、少なくとも、制御対象34aと、制御内容34bが含まれる。
図3に示したような記載形式の制御コマンドが、ロボットが理解でき、制御コマンドに基づいて所定の発話や動作ができる場合は、取得した制御コマンド33をそのままロボットに送信する。この場合は、送信情報34は、制御コマンド33と同じデータである。
ただし、制御コマンドが、ロボットが理解できない形式で記載されている場合は、上記したように、制御コマンド33を、ロボットが理解できる所定の形式に変えて送信する必要がある。この場合は、制御コマンド33をプロトコル情報35によって変換した後の情報が、送信情報34となる。
As described above, the transmission information 34 is the information generated by the transmission information generation unit 20 and is the information transmitted to the robot.
Similar to the control command, the transmission information 34 includes at least a control target 34a and a control content 34b.
When the robot can understand the control command in the description format as shown in FIG. 3 and can make a predetermined utterance or operation based on the control command, the acquired control command 33 is transmitted to the robot as it is. In this case, the transmission information 34 is the same data as the control command 33.
However, when the control command is described in a format that the robot cannot understand, it is necessary to change the control command 33 into a predetermined format that the robot can understand and transmit it as described above. In this case, the information after the control command 33 is converted by the protocol information 35 becomes the transmission information 34.

プロトコル情報35は、制御コマンド33を、ロボットが理解できる所定の形式に変換するための変換規則を規定した情報である。
たとえば、ロボットを制御するためのデータとして標準化仕様が設定されている場合において、送信先のロボットがこの標準化仕様に対応したデータを理解できる場合は、プロトコル情報35として、制御コマンド33を、標準化仕様に対応したデータに変換するための変換規則が記憶される。
The protocol information 35 is information that defines conversion rules for converting the control command 33 into a predetermined format that can be understood by the robot.
For example, when a standardization specification is set as data for controlling a robot and the destination robot can understand the data corresponding to this standardization specification, the control command 33 is used as the protocol information 35 in the standardization specification. The conversion rule for converting to the data corresponding to is stored.

上記したように、情報変換部21が、制御コマンド33の内容を、プロトコル情報35を用いて、その標準化仕様に適合した形式のデータに変換する。標準化仕様に適合した形式のデータが、送信情報34となり、ロボットRBに送信される。
なお、ロボットRBにプロトコル情報35を予め記憶しておき、ロボットが理解できない制御コマンド33を、情報処理装置PCからロボットRBに送信し、ロボットRBが、受信した制御コマンド33を、記憶されているプロトコル情報35を用いて、ロボット自らが理解できる情報に変換してもよい。
As described above, the information conversion unit 21 converts the content of the control command 33 into data in a format conforming to the standardization specifications by using the protocol information 35. The data in a format conforming to the standardization specifications becomes the transmission information 34 and is transmitted to the robot RB.
Note that the protocol information 35 is stored in the robot RB in advance, the control command 33 that the robot cannot understand is transmitted from the information processing device PC to the robot RB, and the control command 33 received by the robot RB is stored. The protocol information 35 may be used to convert the information into information that the robot itself can understand.

以上が、情報処理装置1の構成であるが、ロボット制御システムとして、サーバを利用する場合は、たとえば、上記した情報処理装置1の構成のうち、送信情報生成部20と情報変換部21の機能を、サーバに備え、情報処理装置1から、サーバに、制御コマンドと、送信先であるロボットを特定する情報を、送信してもよい。
この場合は、サーバにおいて、受信した制御コマンドから、ロボットが理解できる形式の送信情報を生成し、その送信情報をロボットに送信すればよい。
The above is the configuration of the information processing device 1. When a server is used as the robot control system, for example, among the configurations of the information processing device 1 described above, the functions of the transmission information generation unit 20 and the information conversion unit 21 The information processing device 1 may transmit a control command and information for identifying a destination robot to the server.
In this case, the server may generate transmission information in a format that the robot can understand from the received control command, and transmit the transmission information to the robot.

<ロボットの構成>
ロボット2は、図1に示すように、主として、制御部51、通信部52、出力音声生成部53、出力動作決定部54、動作実行部55、音声出力部56、身体駆動部57、音声入力部58、画像入力部59、機器制御部60、記憶部70を備える。
<Robot configuration>
As shown in FIG. 1, the robot 2 mainly includes a control unit 51, a communication unit 52, an output voice generation unit 53, an output operation determination unit 54, an operation execution unit 55, a voice output unit 56, a body drive unit 57, and a voice input. A unit 58, an image input unit 59, a device control unit 60, and a storage unit 70 are provided.

制御部51は、通信部などの各構成要素の動作を制御する部分であり、主として、CPU、ROM、RAM、I/Oコントローラ、タイマー等からなるマイクロコンピュータによって実現される。
CPUは、ROM等に予め格納された制御プログラムに基づいて、各種ハードウェアを有機的に動作させて、この発明の音声出力機能、通信機能などを実行する。
The control unit 51 is a part that controls the operation of each component such as a communication unit, and is mainly realized by a microcomputer including a CPU, a ROM, a RAM, an I / O controller, a timer, and the like.
The CPU organically operates various hardware based on a control program stored in advance in a ROM or the like to execute the audio output function, the communication function, and the like of the present invention.

通信部52は、ネットワーク3に接続し、情報処理装置1とデータ通信をする部分であり、上記した第2通信部に相当する。
たとえば、上記したように、情報処理装置1で生成された送信情報34を、受信する。
受信された送信情報34は、受信情報71として、記憶部70に記憶される。
ネットワーク3への接続形態は、有線および無線のどちらでもよいが、自律走行するようなロボットの場合は、無線を利用することが好ましく、既存のいずれかの通信手順を利用すればよい。
なお、サーバを介して、ロボットを制御する情報を受信する場合は、サーバとデータ通信をする。
The communication unit 52 is a part that connects to the network 3 and performs data communication with the information processing device 1, and corresponds to the second communication unit described above.
For example, as described above, the transmission information 34 generated by the information processing device 1 is received.
The received transmission information 34 is stored in the storage unit 70 as the reception information 71.
The connection form to the network 3 may be either wired or wireless, but in the case of a robot that autonomously travels, it is preferable to use wireless, and any existing communication procedure may be used.
When receiving information for controlling the robot via the server, data communication is performed with the server.

出力音声生成部53は、音声出力部56であるスピーカから出力する音声データを生成する部分である。情報処理装置1から送信されてくる送信情報に基づいて、出力する発話内容が決定される。
送信情報34に含まれる発話文字列が、音声として実際に出力される発話内容となり、発話内容の合成音声が生成される。
生成された合成音声は、出力音声情報72として、記憶部70に記憶される。
The output voice generation unit 53 is a part that generates voice data to be output from the speaker, which is the voice output unit 56. The utterance content to be output is determined based on the transmission information transmitted from the information processing device 1.
The utterance character string included in the transmission information 34 becomes the utterance content that is actually output as voice, and a synthetic voice of the utterance content is generated.
The generated synthetic voice is stored in the storage unit 70 as the output voice information 72.

出力動作決定部54は、情報処理装置1から送信されてくる送信情報34に基づいて、ロボットの手足等を用いた身振り動作を、決定する部分である。
たとえば、予め記憶部70に記憶された基本動作の情報などを利用して、受信した送信情報34に含まれる発話内容の意味と動作情報とに関連した身振り動作を決定する。
決定された身振り動作は、出力動作情報73として、記憶部70に記憶される。
The output motion determination unit 54 is a portion that determines a gesture motion using the limbs of the robot based on the transmission information 34 transmitted from the information processing device 1.
For example, the gesture motion related to the meaning of the utterance content included in the received transmission information 34 and the motion information is determined by using the information of the basic motion stored in the storage unit 70 in advance.
The determined gesture motion is stored in the storage unit 70 as output motion information 73.

動作実行部55は、受信した送信情報34に含まれる制御内容に基づいて、所定の動作を実行する部分であり、主として、音声出力部56と、身体駆動部57とからなる。
音声出力部56は、出力音声生成部53によって生成された合成音声を出力する部分であり、スピーカに相当する。たとえば、受信した送信情報34に含まれる発話文字列を、合成音声によって出力する。
The operation execution unit 55 is a unit that executes a predetermined operation based on the control content included in the received transmission information 34, and mainly includes a voice output unit 56 and a body drive unit 57.
The voice output unit 56 is a part that outputs synthetic voice generated by the output voice generation unit 53, and corresponds to a speaker. For example, the utterance character string included in the received transmission information 34 is output by synthetic voice.

身体駆動部57は、出力動作決定部54によって決定された身振り動作を実行する部分である。たとえば、受信した送信情報34に含まれる動作情報に対応した身振り動作をさせる。
ロボットが人間に似た身体を持つ場合は、ロボットの顔の表情を変化させたり、首、腕、手足、胴体などを動作させたりする。
The body drive unit 57 is a portion that executes a gesture motion determined by the output motion determination unit 54. For example, the gesture operation corresponding to the operation information included in the received transmission information 34 is performed.
When the robot has a human-like body, it changes the facial expression of the robot and moves the neck, arms, limbs, and torso.

音声入力部58は、音声を入力するマイクである。ロボットが音声認識機能を有する場合は、マイクによって入力された音声を認識し、文字への変換や、音声の意味内容を理解する。
画像入力部59は、画像を入力するカメラであり、静止画または動画を撮影する。ロボットが画像認識機能を有する場合は、カメラで撮影された物体を認識し、たとえば、人物の顔を認識する。
The voice input unit 58 is a microphone for inputting voice. When the robot has a voice recognition function, it recognizes the voice input by the microphone, converts it into characters, and understands the meaning and content of the voice.
The image input unit 59 is a camera for inputting an image, and captures a still image or a moving image. When the robot has an image recognition function, it recognizes an object photographed by a camera, for example, a person's face.

機器制御部60は、外部制御機器80を制御する部分である。
外部制御機器80は、遠隔制御を受け入れる機能を有する装置であり、たとえば、照明器具、表示装置、家電製品(テレビ、エアコン、時計など)、車などが該当する。
受信した送信情報34に、機器制御を意味する制御情報が含まれている場合は、その制御情報に基づいて、外部制御機器80に対して、所定の制御信号を送信する。
たとえば、照明器具や表示装置などの外部制御機器80に対して、電源を投入する制御信号を送信したり、電源を切断する制御信号を送信したりする。
なお、音声入力部58、画像入力部59、機器制御部60は、必須の構成としなくてもよく、必要に応じて、オプション機能として、追加できるようにしてもよい。
The device control unit 60 is a part that controls the external control device 80.
The external control device 80 is a device having a function of accepting remote control, and includes, for example, lighting equipment, display devices, home appliances (televisions, air conditioners, watches, etc.), cars, and the like.
When the received transmission information 34 includes control information meaning device control, a predetermined control signal is transmitted to the external control device 80 based on the control information.
For example, a control signal for turning on the power is transmitted or a control signal for turning off the power is transmitted to the external control device 80 such as a lighting fixture or a display device.
The voice input unit 58, the image input unit 59, and the device control unit 60 do not have to have essential configurations, and may be added as optional functions as needed.

記憶部70は、この発明のロボットの各機能を実行するために必要な情報やプログラムを記憶する部分であり、ROM、RAM、フラッシュメモリなどの半導体記憶素子、HDD、SSDなどの記憶装置、その他の記憶媒体が用いられる。
記憶部70には、たとえば、受信情報71、出力音声情報72、出力動作情報73などが記憶される。
The storage unit 70 is a part that stores information and programs necessary for executing each function of the robot of the present invention, and is a semiconductor storage element such as ROM, RAM, flash memory, a storage device such as HDD, SSD, and the like. Storage medium is used.
The storage unit 70 stores, for example, received information 71, output voice information 72, output operation information 73, and the like.

受信情報71は、ここでは、情報処理装置1から送られてくる送信情報34を意味する。
したがって、受信情報71には、少なくとも、制御対象71aと、制御内容71bとが含まれる。
受信情報71を利用して、出力音声生成部53が、合成音声を生成し、出力動作決定部54が、身振り動作を決定する。
The received information 71 here means the transmission information 34 sent from the information processing device 1.
Therefore, the received information 71 includes at least the control target 71a and the control content 71b.
Using the received information 71, the output voice generation unit 53 generates a synthetic voice, and the output operation determination unit 54 determines the gesture operation.

出力音声情報62は、出力音声生成部53によって生成される合成音声である。
出力動作情報63は、出力動作決定部54によって生成される情報であり、手足、口、目などロボットに備えられた身体的部位の動きを設定した情報である。
The output voice information 62 is a synthetic voice generated by the output voice generation unit 53.
The output motion information 63 is information generated by the output motion determination unit 54, and is information that sets the movements of physical parts such as limbs, mouth, and eyes provided in the robot.

<ロボット制御システムにおけるロボット制御の実施例の説明>
ここでは、主として、情報処理装置PCにおいて、担当者が、再生コンテンツ情報と、ロボットRBに対する指示内容を示す制御コマンドを予め作成しておき、プレゼンテーションをしている状態で、操作担当者が、ロボットRBに指示を与えるための入力操作等をして、ロボットに発話を含む所定の動作をさせる一連の処理の実施例を示す。
<Explanation of Examples of Robot Control in Robot Control System>
Here, mainly in the information processing device PC, the person in charge creates the playback content information and the control command indicating the instruction content to the robot RB in advance, and the person in charge of operation performs the robot while giving a presentation. An embodiment of a series of processes for causing the robot to perform a predetermined operation including utterance by performing an input operation or the like for giving an instruction to the RB is shown.

操作担当者は、ロボットに実行させたい発話や身体動作を設定した、図3のような記載形式を持つ複数の制御コマンドを予め作成する。また、作成した複数の制御コマンドそれぞれについて、制御コマンドをロボットに与える原因事象(イベント内容)と、その制御コマンドとを対応づける設定をして、記憶部30に予め記憶しておく。あるいは、図2(b)に示したように、イベント内容と制御コマンドとを対応づけた設定情報と、コンテンツを構成する各スライド画像とを対応付ける設定をして、再生コンテンツ情報31として、記憶部30に予め記憶しておく。 The person in charge of operation creates in advance a plurality of control commands having the description format as shown in FIG. 3 in which the utterances and body movements to be executed by the robot are set. Further, for each of the created plurality of control commands, a setting for associating a causal event (event content) that gives the control command to the robot and the control command is set and stored in the storage unit 30 in advance. Alternatively, as shown in FIG. 2B, the setting information associated with the event content and the control command is set to associate with each slide image constituting the content, and the storage unit is stored as the reproduced content information 31. Store in 30 in advance.

操作担当者が、実際にプレゼンテーションをする場合、プレゼンテーションを実行するアプリケーションプログラム(プレゼンテーション用プログラム)を起動させる。
また、担当者が、プレゼンテーションに使用する再生コンテンツ情報や、イベント内容と制御コマンドとを対応づけた設定情報を指定する入力操作をすると、プレゼンテーション用プログラムが、コンテンツの再生を開始し、たとえば、コンテンツの最初のスライド画像を表示部14に表示して、プレゼンテーションができる状態となる。
プレゼンテーション用プログラムによって再生されるコンテンツが、ロボットを制御するものである場合は、情報処理装置PCとロボットRBとを接続する処理をした後、ロボットを制御するロボット制御処理部17に相当するロボット利用プログラム(ロボットドライバ)を起動させる。
When the person in charge of operation actually gives a presentation, the application program (presentation program) for executing the presentation is started.
In addition, when the person in charge performs an input operation to specify the playback content information used for the presentation and the setting information associated with the event content and the control command, the presentation program starts playing the content, for example, the content. The first slide image of the above is displayed on the display unit 14, and the presentation is ready.
When the content played by the presentation program controls the robot, the robot is used, which corresponds to the robot control processing unit 17 that controls the robot after processing for connecting the information processing device PC and the robot RB. Start the program (robot driver).

(第1実施例)
図5に、この発明のロボットを制御する送信情報の送信処理などの一実施例の概略シーケンス図を示す。
第1実施例では、1台の情報処理装置PCと、1台のロボットRBとを接続し、プレゼンテーションをする操作担当者が、そのPCを利用して、プレゼンテーションを開始し、プレゼンテーションの実施中に、操作担当者が、ロボットを制御するためのイベント入力に相当するクリック操作をした場合について説明する。
(First Example)
FIG. 5 shows a schematic sequence diagram of an embodiment such as transmission information transmission processing for controlling the robot of the present invention.
In the first embodiment, an operator who connects one information processing device PC and one robot RB and gives a presentation starts a presentation using the PC and during the presentation. , The case where the person in charge of operation performs a click operation corresponding to an event input for controlling the robot will be described.

図5においては、すでに、情報処理装置PCとロボットRBとを接続する処理を完了し、プレゼンテーション用プログラムと、ロボット制御処理部17に相当するロボット利用プログラム(ロボットドライバ)が起動されているものとする。 In FIG. 5, it is assumed that the process of connecting the information processing device PC and the robot RB has already been completed, and the presentation program and the robot utilization program (robot driver) corresponding to the robot control processing unit 17 have been started. do.

図5のステップA1において、操作担当者が、PCの情報入力部13によって、プレゼンテーションに使用する再生コンテンツ情報や、イベント内容と制御コマンドとを対応づけた設定情報を指定して、コンテンツの再生開始を意味する入力操作をしたとする。 In step A1 of FIG. 5, the person in charge of operation specifies the playback content information used for the presentation and the setting information associated with the event content and the control command by the information input unit 13 of the PC, and starts playing the content. Suppose you have performed an input operation that means.

ステップP1において、PCの制御部11が、コンテンツの再生開始を意味する入力がされたことを確認すると、指定された再生コンテンツ情報31を記憶部30から読み出し、コンテンツの再生を開始する。たとえば、読み出されたコンテンツに含まれる最初のスライド画像を、表示部14に、表示させる。このコンテンツの再生開始は、プレゼンテーション用プログラムによって行われる。
その後、操作担当者は、表示されたスライド画像を利用しながら、予め準備していた資料に基づいて、プレゼンテーションを実施する。
In step P1, when the control unit 11 of the PC confirms that the input meaning the start of playback of the content has been input, the designated playback content information 31 is read from the storage unit 30 and the playback of the content is started. For example, the display unit 14 displays the first slide image included in the read content. The playback of this content is started by the presentation program.
After that, the person in charge of operation gives a presentation based on the materials prepared in advance while using the displayed slide image.

次に、ステップA2において、プレゼンテーションを実施している途中で、操作担当者が、ロボットに所定の動作をさせるために、クリック操作をしたとする。
このクリック操作は、ロボットの制御に関連したイベント入力であるものとする。たとえば、プレゼンテーションで現在表示されているスライド画像の中に、ロボットと対応づけられた表示領域がある場合に、操作担当者が、この表示領域にカーソルを合わせ、マウスでクリック操作をする。
Next, in step A2, it is assumed that the person in charge of operation performs a click operation in order to make the robot perform a predetermined operation during the presentation.
It is assumed that this click operation is an event input related to the control of the robot. For example, if there is a display area associated with the robot in the slide image currently displayed in the presentation, the person in charge of operation moves the cursor to this display area and clicks with the mouse.

ステップP2において、PCの制御部11は、このクリック操作を確認すると、ロボットの制御に関連したイベント入力(クリックイベント)が発生したことを検出する。このクリックイベントの検出により、イベント実行部16に相当するプレゼンテーション用プログラムが、再生コンテンツ情報のイベント内容と制御コマンドとを対応づけた設定情報を利用して、発生したイベント内容と、そのイベント内容に対応付けられた制御コマンドとを含むイベント情報32を生成し、ロボット制御処理部17に相当するロボット利用プログラム(ロボットドライバ)に与える。 In step P2, when the control unit 11 of the PC confirms this click operation, it detects that an event input (click event) related to the control of the robot has occurred. By detecting this click event, the presentation program corresponding to the event execution unit 16 uses the setting information associated with the event content of the playback content information and the control command to display the generated event content and the event content. The event information 32 including the associated control command is generated and given to the robot utilization program (robot driver) corresponding to the robot control processing unit 17.

たとえば、図2(b)に示すように、再生コンテンツ情報31のコンテンツCN01に含まれるスライド画像SL01を表示している場合に、クリックイベントEV01が発生したとすると、図2(c)に示すように、発生したイベント内容EV01と、クリックイベントEV01に対応付けられている制御コマンドCMD01とを含むイベント情報32が生成される。
制御コマンドCMD01として、たとえば、図3(c)に示したように、[robo01:sp] 0,「おはよう」が設定されていた場合は、[robo01:sp] 0,「おはよう」が、イベント情報32に含まれる。
For example, as shown in FIG. 2B, if the click event EV01 occurs when the slide image SL01 included in the content CN01 of the playback content information 31 is displayed, as shown in FIG. 2C. Event information 32 including the generated event content EV01 and the control command CMD01 associated with the click event EV01 is generated.
As the control command CMD01, for example, as shown in Fig. 3 (c), when [robo01: sp] 0, "Good morning" is set, [robo01: sp] 0, "Good morning" is the event information. 32 is included.

ステップP3において、ロボット制御処理部17のイベント監視部18が、イベント情報32を監視し、イベント情報32が与えられたことを検出した場合、イベント情報32を取得する。
さらに、ステップP4において、ロボット制御処理部17の制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
イベント情報32に、上記の制御コマンドCMD01が含まれている場合は、[robo01:sp] 0,「おはよう」が、制御コマンド33として取得される。
In step P3, the event monitoring unit 18 of the robot control processing unit 17 monitors the event information 32, and when it detects that the event information 32 has been given, the event information 32 is acquired.
Further, in step P4, the control command acquisition unit 19 of the robot control processing unit 17 acquires the control command 33 included in the event information 32.
When the above control command CMD01 is included in the event information 32, [robo01: sp] 0, "Good morning" is acquired as the control command 33.

ステップP5において、送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成する。取得した制御コマンド33が、ロボットが理解できる情報である場合は、その制御コマンドそのものが、送信情報34となる。
取得した制御コマンド33が、ロボットが理解できない情報である場合は、情報変換部21によって、その制御コマンド33を、ロボットが理解できる形式の情報に変換した後、変換した後の情報を、送信情報34として生成する。
In step P5, the transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33. When the acquired control command 33 is information that can be understood by the robot, the control command itself becomes the transmission information 34.
If the acquired control command 33 is information that the robot cannot understand, the information conversion unit 21 converts the control command 33 into information in a format that the robot can understand, and then transmits the converted information. Generate as 34.

ステップP6において、通信部12によって、生成された送信情報34を、ロボットRBに送信する。 In step P6, the transmission information 34 generated by the communication unit 12 is transmitted to the robot RB.

ステップR1において、ロボットRBの通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶する。
ステップR2において、ロボットRBの制御部51が、受信情報71の内容を解析し、実行すべき動作を判定する。
In step R1, the communication unit 52 of the robot RB receives the transmission information 34 and stores it in the storage unit 70 as the reception information 71.
In step R2, the control unit 51 of the robot RB analyzes the contents of the received information 71 and determines the operation to be executed.

ステップR3において、実行すべき動作が発話の場合は、出力音声生成部53が、受信情報71に含まれる発話文字列を抽出し、発話すべき合成音声を生成し、出力音声情報72として記憶する。
また、実行すべき動作がロボットの身体動作である場合は、出力動作決定部54が、手足等の身体動作の内容を決定し、出力動作情報73として記憶する。
In step R3, when the action to be executed is utterance, the output voice generation unit 53 extracts the utterance character string included in the received information 71, generates the synthetic voice to be uttered, and stores it as the output voice information 72. ..
When the motion to be executed is the body motion of the robot, the output motion determination unit 54 determines the content of the body motion such as limbs and stores it as the output motion information 73.

ステップR4において、PCから要求された動作を実行する。
たとえば、音声出力部56が、出力音声情報72に基づいて、合成音声を出力する。
また、身体駆動部57が、出力動作情報73に基づいて、決定された手足等の身体動作を実行する。
合成音声の出力と手足等の身体動作とは、異なるタイミングで行ってもよいが、発話と身体動作が関連する場合には、合成音声の出力と手足等の身体動作を、ほぼ同じタイミングで行うことが好ましい。
In step R4, perform the operation requested by the PC.
For example, the voice output unit 56 outputs synthetic voice based on the output voice information 72.
Further, the body driving unit 57 executes the determined body movements such as limbs based on the output movement information 73.
The output of the synthetic voice and the body movements such as limbs may be performed at different timings, but when the utterance and the body movements are related, the output of the synthetic voice and the body movements such as limbs are performed at almost the same timing. Is preferable.

以上の処理により、操作担当者がプレゼンテーション中に、ロボットに所定の動作をさせようとする場合、操作担当者が、その所定の動作を記載した制御コマンドに予め対応付けたイベント入力(たとえば、クリックイベント)をするだけで、ロボットに、所定の動作をさせることができる。 By the above processing, when the operator intends to make the robot perform a predetermined motion during the presentation, the operator inputs an event (for example, click) associated with the control command describing the predetermined motion in advance. The robot can be made to perform a predetermined operation just by performing an event).

ロボットに所定の動作を実行させるタイミングは、たとえばクリックという操作担当者の入力操作によって設定されるので、プレゼンテーションの進行状況が予定よりも早くても、あるいは予定よりも遅くなったとしても、操作担当者自らの入力操作によって、最も適切なタイミングでロボットに所定の動作を実行させることができ、プレゼンテーションで利用するコンテンツの再生と、ロボットに所定の動作を実行させるタイミングとを、容易に、同期させることができる。 Since the timing for causing the robot to perform a predetermined operation is set by an input operation of the operator, for example, a click, the operator is in charge of the operation even if the progress of the presentation is earlier or later than planned. The robot can be made to execute a predetermined operation at the most appropriate timing by the input operation of the person himself / herself, and the reproduction of the content used in the presentation and the timing at which the robot is made to perform the predetermined operation are easily synchronized. be able to.

なお、この発明では、コンテンツの再生とロボットに実行させる動作とを同期させるために、コンテンツの再生を制御するプレゼンテーション用プログラムに、コンテンツの再生の処理に加えて、ロボットに実行させる所定の動作の内容を、その所定の動作を実行させる順序やタイミングと共に予め設定する必要はない。
上記のように、操作担当者が、プレゼンテーションの進行状況に応じて、ロボットに実行させる動作のタイミングを決められるように、プレゼンテーション用プログラムにおいて、図2と図3に示したようにイベント内容と制御コマンドとを対応づけたロボット制御用の情報を設定し記憶しておくだけでよいので、ロボットに実行させる動作を作成するときの操作担当者の負担を軽減させることができる。
In the present invention, in order to synchronize the reproduction of the content with the operation to be executed by the robot, the presentation program for controlling the reproduction of the content is subjected to a predetermined operation to be executed by the robot in addition to the processing of the reproduction of the content. It is not necessary to preset the contents together with the order and timing for executing the predetermined operation.
As described above, in the presentation program, the event content and control as shown in FIGS. 2 and 3 so that the operator can determine the timing of the operation to be executed by the robot according to the progress of the presentation. Since it is only necessary to set and store the information for robot control associated with the command, it is possible to reduce the burden on the operator when creating the operation to be executed by the robot.

(第2実施例)
図6に、この発明のロボットを制御する送信情報の送信処理などの一実施例の概略シーケンス図を示す。
この第2実施例では、1台の情報処理装置PCと、複数のロボットRBとを接続し、プレゼンテーションをする操作担当者が、そのPCを利用して、プレゼンテーションを開始し、プレゼンテーションの実施中に、操作担当者が、複数のロボットをそれぞれ制御するためのイベント入力に相当するクリック操作をした場合について説明する。
図6では、3台のロボットRBを示しているが、2台または4台以上のロボットRBを接続する構成でもよい。
(Second Example)
FIG. 6 shows a schematic sequence diagram of an embodiment such as transmission information transmission processing for controlling the robot of the present invention.
In this second embodiment, an operator who connects one information processing device PC and a plurality of robots RBs and gives a presentation starts a presentation using the PC and during the presentation. , The case where the person in charge of operation performs a click operation corresponding to an event input for controlling each of a plurality of robots will be described.
Although FIG. 6 shows three robot RBs, it may be configured to connect two or four or more robots RBs.

また、図6に示すように、イベント内容と制御コマンドとを対応付けた3つの設定情報が、再生コンテンツ情報に、予め記憶されているものとし、3つの設定情報の記載順序に従って、イベントが発生し、そのイベントに対応付けられた制御コマンドに相当する送信情報がロボットに送信されるものとする。
説明を容易にするために、3つの設定情報のイベント内容は、いずれも操作担当者が行うクリック操作とする。
Further, as shown in FIG. 6, it is assumed that the three setting information in which the event content and the control command are associated are stored in advance in the playback content information, and the event occurs according to the description order of the three setting information. Then, it is assumed that the transmission information corresponding to the control command associated with the event is transmitted to the robot.
For ease of explanation, the event contents of the three setting information are all click operations performed by the person in charge of operation.

図6において、すでに、情報処理装置PCと各ロボットRBとを接続する処理を完了し、プレゼンテーション用プログラムと、ロボット制御処理部17に相当するロボット利用プログラム(ロボットドライバ)が起動されているものとする。
なお、PCおよびRBにおいて、図5に示したステップP2からP6の処理と、ステップR1からR4までの処理と同様の処理をするので、ステップおよび説明の一部を省略している。
In FIG. 6, it is assumed that the process of connecting the information processing device PC and each robot RB has already been completed, and the presentation program and the robot utilization program (robot driver) corresponding to the robot control processing unit 17 have been started. do.
Since the processing of steps P2 to P6 and the processing of steps R1 to R4 shown in FIG. 5 are performed on the PC and RB, a part of the steps and the description is omitted.

図6のステップP11において、操作担当者によってコンテンツの再生開始を意味する入力操作がされ、コンテンツが記憶部から読み出され、コンテンツの再生が開始されたとする。
たとえば、読み出されたコンテンツに含まれる最初のスライド画像を、表示部14に、表示させる。その後、操作担当者は、表示されたスライド画像を利用しながら、予め準備していた資料に基づいて、プレゼンテーションを実施する。
In step P11 of FIG. 6, it is assumed that the person in charge of operation performs an input operation meaning the start of playback of the content, the content is read from the storage unit, and the playback of the content is started.
For example, the display unit 14 displays the first slide image included in the read content. After that, the person in charge of operation gives a presentation based on the materials prepared in advance while using the displayed slide image.

次に、ステップA11において、プレゼンテーションを実施している途中で、操作担当者が、ロボットに所定の動作をさせるために、クリック操作をしたとする。
このクリック操作は、第1実施例の図5に示したクリック操作と同じ入力操作とする。
Next, in step A11, it is assumed that the person in charge of operation performs a click operation in order to make the robot perform a predetermined operation during the presentation.
This click operation is the same input operation as the click operation shown in FIG. 5 of the first embodiment.

この後、図6では省略しているが、PCでは、このクリック操作を確認すると、図5に示したように、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成し、ロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18が、イベント情報32を取得する。 After that, although omitted in FIG. 6, when this click operation is confirmed on the PC, as shown in FIG. 5, it is detected that an event input (click event) has occurred, and event information 32 is generated. , And the event monitoring unit 18 of the robot control processing unit 17 acquires the event information 32.

さらに、ステップP12において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、図6のイベント内容と制御コマンドとを対応付けた3つの設定情報において、3つの設定情報の記載順序に従ってイベントが発生するように設定されていたとすると、1回目のクリック操作が行われた場合、最初に記載されたクリック01に対応付けられた制御コマンド([robo01:sp]1,文字列01)を含むイベント情報32が生成されるので、制御コマンド([robo01:sp]1,文字列01)が取得される。この制御コマンドの制御対象は、robo01なので、ロボットrobo01に、送信情報が送信される。
Further, in step P12, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, assuming that the three setting information in which the event content and the control command in FIG. 6 are associated with each other are set so that the event occurs according to the description order of the three setting information, the first click operation is performed. If this is done, event information 32 including the control command ([robo01: sp] 1, character string 01) associated with the click 01 described first is generated, so the control command ([robo01: sp]] 1, character string 01) is acquired. Since the control target of this control command is robo01, the transmission information is transmitted to the robot robo01.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP13において、通信部12によって、生成された送信情報34を、ロボットrobo01に送信する。
ここでは、制御コマンド([robo01:sp]1,文字列01)に相当する送信情報が、ロボットrobo01に送信される。
上記したように、取得した制御コマンド33が、ロボットrobo01が理解できる情報である場合は、その制御コマンドそのものが、送信情報34となり、ロボットrobo01が理解できない情報である場合は、情報変換部21によって制御コマンド33をロボットrobo01が理解できる形式の情報に変換した後、変換した後の情報が、送信情報34となる。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P13, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo01.
Here, the transmission information corresponding to the control command ([robo01: sp] 1, character string 01) is transmitted to the robot robo01.
As described above, when the acquired control command 33 is information that can be understood by the robot robo01, the control command itself becomes the transmission information 34, and when the information is information that the robot robo01 cannot understand, the information conversion unit 21 After the control command 33 is converted into information in a format that can be understood by the robot robo01, the converted information becomes the transmission information 34.

ステップR11において、ロボットrobo01の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶する。
その後、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[robo01:sp]1,文字列01が受信された場合は、実行すべき動作は、発話と、設定基本動作1であると判定される。
また、出力音声生成部53が、受信情報71に含まれる文字列01を抽出し、この文字列01から発話すべき合成音声を生成し、出力音声情報72として記憶する。さらに、ロボットが実行すべき身体動作として、設定基本動作1の内容が、出力動作情報73として記憶される。
In step R11, the communication unit 52 of the robot robot 01 receives the transmission information 34 and stores it in the storage unit 70 as the reception information 71.
After that, the content of the received information 71 is analyzed to determine the operation to be executed.
When [robo01: sp] 1 and the character string 01 are received as the reception information 71, it is determined that the actions to be executed are the utterance and the setting basic action 1.
Further, the output voice generation unit 53 extracts the character string 01 included in the received information 71, generates a synthetic voice to be spoken from the character string 01, and stores it as the output voice information 72. Further, as the body movement to be executed by the robot, the content of the setting basic movement 1 is stored as the output movement information 73.

ステップR12において、音声出力部56が、出力音声情報72に基づいて、文字列01の合成音声を出力する。また、身体駆動部57が、出力動作情報73に基づいて、設定基本動作1に相当する手足等の身体動作を実行する。
合成音声の出力と、身体動作の実行は、同時に並行して実施してもよい。
In step R12, the voice output unit 56 outputs the synthetic voice of the character string 01 based on the output voice information 72. Further, the body driving unit 57 executes body movements such as limbs corresponding to the setting basic movement 1 based on the output movement information 73.
The output of the synthetic voice and the execution of the body movement may be performed in parallel at the same time.

まず、ここまでの処理で、操作担当者がコンテンツを再生し、たとえば所定のスライド画像を表示している状態で、操作担当者が、所望のタイミングで、1回目のクリック操作をすることによって、1回目のクリック操作に予め対応づけられていた最初の制御コマンドに相当する送信情報が、その制御コマンドに設定されていた制御対象のロボットrobo01に送信され、意図していたタイミングで、意図していた動作をロボットrobo01にさせることができる。 First, in the processing up to this point, the operation person plays the content, for example, while displaying a predetermined slide image, the operation person performs the first click operation at a desired timing. The transmission information corresponding to the first control command associated with the first click operation is transmitted to the controlled robot robo01 set in the control command, and is intended at the intended timing. It is possible to make the robot robot01 perform the movement.

その後、操作担当者は、予め準備しておいた他のスライド画像などを表示させながら、プレゼンテーションを続行する。
そして、プレゼンテーション中において、操作担当者が、ロボットに所定の動作をさせるタイミングがきたと判断したとする。
このとき、ステップA12において、操作担当者は、ロボットに所定の動作をさせるために、2回目のクリック操作をする。
After that, the person in charge of operation continues the presentation while displaying other slide images prepared in advance.
Then, during the presentation, it is assumed that the person in charge of operation determines that it is time to cause the robot to perform a predetermined operation.
At this time, in step A12, the person in charge of operation performs a second click operation in order to cause the robot to perform a predetermined operation.

この後、PCでは、この2回目のクリック操作を確認した場合、1回目のクリック操作を確認したときと同様に、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成してロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18がイベント情報32を取得する。 After that, when the second click operation is confirmed on the PC, the event input (click event) is detected as in the case of confirming the first click operation, and the event information 32 is generated. It is given to the robot control processing unit 17, and the event monitoring unit 18 of the robot control processing unit 17 acquires the event information 32.

さらに、ステップP14において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、図6の3つの設定情報の記載順序に従ってイベントが発生するように設定されていたとすると、2回目のクリック操作が行われた場合、2番目に記載されたクリック02に対応付けられた制御コマンド([robo02:sp]2,文字列02)を含むイベント情報32が生成されるので、制御コマンド([robo02:sp]2,文字列02)が取得される。この制御コマンドの制御対象は、robo02なので、ロボットrobo02に、送信情報が送信される。
Further, in step P14, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, assuming that the events are set to occur according to the description order of the three setting information in FIG. 6, when the second click operation is performed, it is associated with the second click 02 described. Since the event information 32 including the control command ([robo02: sp] 2, character string 02) is generated, the control command ([robo02: sp] 2, character string 02) is acquired. Since the control target of this control command is robo02, the transmission information is transmitted to the robot robo02.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP15において、通信部12によって、生成された送信情報34を、ロボットrobo02に送信する。
ここでは、制御コマンド([robo02:sp]2,文字列02)に相当する送信情報が、ロボットrobo02に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P15, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo02.
Here, the transmission information corresponding to the control command ([robo02: sp] 2, character string 02) is transmitted to the robot robo02.

ステップR21において、ロボットrobo02の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[robo02:sp]2,文字列02が受信された場合は、実行すべき動作は、発話と、指定番号動作2であると判定される。
また、出力音声生成部53が、受信情報71に含まれる文字列02を抽出し、この文字列02から発話すべき合成音声を生成し、出力音声情報72として記憶する。さらに、ロボットが実行すべき身体動作として、指定番号動作2の内容が、出力動作情報73として記憶される。
In step R21, the communication unit 52 of the robot robot 02 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [robo02: sp] 2 and the character string 02 are received as the reception information 71, it is determined that the actions to be executed are the utterance and the designated number action 2.
Further, the output voice generation unit 53 extracts the character string 02 included in the received information 71, generates a synthetic voice to be spoken from the character string 02, and stores it as the output voice information 72. Further, as the body movement to be executed by the robot, the content of the designated number movement 2 is stored as the output movement information 73.

ステップR22において、音声出力部56が、出力音声情報72に基づいて、文字列02の合成音声を出力する。また、身体駆動部57が、出力動作情報73に基づいて、指定番号動作2に相当する手足等の身体動作を実行する。 In step R22, the voice output unit 56 outputs the synthetic voice of the character string 02 based on the output voice information 72. Further, the body driving unit 57 executes body movements such as limbs corresponding to the designated number movement 2 based on the output movement information 73.

ここまでの処理によって、たとえば所定のスライド画像を表示している状態で、操作担当者が、所望のタイミングで、2回目のクリック操作をすることによって、2回目のクリック操作に予め対応づけられていた2番目の制御コマンドに相当する送信情報が、その制御コマンドに設定されていた制御対象のロボットrobo02に送信され、意図していたタイミングで、意図していた動作をロボットrobo02にさせることができる。 By the processing up to this point, for example, while displaying a predetermined slide image, the person in charge of operation performs the second click operation at a desired timing, so that the second click operation is associated in advance. The transmission information corresponding to the second control command is transmitted to the robot robot02 to be controlled, which is set in the control command, and the intended operation can be caused to the robot robot02 at the intended timing. ..

さらに、操作担当者は、予め準備しておいた他のスライド画像などを表示させながら、プレゼンテーションを続行する。
そして、プレゼンテーション中において、操作担当者が、ロボットに所定の動作をさせるタイミングがきたと判断した場合、ステップA13において、操作担当者は、ロボットに所定の動作をさせるために、3回目のクリック操作をする。
Further, the person in charge of operation continues the presentation while displaying another slide image or the like prepared in advance.
Then, during the presentation, when the operator determines that it is time to cause the robot to perform a predetermined motion, in step A13, the operator performs a third click operation in order to cause the robot to perform the predetermined motion. do.

この後、PCでは、この3回目のクリック操作を確認した場合、前回のクリック操作を確認したときと同様に、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成してロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18がイベント情報32を取得する。 After that, when the PC confirms this third click operation, it detects that an event input (click event) has occurred and generates event information 32, as in the case of confirming the previous click operation. It is given to the robot control processing unit 17, and the event monitoring unit 18 of the robot control processing unit 17 acquires the event information 32.

さらに、ステップP16において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、図6の3つの設定情報の記載順序に従ってイベントが発生するように設定されていたとすると、3回目のクリック操作が行われた場合、3番目に記載されたクリック03に対応付けられた制御コマンド([robo03:sp]0,文字列03)を含むイベント情報32が生成されるので、制御コマンド([robo03:sp]0,文字列03)が取得される。この制御コマンドの制御対象は、robo03なので、ロボットrobo03に、送信情報が送信される。
Further, in step P16, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, assuming that the events are set to occur according to the description order of the three setting information in FIG. 6, when the third click operation is performed, it is associated with the third click 03 described. Since the event information 32 including the control command ([robo03: sp] 0, character string 03) is generated, the control command ([robo03: sp] 0, character string 03) is acquired. Since the control target of this control command is robo03, the transmission information is transmitted to the robot robo03.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP17において、通信部12によって、生成された送信情報34を、ロボットrobo03に送信する。
ここでは、制御コマンド([robo03:sp]0,文字列03)に相当する送信情報が、ロボットrobo03に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P17, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo03.
Here, the transmission information corresponding to the control command ([robo03: sp] 0, character string 03) is transmitted to the robot robo03.

ステップR31において、ロボットrobo03の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[robo03:sp]0,文字列03が受信された場合は、実行すべき動作は、発話のみであり、身体動作はしないと判定される。
また、出力音声生成部53が、受信情報71に含まれる文字列03を抽出し、この文字列03から発話すべき合成音声を生成し、出力音声情報72として記憶する。なお、ロボットが実行すべき身体動作はなく、出力動作情報73には何も記憶されない。
In step R31, the communication unit 52 of the robot robo03 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [robo03: sp] 0 and the character string 03 are received as the received information 71, it is determined that the only action to be executed is utterance and no physical action is performed.
Further, the output voice generation unit 53 extracts the character string 03 included in the received information 71, generates a synthetic voice to be spoken from the character string 03, and stores it as the output voice information 72. There is no physical movement to be executed by the robot, and nothing is stored in the output movement information 73.

ステップR32において、音声出力部56が、出力音声情報72に基づいて、文字列03の合成音声を出力する。 In step R32, the voice output unit 56 outputs the synthetic voice of the character string 03 based on the output voice information 72.

ここまでの処理によって、たとえば所定のスライド画像を表示している状態で、操作担当者が、所望のタイミングで、3回目のクリック操作をすることによって、3回目のクリック操作に予め対応づけられていた3番目の制御コマンドに相当する送信情報が、その制御コマンドに設定されていた制御対象のロボットrobo03に送信され、意図していたタイミングで、意図していた発話をロボットrobo03にさせることができる。 By the processing up to this point, for example, while displaying a predetermined slide image, the person in charge of operation performs the third click operation at a desired timing, so that the third click operation is associated in advance. The transmission information corresponding to the third control command is transmitted to the controlled robot robo03 set in the control command, and the intended utterance can be made to the robot robo03 at the intended timing. ..

また、この実施例では、イベント内容と制御コマンドとを対応付けた3つの設定情報において、3つの設定情報の記載順序に従ってイベントが発生するように設定されているとしたので、操作担当者は、クリック操作をする前にロボットに実行させる動作をその都度選択する入力操作をすることなく、クリックという容易な入力操作をするだけで、予め設定された順序で、複数のロボットに所望の動作をさせることができる。 Further, in this embodiment, it is assumed that the three setting information in which the event content and the control command are associated are set so that the event occurs according to the description order of the three setting information. Select the action to be executed by the robot before each click operation. Instead of performing the input operation, simply perform the simple input operation of clicking, and let multiple robots perform the desired actions in a preset order. be able to.

(第3実施例)
図7に、この発明のロボットを制御する送信情報の送信処理などの一実施例の概略シーケンス図を示す。
この第3実施例では、第2実施例と同様に、1台の情報処理装置PCと、複数のロボットRBとを接続し、プレゼンテーションをする操作担当者が、そのPCを利用して、プレゼンテーションを開始し、プレゼンテーションの実施中に、操作担当者が、複数のロボットをそれぞれ制御するためのイベント入力に相当するクリック操作をした場合について説明する。図7では、3台のロボットRBを示している。
(Third Example)
FIG. 7 shows a schematic sequence diagram of an embodiment such as transmission information transmission processing for controlling the robot of the present invention.
In the third embodiment, as in the second embodiment, an operator who connects one information processing device PC and a plurality of robots RB and gives a presentation uses the PC to give a presentation. A case where the person in charge of operation performs a click operation corresponding to an event input for controlling each of a plurality of robots will be described. FIG. 7 shows three robots RB.

また、図7に示すように、イベント内容と制御コマンドとを対応付けた3つの設定情報が、再生コンテンツ情報に、予め記憶されているものとする。それぞれのイベント内容と対応する制御コマンドは、図6の第2実施例に示したものと同じものとする。 Further, as shown in FIG. 7, it is assumed that the three setting information in which the event content and the control command are associated are stored in advance in the playback content information. The control command corresponding to each event content is the same as that shown in the second embodiment of FIG.

ただし、図6の第2実施例と異なり、イベント内容と制御コマンドとを対応付けた3つの設定情報の記載順序と、イベントの発生順序とは一致しないものとし、操作担当者が、ロボットに所定の動作をさせたい場合は、その動作に対応した制御コマンドを選択する操作をした後、クリック操作をするものとする。
すなわち、この第3実施例では、イベント内容と制御コマンドとを対応付けた設定情報の記載順序にかかわらず、操作担当者が、ロボットに実行させたい所望の動作を、いつでも、何回でも、操作担当者が意図した任意のタイミングで、実行させることができる。
However, unlike the second embodiment of FIG. 6, it is assumed that the description order of the three setting information associated with the event content and the control command does not match the event occurrence order, and the person in charge of operation determines the robot. If you want to make the operation of, select the control command corresponding to the operation, and then click.
That is, in the third embodiment, regardless of the description order of the setting information in which the event contents and the control commands are associated with each other, the person in charge of operation operates the desired operation to be executed by the robot anytime, any number of times. It can be executed at any timing intended by the person in charge.

図7においても、すでに、情報処理装置PCと各ロボットRBとを接続する処理を完了し、プレゼンテーション用プログラムと、ロボット制御処理部17に相当するロボット利用プログラム(ロボットドライバ)が起動されているものとする。
なお、PCおよびRBにおいて、図5に示したステップP2からP6の処理と、ステップR1からR4までの処理と同様の処理をするので、ステップおよび説明の一部を省略している。
Also in FIG. 7, the process of connecting the information processing device PC and each robot RB has already been completed, and the presentation program and the robot utilization program (robot driver) corresponding to the robot control processing unit 17 have been started. And.
Since the processing of steps P2 to P6 and the processing of steps R1 to R4 shown in FIG. 5 are performed on the PC and RB, a part of the steps and the description is omitted.

図7のステップP21において、操作担当者によってコンテンツの再生開始を意味する入力操作がされ、コンテンツが記憶部30から読み出され、コンテンツの再生が開始されたとする。
たとえば、読み出されたコンテンツに含まれる最初のスライド画像を、表示部14に、表示させる。その後、操作担当者は、表示されたスライド画像を利用しながら、予め準備していた資料に基づいて、プレゼンテーションを実施する。
In step P21 of FIG. 7, it is assumed that the person in charge of operation performs an input operation meaning the start of playback of the content, the content is read from the storage unit 30, and the playback of the content is started.
For example, the display unit 14 displays the first slide image included in the read content. After that, the person in charge of operation gives a presentation based on the materials prepared in advance while using the displayed slide image.

次に、ステップA21において、プレゼンテーションを実施している途中で、操作担当者が、ロボットに所定の動作をさせるために、その動作に対応する制御コマンドを選択する操作をした後、クリック操作をしたとする。
ここで、まず、図7に示したようなイベント内容と制御コマンドとを対応付けた3つの設定情報を、表示部14に表示させ、操作担当者が、表示された制御コマンドのうち、ロボットにさせたい動作に対応する制御コマンドを選択する操作をすればよい。
Next, in step A21, during the presentation, the operator performs an operation of selecting a control command corresponding to the operation in order to cause the robot to perform a predetermined operation, and then performs a click operation. And.
Here, first, three setting information in which the event content and the control command as shown in FIG. 7 are associated with each other are displayed on the display unit 14, and the person in charge of operation causes the robot among the displayed control commands. All you have to do is select the control command that corresponds to the operation you want to perform.

ステップA21では、表示部14に表示されたイベント内容と制御コマンドとを対応付けた3つの設定情報のうち、クリック03に対応した制御コマンドを選択する操作をしたとする。
なお、制御コマンドを選択する操作と、クリック操作を別にするのではなく、制御コマンドを選択する操作にクリック操作が含まれるものとし、制御コマンドを選択する操作をしただけで、クリックイベントが発生したとみなしてもよい。
In step A21, it is assumed that the control command corresponding to the click 03 is selected from the three setting information in which the event content displayed on the display unit 14 and the control command are associated with each other.
In addition, instead of separating the operation to select the control command and the click operation, it is assumed that the operation to select the control command includes the click operation, and the click event is generated just by performing the operation to select the control command. May be regarded as.

この後、PCでは、このクリック操作を確認すると、図5に示したのと同様に、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成し、ロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18が、イベント情報32を取得する。 After that, when the PC confirms this click operation, it detects that an event input (click event) has occurred, generates event information 32, and causes the robot control processing unit 17 to generate event information 32, as shown in FIG. Then, the event monitoring unit 18 of the robot control processing unit 17 acquires the event information 32.

さらに、ステップP22において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、図7のイベント内容と制御コマンドとを対応付けた3つの設定情報において、クリック03に対応した制御コマンドを選択する操作がされたとすると、クリック03に対応付けられた制御コマンド([robo03:sp]0,文字列03)を含むイベント情報32が生成され、制御コマンド([robo03:sp]0,文字列03)が取得される。この制御コマンドの制御対象は、robo03なので、ロボットrobo03に、送信情報が送信される。
Further, in step P22, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, if the operation of selecting the control command corresponding to the click 03 is performed in the three setting information associated with the event content and the control command in FIG. 7, the control command associated with the click 03 ( Event information 32 including [robo03: sp] 0, character string 03) is generated, and a control command ([robo03: sp] 0, character string 03) is acquired. Since the control target of this control command is robo03, the transmission information is transmitted to the robot robo03.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP23において、通信部12によって、生成された送信情報34を、ロボットrobo03に送信する。
ここでは、制御コマンド([robo03:sp]0,文字列03)に相当する送信情報が、ロボットrobo03に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P23, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo03.
Here, the transmission information corresponding to the control command ([robo03: sp] 0, character string 03) is transmitted to the robot robo03.

ステップR33およびステップR34において、図6のステップR31およびステップR32と同じ処理を行う。
すなわち、ステップR33において、ロボットrobo03の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[robo03:sp]0,文字列03が受信された場合は、実行すべき動作は、発話のみであり、身体動作はしないと判定される。
In step R33 and step R34, the same processing as in step R31 and step R32 of FIG. 6 is performed.
That is, in step R33, the communication unit 52 of the robot robo03 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [robo03: sp] 0 and the character string 03 are received as the received information 71, it is determined that the only action to be executed is utterance and no physical action is performed.

また、出力音声生成部53が、受信情報71に含まれる文字列03を抽出し、この文字列03から発話すべき合成音声を生成し、出力音声情報72として記憶する。なお、ロボットが実行すべき身体動作はなく、出力動作情報73には何も記憶されない。
ステップR32において、音声出力部56が、出力音声情報72に基づいて、文字列03の合成音声を出力する。
Further, the output voice generation unit 53 extracts the character string 03 included in the received information 71, generates a synthetic voice to be spoken from the character string 03, and stores it as the output voice information 72. There is no physical movement to be executed by the robot, and nothing is stored in the output movement information 73.
In step R32, the voice output unit 56 outputs the synthetic voice of the character string 03 based on the output voice information 72.

その後、操作担当者は、予め準備しておいた他のスライド画像などを表示させながら、プレゼンテーションを続行し、プレゼンテーション中において、操作担当者が、ロボットに所定の動作をさせるタイミングがきたと判断したとする。 After that, the person in charge of operation continues the presentation while displaying other slide images prepared in advance, and during the presentation, the person in charge of operation determines that it is time for the robot to perform a predetermined operation. And.

このとき、ステップA22において、図7に示したようなイベント内容と制御コマンドとを対応付けた3つの設定情報を、表示部14に表示させ、操作担当者が、表示された3つの設定情報のうち、クリック01に対応した制御コマンドを選択する操作をした後、クリック操作をしたとする。 At this time, in step A22, three setting information in which the event content and the control command as shown in FIG. 7 are associated with each other are displayed on the display unit 14, and the person in charge of operation displays the three setting information displayed. Of these, it is assumed that the click operation is performed after the operation of selecting the control command corresponding to the click 01 is performed.

この後、PCでは、このクリック操作を確認すると、図5に示したのと同様に、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成し、ロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18が、イベント情報32を取得する。 After that, when the PC confirms this click operation, it detects that an event input (click event) has occurred, generates event information 32, and causes the robot control processing unit 17 to generate event information 32, as shown in FIG. Then, the event monitoring unit 18 of the robot control processing unit 17 acquires the event information 32.

さらに、ステップP24において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、クリック01に対応した制御コマンドを選択する操作がされたとすると、クリック01に対応付けられた制御コマンド([robo01:sp]1,文字列01)を含むイベント情報32が生成され、制御コマンド([robo01:sp]1,文字列01)が取得される。この制御コマンドの制御対象は、robo01なので、ロボットrobo01に、送信情報が送信される。
Further, in step P24, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, if the operation of selecting the control command corresponding to the click 01 is performed, the event information 32 including the control command ([robo01: sp] 1, character string 01) associated with the click 01 is generated. , The control command ([robo01: sp] 1, character string 01) is acquired. Since the control target of this control command is robo01, the transmission information is transmitted to the robot robo01.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP25において、通信部12によって、生成された送信情報34を、ロボットrobo01に送信する。
ここでは、制御コマンド([robo01:sp]1,文字列01)に相当する送信情報が、ロボットrobo01に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P25, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo01.
Here, the transmission information corresponding to the control command ([robo01: sp] 1, character string 01) is transmitted to the robot robo01.

ステップR13およびステップR14において、図6のステップR11およびステップR12と同じ処理を行う。
すなわち、ステップR13において、ロボットrobo01の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[robo01:sp]1,文字列01が受信された場合は、実行すべき動作は、発話と、設定基本動作1であると判定される。
In step R13 and step R14, the same processing as in step R11 and step R12 of FIG. 6 is performed.
That is, in step R13, the communication unit 52 of the robot robo01 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [robo01: sp] 1 and the character string 01 are received as the reception information 71, it is determined that the actions to be executed are the utterance and the setting basic action 1.

また、ロボットrobo01の出力音声生成部53が、受信情報71に含まれる文字列01を抽出し、この文字列01から発話すべき合成音声を生成し、出力音声情報72として記憶する。さらに、ロボットが実行すべき身体動作として、設定基本動作1の内容が、出力動作情報73として記憶される。 Further, the output voice generation unit 53 of the robot robot 01 extracts the character string 01 included in the received information 71, generates a synthetic voice to be spoken from the character string 01, and stores it as the output voice information 72. Further, as the body movement to be executed by the robot, the content of the setting basic movement 1 is stored as the output movement information 73.

ステップR14において、ロボットrobo01の音声出力部56が、出力音声情報72に基づいて、文字列01の合成音声を出力する。また、ロボットrobo01の身体駆動部57が、出力動作情報73に基づいて、設定基本動作1に相当する手足等の身体動作を実行する。
合成音声の出力と、身体動作の実行は、同時に並行して実施してもよい。
In step R14, the voice output unit 56 of the robot robot 01 outputs the synthetic voice of the character string 01 based on the output voice information 72. Further, the body drive unit 57 of the robot robo01 executes body movements such as limbs corresponding to the setting basic movement 1 based on the output movement information 73.
The output of the synthetic voice and the execution of the body movement may be performed in parallel at the same time.

その後、操作担当者は、同様に、予め準備しておいた他のスライド画像などを表示させながら、プレゼンテーションをさらに続行し、プレゼンテーション中において、操作担当者が、ロボットに所定の動作をさせるタイミングがきたと判断したとする。 After that, the operator similarly continues the presentation while displaying other slide images prepared in advance, and during the presentation, the timing at which the operator causes the robot to perform a predetermined operation is set. Suppose you decide that you have come.

このとき、ステップA23において、図7に示したようなイベント内容と制御コマンドとを対応付けた3つの設定情報を、表示部14に表示させ、操作担当者が、表示された3つの設定情報のうち、クリック02に対応した制御コマンドを選択する操作をした後、クリック操作をしたとする。 At this time, in step A23, three setting information in which the event content and the control command as shown in FIG. 7 are associated with each other are displayed on the display unit 14, and the person in charge of operation displays the three setting information displayed. Of these, it is assumed that the click operation is performed after the operation of selecting the control command corresponding to the click 02 is performed.

この後、PCでは、このクリック操作を確認すると、図5に示したのと同様に、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成し、ロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18が、イベント情報32を取得する。 After that, when the PC confirms this click operation, it detects that an event input (click event) has occurred, generates event information 32, and causes the robot control processing unit 17 to generate event information 32, as shown in FIG. Then, the event monitoring unit 18 of the robot control processing unit 17 acquires the event information 32.

さらに、ステップP26において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、クリック02に対応した制御コマンドを選択する操作がされたとすると、クリック02に対応付けられた制御コマンド([robo02:sp]2,文字列02)を含むイベント情報32が生成され、制御コマンド([robo02:sp]2,文字列02)が取得される。
Further, in step P26, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, if the operation of selecting the control command corresponding to the click 02 is performed, the event information 32 including the control command ([robo02: sp] 2, character string 02) associated with the click 02 is generated. , The control command ([robo02: sp] 2, character string 02) is acquired.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP27において、通信部12によって、生成された送信情報34を、ロボットrobo02に送信する。
ここでは、制御コマンド([robo02:sp]2,文字列02)に相当する送信情報が、ロボットrobo02に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P27, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo02.
Here, the transmission information corresponding to the control command ([robo02: sp] 2, character string 02) is transmitted to the robot robo02.

ステップR23およびステップR24において、図6のステップR21およびステップR22と同じ処理を行う。
すなわち、ステップR23において、ロボットrobo02の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[robo02:sp]2,文字列02が受信された場合は、実行すべき動作は、発話と、指定番号動作2であると判定される。
また、出力音声生成部53が、受信情報71に含まれる文字列02を抽出し、この文字列02から発話すべき合成音声を生成し、出力音声情報72として記憶する。さらに、ロボットが実行すべき身体動作として、指定番号動作2の内容が、出力動作情報73として記憶される。
In step R23 and step R24, the same processing as in step R21 and step R22 of FIG. 6 is performed.
That is, in step R23, the communication unit 52 of the robot robot 02 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [robo02: sp] 2 and the character string 02 are received as the reception information 71, it is determined that the actions to be executed are the utterance and the designated number action 2.
Further, the output voice generation unit 53 extracts the character string 02 included in the received information 71, generates a synthetic voice to be spoken from the character string 02, and stores it as the output voice information 72. Further, as the body movement to be executed by the robot, the content of the designated number movement 2 is stored as the output movement information 73.

ステップR24において、音声出力部56が、出力音声情報72に基づいて、文字列02の合成音声を出力する。また、身体駆動部57が、出力動作情報73に基づいて、指定番号動作2に相当する手足等の身体動作を実行する。 In step R24, the voice output unit 56 outputs the synthetic voice of the character string 02 based on the output voice information 72. Further, the body driving unit 57 executes body movements such as limbs corresponding to the designated number movement 2 based on the output movement information 73.

また、この後のプレゼンテーションにおいて、たとえば、クリック01に対応した動作を実行させたい場合は、ステップA22と同様に、操作担当者が、図7に示したようなイベント内容と制御コマンドとを対応付けた3つの設定情報を、表示部14に表示させ、表示された3つの設定情報のうち、クリック01に対応した制御コマンドを選択する操作をした後、クリック操作をすればよい。
これにより、ロボットrobo01に、再度、クリック01に対応付けられた動作をさせることができる。
Further, in the subsequent presentation, for example, when it is desired to execute the operation corresponding to the click 01, the person in charge of the operation associates the event content as shown in FIG. 7 with the control command as in step A22. The three setting information may be displayed on the display unit 14, and the control command corresponding to the click 01 may be selected from the three displayed setting information, and then the click operation may be performed.
As a result, the robot robo01 can be made to perform the operation associated with the click 01 again.

この第3実施例では、イベント内容と制御コマンドとを対応付けた設定情報を、表示部14に表示させ、表示された設定情報のうち、所望の制御コマンドを選択する操作をした後に、クリック操作をするので、操作担当者が、ロボットに実行させたい所望の動作を、いつでも、何回でも、操作担当者が意図した任意のタイミングで、実行させることができる。 In the third embodiment, the setting information in which the event content and the control command are associated is displayed on the display unit 14, and the desired control command is selected from the displayed setting information, and then the click operation is performed. Therefore, the operator can execute the desired operation to be executed by the robot at any time, any number of times, at any timing intended by the operator.

(第4実施例)
図8に、この発明のロボットに接続された外部制御機器を制御する送信情報の送信処理などの一実施例の概略シーケンス図を示す。
この第4実施例では、第1実施例と同様に、1台の情報処理装置PCと、1台のロボットrobo01とを接続し、プレゼンテーションをする操作担当者が、そのPCを利用して、プレゼンテーションを開始し、プレゼンテーションの実施中に、操作担当者が、ロボットを制御するためのイベント入力に相当するクリック操作と、ロボットrobo01に接続された外部制御機器dev01を制御するためのイベント入力に相当するクリック操作をした場合について説明する。
(Fourth Example)
FIG. 8 shows a schematic sequence diagram of an embodiment such as transmission information transmission processing for controlling an external control device connected to the robot of the present invention.
In the fourth embodiment, as in the first embodiment, an operator who connects one information processing device PC and one robot robo01 and gives a presentation uses the PC to give a presentation. And during the presentation, the person in charge of operation corresponds to the click operation corresponding to the event input for controlling the robot and the event input for controlling the external control device dev01 connected to the robot robo01. The case where the click operation is performed will be described.

図8では、ロボットrobo01と外部制御機器dev01とが、予め接続されているものとし、ロボットrobo01から送信される制御信号によって、外部制御機器dev01の動作が制御されるものとする。また、PCに接続されたロボットは、1台なので、PCから送信される送信情報は、すべてロボットrobo01に送信されるものとする。 In FIG. 8, it is assumed that the robot robo01 and the external control device dev01 are connected in advance, and the operation of the external control device dev01 is controlled by the control signal transmitted from the robot robo01. Further, since there is only one robot connected to the PC, it is assumed that all the transmission information transmitted from the PC is transmitted to the robot robo01.

図8に示すように、イベント内容と制御コマンドとを対応付けた3つの設定情報が、再生コンテンツ情報に、予め記憶されているものとする。
ここでは、イベント内容であるクリック01に対応付けられた制御コマンドが、ロボットに対する動作を設定した情報であり、クリック02とクリック03に対応付けられた制御コマンドが、外部制御機器に対する動作を設定した情報であるものとする。
As shown in FIG. 8, it is assumed that the three setting information in which the event content and the control command are associated are stored in advance in the playback content information.
Here, the control command associated with the click 01, which is the event content, is the information that sets the operation for the robot, and the control command associated with the click 02 and the click 03 sets the operation for the external control device. It shall be information.

図8においても、図7の第3実施例と同様に、イベント内容と制御コマンドとを対応付けた3つの設定情報の記載順序と、イベントの発生順序とは一致しないものとし、操作担当者が、ロボットに所定の動作をさせたい場合は、その動作に対応した制御コマンドを選択する操作をした後、クリック操作をするものとする。
ただし、第2実施例と同様に、3つの設定情報の記載順序に従って、イベントが発生し、そのイベントに対応付けられた制御コマンドに相当する送信情報を送信するようにしてもよい。
Also in FIG. 8, as in the third embodiment of FIG. 7, it is assumed that the description order of the three setting information associated with the event content and the control command does not match the event occurrence order, and the person in charge of operation If you want the robot to perform a predetermined action, you shall perform an operation to select a control command corresponding to that action, and then perform a click operation.
However, as in the second embodiment, an event may occur in accordance with the description order of the three setting information, and transmission information corresponding to the control command associated with the event may be transmitted.

また、図8においても、すでに、情報処理装置PCとロボットRBとを接続する処理を完了し、プレゼンテーション用プログラムと、ロボット制御処理部17に相当するロボット利用プログラム(ロボットドライバ)が起動されているものとする。
なお、PCおよびRBにおいて、図5に示したステップP2からP6の処理と、ステップR1からR4までの処理と同様の処理をするので、ステップおよび説明の一部を省略している。
Further, also in FIG. 8, the process of connecting the information processing device PC and the robot RB has already been completed, and the presentation program and the robot utilization program (robot driver) corresponding to the robot control processing unit 17 have been started. It shall be.
Since the processing of steps P2 to P6 and the processing of steps R1 to R4 shown in FIG. 5 are performed on the PC and RB, a part of the steps and the description is omitted.

図8のステップP31において、操作担当者によってコンテンツの再生開始を意味する入力操作がされ、コンテンツが記憶部30から読み出され、コンテンツの再生が開始されたとする。
たとえば、読み出されたコンテンツに含まれる最初のスライド画像を、表示部14に、表示させる。その後、操作担当者は、表示されたスライド画像を利用しながら、予め準備していた資料に基づいて、プレゼンテーションを実施する。
In step P31 of FIG. 8, it is assumed that the person in charge of operation performs an input operation meaning the start of playback of the content, the content is read from the storage unit 30, and the playback of the content is started.
For example, the display unit 14 displays the first slide image included in the read content. After that, the person in charge of operation gives a presentation based on the materials prepared in advance while using the displayed slide image.

次に、ステップA31において、プレゼンテーションを実施している途中で、ロボットに所定の動作をさせるために、図8に示したようなイベント内容と制御コマンドとを対応付けた3つの設定情報を、表示部14に表示させ、操作担当者が、表示された制御コマンドのうち、クリック01に対応した制御コマンドを選択する操作をした後、クリック操作をしたとする。 Next, in step A31, three setting information in which the event content and the control command as shown in FIG. 8 are associated with each other are displayed in order to cause the robot to perform a predetermined operation during the presentation. It is assumed that the display is displayed on the unit 14 and the person in charge of operation selects the control command corresponding to the click 01 from the displayed control commands, and then performs the click operation.

この後、PCでは、このクリック操作を確認すると、図5に示したのと同様に、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成し、ロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18が、イベント情報32を取得する。 After that, when the PC confirms this click operation, it detects that an event input (click event) has occurred, generates event information 32, and causes the robot control processing unit 17 to generate event information 32, as shown in FIG. Then, the event monitoring unit 18 of the robot control processing unit 17 acquires the event information 32.

さらに、ステップP32において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、クリック01に対応した制御コマンドを選択する操作がされたとすると、クリック01に対応付けられた制御コマンド([robo01:sp]1,文字列01)を含むイベント情報32が生成され、制御コマンド([robo01:sp]1,文字列01)が取得される。
Further, in step P32, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, if the operation of selecting the control command corresponding to the click 01 is performed, the event information 32 including the control command ([robo01: sp] 1, character string 01) associated with the click 01 is generated. , The control command ([robo01: sp] 1, character string 01) is acquired.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP33において、通信部12によって、生成された送信情報34を、ロボットrobo01に送信する。
ここでは、制御コマンド([robo01:sp]1,文字列01)に相当する送信情報が、ロボットrobo01に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P33, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo01.
Here, the transmission information corresponding to the control command ([robo01: sp] 1, character string 01) is transmitted to the robot robo01.

ステップR51およびステップR52において、図6のステップR11およびステップR12と同じ処理を行う。
すなわち、ステップR51において、ロボットrobo01の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[robo01:sp]1,文字列01が受信された場合は、実行すべき動作は、発話と、設定基本動作1であると判定される。
In step R51 and step R52, the same processing as in step R11 and step R12 of FIG. 6 is performed.
That is, in step R51, the communication unit 52 of the robot robot 01 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [robo01: sp] 1 and the character string 01 are received as the reception information 71, it is determined that the actions to be executed are the utterance and the setting basic action 1.

また、ロボットrobo01の出力音声生成部53が、受信情報71に含まれる文字列01を抽出し、この文字列01から発話すべき合成音声を生成し、出力音声情報72として記憶する。さらに、ロボットが実行すべき身体動作として、設定基本動作1の内容が、出力動作情報73として記憶される。 Further, the output voice generation unit 53 of the robot robot 01 extracts the character string 01 included in the received information 71, generates a synthetic voice to be spoken from the character string 01, and stores it as the output voice information 72. Further, as the body movement to be executed by the robot, the content of the setting basic movement 1 is stored as the output movement information 73.

ステップR52において、ロボットrobo01の音声出力部56が、出力音声情報72に基づいて、文字列01の合成音声を出力する。また、ロボットrobo01の身体駆動部57が、出力動作情報73に基づいて、設定基本動作1に相当する手足等の身体動作を実行する。
合成音声の出力と、身体動作の実行は、同時に並行して実施してもよい。
In step R52, the voice output unit 56 of the robot robot 01 outputs the synthetic voice of the character string 01 based on the output voice information 72. Further, the body drive unit 57 of the robot robo01 executes body movements such as limbs corresponding to the setting basic movement 1 based on the output movement information 73.
The output of the synthetic voice and the execution of the body movement may be performed in parallel at the same time.

その後、操作担当者は、予め準備しておいた他のスライド画像などを表示させながら、プレゼンテーションを続行し、プレゼンテーション中において、操作担当者が、ロボットrobo01に接続された外部制御機器dev01の動作を制御させるタイミングがきたと判断したとする。
まず、外部制御機器dev01の電源を投入し、起動させるものとする。
After that, the person in charge of operation continues the presentation while displaying other slide images prepared in advance, and during the presentation, the person in charge of operation operates the external control device dev01 connected to the robot robo01. It is assumed that it is determined that it is time to control the control.
First, it is assumed that the power of the external control device dev01 is turned on and started.

この場合、ステップA32において、外部制御機器dev01の電源を投入するために、図8に示したようなイベント内容と制御コマンドとを対応付けた3つの設定情報を、表示部14に表示させ、操作担当者が、表示された制御コマンドのうち、クリック02に対応した制御コマンドを選択する操作をした後、クリック操作をする。 In this case, in step A32, in order to turn on the power of the external control device dev01, the display unit 14 displays three setting information in which the event content and the control command as shown in FIG. 8 are associated with each other, and the operation is performed. The person in charge performs an operation of selecting a control command corresponding to click 02 from the displayed control commands, and then performs a click operation.

この後、PCでは、このクリック操作を確認すると、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成し、ロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18が、イベント情報32を取得する。 After that, when the PC confirms this click operation, it detects that an event input (click event) has occurred, generates event information 32, gives it to the robot control processing unit 17, and monitors the event of the robot control processing unit 17. The unit 18 acquires the event information 32.

さらに、ステップP34において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、クリック02に対応した制御コマンドを選択する操作がされたとすると、クリック02に対応付けられた制御コマンド[dev01:on]を含むイベント情報32が生成され、制御コマンド[dev01:on]が取得される。
Further, in step P34, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, if the operation of selecting the control command corresponding to the click 02 is performed, the event information 32 including the control command [dev01: on] associated with the click 02 is generated, and the control command [dev01: on] is generated. ] Is acquired.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP35において、通信部12によって、生成された送信情報34を、ロボットrobo01に送信する。
ここでは、制御コマンド[dev01:on]に相当する送信情報が、ロボットrobo01に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P35, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo01.
Here, the transmission information corresponding to the control command [dev01: on] is transmitted to the robot robo01.

ステップR53において、ロボットrobo01の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[dev01:on]が受信された場合は、制御対象が、ロボットrobo01に接続された外部制御機器dev01であり、外部制御機器dev01に対して実行すべき動作は、電源の投入であると判定される。
In step R53, the communication unit 52 of the robot robot 01 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [dev01: on] is received as the reception information 71, the control target is the external control device dev01 connected to the robot robo01, and the operation to be executed for the external control device dev01 is to turn on the power. Is determined to be.

ステップR54において、ロボットrobo01の機器制御部60が、外部制御機器dev01に対して、電源の投入を意味する制御信号(起動信号)を、送信する。
ステップD01において、外部制御機器dev01が、この電源の投入を意味する制御信号(起動信号)を受信すると、自ら電源を投入する処理を実行し、所定の動作を起動させる。
In step R54, the device control unit 60 of the robot robo01 transmits a control signal (startup signal) meaning that the power is turned on to the external control device dev01.
In step D01, when the external control device dev01 receives the control signal (startup signal) meaning that the power is turned on, it executes the process of turning on the power itself to start a predetermined operation.

その後、操作担当者は、さらにプレゼンテーションを続行し、プレゼンテーション中において、ロボットrobo01に接続された外部制御機器dev01の電源を切断し動作を停止させるタイミングがきたと判断したとする。 After that, it is assumed that the person in charge of operation continues the presentation and determines that it is time to turn off the power of the external control device dev01 connected to the robot robo01 and stop the operation during the presentation.

この場合、ステップA33において、外部制御機器dev01の電源を切断するために、図8に示したようなイベント内容と制御コマンドとを対応付けた3つの設定情報を、表示部14に表示させ、操作担当者が、表示された制御コマンドのうち、クリック03に対応した制御コマンドを選択する操作をした後、クリック操作をする。 In this case, in step A33, in order to turn off the power of the external control device dev01, the display unit 14 displays three setting information in which the event content and the control command as shown in FIG. 8 are associated with each other, and the operation is performed. The person in charge performs an operation of selecting a control command corresponding to the click 03 from the displayed control commands, and then performs a click operation.

この後、PCでは、このクリック操作を確認すると、イベント入力(クリックイベント)が発生したことを検出し、イベント情報32を生成し、ロボット制御処理部17に与え、ロボット制御処理部17のイベント監視部18が、イベント情報32を取得する。 After that, when the PC confirms this click operation, it detects that an event input (click event) has occurred, generates event information 32, gives it to the robot control processing unit 17, and monitors the event of the robot control processing unit 17. The unit 18 acquires the event information 32.

さらに、ステップP36において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
上記したように、クリック03に対応した制御コマンドを選択する操作がされたとすると、クリック03に対応付けられた制御コマンド[dev01:off]を含むイベント情報32が生成され、制御コマンド[dev01:off]が取得される。
Further, in step P36, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
As described above, if the operation of selecting the control command corresponding to the click 03 is performed, the event information 32 including the control command [dev01: off] associated with the click 03 is generated, and the control command [dev01: off] is generated. ] Is acquired.

送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成し、ステップP37において、通信部12によって、生成された送信情報34を、ロボットrobo01に送信する。
ここでは、制御コマンド[dev01:off]に相当する送信情報が、ロボットrobo01に送信される。
The transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33, and in step P37, the transmission information 34 generated by the communication unit 12 is transmitted to the robot robo01.
Here, the transmission information corresponding to the control command [dev01: off] is transmitted to the robot robo01.

ステップR55において、ロボットrobo01の通信部52が、送信情報34を受信し、受信情報71として記憶部70に記憶し、受信情報71の内容を解析し、実行すべき動作を判定する。
受信情報71として、[dev01:off]が受信された場合は、制御対象が、ロボットrobo01に接続された外部制御機器dev01であり、外部制御機器dev01に対して実行すべき動作は、電源の切断であると判定される。
In step R55, the communication unit 52 of the robot robot 01 receives the transmission information 34, stores it in the storage unit 70 as the reception information 71, analyzes the contents of the reception information 71, and determines the operation to be executed.
When [dev01: off] is received as the received information 71, the control target is the external control device dev01 connected to the robot robo01, and the operation to be executed for the external control device dev01 is to turn off the power. Is determined to be.

ステップR56において、ロボットrobo01の機器制御部60が、外部制御機器dev01に対して、電源の切断を意味する制御信号(停止信号)を、送信する。
ステップD02において、外部制御機器dev01が、この電源の切断を意味する制御信号(停止信号)を受信すると、電源を切断する処理を実行し、所定の動作を停止させる。
In step R56, the device control unit 60 of the robot robo01 transmits a control signal (stop signal) meaning that the power is turned off to the external control device dev01.
In step D02, when the external control device dev01 receives the control signal (stop signal) meaning that the power is turned off, the process of turning off the power is executed to stop the predetermined operation.

この第4実施例では、イベント内容と制御コマンドとを対応付けた設定情報の中に、ロボットに接続された外部制御機器の動作を制御させる情報を記載しておき、操作担当者は、イベント内容と制御コマンドとを対応付けた設定情報を、表示部14に表示させ、表示された情報のうち、外部制御機器の動作を制御させる制御コマンドを選択する操作をした後に、クリック操作をすることにより、ロボットの動作を制御する操作と同様の操作をするだけで、容易に、ロボットを介して、外部制御機器の動作を制御することができる。
すなわち、外部制御機器の動作を制御するために、異なる種類の入力操作を覚える必要がなく、外部制御機器の動作を制御するための操作担当者の操作負担を軽減できる。
In the fourth embodiment, the information for controlling the operation of the external control device connected to the robot is described in the setting information in which the event content and the control command are associated with each other, and the person in charge of operation describes the event content. The setting information associated with the control command is displayed on the display unit 14, and the control command for controlling the operation of the external control device is selected from the displayed information, and then the click operation is performed. The operation of the external control device can be easily controlled via the robot simply by performing the same operation as the operation for controlling the operation of the robot.
That is, it is not necessary to memorize different types of input operations in order to control the operation of the external control device, and the operation load of the operator for controlling the operation of the external control device can be reduced.

<ロボット制御システムにおける情報処理装置の処理フローの説明>
図9に、この発明の情報処理装置における送信情報の送信処理などの一実施例のフローチャートを示す。
情報処理装置PCにおいて、上記したような再生コンテンツ情報31と制御コマンド33が作成されて記憶部30に記憶され、制御コマンドとその制御コマンドをロボットに送信するタイミングを規定するイベント内容とを対応付けた設定情報が、記憶部30に記憶されているものとする。このフローは、図5に示したシーケンスのうち、情報処理装置PCのステップP1からP6にほぼ対応する。
<Explanation of processing flow of information processing device in robot control system>
FIG. 9 shows a flowchart of an embodiment such as transmission processing of transmission information in the information processing apparatus of the present invention.
In the information processing device PC, the reproduced content information 31 and the control command 33 as described above are created and stored in the storage unit 30, and the control command and the event content that defines the timing of transmitting the control command to the robot are associated with each other. It is assumed that the set setting information is stored in the storage unit 30. This flow substantially corresponds to steps P1 to P6 of the information processing apparatus PC in the sequence shown in FIG.

図9のステップS1において、ロボット制御処理部17に相当するロボット利用プログラム(ロボットドライバ)を起動させる。
ステップS2において、情報処理装置PCとロボットRBとを接続する処理を行う。
PCの通信部とRBの通信部によって、接続のための所定の通信手順に基づいて、所定の情報を互いに通信することによって、双方が通信可能な状態であることを確認する。
In step S1 of FIG. 9, a robot utilization program (robot driver) corresponding to the robot control processing unit 17 is activated.
In step S2, the process of connecting the information processing device PC and the robot RB is performed.
The communication unit of the PC and the communication unit of the RB confirm that both are in a communicable state by communicating predetermined information with each other based on a predetermined communication procedure for connection.

ステップS3において、イベント実行部16に相当するプレゼンテーション用プログラムを起動させ、記憶部30に記憶されている再生コンテンツ情報31の中から、プレゼンテーションで利用する再生コンテンツを読み出す。 In step S3, the presentation program corresponding to the event execution unit 16 is started, and the reproduction content used in the presentation is read out from the reproduction content information 31 stored in the storage unit 30.

ステップS4において、読み出した再生コンテンツの再生を開始する。たとえば、コンテンツに含まれる最初のスライド画像を、表示部14に表示させる。
この後、操作担当者が、表示された画像や書面を用いて、プレゼンテーションを行う。
プレゼンテーションをしているときに、操作担当者が、たとえば、表示されているスライド画像の特定の表示領域をクリックする入力操作をすると、クリックイベントが発生する。あるいは、スライド画像に、所定の文字列が表示されたときに、表示イベントが発生する。
ここでは、クリックイベントの発生や表示イベントの発生など、所定のイベントの発生を、イベント入力と呼ぶ。
In step S4, playback of the read playback content is started. For example, the first slide image included in the content is displayed on the display unit 14.
After that, the person in charge of operation gives a presentation using the displayed image or document.
During a presentation, when the person in charge of operation clicks on a specific display area of the displayed slide image, for example, a click event occurs. Alternatively, a display event occurs when a predetermined character string is displayed on the slide image.
Here, the occurrence of a predetermined event such as the occurrence of a click event or the occurrence of a display event is referred to as event input.

ステップS5において、イベント入力があるか否かをチェックする。
ステップS6において、イベント入力があったことが検出されると、ステップS8へ進み、そうでなければ、ステップS7へ進む。
ステップS7において、再生コンテンツの再生処理をそのまま継続し、ステップS5に戻る。する。たとえば、複数のスライド画像がある場合において、別のスライド画像を表示させたい場合は、操作担当者が、スライド画像を切り替える操作をし、プレゼンテーションを進行する。
In step S5, check whether there is an event input.
If it is detected in step S6 that there is an event input, the process proceeds to step S8, and if not, the process proceeds to step S7.
In step S7, the reproduction process of the reproduced content is continued as it is, and the process returns to step S5. do. For example, when there are a plurality of slide images and it is desired to display another slide image, the person in charge of operation performs an operation of switching the slide images and proceeds with the presentation.

イベント入力があったことが検出された場合、ステップS8において、プレゼンテーション用プログラムが、イベント情報32を生成する。
記憶部30に予め記憶されているイベント内容と制御コマンドとを対応付けた設定情報の中に、発生したイベントの内容と対応付けられた制御コマンドがある場合は、その制御コマンドを含むイベント情報32が生成される。
When it is detected that the event has been input, the presentation program generates the event information 32 in step S8.
If there is a control command associated with the content of the event that has occurred in the setting information associated with the event content and the control command stored in advance in the storage unit 30, the event information 32 including the control command. Is generated.

ステップS9において、ロボット制御処理部17のイベント監視部18が、イベント情報32が生成されるのを監視し、イベント情報32を取得する。
ステップS10において、取得したイベント情報32の中に、ロボットに対する制御コマンドが含まれているか否かをチェックする。
ステップS11において、制御コマンドが含まれている場合は、ステップS12に進み、そうでない場合は、ステップS7に進む。
In step S9, the event monitoring unit 18 of the robot control processing unit 17 monitors the generation of the event information 32 and acquires the event information 32.
In step S10, it is checked whether or not the acquired event information 32 includes a control command for the robot.
In step S11, if the control command is included, the process proceeds to step S12, and if not, the process proceeds to step S7.

ステップS12において、制御コマンド取得部19が、イベント情報32に含まれる制御コマンド33を取得する。
ステップS13において、送信情報生成部20が、取得した制御コマンド33を利用して、送信情報34を生成する。
In step S12, the control command acquisition unit 19 acquires the control command 33 included in the event information 32.
In step S13, the transmission information generation unit 20 generates the transmission information 34 by using the acquired control command 33.

上記したように、制御コマンド33が、ロボットが理解できる情報である場合は、制御コマンド33をそのまま送信情報34とすればよい。あるいは、制御コマンド33が、ロボットが理解できない情報である場合は、情報変換部21が、プロトコル情報35を利用して、制御コマンド33をロボットが理解できる情報に変換し、変換後の情報を送信情報34とすればよい。
ステップS14において、通信部12によって、生成した送信情報34を、ロボットに送信する。その後、ステップS5に戻り、上記した処理を繰り返す。
As described above, when the control command 33 is information that can be understood by the robot, the control command 33 may be used as the transmission information 34 as it is. Alternatively, when the control command 33 is information that the robot cannot understand, the information conversion unit 21 uses the protocol information 35 to convert the control command 33 into information that the robot can understand, and transmits the converted information. Information 34 may be used.
In step S14, the communication unit 12 transmits the generated transmission information 34 to the robot. After that, the process returns to step S5 and the above process is repeated.

<ロボット制御システムにおけるロボットの処理フローの説明>
図10に、この発明のロボットにおける送信情報を受信した後の動作などの一実施例のフローチャートを示す。
以下には、ロボットRBに外部制御機器が接続されている場合の処理を示すが、ロボットRBに外部制御機器が接続されていない場合は、ステップS55、S61、S62は必要ない。
<Explanation of robot processing flow in robot control system>
FIG. 10 shows a flowchart of an embodiment such as an operation after receiving transmission information in the robot of the present invention.
The processing when the external control device is connected to the robot RB is shown below, but steps S55, S61, and S62 are not necessary when the external control device is not connected to the robot RB.

図10のステップS51において、ロボットRBと情報処理装置PCとを接続する処理を行う。
ステップS52において、情報処理装置PCから送信されたデータの受信チェックを行う。
ステップS53において、情報処理装置PCから送信された送信情報が受信された場合は、ステップS54に進み、そうでない場合は、ステップS52に戻る。
In step S51 of FIG. 10, a process of connecting the robot RB and the information processing device PC is performed.
In step S52, the reception check of the data transmitted from the information processing apparatus PC is performed.
If the transmission information transmitted from the information processing apparatus PC is received in step S53, the process proceeds to step S54, and if not, the process returns to step S52.

ステップS54において、受信した送信情報を受信情報71として記憶し、受信情報71を解析して、受信情報71に含まれる制御コマンドから制御対象を特定し、制御コマンドの制御内容から、実行すべき動作を判定する。
ステップS55において、判定した動作が、外部制御機器の制御である場合は、ステップS61に進み、そうでない場合は、ステップS56に進む。
In step S54, the received transmission information is stored as the reception information 71, the reception information 71 is analyzed, the control target is specified from the control command included in the reception information 71, and the operation to be executed is performed from the control content of the control command. To judge.
If the determined operation in step S55 is the control of the external control device, the process proceeds to step S61, and if not, the process proceeds to step S56.

ステップS61において、制御コマンドの制御内容に基づいて、外部制御機器を制御するための制御信号を生成する。
ステップS62において、外部制御機器80に、生成した制御信号を送信する。
その後、ステップS52に戻る。
In step S61, a control signal for controlling the external control device is generated based on the control content of the control command.
In step S62, the generated control signal is transmitted to the external control device 80.
Then, the process returns to step S52.

ステップS56において、判定した動作が発話である場合は、受信情報から、発話文字列を取得する。
ステップS57において、出力音声生成部53が、取得した発話文字列から、発話すべき合成音声を生成し、出力音声情報72として記憶する。
ステップS58において、出力動作決定部53が、制御コマンドの制御内容から、手足等の身体動作の内容を決定し、出力動作情報73として記憶する。
If the determined action is an utterance in step S56, the utterance character string is acquired from the received information.
In step S57, the output voice generation unit 53 generates a synthetic voice to be spoken from the acquired utterance character string and stores it as the output voice information 72.
In step S58, the output motion determination unit 53 determines the content of the body motion such as limbs from the control content of the control command and stores it as the output motion information 73.

ステップS59において、音声出力部56が、出力音声情報72を利用して、合成音声を出力する。
ステップS60において、身体駆動部57が、出力動作情報73を利用して、ロボットの身体の各部位を駆動させ、所定の身振り動作を実行する。
ステップS59の音声出力と、S60の身振り動作は、この順に実行するのではなく、両者を連動させ、ほぼ同じタイミングで実行してもよい。
その後、ステップS52に戻る。
In step S59, the voice output unit 56 outputs the synthesized voice by using the output voice information 72.
In step S60, the body driving unit 57 drives each part of the body of the robot by using the output motion information 73 to execute a predetermined gesture motion.
The audio output in step S59 and the gesture operation in S60 may not be executed in this order, but may be executed in conjunction with each other at substantially the same timing.
Then, the process returns to step S52.

1 情報処理装置、
2 ロボット、
3 ネットワーク、
11 制御部、
12 通信部、
13 情報入力部、
14 表示部、
15 コンテンツ再生部、
16 イベント実行部、
17 ロボット制御処理部、
18 イベント監視部、
19 制御コマンド取得部、
20 送信情報生成部、
21 情報変換部、
30 記憶部、
31 再生コンテンツ情報、
32 イベント情報、
33 制御コマンド、
33a 制御対象、
33b 制御内容、
34 送信情報、
34a 制御対象、
34b 制御内容、
35 プロトコル情報、
51 制御部、
52 通信部、
53 出力音声生成部、
54 出力動作決定部、
55 動作実行部、
56 音声出力部、
57 身体駆動部、
58 音声入力部、
59 画像入力部、
60 機器制御部、
70 記憶部、
71 受信情報、
71a 制御対象、
71b 制御内容、
72 出力音声情報、
73 出力動作情報、
80 外部制御機器
1 Information processing device,
2 robot,
3 networks,
11 Control unit,
12 Communication Department,
13 Information input section,
14 Display,
15 Content playback department,
16 Event Execution Department,
17 Robot control processing unit,
18 Event Monitoring Department,
19 Control command acquisition unit,
20 Transmission information generator,
21 Information conversion unit,
30 Memory
31 Playback content information,
32 Event information,
33 control commands,
33a Control target,
33b Control content,
34 Transmission information,
34a Control target,
34b Control content,
35 Protocol information,
51 Control unit,
52 Communication Department,
53 Output voice generator,
54 Output operation determination unit,
55 Action Execution Unit,
56 Audio output unit,
57 Body drive,
58 Voice input section,
59 Image input section,
60 Equipment control unit,
70 storage,
71 Received information,
71a Control target,
71b Control content,
72 Output audio information,
73 Output operation information,
80 External control equipment

Claims (10)

ロボットと、ロボットの動作を制御する情報処理装置とからなるロボット制御システムであって、
前記情報処理装置が、
コンテンツを再生するコンテンツ再生部と、
前記コンテンツと、前記コンテンツを再生する時に発生するイベントと前記ロボットの動作を制御するための制御コマンドを対応付けた設定情報とを含む再生コンテンツ情報を予め記憶した記憶部と、
前記所定のコンテンツを再生中に、イベントが発生した場合に、前記再生コンテンツ情報に含まれる設定情報を利用して、発生したイベントに対応付けられた制御コマンドを取得し、前記発生したイベントと前記取得された制御コマンドを含むイベント情報を生成するイベント実行部と、
前記生成されたイベント情報を取得し、前記イベント情報に含まれる制御コマンドから、前記ロボットが理解可能な制御内容を有する送信情報を生成するロボット制御処理部と、
前記送信情報を前記ロボットに送信する第1通信部とを備え、
前記ロボットが、
前記送信情報を受信する第2通信部と、
受信した前記送信情報に含まれる制御内容に基づいて、所定の動作を実行する動作実行部とを備えたことを特徴とするロボット制御システム。
A robot control system consisting of a robot and an information processing device that controls the operation of the robot.
The information processing device
The content playback unit that plays content and the content playback section
A storage unit that stores in advance playback content information including the content, an event that occurs when the content is played, and setting information associated with a control command for controlling the operation of the robot.
When an event occurs during playback of the predetermined content, a control command associated with the event that has occurred is acquired by using the setting information included in the playback content information, and the generated event and the event occur. an event executing unit for generating event information including the acquired control command,
A robot control processing unit that acquires the generated event information and generates transmission information having control contents that the robot can understand from the control commands included in the event information.
It is provided with a first communication unit that transmits the transmission information to the robot.
The robot
The second communication unit that receives the transmission information and
A robot control system including an operation execution unit that executes a predetermined operation based on the control content included in the received transmission information.
前記情報処理装置から前記ロボットに送信される前記送信情報に、ロボットに発話させる発話文字列と、ロボットに動作させる身体動作を設定した動作情報が含まれ、
前記ロボットの動作実行部が、
受信した前記送信情報に含まれる発話文字列を、合成音声によって出力する音声出力部と、
前記送信情報に含まれる動作情報に対応した身振り動作をさせる身体駆動部とを備えたことを特徴とする請求項1に記載のロボット制御システム。
The transmission information transmitted from the information processing device to the robot includes an utterance character string to be spoken by the robot and motion information in which a body motion to be operated by the robot is set.
The motion execution unit of the robot
An audio output unit that outputs the utterance character string included in the received transmission information by synthetic voice, and
The robot control system according to claim 1, further comprising a body driving unit that performs a gesture motion corresponding to the motion information included in the transmission information.
前記情報処理装置が、前記記憶部に、所定の情報を前記ロボットが理解可能な情報に変換する規則であるプロトコル情報を予め記憶し、
前記取得したイベント情報に含まれる制御コマンドが前記ロボットが理解できない情報の場合、前記制御コマンドを、前記プロトコル情報を利用して、前記ロボットが理解可能な制御内容に変換する情報変換部をさらに備え、
前記第1通信部が、前記変換された制御内容を有する送信情報を前記ロボットに送信することを特徴とする請求項1に記載のロボット制御システム。
The information processing device stores in advance protocol information, which is a rule for converting predetermined information into information that can be understood by the robot, in the storage unit.
When the control command included in the acquired event information is information that the robot cannot understand, an information conversion unit that converts the control command into control contents that the robot can understand by using the protocol information is further provided. ,
The robot control system according to claim 1, wherein the first communication unit transmits transmission information having the converted control content to the robot.
前記制御コマンドには、制御するロボットを特定する制御対象と、ロボットに与える指示を示した制御内容とが含まれることを特徴とする請求項1から3のいずれかに記載のロボット制御システム。 The robot control system according to any one of claims 1 to 3, wherein the control command includes a control target for specifying a robot to be controlled and a control content indicating an instruction given to the robot. 前記制御コマンドに含まれるロボットに与える指示を示した制御内容には、ロボットに発話させる発話文字列を示した発話情報と、ロボットの身体を動作させるための動作情報とが含まれることを特徴とする請求項4に記載のロボット制御システム。 The control content that indicates the instruction given to the robot included in the control command is characterized in that it includes utterance information indicating an utterance character string to be uttered by the robot and motion information for operating the body of the robot. The robot control system according to claim 4. 前記制御内容に含まれる発話情報に、所定の記号または文字によって発話内容を表現した指定変数を利用することを特徴とする請求項5に記載のロボット制御システム。 The robot control system according to claim 5, wherein a designated variable expressing the utterance content by a predetermined symbol or character is used for the utterance information included in the control content. 前記制御コマンドには、ロボットに接続された外部制御機器を特定する制御対象と、その外部制御機器に対する制御内容とが含まれることを特徴とする請求項1から3のいずれかに記載のロボット制御システム。 The robot control according to any one of claims 1 to 3, wherein the control command includes a control target that identifies an external control device connected to the robot and a control content for the external control device. system. 前記イベントには、操作担当者によって所定の選択入力がされる入力操作イベントと、所定の文字列が表示される表示イベントと、所定のタイマー設定時間が経過したことによるタイマーイベントが含まれることを特徴とする請求項1から7のいずれかに記載のロボット制御システム。 The event includes an input operation event in which a predetermined selection input is made by the person in charge of operation, a display event in which a predetermined character string is displayed, and a timer event due to the elapse of a predetermined timer set time. The robot control system according to any one of claims 1 to 7. ロボットの動作を制御するロボット制御システムの情報処理装置であって、
コンテンツを再生するコンテンツ再生部と、
前記コンテンツと、前記コンテンツを再生する時に発生するイベントと前記ロボットの動作を制御するための制御コマンドを対応付けた設定情報とを含む再生コンテンツ情報を予め記憶した記憶部と、
前記所定のコンテンツを再生中に、イベントが発生した場合に、前記再生コンテンツ情報に含まれる設定情報を利用して、発生したイベントに対応付けられた制御コマンドを取得し、前記発生したイベントと前記取得された制御コマンドを含むイベント情報を生成するイベント実行部と、
前記生成されたイベント情報を取得し、前記イベント情報に含まれる制御コマンドから、前記ロボットが理解可能な制御内容を有する送信情報を生成するロボット制御処理部と、
前記送信情報を前記ロボットに送信する通信部とを備えたことを特徴とする情報処理装置。
An information processing device for a robot control system that controls the movement of a robot.
The content playback unit that plays content and the content playback section
A storage unit that stores in advance playback content information including the content, an event that occurs when the content is played, and setting information associated with a control command for controlling the operation of the robot.
When an event occurs during playback of the predetermined content, a control command associated with the event that has occurred is acquired by using the setting information included in the playback content information, and the generated event and the event occur. an event executing unit for generating event information including the acquired control command,
A robot control processing unit that acquires the generated event information and generates transmission information having control contents that the robot can understand from the control commands included in the event information.
An information processing device including a communication unit that transmits the transmission information to the robot.
ロボットと、ロボットの動作を制御する情報処理装置とからなるロボット制御システムの制御方法であって、
前記情報処理装置が、
コンテンツを再生するコンテンツ再生ステップと、
前記コンテンツを再生中において、イベントが発生した場合に、予め記憶されている再生コンテンツ情報に含まれる前記コンテンツを再生する時に発生するイベントと前記ロボットの動作を制御するための制御コマンドを対応付けた設定情報を利用して、発生したイベントに対応付けられた制御コマンドを取得し、前記発生したイベントと前記取得された制御コマンドを含むイベント情報を生成するイベント実行ステップと、
前記生成されたイベント情報を取得し、前記イベント情報に含まれる制御コマンドから、前記ロボットが理解可能な制御内容を有する送信情報を生成するロボット制御処理ステップと、
前記送信情報を前記ロボットに送信する送信ステップとを備え、
前記ロボットが、
前記送信情報を受信する受信ステップと、
受信した前記送信情報に含まれる制御内容に基づいて、所定の動作を実行する動作実行ステップとを備えたことを特徴とするロボット制御システムの制御方法。
It is a control method of a robot control system consisting of a robot and an information processing device that controls the operation of the robot.
The information processing device
Content playback steps and content playback steps
When an event occurs during playback of the content, an event that occurs when the content included in the playback content information stored in advance is played is associated with a control command for controlling the operation of the robot. An event execution step that acquires a control command associated with an event that has occurred using the setting information and generates event information including the generated event and the acquired control command, and an event execution step.
A robot control processing step that acquires the generated event information and generates transmission information having control contents that the robot can understand from the control commands included in the event information.
It includes a transmission step of transmitting the transmission information to the robot.
The robot
A receiving step for receiving the transmission information and
A control method for a robot control system, which comprises an operation execution step for executing a predetermined operation based on a control content included in the received transmission information.
JP2017113500A 2017-06-08 2017-06-08 Robot control system Active JP6944817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017113500A JP6944817B2 (en) 2017-06-08 2017-06-08 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113500A JP6944817B2 (en) 2017-06-08 2017-06-08 Robot control system

Publications (2)

Publication Number Publication Date
JP2018207400A JP2018207400A (en) 2018-12-27
JP6944817B2 true JP6944817B2 (en) 2021-10-06

Family

ID=64958428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113500A Active JP6944817B2 (en) 2017-06-08 2017-06-08 Robot control system

Country Status (1)

Country Link
JP (1) JP6944817B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4934904B2 (en) * 2000-05-12 2012-05-23 富士通株式会社 Robot cooperation device, robot cooperation program storage medium, and robot cooperation program
JP4815940B2 (en) * 2005-08-17 2011-11-16 日本電気株式会社 Robot control system, robot apparatus, and robot control method
KR100645848B1 (en) * 2005-08-30 2006-11-14 삼성광주전자 주식회사 Mobile robot system and mobile robot remote control method

Also Published As

Publication number Publication date
JP2018207400A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
CN106873773B (en) Robot interaction control method, server and robot
JP6123121B2 (en) Voice control system and program
JP6725006B2 (en) Control device and equipment control system
JP5613978B2 (en) Presentation control system
JP6752870B2 (en) Methods and systems for controlling artificial intelligence devices using multiple wake words
JP2006208696A (en) Device, method, program, and recording medium for remotely controlling application for presentation
EP3686724A1 (en) Robot interaction method and device
JP2001229392A (en) Rational architecture for executing conversational character with communication of small number of messages
JP7283384B2 (en) Information processing terminal, information processing device, and information processing method
US20160294892A1 (en) Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus
CN106373566A (en) Data transmission control method and device
US20200276707A1 (en) Method and system for cloud-based programming and control of robotic platform
JP6973380B2 (en) Information processing device and information processing method
JP6944817B2 (en) Robot control system
JP2018170602A (en) Execution apparatus, information processing system, information processing method, and program
KR20230133864A (en) Systems and methods for handling speech audio stream interruptions
JP6624476B2 (en) Translation device and translation system
WO2017140153A1 (en) Voice control method and apparatus
JP7242248B2 (en) ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM THEREOF
CN111160318B (en) Electronic equipment control method and device
JP2985785B2 (en) Human motion dialogue system
JP2017158137A (en) Conference system
KR20110117449A (en) Voice recognition system using data collecting terminal
JP2003215707A (en) Presentation system
JP2009214235A (en) Autonomous action equipment control system for autonomous action equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6944817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150