JP2021083488A - Program and structure control system - Google Patents

Program and structure control system Download PDF

Info

Publication number
JP2021083488A
JP2021083488A JP2019212510A JP2019212510A JP2021083488A JP 2021083488 A JP2021083488 A JP 2021083488A JP 2019212510 A JP2019212510 A JP 2019212510A JP 2019212510 A JP2019212510 A JP 2019212510A JP 2021083488 A JP2021083488 A JP 2021083488A
Authority
JP
Japan
Prior art keywords
motion
state
setting
robot
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019212510A
Other languages
Japanese (ja)
Inventor
真史 原田
Masashi Harada
真史 原田
康仁 柳
Yasuhito Yanagi
康仁 柳
豊 澤村
Yutaka Sawamura
豊 澤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Co Ltd
Original Assignee
Bandai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Co Ltd filed Critical Bandai Co Ltd
Priority to JP2019212510A priority Critical patent/JP2021083488A/en
Publication of JP2021083488A publication Critical patent/JP2021083488A/en
Pending legal-status Critical Current

Links

Images

Abstract

To set easily a behavior to be taken by a structure such as a robot.SOLUTION: A program, which is a program for setting a behavior to be taken by a structure including a plurality of movable parts each having a drive part, allows a computer to execute processing for setting a static state of the structure, and processing for setting a motion state for changing continuously the state of the structure, by using a plurality of set static states.SELECTED DRAWING: Figure 5

Description

本発明は、プログラム及び構造体制御システムに関し、特にロボットの駆動制御技術に関する。 The present invention relates to a program and a structure control system, and more particularly to a robot drive control technique.

音声認識により動作するペット型のロボットがある(特許文献1)。 There is a pet-type robot that operates by voice recognition (Patent Document 1).

特開2001−071289号公報Japanese Unexamined Patent Publication No. 2001-071289

特許文献1に記載のロボットは、音声に係るコマンドを認識すると、予め定められた、対応する動作を行うよう構成されていたが、このような動作はユーザが所望する挙動ではない可能性があった。 The robot described in Patent Document 1 is configured to perform a predetermined corresponding motion when recognizing a command related to voice, but such a motion may not be the behavior desired by the user. It was.

本発明は、ロボット等の構造体にとらせる挙動を容易に設定可能なプログラム及び構造体制御システムを提供することを目的とする。 An object of the present invention is to provide a program and a structure control system that can easily set the behavior of a structure such as a robot.

本発明のプログラムは、駆動部を有する可動部位を複数備えた構造体にとらせる挙動を設定するプログラムであって、コンピュータに、構造体の静止状態を設定する処理と、設定された静止状態を複数用いることで、構造体の状態が連続的に変化する運動状態を設定する処理と、を実行させる。 The program of the present invention is a program for setting the behavior of a structure having a plurality of movable parts having a drive unit, and causes a computer to perform a process of setting a stationary state of the structure and a set stationary state. By using a plurality of them, a process of setting a motion state in which the state of the structure changes continuously is executed.

このような構成により本発明によれば、ロボット等の構造体にとらせる挙動を容易に設定することが可能となる。 According to the present invention, such a configuration makes it possible to easily set the behavior to be taken by a structure such as a robot.

本発明の実施形態及び変形例に係るロボット制御システムの構成を例示した図The figure which illustrated the structure of the robot control system which concerns on embodiment and modification of this invention. 本発明の実施形態及び変形例に係るロボット200の概略構成を例示した図The figure which illustrated the schematic structure of the robot 200 which concerns on embodiment and modification of this invention. 本発明の実施形態及び変形例に係るスマートフォン100の機能構成を例示したブロック図A block diagram illustrating the functional configuration of the smartphone 100 according to the embodiment and the modified example of the present invention. 本発明の実施形態及び変形例に係る制御用基板210の機能構成を例示したブロック図A block diagram illustrating the functional configuration of the control board 210 according to the embodiment and the modification of the present invention. 本発明の実施形態及び変形例に係るスマートフォン100で実行される制御アプリケーションのメイクモードにて提示される画面例を示した図The figure which showed the screen example presented in the make mode of the control application executed by the smartphone 100 which concerns on embodiment and modification of this invention. 本発明の実施形態及び変形例に係るスマートフォン100で実行される制御アプリケーションのメイクモードにて提示される画面例を示した別の図Another figure showing a screen example presented in the make mode of the control application executed by the smartphone 100 according to the embodiment and the modified example of the present invention. 本発明の実施形態及び変形例に係るスマートフォン100で実行される挙動構成処理を例示したフローチャートA flowchart illustrating the behavior configuration process executed by the smartphone 100 according to the embodiment and the modified example of the present invention. 本発明の実施形態及び変形例に係るスマートフォン100で実行される制御アプリケーションのコントローラモードにて提示される画面例を示した図The figure which showed the screen example presented in the controller mode of the control application executed by the smartphone 100 which concerns on embodiment and modification of this invention. 本発明の実施形態及び変形例に係るスマートフォン100で実行されるGUI編集処理を例示したフローチャートA flowchart illustrating a GUI editing process executed by the smartphone 100 according to the embodiment and the modification of the present invention. 本発明の実施形態及び変形例に係るロボット制御システムにおいてロボット200の挙動制御に係り実行される挙動制御処理を例示したフローチャートA flowchart illustrating the behavior control process executed in relation to the behavior control of the robot 200 in the robot control system according to the embodiment and the modification of the present invention. 本発明の変形例に係るスマートフォン100で実行される制御アプリケーションのメイクモードにて提示される画面例を示した図The figure which showed the screen example presented in the make mode of the control application executed by the smartphone 100 which concerns on the modification of this invention. 本発明の変形例に係るロボット制御システムで用いられるモーション情報のデータ構成を例示した図The figure which illustrated the data structure of the motion information used in the robot control system which concerns on the modification of this invention.

[実施形態]
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
[Embodiment]
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims, and not all combinations of features described in the embodiments are essential to the invention. Two or more of the plurality of features described in the embodiments may be arbitrarily combined. In addition, the same or similar configuration will be given the same reference number, and duplicate description will be omitted.

以下に説明する一実施形態は、構造体制御システムの一例としての、駆動可能な構造を有する可動部位を複数備えたロボットと、該ロボットの挙動制御に係る各種処理を実行可能なスマートフォンとを含むロボット制御システムに、本発明を適用した例を説明する。しかし、本発明は、駆動部を有する可動部位を複数備えた構造体と、該構造体にとらせる挙動を設定する端末とが通信接続可能に構成される構造体制御システムであれば適用可能であり、該システムを構成する機器は任意の機器で代替可能である。 One embodiment described below includes, as an example of a structure control system, a robot having a plurality of movable parts having a driveable structure, and a smartphone capable of executing various processes related to behavior control of the robot. An example in which the present invention is applied to a robot control system will be described. However, the present invention can be applied as long as it is a structure control system in which a structure having a plurality of movable parts having a drive unit and a terminal for setting the behavior to be taken by the structure can be communicated and connected. Yes, the devices that make up the system can be replaced by any device.

また、本明細書において、「可動部位」とは、駆動部を備え、該駆動部の駆動制御が行われた場合に外観の態様を変化させる機械的な動作が発生する、構造体の一部を構成する部位を指すものとする。対して「不動部位」とは、駆動部を備えず、外観の態様を変化させる機械的な動作が発生しない部位を指すものとする。なお、以下では、「部位」、「パーツ」等の文言を適宜採用して説明を行うが、これらの文言はいずれも構造体の一部を構成する物体を指すものであり、「可動部位」及び「不動部位」と差別化する意図で用いられるものではない。 Further, in the present specification, the "movable part" is a part of a structure including a drive unit and in which a mechanical operation that changes the appearance is generated when the drive control of the drive unit is performed. It shall refer to the part that constitutes. On the other hand, the "immovable part" refers to a part that does not have a driving unit and does not generate a mechanical operation that changes the appearance. In the following, terms such as "part" and "part" will be appropriately adopted for explanation, but all of these terms refer to objects that form a part of the structure and are "movable parts". And it is not used with the intention of differentiating it from the "immobile site".

《ロボット制御システムの構成》
図1は、本発明の実施形態に係るロボット制御システムの機能構成を示すブロック図である。
<< Configuration of robot control system >>
FIG. 1 is a block diagram showing a functional configuration of a robot control system according to an embodiment of the present invention.

ロボット制御システムは、本発明に係る端末としてのスマートフォン100と、構造体としてのロボット200とで構成される。ロボット制御システムによれば、ユーザはスマートフォン100において専用のアプリケーション(制御アプリケーション)を起動して操作を行うことで、ロボット200に所望の挙動をとらせることが可能となる。より詳しくは、スマートフォン100とロボット200(ロボット200が備える制御用基板210)とは、無線通信可能に構成されており、スマートフォン100においてロボット200の挙動開始に係る操作入力がなされると、対応する動作指示がスマートフォン100からロボット200に送信され、ロボット200において該動作指示に応じた各可動部位の動作制御(ロボット200の挙動制御)が行われる。 The robot control system includes a smartphone 100 as a terminal according to the present invention and a robot 200 as a structure. According to the robot control system, the user can make the robot 200 take a desired behavior by starting a dedicated application (control application) on the smartphone 100 and performing an operation. More specifically, the smartphone 100 and the robot 200 (control board 210 included in the robot 200) are configured to be capable of wireless communication, and correspond when an operation input related to the start of the behavior of the robot 200 is made in the smartphone 100. An operation instruction is transmitted from the smartphone 100 to the robot 200, and the robot 200 controls the operation of each movable part (behavior control of the robot 200) according to the operation instruction.

〈ロボット200の構造〉
ロボット200は、例えば図2に示されるように、人型の頭部、胴部、腕部、脚部に分離可能な複数の可動部位(パーツ)と、バックパック230として構成された不動部位と、を組み合わせて(機械的に接続して)一体とすることで、構成される。以下の説明では、ロボット制御システムは人型の形態であり、可動部位として、頭部、胴部、2つの腕部、及び2つの脚部が用いられるものとして説明するが、本発明の実施はこれに限られるものではない。これらの可動部位が一体となることによって形成される形態は、犬型や百足型等の他の動物型であってもよい。また可動部位は、生物の外観や機能を模したものである必要はなく、例えば胴部に対してキャタピラやタイヤ等を装着する態様を含むものであってよい。
<Structure of robot 200>
As shown in FIG. 2, for example, the robot 200 includes a plurality of movable parts (parts) that can be separated into a humanoid head, body, arms, and legs, and an immovable part configured as a backpack 230. , Are combined (mechanically connected) to form an integral unit. In the following description, the robot control system has a humanoid form, and the head, torso, two arms, and two legs are used as movable parts. It is not limited to this. The form formed by integrating these movable parts may be another animal type such as a dog type or a centipede type. Further, the movable part does not have to imitate the appearance and function of the living thing, and may include, for example, a mode in which a caterpillar, a tire, or the like is attached to the body.

人型のロボットの各部に接続可能な可動部位は、複数種類設けられており、ユーザはこれらを組み替えながら所望の外観のロボット200を形成することができる。また各可動部位には、本発明に係る駆動部としての、少なくとも1つのサーボモータ220が備えられており、該可動部位の外観の態様を変更可能に構成されている。サーボモータ220は、ロボット200の駆動時において回転動作を実現し、例えば肩や肘等の人型のロボット200が備える関節として機能する。本実施形態のロボットは、不動部位であるバックパック230に制御用基板210が内蔵されて構成されており、該制御用基板210に対して各可動部位に設けられたサーボモータ220が電気的に接続されることで、該サーボモータ220の駆動制御が可能となる。なお、バックパック230には、サーボモータ220は備えられておらず、可動部位のような外観の態様を変更する機能(変形機能)はない。 A plurality of types of movable parts that can be connected to each part of the humanoid robot are provided, and the user can form the robot 200 having a desired appearance while rearranging these. Further, each movable portion is provided with at least one servomotor 220 as a driving unit according to the present invention, and is configured so that the appearance of the movable portion can be changed. The servomotor 220 realizes a rotational operation when the robot 200 is driven, and functions as a joint included in the humanoid robot 200 such as a shoulder or an elbow. The robot of the present embodiment is configured by incorporating a control board 210 in a backpack 230 which is an immovable part, and a servomotor 220 provided in each movable part with respect to the control board 210 is electrically operated. By connecting, the drive control of the servomotor 220 becomes possible. The backpack 230 is not provided with the servomotor 220, and does not have a function (deformation function) of changing the appearance such as a movable part.

本実施形態のロボット制御システムでは、胴部のパーツは、他の全ての部位(頭部、腕部及び脚部)のパーツ及びバックパック230を、機械的に接続可能に構成されている。ここで、機械的に接続可能とは、接続する部位の各々をネジ等で固定することで連結させる態様や、組み合わせ可能に構成された構造を組み合わせる(嵌合等)態様を指し、特には当該接続により、一方の部位の駆動により他方の部位に動きの発生または動力の伝達を可能にならしめることを指す。対して、バックパック230は、胴部のパーツにのみ機械的に接続可能に構成されており、その他の部位のパーツには機械的に接続されない。 In the robot control system of the present embodiment, the body part is configured so that the parts of all other parts (head, arms and legs) and the backpack 230 can be mechanically connected. Here, "mechanically connectable" refers to a mode in which each of the connecting parts is connected by fixing with screws or the like, or a mode in which structures configured so as to be able to be combined are combined (fitting, etc.). By connecting, it means that the drive of one part enables the generation of movement or the transmission of power to the other part. On the other hand, the backpack 230 is configured to be mechanically connectable only to the parts of the body, and is not mechanically connected to the parts of other parts.

本実施形態のロボット200では、各可動部位に備えられているサーボモータ220の駆動制御を行うために、制御用基板210と各サーボモータ220とはケーブルによって接続される。このため、制御用基板210には当該電気的な接続用の端子(接続端子217)が備えられており、該端子と、各部位のサーボモータ220に設けられた端子と結線可能となっている。本実施形態のロボット200では、各可動部位に備えられる回路規模を縮小すべく、可動部位には制御用基板を設けず、バックパック230に備えられた制御用基板210と各サーボモータ220とを直接ケーブルによって結ばれる。しかしながら、本発明の実施はこれに限られるものではなく、各可動部位が通電用の回路を備え、可動部位及びバックパック230のそれぞれを機械的に接続する接合部に電気接点が設けられることで、バックパック230に対して可動部位が機械的に接続された際、あるいはバックパック230が機械的に接続された可動部位にさらに別の可動部位が機械的に接続された際に、これらが電気的に接続可能に構成されるものであってもよい。 In the robot 200 of the present embodiment, the control board 210 and each servomotor 220 are connected by a cable in order to control the drive of the servomotor 220 provided in each movable portion. Therefore, the control board 210 is provided with the terminal for electrical connection (connection terminal 217), and the terminal can be connected to the terminal provided on the servomotor 220 of each part. .. In the robot 200 of the present embodiment, in order to reduce the circuit scale provided in each movable part, a control board is not provided in the movable part, and the control board 210 provided in the backpack 230 and each servomotor 220 are provided. It is directly connected by a cable. However, the implementation of the present invention is not limited to this, and each movable part is provided with a circuit for energization, and an electric contact is provided at a joint portion that mechanically connects each of the movable part and the backpack 230. , When a movable part is mechanically connected to the backpack 230, or when yet another movable part is mechanically connected to the movable part to which the backpack 230 is mechanically connected, these are electric. It may be configured to be connectable.

〈スマートフォン100の機能構成〉
まず、本実施形態のロボット制御システムのスマートフォン100の機能構成について、図3のブロック図を用いて説明する。
<Functional configuration of smartphone 100>
First, the functional configuration of the smartphone 100 of the robot control system of the present embodiment will be described with reference to the block diagram of FIG.

スマートフォン100は、例えば携帯電話やスマートフォン等の汎用的な通信装置であってよく、所定のアプリケーションプログラムが実行されることで、本実施形態のゲームシステムのスマートフォン100として機能するものとする。 The smartphone 100 may be a general-purpose communication device such as a mobile phone or a smartphone, and functions as the smartphone 100 of the game system of the present embodiment by executing a predetermined application program.

制御部101は、例えばCPUであり、スマートフォン100が有する各ブロックの動作を制御する。具体的には制御部101は、例えば記録媒体102に記録されている各ブロックの動作プログラムや、ロボット200の挙動制御に係るアプリケーション(制御アプリケーション)プログラムを読み出し、メモリ103に展開して実行することにより各ブロックの動作を制御する。 The control unit 101 is, for example, a CPU and controls the operation of each block of the smartphone 100. Specifically, the control unit 101 reads, for example, an operation program of each block recorded on the recording medium 102 and an application (control application) program related to behavior control of the robot 200, expands the program into the memory 103, and executes the program. Controls the operation of each block.

記録媒体102は、例えば不揮発性メモリやHDD等の、恒久的にデータを保持可能な記録装置である。記録媒体102は、スマートフォン100が有する各ブロックの動作プログラムや制御アプリケーションに係るプログラムに加え、各ブロックの動作において必要となるパラメータや、制御アプリケーションによって構成された各種の情報を記録する。メモリ103は、例えば揮発性メモリ等の一時的なデータ記憶に使用される記憶装置である。メモリ103は、各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力されたデータ等を一時的に記憶する格納領域としても用いられる。 The recording medium 102 is a recording device such as a non-volatile memory or an HDD that can permanently hold data. The recording medium 102 records, in addition to the operation program of each block and the program related to the control application of the smartphone 100, the parameters required for the operation of each block and various information configured by the control application. The memory 103 is a storage device used for temporary data storage such as a volatile memory. The memory 103 is used not only as an expansion area for the operation program of each block, but also as a storage area for temporarily storing data and the like output in the operation of each block.

モーションDB104は、後述の、本発明に係る制御アプリケーションが提供するモーションメイク機能を利用して構成されたモーション、及び制御アプリケーションにプリセットとして用意されるモーションについて、これを参照するための情報を格納するデータベースである。 The motion DB 104 stores information for referring to a motion configured by using the motion make function provided by the control application according to the present invention and a motion prepared as a preset in the control application, which will be described later. It is a database.

表示制御部105は、スマートフォン100における情報提示を司る。表示制御部105は、例えば描画用チップ等の描画装置を含み、例えばLCD等であってよい表示部110に表示させる画面を生成する際には所定の描画処理を行う。本実施形態のロボット制御システムでは、表示制御部105は、主として制御アプリケーションにおいてユーザに提供される各種GUIや画面の提示に係る表示制御を行う。本実施形態ではスマートフォン100における情報提示は、表示部110のみを用いてなされる態様について説明するが、音出力や触覚提示等、表示以外の情報提示手段が用いられるものであってもよいことは言うまでもない。 The display control unit 105 controls the presentation of information on the smartphone 100. The display control unit 105 includes a drawing device such as a drawing chip, and performs a predetermined drawing process when generating a screen to be displayed on the display unit 110 which may be an LCD or the like. In the robot control system of the present embodiment, the display control unit 105 mainly performs display control related to the presentation of various GUIs and screens provided to the user in the control application. In the present embodiment, the mode in which the information presentation on the smartphone 100 is performed using only the display unit 110 will be described, but information presentation means other than the display such as sound output and tactile presentation may be used. Needless to say.

操作入力部106は、例えば決定入力用の操作部材や各種センサ等の、スマートフォン100が有するユーザインタフェースである。操作入力部106は、操作部材やセンサに対する操作入力がなされたことを検出すると、該操作入力に対応する制御信号を制御部101に出力する。本実施形態では操作入力部106は物理的な操作部材に加え、例えば表示部110の画面上になされたタッチ操作を検出するタッチ操作検出センサを含むものとする。 The operation input unit 106 is a user interface of the smartphone 100, such as an operation member for determination input and various sensors. When the operation input unit 106 detects that an operation input has been made to the operation member or the sensor, the operation input unit 106 outputs a control signal corresponding to the operation input to the control unit 101. In the present embodiment, the operation input unit 106 includes, for example, a touch operation detection sensor that detects a touch operation performed on the screen of the display unit 110 in addition to the physical operation member.

通信部107は、スマートフォン100が有する外部装置との通信インタフェースである。本実施形態では通信部107は、ロボット200が備える後述の制御用基板210との間で機器間通信を行い、動作指示の送信、ロボット200が備える後述の外界センサ221の検出結果の受信等を行う。また通信部107は、不図示のネットワークを介して外部機器と接続し、情報の送受信が可能に構成されていてもよい。 The communication unit 107 is a communication interface with an external device included in the smartphone 100. In the present embodiment, the communication unit 107 performs inter-device communication with the control board 210 included in the robot 200, which will be described later, transmits an operation instruction, receives the detection result of the external sensor 221 included in the robot 200, which will be described later, and the like. Do. Further, the communication unit 107 may be configured to be able to transmit and receive information by connecting to an external device via a network (not shown).

〈制御用基板210の機能構成〉
次に、本実施形態のロボット制御システムにおいて、ロボット200のバックパック230が備える制御用基板210の機能構成について、図4のブロック図を用いて説明する。なお、制御用基板210が備える機能構成において、スマートフォン100と同様の機能を担う構成については、「基板」の接頭文字を付して識別する。
<Functional configuration of control board 210>
Next, in the robot control system of the present embodiment, the functional configuration of the control board 210 included in the backpack 230 of the robot 200 will be described with reference to the block diagram of FIG. In the functional configuration of the control board 210, a configuration having the same function as the smartphone 100 is identified by adding a prefix of "board".

基板制御部211は、例えばCPU、ROM、RAMで構成されるマイクロコンピュータであり、制御用基板210の各ブロックの動作を制御する。具体的には基板制御部211のCPUは、ROMに記録された各ブロックの動作プログラムを読み出し、RAMに展開して実行することにより各ブロックの動作を制御する。 The board control unit 211 is, for example, a microcomputer composed of a CPU, a ROM, and a RAM, and controls the operation of each block of the control board 210. Specifically, the CPU of the board control unit 211 controls the operation of each block by reading the operation program of each block recorded in the ROM, expanding it into the RAM, and executing it.

基板メモリ212は、本実施形態のロボット200の挙動に係る各サーボモータ220の駆動制御に用いられる情報(後述のモーション情報)を格納する、恒久的な記録が可能に構成された記録媒体である。説明を簡単にすべく、本実施形態の制御用基板210は、制御用基板210の各ブロックの動作プログラムを記録するROMとは別に、基板メモリ212を有するものとして説明するが、本発明の実施はこれに限られるものではない。 The substrate memory 212 is a recording medium configured to enable permanent recording, which stores information (motion information described later) used for driving control of each servomotor 220 related to the behavior of the robot 200 of the present embodiment. .. For the sake of simplicity, the control board 210 of the present embodiment will be described as having a board memory 212 in addition to the ROM for recording the operation program of each block of the control board 210. Is not limited to this.

検出部213は、ロボット200の周囲に障害物が存在するか否かの検出を行う。本実施形態のロボット200では、胴部の可動部位に外界センサ221が備えられており、検出部213は、該外界センサ221の検出結果を取得する。即ち、胴部の可動部位の備えるサーボモータ220及び外界センサ221は、制御用基板210と電気的に接続されており、検出部213はこれらを接続する配線を介して検出結果を取得する。 The detection unit 213 detects whether or not there is an obstacle around the robot 200. In the robot 200 of the present embodiment, the external world sensor 221 is provided on the movable portion of the body portion, and the detection unit 213 acquires the detection result of the external world sensor 221. That is, the servomotor 220 and the external sensor 221 provided in the movable portion of the body portion are electrically connected to the control board 210, and the detection unit 213 acquires the detection result via the wiring connecting them.

駆動制御部214は、例えばモータドライバ等であり、サーボモータ220の駆動制御を行う。本実施形態では駆動制御部214は、スマートフォン100から受信された動作指示に対応する挙動をロボット200に行わせるべく、電気的に接続された各可動部位のサーボモータ220の回転動作を制御する。 The drive control unit 214 is, for example, a motor driver or the like, and controls the drive of the servomotor 220. In the present embodiment, the drive control unit 214 controls the rotational operation of the servomotor 220 of each electrically connected movable part so that the robot 200 can perform the behavior corresponding to the operation instruction received from the smartphone 100.

音再生部215は、例えばサウンドチップ等の音信号の出力を行う回路を含み、スピーカ222からの音出力を制御する。音再生部215は、例えばROMに予め記憶された音データをRAMに展開し、例えばゲームの進行状況に応じて、予め記録媒体102に記録された音データのうちから出力を行う音データを確定し、これを電気的な音信号に変換(D/A変換)してスピーカ222に出力することで、育成ゲームに係る音提示を行う。スピーカ222は、入力された音信号に基づいて振動を生じさせ、音波を出力する。本実施形態では、スピーカ222はバックパック230に内蔵されているものとして説明するが、外界センサ221と同様に可動部位に備えられる場合は別途電気配線による接続が必要となることは言うまでもない。 The sound reproduction unit 215 includes a circuit that outputs a sound signal such as a sound chip, and controls the sound output from the speaker 222. For example, the sound reproduction unit 215 expands the sound data stored in advance in the ROM into the RAM, and determines the sound data to be output from the sound data recorded in the recording medium 102 in advance according to the progress of the game, for example. Then, this is converted into an electric sound signal (D / A conversion) and output to the speaker 222 to present the sound related to the training game. The speaker 222 generates vibration based on the input sound signal and outputs a sound wave. In the present embodiment, the speaker 222 will be described as being built in the backpack 230, but it goes without saying that if the speaker 222 is provided in a movable part like the external sensor 221, it needs to be separately connected by electrical wiring.

基板通信部216は、制御用基板210が備える外部装置との通信インタフェースである。本実施形態のロボット制御システムでは、スマートフォン100において起動されている制御アプリケーションの状態に応じて、スマートフォン100と制御用基板210との通信接続が変化する。基板通信部216は、スマートフォン100から接続要求を受信したことに応じて通信接続を確立し、制御アプリケーションの状態に応じて該接続を維持するか切断するかの制御を行う。 The board communication unit 216 is a communication interface with an external device included in the control board 210. In the robot control system of the present embodiment, the communication connection between the smartphone 100 and the control board 210 changes according to the state of the control application activated in the smartphone 100. The board communication unit 216 establishes a communication connection in response to receiving a connection request from the smartphone 100, and controls whether to maintain or disconnect the connection according to the state of the control application.

《ロボット200にとらせる挙動の構成》
以下、本実施形態のロボット制御システムにおいて、ロボット200にとらせる挙動の構成方法について説明する。
<< Composition of behavior to be taken by robot 200 >>
Hereinafter, in the robot control system of the present embodiment, a method of configuring the behavior to be taken by the robot 200 will be described.

スマートフォン100で実行される制御アプリケーションには、ロボット200が有する各サーボモータ220をいずれの駆動状態とするかを構成するメイク(make)モードが設けられる。該メイクモードでは、ユーザは、ロボット200にとらせる静止状態(ポーズ)及び運動状態(モーション)を構成することができる。 The control application executed by the smartphone 100 is provided with a make mode that constitutes which drive state each servomotor 220 of the robot 200 is to be in. In the make mode, the user can configure a stationary state (pause) and a moving state (motion) to be taken by the robot 200.

〈ポーズメイク機能〉
メイクモードのポーズメイク機能では、例えば図5(a)の画面に示されるように、ロボット200が備える各サーボモータ220の制御目標値をユーザが指定することで、所望のポーズを示す情報(ポーズ情報)を構成することができる。
<Pose makeup function>
In the pose make function of the make mode, for example, as shown in the screen of FIG. 5A, the user specifies a control target value of each servomotor 220 included in the robot 200, so that information (pause) indicating a desired pose is indicated. Information) can be configured.

図5(a)の画面例では、1つのサーボモータ220に対して1つのスライダ501が設けられ、ロボット200が備えるサーボモータ220の数だけ並んで表示されている。ユーザは、各スライダ501の値を変更することで、該当のサーボモータ220の回転角を調整することができる。図の例では、サーボモータ220の初期値(通常状態での値(例えばロボット200の直立時))が7500に設定され、ユーザは0〜15000の15001段階でサーボモータ220の制御目標値を設定することが可能な態様が示されている。各サーボモータ220の制御目標値の設定後は、保存ボタン502に対する操作入力がなされたことに応じて、該制御目標値群を含んだポーズ情報が構成され、例えば記録媒体102に格納される。 In the screen example of FIG. 5A, one slider 501 is provided for one servomotor 220, and the number of servomotors 220 included in the robot 200 is displayed side by side. The user can adjust the rotation angle of the corresponding servomotor 220 by changing the value of each slider 501. In the example of the figure, the initial value of the servomotor 220 (value in the normal state (for example, when the robot 200 stands upright)) is set to 7500, and the user sets the control target value of the servomotor 220 in 15001 steps from 0 to 15000. The aspects that can be done are shown. After setting the control target value of each servomotor 220, pause information including the control target value group is configured according to the operation input to the save button 502, and is stored in, for example, the recording medium 102.

ここで、設定される制御目標値は、該当のサーボモータ220に係る駆動制御を行う際に、該サーボモータ220の備える不図示のエンコーダの出力値を変更する目標として参照される値であり、駆動制御の開始時の出力値によらず絶対的に定められる数値であるものとする。またポーズ情報の格納は、少なくともいずれかのサーボモータ220の駆動状態が、初期値と異なる状態となる制御目標値が設定されていることを条件とする。 Here, the control target value set is a value referred to as a target for changing the output value of an encoder (not shown) included in the servomotor 220 when performing drive control related to the servomotor 220. It shall be a value that is absolutely determined regardless of the output value at the start of drive control. Further, the storage of the pause information is conditioned on the condition that a control target value is set so that the driving state of at least one of the servomotors 220 is different from the initial value.

また制御アプリケーションは、ロボット200自体を操作することでも、ロボット200にとらせるポーズが構成可能であってよい。この場合、ユーザは、ロボット200の各可動部位を所望の外観となるよう調整(サーボモータ220の回転角を任意に変更)し、図5(a)に示されるスキャンボタン503に対して操作入力を行うことで、ロボット200が備える各サーボモータ220の制御値(駆動制御を行う場合の駆動状態)を、各スライダ501に反映させることができる。該機能により、サーボモータ220の駆動制御に明るくないユーザであっても、容易に所望のポーズを構成することが可能となる。 Further, the control application may be able to configure a pose to be taken by the robot 200 by operating the robot 200 itself. In this case, the user adjusts each movable part of the robot 200 so as to have a desired appearance (arbitrarily changes the rotation angle of the servomotor 220), and inputs an operation to the scan button 503 shown in FIG. 5A. By performing the above, the control value (drive state when performing drive control) of each servomotor 220 included in the robot 200 can be reflected in each slider 501. With this function, even a user who is not familiar with the drive control of the servomotor 220 can easily configure a desired pose.

制御アプリケーションは、このように構成したポーズについて、ポーズ情報の保存後あるいは保存前の任意のタイミングで、実際にロボット200に反映させて確認可能であってよい。この場合、スマートフォン100から制御用基板210に対して各サーボモータ220をポーズ情報に対応する駆動状態とするための動作指示が送出され、駆動制御部214がこれに応じて駆動制御を行うことで、ロボット200を該当の状態として提示することができる。 The control application may be able to confirm the pose configured in this way by actually reflecting it on the robot 200 at an arbitrary timing after or before saving the pose information. In this case, the smartphone 100 sends an operation instruction to the control board 210 to put each servomotor 220 into a drive state corresponding to the pause information, and the drive control unit 214 performs drive control accordingly. , The robot 200 can be presented as the corresponding state.

〈モーションメイク機能〉
メイクモードのモーションメイク機能では、ポーズメイク機能によって構成された複数種類のポーズを組み合わせることで、これらのポーズを遷移するモーションを示す情報(モーション情報)を構成することができる。
<Motion makeup function>
In the motion make function of the make mode, information (motion information) indicating the motion of transitioning these poses can be configured by combining a plurality of types of poses configured by the pose make function.

モーションメイク機能に係り提示される画面は、例えば図5(b)に示されるように、既に構成されたポーズ情報の各々を示すポーズアイコン511を一覧表示するポーズ選択領域512と、構成するモーションにおいて経由するポーズ群を示すモーション構成領域513を含む。ポーズ選択領域512に配置されるポーズアイコン511の各々は、表示部110に対するタッチ操作で選択操作が可能に構成されており、例えばユーザは所望のポーズアイコン511を選択することで、モーション構成領域513のタイムライン514上に配置できる。 The screens presented in relation to the motion make function are, for example, as shown in FIG. 5B, in a pose selection area 512 displaying a list of pose icons 511 indicating each of the already configured pose information, and in the configured motion. It includes a motion constituent area 513 indicating a group of poses to pass through. Each of the pose icons 511 arranged in the pose selection area 512 is configured so that the selection operation can be performed by touching the display unit 110. For example, the user selects a desired pose icon 511 to form a motion configuration area 513. It can be placed on the timeline 514 of.

タイムライン514には、複数のポーズアイコン511が配置可能なマスが設けられており、選択されたポーズアイコン511は、例えば選択された順序で、左端のマスから順次右のマスに位置を移動しながら配置される。タイムライン514は、構成するモーションにおいてロボット200が遷移するポーズの遷移順を示しており、該モーションは、左端のマスに配置されたポーズアイコン511に係るポーズから開始して、順次右のマスに配置されたポーズアイコン511に係るポーズに遷移するよう補間して構成される。タイムライン514上において、配置されたポーズアイコン511の各々は、削除、及び任意の順序(遷移順)に変更することが可能に構成されているものとする。 The timeline 514 is provided with squares on which a plurality of pose icons 511 can be arranged, and the selected pose icons 511 move from the leftmost square to the right square in the selected order, for example. Is placed while. The timeline 514 shows the transition order of the poses in which the robot 200 transitions in the constituent motions, and the motion starts from the pose related to the pose icon 511 arranged in the leftmost cell and sequentially moves to the right cell. It is configured by interpolating so as to transition to the pose related to the arranged pose icon 511. It is assumed that each of the arranged pose icons 511 on the timeline 514 can be deleted and changed in an arbitrary order (transition order).

またモーションメイク機能では、タイムライン514の隣接するマスに配置された2つのポーズアイコン511に対して、これらポーズアイコン511に係るポーズを遷移する際の速度、及び遷移時にスピーカ222から出力される音の少なくともいずれかを設定可能に構成される。これらの設定は、例えば図6に示されるような画面にて行われるものであってよい。図6の例では、ポーズアイコン601で示される遷移元のポーズからポーズアイコン602で示される遷移先のポーズへの遷移について、その遷移速度を設定する速度変更領域603と、遷移中に再生する音(SE)の再生タイミングを設定するタイミング変更領域604とを含む。速度変更領域603及びタイミング変更領域604内にタッチ操作がなされると、領域中の水平位置に応じて、それぞれ遷移速度、再生タイミングが設定される。 In the motion make function, the speed at which the poses related to the pose icons 511 are transitioned to the two pose icons 511 arranged in the adjacent squares of the timeline 514, and the sound output from the speaker 222 at the time of the transition. At least one of is configurable. These settings may be made on a screen as shown in FIG. 6, for example. In the example of FIG. 6, for the transition from the transition source pose indicated by the pose icon 601 to the transition destination pose indicated by the pose icon 602, the speed change area 603 for setting the transition speed and the sound to be reproduced during the transition. (SE) includes a timing change area 604 for setting the reproduction timing. When a touch operation is performed in the speed change area 603 and the timing change area 604, the transition speed and the reproduction timing are set according to the horizontal position in the area, respectively.

ここで、本実施形態では遷移速度は、サーボモータ220の駆動速度(単位時間当たりの回転量)であるものとして説明するが、本発明の実施はこれに限られるものではない。本実施形態の制御アプリケーションでは、遷移速度と再生タイミングは7段階で設定可能であるものとし、タッチ操作が入力された水平座標に応じて、いずれの段階とするかの判断がなされる。 Here, in the present embodiment, the transition speed will be described as the driving speed (rotation amount per unit time) of the servomotor 220, but the implementation of the present invention is not limited to this. In the control application of the present embodiment, it is assumed that the transition speed and the reproduction timing can be set in seven stages, and it is determined which stage is to be set according to the horizontal coordinates in which the touch operation is input.

再生される音データの選択は、音選択ボタン605に対する操作入力を契機に提示される、音データ一覧画面(不図示)を介して行われるものであってよい。該一覧画面では、例えば音データの選択、テスト再生、選択決定が可能に構成され、選択決定がなされた場合には、図6の画面の音選択ボタン605に係る表記が、図示される、未選択を示す「EMPTY」から音データの識別名に変更されるものであってよい。 The sound data to be reproduced may be selected via the sound data list screen (not shown) presented when the operation input to the sound selection button 605 is performed. On the list screen, for example, sound data selection, test reproduction, and selection decision are possible, and when the selection decision is made, the notation related to the sound selection button 605 on the screen of FIG. 6 is illustrated, not yet. It may be changed from "EMPTY" indicating the selection to the identification name of the sound data.

モーションの構成後は、保存ボタン515に対する操作入力がなされたことに応じて、タイムライン514に配置されたポーズアイコン511と各ポーズアイコン511について設定された遷移速度及び音出力の情報に基づいてモーション情報が生成され、例えば記録媒体102に格納される。またこのとき、構成したモーション情報について、ユーザが識別するためにモーション名の入力を受け付けるものであってよい。 After the motion is configured, the motion is based on the pose icon 511 arranged on the timeline 514 and the transition speed and sound output information set for each pose icon 511 in response to the operation input to the save button 515. Information is generated and stored, for example, in the recording medium 102. Further, at this time, the input of the motion name may be accepted for the user to identify the configured motion information.

本実施形態ではこのようなモーションメイク機能により構成されるモーション情報は、例えば図12に示されるように、モーションを識別するモーションID1201に関連付けて、該モーションが開始された後に、ロボット200に生じるポーズ遷移を時系列で示した駆動用情報1202と、ロボット200における音出力を時系列で示した音出力用情報1203とを記録したものとする。ここで、駆動用情報1202は、該モーション中に遷移するポーズの数を示す遷移数1211と、これら遷移するポーズの各々について、各サーボモータ220の制御目標値1221及び該ポーズをとらせるタイミング(開始からの経過時間)を示すタイミング情報1222とを含んで構成される。また、音出力用情報1203は、該モーション中に再生される音データの数を示す再生数1231と、再生される音データを識別する音データID1241及び該音データの再生タイミング(開始からの経過時間)を示すタイミング情報1242を含んで構成される。そして、このように構成されたモーション情報は、予めスマートフォン100から制御用基板210に伝送され、基板メモリ212に格納されるものとする。 In the present embodiment, the motion information configured by such a motion make function is associated with the motion ID 1201 that identifies the motion, as shown in FIG. 12, for example, and the pose that occurs in the robot 200 after the motion is started. It is assumed that the drive information 1202 showing the transition in chronological order and the sound output information 1203 showing the sound output in the robot 200 in chronological order are recorded. Here, the drive information 1202 includes a transition number 1211 indicating the number of poses that transition during the motion, a control target value 1221 of each servomotor 220, and a timing at which the pose is taken (for each of these transition poses). It is configured to include timing information 1222 indicating (elapsed time from the start). Further, the sound output information 1203 includes a reproduction number 1231 indicating the number of sound data reproduced during the motion, a sound data ID 1241 for identifying the reproduced sound data, and a reproduction timing (elapsed from the start) of the sound data. It is configured to include timing information 1242 indicating time). Then, the motion information configured in this way is transmitted from the smartphone 100 to the control board 210 in advance and stored in the board memory 212.

即ち、構成したモーションをロボット200に行わせることをユーザが所望する場合には、該当のモーションのモーションIDが動作指示としてスマートフォン100から送出されることで、対応するロボット200の駆動指示が行われる。従って、モーションメイク機能において構成されたモーションについては、該モーションに係るモーションIDの情報及び該モーションについてユーザが設定したモーション名の情報が、モーションDB104に格納される。 That is, when the user desires the robot 200 to perform the configured motion, the motion ID of the corresponding motion is sent from the smartphone 100 as an operation instruction, so that the corresponding robot 200 is instructed to drive. .. Therefore, for the motion configured by the motion make function, the information of the motion ID related to the motion and the information of the motion name set by the user for the motion are stored in the motion DB 104.

制御アプリケーションは、このように構成したモーション情報について、ポーズ情報と同様に任意のタイミングで、実際にロボット200に反映させて確認可能であってよい。この場合、スマートフォン100から制御用基板210に対して、モーション情報と該モーション情報に係るモーションをロボット200に行わせる動作指示とが送出され、駆動制御部214及び音再生部215がこれに応じて動作することができる。 The control application may be able to confirm the motion information configured in this way by actually reflecting it on the robot 200 at an arbitrary timing as in the pose information. In this case, the smartphone 100 sends motion information and an operation instruction for causing the robot 200 to perform a motion related to the motion information to the control board 210, and the drive control unit 214 and the sound reproduction unit 215 respond accordingly. Can work.

以上、ポーズメイク機能及びモーションメイク機能を利用して新規に情報(ポーズ情報、モーション情報)を構成する例について説明したが、既に構成された情報を、同様のGUIを用いて編集、更新可能に構成されるものであってよいことは言うまでもない。 The example of newly configuring information (pause information, motion information) using the pose make function and the motion make function has been described above, but the already configured information can be edited and updated using the same GUI. It goes without saying that it may be composed.

《挙動構成処理》
以下、本実施形態のスマートフォン100で実行される挙動構成処理について、図7のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えば記録媒体102に記憶されている対応する処理プログラムを読み出し、メモリ103に展開して実行することにより実現することができる。なお、本挙動構成処理は、例えば制御アプリケーションにおいてメイクモードが実行され、ロボット200の挙動の新規構成に係る指示がなされた際に開始されるものとして説明する。
<< Behavior configuration processing >>
Hereinafter, specific processing will be described with reference to the flowchart of FIG. 7 regarding the behavior configuration processing executed by the smartphone 100 of the present embodiment. The process corresponding to the flowchart can be realized by the control unit 101 reading, for example, the corresponding processing program stored in the recording medium 102, expanding it into the memory 103, and executing the process. It should be noted that this behavior configuration process will be described as being started when, for example, a make mode is executed in a control application and an instruction relating to a new configuration of the behavior of the robot 200 is given.

S701で、制御部101は、メイクモードのうちのポーズメイク機能とモーションメイク機能のいずれが選択されたかを判断する。ポーズメイク機能とモーションメイク機能の選択は、例えば挙動の新規構成に係る指示がなされたことに応じて提示される構成種類の選択画面において、いずれの機能が選択されたか否かに応じて判断されるものであってよい。制御部101は、ポーズメイク機能が選択されたと判断した場合は処理をS702に移し、モーションメイク機能が選択されたと判断した場合は処理をS707に移す。 In S701, the control unit 101 determines which of the pose make function and the motion make function in the make mode is selected. The selection of the pose make function and the motion make function is determined according to which function is selected on the configuration type selection screen presented in response to the instruction regarding the new configuration of the behavior, for example. It may be something. When the control unit 101 determines that the pose make function is selected, the process is transferred to S702, and when it is determined that the motion make function is selected, the control unit 101 shifts the process to S707.

S702で、表示制御部105は制御部101の制御の下、構成するポーズに係る各サーボモータ220の制御目標値の設定を受け付ける画面(図5(a))を生成し、表示部110に表示させる。このとき、該画面において各スライダ501が指し示す値(制御目標値)の情報(一時ポーズ情報)は、ポーズ情報と同様の構成で、例えばメモリ103に格納されているものであってよい。該一時ポーズ情報の初期値は、例えばロボット200の直立時における各サーボモータ220の駆動状態であってよい。表示制御部105は、メモリ103に格納されている一時ポーズ情報を参照して、制御目標値の設定を受け付ける画面の生成を行う。 In S702, under the control of the control unit 101, the display control unit 105 generates a screen (FIG. 5 (a)) for receiving the setting of the control target value of each servomotor 220 related to the pose to be configured, and displays it on the display unit 110. Let me. At this time, the information (temporary pause information) of the value (control target value) pointed to by each slider 501 on the screen may have the same configuration as the pause information and may be stored in, for example, the memory 103. The initial value of the temporary pause information may be, for example, the driving state of each servomotor 220 when the robot 200 stands upright. The display control unit 105 refers to the temporary pause information stored in the memory 103 to generate a screen for accepting the setting of the control target value.

S703で、制御部101は、いずれかのスライダ501において制御目標値の変更に係る操作入力がなされたか否かを判断する。制御部101は、制御目標値の変更に係る操作入力がなされたと判断した場合は処理をS704に移し、なされていないと判断した場合は処理をS705に移す。 In S703, the control unit 101 determines whether or not an operation input related to the change of the control target value has been made on any of the sliders 501. The control unit 101 shifts the process to S704 when it determines that the operation input related to the change of the control target value has been made, and shifts the process to S705 when it determines that the operation input has not been made.

S704で、制御部101は、なされた変更に係る操作入力に基づいて、一時ポーズ情報のうちの該当のスライダ501に対応付けられたサーボモータ220の制御目標値の情報を変更し、処理をS702に戻す。 In S704, the control unit 101 changes the information of the control target value of the servomotor 220 associated with the corresponding slider 501 in the temporary pause information based on the operation input related to the change made, and performs the process in S702. Return to.

S703において制御目標値の変更に係る操作入力がなされていないと判断した場合、制御部101はS705で、保存ボタン502に対する操作入力がなされたか否かを判断する。制御部101は、保存ボタン502に対する操作入力がなされたと判断した場合は処理をS706に移し、なされていないと判断した場合は処理をS702に戻す。 When it is determined in S703 that the operation input related to the change of the control target value has not been made, the control unit 101 determines in S705 whether or not the operation input for the save button 502 has been made. When the control unit 101 determines that the operation input for the save button 502 has been performed, the control unit 101 shifts the process to S706, and when it determines that the operation input has not been performed, the control unit 101 returns the process to S702.

S706で、制御部101は、ポーズ情報を構成して記録媒体102に格納し、本挙動構成処理を完了する。 In S706, the control unit 101 configures the pause information and stores it in the recording medium 102, and completes the behavior configuration process.

一方、S701においてモーションメイク機能が選択されたと判断した場合、表示制御部105は制御部101の制御の下、S707で、構成するモーションに係るポーズ遷移の設定を受け付ける画面(図5(b))を生成し、表示部110に表示させる。このとき、ポーズ選択領域512に配置されるポーズアイコン511は、記録媒体102に格納されている(ユーザにより構成された、または予め設けられた)ポーズ情報に基づいて決定される。またタイムライン514の各マスに配置されるポーズアイコン511の情報は、モーション情報と同様の構成であり、例えば一時モーション情報としてメモリ103に格納されるものであってよい。該一時モーション情報は、初期化時にはいずれのポーズを示すポーズ情報も含まれていないものとする。 On the other hand, when it is determined in S701 that the motion make function is selected, the display control unit 105 receives the setting of the pose transition related to the constituent motion in S707 under the control of the control unit 101 (FIG. 5 (b)). Is generated and displayed on the display unit 110. At this time, the pose icon 511 arranged in the pose selection area 512 is determined based on the pose information (configured by the user or provided in advance) stored in the recording medium 102. Further, the information of the pause icon 511 arranged in each cell of the timeline 514 has the same configuration as the motion information, and may be stored in the memory 103 as temporary motion information, for example. It is assumed that the temporary motion information does not include pose information indicating any pose at the time of initialization.

S708で、制御部101は、タイムライン514に対して新たなポーズアイコン511を配置する操作入力がなされたか否かを判断する。制御部101は、タイムライン514に対して新たなポーズアイコン511を配置する操作入力がなされたと判断した場合は処理をS709に移し、なされていないと判断した場合は処理をS710に移す。 In S708, the control unit 101 determines whether or not an operation input for arranging a new pause icon 511 has been made with respect to the timeline 514. The control unit 101 shifts the process to S709 when it determines that the operation input for arranging the new pause icon 511 has been made with respect to the timeline 514, and shifts the process to S710 when it determines that the operation input has not been made.

S709で、制御部101は、なされた新たなポーズアイコン511の配置に係る操作入力に基づいて、一時モーション情報の駆動用情報1202について、遷移数1211を1増加させて更新すると共に、配置されたポーズアイコン511に係る情報(制御目標値1221及びタイミング情報1222)を追加し、処理をS707に戻す。 In S709, the control unit 101 updates the temporary motion information driving information 1202 by increasing the number of transitions by 1 and arranges them based on the operation input related to the arrangement of the new pause icon 511. Information related to the pause icon 511 (control target value 1221 and timing information 1222) is added, and the process returns to S707.

S708において新たなポーズアイコン511の配置に係る操作入力がなされていないと判断した場合、制御部101はS710で、既にタイムライン514に配置されているポーズアイコン511の配置順を異ならせる操作入力がなされたか否かを判断する。制御部101は、ポーズアイコン511の配置順を異ならせる操作入力がなされたと判断した場合は処理をS711に移し、なされていないと判断した場合は処理をS712に移す。 When it is determined in S708 that the operation input related to the arrangement of the new pose icon 511 has not been made, the control unit 101 receives the operation input in S710 to change the arrangement order of the pose icons 511 already arranged on the timeline 514. Determine if it was done. The control unit 101 shifts the process to S711 when it determines that the operation input for changing the arrangement order of the pause icons 511 has been performed, and shifts the process to S712 when it determines that the operation input has not been performed.

S711で、制御部101は、なされたポーズアイコン511の配置順の変更に係る操作入力に基づいて、一時モーション情報の駆動用情報1202の変更(制御目標値1221の入れ替え及びタイミング情報1222の変更)を行って処理をS707に戻す。 In S711, the control unit 101 changes the driving information 1202 of the temporary motion information (replacement of the control target value 1221 and change of the timing information 1222) based on the operation input related to the change of the arrangement order of the pause icons 511. Is performed to return the process to S707.

S710においてポーズアイコン511の配置順を異ならせる操作入力がなされていないと判断した場合、制御部101はS712で、タイムライン514に隣接して配置されている2つのポーズアイコン511について、遷移速度または音再生タイミングの編集に係る操作入力がなされたか否かを判断する。制御部101は、遷移速度または音再生タイミングの編集に係る操作入力がなされたと判断した場合は処理をS713に移し、なされていないと判断した場合は処理をS714に移す。 When it is determined in S710 that the operation input for changing the arrangement order of the pause icons 511 is not made, the control unit 101 determines in S712 that the transition speed or the transition speed or the transition speed or the two pause icons 511 arranged adjacent to the timeline 514 It is determined whether or not the operation input related to the editing of the sound reproduction timing has been made. The control unit 101 shifts the process to S713 when it determines that the operation input related to the editing of the transition speed or the sound reproduction timing has been performed, and shifts the process to S714 when it determines that the operation input has not been performed.

S713で、制御部101は、遷移速度及び音再生タイミングの編集用画面(図6)を表示させるよう表示制御部105を制御し、遷移速度及び音再生タイミングの編集を受け付ける。本実施形態では当該処理の詳細は省略するが、制御部101は、上述したように遷移速度または音再生タイミングの変更に係りなされた操作入力に基づいて、該当のポーズ間の遷移について一時モーション情報のタイミング情報1222または音出力用情報1203の変更を行い、処理をS707に戻す。 In S713, the control unit 101 controls the display control unit 105 so as to display the screen for editing the transition speed and the sound reproduction timing (FIG. 6), and accepts the editing of the transition speed and the sound reproduction timing. Although the details of the process are omitted in the present embodiment, the control unit 101 provides temporary motion information about the transition between the corresponding poses based on the operation input related to the change of the transition speed or the sound reproduction timing as described above. The timing information 1222 or the sound output information 1203 is changed, and the process is returned to S707.

S712において遷移速度または音再生タイミングの編集に係る操作入力がなされていないと判断した場合、制御部101はS714で、保存ボタン515に対する操作入力がなされたか否かを判断する。制御部101は、保存ボタン515に対する操作入力がなされたと判断した場合は処理をS715に移し、なされていないと判断した場合は処理をS707に戻す。 When it is determined in S712 that the operation input related to the editing of the transition speed or the sound reproduction timing has not been made, the control unit 101 determines in S714 whether or not the operation input for the save button 515 has been made. The control unit 101 shifts the process to S715 when it determines that the operation input for the save button 515 has been performed, and returns the process to S707 when it determines that the operation input has not been performed.

S715で、制御部101は、モーション情報を構成して記録媒体102に格納し、本挙動構成処理を完了する。また制御部101は、構成されたモーションに対するモーション名の入力を受け付け、モーション情報のモーションID1201の情報及びモーション名の情報をモーションDB104に格納する。本ステップで構成されたモーション情報は、通信部107に伝送され、制御用基板210に送信されてもよい。 In S715, the control unit 101 configures the motion information and stores it in the recording medium 102, and completes the behavior configuration process. Further, the control unit 101 accepts the input of the motion name for the configured motion, and stores the motion ID 1201 information and the motion name information of the motion information in the motion DB 104. The motion information configured in this step may be transmitted to the communication unit 107 and transmitted to the control board 210.

なお、本実施形態では便宜上、一時モーション情報はモーション情報と同様のデータ構成であるものとして説明するが、本発明の実施はこれに限られるものではない。例えば、モーションメイク機能でモーションを構成している時点では、一時モーション情報に格納される情報は、各サーボモータ220の制御目標値ではなく、例えばタイムライン514に配置されたポーズアイコン511を識別するポーズIDで管理されるものであってもよい。 In the present embodiment, for convenience, the temporary motion information will be described as having the same data structure as the motion information, but the embodiment of the present invention is not limited to this. For example, at the time when the motion is configured by the motion make function, the information stored in the temporary motion information identifies not the control target value of each servomotor 220 but the pause icon 511 arranged on the timeline 514, for example. It may be managed by the pause ID.

《コントローラGUI》
またスマートフォン100で実行される制御アプリケーションには、ロボット200にとらせる挙動を、ユーザにリアルタイムに選択可能ならしめるコントローラモードが設けられる。コントローラモードでは、制御アプリケーションが起動されているスマートフォン100の表示部110にコントローラGUIが提示され、ユーザは該コントローラGUIを介することで、ロボット200の挙動制御を行うことができる。
《Controller GUI》
Further, the control application executed by the smartphone 100 is provided with a controller mode that allows the user to select the behavior to be taken by the robot 200 in real time. In the controller mode, the controller GUI is presented on the display unit 110 of the smartphone 100 in which the control application is started, and the user can control the behavior of the robot 200 via the controller GUI.

制御アプリケーションでは、例えば図8(a)に示されるような、ロボット200に行わせることが可能なモーションを示すモーションアイコン801を配置したコントローラGUIを提供する。各モーションアイコン801は、表示部110に提示されている期間、該モーションアイコン801に対応付けられたモーションの開始指示を、タッチ操作により受け付けるユーザインタフェースとして機能する。 The control application provides a controller GUI in which a motion icon 801 indicating a motion that can be performed by the robot 200 is arranged, as shown in FIG. 8A, for example. Each motion icon 801 functions as a user interface that receives a motion start instruction associated with the motion icon 801 by a touch operation during the period presented on the display unit 110.

ユーザは、コントローラGUIにおいてモーションアイコン801に対する操作入力(タップ操作)を行うことで、該モーションアイコン801に対応付けられたモーションをロボット200に行わせることができる。具体的には、モーションアイコン801への操作入力がなされた場合、制御部101は、該モーションアイコン801に対応付けられたモーションIDを取得して通信部107に伝送し、動作指示としてロボット200に送信させる。該動作指示を受信すると、基板制御部211は基板メモリ212から該当のモーションIDが関連付けられたモーション情報を取得し、駆動制御部214に各サーボモータ220の駆動制御、及び音再生部215にスピーカ222からの音出力制御を行わせる。 The user can make the robot 200 perform the motion associated with the motion icon 801 by performing an operation input (tap operation) on the motion icon 801 in the controller GUI. Specifically, when an operation input is made to the motion icon 801, the control unit 101 acquires the motion ID associated with the motion icon 801 and transmits it to the communication unit 107, and sends the motion ID to the robot 200 as an operation instruction. Send it. Upon receiving the operation instruction, the board control unit 211 acquires motion information associated with the corresponding motion ID from the board memory 212, the drive control unit 214 drives the servomotors 220, and the sound reproduction unit 215 speaks. The sound output control from 222 is performed.

またコントローラモードは、図8(a)に示したような1以上のモーションアイコン801が配置されたコントローラGUIを提示してロボット200の挙動制御を提供する操作機能と、コントローラGUIを所望の構成とすべく、コントローラGUIに配置するモーションアイコン801及びその位置のカスタマイズを提供する編集機能とを提供可能に構成される。 Further, the controller mode has an operation function of presenting a controller GUI in which one or more motion icons 801 are arranged as shown in FIG. 8A to provide behavior control of the robot 200, and a controller GUI having a desired configuration. Therefore, it is possible to provide a motion icon 801 to be arranged on the controller GUI and an editing function for customizing the position thereof.

編集機能を利用して新規にコントローラGUIを構成する場合、表示部110には、図8(b)されるような、モーションアイコン801がまだ配置されていない態様の操作領域811と、当該操作領域811に移動配置可能なモーションアイコン801の一覧を示す候補領域812とが提示される。図示されるように、操作領域811には所定数のスロット813が設けられており、ユーザは、該スロット813の各々に対して候補領域812からモーションアイコン801を移動配置(ドラッグ&ドロップ)することで、所望の態様のコントローラGUIを構成することができる。1つのスロット813に配置可能なモーションアイコン801の数は1つであり、図8(b)の例では操作領域811には最大10個のモーションアイコン801を配置して、10種類のモーションの開始指示が可能なコントローラGUIを構成することができる。 When a controller GUI is newly configured by using the editing function, the display unit 110 has an operation area 811 in a mode in which the motion icon 801 is not yet arranged, as shown in FIG. 8B, and the operation area. A candidate area 812 showing a list of motion icons 801 that can be moved and arranged is presented at 811. As shown in the figure, a predetermined number of slots 813 are provided in the operation area 811, and the user moves (drag and drops) the motion icon 801 from the candidate area 812 to each of the slots 813. Therefore, the controller GUI of the desired embodiment can be configured. The number of motion icons 801 that can be arranged in one slot 813 is one, and in the example of FIG. 8B, a maximum of 10 motion icons 801 are arranged in the operation area 811 to start 10 types of motions. A controller GUI that can be instructed can be configured.

候補領域812に並ぶモーションアイコン801は、モーションメイク機能で構成されてモーションDB104に登録されたモーションに係るものだけでなく、制御アプリケーションにプリセットとして予め登録されているモーションに係るものを含んでいてもよい。 The motion icons 801 arranged in the candidate area 812 include not only those related to the motion configured by the motion make function and registered in the motion DB 104, but also those related to the motion registered in advance as a preset in the control application. Good.

なお、本実施形態では配置するモーションアイコン801の候補領域812から操作領域811への移動操作が、1回のタッチ操作(ドラッグ&ドロップ)で完了する態様について説明するが、本発明の実施はこれに限られるものではない。例えば、操作領域811において配置を行うスロット813を指示する操作入力がなされた後に、該スロット813に配置するモーションアイコン801を候補領域812から選択する操作入力を受け付けるよう構成されるものであってもよい。 In the present embodiment, a mode in which the operation of moving the motion icon 801 to be arranged from the candidate area 812 to the operation area 811 is completed by one touch operation (drag and drop) will be described. It is not limited to. For example, even if the operation input for instructing the slot 813 to be arranged in the operation area 811 is made, the operation input for selecting the motion icon 801 to be arranged in the slot 813 from the candidate area 812 is accepted. Good.

またモーションアイコン801の配置を決める指標となるよう、あるいはコントローラGUIを用いてロボット200の操作を行う際に、ユーザが所望のモーションアイコン801を容易に選択可能なよう、各モーションアイコン801は、対応するモーションにおいて主として駆動する可動部位(該モーションを行う際に駆動量が最も多い可動部位)に応じて異なる配色で提示されるものであってよい。例えば、図8の例では、主として駆動する可動部位が脚部であるモーションアイコン801はハッチングを付して示されており、主として駆動する可動部位が腕部であるモーションアイコン801はドットを付して示されている。 Further, each motion icon 801 corresponds to the motion icon 801 so as to be an index for determining the arrangement of the motion icon 801 or so that the user can easily select the desired motion icon 801 when operating the robot 200 using the controller GUI. It may be presented in a different color scheme depending on the movable part that is mainly driven in the motion (the movable part that has the largest amount of drive when performing the motion). For example, in the example of FIG. 8, the motion icon 801 whose main driving movable part is a leg is shown with hatching, and the motion icon 801 whose main driving movable part is an arm is dotted. Is shown.

またコントローラGUIには、例えばロボット200の挙動制御を行う際の指標となるべく、ロボット200が備える外界センサ221の検出結果を提示するセンサ出力802が含められるものであってもよい。これによりユーザは、ロボット200の置かれた状況を把握した上で、適切なモーションを行わせるよう操作を行うことができる。当該態様のコントローラGUIを実現するために、例えばコントローラモードの操作機能が提供されている期間、通信部107は基板通信部216との通信接続を維持し、所定の時間間隔で検出部213が外界センサ221から取得した検出結果を受信する。そして表示制御部105は、該受信された検出結果を、コントローラGUIに含めた画面を構成して表示部110に表示させるよう動作すればよい。 Further, the controller GUI may include, for example, a sensor output 802 that presents the detection result of the external sensor 221 included in the robot 200 as an index when controlling the behavior of the robot 200. As a result, the user can perform an operation so as to perform an appropriate motion after grasping the situation in which the robot 200 is placed. In order to realize the controller GUI of this aspect, for example, during the period when the operation function of the controller mode is provided, the communication unit 107 maintains the communication connection with the board communication unit 216, and the detection unit 213 is sent to the outside world at predetermined time intervals. The detection result acquired from the sensor 221 is received. Then, the display control unit 105 may operate so as to form a screen included in the controller GUI and display the received detection result on the display unit 110.

《GUI編集処理》
以下、本実施形態の制御アプリケーションにて、コントローラGUIの編集機能を利用する場合のGUI編集処理について、図9のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えば記録媒体102に記憶されている対応する処理プログラムを読み出し、メモリ103に展開して実行することにより実現することができる。なお、本GUI編集処理は、例えば制御アプリケーションにおいてコントローラモードが実行され、コントローラGUIの編集に係る指示がなされた際に開始されるものとして説明する。
<< GUI editing process >>
Hereinafter, the GUI editing process when the editing function of the controller GUI is used in the control application of the present embodiment will be described with reference to the specific processing using the flowchart of FIG. The process corresponding to the flowchart can be realized by the control unit 101 reading, for example, the corresponding processing program stored in the recording medium 102, expanding it into the memory 103, and executing the process. It should be noted that this GUI editing process will be described as being started when, for example, the controller mode is executed in the control application and an instruction relating to editing of the controller GUI is given.

S901で、制御部101は、コントローラGUIの操作領域811に既に配置されたモーションアイコン801の情報を取得する。操作領域811に既に配置されたモーションアイコン801の情報は、該当のモーションのそれぞれについて、モーションID及びコントローラGUI上の配置位置を示す情報(スロットID)が配置情報として、例えば記録媒体102に格納されているものであってよい。制御部101は、本ステップにおいて該配置情報を参照することで、該当のモーションアイコン801の情報を取得する。 In S901, the control unit 101 acquires the information of the motion icon 801 already arranged in the operation area 811 of the controller GUI. As for the information of the motion icon 801 already arranged in the operation area 811, the motion ID and the information (slot ID) indicating the arrangement position on the controller GUI are stored as the arrangement information in, for example, the recording medium 102 for each of the corresponding motions. It may be the one that is. The control unit 101 acquires the information of the corresponding motion icon 801 by referring to the arrangement information in this step.

S902で、制御部101は、コントローラGUIの候補領域812に配置するモーションアイコン801の情報を取得する。モーションアイコン801を候補領域812に配置するモーションは、モーションメイク機能を用いてユーザにより構成されたモーションと、例えば制御アプリケーションのインストール時から予め記録されているプリセットのモーションとから、操作領域811にモーションアイコン801を配置するモーションを除いたものである。モーションDB104に格納されている情報とS901において取得した情報とに基づいて、候補領域812に配置するモーションアイコン801の情報を取得する。 In S902, the control unit 101 acquires the information of the motion icon 801 arranged in the candidate area 812 of the controller GUI. The motion for arranging the motion icon 801 in the candidate area 812 is a motion configured by the user using the motion make function and a preset motion recorded in advance from the installation of the control application, for example, in the operation area 811. The motion for arranging the icon 801 is excluded. Based on the information stored in the motion DB 104 and the information acquired in S901, the information of the motion icon 801 to be arranged in the candidate area 812 is acquired.

S903で、表示制御部105は制御部101の制御の下、S901及びS902において取得した情報に基づいて、コントローラGUIの編集時に係る画面を生成して表示部110に表示させる。 In S903, under the control of the control unit 101, the display control unit 105 generates a screen related to the editing of the controller GUI based on the information acquired in S901 and S902, and causes the display unit 110 to display the screen.

S904で、制御部101は、操作領域811へのモーションアイコン801の配置に係る操作入力(モーションアイコン801の候補領域812から操作領域811への移動操作)がなされたか否かを判断する。制御部101は、なされたと判断した場合は処理をS905に移し、なされていないと判断した場合は本ステップの処理を繰り返す。 In S904, the control unit 101 determines whether or not the operation input (movement operation from the candidate area 812 of the motion icon 801 to the operation area 811) related to the arrangement of the motion icon 801 in the operation area 811 has been performed. If it is determined that the control unit 101 has been performed, the process is transferred to S905, and if it is determined that the process has not been performed, the process of this step is repeated.

S905で、制御部101は、新たに操作領域811のスロット813に配置されたモーションアイコン801について、対応するモーションID及び該スロット813のスロットIDを取得して記録媒体102に格納し、処理をS901に戻す。 In S905, the control unit 101 acquires the corresponding motion ID and the slot ID of the slot 813 for the motion icon 801 newly arranged in the slot 813 of the operation area 811 and stores the motion icon 801 in the recording medium 102, and processes S901. Return to.

このようにすることで、所望するモーションの開始指示をユーザが容易に選択可能なコントローラGUIを、ユーザ自ら設定することができる。 By doing so, the user can set the controller GUI that allows the user to easily select the start instruction of the desired motion.

《ロボット200における動的制御》
上述したように、本実施形態のロボット制御システムではコントローラGUIを介することで、予め構成したモーションを行わせるようロボット200の挙動を制御することが可能になる。一方で、ロボット200の各可動部位が備えるサーボモータ220は、ロボット200自体を操作してのポーズ構成を可能な態様としており、特に電断時や通信断時では、ユーザによって回転角が自在に設定され得る。つまり、各可動部位のサーボモータ220の駆動状態が、電断前/通信断前と再通電後/通信再接続後とで異なることがある。また構成されるモーションの各々は、モーション開始時及び終了時のポーズが独立して構成されるものであるため、例えば連続してモーションを行わせようとした場合に、サーボモータ220の駆動状態が連続しないこともある。
<< Dynamic control in robot 200 >>
As described above, in the robot control system of the present embodiment, it is possible to control the behavior of the robot 200 so as to perform a preconfigured motion via the controller GUI. On the other hand, the servomotor 220 included in each movable part of the robot 200 has a mode in which the robot 200 itself can be operated to form a pose, and the rotation angle can be freely adjusted by the user, especially when the power is cut off or the communication is cut off. Can be set. That is, the driving state of the servomotor 220 of each movable part may differ between before power interruption / communication interruption and after re-energization / communication reconnection. Further, since each of the configured motions is composed of pauses at the start and end of the motion independently, for example, when the motions are to be continuously performed, the driving state of the servomotor 220 is changed. It may not be continuous.

従って、コントローラGUIを介してモーションの開始に係る動作指示を受信した際、駆動制御部214は、現在の各サーボモータ220の駆動状態と該モーションの開始時に係る各サーボモータ220の駆動状態とが異なる場合には、該開始時に係る駆動状態となるように各サーボモータ220の駆動制御を行う。そして各サーボモータ220の駆動状態が、動作指示に係るモーションの開始時の駆動状態と一致した後、駆動制御部214は、モーション情報に基づいて該モーションを行うように各サーボモータ220の駆動制御を行う。 Therefore, when the operation instruction related to the start of the motion is received via the controller GUI, the drive control unit 214 changes the current drive state of each servomotor 220 and the drive state of each servomotor 220 related to the start of the motion. If they are different, the drive control of each servomotor 220 is performed so that the drive state is set at the start. Then, after the drive state of each servomotor 220 matches the drive state at the start of the motion related to the operation instruction, the drive control unit 214 controls the drive of each servomotor 220 so as to perform the motion based on the motion information. I do.

また駆動制御部214は、例えば、動作指示に係るモーションを行わせた場合にロボット200周囲の障害物との衝突が生じ得ると判断した場合、ロボット200周囲への障害物の進入が生じたと判断した場合等、検出部213が外界センサ221から取得した検出結果が所定の条件を満たす状況となった場合には、動作指示を受けることなく動的に各サーボモータ220の駆動制御を行う。該駆動制御は、例えば、衝突を回避するためのものであってもよいし、衝突後の転倒を防ぐためのものであってもよい。即ち、本実施形態のロボット200では、駆動制御部214は、外界センサ221の検出結果に基づいて動作指示に依らない駆動制御も行う。 Further, when the drive control unit 214 determines that a collision with an obstacle around the robot 200 may occur when the motion related to the operation instruction is performed, for example, the drive control unit 214 determines that an obstacle has entered the vicinity of the robot 200. When the detection result acquired from the external sensor 221 by the detection unit 213 satisfies a predetermined condition, the drive control of each servomotor 220 is dynamically performed without receiving an operation instruction. The drive control may be, for example, for avoiding a collision or for preventing a fall after a collision. That is, in the robot 200 of the present embodiment, the drive control unit 214 also performs drive control that does not depend on the operation instruction based on the detection result of the external world sensor 221.

《挙動制御処理》
このような動的制御も含めた、本実施形態のロボット制御システムにおいて、ユーザの操作に応じたロボット200の挙動制御を実現する挙動制御処理について、図10のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101及び基板制御部211が、例えばそれぞれ記録媒体102または基板メモリ212の記憶領域に記憶されている対応する処理プログラムを読み出し、メモリ103または基板メモリ212の展開領域に展開して実行することにより実現することができる。なお、本挙動制御処理は、例えばスマートフォン100において制御アプリケーションのコントローラモードの操作機能に係る処理が実行され、スマートフォン100と制御用基板210との通信接続が確立した際に開始されるものとして説明する。以下の説明では、ロボット200の挙動制御にフォーカスするため、ロボット200における音出力制御や、検出部213による検出結果に基づいてスマートフォン100において生じる表示の変化等の処理は含めていない。
<< Behavior control processing >>
In the robot control system of the present embodiment including such dynamic control, specific processing is performed using the flowchart of FIG. 10 for the behavior control processing that realizes the behavior control of the robot 200 according to the user's operation. explain. In the process corresponding to the flowchart, the control unit 101 and the board control unit 211 read, for example, the corresponding processing program stored in the storage area of the recording medium 102 or the board memory 212, respectively, and expand the memory 103 or the board memory 212. It can be realized by expanding it to the area and executing it. The behavior control process will be described as being started when, for example, the smartphone 100 executes a process related to the operation function of the controller mode of the control application and the communication connection between the smartphone 100 and the control board 210 is established. .. In the following description, in order to focus on the behavior control of the robot 200, the sound output control in the robot 200 and the processing such as the display change occurring in the smartphone 100 based on the detection result by the detection unit 213 are not included.

S1001で、表示制御部105は制御部101の制御の下、ユーザにより設定されたコントローラGUIを表示部110に提示する。 In S1001, the display control unit 105 presents the controller GUI set by the user to the display unit 110 under the control of the control unit 101.

S1002で、制御部101は、いずれかのモーションに対する開始指示がなされたか否かを判断する。本ステップの判断は、コントローラGUIに配置されたいずれかのモーションアイコン801に対する操作入力がなされたか否かに基づいて行われるものであってよい。制御部101は、いずれかのモーションに対する開始指示がなされたと判断した場合は処理をS1003に移し、なされていないと判断した場合はステップの処理を繰り返す。 In S1002, the control unit 101 determines whether or not a start instruction has been given for any of the motions. The determination in this step may be made based on whether or not an operation input has been made to any of the motion icons 801 arranged in the controller GUI. When the control unit 101 determines that the start instruction for any of the motions has been given, the process shifts to S1003, and when it determines that the start instruction has not been given, the control unit 101 repeats the step process.

S1003で、制御部101は、開始指示がなされたモーションのモーションID1201を通信部107に伝送し、動作指示とともに制御用基板210に送信させ、処理をS1002に戻す。 In S1003, the control unit 101 transmits the motion ID 1201 of the motion for which the start instruction has been made to the communication unit 107, transmits the motion ID 1201 to the control board 210 together with the operation instruction, and returns the process to S1002.

S1004で、基板制御部211は、通信接続中のスマートフォン100から動作指示を受信したか否かを判断する。基板制御部211は、動作指示を受信したと判断した場合は処理をS1005に移し、受信していないと判断した場合は処理をS1015に移す。 In S1004, the board control unit 211 determines whether or not an operation instruction has been received from the smartphone 100 during communication connection. When the board control unit 211 determines that the operation instruction has been received, it shifts the process to S1005, and when it determines that it has not received the operation instruction, it shifts the process to S1015.

S1005で、基板制御部211は、動作指示とともに受信したモーションIDが対応付けられたモーション情報(対象モーション情報)を基板メモリ212から取得し、該モーション情報に基づいて駆動制御部214に各サーボモータ220の駆動制御を開始させる。 In S1005, the board control unit 211 acquires motion information (target motion information) associated with the motion ID received together with the operation instruction from the board memory 212, and based on the motion information, each servomotor is supplied to the drive control unit 214. The drive control of 220 is started.

S1006で、駆動制御部214は、現在の各サーボモータ220が備えるエンコーダの出力値が、対象モーション情報の開始時のポーズに係る同サーボモータ220の駆動制御値と異なるか否かを判断する。本ステップの判断は、ロボット200が備える全てのサーボモータ220の中に、現在の出力値と開始時のポーズに係る駆動制御値とが異なるサーボモータ220がいずれか1つでも存在するか否かについて行われる。駆動制御部214は、現在の各サーボモータ220が備えるエンコーダの出力値が、対象モーション情報の開始時のポーズに係る同サーボモータ220の駆動制御値と異なると判断した場合は処理をS1007に移し、同一であると判断した場合は処理をS1011に移す。 In S1006, the drive control unit 214 determines whether or not the output value of the encoder included in each of the current servomotors 220 is different from the drive control value of the servomotor 220 related to the pause at the start of the target motion information. The determination in this step is whether or not any one of the servomotors 220 included in the robot 200 has a different servomotor 220 from the current output value and the drive control value related to the pause at the start. Is done about. When the drive control unit 214 determines that the output value of the encoder included in each of the current servomotors 220 is different from the drive control value of the servomotor 220 related to the pause at the start of the target motion information, the drive control unit 214 shifts the process to S1007. If it is determined that they are the same, the process is moved to S1011.

S1007で、駆動制御部214は、各サーボモータ220を対象モーション情報の開始時のポーズと一致させるよう、該当のサーボモータ220の駆動制御を開始する。 In S1007, the drive control unit 214 starts the drive control of the corresponding servomotor 220 so that each servomotor 220 matches the pose at the start of the target motion information.

S1008で、駆動制御部214は、駆動制御中に周囲の障害物とロボット200との衝突が生じるか否かを判断する。本ステップの判断は、例えば検出部213の検出結果に基づいて駆動制御部214が行うものであってよい。駆動制御部214は、駆動制御中に周囲の障害物の衝突が生じると判断した場合は処理をS1009に移し、生じないと判断した場合は処理をS1010に移す。 In S1008, the drive control unit 214 determines whether or not a collision between a surrounding obstacle and the robot 200 occurs during drive control. The determination in this step may be made by the drive control unit 214 based on, for example, the detection result of the detection unit 213. When the drive control unit 214 determines that a collision of surrounding obstacles occurs during drive control, the process is transferred to S1009, and when it is determined that the collision does not occur, the process is transferred to S1010.

S1009で、駆動制御部214は、障害物との衝突を回避するように各サーボモータ220の駆動制御を行う。 In S1009, the drive control unit 214 performs drive control of each servomotor 220 so as to avoid a collision with an obstacle.

S1010で、駆動制御部214は、各サーボモータ220が対象モーション情報の開始時のポーズと一致したか否かを判断する。駆動制御部214は、各サーボモータ220が対象モーション情報の開始時のポーズと一致したと判断した場合は処理をS1011に移し、一致していないと判断した場合は駆動制御を継続して処理をS1008に戻す。 In S1010, the drive control unit 214 determines whether or not each servomotor 220 matches the pose at the start of the target motion information. When the drive control unit 214 determines that each servomotor 220 matches the pose at the start of the target motion information, the process shifts to S1011, and when it determines that the servomotor 220 does not match, the drive control continues the process. Return to S1008.

一方、S1006において現在の各サーボモータ220が備えるエンコーダの出力値が、対象モーション情報の開始時のポーズに係る同サーボモータ220の駆動制御値と同一であると判断した場合、駆動制御部214はS1011で、対象モーション情報に係る挙動をとらせるよう、各サーボモータ220の駆動制御を開始する。当該駆動制御では、対象モーション情報に記述された、各サーボモータ220をいずれのタイミングで制御目標値とさせるかの情報に基づいて、例えばフィードバック制御が行われるものであってよい。 On the other hand, when it is determined in S1006 that the output value of the encoder provided in each of the current servomotors 220 is the same as the drive control value of the servomotor 220 related to the pause at the start of the target motion information, the drive control unit 214 In S1011, the drive control of each servomotor 220 is started so as to take the behavior related to the target motion information. In the drive control, for example, feedback control may be performed based on the information described in the target motion information as to which timing each servomotor 220 is set as the control target value.

なお、本実施形態のロボット制御システムではモーション情報を構成する際に、該当のモーションにおいて経由するポーズの発生タイミングを示すタイミング情報1222を含め、これに基づいて駆動制御を行う態様について説明するが、本発明の実施はこれに限られるものではない。モーション情報に基づいて駆動制御部214が行う駆動制御は、タイミング情報1222がモーション情報に含められていなくとも、各サーボモータ220の駆動速度の情報に基づいて行われるものであってもよい。 In the robot control system of the present embodiment, when the motion information is configured, the mode of performing the drive control based on the timing information 1222 indicating the generation timing of the pause to be passed in the corresponding motion will be described. The practice of the present invention is not limited to this. The drive control performed by the drive control unit 214 based on the motion information may be performed based on the drive speed information of each servomotor 220 even if the timing information 1222 is not included in the motion information.

S1012で、駆動制御部214は、駆動制御中に周囲の障害物とロボット200との衝突が生じるか否かを判断する。駆動制御部214は、駆動制御中に周囲の障害物の衝突が生じると判断した場合は処理をS1013に移し、生じないと判断した場合は処理をS1014に移す。 In S1012, the drive control unit 214 determines whether or not a collision between a surrounding obstacle and the robot 200 occurs during drive control. When the drive control unit 214 determines that a collision of surrounding obstacles occurs during drive control, the process is transferred to S1013, and when it is determined that the collision does not occur, the process is transferred to S1014.

S1013で、駆動制御部214は、障害物との衝突を回避するように各サーボモータ220の駆動制御を行う。 In S1013, the drive control unit 214 performs drive control of each servomotor 220 so as to avoid a collision with an obstacle.

S1014で、駆動制御部214は、対象モーション情報に係る駆動制御が全て終了したか否かを判断する。駆動制御部214は、対象モーション情報に係る駆動制御が全て終了したと判断した場合は処理をS1004に戻し、終了していないと判断した場合は処理をS1012に戻す。 In S1014, the drive control unit 214 determines whether or not all the drive controls related to the target motion information have been completed. The drive control unit 214 returns the process to S1004 when it is determined that all the drive control related to the target motion information has been completed, and returns the process to S1012 when it is determined that the process has not been completed.

一方、S1004において動作指示を受信していないと判断した場合、基板制御部211はS1015で、ロボット200周囲の所定範囲内への障害物の進入が生じたか否かを判断する。基板制御部211は、ロボット200周囲の所定範囲内への障害物の進入が生じたと判断した場合は処理をS1016に移し、生じていないと判断した場合は処理をS1004に戻す。 On the other hand, when it is determined in S1004 that the operation instruction has not been received, the board control unit 211 determines in S1015 whether or not an obstacle has entered the predetermined range around the robot 200. The board control unit 211 shifts the process to S1016 when it determines that an obstacle has entered the predetermined range around the robot 200, and returns the process to S1004 when it determines that it has not occurred.

S1016で、駆動制御部214は基板制御部211の制御の下、障害物との衝突を回避するように各サーボモータ220の駆動制御を行う。 In S1016, the drive control unit 214 controls the drive of each servomotor 220 under the control of the board control unit 211 so as to avoid a collision with an obstacle.

このようにすることで、本実施形態の挙動制御処理では、ユーザ所望の挙動をロボット200にとらせることを実現しつつ、補間が必要な場面や外的要因による障害が発生し得る場面においては、なされた動作指示には依らない動的な挙動制御を行って好適な興趣体験を提供することができる。 By doing so, in the behavior control process of the present embodiment, while realizing that the robot 200 can take the behavior desired by the user, in a scene where interpolation is required or a trouble due to an external factor may occur. , It is possible to provide a suitable hobby experience by performing dynamic behavior control that does not depend on the operation instructions made.

以上説明したように、本実施形態の構造体制御システムによれば、組み換え可能な可動部位と不動部位を採用して、所望の外観を形成するロボット等の構造体の構成を可能ならしめつつ、当該構造体にとらせる挙動を設定すること、当該挙動を生じさせるユーザインタフェースをユーザ所望の態様で提供すること、及び当該ユーザインタフェースを用いた構造体の好適な挙動制御を実現することができる。 As described above, according to the structure control system of the present embodiment, it is possible to construct a structure such as a robot that forms a desired appearance by adopting a movable part and an immovable part that can be recombined. It is possible to set the behavior to be taken by the structure, provide a user interface that causes the behavior in a manner desired by the user, and realize suitable behavior control of the structure using the user interface.

なお、本実施形態では制御アプリケーションで構成されたモーション情報が基板メモリ212に格納され、各可動部位の動作制御が行われる際には、スマートフォン100から受信した動作指示に基づいて、対応するモーションのモーション情報が読み出される態様について説明したが、本発明の実施はこれに限られるものではない。例えば、モーション情報が基板メモリ212に格納されるのではなく、制御アプリケーションにおいてロボット200の挙動制御に対する操作入力がなされる度に、制御部101が駆動制御部214に与える制御目標値の情報を順次導出して制御用基板210に送出する態様であってもよい。この場合、各サーボモータ220のフィードバック制御を実現するため、これらサーボモータ220のエンコーダの値が、順次制御用基板210からスマートフォン100に送出されてもよい。 In the present embodiment, the motion information configured by the control application is stored in the board memory 212, and when the motion control of each movable part is performed, the corresponding motion is performed based on the motion instruction received from the smartphone 100. Although the mode in which the motion information is read out has been described, the implementation of the present invention is not limited to this. For example, the motion information is not stored in the board memory 212, but the information of the control target value given to the drive control unit 214 by the control unit 101 is sequentially input each time the operation input for the behavior control of the robot 200 is made in the control application. It may be in a mode of deriving and sending out to the control board 210. In this case, in order to realize feedback control of each servomotor 220, the values of the encoders of these servomotors 220 may be sequentially sent from the control board 210 to the smartphone 100.

[変形例]
上述した実施形態では、モーションメイク機能において複数のポーズを組み合わせることで、これらのポーズを遷移するモーションを構成する態様について説明したが、モーションの構成方法はこれに限られるものではない。
[Modification example]
In the above-described embodiment, the mode of constructing the motion that transitions between these poses by combining a plurality of poses in the motion make-up function has been described, but the method of constructing the motion is not limited to this.

例えば、起立→前進(歩行)→停止→パンチ→後退といった、連続的に変化する一連の挙動をロボット200にとらせる場合、ユーザは、コントローラGUIにて該当のモーションアイコン801に対する操作入力を順次行えばよい。しかしながら、所望の挙動となるようにするためには好適なタイミングで操作入力が順次行われる必要があり、ユーザによっては正確に操作入力を行うことが困難となり得る。また、このような複数種類のモーションアイコン801をコントローラGUIに配置した場合、該モーションアイコン801が画面中を占有することになるため、他のモーションに係るモーションアイコン801を配置可能なスロット813の数が狭められることになる。 For example, when the robot 200 takes a series of continuously changing behaviors such as standing → forward (walking) → stop → punching → backward, the user sequentially inputs an operation input to the corresponding motion icon 801 on the controller GUI. Just do it. However, in order to achieve the desired behavior, it is necessary to sequentially perform operation inputs at appropriate timings, and it may be difficult for some users to accurately perform operation inputs. Further, when such a plurality of types of motion icons 801 are arranged in the controller GUI, the motion icons 801 occupy the entire screen, so that the number of slots 813 in which the motion icons 801 related to other motions can be arranged. Will be narrowed down.

一方で、これらの一連の挙動を生じさせるモーションを、上述した実施形態の制御アプリケーションのモーションメイク機能で構成するためには、ユーザは一連の挙動に含まれるポーズを細かく構成し、これらを順番に配置する必要がある。しかしながら、このような態様は、多量のポーズ構成が求められるだけでなく、構成したモーションが所望の挙動を示すかの確認にも時間を要すため、結果、ユーザが所望する一連の挙動を示すモーションを構成するために、煩雑な操作入力をユーザに強いることになる。 On the other hand, in order to configure the motion that causes these series of behaviors with the motion make function of the control application of the above-described embodiment, the user finely configures the poses included in the series of behaviors and sequentially configures these poses. Need to be placed. However, in such an aspect, not only a large amount of pose configurations are required, but also it takes time to confirm whether the configured motion exhibits the desired behavior, and as a result, a series of behaviors desired by the user are exhibited. In order to compose the motion, the user is forced to input complicated operations.

このため、本変形例の制御アプリケーションでは、複数のモーションを連続させた一連の挙動に対して1つのモーションアイコンを割り当てるべく、モーションメイク機能におけるモーションの構成を、複数のモーションを組み合わせることでも可能に構成する。例えばモーションメイク機能に係り提示される画面は、既に構成されたモーションを組み合わせることで一連の挙動(一連モーション)を構成可能な、図11の画面を含むものであってもよい。 Therefore, in the control application of this modification, in order to assign one motion icon to a series of behaviors in which a plurality of motions are continuous, it is possible to configure the motion in the motion make function by combining a plurality of motions. Configure. For example, the screen presented in relation to the motion make function may include the screen of FIG. 11 in which a series of behaviors (series of motions) can be configured by combining the already configured motions.

図11の例では、既に構成されたモーション情報の各々を示すモーションアイコン1101を一覧表示するモーション選択領域1102と、構成するモーションにおいて経由するモーション群を示す一連モーション構成領域1103を含む。図5(b)の画面と同様に、モーション選択領域1102に配置されるモーションアイコン1101の各々は、表示部110に対するタッチ操作で選択操作が可能に構成されており、ユーザは所望のモーションアイコン1101を選択することで、一連モーション構成領域1103のタイムライン1104上に配置できる。 The example of FIG. 11 includes a motion selection area 1102 that displays a list of motion icons 1101 indicating each of the already configured motion information, and a series of motion configuration areas 1103 that indicate a group of motions to be passed through in the constituent motions. Similar to the screen of FIG. 5B, each of the motion icons 1101 arranged in the motion selection area 1102 can be selected by touching the display unit 110, and the user can select the desired motion icon 1101. By selecting, it can be arranged on the timeline 1104 of the series motion configuration area 1103.

該画面において、タイムライン1104に複数のモーションアイコン1101が配置された状態で保存ボタン1105に対する操作入力がなされたことに応じて、タイムライン1104に配置されたモーションアイコン1101の情報に基づいて一連モーションに係るモーション情報が生成され、記録媒体102に格納される。このようにすることで、ユーザは一連の挙動について、断片的に複数のモーションを構成して組み合わせることでモーション情報の構成が可能であり、コントローラGUI使用時の煩雑な操作入力やモーション構成に要する時間の長期化を伴うことなく、モーション情報を構成することができる。 On the screen, a series of motions are performed based on the information of the motion icons 1101 arranged on the timeline 1104 in response to the operation input to the save button 1105 in the state where a plurality of motion icons 1101 are arranged on the timeline 1104. The motion information related to the above is generated and stored in the recording medium 102. By doing so, the user can configure motion information for a series of behaviors by constructing and combining a plurality of motions in fragments, which is required for complicated operation input and motion configuration when using the controller GUI. Motion information can be constructed without lengthening the time.

なお、本変形例では詳細を述べなかったが、タイムライン1104の隣接するマスに配置された2つのモーションアイコン1101に係る、モーション間の遷移(前のモーションで最後に現れるポーズと後のモーションで最初に現れるポーズのつなぎ)についても、ポーズを組み合わせてモーションを構成する際と同様に、遷移する際の速度や音出力の設定が可能に構成されるものであってもよい。 Although details were not described in this modification, the transition between motions (the last pose appearing in the previous motion and the subsequent motion) related to the two motion icons 1101 arranged in the adjacent squares of the timeline 1104. As for the connection of the poses that appear first), the speed and the sound output at the time of transition may be set as in the case of composing the motion by combining the poses.

[変形例2]
上述した実施形態及び変形例では、モーション情報はユーザにより構成されたモーションそのものを再現するデータになっているものとして説明したが、本発明の実施はこれに限らず、演出等のユーザが構成していない動作を行わせる情報が付加されて構成されるものであってもよい。ロボット200について、例えば好適な振る舞いとなる挙動の条件(遷移するポーズやモーションの組み合わせ)が定められている態様において、ユーザにより構成されたモーションが当該条件に一致、もしくは当該条件との差分が予め定められた許容範囲を満たす場合に、ロボット200において演出を実現せしめる演出情報(所定のタイミングでのSE再生や特定パターンの照明制御等)を含めてモーション情報が構成されるものであってもよい。
[Modification 2]
In the above-described embodiments and modifications, the motion information has been described as data that reproduces the motion itself configured by the user, but the implementation of the present invention is not limited to this, and the motion information is configured by the user such as the effect. It may be configured by adding information for performing an operation that has not been performed. For the robot 200, for example, in a mode in which conditions for behavior (a combination of transitioning poses and motions) that are suitable behaviors are defined, the motion configured by the user matches the conditions, or the difference from the conditions is in advance. When the predetermined allowable range is satisfied, the motion information may be configured including the effect information (SE reproduction at a predetermined timing, lighting control of a specific pattern, etc.) that realizes the effect in the robot 200. ..

[その他の実施形態]
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から逸脱することなく、発明の要旨の範囲内で種々の変形・変更が可能である。また本発明に係る構造体制御システムは、1以上のコンピュータを該構造体システムとして機能させるプログラムによっても実現可能である。該プログラムは、コンピュータが読み取り可能な記録媒体に記録されることにより、あるいは電気通信回線を通じて、提供/配布することができる。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and various modifications and changes can be made within the scope of the gist of the invention without departing from the spirit and scope of the present invention. The structure control system according to the present invention can also be realized by a program that causes one or more computers to function as the structure system. The program can be provided / distributed by being recorded on a computer-readable recording medium or through a telecommunication line.

100:スマートフォン、101:制御部、102:記録媒体、103:メモリ、104:モーションDB、105:表示制御部、106:操作入力部、107:通信部、110:表示部、200:ロボット、210:制御用基板、211:基板制御部、212:基板メモリ、213:検出部、214:駆動制御部、215:音再生部、216:基板通信部、217:接続端子、220:サーボモータ、221:外界センサ、222:スピーカ、230:バックパック 100: Smartphone, 101: Control unit, 102: Recording medium, 103: Memory, 104: Motion DB, 105: Display control unit, 106: Operation input unit, 107: Communication unit, 110: Display unit, 200: Robot, 210 : Control board, 211: Board control unit, 212: Board memory, 213: Detection unit, 214: Drive control unit, 215: Sound reproduction unit, 216: Board communication unit, 217: Connection terminal, 220: Servo motor, 221 : External sensor, 222: Speaker, 230: Backpack

Claims (14)

駆動部を有する可動部位を複数備えた構造体にとらせる挙動を設定するプログラムであって、
コンピュータに、
前記構造体の静止状態を設定する処理と、
設定された静止状態を複数用いることで、前記構造体の状態が連続的に変化する運動状態を設定する処理と、
を実行させるプログラム。
It is a program that sets the behavior of a structure having a plurality of movable parts having a drive unit.
On the computer
The process of setting the stationary state of the structure and
A process of setting a motion state in which the state of the structure continuously changes by using a plurality of set rest states, and a process of setting a motion state in which the state of the structure changes continuously.
A program that executes.
1つの静止状態の設定は、前記構造体の少なくとも1つの前記可動部位が有する前記駆動部の、駆動状態を決定することで行われる請求項1に記載のプログラム。 The program according to claim 1, wherein the setting of one stationary state is performed by determining the driving state of the driving unit of at least one movable portion of the structure. 前記駆動部の制御目標値の入力を受け付けることで、該駆動部の駆動状態が決定される請求項2に記載のプログラム。 The program according to claim 2, wherein the driving state of the driving unit is determined by receiving an input of a control target value of the driving unit. 運動状態の設定は、該運動状態における前記駆動部の駆動速度の設定を含む請求項2または3に記載のプログラム。 The program according to claim 2 or 3, wherein the setting of the motion state includes the setting of the drive speed of the drive unit in the motion state. 前記構造体は、音再生部をさらに備え、
運動状態の設定は、該運動状態における前記音再生部の音再生の設定を含む請求項1乃至4のいずれか1項に記載のプログラム。
The structure further includes a sound reproduction unit.
The program according to any one of claims 1 to 4, wherein the setting of the exercise state includes the setting of sound reproduction of the sound reproduction unit in the exercise state.
設定された静止状態の各々が対応付けられた第1の状態表示を選択可能な態様で提示する処理を、前記コンピュータにさらに実行させ、
運動状態の設定は、提示された前記第1の状態表示のうちの選択された前記第1の状態表示に対応付けられた静止状態を、該運動状態に含める静止状態として設定することを含む
請求項1乃至5のいずれか1項に記載のプログラム。
The computer is further made to perform a process of presenting a first state display associated with each of the set stationary states in a selectable manner.
The setting of the motion state includes setting the rest state associated with the selected first state display of the presented first state display as the rest state to be included in the motion state. Item 5. The program according to any one of Items 1 to 5.
前記構造体を、設定された運動状態にさせる指示入力を受け付ける処理と、
指示がなされた状態に前記構造体を移行させる制御信号を出力する処理と、
を前記コンピュータにさらに実行させる請求項1乃至6のいずれか1項に記載のプログラム。
A process of receiving an instruction input to bring the structure into a set motion state,
A process of outputting a control signal that shifts the structure to the state in which the instruction is given, and
The program according to any one of claims 1 to 6, wherein the computer further executes the program.
設定された運動状態の各々が対応付けられた第2の状態表示を選択可能な態様で提示する処理を、前記コンピュータにさらに実行させ、
前記運動状態にさせる指示入力は、前記第2の状態表示の選択に応じて受け付けられる請求項7に記載のプログラム。
The computer is further made to perform a process of presenting a second state display associated with each of the set exercise states in a selectable manner.
The program according to claim 7, wherein the instruction input for making the exercise state is accepted according to the selection of the second state display.
前記第2の状態表示の提示は、画面に1以上の前記第2の状態表示を配置して行われ、
前記プログラムは、画面中の前記第2の状態表示の配置位置の指示を受け付ける処理を、前記コンピュータにさらに実行させる
請求項8に記載のプログラム。
The presentation of the second state display is performed by arranging one or more of the second state displays on the screen.
The program according to claim 8, wherein the program further causes the computer to execute a process of receiving an instruction of an arrangement position of the second state display on the screen.
前記第2の状態表示は、対応付けられた運動状態において駆動する前記可動部位に応じて異なる色が含められる請求項8または9に記載のプログラム。 The program according to claim 8 or 9, wherein the second state display includes different colors depending on the movable part to be driven in the associated motion state. 設定された運動状態を複数組み合わせることで、前記構造体に行わせる一連の動作を構成する処理と、
構成された一連の動作について、該一連の動作に含まれる運動状態を時系列順に配置して提示する処理と、
を前記コンピュータにさらに実行させる請求項1乃至10のいずれか1項に記載のプログラム。
By combining a plurality of set motion states, a process that constitutes a series of operations to be performed by the structure and
With respect to the configured series of movements, a process of arranging and presenting the movement states included in the series of movements in chronological order, and
The program according to any one of claims 1 to 10, wherein the computer further executes the program.
前記構造体は、ロボットであり、
前記駆動部は、前記ロボットの関節である
請求項1乃至11のいずれか1項に記載のプログラム。
The structure is a robot
The program according to any one of claims 1 to 11, wherein the drive unit is a joint of the robot.
前記構造体は、外界センサをさらに備え、
前記プログラムは、前記外界センサによる検出結果を受信して提示する処理を、前記コンピュータにさらに実行させる
請求項1乃至12のいずれか1項に記載のプログラム。
The structure further comprises an external sensor.
The program according to any one of claims 1 to 12, wherein the program further causes the computer to perform a process of receiving and presenting a detection result by the external sensor.
駆動部を有する可動部位を複数備えた構造体と、該構造体にとらせる挙動を設定する端末とを含む構造体制御システムであって、
前記端末は、
前記構造体の静止状態を設定する第1の設定手段と、
前記第1の設定手段により設定された静止状態を複数用いることで、前記構造体の状態が連続的に変化する運動状態を設定する第2の設定手段と、
前記第2の設定手段により設定された運動状態にさせる指示入力を受け付ける受付手段と、
前記受付手段により指示入力が受け付けられた状態に前記構造体を移行させる制御信号を出力する制御手段と、
を備える構造体制御システム。
A structure control system including a structure having a plurality of movable parts having a drive unit and a terminal for setting the behavior to be taken by the structure.
The terminal
The first setting means for setting the stationary state of the structure and
By using a plurality of stationary states set by the first setting means, a second setting means for setting a motion state in which the state of the structure continuously changes, and a second setting means.
A receiving means for receiving an instruction input for making the exercise state set by the second setting means, and a receiving means.
A control means that outputs a control signal that shifts the structure to a state in which an instruction input is received by the reception means, and
Structure control system.
JP2019212510A 2019-11-25 2019-11-25 Program and structure control system Pending JP2021083488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019212510A JP2021083488A (en) 2019-11-25 2019-11-25 Program and structure control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212510A JP2021083488A (en) 2019-11-25 2019-11-25 Program and structure control system

Publications (1)

Publication Number Publication Date
JP2021083488A true JP2021083488A (en) 2021-06-03

Family

ID=76088614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212510A Pending JP2021083488A (en) 2019-11-25 2019-11-25 Program and structure control system

Country Status (1)

Country Link
JP (1) JP2021083488A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002103258A (en) * 2000-09-28 2002-04-09 Sony Corp Authoring system, authoring method and recording medium
JP2003266347A (en) * 2002-03-18 2003-09-24 Sony Corp Motion editing device for leg type moving robot and motion editing method
JP2006026828A (en) * 2004-07-16 2006-02-02 Toyota Motor Corp Programming method for robot movement
JP2007213190A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Communication robot improvement system
JP2012527684A (en) * 2009-05-19 2012-11-08 サムスン エレクトロニクス カンパニー リミテッド Page editing method for home screen of mobile terminal and mobile terminal having home screen

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002103258A (en) * 2000-09-28 2002-04-09 Sony Corp Authoring system, authoring method and recording medium
JP2003266347A (en) * 2002-03-18 2003-09-24 Sony Corp Motion editing device for leg type moving robot and motion editing method
JP2006026828A (en) * 2004-07-16 2006-02-02 Toyota Motor Corp Programming method for robot movement
JP2007213190A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Communication robot improvement system
JP2012527684A (en) * 2009-05-19 2012-11-08 サムスン エレクトロニクス カンパニー リミテッド Page editing method for home screen of mobile terminal and mobile terminal having home screen

Similar Documents

Publication Publication Date Title
JP3673725B2 (en) Information processing system for robots
US9594502B2 (en) Method and system for remote control, and remote-controlled user interface
CN104423589A (en) Haptic warping system
US8447428B2 (en) Method for editing movements of a robot
CN101411948A (en) Electronic toys
JP2008254074A (en) Motion editing device, and its program
KR20170102486A (en) Method for generating robot operation program, and device for generating robot operation program
JP4846416B2 (en) Combined game system
JP2007044798A (en) Robot communication system
JPWO2017199565A1 (en) Robot, robot operation method, and program
JP6625266B1 (en) Robot controller
JP2021083488A (en) Program and structure control system
JP2021083489A (en) Structure
JP6671928B2 (en) Robot motion control data generation system and motion control data generation method
KR100425246B1 (en) Remote-control robots system
KR20130093186A (en) Apparatus for making a moving image with interactive character
KR20200003437A (en) A system for coding education using generating an application for robot control
US20200164519A1 (en) Motion control apparatus of action robot and motion generation and control system including the same
JP6043893B2 (en) Message transmitting apparatus, message transmitting method, and recording medium
KR101666488B1 (en) System and method for managing action block for autonomous movement of robot
WO2020202929A1 (en) Information processing device
JP7437484B1 (en) Computer program, information processing terminal, and its control method
KR20140080624A (en) Guiding robot control system
JP2002132404A (en) Robot system, robot control device and method, and recording medium recorded with robot control program
WO2023100375A1 (en) Communication system

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20191224

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230320