JP2011000655A - Communication robot development supporting apparatus - Google Patents

Communication robot development supporting apparatus Download PDF

Info

Publication number
JP2011000655A
JP2011000655A JP2009143871A JP2009143871A JP2011000655A JP 2011000655 A JP2011000655 A JP 2011000655A JP 2009143871 A JP2009143871 A JP 2009143871A JP 2009143871 A JP2009143871 A JP 2009143871A JP 2011000655 A JP2011000655 A JP 2011000655A
Authority
JP
Japan
Prior art keywords
sequence
behavior
transition
screen
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009143871A
Other languages
Japanese (ja)
Other versions
JP5429461B2 (en
Inventor
Takayuki Kanda
崇行 神田
Masahiro Shiomi
昌裕 塩見
Satoshi Satake
聡 佐竹
Dylan Fairchild Glas
フェアチャイルド グラス ディラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2009143871A priority Critical patent/JP5429461B2/en
Publication of JP2011000655A publication Critical patent/JP2011000655A/en
Application granted granted Critical
Publication of JP5429461B2 publication Critical patent/JP5429461B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a noble communication robot development supporting apparatus facilitating setting of the transition of a complicated action module.SOLUTION: The communication robot development supporting apparatus (10) supports the development of a communication robot (12). Sequence display means layers the transition of an action module into a main sequence at the highest level and a sub sequence lower than the main sequence and individually displays a main sequence screen 312 corresponding to the main sequence and a sub sequence screen 314 corresponding to the sub sequence, respectively. For example, in the main sequence screen 312, a main sequence is prepared, based on a behavior icon 304 corresponding to the action module, a sequence icon 320 corresponding to the sub sequence and a transition line 306 showing an execution order of the action module by connecting between the icons. In the sub sequence screen 314, for example, a subsequence is prepared, based on the behavior icon 304 and the transition line 306. Thus, the transition of a complicated action module is easily defined.

Description

この発明は、コミュニケーションロボット開発支援装置に関し、特にたとえば、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るコミュニケーションロボットを開発するためのコミュニケーションロボット開発支援装置に関する。   The present invention relates to a communication robot development support device, and more particularly to a communication robot development support device for developing a communication robot that takes communication behavior by executing a behavior module including a series of behavior programs.

本件出願人は、特許文献1において、コミュニケーションロボット開発支援装置を提案している。たとえば、特許文献1では、コミュニケーションロボットに備えられるコミュニケーション行動(ビヘイビア)を制御するための行動モジュール間の関係性を画面上に分かりやすく視覚化する技術が開示されている。特許文献1の技術では、行動モジュール間の関係を直感的に把握することができるので、たとえば自律的な行動のための規則の作成・編集等を適切に行えるようになっている。   The present applicant has proposed a communication robot development support apparatus in Patent Document 1. For example, Patent Literature 1 discloses a technique for easily visualizing the relationship between behavior modules for controlling communication behavior (behavior) included in a communication robot on a screen. In the technique of Patent Document 1, since the relationship between behavior modules can be intuitively grasped, for example, creation / editing of rules for autonomous behavior can be appropriately performed.

特開2006−88328号[G06F 9/06]Japanese Patent Laying-Open No. 2006-88328 [G06F 9/06]

しかしながら、特許文献1の技術では、複雑な行動モジュールの関係性を分かりやすく画面上に視覚化することが困難であり、たとえば、階層性のある行動モジュールの遷移や行動モジュールの反射的遷移等をまとめて把握することができなかった。このため、複雑な行動モジュールの遷移を設定する場合には、開発者に余計な手間がかかっていた。   However, with the technology of Patent Document 1, it is difficult to visualize the relationship between complex behavior modules on the screen in an easy-to-understand manner. For example, hierarchical behavior module transitions or behavior module reflection transitions are performed. I couldn't grasp it all together. For this reason, when setting the transition of a complicated action module, the developer took extra effort.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボット開発支援装置を提供することである。   Therefore, a main object of the present invention is to provide a novel communication robot development support device.

この発明のさらに他の目的は、複雑な行動モジュールの遷移を簡単に設定できる、コミュニケーションロボット開発支援装置を提供することである。   Still another object of the present invention is to provide a communication robot development support device that can easily set transitions of complicated behavior modules.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るコミュニケーションロボットを開発するためのコミュニケーションロボット開発支援装置であって、行動モジュールの遷移を最上位であるメインシーケンスとそれより下位のサブシーケンスとに階層化し、メインシーケンスに対応するメインシーケンス画面とサブシーケンスに対応するサブシーケンス画面とを個別に画面上に表示するシーケンス表示手段、行動モジュールを示すビヘイビアアイコンを画面上に表示するとともに、サブシーケンスを示す第1シーケンスアイコンを少なくともメインシーケンス画面上に表示するアイコン表示手段、アイコン表示手段によってメインシーケンス画面上に表示されたアイコンと、アイコン間を連結して行動モジュールの実行順序を示す遷移線とに基づいて、メインシーケンスを作成するメインシーケンス作成手段、およびアイコン表示手段によってサブシーケンス画面上に表示されたアイコンと遷移線とに基づいて、サブシーケンスを作成するサブシーケンス作成手段を備える、コミュニケーションロボット開発支援装置である。   A first invention is a communication robot development support device for developing a communication robot that takes a communication action by executing an action module consisting of a series of action programs, and a main sequence in which the action module transition is at the highest level And sub-sequences corresponding to the main sequence and the sub-sequence screen corresponding to the sub-sequence are individually displayed on the screen, and the behavior icon indicating the behavior module is displayed on the screen. An icon display means for displaying the first sequence icon indicating the subsequence on at least the main sequence screen, and an icon displayed on the main sequence screen by the icon display means; Based on the transition line indicating the execution order of the behavior modules by connecting the icons, the main sequence creating means for creating the main sequence, and the icon and the transition line displayed on the sub-sequence screen by the icon display means And a communication robot development support device comprising subsequence creation means for creating a subsequence.

第1の発明では、コミュニケーションロボット開発支援装置(10)は、コミュニケーションロボット(12)の開発を支援するためのものである。シーケンス表示手段(26,302,312,314,S1)は、行動モジュールの遷移を最上位であるメインシーケンスとそれより下位のサブシーケンスとに階層化し、メインシーケンスに対応するメインシーケンス画面(312)とサブシーケンスに対応するサブシーケンス画面(314)とをそれぞれ個別に視覚化画面上(302)に表示する。メインシーケンス画面では、行動モジュールに対応するビヘイビアアイコン(304)とサブシーケンスに対応するシーケンスアイコン(320)とが表示される。メインシーケンス作成手段(312,S7)は、ビヘイビアアイコン、シーケンスアイコン、およびアイコン間を連結して行動モジュールの実行順序を示す遷移線(306)に基づいて、メインシーケンスを作成する。また、サブシーケンス画面では、行動モジュールに対応するビヘイビアアイコンが表示される。たとえば、サブシーケンス作成手段(314,S7)は、ビヘイビアアイコンと遷移線とに基づいて、サブシーケンスを作成する。   In the first invention, the communication robot development support device (10) is for supporting the development of the communication robot (12). The sequence display means (26, 302, 312, 314, S1) stratifies the transition of the behavior module into a main sequence that is the highest level and a subsequence that is lower than that, and a main sequence screen (312) corresponding to the main sequence. And a subsequence screen (314) corresponding to the subsequence are individually displayed on the visualization screen (302). On the main sequence screen, a behavior icon (304) corresponding to the behavior module and a sequence icon (320) corresponding to the sub-sequence are displayed. The main sequence creation means (312, S7) creates a main sequence based on the behavior icon, the sequence icon, and the transition line (306) indicating the execution order of the behavior modules by connecting the icons. In addition, on the sub-sequence screen, a behavior icon corresponding to the behavior module is displayed. For example, the subsequence creation means (314, S7) creates a subsequence based on the behavior icon and the transition line.

第1の発明によれば、複雑な行動モジュールの遷移を簡単に設定することができる。   According to the first invention, it is possible to easily set the transition of a complicated behavior module.

第2の発明は、第1の発明に従属し、メインシーケンス作成手段によって作成されたメインシーケンスとサブシーケンス作成手段によって作成されたサブシーケンスとを記憶するシーケンス記憶手段をさらに備え、アイコン表示手段は、シーケンス記憶手段から所望のシーケンスを読み出して、そのシーケンスを示す第2シーケンスアイコンを画面上に表示する読み出しアイコン表示手段を含む。   The second invention is dependent on the first invention and further comprises sequence storage means for storing the main sequence created by the main sequence creation means and the subsequence created by the subsequence creation means, and the icon display means is Readout icon display means for reading a desired sequence from the sequence storage means and displaying a second sequence icon indicating the sequence on the screen.

第2の発明では、シーケンス記憶手段(30,S11)は、メインシーケンス画面(312)で作成されたメインシーケンス、およびサブシーケンス画面(314)で作成されたサブシーケンスを記憶する。たとえば、シーケンスリスト画面(318)には、シーケンス記憶手段によって記憶されたシーケンスの名称のリストが表示される。そして、たとえば、マウスなどの入力装置(28)でドラッグされたシーケンスの名称が視覚化画面(302)でドロップされることによって、そのシーケンスを示すシーケンスアイコンが視覚化画面上に表示される。   In the second invention, the sequence storage means (30, S11) stores the main sequence created on the main sequence screen (312) and the subsequence created on the subsequence screen (314). For example, the sequence list screen (318) displays a list of sequence names stored by the sequence storage means. Then, for example, when the name of the sequence dragged by the input device (28) such as a mouse is dropped on the visualization screen (302), a sequence icon indicating the sequence is displayed on the visualization screen.

第3の発明は、第1または2の発明に従属し、行動モジュールの反射的遷移からの戻り先を指定する戻り先指定手段をさらに備える。   A third invention is dependent on the first or second invention, and further includes a return destination designating unit for designating a return destination from the reflective transition of the behavior module.

第3の発明では、戻り先指定手段(26,334)は、たとえば、反射的遷移のビヘイビアのビヘイビアアイコン(304)と反射的遷移を終了した後で実行するビヘイビアのビヘイビアアイコンとが反射的遷移線(334)で連結されることによって、行動モジュールの反射的遷移からの戻り先を指定する。   In the third invention, the return destination designating means (26, 334), for example, includes a reflective transition between a behavior icon (304) of a behavior of a reflective transition and a behavior icon of a behavior to be executed after finishing the reflective transition. By connecting with a line (334), the return destination from the reflexive transition of the behavior module is specified.

第3の発明によれば、行動モジュールの反射的遷移に対して、「遷移元へ戻る」、「遷移元のシーケンスの先頭に戻る」、「戻り先を指定する」等の遷移方法を簡単に設定することができる。   According to the third invention, the transition method such as “return to the transition source”, “return to the top of the sequence of the transition source”, “specify the return destination”, etc. can be simply applied to the reflective transition of the behavior module Can be set.

この発明によれば、行動モジュールの遷移をメインシーケンスとサブシーケンスとに階層化して、メインシーケンスを示すメインシーケンス画面とサブシーケンスを示すサブシーケンス画面とをそれぞれ個別に表示するため、複雑な行動モジュールの関係性を簡単に把握することができる。   According to the present invention, the behavior module transition is hierarchized into a main sequence and a sub sequence, and the main sequence screen showing the main sequence and the sub sequence screen showing the sub sequence are individually displayed. Can easily grasp the relationship.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例のコミュニケーションロボット開発支援装置およびコミュニケーションロボットの一例を示す図解図である。It is an illustration figure which shows an example of the communication robot development assistance apparatus and communication robot of one Example of this invention. 図1に示すコミュニケーションロボット開発支援装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the communication robot development assistance apparatus shown in FIG. 図1に示すコミュニケーションロボットの備える行動モジュールの構成を示す図解図である。It is an illustration figure which shows the structure of the action module with which the communication robot shown in FIG. 1 is provided. (A)は、行動モジュールの順次的遷移を示す図解図であり、(B)は、行動モジュールの反射的遷移を示す図解図である。(A) is an illustration figure which shows the sequential transition of an action module, (B) is an illustration figure which shows the reflective transition of an action module. 図1に示すコミュニケーションロボットの一例を示す外観図である。It is an external view which shows an example of the communication robot shown in FIG. 図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of the communication robot shown in FIG. 図1に示すコミュニケーションロボット開発支援装置で表示されるコンポーザ画面の一例を示す図解図である。It is an illustration figure which shows an example of the composer screen displayed with the communication robot development assistance apparatus shown in FIG. 図7に示すコンポーザ画面のメインシーケンス画面に表示されるメインシーケンスを示す図解図である。It is an illustration figure which shows the main sequence displayed on the main sequence screen of the composer screen shown in FIG. 図1に示すコミュニケーションロボット開発支援装置で表示されるコンポーザ画面の一例を示す図解図である。It is an illustration figure which shows an example of the composer screen displayed with the communication robot development assistance apparatus shown in FIG. 図9に示すコンポーザ画面のサブシーケンス画面に表示されるサブシーケンスを示す図解図である。It is an illustration figure which shows the subsequence displayed on the subsequence screen of the composer screen shown in FIG. 図9に示すコンポーザ画面のサブシーケンス画面に表示される反射的遷移を示す図解図である。It is an illustration figure which shows the reflective transition displayed on the subsequence screen of the composer screen shown in FIG. 開発支援装置の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of a development assistance apparatus. コミュニケーションロボットの動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of a communication robot. 図13の反射的遷移の実行処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the execution process of the reflective transition of FIG.

図1を参照して、この実施例のコミュニケーションロボット開発支援装置(以下、単に「開発支援装置」という。)10は、一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るコミュニケーションロボット(以下、単に「ロボット」という。)12の開発を支援するためのものである。   Referring to FIG. 1, a communication robot development support apparatus (hereinafter simply referred to as “development support apparatus”) 10 of this embodiment is a communication robot that takes a communication action by executing an action module consisting of a series of action programs. (Hereinafter simply referred to as “robot”).

開発支援装置10は、パーソナルコンピュータ(PC)またはワークステーション等のコンピュータで構成されており、たとえば、図2に示すようにCPU20を含む。CPU20は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス22を介して、メモリ24、液晶ディスプレイまたはCRT等の表示装置26、ならびに、マウスおよびキーボード等の入力装置28に接続される。   The development support apparatus 10 is configured by a computer such as a personal computer (PC) or a workstation, and includes, for example, a CPU 20 as shown in FIG. The CPU 20 is also called a microcomputer or a processor, and is connected via a bus 22 to a memory 24, a display device 26 such as a liquid crystal display or CRT, and an input device 28 such as a mouse and a keyboard.

メモリ24は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、この開発支援装置10の動作を制御するためのプログラムが記憶されており、また、表示装置26に表示される画面データや各アイコンの画像データ等も記憶されている。さらに、ROMおよびHDDには、ロボット12のビヘイビアを制御するためのプログラムやデータが記憶されている。ここで、ビヘイビアとは、行動モジュールによって実現されるロボット12のコミュニケーション行動を示しており、ROMおよびHDDには、複数の行動モジュールが各ビヘイビアに対応付けて記憶されている。また、RAMは、ワークメモリやバッファメモリとして用いられる。   Although not shown, the memory 24 includes a ROM, an HDD, and a RAM. The ROM and HDD store a program for controlling the operation of the development support apparatus 10, and also store screen data displayed on the display device 26, image data of each icon, and the like. Furthermore, the ROM and the HDD store programs and data for controlling the behavior of the robot 12. Here, the behavior indicates the communication behavior of the robot 12 realized by the behavior module, and a plurality of behavior modules are stored in the ROM and HDD in association with each behavior. The RAM is used as a work memory or a buffer memory.

さらに、CPU20は、バス22を介してシーケンスデータベース(以下、シーケンスDB)30に接続される。後で詳細に説明するように、シーケンスDB30には、メインシーケンスとサブシーケンスとが記憶され、ロボット12の開発者等は、このシーケンスDB30に記憶されているシーケンスのデータ(シーケンスデータ)を読み出して、そのシーケンスのデータを用いて、行動モジュールの状態遷移を設定することができる。   Further, the CPU 20 is connected to a sequence database (hereinafter, sequence DB) 30 via the bus 22. As will be described in detail later, the sequence DB 30 stores the main sequence and sub-sequence, and the developer of the robot 12 reads the sequence data (sequence data) stored in the sequence DB 30. The state transition of the behavior module can be set using the data of the sequence.

また、CPU20は、バス22を介して通信LANボード32に接続される。通信LANボード32は、たとえばDSPで構成され、CPU20から与えられた送信データを無線通信装置34に与え、無線通信装置34は送信データを、ネットワーク200を介してロボット12に送信する。また、通信LANボード32は、無線通信装置34を介してデータを受信し、受信したデータをCPU20に与える。   The CPU 20 is connected to the communication LAN board 32 via the bus 22. The communication LAN board 32 is configured by a DSP, for example, and provides transmission data given from the CPU 20 to the wireless communication device 34, and the wireless communication device 34 transmits the transmission data to the robot 12 via the network 200. The communication LAN board 32 receives data via the wireless communication device 34 and gives the received data to the CPU 20.

この開発支援装置10によって開発を支援するロボット12について説明する。   The robot 12 that supports development by the development support apparatus 10 will be described.

ロボット12は、各種センサを有するヒューマノイド型で自律移動型のものであり、身振りおよび音声の少なくとも一方を用いて、コミュニケーション行動を取ることができる。このようなロボット12のコミュニケーション行動(ビヘイビア)を実現するためのプログラムは、上述したように、モジュール化された「行動モジュール」として実行される。また、行動モジュールの実行順序は、「行動モジュールの状態遷移」として設定され、長期的に首尾一貫した前後関係または調和した状況を維持しているコミュニケーション行動が実現される。「行動モジュールの状態遷移」は、行動モジュールの短期的な遷移を示すものであり、たとえば、数個程度の行動モジュールの繋がりないし順序付けであり得るが、長期(たとえば一日中)やすべての行動モジュールの遷移を定めたものではない。すなわち、ロボット12は、「行動モジュール」を順次実行し、その行動モジュールの実行順序は、「行動モジュールの状態遷移」によって導かれる。   The robot 12 is a humanoid type and autonomously moving type having various sensors, and can take a communication action using at least one of gesture and voice. As described above, the program for realizing the communication behavior (behavior) of the robot 12 is executed as a modularized “behavior module”. Further, the execution order of the behavior modules is set as “behavior module state transition”, and a communication behavior that maintains a coherent context or a harmonious situation in the long term is realized. “Behavior module state transition” indicates a short-term transition of a behavior module. For example, it may be a connection or ordering of several behavior modules, but a long-term (for example, all day) or all behavior modules. It does not define a transition. That is, the robot 12 sequentially executes the “behavior modules”, and the execution order of the behavior modules is guided by “state transition of the behavior modules”.

具体的には、行動モジュールは、図3に示すように、前提条件部、指示部および認識部を含む。行動モジュールを実行する際には、まず、前提条件部を実行することによって、ロボット12は、その行動モジュールが実行可能な状況であるかどうかを確認する。前提条件を満足する場合には、次に指示部を実行する。これにより、ロボット12は人間と相互作用する行動を取り、具体的には、身振りおよび音声の少なくとも一方を用いて所定のコミュニケーション行動を人間に提示する。認識部は、ロボット12の提示したコミュニケーション行動に対して取ると予想される幾つかの人間の反応(予想1〜予想N)を認識するように設定されている。   Specifically, the behavior module includes a precondition section, an instruction section, and a recognition section, as shown in FIG. When executing the behavior module, first, the robot 12 confirms whether or not the behavior module is in an executable state by executing the precondition section. If the precondition is satisfied, the instruction unit is executed next. Thereby, the robot 12 takes an action that interacts with a human, and specifically presents a predetermined communication action to the human using at least one of gesture and voice. The recognition unit is set to recognize several human reactions (predicted 1 to expected N) that are expected to be taken with respect to the communication action presented by the robot 12.

行動モジュールの遷移は、図4に示すように、順次的遷移および反射的遷移を含む。ロボット10は、現在の行動モジュールの指示部を実行した後、認識部を実行することによって人間の反応を認識する。その後、ロボット10は、現在の行動モジュールの実行を終了し、認識結果に相当する結果値を記録して、次の実行可能な行動モジュールに推移する(図4(A))。次に実行する行動モジュールは、現在の行動モジュールの結果値(予想1〜予想N)によって決定され、この遷移が行動モジュールの状態遷移によって導かれる。   The behavior module transitions include sequential transitions and reflexive transitions, as shown in FIG. The robot 10 recognizes the human reaction by executing the recognizing unit after executing the instruction unit of the current behavior module. Thereafter, the robot 10 ends the execution of the current behavior module, records a result value corresponding to the recognition result, and transitions to the next executable behavior module (FIG. 4A). The behavior module to be executed next is determined by the result values (predicted 1 to predicted N) of the current behavior module, and this transition is guided by the state transition of the behavior module.

また、外部から妨害などがあった場合は、反射的遷移によって取り扱われる。反射的遷移が現在の状況に対して設定されていて、かつ、対応する次の行動モジュールの前提条件部が満足される場合、ロボット12は現在の行動モジュールの実行を止めてすぐに次の行動モジュールに遷移する(図4(B))。この反応的な遷移も行動モジュールの状態遷移によって導かれる。   In addition, if there is a disturbance from the outside, it is handled by a reflective transition. If a reflexive transition is set for the current situation and the precondition part of the corresponding next action module is satisfied, the robot 12 stops executing the current action module and immediately Transition to a module (FIG. 4B). This reactive transition is also guided by the state transition of the behavior module.

ただし、行動モジュールの実行順序に関する規則として「エピソード・ルール」を適用することもできる。この「エピソード・ルール」については、本件出願人が先に出願し、既に出願公開された特開2004−114242号公報に開示されている。   However, the “episode rule” can also be applied as a rule regarding the execution order of the behavior modules. This “episode rule” is disclosed in Japanese Patent Application Laid-Open No. 2004-114242 filed by the applicant in advance and already published.

図5を参照して、ロボット12のハードウェア面の構成を詳細に説明する。図5に示すように、ロボット12は台車50を含み、台車50の下面にはロボット12を自律移動させる2つの車輪52および1つの従輪54が設けられる。2つの車輪52は車輪モータ76(図6参照)によってそれぞれ独立に駆動され、台車50すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪54は車輪52を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。ただし、ロボット12は、或る場所に固定的に配置されても構わない。   The hardware configuration of the robot 12 will be described in detail with reference to FIG. As shown in FIG. 5, the robot 12 includes a carriage 50, and two wheels 52 and one slave wheel 54 that autonomously move the robot 12 are provided on the lower surface of the carriage 50. The two wheels 52 are independently driven by a wheel motor 76 (see FIG. 6), and the carriage 50, that is, the robot 12 can be moved in any direction, front, back, left, and right. The slave wheel 54 is an auxiliary wheel that assists the wheel 52. Therefore, the robot 12 can move in the arranged space by autonomous control. However, the robot 12 may be fixedly arranged at a certain place.

台車50の上には、円柱形のセンサ取り付けパネル58が設けられ、このセンサ取り付けパネル58には、多数の赤外線距離センサ60が取り付けられる。これらの赤外線距離センサ60は、センサ取り付けパネル58すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor mounting panel 58 is provided on the carriage 50, and a large number of infrared distance sensors 60 are mounted on the sensor mounting panel 58. These infrared distance sensors 60 measure the distance to the sensor mounting panel 58, that is, the object (such as a human being or an obstacle) around the robot 12.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル58の上には、胴体62が直立するように設けられる。また、胴体62の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ60がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体62には、その側面側の上端部のほぼ中央から伸びる支柱64が設けられ、支柱64の上には、全方位カメラ66が設けられる。全方位カメラ66は、ロボット12の周囲を撮影するものであり、後述する眼カメラ90とは区別される。この全方位カメラ66としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ60および全方位カメラ66の設置位置は、当該部位に限定されず適宜変更され得る。   A body 62 is provided on the sensor mounting panel 58 so as to stand upright. Further, the above-described infrared distance sensor 60 is further provided at the front upper center of the body 62 (a position corresponding to a person's chest), and measures the distance mainly to a person in front of the robot 12. Further, the body 62 is provided with a support column 64 extending from substantially the center of the upper end on the side surface side, and an omnidirectional camera 66 is provided on the support column 64. The omnidirectional camera 66 captures the surroundings of the robot 12 and is distinguished from an eye camera 90 described later. As the omnidirectional camera 66, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 60 and the omnidirectional camera 66 are not limited to the portions, and can be changed as appropriate.

胴体62の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節68Rおよび肩関節68Lによって、上腕70Rおよび上腕70Lが設けられる。図示は省略するが、肩関節68Rおよび肩関節68Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節68Rは、直交する3軸のそれぞれの軸廻りにおいて上腕70Rの角度を制御できる。肩関節68Rの或る軸(ヨー軸)は、上腕70Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節68Lは、直交する3軸のそれぞれの軸廻りにおいて上腕70Lの角度を制御できる。肩関節68Lの或る軸(ヨー軸)は、上腕70Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 70R and an upper arm 70L are provided at upper end portions on both sides of the body 62 (a position corresponding to a human shoulder) by a shoulder joint 68R and a shoulder joint 68L, respectively. Although illustration is omitted, each of the shoulder joint 68R and the shoulder joint 68L has three orthogonal degrees of freedom. That is, the shoulder joint 68R can control the angle of the upper arm 70R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 68R is an axis parallel to the longitudinal direction (or axis) of the upper arm 70R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 68L can control the angle of the upper arm 70L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 68L is an axis parallel to the longitudinal direction (or axis) of the upper arm 70L, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is an axis to do.

また、上腕70Rおよび上腕70Lのそれぞれの先端には、肘関節72Rおよび肘関節72Lが設けられる。図示は省略するが、肘関節72Rおよび肘関節72Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕74Rおよび前腕74Lの角度を制御できる。   In addition, an elbow joint 72R and an elbow joint 72L are provided at the tips of the upper arm 70R and the upper arm 70L, respectively. Although illustration is omitted, each of the elbow joint 72R and the elbow joint 72L has one degree of freedom, and the angles of the forearm 74R and the forearm 74L can be controlled around the axis (pitch axis).

前腕74Rおよび前腕74Lのそれぞれの先端には、人の手に相当する球体76Rおよび球体76Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車50の前面、肩関節68Rと肩関節68Lとを含む肩に相当する部位、上腕70R、上腕70L、前腕74R、前腕74L、球体76Rおよび球体76Lには、それぞれ、接触センサ78(図6で包括的に示す)が設けられる。台車50の前面の接触センサ78は、台車50への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪52の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ78は、当該各部位に触れたかどうかを検知する。なお、接触センサ78の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。   A sphere 76R and a sphere 76L corresponding to a human hand are fixedly provided at the tips of the forearm 74R and the forearm 74L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 50, the portion corresponding to the shoulder including the shoulder joint 68R and the shoulder joint 68L, the upper arm 70R, the upper arm 70L, the forearm 74R, the forearm 74L, the sphere 76R, and the sphere 76L, , A contact sensor 78 (shown generically in FIG. 6) is provided. A contact sensor 78 on the front surface of the carriage 50 detects contact of a person or other obstacle with the carriage 50. Therefore, when the robot 12 is in contact with an obstacle during its movement, the robot 12 can detect the contact and immediately stop the driving of the wheel 52 to suddenly stop the movement of the robot 12. Further, the other contact sensors 78 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 78 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体62の中央上部(人の首に相当する位置)には首関節80が設けられ、さらにその上には頭部82が設けられる。図示は省略するが、首関節80は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 80 is provided at the upper center of the body 62 (a position corresponding to a person's neck), and a head 82 is further provided thereon. Although illustration is omitted, the neck joint 80 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 12, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部82には、人の口に相当する位置に、スピーカ84が設けられる。スピーカ84は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク86Rおよびマイク86Lが設けられる。以下、右のマイク86Rと左のマイク86Lとをまとめてマイク86ということがある。マイク86は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部88Rおよび眼球部88Lが設けられる。眼球部88Rおよび眼球部88Lは、それぞれ眼カメラ90Rおよび眼カメラ90Lを含む。以下、右の眼球部88Rと左の眼球部88Lとをまとめて眼球部88ということがある。また、右の眼カメラ90Rと左の眼カメラ90Lとをまとめて眼カメラ90ということがある。   The head 82 is provided with a speaker 84 at a position corresponding to a human mouth. The speaker 84 is used for the robot 12 to communicate with a person around it by voice or sound. A microphone 86R and a microphone 86L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 86R and the left microphone 86L may be collectively referred to as a microphone 86. The microphone 86 captures ambient sounds, in particular, the voices of humans who are subjects of communication. Furthermore, an eyeball part 88R and an eyeball part 88L are provided at positions corresponding to human eyes. The eyeball part 88R and the eyeball part 88L include an eye camera 90R and an eye camera 90L, respectively. Hereinafter, the right eyeball part 88R and the left eyeball part 88L may be collectively referred to as the eyeball part 88. Further, the right eye camera 90R and the left eye camera 90L may be collectively referred to as an eye camera 90.

眼カメラ90は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ90は、上述した全方位カメラ66と同様のカメラを用いることができる。たとえば、眼カメラ90は、眼球部88内に固定され、眼球部88は、眼球支持部(図示せず)を介して頭部82内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部82の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部82の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部88ないし眼カメラ90の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ84、マイク86および眼カメラ90の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 90 captures a human face approaching the robot 12, other parts or objects, and captures a corresponding video signal. The eye camera 90 can be the same camera as the omnidirectional camera 66 described above. For example, the eye camera 90 is fixed in the eyeball unit 88, and the eyeball unit 88 is attached to a predetermined position in the head 82 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 82, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 82 faces. It is an axis (pitch axis) in the direction to be. By rotating the eyeball support portion around each of the two axes, the tip (front) side of the eyeball portion 88 or the eye camera 90 is displaced, and the camera axis, that is, the line-of-sight direction is moved. In addition, the installation positions of the above-described speaker 84, microphone 86, and eye camera 90 are not limited to the portions, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪52の独立2軸駆動、肩関節68の3自由度(左右で6自由度)、肘関節72の1自由度(左右で2自由度)、首関節80の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 12 of this embodiment includes independent two-axis driving of the wheels 52, three degrees of freedom of the shoulder joint 68 (6 degrees of freedom on the left and right), one degree of freedom of the elbow joint 72 (2 degrees of freedom on the left and right), It has a total of 17 degrees of freedom, 3 degrees of freedom for the neck joint 80 and 2 degrees of freedom for the eyeball support (4 degrees of freedom for left and right).

図6はロボット12の電気的な構成を示すブロック図である。この図6を参照して、ロボット12は、CPU100を含む。CPU100は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス102を介して、メモリ104、モータ制御ボード106、センサ入力/出力ボード108および音声入力/出力ボード110に接続される。   FIG. 6 is a block diagram showing an electrical configuration of the robot 12. With reference to FIG. 6, the robot 12 includes a CPU 100. The CPU 100 is also called a microcomputer or a processor, and is connected to the memory 104, the motor control board 106, the sensor input / output board 108, and the audio input / output board 110 via the bus 102.

メモリ104は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、開発支援装置10のメモリ24に記憶されているものと同じ、複数の行動モジュールが記憶されている。また、RAMは、ワークメモリやバッファメモリとして用いられる。   Although not shown, the memory 104 includes a ROM, an HDD, and a RAM. The ROM and HDD store a plurality of behavior modules that are the same as those stored in the memory 24 of the development support apparatus 10. The RAM is used as a work memory or a buffer memory.

モータ制御ボード106は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード106は、CPU100からの制御データを受け、右眼球部88Rの2軸のそれぞれの角度を制御する2つのモータ(図6では、まとめて「右眼球モータ112」と示す)の回転角度を制御する。同様にして、モータ制御ボード106は、CPU100からの制御データを受け、左眼球部88Lの2軸のそれぞれの角度を制御する2つのモータ(図6では、まとめて「左眼球モータ114」と示す)の回転角度を制御する。   The motor control board 106 is configured by, for example, a DSP, and controls driving of motors of axes such as arms, neck joints, and eyeballs. In other words, the motor control board 106 receives control data from the CPU 100, and controls two motors that control the respective angles of the two axes of the right eyeball unit 88R (collectively indicated as “right eyeball motor 112” in FIG. 6). Control the rotation angle. Similarly, the motor control board 106 receives the control data from the CPU 100, and shows two motors for controlling the angles of the two axes of the left eyeball portion 88L (in FIG. 6, collectively referred to as “left eyeball motor 114”). ) To control the rotation angle.

また、モータ制御ボード106は、CPU100からの制御データを受け、肩関節68Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節72Rの角度を制御する1つのモータとの計4つのモータ(図6では、まとめて「右腕モータ116」と示す)の回転角度を制御する。同様にして、モータ制御ボード106は、CPU100からの制御データを受け、肩関節68Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節72Lの角度を制御する1つのモータとの計4つのモータ(図6では、まとめて「左腕モータ118」と示す)の回転角度を制御する。   The motor control board 106 receives control data from the CPU 100, and includes a total of four motors including three motors for controlling the angles of the three orthogonal axes of the shoulder joint 68R and one motor for controlling the angle of the elbow joint 72R. The rotation angle of two motors (collectively indicated as “right arm motor 116” in FIG. 6) is controlled. Similarly, the motor control board 106 receives control data from the CPU 100, and includes three motors for controlling the angles of the three orthogonal axes of the shoulder joint 68L and one motor for controlling the angle of the elbow joint 72L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 118” in FIG. 6) are controlled.

さらに、モータ制御ボード106は、CPU100からの制御データを受け、首関節80の直交する3軸のそれぞれの角度を制御する3つのモータ(図6では、まとめて「頭部モータ130」と示す)の回転角度を制御する。そして、モータ制御ボード106は、CPU100からの制御データを受け、車輪52を駆動する2つのモータ(図6では、まとめて「車輪モータ76」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ76を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ76と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。   Further, the motor control board 106 receives three control data from the CPU 100 and controls three angles of the three orthogonal axes of the neck joint 80 (in FIG. 6, collectively indicated as “head motor 130”). Control the rotation angle. The motor control board 106 receives control data from the CPU 100 and controls the rotation angles of two motors (collectively referred to as “wheel motors 76” in FIG. 6) that drive the wheels 52. In this embodiment, a motor other than the wheel motor 76 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 76. The actuator that drives the body part of the robot 12 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator or the like may be applied.

センサ入力/出力ボード108は、モータ制御ボード106と同様に、DSPで構成され、各センサからの信号を取り込んでCPU100に与える。すなわち、赤外線距離センサ60のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード108を通じてCPU100に入力される。また、全方位カメラ66からの映像信号が、必要に応じてセンサ入力/出力ボード108で所定の処理を施してからCPU100に入力される。眼カメラ90からの映像信号も、同様にして、CPU100に入力される。また、上述した複数の接触センサ78(図6では、まとめて「接触センサ78」と示す)からの信号がセンサ入力/出力ボード108を介してCPU100に与えられる。音声入力/出力ボード110もまた、同様に、DSPで構成され、CPU100から与えられる音声合成データに従った音声または声がスピーカ84から出力される。また、マイク86からの音声入力が、音声入力/出力ボード110を介してCPU100に与えられる。   Similar to the motor control board 106, the sensor input / output board 108 is configured by a DSP and takes in signals from each sensor and gives them to the CPU 100. That is, data relating to the reflection time from each of the infrared distance sensors 60 is input to the CPU 100 through the sensor input / output board 108. Further, the video signal from the omnidirectional camera 66 is input to the CPU 100 after being subjected to predetermined processing by the sensor input / output board 108 as necessary. Similarly, the video signal from the eye camera 90 is also input to the CPU 100. Further, signals from the plurality of contact sensors 78 described above (collectively referred to as “contact sensors 78” in FIG. 6) are provided to the CPU 100 via the sensor input / output board 108. Similarly, the voice input / output board 110 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 100 is output from the speaker 84. Also, voice input from the microphone 86 is given to the CPU 100 via the voice input / output board 110.

また、CPU100は、バス102を介して通信LANボード132に接続される。通信LANボード132は、たとえばDSPで構成され、CPU100から与えられた送信データを無線通信装置134に与え、無線通信装置134は送信データを、ネットワーク200を介して開発支援装置10に送信する。また、通信LANボード132は、無線通信装置134を介してデータを受信し、受信したデータをCPU100に与える。   The CPU 100 is connected to the communication LAN board 132 via the bus 102. The communication LAN board 132 is configured by a DSP, for example, and sends transmission data given from the CPU 100 to the wireless communication device 134, and the wireless communication device 134 sends the transmission data to the development support device 10 via the network 200. In addition, the communication LAN board 132 receives data via the wireless communication device 134 and provides the received data to the CPU 100.

開発支援装置10は、上述のようなロボット12の開発に役立つものである。具体的には、開発支援装置10では、開発支援処理が開始されると、たとえば図7および図9に示すようなコンポーザ画面300が表示装置26に表示される。   The development support apparatus 10 is useful for the development of the robot 12 as described above. Specifically, in the development support device 10, when the development support process is started, a composer screen 300 as shown in FIGS. 7 and 9 is displayed on the display device 26.

このコンポーザ画面300では、ロボット12の開発者等は、行動モジュールの状態遷移を設定して、その行動モジュールの状態遷移に関する情報(遷移情報)をロボット12に送信することができる。そして、後で詳細に説明するように、開発支援装置10から遷移情報を受信したロボット12は、遷移情報に従って行動モジュールのデータをメモリ104から読み出し、その行動モジュールに対応するコミュニケーション行動を取る。   On this composer screen 300, the developer of the robot 12 can set the state transition of the behavior module and can transmit information (transition information) regarding the state transition of the behavior module to the robot 12. Then, as will be described in detail later, the robot 12 that has received the transition information from the development support apparatus 10 reads the behavior module data from the memory 104 according to the transition information, and takes a communication behavior corresponding to the behavior module.

図7および図9に示すように、コンポーザ画面300は、視覚化画面302を含み、この視覚化画面302には、行動モジュールの状態遷移が図式的に視覚化されて表示される。視覚化画面302では、行動モジュールに対応するビヘイビアが矩形状のアイコン(ビヘイビアアイコン304)で表示され、ビヘイビアアイコン304と他のビヘイビアアイコン304とは行動モジュールの実行順序を示す矢印線(遷移線306)によって連結される。具体的には、ビヘイビアアイコン304(ビヘイビアアイコンA)の右側(出力側)にあるポートがマウスなどの入力装置28でクリックされると、このポートから現在のマウスポインタまでの矢印線(遷移線306)が視覚化画面302上に表示される。そして、そのままビヘイビアアイコン304(ビヘイビアアイコンB)の左側(入力側)にあるポートがクリックされると、ビヘイビアアイコン304(ビヘイビアアイコンA)とビヘイビアアイコン304(ビヘイビアアイコンB)とが遷移線306で連結されることとなる。   As shown in FIGS. 7 and 9, the composer screen 300 includes a visualization screen 302, on which a state transition of the behavior module is graphically visualized and displayed. On the visualization screen 302, behaviors corresponding to the behavior modules are displayed as rectangular icons (behavior icons 304), and the behavior icons 304 and other behavior icons 304 are arrow lines (transition lines 306) indicating the execution order of the behavior modules. ). Specifically, when a port on the right side (output side) of the behavior icon 304 (behavior icon A) is clicked with the input device 28 such as a mouse, an arrow line (transition line 306) from this port to the current mouse pointer. ) Is displayed on the visualization screen 302. When the port on the left side (input side) of the behavior icon 304 (behavior icon B) is clicked as it is, the behavior icon 304 (behavior icon A) and the behavior icon 304 (behavior icon B) are connected by a transition line 306. Will be.

また、視覚化画面302左上部には、メインシーケンスタブ308ないしサブシーケンスタブ310が設けられる。視覚化画面302では、行動モジュールの状態遷移が最上位であるメインシーケンスとそれより下位のサブシーケンスとに階層化されて表示され、たとえば、マウスなどの入力装置28でメインシーケンスタブ308ないしサブシーケンスタブ310を選択されることによって、視覚化画面302がメインシーケンスに対応するメインシーケンス画面312(図7参照)とサブシーケンスに対応するサブシーケンス画面314(図9参照)とに切り替えられる。ロボット12の開発者等は、メインシーケンス画面312でメインシーケンスを作成するとともに、サブシーケンス画面314でサブシーケンスを作成することができ、その作成されたシーケンスがシーケンスDB30に保存される。   In addition, a main sequence tab 308 to a sub sequence tab 310 are provided in the upper left portion of the visualization screen 302. On the visualization screen 302, the state transition of the behavior module is displayed in a hierarchy in a main sequence having the highest level and a subsequence lower than the main sequence. For example, the main sequence tab 308 or the sub sequence is displayed with the input device 28 such as a mouse. By selecting the tab 310, the visualization screen 302 is switched between a main sequence screen 312 (see FIG. 7) corresponding to the main sequence and a sub sequence screen 314 (see FIG. 9) corresponding to the sub sequence. The developer of the robot 12 can create a main sequence on the main sequence screen 312 and can create a sub sequence on the sub sequence screen 314, and the created sequence is stored in the sequence DB 30.

さらに、視覚化画面302右側には、ビヘイビアリスト画面316が設けられる。ビヘイビアリスト画面316には、「Akushu(握手)」、「Hug(抱き合う)」、「Bye(ばいばい)」、「Listen(聴取)」、「Talk(挨拶)」、「Guide(道案内)」、「Navi(誘導)」などの、ビヘイビアの名称のリストがマウスなどの入力装置28によるドラッグ・アンド・ドロップ操作の対象オブジェクト(ビヘイビアオブジェクト)として表示される。たとえば、ロボット12の開発者等がマウスなどの入力装置28を操作し、ビヘイビアリスト画面316のビヘイビアオブジェクトをドラッグし、そして視覚化画面302でこれをドロップすると、そのビヘイビアオブジェクトに対応するビヘイビアアイコン304が視覚化画面302に描画される。   Further, a behavior list screen 316 is provided on the right side of the visualization screen 302. The behavior list screen 316 includes “Akushu”, “Hug”, “Bye”, “Listen”, “Talk”, “Guide”, A list of behavior names such as “Navi (guidance)” is displayed as a target object (behavior object) of a drag-and-drop operation by the input device 28 such as a mouse. For example, when the developer of the robot 12 operates the input device 28 such as a mouse, drags a behavior object on the behavior list screen 316, and drops it on the visualization screen 302, a behavior icon 304 corresponding to the behavior object is displayed. Is drawn on the visualization screen 302.

また、視覚化画面302左側には、シーケンスリスト画面318が設けられる。シーケンスリスト画面318には、シーケンスDB30に保存されているシーケンスのリストが表示され、それぞれのシーケンスの名称がマウスなどの入力装置28によるドラッグ・アンド・ドロップ操作の対象オブジェクト(シーケンスオブジェクト)として表示される。たとえば、ロボット12の開発者等がマウスなどの入力装置28を操作し、シーケンスリスト画面318におけるサブシーケンスのシーケンスオブジェクトをドラッグし、そして視覚化画面302でこれをドロップすると、そのシーケンスに対応するアイコン(シーケンスアイコン320)が視覚化画面302に描画される。   A sequence list screen 318 is provided on the left side of the visualization screen 302. On the sequence list screen 318, a list of sequences stored in the sequence DB 30 is displayed, and the names of the respective sequences are displayed as objects (sequence objects) to be dragged and dropped by the input device 28 such as a mouse. The For example, when the developer of the robot 12 operates the input device 28 such as a mouse, drags a sequence object of a sub sequence on the sequence list screen 318, and drops it on the visualization screen 302, an icon corresponding to the sequence is displayed. (Sequence icon 320) is drawn on the visualization screen 302.

このようなコンポーザ画面300では、上述したように、メインシーケンス画面312でメインシーケンスが作成されるとともに、サブシーケンス画面314でサブシーケンスが作成される。   In such a composer screen 300, as described above, a main sequence is created on the main sequence screen 312 and a sub-sequence is created on the sub-sequence screen 314.

図7は、視覚化画面302にメインシーケンス画面312が表示された状態のコンポーザ画面300の一例であり、図8は、そのメインシーケンス画面312のメインシーケンスを表した図解図である。   FIG. 7 is an example of the composer screen 300 in a state where the main sequence screen 312 is displayed on the visualization screen 302, and FIG. 8 is an illustrative view showing the main sequence of the main sequence screen 312.

図7に示すように、メインシーケンス画面312では、ビヘイビアアイコン304が表示されるとともに、コミュニケーションを行う対話相手の返答等による条件分岐を示す台形状のアイコン(条件分岐アイコン322)、メインシーケンスの実行開始を示すメインスタートアイコン324、およびメインシーケンスの実行終了を示すメインエンドアイコン326が表示される。   As shown in FIG. 7, on the main sequence screen 312, a behavior icon 304 is displayed, a trapezoidal icon (conditional branch icon 322) indicating a conditional branch due to a response of a communication partner with whom communication is performed, and execution of the main sequence A main start icon 324 indicating the start and a main end icon 326 indicating the end of execution of the main sequence are displayed.

また、このメインシーケンス画面312では、サブシーケンスのシーケンスアイコン320が表示され、このシーケンスアイコン320と他のアイコン304,322,324,326とが遷移線306で連結されることによって、メインシーケンスの中にサブシーケンスが組み込まれる。   In addition, on the main sequence screen 312, a subsequence sequence icon 320 is displayed, and the sequence icon 320 and other icons 304, 322, 324, and 326 are connected by a transition line 306, so that The subsequence is embedded in

図7および図8を参照して、このメインシーケンス画面312では、メインスタートアイコン324と「こんにちは(Talk)」のビヘイビアアイコン304とが遷移線306で連結され、さらに、この「こんにちは(Talk)」のビヘイビアアイコン304と「道案内しましょうか?(Ask)」のビヘイビアアイコン304とが遷移線306で連結される。すなわち、ロボット12は、このメインシーケンスを実行開始すると、先ず、「こんにちは」と発話するビヘイビアB1を実行し、所定の時間が経過すると、次に、「道案内しましょうか?」と発話するビヘイビアB2を実行することとなる。   Referring to FIGS. 7 and 8, in this main sequence screen 312, a main start icon 324 and a “Talk” behavior icon 304 are connected by a transition line 306, and this “Talk” is further displayed. The behavior icon 304 of “Let's guide you? (Ask)” is connected with a transition line 306. In other words, the behavior robot 12, when you start to run this main sequence, first of all, to perform a behavior B1 to speech as "Hello", when a predetermined time has elapsed, then, that the utterance "Do Let's directions?" B2 will be executed.

そして、「道案内しましょうか?(Ask)」のビヘイビアアイコン304と条件分岐アイコン322とが遷移線306で連結され、さらに、この条件分岐アイコン322の右側(出力側)の「はい」のポートとシーケンスアイコン320とが遷移線306で連結される。また、条件分岐アイコン322の右側(出力側)の「いいえ」のポートと「じゃあ、お買い得情報を教えます(Talk)」のビヘイビアアイコン304とが遷移線306で連結される。すなわち、ロボット12は、対話相手の返答を待ち、その対話相手から「はい」という返答があれば、ロボット12はサブシーケンスを実行開始することとなる。一方、対話相手から「いいえ」という返答があれば、「じゃあ、お買い得情報を教えます」と発話してお買い得情報を教えるビヘイビアB4を実行することとなる。   Then, the behavior icon 304 and the conditional branch icon 322 of “Let's guide you? (Ask)” are connected by a transition line 306, and the port “Yes” on the right side (output side) of the conditional branch icon 322 is connected. And the sequence icon 320 are connected by a transition line 306. Also, a “No” port on the right side (output side) of the conditional branch icon 322 and a behavior icon 304 “Tell me about bargain information (Talk)” are connected by a transition line 306. That is, the robot 12 waits for a reply from the conversation partner, and if there is a reply “Yes” from the conversation partner, the robot 12 starts executing the subsequence. On the other hand, if there is a reply of “No” from the conversation partner, the behavior B4 for teaching the bargain information by saying “Tell me bargain information” is executed.

さらに、シーケンスアイコン320の右側(出力側)の「案内終了」のポートと「Bye」のビヘイビアアイコン304とが遷移線306で連結され、この「Bye」のビヘイビアアイコン304とメインエンドアイコン326とが遷移線306で連結される。また、シーケンスアイコン320の右側(出力側)の「割り込み終了」のポートと「じゃあ、お買い得情報を教えます(Talk)」のビヘイビアアイコン304とが遷移線306で連結され、「じゃあ、お買い得情報を教えます(Talk)」のビヘイビアアイコン304と「Bye」のビヘイビアアイコン304とが遷移線306で連結され、さらに、この「Bye」のビヘイビアアイコン304とメインエンドアイコン326とが遷移線306で連結される。すなわち、ロボット12は、案内を完了した状態でサブシーケンスを実行終了していれば、次に、「ばいばい」と発話するビヘイビアB5を実行して、メインシーケンスを実行終了することとなる。一方、ロボット12は、割り込み終了した状態でサブシーケンスを実行終了、すなわち、後で詳細に説明するように、反射的遷移R3からメインシーケンスに戻ったのであれば、次に、「じゃあ、お買い得情報を教えます」と発話してお買い得情報を教えるビヘイビアB4を実行し、その後、「ばいばい」と発話するビヘイビアB5を実行して、メインシーケンスを実行終了することとなる。   Further, the “guidance end” port on the right side (output side) of the sequence icon 320 and the “Bye” behavior icon 304 are connected by a transition line 306, and the “Bye” behavior icon 304 and the main end icon 326 are connected. They are connected by a transition line 306. In addition, the “interrupt end” port on the right side (output side) of the sequence icon 320 and the behavior icon 304 of “Tell me about bargain information (Talk)” are connected by a transition line 306, and “ The “Teach” (Talk) behavior icon 304 and the “Bye” behavior icon 304 are connected by a transition line 306, and the “By” behavior icon 304 and the main end icon 326 are connected by a transition line 306. The That is, if the execution of the sub-sequence is completed in the state where the guidance is completed, the robot 12 executes the behavior B5 that speaks “Babei” and ends the execution of the main sequence. On the other hand, if the robot 12 completes the execution of the subsequence in the interrupted state, that is, as described later in detail, if the robot 12 returns to the main sequence from the reflexive transition R3, then " The behavior B4 that teaches bargain information is executed and the behavior B5 that speaks “Babei” is executed, and the execution of the main sequence ends.

また、図9は、視覚化画面302にサブシーケンス画面314が表示された状態のコンポーザ画面300の一例であり、図10は、そのサブシーケンス画面314のサブシーケンスを表した図解図であり、図11は、そのサブシーケンス画面314の反射的遷移を表した図解図である。   9 is an example of the composer screen 300 in a state where the sub-sequence screen 314 is displayed on the visualization screen 302. FIG. 10 is an illustrative view showing the sub-sequence of the sub-sequence screen 314. 11 is an illustrative view showing a reflective transition of the sub-sequence screen 314. FIG.

図9に示すように、サブシーケンス画面314では、ビヘイビアアイコン304や条件分岐アイコン322が表示されるとともに、サブシーケンスの実行開始を示すサブスタートアイコン328、およびサブシーケンスの実行終了を示すサブエンドアイコン330が表示される。   As shown in FIG. 9, on the sub-sequence screen 314, a behavior icon 304 and a conditional branch icon 322 are displayed, a sub-start icon 328 indicating the start of execution of the sub-sequence, and a sub-end icon indicating the end of execution of the sub-sequence. 330 is displayed.

このサブシーケンス画面314では、「レストラン1へ(Guide)」のビヘイビア、「レストラン2へ(Guide)」のビヘイビア、および「レストラン3へ(Guide)」のビヘイビアに反射的遷移(R1,R2,R3)が設定されており、それらの反射的遷移(R1,R2,R3)の実行開始を示す反射的遷移スタートアイコン332が表示される。たとえば、ロボット12の開発者等は、反射的遷移(R1,R2,R3)からの戻り先を指定することができ、具体的には、反射的遷移において最後に実行するビヘイビアのビヘイビアアイコンと、反射的遷移を終了した後で実行するビヘイビアのビヘイビアアイコンとを矢印破線(反射的遷移線334)で連結することによって、反射的遷移(R1,R2,R3)に対して、「遷移元へ戻る」、「遷移元のシーケンスの先頭に戻る」、「戻り先を指定する」等の遷移方法を設定することができる。   In this sub-sequence screen 314, reflection behavior (R1, R2, R3) is changed to the behavior “Guide”, the behavior “Guide”, and the behavior “Guide 3”. ) Is set, and a reflective transition start icon 332 indicating the start of execution of the reflective transitions (R1, R2, R3) is displayed. For example, the developer of the robot 12 can specify a return destination from the reflexive transition (R1, R2, R3), specifically, a behavior icon of the behavior to be executed last in the reflexive transition, By connecting the behavior icon of the behavior to be executed after finishing the reflective transition with an arrow broken line (reflective transition line 334), for the reflective transition (R1, R2, R3), “return to transition source”. ”,“ Return to the top of the sequence of the transition source ”,“ specify the return destination ”, etc. can be set.

図9―図11を参照して、このサブシーケンス画面314では、サブスタートアイコン328と「どこに行きたいですか?(Ask)」のビヘイビアアイコン304とが遷移線306で連結され、この「どこに行きたいですか?(Ask)」のビヘイビアアイコン304と条件分岐アイコン322が遷移線306で連結される。すなわち、ロボット12は、このサブシーケンスを実行開始すると、先ず、「どこに行きたいですか?」と発話するビヘイビアB3−1を実行して、対話相手の返答を待つこととなる。   Referring to FIGS. 9 to 11, in this subsequence screen 314, the substart icon 328 and the “Where do you want to go (Ask)” behavior icon 304 are connected by a transition line 306, and this “where to go” is displayed. (Ask) "behavior icon 304 and conditional branch icon 322 are connected by transition line 306. That is, when the robot 12 starts executing this subsequence, it first executes the behavior B3-1 that says “Where do you want to go?” And waits for the reply of the conversation partner.

そして、条件分岐アイコン322の右側(出力側)の「レストラン1」のポートと「レストラン1へ(Guide)」のビヘイビアアイコン304とが遷移線306で連結され、条件分岐アイコン322の右側(出力側)の「レストラン2」のポートと「レストラン2へ(Guide)」のビヘイビアアイコン304とが遷移線306で連結され、さらに、条件分岐アイコン322の右側(出力側)の「レストラン3」のポートと「レストラン3へ(Guide)」のビヘイビアアイコン304とが遷移線306で連結される。すなわち、ロボット12は、対話相手から「レストラン1」という返答があれば、レストラン1までの順路を説明するビヘイビアB3−2を実行することとなり、対話相手から「レストラン2」という返答があれば、レストラン2までの順路を説明するビヘイビアB3−3を実行することとなり、対話相手から「レストラン3」という返答があれば、レストラン3までの順路を説明するビヘイビアB3−4を実行することとなる。   Then, the port of “Restaurant 1” on the right side (output side) of the conditional branch icon 322 and the behavior icon 304 of “To Restaurant 1 (Guide)” are connected by a transition line 306, and the right side of the conditional branch icon 322 (output side) ) Of “Restaurant 2” and the behavior icon 304 of “Guide 2” are connected by a transition line 306, and the port of “Restaurant 3” on the right side (output side) of the conditional branch icon 322 A behavior icon 304 of “Guide 3” is connected by a transition line 306. That is, if there is a response “restaurant 1” from the conversation partner, the robot 12 executes the behavior B3-2 explaining the route to the restaurant 1, and if there is a response “restaurant 2” from the conversation partner, The behavior B3-3 for explaining the route to the restaurant 2 is executed, and if there is a response “restaurant 3” from the conversation partner, the behavior B3-4 for explaining the route to the restaurant 3 is executed.

そして、「レストラン1へ(Guide)」、「レストラン2へ(Guide)」、「レストラン3へ(Guide)」のビヘイビアアイコン304のそれぞれと「他にも案内しましょうか?(Ask)」のビヘイビアアイコン304とが遷移線306で連結される。すなわち、ロボット12は、レストラン1までの順路を説明するビヘイビアB3−2、レストラン2までの順路を説明するビヘイビアB3−3、およびレストラン3までの順路を説明するビヘイビアB3−4のいずれかを実行すると、その後、「他にも案内しましょうか?」と発話するビヘイビアB3−5を実行することとなる。   Then, each of the behavior icons 304 of “To Restaurant 1 (Guide)”, “To Restaurant 2 (Guide)”, and “To Restaurant 3 (Guide)”, and the behavior of “Do you want to guide others? (Ask)” The icon 304 is connected with a transition line 306. That is, the robot 12 executes any one of the behavior B3-2 explaining the route to the restaurant 1, the behavior B3-3 explaining the route to the restaurant 2, and the behavior B3-4 explaining the route to the restaurant 3. Then, after that, the behavior B3-5 that speaks "Is there another guide?" Is executed.

そして、「他にも案内しましょうか?(Ask)」のビヘイビアアイコン304と条件分岐アイコン322が遷移線306で連結され、この条件分岐アイコン322の右側(出力側)の「はい」のポートと「どこに行きたいですか?(Ask)」のビヘイビアアイコン304とが遷移線306で連結される。また、条件分岐アイコン322の右側(出力側)の「いいえ」のポートとサブエンドアイコン330とが遷移線306で連結される。すなわち、ロボット12は、対話相手の返答を待ち、対話相手から「はい」という返答があれば、再び「どこに行きたいですか?(Ask)」と発話するビヘイビアB3−1を実行することとなる。一方、対話相手から「いいえ」という返答があれば、サブシーケンスを実行終了し、その後、「ばいばい」と発話するビヘイビアB5(図8参照)を実行することとなる。   Then, a behavior icon 304 “Condition to others? (Ask)” and a conditional branch icon 322 are connected by a transition line 306, and a port “Yes” on the right side (output side) of the conditional branch icon 322 A behavior icon 304 of “Where do you want to go (Ask)” is connected by a transition line 306. Further, the “No” port on the right side (output side) of the conditional branch icon 322 and the sub-end icon 330 are connected by a transition line 306. That is, the robot 12 waits for the reply of the conversation partner, and if there is a reply of “Yes” from the conversation partner, the robot 12 executes the behavior B3-1 that speaks again “Where do you want to go? (Ask)”. . On the other hand, if there is a reply “No” from the conversation partner, the execution of the sub-sequence is terminated, and thereafter the behavior B5 (refer to FIG. 8) that speaks “Babei” is executed.

また、「やっぱり他の場所をおしえて」という遷移条件に対応する反射的遷移R1の反射的遷移スタートアイコン332と「わかりました(Talk)」のビヘイビアアイコン304とが遷移線306で連結される。この反射的遷移R1では、「遷移元シーケンスの先頭に戻る」の遷移方法が設定されており、ここでは、「わかりました(Talk)」のビヘイビアアイコン304と「どこに行きたいですか?(Ask)」のビヘイビアアイコン304とが反射的遷移線334で連結される。すなわち、ロボット12がレストラン1までの順路を説明するビヘイビアB3−2、レストラン2までの順路を説明するビヘイビアB3−3、およびレストラン3までの順路を説明するビヘイビアB3−4のいずれかを実行しているときに、対話相手がロボット12に対して「やっぱり他の場所をおしえて」と発話した場合には、ロボット12は現在のビヘイビアの実行を止めて、「わかりました」と発話するビヘイビアを実行し、その後、「どこに行きたいですか?」と発話するビヘイビアB3−1を実行することとなる。   In addition, the reflective transition start icon 332 of the reflective transition R1 corresponding to the transition condition of “Tell me somewhere else” and the behavior icon 304 of “I understand” (Talk) are connected by a transition line 306. In this reflective transition R1, a transition method of “return to the top of the transition source sequence” is set. Here, a behavior icon 304 of “I understand” (Talk) and “Where do you want to go? ) ”Behavior icon 304 is connected by a reflective transition line 334. That is, the robot 12 executes one of the behavior B3-2 for explaining the route to the restaurant 1, the behavior B3-3 for explaining the route to the restaurant 2, and the behavior B3-4 for explaining the route to the restaurant 3. When the conversation partner speaks to the robot 12 “Please tell me another place”, the robot 12 stops the current behavior and calls the behavior to say “I understand”. After that, the behavior B3-1 that says “Where do you want to go?” Is executed.

また、「もう1度説明して」という遷移条件に対応する反射的遷移R2の反射的遷移スタートアイコン332と「わかりました(Talk)」のビヘイビアアイコン304とが遷移線306で連結される。この反射的遷移R2では、「遷移元に戻る」の遷移方法が設定されており、ここでは、「わかりました(Talk)」のビヘイビアアイコン304と「レストラン1へ(Guide)」、「レストラン2へ(Guide)」、「レストラン3へ(Guide)」のビヘイビアアイコン304のそれぞれとが反射的遷移線334で連結される。すなわち、ロボット12がレストラン1までの順路を説明するビヘイビアB3−2、レストラン2までの順路を説明するビヘイビアB3−3、およびレストラン3までの順路を説明するビヘイビアB3−4のいずれかを実行しているときに、対話相手がロボット12に対して「もう1度説明して」と発話した場合には、ロボット12は現在のビヘイビアの実行を止めて、「わかりました」と発話するビヘイビアを実行し、その後、再び、レストラン1までの順路を説明するビヘイビアB3−2、レストラン2までの順路を説明するビヘイビアB3−3、およびレストラン3までの順路を説明するビヘイビアB3−4のいずれかを実行することとなる。   In addition, the reflective transition start icon 332 of the reflective transition R 2 corresponding to the transition condition “explain once again” and the behavior icon 304 of “Ok” (Talk) are connected by a transition line 306. In this reflective transition R2, a transition method of “returning to the transition source” is set. Here, a behavior icon 304 of “I understand (Talk)”, “to restaurant 1 (Guide)”, “restaurant 2” Each of the “Guide” and “Guide” behavior icons 304 is connected by a reflective transition line 334. That is, the robot 12 executes one of the behavior B3-2 for explaining the route to the restaurant 1, the behavior B3-3 for explaining the route to the restaurant 2, and the behavior B3-4 for explaining the route to the restaurant 3. If the conversation partner utters “explain” to the robot 12, the robot 12 stops executing the current behavior and sets a behavior to utter “I understand”. After that, either behavior B3-2 explaining the route to restaurant 1, behavior B3-3 explaining the route to restaurant 2, and behavior B3-4 explaining the route to restaurant 3 is performed again. Will be executed.

また、「やっぱりいらない」という遷移条件に対応する反射的遷移R3の反射的遷移スタートアイコン332と「そうですか(Talk)」のビヘイビアアイコン304とが遷移線306で連結される。この反射的遷移R3では、「戻り先を指定する」の遷移方法が設定されており、ここでは、「そうですか(Talk)」のビヘイビアアイコン304とサブエンドアイコン330とが反射的遷移線334で連結される。そして、上述したように、メインシーケンス画面312では、シーケンスアイコン320の右側(出力側)の「割り込み終了」のポートと「じゃあ、お買い得情報を教えます(Talk)」のビヘイビアアイコン304とが遷移線306で連結される。すなわち、ロボット12がレストラン1までの順路を説明するビヘイビアB3−2、レストラン2までの順路を説明するビヘイビアB3−3、およびレストラン3までの順路を説明するビヘイビアB3−4のいずれかを実行しているときに、対話相手がロボット12に対して「やっぱりいらない」と発話した場合には、ロボット12は現在のビヘイビアの実行を止めて、「そうですか」と発話するビヘイビアを実行し、その後、「じゃあ、お買い得情報を教えます」と発話してお買い得情報を教えるビヘイビアB4(図8参照)を実行する。   In addition, the reflective transition start icon 332 of the reflective transition R3 corresponding to the transition condition “not necessary” and the behavior icon 304 of “Talk” are connected by a transition line 306. In this reflective transition R3, a transition method of “specifying a return destination” is set. Here, a behavior icon 304 and a sub-end icon 330 of “Yes” are reflected in a reflective transition line 334. Connected with As described above, on the main sequence screen 312, the “interrupt end” port on the right side (output side) of the sequence icon 320 and the behavior icon 304 of “Tell me about bargain information (Talk)” are transition lines. Connected at 306. That is, the robot 12 executes one of the behavior B3-2 for explaining the route to the restaurant 1, the behavior B3-3 for explaining the route to the restaurant 2, and the behavior B3-4 for explaining the route to the restaurant 3. When the conversation partner utters “I don't need it” to the robot 12, the robot 12 stops the current behavior and executes the behavior to say “Is that?” Then, the behavior B4 (see FIG. 8) for teaching bargain information is executed by uttering “Tell me bargain information”.

具体的には、開発支援装置10のCPU20は、図12に示すフロー図に従って開発支援処理を実行する。   Specifically, the CPU 20 of the development support apparatus 10 executes the development support process according to the flowchart shown in FIG.

処理が開始されると、CPU20は、先ず、ステップS1で、メモリ24から画面データを読み出し、たとえば図7または図9に示すようなコンポーザ画面300を表示装置26に表示する。   When the process is started, the CPU 20 first reads screen data from the memory 24 in step S1, and displays a composer screen 300 as shown in FIG. 7 or FIG. 9 on the display device 26, for example.

次に、ステップS3では、停止命令があるか否かを判断する。たとえば、ロボット12の開発者等によって、コンポーザ画面300の図示しない終了メニューが選択された場合には“YES”と判断し、続くステップS5で終了処理を実行して、開発支援処理を終了する。一方、ステップS3で“NO”であれば、つまり停止命令が無ければ、ステップS7に進む。   Next, in step S3, it is determined whether there is a stop command. For example, if a developer or the like of the robot 12 selects an end menu (not shown) on the composer screen 300, “YES” is determined, and in the subsequent step S5, an end process is executed to end the development support process. On the other hand, if “NO” in the step S3, that is, if there is no stop command, the process proceeds to a step S7.

ステップS7では、行動モジュールの状態遷移の設定処理を行う。ここでは、ロボット12の開発者等は、メインシーケンス画面312上でメインシーケンスを作成するとともに、サブシーケンス画面314上でサブシーケンスを作成することによって、行動モジュールの状態遷移を設定する。   In step S7, action module state transition setting processing is performed. Here, the developer of the robot 12 creates the main sequence on the main sequence screen 312 and sets the state transition of the behavior module by creating the sub sequence on the sub sequence screen 314.

そして、ステップS9では、行動モジュールの状態遷移の設定処理が終了したか否かを判断する。ここでは、行動モジュールの状態遷移が設定された後、コンポーザ画面300の図示しない決定メニューが選択されたか否かを判断する。ステップS9で決定メニューが選択された場合には“YES”と判断し、続くステップS11で、作成したジーケンスをシーケンスDB30に保存し、ステップS13で、その行動モジュールの状態遷移に関する情報(遷移情報)をロボット12に送信して、ステップS3に戻る。   In step S9, it is determined whether or not the action module state transition setting process has been completed. Here, after the behavior module state transition is set, it is determined whether or not a decision menu (not shown) on the composer screen 300 has been selected. If the determination menu is selected in step S9, “YES” is determined. In the subsequent step S11, the created sequence is stored in the sequence DB 30. In step S13, information on the state transition of the action module (transition information). Is transmitted to the robot 12, and the process returns to step S3.

図13は、ロボット12のCPU100の全体処理を示すフロー図である。図13に示すように、ロボット12のCPU100は、全体処理を実行すると、ステップS31で、最初に行う所定のビヘイビアを実行する。つまり、メモリ104から最初に行う所定のビヘイビアに対応する行動モジュールを読み出して、その行動モジュールに規定される行動を行う。なお、最初に実行する所定のビヘイビアには、たとえば「EXPLORE(周囲環境を巡回して調査)」のように周囲環境を調査するもの等が設定され得る。   FIG. 13 is a flowchart showing the overall processing of the CPU 100 of the robot 12. As shown in FIG. 13, when the CPU 100 of the robot 12 executes the entire process, in step S31, the CPU 100 executes a predetermined behavior to be performed first. That is, an action module corresponding to a predetermined behavior to be performed first is read from the memory 104, and an action defined by the action module is performed. As the predetermined behavior to be executed first, for example, an exploration of the surrounding environment such as “EXPLORE (surrounding the surrounding environment)” may be set.

続いて、ステップS33で、停止命令があるか否かを判断する。ここでは、たとえば、開発中であれば開発支援装置10から終了指示があったか、あるいは、ロボット12を停止させるための終了ボタンが押されたかどうか等を判断する。   Subsequently, in step S33, it is determined whether or not there is a stop command. Here, for example, if development is in progress, it is determined whether or not there has been an end instruction from the development support apparatus 10 or whether or not an end button for stopping the robot 12 has been pressed.

ステップS33で“YES”であれば、続くステップS35で終了処理を実行して、ロボット12の動作処理を終了する。この終了処理では、ロボット12の体の各部位をそれぞれのホームポジションに戻すようにしてもよい。   If “YES” in the step S33, an end process is executed in a subsequent step S35, and the operation process of the robot 12 is ended. In this end process, each part of the body of the robot 12 may be returned to the home position.

一方、ステップS33で“NO”であれば、つまり停止命令がなければ、ステップS37で、開発支援装置10から「行動モジュールの状態遷移」についての遷移情報がネットワーク200を介して送信されてきたか否かを判断する。ステップS37で“YES”であれば、続くステップS39で遷移情報を受信してメモリ104に書き込む。   On the other hand, if “NO” in the step S33, that is, if there is no stop command, whether or not transition information on “state transition of behavior module” is transmitted from the development support apparatus 10 via the network 200 in a step S37. Determine whether. If “YES” in the step S37, the transition information is received and written in the memory 104 in a succeeding step S39.

続いて、ステップS41で、遷移情報に従い最初のビヘイビアを実行する。ここでは、ロボット12は、遷移情報に従って、最初の行動モジュールのデータをメモリ104から読み出して、その行動モジュールに対応するビヘイビアを実行する。   Subsequently, in step S41, the first behavior is executed according to the transition information. Here, the robot 12 reads the data of the first behavior module from the memory 104 according to the transition information, and executes the behavior corresponding to the behavior module.

続く、ステップS43では、ロボット12の現在実行中のビヘイビアに対して、反射的遷移の条件が満たされるか否かを判断する。ここでは、対話相手がロボット12に対して反射的遷移の条件を満足するような行動をとったか否かを判断する。   In the next step S43, it is determined whether or not the condition of the reflective transition is satisfied for the behavior of the robot 12 currently being executed. Here, it is determined whether or not the conversation partner has taken an action that satisfies the reflexive transition condition with respect to the robot 12.

ステップS43で“YES”であれば、つまりロボット12の現在実行中のビヘイビアに対して反射的遷移の条件が満たされるのであれば、ステップS45で、反射的遷移の実行処理(図14参照)を開始する。   If “YES” in the step S43, that is, if the condition of the reflective transition is satisfied with respect to the behavior currently being executed by the robot 12, the execution process of the reflective transition (see FIG. 14) is performed in a step S45. Start.

一方、ステップS43で“NO”であれば、つまりロボット12の現在実行中のビヘイビアに対して反射的遷移の条件が満たされないのであれば、ステップS47で、遷移情報に指定されている全てのビヘイビアの実行が完了したか否かを判断する。ステップS47で“YES”であれば、つまり行動モジュールの状態遷移において指定されている全てのビヘイビアの実行が完了していれば、ステップS33へ戻る。   On the other hand, if “NO” in the step S43, that is, if the condition of the reflective transition with respect to the behavior currently being executed by the robot 12 is not satisfied, all the behaviors specified in the transition information in the step S47. It is determined whether or not the execution of is completed. If “YES” in the step S47, that is, if execution of all the behaviors specified in the state transition of the behavior module is completed, the process returns to the step S33.

一方、ステップS47で“NO”であれば、つまり、まだ全てのビヘイビアの実行が完了していなければ、ステップS49で、遷移情報に従い次のビヘイビアを実行する。そして、ステップS43に戻って、処理が繰り返される。   On the other hand, if “NO” in the step S47, that is, if the execution of all the behaviors is not yet completed, the next behavior is executed in accordance with the transition information in a step S49. And it returns to step S43 and a process is repeated.

図14は、図13に示したステップS45の反射的遷移の実行処理のフロー図である。図14に示すように、ロボット12のCPU100は、反射的遷移Riの実行処理を開始すると、S61で、ロボット12の現在のビヘイビアBiの実行を中断して、S63で、反射的遷移Riで定義されている一連のビヘイビア{Bi1,Bi2,・・・,BiN}を実行する。   FIG. 14 is a flowchart of the execution process of the reflective transition in step S45 shown in FIG. As shown in FIG. 14, when the CPU 100 of the robot 12 starts execution processing of the reflexive transition Ri, in S61, the execution of the current behavior Bi of the robot 12 is interrupted, and in S63, the reflexive transition Ri is defined. A series of behaviors {Bi1, Bi2,..., BiN} are executed.

続く、ステップS65では、反射的遷移Riに対して、「遷移元へ戻る」の遷移方法が設定されているか否かを判断する。ステップS65で“YES”であれば、ステップS67で、再びビヘイビアBiを実行し、ステップS43(図13参照)に戻って、処理が繰り返される。一方、ステップS65で“NO”であれば、つまり、反射的遷移Riに対して、「遷移元へ戻る」の遷移方法が設定されていなければ、ステップS69に進む。   In step S65, it is determined whether or not a transition method of “return to transition source” is set for the reflective transition Ri. If “YES” in the step S65, the behavior Bi is executed again in a step S67, the process returns to the step S43 (see FIG. 13), and the process is repeated. On the other hand, if “NO” in the step S65, that is, if the transition method of “return to transition source” is not set for the reflective transition Ri, the process proceeds to a step S69.

ステップS69では、反射的遷移Riに対して、「遷移元のシーケンスの先頭へ戻る」の遷移方法が設定されているか否かを判断する。ステップS69で“YES”であれば、ステップS71で、ビヘイビアBiの属するシーケンスの最初のビヘイビアを実行し、ステップS43(図13参照)に戻って、処理が繰り返される。一方、ステップS69で“NO”であれば、つまり、反射的遷移Riに対して、「遷移元へ戻る」の遷移方法も、「遷移元のシーケンスへ戻る」の遷移方法も設定されていなければ、ステップS73に進む。   In step S69, it is determined whether or not a transition method of “return to the beginning of the sequence of the transition source” is set for the reflective transition Ri. If “YES” in the step S69, the first behavior of the sequence to which the behavior Bi belongs is executed in a step S71, the process returns to the step S43 (see FIG. 13), and the process is repeated. On the other hand, if “NO” in the step S69, that is, neither the “return to transition source” transition method nor the “return to transition source sequence” transition method is set for the reflective transition Ri. The process proceeds to step S73.

ステップS73では、反射的遷移Riに対して、「戻り先を指定する」が設定されているか否かを判断する。ステップS73で“YES”であれば、ステップS75で、戻り先として指定されたビヘイビアを実行し、ステップS43(図13参照)に戻って、処理が繰り返される。   In step S73, it is determined whether or not “specify return destination” is set for the reflective transition Ri. If “YES” in the step S73, the behavior designated as the return destination is executed in a step S75, the process returns to the step S43 (see FIG. 13), and the process is repeated.

このように、この実施例では、行動モジュールの状態遷移が最上位であるメインシーケンスとそれより下位のサブシーケンスとに階層化され、メインシーケンスに対応するメインシーケンス画面312とサブシーケンスに対応するサブシーケンス画面314とがそれぞれ個別に表示される。そして、メインシーケンス画面312上に表示されたアイコン304,320,322,324,326とそれらを連結する連結線306とに基づいて、メインシーケンスを作成することができる。また、サブシーケンス画面314上に表示されたアイコン304,322,328,330とそれらを連結する連結線306とに基づいて、サブシーケンスを作成することができる。したがって、この実施例によれば、階層性のある複雑な行動モジュールの関係性を簡単に設定することができる。   As described above, in this embodiment, the state transition of the behavior module is hierarchized into the main sequence having the highest level and the subsequences lower than the main sequence, and the main sequence screen 312 corresponding to the main sequence and the subsequence corresponding to the subsequence The sequence screen 314 is displayed individually. A main sequence can be created based on the icons 304, 320, 322, 324, and 326 displayed on the main sequence screen 312 and the connecting line 306 connecting them. Further, a subsequence can be created based on the icons 304, 322, 328, and 330 displayed on the subsequence screen 314 and the connecting line 306 connecting them. Therefore, according to this embodiment, it is possible to easily set the relationship between complex action modules having a hierarchical structure.

また、この実施例では、反射的遷移において最後に実行するビヘイビアのビヘイビアアイコンと、反射的遷移を終了した後で実行するビヘイビアのビヘイビアアイコンとを反射的遷移線334で連結することによって、反射的遷移からの戻り先を指定することができる。そして、反射的遷移に対して、「遷移元へ戻る」、「遷移元のシーケンスの先頭に戻る」、「戻り先を指定する」等の遷移方法を設定することができる。   In this embodiment, the behavior icon of the behavior that is executed last in the reflective transition and the behavior icon of the behavior that is executed after the reflective transition is finished are connected by the reflective transition line 334 to reflect the behavior. You can specify the return destination from the transition. Then, a transition method such as “return to the transition source”, “return to the top of the sequence of the transition source”, or “specify the return destination” can be set for the reflective transition.

なお、この実施例では、メインシーケンスの一部に含まれるひとまとまりの実行順序関係をサブシーケンスとして階層化して、1つのシーケンスアイコン320をメインシーケンス画面312上に表示したが、これに限定される必要はない。たとえば、メインシーケンスの一部にひとまとまりの実行順序関係が複数含まれていれば、そのそれぞれをサブシーケンスとして階層化して、複数のシーケンスアイコン320をメインシーケンス画面312上に表示してもよい。また、たとえば、サブシーケンスの一部にひとまとまりの実行順序関係が含まれていれば、それをサブシーケンスとして階層化して、サブシーケンス画面314上にシーケンスアイコン320を表示するようにしてもよい。   In this embodiment, a group of execution order relationships included in a part of the main sequence is hierarchized as a sub-sequence and one sequence icon 320 is displayed on the main sequence screen 312, but this is not limitative. There is no need. For example, if a part of the main sequence includes a plurality of execution order relationships, each of them may be hierarchized as a sub-sequence and a plurality of sequence icons 320 may be displayed on the main sequence screen 312. Further, for example, if a part of a subsequence includes a group of execution order relations, the subsequence may be hierarchized as a subsequence, and the sequence icon 320 may be displayed on the subsequence screen 314.

10 …コミュニケーションロボット開発支援装置
12 …コミュニケーションロボット
20 …CPU
22 …バス
24 …メモリ
26 …表示装置
28 …入力装置
30 …シーケンスDB
60 …赤外線距離センサ
66 …全方位カメラ
78 …接触センサ
84 …スピーカ
86 …マイク
90 …眼カメラ
100 …CPU
102 …バス
104 …メモリ
106 …モータ制御ボード
108 …センサ入力/出力ボード
110 …音声入力/出力ボード
200 …ネットワーク
300 …コンポーザ画面
302 …視覚化画面
304 …ビヘイビアアイコン
306 …遷移アイコン
312 …メインシーケンス画面
314 …サブシーケンス画面
320 …シーケンス画面
334 …反射的遷移アイコン
10 ... Communication robot development support device 12 ... Communication robot 20 ... CPU
22 ... bus 24 ... memory 26 ... display device 28 ... input device 30 ... sequence DB
60 ... Infrared distance sensor 66 ... Omnidirectional camera 78 ... Contact sensor 84 ... Speaker 86 ... Microphone 90 ... Eye camera 100 ... CPU
DESCRIPTION OF SYMBOLS 102 ... Bus 104 ... Memory 106 ... Motor control board 108 ... Sensor input / output board 110 ... Voice input / output board 200 ... Network 300 ... Composer screen 302 ... Visualization screen 304 ... Behavior icon 306 ... Transition icon 312 ... Main sequence screen 314 ... Subsequence screen 320 ... Sequence screen 334 ... Reflective transition icon

Claims (3)

一連の行動プログラムからなる行動モジュールを実行することによってコミュニケーション行動を取るコミュニケーションロボットを開発するためのコミュニケーションロボット開発支援装置であって、
前記行動モジュールの遷移を最上位であるメインシーケンスとそれより下位のサブシーケンスとに階層化し、前記メインシーケンスに対応するメインシーケンス画面と前記サブシーケンスに対応するサブシーケンス画面とを個別に画面上に表示するシーケンス表示手段、
前記行動モジュールを示すビヘイビアアイコンを前記画面上に表示するとともに、前記サブシーケンスを示す第1シーケンスアイコンを少なくとも前記メインシーケンス画面上に表示するアイコン表示手段、
前記アイコン表示手段によって前記メインシーケンス画面上に表示されたアイコンと、アイコン間を連結して前記行動モジュールの実行順序を示す遷移線とに基づいて、前記メインシーケンスを作成するメインシーケンス作成手段、および
前記アイコン表示手段によって前記サブシーケンス画面上に表示されたアイコンと前記遷移線とに基づいて、前記サブシーケンスを作成するサブシーケンス作成手段を備える、コミュニケーションロボット開発支援装置。
A communication robot development support device for developing a communication robot that takes a communication action by executing an action module comprising a series of action programs,
The transition of the behavior module is hierarchized into a main sequence that is the highest level and a sub sequence that is lower than the main sequence, and a main sequence screen corresponding to the main sequence and a sub sequence screen corresponding to the sub sequence are individually displayed on the screen Sequence display means for displaying,
Icon display means for displaying a behavior icon indicating the behavior module on the screen and displaying at least a first sequence icon indicating the sub-sequence on the main sequence screen;
Main sequence creation means for creating the main sequence based on the icons displayed on the main sequence screen by the icon display means and transition lines indicating the execution order of the behavior modules by connecting the icons; and A communication robot development support device comprising subsequence creation means for creating the subsequence based on the icon displayed on the subsequence screen by the icon display means and the transition line.
前記メインシーケンス作成手段によって作成された前記メインシーケンスと前記サブシーケンス作成手段によって作成されたサブシーケンスとを記憶するシーケンス記憶手段をさらに備え、
前記アイコン表示手段は、前記シーケンス記憶手段から所望のシーケンスを読み出して、そのシーケンスを示す第2シーケンスアイコンを前記画面上に表示する読み出しアイコン表示手段を含む、請求項1記載のコミュニケーションロボット開発支援装置。
Sequence storage means for storing the main sequence created by the main sequence creation means and the sub-sequence created by the sub-sequence creation means;
The communication robot development support apparatus according to claim 1, wherein the icon display means includes a read icon display means for reading a desired sequence from the sequence storage means and displaying a second sequence icon indicating the sequence on the screen. .
前記行動モジュールの反射的遷移からの戻り先を指定する戻り先指定手段をさらに備える、請求項1または2記載のコミュニケーションロボット開発支援装置。   The communication robot development support device according to claim 1, further comprising return destination designation means for designating a return destination from the reflective transition of the behavior module.
JP2009143871A 2009-06-17 2009-06-17 Communication robot development support device Active JP5429461B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009143871A JP5429461B2 (en) 2009-06-17 2009-06-17 Communication robot development support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009143871A JP5429461B2 (en) 2009-06-17 2009-06-17 Communication robot development support device

Publications (2)

Publication Number Publication Date
JP2011000655A true JP2011000655A (en) 2011-01-06
JP5429461B2 JP5429461B2 (en) 2014-02-26

Family

ID=43559060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009143871A Active JP5429461B2 (en) 2009-06-17 2009-06-17 Communication robot development support device

Country Status (1)

Country Link
JP (1) JP5429461B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232363A (en) * 2011-04-28 2012-11-29 Seiko Epson Corp Robot control system, robot system and program
JP2014117781A (en) * 2012-12-18 2014-06-30 Yaskawa Electric Corp Teaching data creation device, robot system, and teaching data creation method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7124389B2 (en) 2018-03-30 2022-08-24 セイコーエプソン株式会社 Controllers, robots and robotic systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249026A (en) * 1995-03-10 1996-09-27 Fanuc Ltd Programming method for system including robot
JP2001147704A (en) * 1999-09-06 2001-05-29 Nippo Precision Co Ltd System for preparing operational procedure of device, recording medium with its operational procedure and control system recorded thereon
JP2002120174A (en) * 2000-10-11 2002-04-23 Sony Corp Authoring system, authoring method and storage medium
JP2004114242A (en) * 2002-09-26 2004-04-15 Advanced Telecommunication Research Institute International Communication robot and its development supporting device
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JP2005288573A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Mobile robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249026A (en) * 1995-03-10 1996-09-27 Fanuc Ltd Programming method for system including robot
JP2001147704A (en) * 1999-09-06 2001-05-29 Nippo Precision Co Ltd System for preparing operational procedure of device, recording medium with its operational procedure and control system recorded thereon
JP2002120174A (en) * 2000-10-11 2002-04-23 Sony Corp Authoring system, authoring method and storage medium
JP2004114242A (en) * 2002-09-26 2004-04-15 Advanced Telecommunication Research Institute International Communication robot and its development supporting device
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JP2005288573A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Mobile robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232363A (en) * 2011-04-28 2012-11-29 Seiko Epson Corp Robot control system, robot system and program
JP2014117781A (en) * 2012-12-18 2014-06-30 Yaskawa Electric Corp Teaching data creation device, robot system, and teaching data creation method

Also Published As

Publication number Publication date
JP5429461B2 (en) 2014-02-26

Similar Documents

Publication Publication Date Title
KR101880775B1 (en) Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program
Csapo et al. Multimodal conversational interaction with a humanoid robot
US20180307321A1 (en) Build Status of a Buildable Product
CN100436082C (en) Communication robot control system
JP5429462B2 (en) Communication robot
JP5070441B2 (en) Robot remote control system
JP2006297531A (en) Service robot
JP2009241166A (en) Robot remote operation system
JP2001229392A (en) Rational architecture for executing conversational character with communication of small number of messages
Mayer et al. Examples of multimodal user interfaces for socially assistive robots in Ambient Assisted Living environments
JP2007213190A (en) Communication robot improvement system
JP2019079204A (en) Information input-output control system and method
JP5429461B2 (en) Communication robot development support device
JP2009131914A (en) Robot control system
JP2007160427A (en) Robot control system
Wang et al. LaMI: Large Language Models for Multi-Modal Human-Robot Interaction
JP4059742B2 (en) Communication robot
JP5419007B2 (en) Communication robot development support device
WO2023162248A1 (en) Teaching operation panel and robot control system
Sidner et al. The role of dialog in human robot interaction
JP5324956B2 (en) Road guidance robot
CN111195902B (en) Main control unit based on modular robot and modular robot
JP2024135494A (en) Information processing system, information processing device, information processing program, and information processing method
US20240288939A1 (en) Information processing apparatus and information processing method
JP6741968B2 (en) Food processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5429461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250